Secciones
Servicios
Destacamos
Raquel C. Pico
Martes, 20 de febrero 2024, 07:20
Necesitas ser registrado para acceder a esta funcionalidad.
Opciones para compartir
La inteligencia artificial —IA o AI, cuando se usan sus siglas en inglés— ha sido uno de los grandes temas de 2023. También seguirá siendo una de las grandes cuestiones de 2024. Lo hará mientras aumenta la preocupación por lo que puede suponer, pero también -aunque a veces resulta menos visible- los usos que se hacen de ella para potenciar el bien común.
Así, cada vez más se reclama el desarrollo de inteligencia artificial 'responsable', aquella que parte de valores éticos y objetivos morales. «La 'Responsible AI' ha sido una vez catapultada a los titulares debido al crecimiento de la IA generativa», apuntaba en su balance de cierre de año Rena Bhattacharyya, analista jefa de tecnología de empresas y servicios de GlobalData.
La clave está, como apunta la experta, en que la facilidad de acceso a herramientas como ChatGPT también ha hecho mucho más visibles -y comprensibles- los fallos y potenciales amenazas de las herramientas de inteligencia artificial. Por ello, la presión sobre las empresas para crear herramientas responsables y éticas de IA va en aumento.
Lo cierto, sin embargo, es que la inteligencia artificial tiene ya muchos usos que demuestran su potencial para el bien de toda la sociedad. Así, por ejemplo, a medida que el cibercrimen se convierte en un problema con cada vez más peso también se ve en la IA una herramienta para afrontarlo.
Manuel Penedo
Director CITIC
«Su capacidad predictiva, impulsada por el aprendizaje automático y los modelos de análisis avanzado, nos permite no solo identificar patrones sutiles de comportamiento malicioso, sino también adaptar nuestras defensas en tiempo real», explica Miguel Rego, director del área de Ciberseguridad en IMMUNE Technology Institute, al hilo de un análisis que este organismo ha realizado sobre esta cuestión. La inteligencia artificial puede servir para predecir nuevas amenazas o separar el grano de la paja online.
Pero, además, puede gestionar situaciones complejas fuera de la red. De hecho, la IA se ha convertido ya en una aliada para mejorar la respuesta ante emergencias: ayuda a detectar patrones, permite destinar recursos de forma más eficiente y reduce los tiempos en los que se atajan problemas.
Esto es en lo que trabaja el proyecto europeo Atempo, coordinado desde el Centro de Investigación en Tecnologías de la Información y las Comunicaciones (CITIC) de la Universidade da Coruña. Se trata de una propuesta internacional: servirá para mejorar la respuesta a emergencias en Portugal y en dos comunidades autónomas españolas, Galicia y Castilla y León. Participan muchas agencias, muchos datos y muchos organismos, apunta Manuel G. Penedo, director del CITIC, para lograr un objetivo común.
La colaboración tiene mucho sentido porque, al final, las emergencias no entienden de fronteras. A los incendios forestales —una de las preocupaciones habituales en esas áreas— les importan muy poco las líneas de demarcación, ni provinciales ni internacionales. Y, además, usar datos provenientes de zonas limítrofes ayuda «a ser consistentes con los datos», indica Penedo.
«Son beneficios para todos», sintetiza. Pero que sea una colaboración galaico-portuguesa-castellanoleonesa no impide que la idea tenga potencial para llegar a otras áreas geográficas. «Se puede exportar», asegura Penedo. Cambiarán los datos que se usan de base, pero los algoritmos ya estarán ahí para trabajar con ellos.
Los orígenes de este proyecto están en una colaboración que los investigadores de la universidad coruñesa mantuvieron con el servicio 112 gallego. «Es una continuación de un proyecto que ya tenía la integración de IA para el análisis de datos», apunta el directivo. La IA busca ahora ir más allá.
Los análisis de los históricos de datos -y las emergencias y todos los servicios que participan en su gestión han generado muchos datos a lo largo de los años- permiten comprender mejor cómo ocurren las cosas. «Simplemente, cómo puede evolucionar un incendio o un patrón de riesgo», ejemplifica Penedo.
«Son aplicaciones que permiten tratar datos de distintas maneras», en diferentes aspectos y en distintas áreas, como señala su coordinador. Ayudarán a «detectar cuando pueden ocurrir situaciones comprometidas». Desde inundaciones a incendios, la IA servirá para comprender y gestionar mejor las grandes emergencias transfronterizas.
Así, servirá desde para mejorar la toma de decisiones en logística hasta para el uso eficiente de herramientas. «Una de las aplicaciones es que sirve para optimizar recursos», explica su director. En un incendio, puede decir qué parque de bomberos debería desplegarse en la zona afectada y cuál no debería moverse porque el fuego llegará a su área en el futuro.
Como indica Penedo, la IA da claves en logística —cuántas dotaciones usas— pero también en tiempo. «La eficiencia no es solo que se consuma menos energía, es solucionar el problema», insiste. Igualmente, la IA «te puede dar una perspectiva distinta».
Aun así, el potencial va mucho más allá y la IA puede servir para muchas más cosas. Por ejemplo, Penedo habla del procesamiento de voces. Los servicios de emergencias reciben muchas llamadas y una parte fundamental para lograr una buena respuesta está en hacer una segmentación que identifique lo que es más urgente y lo que lo es menos. La inteligencia artificial ayuda en ese procesamiento, porque, como indica el experto, «detecta la importancia».
No solo eso: otra área de trabajo es el uso de la IA para detección de 'fake news'. La desinformación tiene mucho que ver con la respuesta a emergencias, «porque son situaciones muchas veces peligrosas», como recuerda Penedo, en la que detectar qué se necesita desmentir es fundamental por múltiples razones para los servicios de emergencias. Incluso y más allá, señala el experto, podría ayudar a detectar situaciones de riesgo y «por lo menos alertar» de que eso está ocurriendo.
Por supuesto, en todo esto, los investigadores tienen muy presente que la IA no es perfecta. Se habla mucho de sus sesgos -importados de los datos con los que se trabaja- y de sus consecuencias. «Ese es un problema serio», reconoce Penedo, «el de los sesgos en general».
Pero quienes trabajan con la IA son muy conscientes de esta realidad y de sus potenciales consecuencias y, por eso, se trabaja ya con herramientas que ayudan a atajar el problema. «Es complejo», concede Penedo, pero ya se están creando antídotos para evitarlos. Por ejemplo, ya existen algoritmos que se dedican a identificarlos o a señalar que datos deberían estar en ese histórico que se usa para entender qué ocurre y no están.
Publicidad
Publicidad
Te puede interesar
Renault Comercial, con 300 empleados, cambió en junio su sede social a Madrid
El Norte de Castilla
Publicidad
Publicidad
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para registrados
¿Ya eres registrado?
Inicia sesiónNecesitas ser suscriptor para poder votar.