
Un hito en la comprensión emocional por parte de las máquinas
Durante mucho tiempo, la inteligencia emocional se consideró una capacidad exclusivamente humana, difícil de replicar en máquinas. Sin embargo, recientes estudios han desafiado esta creencia.
Investigadores de las universidades de Ginebra y Berna han demostrado que modelos de lenguaje como ChatGPT-4 pueden superar a los humanos en pruebas estandarizadas de inteligencia emocional. En un experimento publicado en Communications Psychology, estos modelos acertaron en el 81% de los casos, frente al 56% de los participantes humanos, al evaluar situaciones emocionales complejas y seleccionar la respuesta más adecuada. [Muy Interesante]
La IA como generadora de pruebas emocionales
Más allá de interpretar emociones, ChatGPT-4 fue capaz de generar sus propias pruebas de inteligencia emocional, creando situaciones hipotéticas y respuestas posibles en tiempo récord. Este avance sugiere que la IA no solo puede comprender emociones humanas, sino también contribuir activamente al desarrollo de herramientas para su evaluación .
Investigación en España: detección de emociones mediante IA
En España, la Universidad de Granada (UGR) está explorando la capacidad de la inteligencia artificial para detectar emociones humanas a través de dispositivos electrónicos portátiles, como diademas de electroencefalograma (EEG). Este estudio, liderado por Francisco García Moreno y Marta Badenes Sastre, analiza cómo la IA puede identificar emociones básicas como la alegría y la tristeza mediante la actividad cerebral.
Los hallazgos de la UGR abren nuevas posibilidades en aplicaciones de interfaces cerebro-máquina, salud mental y entornos de inteligencia artificial afectiva, contribuyendo a una mejor comprensión de cómo la actividad cerebral refleja estados emocionales.
Implicaciones y consideraciones éticas
Los avances en inteligencia emocional artificial representan un cambio de paradigma con implicaciones en múltiples sectores: educación, salud, robótica, marketing, transporte y más. Sin embargo, también plantean desafíos éticos de gran calado:
- ¿Quién tiene derecho a interpretar nuestras emociones?
- ¿Cómo se garantiza la privacidad de los datos afectivos, especialmente si se recogen mediante sensores cerebrales o de voz?
- ¿Puede una IA simular empatía sin realmente "sentir"?
Instituciones como el Observatorio Nacional de Tecnología y Sociedad (ONTSI) ya han subrayado la necesidad de un marco ético para el desarrollo de tecnologías afectivas, con especial atención a la transparencia, consentimiento y finalidad de uso.