HayCanal.com

Computación afectiva, la inteligencia artificial que explora las emociones

Computación afectiva, la inteligencia artificial que explora las emociones

La tecnología que explora nuestras emociones y puede llegar a reconocer cómo nos sentimos ha dejado de ser una utopía.

Así lo demuestran las inversiones en este mercado, que según el último estudio publicado por MarketsandMarkets crecerán en los próximos cinco años desde los 22,2 billones de dólares invertidos en 2019 hasta los 90 billones de dólares que se estima que se inviertan en 2024. Este extraordinario crecimiento según los expertos se explica por las posibilidades que conlleva el desarrollo de la computación afectiva: esta nueva tecnología promete desde cambiar nuestras relaciones con las empresas, haciéndolas más agradables y cálidas, hasta mejorar nuestra experiencia de conducción adaptando la temperatura o la música a nuestro estado emocional, pasando por proporcionar apoyo emocional e incluso detectar de forma precoz problemas psicológicos en sus primeras fases, entre otras tareas de una larga lista.

«Hay muchas formas de aplicar la computación afectiva a nuestras vidas», señala David Masip, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la Universitat Oberta de Catalunya (UOC). «Existen aplicaciones comerciales o industriales bastante factibles a corto plazo, como por ejemplo la publicidad reactiva, la extracción de información emocional como mecanismo de retorno honesto, automatizado y constante en aplicaciones de ocio o experiencia de usuario, etc. Todas ellas tienen que permitir mejorar los servicios que recibimos a diario. Pero el gran salto debe producirse cuando disciplinas como la social robotics o la human-robot interaction estén integradas en nuestras vidas y puedan incorporar conceptos de computación afectiva», explica.

Se refiere a uno de los objetivos de este campo de investigación: conseguir que las máquinas proporcionen servicio «de una forma ubicua y natural en los quehaceres diarios», anticipándose a nuestras necesidades, algo posible si son capaces de entendernos y conocer nuestro estado de ánimo, cuando podrían tomar decisiones en consecuencia. «Esto abre muchas posibilidades en un mundo donde la población cada vez vive más años y envejece gradualmente, por no hablar de las aplicaciones en el ámbito de la salud», explica el profesor de la UOC e investigador del grupo  SUNAI (Scene Understanding and Artificial Intelligence Lab).

A este último punto se refiere Àgata Lapedriza, profesora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, quien cree que el área sanitaria será una de las más beneficiadas. «Ya hay productos comerciales, como los brazaletes de sensores de Empathica, que ayudan a monitorizar pacientes que sufren ataques de epilepsia. Además, la computación afectiva también podría aplicarse a la detección precoz de depresión y demencia, o a la reducción del estrés. Otro ejemplo es el trabajo que se desarrolla de detección, en redes sociales, de personas que están en riesgo de cometer suicidio, con el objetivo de poderles ofrecer ayuda. Y también podría usarse para desarrollar tecnologías destinadas a personas en el espectro del autismo o incluso para lograr un cambio de hábitos (por ejemplo, dejar de fumar o comer de forma más saludable)», explica Lapedriza, quien cita otro posible campo de aplicación donde esta área de investigación puede hacer importantes contribuciones: la educación.

«Si pensamos en el uso de tecnología para la educación, como tutores virtuales o la robótica social para la educación, la dotación de estas tecnologías con inteligencia emocional puede ayudar mucho. Por ejemplo, puede ayudar a la detección de frustración, cuando un estudiante no entiende algo, o al diseño y el análisis de técnicas para crear interés, despertar la curiosidad o captar la atención. Una máquina sin inteligencia emocional no puede saber si le prestas atención, ya que reconocer atención es reconocer un tipo de estado emocional», apunta Àgata Lapedriza.

¿Cómo funciona la computación afectiva?

En una secuencia de la película Her (Spike Jonze, 2013), el sistema operativo Samantha (Scarlett Johansson) dice: «Quiero aprenderlo todo sobre todo, quiero absorberlo todo, quiero descubrirme a mí misma». Habla con Theodore (Joaquin Phoenix), quien acabará enamorándose de ese nuevo y avanzado asistente virtual que promete ser una entidad intuitiva con cada usuario. Y es capaz de conseguirlo porque la interlocutora virtual ha desarrollado un concepto revolucionario para una máquina: empatía.

Esa palabra resulta clave en la inteligencia artificial de las emociones. Como explica la también investigadora del grupo SUNAI, Àgata Lapedriza en el artículo «¿Qué es la computación afectiva?», la posibilidad de que un robot o una máquina pudieran desarrollar empatía fue una de las razones de que naciera el área de investigación llamada computación afectiva, también conocida como inteligencia artificial emocional. De hecho, Lapedriza señala que, aunque es un campo que se sitúa dentro de la informática, se trata de un área «multidisciplinar que involucra, entre otras áreas, la ciencia cognitiva y la psicología», y la define como la disciplina que «estudia cómo crear máquinas que puedan reconocer e interpretar apropiadamente las emociones humanas, y responder a dichas emociones».

¿Cómo lograr hacer realidad esas máquinas? Según explica la profesora, se trata de captar señales relacionadas con nuestras emociones. Y para ello pueden usarse cámaras que observen los movimientos faciales o gestos de una persona, sensores que capturen señales fisiológicas como el ritmo cardíaco o la respiración, micrófonos que analicen los cambios de entonación… Todas esas señales transmiten información que por medio de técnicas de aprendizaje automático (machine learning) establecen patrones que determinan el estado emocional de una persona.

¿Cuándo llegará?

Aunque esta tecnología suene todavía lejana para la mayor parte de la sociedad, lo cierto es que está a punto de desembarcar en nuestro día a día, al menos en algunas de sus versiones. Como explica el profesor David Masip, en la actualidad existen aplicaciones en la industria del marketing y hay empresas como la estadounidense Affectiva que ya las comercializan. Otro ejemplo es la australiana Akin, con quien la NASA trabaja para que un asistente de inteligencia artificial pueda dar apoyo emocional a los astronautas. «El interés industrial es creciente, y en aplicaciones específicas ya tiene uso», apunta el profesor.

Sin embargo, para que los robots estén completamente integrados en nuestras vidas aún queda bastante camino por recorrer. «La computación afectiva aspira a ser ubicua. Necesitamos que los robots nos miren y nos entiendan de la misma forma en que los humanos nos entendemos entre nosotros. Y para esto, lamentablemente, queda aún mucho tiempo», señala David Masip.


Noticias que marcan tendencia en el sector IT

Últimas Noticias

Nombramientos