Crean sistema mejorado de IA para percibir emociones

Los científicos del MIT que lo desarrollaron aseguran que puede servir para detectar depresión o demencia, así como para recabar indicadores de salud.

Extrae datos “más finos” de las expresiones faciales.
y Notimex
México /

Investigadores del Instituto de Tecnología de Massachusetts (MIT, por su sigla en inglés) desarrollaron un modelo de aprendizaje automático de inteligencia artificial (IA) que permite a las computadoras a interpretar las emociones humanas con mayor precisión y trabajan en su mejoramiento para emplearlo en la práctica clínica y monitorear el estado de salud de una persona.

Los especialistas explicaron en un comunicado que los modelos tradicionales de computación afectiva usan un concepto de “talla única para todos” que consiste en “entrenar” a los sistemas de inteligencia artificial con un conjunto de imágenes que representan diversas expresiones faciales, optimizan las características y “mapean” las expresiones de las personas.

Para lograr un avance en el campo de “informática afectiva”, los investigadores del MIT mejoraron el sistema combinando una técnica llamada “mezcla de expertos” (serie de modelos de redes neuronales) con otra denominada de personalización del modelo, que ayudan a extraer datos “más finos” de las expresiones faciales de los individuos.

Informática afectiva

En el creciente campo de la “informática afectiva” se desarrollan robots y computadoras para analizar las expresiones faciales, interpretar las emociones y responder en consecuencia. Las aplicaciones incluyen, por ejemplo, monitorear la salud y el bienestar de una persona, evaluar el interés de los estudiantes en las aulas, ayudar a diagnosticar los signos de enfermedades y desarrollar robots de compañía que mejoren la calidad de vida de niños o ancianos, entre otras aplicaciones.

El MIT dio a conocer el modelo de aprendizaje automático que busca responder a los desafíos de interpretar las expresiones considerando culturas, géneros y grupos etarios, además de otros factores más específicos para poder interpretar diversos tipos de sentimiento.

Durante la una conferencia sobre aprendizaje automático y minería de datos, Oggi Rudovic, investigador del Media Lab del MIT y participante del proyecto, explicó que esta es una manera importante de monitorear los estados de ánimo.

“Si quieres robots con inteligencia social, tienes que hacerlos de forma inteligente y natural para responder a nuestros estados de ánimo y emociones”, enfatizó.

En la técnica empleada para mejorar esos sistemas los modelos están capacitados para especializarse en tareas de procesamiento y trabajaron con grabaciones de video individuales de una base de datos denominada Recola, una herramienta pública de personas que conversan en una plataforma de video chat diseñada para aplicaciones de informática afectiva.

Los científicos entrenaron el modelo usando las actitudes de los sujetos. En la mezcla que utilizaron de “expertos” (partes del sistema informático), cada uno fue programado con una de las 18 grabaciones de video individuales de la Recola y registraron las expresiones faciales de cada individuo.

Posibles usos

El sistema, destacaron, puede ejecutarse en el fondo de una computadora o dispositivo móvil para rastrear las conversaciones de video de un usuario y aprender cambios sutiles en la expresión facial en diferentes contextos. “Puede hacer que las aplicaciones de teléfonos inteligentes o sitios web sean capaces de decir cómo se siente la gente y recomendar maneras de lidiar con el estrés o el dolor”, señaló Michael Feffer, coautor del desarrollo.

También puede ayudar a detectar depresión o demencia. “Al ser capaces de monitorear pasivamente nuestras expresiones faciales, con el tiempo podemos personalizar estos modelos para los usuarios y controlar la cantidad de desviaciones que tienen por día, desviándonos del nivel promedio de expresividad facial, y usarlo para indicadores de bienestar y salud”, agregó Rudovic.

Una versión del sistema, ejemplificó el especialista, se usó para ayudar a que los robots interpretaran mejor los estados de ánimo de niños con autismo.

  • Milenio Digital
  • digital@milenio.com
  • Noticias, análisis, opinión, cultura, deportes y entretenimiento en México y el mundo.

LAS MÁS VISTAS