En un avance importante en informática afectiva, científicos del Instituto de Tecnología de Massachusetts (MIT, por sus siglas en inglés) desarrollaron un sistema de aprendizaje automático personalizado que tendrá mayores resultados terapéuticos para que niños con autismo reconozcan estados emocionales de las personas que los rodean.
Por lo general, niños con condiciones de espectro autista tienen problemas para distinguir, por ejemplo, entre una expresión de felicidad y de temor. Para remediar esto, algunos terapeutas usan un robot amigable para mostrar a los niños las diferencias emocionales, para que las imiten y respondan en forma apropiada.
Sin embargo, esta terapia funcionaría mejor si el robot interpretara la conducta del niño, acción en la que trabajan investigadores del Media Lab del MIT. Con este sistema, los robots podrán estimar el compromiso e interés de cada niño durante las actividades terapéuticas, utilizando datos que son únicos para cada niño.
Rosalind Picard, coautora y profesora del MIT que lidera la investigación en informática afectiva, dice que la personalización es especialmente importante en la terapia del autismo, y destacó que un sistema de aprendizaje profundo usa capas jerárquicas y múltiples de procesamiento de datos para mejorar sus tareas. Se ha utilizado principalmente en programas automáticos de reconocimiento de voz y objetos
Hasta ahora las terapias para niños autistas asistidas por robot, consisten en que un terapeuta muestra fotos de niños o tarjetas de diferentes caras destinadas a representar diferentes emociones, para que los niños reconozcan expresiones de miedo, tristeza o alegría. Luego, el terapeuta programa al robot para que muestre estas mismas emociones al niño, y observa al niño mientras interactúa con el robot.
Los investigadores del MIT utilizaron ahora los robots humanoides NAO de SoftBank Robotics, el cual tiene dos pies de altura y se asemeja a un superhéroe armado o un droide. El robot transmite diferentes emociones al cambiar el color de sus ojos, el movimiento de sus extremidades y el tono de su voz.
Para probar el sistema, realizaron pruebas con 35 niños con autismo, 17 de Japón y 18 de Serbia, de tres a 13 años. Durante sus sesiones de 35 minutos reaccionaron de varias maneras ante los robots, desde aburridos y adormilados en algunos casos. saltar de la sala con entusiasmo, aplaudir, y reír o tocar al robot.
Los investigadores capturaron videos de las expresiones faciales de cada niño, movimientos de cabeza y cuerpo, poses y gestos, grabaciones de audio y datos sobre la frecuencia cardíaca, la temperatura corporal y la respuesta del sudor de la piel de un monitor en la muñeca del niño.
Las redes personalizadas de aprendizaje profundo de los robots se construyeron a partir de esos datos de video, audio y fisiológicos, información sobre el diagnóstico y las habilidades del autismo del niño, su cultura y su género.
Posteriormente, los investigadores compararon sus estimaciones del comportamiento de los niños con las estimaciones de cinco expertos humanos, que codificaron las grabaciones de audio y video de los niños en una escala continua para determinar qué tan contento o molesto, qué tan interesado y cuán comprometido estaba el niño durante la sesión.
Entrenados con estos datos personalizados codificados por humanos, y probados con datos no utilizados en el entrenamiento o ajuste de modelos, las redes mejoraron significativamente la estimación automática del comportamiento del niño por parte del robot para la mayoría de los niños del estudio.
La mayoría de los niños en el estudio reaccionaron ante el robot “no sólo como un juguete, sino como una persona real”, especialmente durante la narración de cuentos, donde los terapeutas preguntaban cómo se sentiría NAO si los niños tomaran el robot por un helado, según explicó Oggi Rudovic, estudiante de posdoctorado en Media Lab.
Este proyecto tecnológico fue financiado por el Ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología de Japón, la Universidad Chubu (Japón), y HORIZON 2020 de la Unión Europea.