jueves, junio 05, 2008

Un sistema permite a un ordenador reconocer emociones humanas

Gracias a otra investigación también pueden adivinar nuestra edad.
La interacción entre ordenadores y seres humanos cada vez se va perfeccionando más. El último paso lo han dado informáticos de las universidades de Toronto y Ryerson, que han ideado un sistema que permite a los ordenadores reconocer seis emociones humanas diferentes: alegría, tristeza, rabia, miedo, sorpresa y disgusto. Según sus creadores, el sistema también es capaz de hacerlo sin importar la cultura o la lengua de la persona a la que “mira” con un 82% de acierto. Por otro lado, investigadores de la universidad norteamericana de Illinois han creado otro sistema que permite a un ordenador adivinar la edad de una persona basándose en sus rasgos faciales. Por Raúl Morales.

Dos estudios aparecidos en el último número de la revista IEEE Transactions on Multimedia han abordado el tema de la capacidad de los ordenadores para reconocer los estados emocionales y la edad de los seres humanos. Los investigadores esperan que los ordenadores del futuro sean capaces de mirar la cara de una persona y extraer ese tipo de información, como hacemos los humanos entre nosotros.

Como describen en su artículo, combinando datos visuales y de audio, Yongjin Wang, de la Universidad de Toronto y Ling Guan, de la Universidad Ryerson, también en Toronto, han desarrollado un sistema que puede reconocer seis estados emocionales: alegría, tristeza, rabia, miedo, sorpresa y disgusto. Su sistema puede reconocer emociones de diferentes culturas o lenguas con un índice de acierto del 82%.

“La informática centrada en el ser humano pone su empeño en comprender a hombres y mujeres, incluyendo sus rostros, sus emociones, sus gestos, el modo en que hablan o sus movimientos”, comenta Wang en declaraciones a Physorg. “Los sistemas de reconocimiento de emociones ayudan al ordenador a comprender el estado afectivo del usuario y le permiten responder en función de esa percepción”.

Paso a paso

En primer lugar, sus creadores extrajeron un importante número de características vocales, como rasgos prosódicos, como el ritmo, la intensidad o la frecuencia del discurso. Los rasgos faciales fueron sacados holísticamente. Después, probaron el sistema con varios vídeos en los que algunas personas mostraban diferentes emociones. A partir de estas pruebas, vincularon ciertos rasgos con emociones.

La representación emocional es muy diversa. Algunos rasgos vocales y faciales pueden jugar un papel importante a la hora de caracterizar ciertas emociones, pero no tener importancia en otras. Por ejemplo, la alegría se detecta más fácilmente usando ciertos rasgos faciales (una sonrisa), mientras que la rabia se detecta mejor usando rasgos de voz (un grito). Los investigadores han descubierto que ningún rasgo juega un papel significativo en todas las emociones que el nuevo sistema es capaz de reconocer. Esta es, precisamente, la gran dificultad con la que se encuentran los ordenadoras cuando quieren reconocer el estado emocional de sus dueños.

Para sortear esta dificultad, Wang y Guan fueron paso a paso. Así,añadían un rasgo una vez y luego lo eliminaban para ir probando los rasgos más importantes que definían una emoción desconocida. Después separaron posibles emociones basadas en combinaciones de rasgos faciales y vocales.

“La parte más complicada para permitir que un ordenador detecte las emociones humanas es la gran variedad y diversidad de expresiones vocales y faciales debidas a factores como la lengua, la cultura, la personalidad individual etc.”, comenta Wang. “Además, como mostramos en nuestro artículo, no hay grandes diferencias entre las diversas emociones. La identificación precisa de patrones discriminatorios es el gran reto”.

Wang y su equipo consideran que el hecho de que un ordenador pueda reconocer las emociones humanas podrá tener implicaciones en muchos campos, como en la atención al cliente, en los juegos de ordenador, en la seguridad y vigilancia o en el desarrollo de software educativo.

Cuántos años tienes?

Aunque la mayor parte de la gente suele acertar a la hora de identificar si alguien está triste o alegre, estimar la edad ya no resulta tan sencillo. Los informáticos Yun Fu y Thomas Huang, de la Universidad de Illinois, han probado un sistema informático que es capaz de estimar la edad de una persona basándose en los rasgos faciales.

“La edad es uno de los atributos principales de donde se puede inferir nuestra condición individual o la información antropométrica”. Dice Fu. “Los sistemas informáticos centrados en el ser humano se ponen su énfasis en la información referente a cómo se organizan los grupos sociales o en cómo la gente mejora sus vidas alrededor de las tecnologías informáticas”.

Como explica la revista IEEE Transactions on Multimedia, Fu y Huang trabajaron con una base de datos de imágenes faciales de 1.600 personas, la mitad hombres y la otra mitad mujeres. Usando los resultados de otros sistemas de estimación de edad, así como otras características de la edad que ellos mismos extrajeron de dichas imágenes, “entrenaron” un sistema informático para estimar edades comprendidas entre los 0 y los 93 años. El algoritmo más preciso fue capaz de estimar la edad de una persona con un margen de error menor de cinco años el 50% de las veces y con un margen de error menor de diez años el 83% de las veces.

Los investigadores predicen que los algoritmos de reconocimiento de edad podrían usarse para prevenir el acceso de niños a páginas web de adultos, cribar a los usuarios de las máquinas de vending o determinar la edad de las personas que ven con más frecuencia un determinado anuncio publicitario.

El estudio de la interacción entre hombre y ordenador está sufriendo cambios contantemente. Hace poco, TendenciasXXI recogía otras dos investigaciones en este mismo sentido. Por un lado, el informático Hung-Son Le, de la Universidad de Umea, en Suecia, creó un software que permite al ordenador la posibilidad de reconocer un rostro a partir de una única imagen, aunque la calidad de ésta sea deficiente. Por otro lado, investigadores del Departamento de Inteligencia Artificial (DIA) de la Facultad de Informática de la Universidad Politécnica de Madrid (FIUPM), en colaboración con la Universidad Rey Juan Carlos de Madrid, han desarrollado recientemente un algoritmo que es capaz de reconocer expresiones faciales en tiempo real, tal como señalaba en un comunicado.

tendencias21

1 comentario:

Anónimo dijo...

hola