Por: Glenys Álvarez* Editora Neutrina
Los robots no nos entienden. Las empresas los han creado imitando la fisiología humana: caminar, correr, bailar, saltar, sentarse, rasgos humanos en los que no pensamos hasta que tenemos que imitarlos en un aparato mecánico. No es nada fácil. De hecho, los tecnólogos también se han volcado en encontrar uno que tenga las mismas expresiones faciales y que las pueda enlazar con situaciones en particular; es decir, que vincule el dolor con la tristeza, estar contentos con reír. Pero no estamos cerca de que nos comprendan.
Junto con la inteligencia artificial, los robots que conocemos hoy, en físico o virtuales, están limitados por los algoritmos conocidos o las formas desarrolladas para moverse. Todavía nos impresionamos con el reconocimiento de voz en los aparatos, es decir, cuando logran entender lo que decimos, y ha sido en esta dificultosa área que un grupo internacional de científicos tiene años trabajando. Ellos han desarrollado el Robot Máscara o Mask-Bot, en Munich, y están intentando que no sólo exprese lo que dice sino que deduzca la respuesta apropiada a lo que decimos.
Y dicen que parece como si una persona real hablara. En realidad, es una proyección tridimensional realista que es proyectada en una máscara transparente de plástico. Un proyector es posicionado detrás de la máscara que proyecta esta imagen tridimensional que se ve por varios ángulos, incluyendo de lado. Los científicos aseguran que aunque otros rostros tridimensionales han sido creados, este es el primero que aspira a parecerse a una cara real y no de muñequitos.
La singularidad se refugia en el lugar desde donde se está proyectando el rostro. Proyectar desde atrás y con un espacio muy cercano requería de adaptadores y tecnología distintas. Había que garantizar que un rostro completo podría ser enviado en tan corta distancia, además de la brillantez, que no haya que presentarlo con las luces apagadas todo el tiempo. Numerosos algoritmos se encargaron de ello.
“Requeríamos de una cara que no necesitara del video de una persona hablando para funcionar, algoritmos varios permiten que el programa convierta cualquier imagen de dos dimensiones en una tridimensional; luego, para copiar expresiones faciales usamos un sistema que filtra una serie extensa de datos de personas reaccionando ante fonemas. La computadora extrae las emociones correctas y produce una nueva expresión con ellas, un programa de síntesis emocional se encarga de lo demás”, expresa Takaaki Kuratate, autor principal del estudio.
Pero hay mucho por recorrer y aprender. Mask-Bot es aún muy limitado; puede reconocer contenido escrito en el teclado (en japonés, alemán e inglés) que reproduce en voz femenina o masculina, convirtiendo el texto en voz, como hacen o intentan hacer ya muchos celulares, pero la voz vendrá con una emoción en particular. Unos botones proveen con opciones entre feliz o triste y ruidosa o silenciosa.
Pero Mask-Bot no entiende todo lo que se le expresa. Kuratate, por ejemplo, le dice, “arcoiris”, y el robot responderá con una oración bastante elaborada sobre el colorido tema, pero no podrá hablar casualmente del tema. En el video se muestran estas limitaciones, no obstante, los avances son mucho más contundentes para los tecnólogos.
Precisamente, el problema con los robots es hacerlos que entiendan lo que dice el humano y responda de acuerdo a lo dicho. “La idea es que estos aparatos sean usados en conferencias, no en una pantalla sino un robot que se siente en tu mesa y te cuente lo que tiene que decir. También que sirvan de compañía a personas ancianas que pasan mucho tiempo a solas”, dice Kuratate.
“Es una nueva forma de comunicación entre máquina y humano, es el prototipo de una nueva cara robot que influirá en la forma en que los humanos nos comunicaremos con los robots en el futuro. Mask-Bot ya puede reproducir diálogo simple y cuando habla mueve su cabeza un poco y levanta las cejas para crear una impresión de conocimiento”, explica Gordon Cheng del equipo en el Instituto para Sistemas Cognoscitivos en TU München, quien trabaja en colaboración con un grupo japonés.
Y dicen que parece como si una persona real hablara. En realidad, es una proyección tridimensional realista que es proyectada en una máscara transparente de plástico. Un proyector es posicionado detrás de la máscara que proyecta esta imagen tridimensional que se ve por varios ángulos, incluyendo de lado. Los científicos aseguran que aunque otros rostros tridimensionales han sido creados, este es el primero que aspira a parecerse a una cara real y no de muñequitos.
La singularidad se refugia en el lugar desde donde se está proyectando el rostro. Proyectar desde atrás y con un espacio muy cercano requería de adaptadores y tecnología distintas. Había que garantizar que un rostro completo podría ser enviado en tan corta distancia, además de la brillantez, que no haya que presentarlo con las luces apagadas todo el tiempo. Numerosos algoritmos se encargaron de ello.
“Requeríamos de una cara que no necesitara del video de una persona hablando para funcionar, algoritmos varios permiten que el programa convierta cualquier imagen de dos dimensiones en una tridimensional; luego, para copiar expresiones faciales usamos un sistema que filtra una serie extensa de datos de personas reaccionando ante fonemas. La computadora extrae las emociones correctas y produce una nueva expresión con ellas, un programa de síntesis emocional se encarga de lo demás”, expresa Takaaki Kuratate, autor principal del estudio.
Pero hay mucho por recorrer y aprender. Mask-Bot es aún muy limitado; puede reconocer contenido escrito en el teclado (en japonés, alemán e inglés) que reproduce en voz femenina o masculina, convirtiendo el texto en voz, como hacen o intentan hacer ya muchos celulares, pero la voz vendrá con una emoción en particular. Unos botones proveen con opciones entre feliz o triste y ruidosa o silenciosa.
Pero Mask-Bot no entiende todo lo que se le expresa. Kuratate, por ejemplo, le dice, “arcoiris”, y el robot responderá con una oración bastante elaborada sobre el colorido tema, pero no podrá hablar casualmente del tema. En el video se muestran estas limitaciones, no obstante, los avances son mucho más contundentes para los tecnólogos.
Precisamente, el problema con los robots es hacerlos que entiendan lo que dice el humano y responda de acuerdo a lo dicho. “La idea es que estos aparatos sean usados en conferencias, no en una pantalla sino un robot que se siente en tu mesa y te cuente lo que tiene que decir. También que sirvan de compañía a personas ancianas que pasan mucho tiempo a solas”, dice Kuratate.
Aquí un video en YouTube con la demostración de Mask-Bot:
Grupo internacional de sistemas: http://www.excellence-initiative.com/muenchen-cognition-technical-systems
*Periodista científica fundadora y directora de Editora Neutrina
editoraneutrina@gmail.com
0 comentarios:
Publicar un comentario