La inteligencia artificial está empezando a aprender a leer entre líneas. Los sistemas de inteligencia artificial generalmente son buenos para responder a afirmaciones directas, como "Siri, dime el clima" o "Alexa, juega 'Despacito'." Pero las máquinas aún no pueden hablar en voz baja como hacen los humanos, dice Yejin Choi, un natural Investigador de procesamiento de lenguaje en la Universidad de Washington en Seattle. Cuando se trata de matices de conversación como el tono y los modismos, la IA todavía lucha por entender la intención de los humanos. Para ayudar a las máquinas a participar en conversaciones más humanas, los investigadores están enseñando a la IA a comprender los significados de las palabras más allá de sus definiciones estrictas de diccionario. En la reciente Conferencia de la AAAI sobre Inteligencia Artificial, un grupo reveló un sistema que mide lo que realmente significa una persona cuando habla, y otro presentó una IA que distingue entre frases literales y figurativas en la escritura. Una habilidad de conversación clave es recoger subtexto. La expresión o entonación facial de alguien puede cambiar significativamente la implicación de sus palabras , dice Louis-Philippe Morency, un investigador de inteligencia artificial en la Universidad Carnegie Mellon en Pittsburgh. Describir una película como "enferma" con una mueca transmite algo totalmente diferente a llamarlo "enferma" con un tono emocionado y con las cejas levantadas. Morency y sus colegas diseñaron un sistema de inteligencia artificial que miró clips de YouTube para aprender cómo las señales no verbales, como las expresiones faciales y el tono de voz, pueden afectar el significado de las palabras habladas.
El AI de Morency informó el 31 de enero. El sistema también demostró ser experto en distinguir entre las diferentes emociones expresadas. Pero reconoció unas emociones mejor que otras; por ejemplo, identificó la felicidad y la tristeza con 87.3 y 83.4 por ciento de precisión, respectivamente, pero solo fue 69.7 por ciento de precisión en las expresiones neutrales más exigentes. A continuación, Morency quiere probar si este tipo de IA puede reconocer cuándo la expresión facial y el tono de voz de alguien están vinculando sus palabras con sarcasmo. Incluso en la comunicación escrita, comprender la intención de alguien rara vez es tan sencillo como unir los significados literales de las palabras. Los modismos son complicados porque se pueden interpretar de manera literal o figurada, según el contexto. Por ejemplo, la misma redacción se puede usar en un titular literal: "Niños jugando con fuego: los expertos advierten a los padres que estén atentos a las señales de peligro" y una figurativa: "Jugar con fuego en Afganistán". Este tipo de ambigüedad puede ser un obstáculo para los sistemas de inteligencia artificial que analizan los sentimientos expresados en línea o que traducen documentos a otros idiomas. Para solucionar este problema, Changsheng Liu y Rebecca Hwa, científicos informáticos de la Universidad de Pittsburgh, diseñaron un sistema que determina si una frase está hecha literal o figurativamente con base en las palabras circundantes. En el caso de los titulares de "jugar con fuego", el sistema puede esperar ver las palabras "niños" y "jugar" juntos, por lo que es más probable que consideren el primer titular de forma literal, pero que encuentren las palabras "Afganistán" y " jugando "no relacionado, y juzgar el segundo titular figurativo. Este sistema de inteligencia artificial aprendió cómo asociar diferentes palabras leyendo oraciones de las entradas de Wikipedia. En los experimentos, el programa tenía una precisión del 73 al 75 por ciento al juzgar si las frases contenidas en las oraciones eran literales o figurativas, informaron Hwa y Liu el 29 de enero.
La habilidad de las computadoras para reconocer e interpretar el lenguaje no literal es cada vez más importante a medida que la IA se integra en más aspectos de nuestras vidas, dice Julia Rayz, una investigadora de procesamiento de lenguaje natural en la Universidad de Purdue en West Lafayette, Indiana, que no participa en los dos proyectos. Otros investigadores están abordando problemas similares con la metáfora y la ironía. "Estamos empezando a entrar en Uncanny Valley, donde [AI] se volverá tan bueno que, al menos en estas simples conversaciones ... será casi como hablar con un humano", dice Robert West, científico informático de la École Polytechnique Fédérale. de Lausana en Suiza no participa en los proyectos. Pero entender los matices lingüísticos es crucial. Si AI no puede hacer eso, "nunca tendremos máquinas inteligentes que puedan sobrevivir a cualquier conversación".
Comentarios