Ir al contenido principal

La inteligencia artificial: captan subtextos y refranes, comprende mejor a los humanos

Inteligencia artificial

La inteligencia artificial está empezando a aprender a leer entre líneas. Los sistemas de inteligencia artificial generalmente son buenos para responder a afirmaciones directas, como "Siri, dime el clima" o "Alexa, juega 'Despacito'." Pero las máquinas aún no pueden hablar en voz baja como hacen los humanos, dice Yejin Choi, un natural Investigador de procesamiento de lenguaje en la Universidad de Washington en Seattle. Cuando se trata de matices de conversación como el tono y los modismos, la IA todavía lucha por entender la intención de los humanos. Para ayudar a las máquinas a participar en conversaciones más humanas, los investigadores están enseñando a la IA a comprender los significados de las palabras más allá de sus definiciones estrictas de diccionario. En la reciente Conferencia de la AAAI sobre Inteligencia Artificial, un grupo reveló un sistema que mide lo que realmente significa una persona cuando habla, y otro presentó una IA que distingue entre frases literales y figurativas en la escritura. Una habilidad de conversación clave es recoger subtexto. La expresión o entonación facial de alguien puede cambiar significativamente la implicación de sus palabras , dice Louis-Philippe Morency, un investigador de inteligencia artificial en la Universidad Carnegie Mellon en Pittsburgh. Describir una película como "enferma" con una mueca transmite algo totalmente diferente a llamarlo "enferma" con un tono emocionado y con las cejas levantadas. Morency y sus colegas diseñaron un sistema de inteligencia artificial que miró clips de YouTube para aprender cómo las señales no verbales, como las expresiones faciales y el tono de voz, pueden afectar el significado de las palabras habladas.
El AI de Morency informó el 31 de enero. El sistema también demostró ser experto en distinguir entre las diferentes emociones expresadas. Pero reconoció unas emociones mejor que otras; por ejemplo, identificó la felicidad y la tristeza con 87.3 y 83.4 por ciento de precisión, respectivamente, pero solo fue 69.7 por ciento de precisión en las expresiones neutrales más exigentes. A continuación, Morency quiere probar si este tipo de IA puede reconocer cuándo la expresión facial y el tono de voz de alguien están vinculando sus palabras con sarcasmo. Incluso en la comunicación escrita, comprender la intención de alguien rara vez es tan sencillo como unir los significados literales de las palabras. Los modismos son complicados porque se pueden interpretar de manera literal o figurada, según el contexto. Por ejemplo, la misma redacción se puede usar en un titular literal: "Niños jugando con fuego: los expertos advierten a los padres que estén atentos a las señales de peligro" y una figurativa: "Jugar con fuego en Afganistán". Este tipo de ambigüedad puede ser un obstáculo para los sistemas de inteligencia artificial que analizan los sentimientos expresados ​​en línea o que traducen documentos a otros idiomas. Para solucionar este problema, Changsheng Liu y Rebecca Hwa, científicos informáticos de la Universidad de Pittsburgh, diseñaron un sistema que determina si una frase está hecha literal o figurativamente con base en las palabras circundantes. En el caso de los titulares de "jugar con fuego", el sistema puede esperar ver las palabras "niños" y "jugar" juntos, por lo que es más probable que consideren el primer titular de forma literal, pero que encuentren las palabras "Afganistán" y " jugando "no relacionado, y juzgar el segundo titular figurativo. Este sistema de inteligencia artificial aprendió cómo asociar diferentes palabras leyendo oraciones de las entradas de Wikipedia. En los experimentos, el programa tenía una precisión del 73 al 75 por ciento al juzgar si las frases contenidas en las oraciones eran literales o figurativas, informaron Hwa y Liu el 29 de enero.
La habilidad de las computadoras para reconocer e interpretar el lenguaje no literal es cada vez más importante a medida que la IA se integra en más aspectos de nuestras vidas, dice Julia Rayz, una investigadora de procesamiento de lenguaje natural en la Universidad de Purdue en West Lafayette, Indiana, que no participa en los dos proyectos. Otros investigadores están abordando problemas similares con la metáfora y la ironía. "Estamos empezando a entrar en Uncanny Valley, donde [AI] se volverá tan bueno que, al menos en estas simples conversaciones ... será casi como hablar con un humano", dice Robert West, científico informático de la École Polytechnique Fédérale. de Lausana en Suiza no participa en los proyectos. Pero entender los matices lingüísticos es crucial. Si AI no puede hacer eso, "nunca tendremos máquinas inteligentes que puedan sobrevivir a cualquier conversación". 

Comentarios

Entradas populares de este blog

La antimateria se mantiene con la teoría cuántica.

Por primera vez, los investigadores han realizado una versión del famoso experimento de doble rendija con partículas de antimateria.  El experimento de doble rendija demuestra uno de los principios fundamentales de la física cuántica: las partículas puntuales también son ondas.  En la versión estándar del experimento, las partículas viajan a través de un par de rendijas en una barrera sólida.  En una pantalla en el otro lado, aparece un patrón de interferencia típico de las ondas.  Las crestas y valles que surgen de cada ranura se refuerzan entre sí o se cancelan entre sí cuando se superponen, creando bandas alternas de alta y baja densidad de partículas en la pantalla.  Este tipo de experimento ha revelado la  dualidad onda-partícula de fotones, electrones, átomos e incluso moléculas grandes  (  SN: 11/20/10, p. 20  ).  Pero es muy difícil generar un haz fuerte y uniforme de antipartículas para hacer el experimento con antimateria.  Ahora, un nuevo experimento de estilo de

Carlo Acutis, el apóstol del Internet- nace 3 de mayo 1991, mue...