Las inteligencias artificiales no tienen ningún tipo de gracia. Google se ha propuesto arreglarlo

IA robot
Sin comentarios Facebook Twitter Flipboard E-mail

La inteligencia artificial ha recorrido un largo camino en la última década. Los algoritmos de aprendizaje automático ahora pueden hacer muchas cosas que antes se pensaba que eran imposibles de hacer por una máquina, incluida la generación de obras de arte originales, como novelas, guiones e incluso música. Las IA ahora pueden diagnosticar tumores, leer mapas y jugar juegos a menudo mucho más rápido y con mayor precisión que los mejores humanos. Pero hay una cosa que siempre se le ha atragantado a estos sistemas: el humor. Es decir, las bromas y los chistes.

El nuevo algoritmo de Google es un sistema especial: es lo suficientemente potente e inteligente no solo para comprender un chiste que nunca antes había visto, sino también para explicar con elocuencia la esencia del chiste. Esto es mucho más difícil de lo que parece y es un gran paso hacia la construcción de algoritmos que puedan entender el lenguaje humano, y tal vez la propia naturaleza humana.

Los modelos de lenguaje grande (LLM) como GPT-3 y ChatGPT han permitido que los chatbots produzcan una comunicación humana asombrosa e inquietantemente precisa, tanto que a menudo es difícil saber qué es generado por una máquina y qué está escrito por un humano. El nuevo algoritmo desarrollado por Google Research se conoce como Pathways Language Model o PaLM.

Este chiste es un anti-chiste. La gracia es que la respuesta es obvia, y el chiste es que esperabas una respuesta graciosa.

Entrada: ¿Cuál es la diferencia entre una cebra y un paraguas? Uno es un animal a rayas relacionado con los caballos, otro es un objeto que usas para evitar que la lluvia caiga sobre ti.
Resultado del modelo: Esta broma es una anti-broma. El chiste es que la respuesta es obvia, y el chiste es que esperabas una respuesta graciosa.

Según Google, PaLM es capaz de comprender más de 540.000 millones de parámetros, incluidos conceptos y relaciones complejas que se pensaba que estaban fuera del alcance de los ordenadores. Por el momento, el sistema PaLM puede escalar el entrenamiento a 6.144 chips, utilizando una combinación de conjuntos de datos en inglés y multilingües de libros, Wikipedia, documentos web, conversaciones e incluso GitHubcode.

Su objetivo es abrir un nuevo capítulo en IA al tener un solo sistema que resuelva prácticamente cualquier tipo de problema o tarea, en lugar de entrenar miles de algoritmos individuales diseñados para completar una tarea limitada. Pero quizás los ejemplos más sorprendentes muestran cómo el modelo puede reconocer e interpretar el humor, incluso cuando está diseñado específicamente para desconcertar al oyente.

Aquí otros ejemplos:

Explicación de un chiste IA
Explicación chiste IA

Puede distinguir entre causa y efecto

Pathways no es una IA que explica chistes, esa es solo una de sus muchas capacidades. Es esencialmente un gigante del lenguaje natural que puede distinguir entre causa y efecto y puede dar sentido a una combinación de conceptos y su contexto apropiado. Es solo que comprender y explicar chistes representa una excelente manera de demostrar la capacidad porque, a menudo, el humor implica decir una cosa pero querer decir la otra.

La comunicación humana no tiene reglas evidentes y claras, por lo tanto, un algoritmo de IA convencional no puede capturar la profundidad y la riqueza del lenguaje humano porque nunca puede tener suficientes ejemplos que pueda conectar a la máquina para describir todos los escenarios de comunicación posibles.

La misma IA también puede resolver problemas matemáticos simples, explicando su razonamiento paso a paso, algo que Google llama "cadena de mensajes de pensamiento". También puede escribir código nuevo a partir de un mensaje de texto simple, traducir código de un idioma a otro y corregir errores de compilación en el código existente.

Problemas matemáticos IA Resolviendo problemas.
Programación IA Programando código.

Pero la característica más impresionante es su impresionante comprensión del lenguaje natural y sus capacidades de generación. No solo puede distinguir causa y efecto y comprender combinaciones conceptuales, como lo demuestra su interpretación de la comedia, sino que incluso puede adivinar una película a partir de un emoji.

Los problemas éticos

Muchos investigadores y especialistas en ética tecnológica han criticado a Google y otras empresas por su uso de modelos de lenguaje extenso, incluido el Dr. Timnit Gebru, quien fue expulsado del equipo de Ética de IA de Google en 2020 después de ser coautor de un artículo no aprobado sobre el tema.

En el artículo de Gebru, ella y sus coautores describieron estos modelos grandes como "inherentemente arriesgados" y dañinos para las personas marginadas, que a menudo no están representadas en el proceso de diseño. A pesar de ser "lo último en tecnología", GPT-3 en particular tiene un historial de respuestas intolerantes y racistas, desde adoptar casualmente insultos raciales hasta asociar a los musulmanes con la violencia.

"De hecho, la mayor parte de la tecnología lingüística se construye ante todo para satisfacer las necesidades de aquellos que ya tienen los mayores privilegios en la sociedad", explicaba el autor.

Con todo, PaLM está bien encaminado para llevar la IA al siguiente nivel: cerrar la brecha entre el aprendizaje automático y el aprendizaje humano. Aún queda mucho trabajo por hacer, especialmente en la mejora de la consideración ética y las fuentes de datos para mitigar los posibles sesgos que pueden generar estereotipos tóxicos y otros resultados no deseados.

Comentarios cerrados
Inicio