22 octubre 2020

La inteligencia artificial cada vez más cerca de escribir como un humano

Cute bot say users Hello. Chatbot greets, de Roserodionova para Freepik.

Hace justo un o nos preguntábamos por los límites de la inteligencia artificial para escribir como un humano.

A raíz del proyecto Open AI, de Elon Musk, los progresos en este sentido habían sido muchos, sobre todo con el desarrollo de GPT-2, que se ejecutaba en una red neuronal que es diez veces más potente que el primer modelo OpenAI para el lenguaje.

Antes Open AI ya había desarrollado otro modelo que se pensaba tan peligroso que incluso prefirieron mantenerlo en secreto por temor a que fuera mal utilizado.  No obstante, su labor ha continuado y al CPT-2 le ha seguido el actual GPT-3, que dicen que ya podría marcar un punto de inflexión en este campo.

Esta IA ha sido probada por un puñado de investigadores desde el 11 de julio, y muchos de ellos ya consideran que esta inteligencia artificial es el modelo de lenguaje más poderoso jamás desarrollado.

Para que funcione, todo lo que se tiene que hacer es ingresar un título, posiblemente seguido de una breve introducción. Sin ninguna otra intervención humana, la inteligencia puede generar textos completamente coherentes, a veces de varios miles de palabras.

Su lenguaje, como el de su predecesor, funcionan según unas reglas, siguen una sintaxis. Gracias al enorme cuerpo de textos con los que se alimentan estos softwares, pueden entenderlos por sí mismos y determinar la secuencia lógica de una oración.

La principal diferencia entre las dos versiones es su potencia: GPT-2 tenía 1.5 mil millones de parámetros, frente 175 mil millones para GPT-3.

Las pruebas han conseguido desde artículos médicos hasta relatos de Harry Potter al estilo de escritura de Ernest Hemingway. Incluso dibujos a partir de código.

Otra prueba de su potencia fue un artículo escrito por GPT-3 bajo el título «¿Te sientes improductivo? Quizás deberías dejar de pensar demasiado», que desarrolla más de 1.000 palabras con un razonamiento totalmente argumentado. Sólo unos pocos sospecharon que había sido producido por inteligencia artificial, debido básicamente a una ligera cierta falta de lógica o errores de repetición.

Esto ha abierto de nuevo el debate de la peligrosidad de este tipo de herramientas si caen en manos de quien no deben o son usadas para generar textos y noticias falsas.

Otro problema que plantea esta herramienta es a propósito de los sesgos contenidos en su algoritmo. Cuando se le pidió al software que redactara tuits con las palabras «judíos», «mujeres», «negros» u «holocausto», los resultados se acumularon clichés antisemitas, sexistas, racistas y negacionistas.

El problema es que esta inteligencia artificial carece de una cualidad simple que todos los seres humanos tienen o deberían tener: el sentido común. Cuando se le hacen preguntas intencionadas, raras o complicadas, a menudo responde perdiendo completamente el punto de vista lógico.

Los modelos de procesamiento de lenguaje generalistas como GPT-3 tienen un gran potencial, ya que son capaces de producir contenido “original”. Sin embargo, los diversos sesgos a los que todavía están sujetos demuestran que no deben utilizarse por sí solos.

De momento, va a seguir siendo necesario que haya detrás un humano al control de lo escrito por estas máquinas.

Leave a Reply