El recorrido de GPT-3: Desde Eliza hasta las redes sociales
Los seres humanos coquetean con el sueño de jugar a ser dioses y producir vida con los elementos que poseen desde hace siglos. GPT-3, un modelo preentrenado de inteligencia artificial, representa un salto evolutivo notable en esa histórica búsqueda. El sistema puede escribir textos con un nivel de precisión tan alto que hace difícil distinguir entre maquinas y humanos.
Existen al menos dos razones para que se haya dedicado tanto tiempo a la investigación para crear máquinas capaces de dialogar como GPT-3. Una es la mencionada, de tipo psicológico: el ego enorme que le produce al ser humano saber que tiene la capacidad de crear cosas inteligentes. La otra es práctica y predomina en los últimos años: la necesidad de generar contenido de manera incesante para Webs, redes sociales y otros medios. En algunos casos, como ocurre con los resultados de los deportes, los movimientos de la bolsa o las cuestiones climáticas, la información se estructura siempre con un mismo formato. Entonces, puede mostrarse directamente con los datos o textos que se armen específicamente en función de ellos. “Es una jornada fría, con apenas 5 grados centígrados”, por ejemplo.
Los primeros intentos de producir máquinas capaces de conversar nos remiten a mediados de la década del ’60, momento en que nació Eliza . Se trataba de un programa diseñado por Joseph Weizenbaum en el MIT que podía procesar lenguaje natural y mantener una conversación. Era muy sencillo y corría incluso en máquinas pequeñas. Su “talento” consistía en reconocer determinados elementos de las respuestas recibidas y utilizarlos en la siguiente interacción. Así, preguntaba el nombre de su interlocutor y luego lo empleaba en las preguntas consecutivas. Por ejemplo, era capaz de consultar “¿Cómo te sentís hoy?” y, si el usuario respondía “Bien”, repreguntaba: “¿Y por qué pensás que te sentís bien?”.
GPT-3: La capacidad de crear lenguaje
Si bien Eliza se desarrolló e incorporó inteligencia durante las siguientes dos décadas, el gran salto en materia de máquinas que dialogan es reciente. Recién hacia 2012 se vieron las primeras propuestas de generación de lenguaje a partir de inteligencia artificial. Apenas un lustro después, en 2017, Open AI, laboratorio de investigación cofundado entre otros por Elon Musk, aplicó aprendizaje profundo para lanzar lo que se conoció como transformers, que derivan en el GPT-3 que conocemos hoy.
De hecho, la sigla GPT (Generative Pre-Trained Transformer) incluye las tres grandes definiciones que hacen a su concepción. Se trata efectivamente de un transformer. Su aprendizaje se produce luego de haber sido entrenado con millones de textos. A diferencia de otras redes neuronales, capaces de reconocer imágenes o de traducir textos, es generativo: tiene la capacidad de crear.
La vara está muy alta. Sin embargo, queda mucho trabajo por delante. Por lo pronto, hoy los modelos disponibles de GPT-3 están entrenados fundamentalmente en idioma inglés. Esto hace que cuando intentan escribir en español, aun utilizando los traductores que también tienen un elevadísimo nivel de madurez, la calidad baja de manera drástica.
GPT-3: El legado de Turing
En la década del ’50 el matemático Alan Turing propuso el test que lleva su apellido, diseñado para determinar la inteligencia de un dispositivo computacional. La prueba define que podemos decir que una computadora piensa si es capaz de dialogar en lenguaje natural con un humano sin que éste pueda discernir si está charlando con un par o con una máquina. Hoy por hoy, en un diálogo extenso, un modelo GPT-3 termina revelando su identidad tecnológica. Todo hace presuponer que, con los próximos avances, el límite se irá haciendo cada vez más difuso. Por eso, en los próximos años, antes de ceder al amor en alguna red social de citas, habrá que pensarlo al menos dos veces.
Daniel Yankelevich , Socio fundador en Practia Global
¿Te interesa saber más? Comunícate con nosotros contacto_ar@practia.global