Generative Pre-trained Transformer 3, conocida por sus siglas (GPT-3), es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana. Es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT, creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco. La versión completa de GPT-3 tiene una capacidad de 175.000 millones de parámetros de aprendizaje automatizado, lo cual supera la magnitud de su predecesor, GPT-2. GPT-3 fue introducido en mayo de 2020 y, hasta julio de 2020, se encontraba en fase beta. Es parte de una tendencia en sistemas de procesamiento de lenguaje natural (NLP) basados en "representaciones de lenguaje pre-entrenadas". Previo a la liberación de GPT-3, el modelo de lenguaje más grande era Turing NLG desarrollado por Microsoft, presentado en febrero de 2020, con una capacidad diez veces menor que el de GPT-3.
GPT-3, un reciente programa de generación de texto de la empresa OpenAI, muestra hasta dónde ha llegado el campo, y hasta dónde puede llegar. GPT-3, está provocando escalofríos en todo Silicon Valley y ya ha generado memes, poemas y tuits a raudales.
Aunque todavía estamos lejos de resolver el test de Turing, es cierto que los logros actuales de GPT-3 son asombrosos. Puede reformular comentarios groseros convirtiéndolos en educados, o viceversa.
Se han logrado joyitas de contenido literario cuando GPT-3 incluyó pastiches de Harry Potter en los estilos de Ernest Hemingway y Jane Austen —como aseguraba Verbum tres décadas atrás—.
No hay comentarios:
Publicar un comentario