viernes, 30 de diciembre de 2022

GPT-3

Generative Pre-trained Transformer 3, conocida por sus siglas (GPT-3), es un modelo de lenguaje autorregresivo que emplea aprendizaje profundo para producir textos que simulan la redacción humana. Es la tercera generación de los modelos de predicción de lenguaje perteneciente a la serie GPT, creados por OpenAI, un laboratorio de investigación de inteligencia artificial con sede en San Francisco.​ La versión completa de GPT-3 tiene una capacidad de 175.000 millones de parámetros de aprendizaje automatizado, lo cual supera la magnitud de su predecesor, GPT-2. GPT-3 fue introducido en mayo de 2020 y, hasta julio de 2020, se encontraba en fase beta.​ Es parte de una tendencia en sistemas de procesamiento de lenguaje natural (NLP) basados en "representaciones de lenguaje pre-entrenadas".​ Previo a la liberación de GPT-3, el modelo de lenguaje más grande era Turing NLG desarrollado por Microsoft, presentado en febrero de 2020, con una capacidad diez veces menor que el de GPT-3.


GPT-3, un reciente programa de generación de texto de la empresa OpenAI, muestra hasta dónde ha llegado el campo, y hasta dónde puede llegar. GPT-3, está provocando escalofríos en todo Silicon Valley y ya ha generado memes, poemas y tuits a raudales.

Aunque todavía estamos lejos de resolver el test de Turing, es cierto que los logros actuales de GPT-3 son asombrosos. Puede reformular comentarios groseros convirtiéndolos en educados, o viceversa.

Se han logrado joyitas de contenido literario cuando GPT-3 incluyó pastiches de Harry Potter en los estilos de Ernest Hemingway y Jane Austen —como aseguraba Verbum tres décadas atrás—.

No hay comentarios:

Publicar un comentario