Después de practicar con LLMs desde GPT-3 y Codex, (modelos previos a ChatGPT) he reunido una serie de pautas o consejos que he aprendido desde mi experiencia y me gustaría aportar a la disciplina del Prompt Engineering.
Las reglas que leerás a continuación están basadas en mi experiencia durante estos años usando estos modelos generativos, y aunque utilizaré como ejemplo mayoritariamente los modelos de OpenAI, estas reglas están escritas para poder generalizarse a cualquier modelo generativo, ya sea de texto, de imagen, de video, etc.
Viéndolo de una forma muy simplista, los LLMs son “predictores de la siguiente palabra” entrenados con grandes volúmenes de texto. En esta labor de predecir la siguiente palabra, los LLM han logrado adquirir habilidades únicas relacionadas con la generación de texto.
No solo son capaces de imitar el lenguaje humano de forma convincente, sino que también tienen la capacidad de realizar tareas que antes eran inimaginables de ser resueltas por una computadora.
Algunas de ellas son: resumir textos, traducir entre idiomas, mantener conversaciones realistas, clasificar contenido, crear código fuente, resolver problemas de análisis de datos, generar nuevo contenido, entre muchas otras, ya dependerá de nuestra creatividad de quien los usa.
Los LLMs son el tipo de herramientas que no tienen una guía ni un tutorial, es la mera experimentación y el objetivo de quien las usa sacarle el máximo provecho.
Agrupé una lista de diferentes utilidades que puede tener un LLM en las siguientes categorías.