Définition de Prompt


 

Dans le cadre des modèles de langage génératif comme OpenAI GPT, un « prompt » est l’input initial que l’utilisateur donne au modèle, lequel génère ensuite du texte basé sur cet input. Le prompt est l’incitation ou le point de départ pour la génération de texte. Il peut être aussi simple qu’un seul mot, une phrase, une question ou un paragraphe plus long.

Un prompt est essentiellement une invitation à produire du texte. Lorsque vous fournissez un prompt à un modèle de langage génératif comme GPT, le modèle utilise ce prompt pour prédire et générer le texte qui, selon lui, devrait logiquement suivre. Il fait cela en s’appuyant sur l’énorme quantité de données textuelles sur lesquelles il a été formé.

Il est important de noter que le modèle ne comprend pas réellement le sens des mots ou des phrases qu’il génère. Il s’agit plutôt d’un système statistique complexe qui produit du texte basé sur les modèles qu’il a identifiés dans les données d’apprentissage. Cela signifie qu’il peut parfois produire des réponses qui semblent pertinentes et cohérentes, mais qui peuvent aussi être incorrectes ou ne pas avoir de sens.

La qualité et la pertinence de la sortie dépendent en grande partie du prompt que vous donnez au modèle. Les prompts clairs et précis ont tendance à donner de meilleurs résultats que les prompts vagues ou ambiguës.

Par exemple, si vous donnez à GPT le prompt « Raconte-moi une histoire de science-fiction qui se déroule sur Mars », il générera une histoire basée sur ce scénario. La spécificité de ce prompt aidera le modèle à générer une histoire qui correspond à vos attentes. En revanche, si vous donnez simplement le prompt « Raconte une histoire », le modèle pourrait générer n’importe quel type d’histoire, car le prompt est assez vague.

Enfin, il est important de comprendre que le modèle ne génère du texte qu’à partir du prompt que vous lui donnez et des informations qu’il a apprises lors de sa formation. Il ne peut pas accéder à des informations en temps réel ou à des données qu’il n’a pas vues lors de sa formation. Par exemple, si vous donnez à GPT le prompt « Quel est le score du dernier match des Yankees ? », il ne sera pas en mesure de vous fournir une réponse précise, car il ne peut pas accéder à des informations en temps réel (sauf en utilisant un plugin qui lui permet de se connecter à la recherche Internet). Il ne peut que générer du texte basé sur les informations sur lesquelles il a été formé, qui, dans le cas de GPT-4, s’arrêtent en septembre 2021.

Prompt Engineering

« Prompt engineering » fait référence à l’art et à la science de formuler des prompts, ou des instructions, pour des modèles d’apprentissage automatique basés sur le langage, comme GPT-3 ou GPT-4. Ces modèles reçoivent des entrées (prompts) et génèrent des sorties basées sur ces entrées.

Prompt engineering consiste donc à optimiser la façon dont ces entrées sont formulées pour obtenir les résultats souhaités. Cela peut impliquer des ajustements spécifiques à la syntaxe, à la longueur, à la clarté ou au contexte du prompt pour améliorer la qualité et la pertinence des réponses du modèle.

Publié le 2 juin 2023
 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *