Prompt documentatie
Meer documentatie
Prompts
Een Large Language Model (LLM) zoals bijvoorbeeld GPT van OpenAI biedt veel nieuwe mogelijkheden om werkprocessen te ondersteunen en te automatiseren.
Een LLM, zoals bijvoorbeeld GPT-4, is getraind op een aanzienlijk deel van alle tekst die op het internet te vinden is. Door deze training op een grote hoeveelheid tekstdata is het model zeer goed in staat teksten te schrijven in vele talen. Maar omdat de trainingstekst ook ongeveer alle informatie en kennis van het internet bevat, kan het model ook antwoord geven op vragen over allerhande onderwerpen.
Je kunt dit vergelijken met de situatie dat je, om de Spaanse taal te leren, een complete Spaanse encyclopedie zeer grondig bestudeert. Het resultaat is dan niet alleen dat je de Spaanse taal leert, maar je doet ook nog eens kennis op van allerhande zaken, van “abajo” tot “zurullo”.
ChatGPT versus GPT API
Veel mensen zijn bekend met ChatGPT, een goede tool om ad hoc vragen te stellen aan de achterliggende GPT-modellen. De modellen van GPT zijn echter ook te benaderen via een API (Application Programming Interface), waarmee je via programmeercode met de GPT-modellen kunt communiceren.
Beide methoden hebben hun eigen voordelen en nadelen. Een nadeel van ChatGPT is dat alle informatie in het invoerveld van de browser getypt of geplakt moet worden. Dit is prima voor ad hoc vragen, maar maakt het lastig voor automatisering van bedrijfsprocessen.
Een voordeel van ChatGPT is dat GPT binnen een chatgesprek onthoudt wat er eerder in het gesprek is besproken. Zo kan er een compleet gesprek ontstaan waarbij je tijdens het gesprek aanvullende vragen kunt stellen en aanvullende informatie aan het AI-model kunt geven.
Bij het communiceren met GPT via de API onthoudt GPT niet wat er eerder is gevraagd en weet het niet welke informatie in een vorige API-call is meegegeven. Dit betekent dat je bij elke vraag via de API altijd alle relevante informatie mee moet sturen.
Prompt
De totale informatie die we via de API-call aan het AI-model toesturen, inclusief de vraag die we beantwoord willen hebben, noemen we de 'prompt'.
Simpele vraag
De prompt kan bestaan uit alleen een vraag. Het AI-model zal deze vraag beantwoorden met alle kennis die het tijdens de training heeft vergaard.
Vraag met aanwijzingen
De prompt kan ook informatie bevatten over hoe we de vraag beantwoord willen hebben. We kunnen aanwijzingen meegeven over de schrijfstijl, de lengte van het antwoord, de taal van het antwoord, enzovoort.
Vraag met data
We kunnen in de prompt naast de vraag en aanwijzingen ook data meesturen die het model kan gebruiken bij het beantwoorden van de vraag. GPT-4 is getraind op enorme hoeveelheden data van het internet en zal deze data benutten bij het beantwoorden van vragen. Echter, deze trainingsdata zijn van vóór september 2021, dus vragen over recente gebeurtenissen kan het niet beantwoorden. Ook bevat de trainingsdata niet je persoonlijke data. Met een zorgvuldig opgestelde prompt kunnen we deze beperkingen omzeilen en het model voorzien van actuele en eigen informatie. Op deze manier combineren we de kennis en het schrijftalent van GPT met onze eigen data om het AI-model optimaal voor ons te laten werken.