Prompts

Een Large Language Model (LLM) zoals bijvoorbeeld GPT van OpenAI biedt veel nieuwe mogelijkheden om werkprocessen te ondersteunen en te automatiseren.

Een LLM, zoals bijvoorbeeld GPT-4, is getraind op een aanzienlijk deel van alle tekst die op het internet te vinden is. Door deze training op een grote hoeveelheid tekstdata is het model zeer goed in staat teksten te schrijven in vele talen. Maar omdat de trainingstekst ook ongeveer alle informatie en kennis van het internet bevat, kan het model ook antwoord geven op vragen over allerhande onderwerpen.

Je kunt dit vergelijken met de situatie dat je, om de Spaanse taal te leren, een complete Spaanse encyclopedie zeer grondig bestudeert. Het resultaat is dan niet alleen dat je de Spaanse taal leert, maar je doet ook nog eens kennis op van allerhande zaken, van “abajo” tot “zurullo”.

ChatGPT versus GPT API

Veel mensen zijn bekend met ChatGPT, een goede tool om ad hoc vragen te stellen aan de achterliggende GPT-modellen. De modellen van GPT zijn echter ook te benaderen via een API (Application Programming Interface), waarmee je via programmeercode met de GPT-modellen kunt communiceren.

Beide methoden hebben hun eigen voordelen en nadelen. Een nadeel van ChatGPT is dat alle informatie in het invoerveld van de browser getypt of geplakt moet worden. Dit is prima voor ad hoc vragen, maar maakt het lastig voor automatisering van bedrijfsprocessen.

Een voordeel van ChatGPT is dat GPT binnen een chatgesprek onthoudt wat er eerder in het gesprek is besproken. Zo kan er een compleet gesprek ontstaan waarbij je tijdens het gesprek aanvullende vragen kunt stellen en aanvullende informatie aan het AI-model kunt geven.

Bij het communiceren met GPT via de API onthoudt GPT niet wat er eerder is gevraagd en weet het niet welke informatie in een vorige API-call is meegegeven. Dit betekent dat je bij elke vraag via de API altijd alle relevante informatie mee moet sturen.

Prompt

De totale informatie die we via de API-call aan het AI-model toesturen, inclusief de vraag die we beantwoord willen hebben, noemen we de 'prompt'.

Simpele vraag

De prompt kan bestaan uit alleen een vraag. Het AI-model zal deze vraag beantwoorden met alle kennis die het tijdens de training heeft vergaard.

Vraag met aanwijzingen

De prompt kan ook informatie bevatten over hoe we de vraag beantwoord willen hebben. We kunnen aanwijzingen meegeven over de schrijfstijl, de lengte van het antwoord, de taal van het antwoord, enzovoort.

Vraag met data

We kunnen in de prompt naast de vraag en aanwijzingen ook data meesturen die het model kan gebruiken bij het beantwoorden van de vraag. GPT-4 is getraind op enorme hoeveelheden data van het internet en zal deze data benutten bij het beantwoorden van vragen. Echter, deze trainingsdata zijn van vóór september 2021, dus vragen over recente gebeurtenissen kan het niet beantwoorden. Ook bevat de trainingsdata niet je persoonlijke data. Met een zorgvuldig opgestelde prompt kunnen we deze beperkingen omzeilen en het model voorzien van actuele en eigen informatie. Op deze manier combineren we de kennis en het schrijftalent van GPT met onze eigen data om het AI-model optimaal voor ons te laten werken.

laatste nieuws

GPT-4o: Sneller en Goedkoper

Op 13 mei 2024 heeft OpenAI haar nieuwste model, GPT-4o, gelanceerd. Dit model belooft niet alleen twee keer zo snel te zijn als de huidige GPT-4 Turbo versie, maar ook aanzienlijk goedkoper.

lees meer

SCHREEUWEN tegen je computer?

AI-ontwikkelingen suggereren dat we binnenkort misschien op verrassend menselijke manieren met onze apparaten kunnen communiceren. Helpt het om te schreeuwen tegen je AI-model?

lees meer

Fooi geven aan ChatGPT kan leiden tot langere antwoorden

Het aanbieden van een fooi aan ChatGPT kan resulteren in langere antwoorden, volgens ontdekkingen van programmeur Theia Vogel.

lees meer

Geef AI-modellen menselijke aanmoedigingen

Google DeepMind introduceert een nieuwe techniek genaamd OPRO om de wiskundekennis van AI-taalmodellen te verbeteren door middel van menselijke aanmoediging.

lees meer