ChatGPT en bijvoorbeeld Google Bard is een speciaal soort software. Het is een chatbot, dat gebruikmaakt van kunstmatige intelligentie.
Het werkt eigenlijk op dezelfde manier als normale chatbots: je typt een bericht en de chatbot geeft een antwoord.
Wat ChatGPT echt bijzonder maakt, is hoe natuurlijk en menselijk de antwoorden klinken. Het is alsof je met een echt persoon praat.
Bovendien kan ChatGPT praten over allerlei verschillende onderwerpen, dus je kunt er echt van alles mee bespreken.
Dat gezegd hebbende, zijn er veel misverstanden over dit type software. ChatGPT, Google Bard en andere AI-chatbots. Daarom in normale mensentaal een uitleg over hoe dit soort software tot stand komt en werken.
Dit soort type Chatbots zul je steeds vaker tegenkomen en gebruiken. Deze achtergrond info, helpt je ze nog beter benutten.
Grote taalmodellen: woordvoorspeller
ChatGPT, Google Bard en andere vergelijkbare AI-chatbots zijn voorbeelden van grote taalmodellen, ook wel bekend als LLM’s (Large Language Models). Het is de moeite waard om te begrijpen hoe di werkt, zodat je er beter gebruik van kunt maken en een beter idee hebt van waar ze goed in zijn. En waar je ze beter niet volledig op kunt vertrouwen.
Op heel veel tekst getraind
LLM’s, waaronder ChatGPT, worden net als veel andere kunstmatige intelligentiesystemen getraind met enorme hoeveelheden tekst. De bedrijven erachter zijn vrij terughoudend bij het onthullen waar precies die gegevens vandaan komen, maar er zijn bepaalde aanwijzingen waar we naar kunnen kijken.
Maar belangrijke bronnen voor LLM’s zijn onder andere: Wikipedia, forums vraag- en antwoordsites, tutorials, programmeercode-documenten, enzovoort”.Het is duidelijk dat veel van wat publiekelijk beschikbaar is op het web is verzameld en geanalyseerd door LLM’s. Wat vanuit hun perspectief ook logisch is.
De transformer revolutie
Je kunt het vergelijken met het verzamelen en analyseren van informatie uit verschillende boeken en artikelen om erachter te komen hoe iets werkt. De bots hebben als het ware enorme bibliotheken geraadpleegd om hun kennis op te bouwen.
Alle tekstgegevens, waar ze ook vandaan komen, worden bij de meest recente AI-chatbots verwerkt in via een speciale methodiek gericht op taalverwerking. Transformer genaamd.
Stel je voor dat een transformer enorme hoeveelheden tekst kan lezen, patronen kan herkennen in hoe woorden en zinnen met elkaar verband houden. En vervolgens voorspellingen kan doen over welke woorden er zouden moeten volgen.
Je kunt LLM’s vergelijken met een krachtige smartphone toetsenboord woordvoorspeller, maar dan met een zeer hoogstaande techniek en getraind op heel veel tekst.
ChatGPT en Bard “weten” eigenlijk niets, maar ze zijn wel heel goed in het uitzoeken welk woord er na een ander komt. Maar dankzij het transformers ziet het er wel heel slim en creatief uit!
Context van het woord binnen de alinea
Een van de belangrijkste innovaties van deze transformers is het zelfaandachtsmechanisme. In essentie betekent het dat woorden in een zin niet geïsoleerd worden beschouwd, maar ook in relatie tot elkaar. Dit creëert context en zorgt voor een hoger niveau van begrip dan anders mogelijk zou zijn.
Om je een voorbeeld te geven. Stel je zou dit typen en vraagt de chatbot de zin af te laten maken: Ik heb een lieve hond, maar zij is ziek en ik voel mij nu:
Vroeger kon het bijvoorbeeld zijn: “Ik heb een lieve hond, maar zij is ziek en ik voel mij nu gebroken.“
Nu met transformer: “Ik heb een lieve hond, maar zij is ziek en ik voel mij nu bezorgd en verdrietig. Ik maak me zorgen om haar gezondheid en hoop dat ze snel beter wordt.”
Geven van goede antwoorden
Er zit enige willekeur en variatie ingebouwd, daarom krijg je niet elke keer dezelfde reactie van een transformer-chatbot. Deze techniek verklaart ook hoe er fouten kunnen insluipen. Op een fundamenteel niveau weten ChatGPT en Google Bard niet wat juist is en wat niet. Ze zoeken naar reacties die plausibel en natuurlijk lijken, en die overeenkomen met de gegevens waarop ze zijn getraind.
Een taalmodel is geen zoekmachine
Mensen maken weleens een vergelijking met de zoekmachine, maar die techniek is totaal niet met dit te vergelijken. Daarom is het ook een risico om dit als feitenmachine te gebruiken.
Je kunt het vergelijken met een schrijver die een verhaal schrijft op basis van eerder gelezen boeken. Zonder daarna een check te doen of het nieuw geschreven stuk klopt. Het leest lekker weg en klopt misschien (grotendeels), maar de garantie dat het foutloos is, kan je niet geven.
LLM’s proberen te raden welke woorden en zinnen het beste bij elkaar passen, maar ze kunnen niet echt weten welke informatie absoluut waar is en welke niet.
Daarnaast is het belangrijk om te beseffen dat bronnen niet letterlijk bestaan voor de LLM. Het antwoord die je krijgt is niet op basis van een bron die het taalmodel dan citeert. Zoekmachines doen dit wel, maar een taalmodel werkt totaal anders.
Vertrouw daarom niet blind om de bronnen die je krijgt, omdat dit niet een bron hoeft te zijn die de LLM heeft gebruikt of zelfs bestaat.
In de wereld van chatbots en kunstmatige intelligentie is er trouwens nog iets interessants aan de hand.
Stel je voor dat je een zin aan het typen bent en een chatbot probeert te voorspellen wat het volgende woord zou moeten zijn. Normaal gesproken zou je verwachten dat de chatbot het meest waarschijnlijke woord kiest, toch?
Soms kiest hij juist het tweede of derde meest waarschijnlijke woord. Dit kan wat vreemd klinken, maar is een strategie om variatie en verrassing toe te voegen aan de antwoorden.
Het probleem is echter dat als je te ver gaat in deze aanpak, de zinnen geen logische betekenis meer hebben. Vandaar dat voordat deze Chatbot live wordt gezet nog een extra training krijgt.
Menselijke feedback: belonen en straffen
Stel je voor dat je een AI-chatbot bent en je wilt leren hoe je betere antwoorden kunt geven. Maar hoe weet je wat een goed antwoord is? Hier komt “versterkend leren van menselijke feedback” om de hoek kijken. Het is een trainingsmethode die gebruikt wordt om chatbots zoals ChatGPT te verbeteren.
Bij versterkend leren van menselijke feedback draait alles om beloningen. Stel je voor dat je een chatbot bent die een vraag krijgt. Als je een goed antwoord geeft dat soepel, relevant en feitelijk correct is, zonder beledigende taal, dan krijg je een beloning.
Deze beloning helpt je te begrijpen dat je op de goede weg bent en dat je antwoord gewaardeerd wordt.
Stel je voor dat iemand aan de chatbot vraagt: “Wat voor weer wordt het vandaag?”
Je kunt je voorstellen dat op teksten over het weer rondom regen en veel wind heel negatieve tekst zit.
Als op moment dat je de vraag stelt de voorspelling is dat het regent met een windkracht 7. Zou dit de AI een grof antwoord kunnen geven, omdat de teksten omtrent dit weer negatief en grof zijn.
Bij een grof antwoord krijgt het een negatieve beoordeling.
Als de chatbot reageert met een accurate voorspelling en op een vriendelijke en begrijpelijke manier, dan wordt het beloond. Dit moedigt de chatbot aan om steeds betere antwoorden te geven in de toekomst.
Op deze manier worden de GPT-modellen getraind en verfijnd, zodat ze steeds slimmer worden in het geven van passende antwoorden.
Het is als een leerproces waarbij de chatbot stap voor stap leert wat wel en niet werkt. Uiteindelijk streeft men ernaar om een chatbot te hebben die natuurlijke en waardevolle gesprekken kan voeren met gebruikers, zonder misverstanden of ongepaste taal.
Wat je misschien opvalt is je regelmatig een gegenereerde tekst krijgt die vrij generiek of clichématig is.
Dit is te verwachten van een chatbot die probeert antwoorden samen te stellen op basis van grote hoeveelheden bestaande tekst. En ook netjes te antwoorden.
Als je kijkt naar hoe LLM’s werken, wordt duidelijk dat ze uitstekend zijn in het nabootsen van tekst waarop ze zijn getraind.
Beperkte redenatie
Jij kunt de redeneervaardigheden van LLM’s vergelijken met die van een student aan het begin van de opleiding.
De lesstof is uit het hoofd geleerd, maar er is nog geen diepgaand begrip hebben van de onderliggende realiteit.
LLM’s hebben grote associatieve geheugencapaciteit, wat betekent dat ze veel informatie kunnen onthouden en koppelen.
Maar net als de student vertrouwt het LLM’s voornamelijk op wat ze hebben geleerd, zonder een dieper begrip van de concepten en principes die eraan ten grondslag liggen.
Je kunt het zien alsof je een boek uit je hoofd leert en de termen kent, maar het concept nog niet begrijpt.
Net als bij een overhoring kan een LLM informatie herhalen en verbanden leggen tussen verschillende stukken.
Maar een groot taalmodel mist het vermogen om diepere inzichten te geven of complexe situaties te doorgronden. Het kan antwoorden geven op basis van het opgeslagen heeft, maar mist het vermogen om echt te redeneren of contextuele nuances te begrijpen.
Met andere woorden: hoewel LLM’s grote hoeveelheden informatie in zich hebben en associaties leggen tussen verschillende woorden en zinnen.
Ontbreekt het hen aan het vermogen om echt te begrijpen wat er wordt gezegd en de bredere betekenis ervan te vatten. Ze functioneren als geavanceerde geheugenmachines, maar missen het vermogen om diepgaand te redeneren en diepere betekenissen te doorgronden.
Ondanks deze tekortkoming, kan je er alsnog veel waarde uithalen.
Het is nuttig, niet perfect
Ze kunnen tekst creëren die prettig wegleest en overtuigend overkomt. Door hun “geavanceerde woordvoorspeller” methode kunnen ze de meeste feiten correct weergeven. Het is duidelijk wie het EK in 1988 won.
Maar soms kunnen ze tekortschieten: het meest waarschijnlijke volgende woord is niet altijd het juiste woord.
Daarom moet je ook erg oppassen met het vragen naar bronnen (zoals je al eerder kon lezen). De URL’s of de titels van PDF’s verwijzend naar de onderzoeken, kunnen niet bestaan. Terwijl ze wel erg overtuigend klinken.
Het belangrijkste is dat jij je bewust bent van de beperkingen van deze taalmodellen. Het is geen zoekmachine, dus bronnen opvragen zijn een risico. En ze gebruiken de bronnen ook niet letterlijk, iets wat een zoekmachine wel doet.
AI-chatbots zijn goed in het imiteren van onze tekstuele manier van communiceren, maar ze hebben niet altijd de perfect voorspellende vaardigheden. Ze kunnen je goede antwoorden geven, maar wees niet lui en neem alles letterlijk over.
Omdat het taalmodellen zijn ligt de kracht ook erg in tekstuele aanpassen.
AI-chatbots inzetten voor het herschrijven van een tekst in een andere stijl, samenvatten in een tabel of bijvoorbeeld een algemene tekst omzetten naar een mail. Dat is zeker iets wat ze over het algemeen goed kunnen.
Ook op het vlak van creatief schrijven zijn ze erg sterk. Of een dialoog voeren. Als je even de feiten buiten beschouwing laat. Maar vragen stellen, op je reageren en een onderwerp uitdiepen, kan je er goed mee.
Rekensommen oplossen, ook in verhaalvorm kan, maar houd er rekening mee dat dit al meer foutgevoelig is.
Kortom je kunt er echt heel veel kanten mee op, maar het is ook goed om een ‘gevoel’ te ontwikkelen hoe goed de chatbot die je gebruikt in die taak is. Dit ontdek je alleen maar door te doen.
Samenvatting
ChatGPT en andere AI-chatbots, zoals Google Bard, zijn speciale softwareprogramma’s die gebruikmaken van kunstmatige intelligentie.
Ze werken op een vergelijkbare manier als normale chatbots, waarbij je een bericht typt en de chatbot antwoord geeft. Maar de techniek is anders het zijn grote taalmodellen zijn, ook wel bekend als LLM’s (Large Language Models).
Wat LLM-chatbots bijzonder maakt, is dat de antwoorden natuurlijk en menselijk klinken, alsof je met een echt persoon praat. Zonder dat letterlijk de gesprekken al vooraf uitgewerkt zijn.
ChatGPT en andere LLM AI-chatbots kunnen praten over verschillende onderwerpen en je kunt er van alles mee bespreken.
Ze worden getraind met enorme hoeveelheden tekst, zoals Wikipedia, forums, vraag- en antwoordsites, en programmeercode-documenten.
Een belangrijke techniek die ze gebruiken is de transformer waarmee het concept zelfaandachtsmechanisme geboren werd.
Het zelfaandachtsmechanisme van de transformers herkent patronen in woorden en zinnen en doet over welke woorden er zouden moeten volgen. Daarnaast zorgt dit concept ervoor dat woorden in een zin in relatie tot elkaar worden beschouwd, waardoor context en begrip ontstaat.
De chatbots kunnen goede antwoorden geven, maar er is enige willekeur en variatie ingebouwd, waardoor de antwoorden niet altijd hetzelfde zijn.
Een AI is niet feilloos en weet niet echt wat juist is of niet, maar zoekt naar reacties die plausibel en natuurlijk lijken op basis van de trainingsgegevens.
Het gebruik van een LLM chatbot gebaseerd op een is niet hetzelfde als het gebruik van een zoekmachine, omdat ze niet de absolute waarheid kennen en niet altijd volledig betrouwbare informatie verstrekken. Zoekmachines ook niet, maar bij de meeste AI-chatbots is dit ook niet het hoofddoel.
De LLM’s worden getraind en verbeterd met behulp van menselijke feedback en beloningen, waarbij goede antwoorden worden beloond en onjuiste of beledigende antwoorden worden bestraft.
Het expliciet van bronnen opvragen is een risico, omdat het getrainde taalmodel zelf niet letterlijk met een bron werkt waaruit het citeert. Het kan een bron ‘verzinnen’ die goed klinkt, maar jij uiteindelijk niet terug kunt vinden.
Het is belangrijk om je bewust te zijn van de beperkingen van deze taalmodellen en niet alles klakkeloos over te nemen wat ze zeggen.
Tegelijkertijd kunnen de nieuwe generatie chatbots jouw leven makkelijker maken als jij je goed bewust bent van de sterktes en limieten.