AI. Niet te geloven.
Als mensen iets op willen zoeken, openen ze steeds vaker ChatGPT. En voor wie wel besluit naar Google te gaan, is bij veel zoekopdrachten het eerste antwoord gegenereerd door AI. Superhandig, want voor veel vragen krijg je zo duidelijker en concreter antwoorden. Maar er zijn ook valkuilen. In dit blog lees je waarom het belangrijk is om je bronnen te controleren.
Geloof niet wat AI zegt
AI neemt het namelijk niet zo nauw met de waarheid. Veel mensen herkennen waarschijnlijk dat ChatGPT wel heel makkelijk complimenten uitdeelt. Je hebt een tekst geschreven? Wauw, wat ben jij goed bezig zeg! Je hebt je mailhandtekening aangepast door de instructies van Chat op te volgen? Helemaal super!
Om er vervolgens achter te komen dat al in de intro een grammaticale fout staat. En dat die handtekening bij anderen schots en scheef doorkomt.
Ook de AI Overview in Google kan er wat van. Een BN’er die geboren is in 1977? Die is nu 27. Echt waar. En moet je eigenlijk shampoo gebruiken? Volgens Google is dat helemaal niet zo nodig. Dat we door zweet en luchtvervuiling zonder shampoo met een stinkende bos klitten achterblijven, ruikt en ziet-ie natuurlijk niet.
De disclaimer onderaan ‘AI-reacties kunnen fouten bevatten’ is leuk bedacht, maar hoeveel mensen lezen daadwerkelijk zover door?
Is het echt zo erg?
Waarschijnlijk denk je nu: ‘maar dat kunnen mensen toch zelf ook wel bedenken?’ Veel mensen wel. Vooral als het over onderwerpen gaat waar ze zelf iets vanaf weten.
Zelfs met rekenkunsten van groep 6 kun je bedenken dat iemand die in 1977 geboren is, ouder is dan 27. En als je haar een maand lang geen shampoo heeft gezien, overtuigt de jeuk je er waarschijnlijk wel van om toch weer naar de fles te grijpen. De shampoofles, welteverstaan.
Maar wat als je iets opzoekt waar je zelf geen verstand van hebt? Ik haal mijn eigen spelfouten (meestal 😉) wel uit mijn teksten. Maar als je dyslectisch bent en een spellingcheck vraagt? De sollicitatiebrief die ChatGPT foutloos vond, betekent misschien wel dat jij je droombaan misloopt.
Het gaat soms zelfs nog verder. Zo vroeg een Amerikaanse man ChatGPT om dieettips. Het advies was om zout uit zijn dieet te schrappen. Op zich een goed begin, maar het volgende advies bleek iets minder accuraat. Dat was namelijk om zout te vervangen door natriumbromide. Een middel dat o.a. wordt gebruikt als slaapmiddel of tegen epilepsie.
Je raadt het al: dat ging niet helemaal goed. Hij kwam in het ziekenhuis terecht met bromisme: een vergiftiging met natriumbromide die naast buikklachten en slapeloosheid ook psychoses en waanbeelden veroorzaakte. Toen de man uitlegde hoe hij hieraan kwam, testten de artsen die hem behandelden het zelf uit in ChatGPT. En kregen ze hetzelfde advies.
Waarom het controleren van bronnen belangrijker is dan ooit
Hier gaat het nog om kennis waar je zelf misschien makkelijk achter kunt komen. Zoek één keer op natriumbromide, en je ziet dat het niet geschikt is om te eten.
Hoe vaak gaat het echter om zaken waar je zelf geen verstand van hebt? Waarschijnlijk vaak, want anders hoefde je het niet op te zoeken.
Met AI krijg je het antwoord in één handig overzicht. Dat – in het geval van ChatGPT – ook nog eens is afgestemd op de manier waarom je zelf graag communiceert.
Maar juist omdat je het in één overzicht krijgt, ontbreekt iets heel belangrijkers: context.
Want waar komt deze informatie vandaan? Uit wetenschappelijk onderzoek? Of van het Reddit-forum? AI-tools zijn lang niet altijd transparant over hun bronnen.
Natuurlijk, je kunt hier zelf naar op zoek. Als je in ChatGPT vraagt om bronnen voor de aangeboden informatie, krijg je vaak een keurig rijtje met websites. Google zet in een deel van AI-overzichten links naar de websites waar de informatie vandaan komt.
Daarmee ben je er echter nog niet. Dat er een bron is, betekent namelijk nog niet dat die correct geciteerd is. Dus is het verstandig om zelf verder te lezen.
Het nadeel? Dat kost tijd. En de bronnen zijn regelmatig afkomstig uit een taal die je zelf niet spreekt. Of geschreven op een taalniveau dat je zelf niet begrijpt. Checken of dat wat er in de bron staat overeenkomt met het antwoord van ChatGPT, is makkelijker gezegd dan gedaan.
Gaat het vaak fout?
Kort: ja. Ik kan niet meer op twee handen tellen hoe vaak ik verkeerde informatie heb gekregen van AI.
Soms gaat het over dingen die makkelijk te controleren zijn. Bijvoorbeeld de datum waarop een evenement plaatsvindt. In dat geval klik je even door naar de website, en zie je dat het niet klopt.
Maar soms zijn het ook zaken waar je echt goed voor moet doorlezen. Als het gaat om wetenschappelijke artikelen bijvoorbeeld. Je hebt vaak best wat verstand van zaken (en jargon) nodig om die te snappen. Soms zijn ze zelfs helemaal niet te openen, als je geen abonnement hebt of studeert aan een universiteit.
In die gevallen weet je simpelweg niet of de informatie die AI deelt wel zo betrouwbaar is. Iets verkeerd interpreteren is zo gebeurd. Je naar de mond praten is iets waar ChatGPT vooral erg goed in is.
En zo kan het gebeuren dat informatie verkeerd bij jou overkomt. Of als je het gebruikt voor je eigen rapporten, artikelen of whitepapers, verkeerd de wereld in wordt geslingerd.
Net zo lang tot het een feit is, dat eigenlijk nooit een feit was.
Check je feiten
Juist daarom is het zo belangrijk om je feiten te controleren. Met echte bronnen. Waar echt onderzoek aan vooraf is gegaan.
Natuurlijk kun je AI gebruiken om een richting te vinden. Sterker nog: daarmee bespaar je jezelf enorm veel tijd.
Maar zodra je die richting hebt, is het tijd om te kijken wat er waar is, en waar AI met de waarheid aan de haal is gegaan. Bijvoorbeeld door zelf ouderwets te googelen (dus zonder dat AI-overzicht). Of door het te vragen aan een expert.
Uiteindelijk is dat de enige manier om betrouwbare, kwalitatieve content te delen.
En controleer anderen
Met alleen het controleren van AI ben je er trouwens nog niet. Steeds meer mensen, bedrijven en platforms gebruiken namelijk AI om hun artikelen te schrijven.
En lang niet iedereen doet zo’n brononderzoek.
Het resultaat? Er komt steeds meer onzin online. Onzin die lezers voor zoete koek slikken. Misschien wel zelf gaan citeren. En die weer een ‘bron’ vormen voor nieuwe, door AI gegenereerde antwoorden.
En zo raakt wat online staat, steeds een stapje verder verwijderd van de waarheid. Ik denk dat we de omvang van wat hierdoor aan misinformatie kan ontstaan, nog niet kunnen bevatten. AI lijkt ver ontwikkeld, maar staat nog in de kinderschoenen. Belanden we in een vicieuze cirkel (of negatieve spiraal…) van misinformatie? Of vinden we een manier om het probleem op te lossen?
Hopelijk lees ik over 5 jaar dit blog opnieuw, en blijkt dat laatste het geval. En zo niet, weet dan dat dit artikel helemaal met de hand is geschreven. Want ja, ook anno 2025 is dat nog gewoon een optie.