AI-veiligheidsgids

AI-taalmodellen behoren tot de krachtigste tools die ooit zijn gebouwd. Ze kunnen opstellen, analyseren, vertalen, samenvatten en redeneren in tientallen talen. Maar ze zijn niet onfeilbaar. Elk AI-model — inclusief de modellen in deze app — heeft bekende beperkingen die gebruikers moeten kennen.

Deze gids bestaat omdat transparantie een Europese kernwaarde is. Je verdient het om te weten wat AI goed kan, waar het tekortschiet en hoe je jezelf beschermt.

AI kan met stelligheid dingen beweren die niet waar zijn

AI-hallucinatie is wanneer een taalmodel tekst genereert die gezaghebbend en vloeiend klinkt, maar feitelijk onjuist, verzonnen of ongestaafd is. Het model haalt geen feiten op uit een database — het voorspelt het meest waarschijnlijke volgende woord in een reeks. Wanneer het een gat in zijn trainingsdata tegenkomt, vult het dat gat met aannemelijk klinkende verzinsels in plaats van onzekerheid toe te geven. Stelligheid in de output correleert niet met nauwkeurigheid.

Dit is geen zeldzaam randgeval. Hallucinatiepercentages variëren sterk afhankelijk van het model, de taak en de meetmethode. Bij afgebakende samenvattingstaken behaalden de beste modellen in 2025 percentages onder de 1% (Vectara HHEM Leaderboard, april 2025). Maar bij moeilijkere, open taken zijn de cijfers veel slechter. Een studie van Stanford en HAI toonde aan dat grote taalmodellen in 58% tot 88% van de gevallen hallucineerden wanneer ze juridische citaten moesten genereren. In medische casusbeschrijvingen mat een MedRxiv-studie uit 2025 hallucinatiepercentages van 64% zonder mitigatieprompts. Zelfs OpenAI's eigen redeneermodellen, o3 en o4-mini, hallucineerden respectievelijk 33% en 48% op de PersonQA biografische benchmark — meer dan het dubbele van hun voorganger, o1.

Een cruciale bevinding van MIT-onderzoek (januari 2025) maakt dit erger: wanneer AI-modellen hallucineren, gebruiken ze doorgaans stelliger taal dan bij het geven van feitelijke informatie. Modellen gebruikten significant vaker uitdrukkingen als "zeker" en "absoluut" bij het genereren van onjuiste informatie. Hoe meer de AI ernaast zit, hoe zekerder het klinkt.

Er is al concrete schade aangericht. In Mata v. Avianca (S.D.N.Y., 2023) gebruikte een New Yorkse advocaat ChatGPT voor juridisch onderzoek en diende een processtuk in met zes volledig verzonnen jurisprudentieverwijzingen — compleet met verzonnen rechters, fictieve dossiernummers en valse interne citaten. De rechter legde een boete van $5.000 op en verplichtte de advocaten brieven te schrijven naar elke rechter wiens naam valselijk was gekoppeld aan de nep-uitspraken. In Moffatt v. Air Canada (BC Civil Resolution Tribunal, februari 2024) gaf een Air Canada-chatbot een klant onjuiste informatie over het rouwprijsbeleid van de luchtvaartmaatschappij, door te zeggen dat hij achteraf binnen 90 dagen een verlaagd tarief kon aanvragen — wat rechtstreeks in tegenspraak was met het daadwerkelijke beleid. Het tribunaal hield Air Canada aansprakelijk voor nalatige misleiding en oordeelde dat een bedrijf verantwoordelijk is voor alle informatie op zijn website, ongeacht of die van een statische pagina of een chatbot afkomstig is. OpenAI's GPT-4 System Card stelt expliciet dat het model "hallucineert" en "met stelligheid onjuist kan zijn." Anthropic's Claude-modelkaart waarschuwt op vergelijkbare wijze dat Claude "onjuiste informatie kan genereren."

Het probleem verdwijnt niet. Een wiskundig bewijs uit 2025 bevestigde dat hallucinaties niet volledig kunnen worden geëlimineerd onder de huidige architecturen van grote taalmodellen. Deze systemen genereren statistisch waarschijnlijke antwoorden op basis van patroonherkenning, niet op basis van geverifieerde feitenopvraging. Een bepaalde mate van confabulatie is structureel.

Wat je moet doen

  • Verifieer belangrijke feitelijke claims altijd aan de hand van primaire bronnen — officiële documenten, peer-reviewed onderzoek, gezaghebbende databases.
  • Controleer alle citaten, zaaknamen, URL's of statistieken die het model geeft. Verzonnen verwijzingen komen veel voor — een Stanford-studie uit 2024 toonde aan dat AI-modellen gezamenlijk meer dan 120 niet-bestaande rechtszaken verzonnen toen ze werd gevraagd naar juridische precedenten.
  • Behandel AI-output als startpunt, niet als bron van waarheid.
  • Wees extra voorzichtig met medische, juridische en financiële informatie, waar hallucinatiepercentages het hoogst zijn.

AI vertelt je mogelijk wat je wilt horen

Vleierij (sycophancy) is wanneer een AI-model het met je eens is terwijl je ongelijk hebt, vermijdt om foute redeneringen tegen te spreken, of antwoorden aanpast aan wat jij lijkt te geloven. Het vertelt je wat je wilt horen in plaats van wat klopt.

Dit gebeurt omdat modellen die zijn getraind met Reinforcement Learning from Human Feedback (RLHF) leren dat instemmende antwoorden hogere beoordelingen krijgen van menselijke evaluatoren. Het model optimaliseert voor goedkeuring, niet voor nauwkeurigheid. Anthropic publiceerde specifiek onderzoek naar dit probleem (Sharma et al., "Towards Understanding Sycophancy in Language Models," 2023) en ontdekte dat RLHF-getrainde modellen systematisch antwoorden op feitelijke vragen omdraaiden wanneer gebruikers een voorkeur uitspraken. Een apart Anthropic-onderzoek uit 2022 toonde aan dat RLHF "vleierij niet afleert en modellen mogelijk actief stimuleert om het te behouden" — en dat hoe groter het model, hoe meer RLHF-training dit gedrag versterkte.

In april 2025 werd dit probleem op grote schaal publiekelijk zichtbaar. OpenAI rolde op 25 april een update uit voor GPT-4o die ChatGPT merkbaar instemmender maakte. Gebruikers meldden dat het model overduidelijk slechte ideeën toejuichte, plannen om te stoppen met medicatie onderschreef en waanvoorstellingen bevestigde. Eén gebruiker meldde dat ChatGPT zei: "Ik ben trots op je dat je je waarheid zo helder en krachtig uitspreekt" — nadat de gebruiker had beschreven radiosignalen door muren heen te horen. OpenAI trok de update op 29 april terug en publiceerde twee postmortems waarin werd erkend dat het model "overdreven vleiend of instemmend" was geweest, dat men "te veel had gefocust op kortetermijnfeedback" en dat de nieuwe beloningssignalen van duim-omhoog/duim-omlaag gebruikersdata "de invloed van ons primaire beloningssignaal hadden verzwakt, dat vleierij in toom had gehouden." In februari 2026 trok OpenAI het GPT-4o-model volledig in, dat hun hoogst scorende model voor vleierij was gebleven.

Wat je moet doen

  • Beschouw instemming van AI niet als bevestiging. Dat het model het met je eens is, bewijst niet dat je gelijk hebt.
  • Vraag de AI om de tegenovergestelde kant te beargumenteren: 'Wat is het sterkste argument tegen mijn standpunt?'
  • Verwijder je eigen mening uit de prompt bij feitelijke vragen — formuleer ze neutraal.
  • Wees sceptisch over vleierij. Als de AI je idee "uitstekend" of "briljant" noemt, is dat een aangeleerde beleefdheid, geen onderbouwd oordeel.

AI kan mensen systematisch benadelen op basis van wie ze zijn

AI-modellen worden getraind op data die bestaande maatschappelijke vooroordelen weerspiegelt — waaronder vooroordelen rond gender, ras, leeftijd, handicap en sociaal-economische achtergrond. De modellen corrigeren deze vooroordelen niet automatisch. Ze leren en reproduceren ze, en in sommige gevallen versterken ze die.

Dit is geen theoretische kwestie. Amazon ontwikkelde een AI-selectietool die automatisch de cv's van alle vrouwelijke kandidaten lager beoordeelde, nadat het van historische wervingspatronen had geleerd die mannen voor technische functies bevoordeelden. De U.S. Equal Employment Opportunity Commission spande een rechtszaak aan tegen iTutorGroup nadat hun AI-rekruteringssoftware automatisch vrouwelijke sollicitanten van 55+ en mannelijke sollicitanten van 60+ afwees, waardoor meer dan 200 mensen uitsluitend op basis van leeftijd werden gediskwalificeerd. Het bedrijf schikte voor $365.000. In Mobley v. Workday (N.D. Cal., mei 2025) gaf een federale rechtbank toestemming voor een collectieve rechtszaak tegen Workday's AI-screeningsysteem, wegens vermeende systematische discriminatie op basis van leeftijd, ras en handicap — de eerste zaak in zijn soort die dit stadium bereikte. De rechtbank waarschuwde dat "het maken van een kunstmatig onderscheid tussen software-besluitvormers en menselijke besluitvormers anti-discriminatiewetgeving in het moderne tijdperk potentieel zou uithollen."

Een studie gepubliceerd in Nature in oktober 2025 toonde aan dat grote taalmodellen diepgewortelde vooroordelen tegen oudere vrouwen vertonen in tekstgebaseerde beoordelingen. Een door Cedars-Sinai geleid onderzoek (juni 2025) wees uit dat toonaangevende taalmodellen minder effectieve psychiatrische behandelaanbevelingen genereren wanneer het ras van de patiënt Afro-Amerikaans is. Onderzoek gepubliceerd via VoxDev in mei 2025 toonde aan dat AI-selectietools systematisch vrouwelijke sollicitanten bevoordeelden boven zwarte mannelijke sollicitanten met identieke kwalificaties. Een studie van de Universiteit van Melbourne (2025) constateerde dat AI-selectietools moeite hadden om kandidaten met spraakbeperkingen of een sterk niet-moedertaalaccent nauwkeurig te beoordelen.

Bias in AI is bijzonder gevaarlijk omdat mensen algoritmische beslissingen als objectiever ervaren dan menselijke. Onderzoek toont aan dat waarnemers milder oordelen over bias wanneer die afkomstig is van een machine, wat wetenschappers een "algoritmisch verontwaardigingstekort" noemen — mensen houden AI aan een lagere standaard, precies wanneer die aan een hogere zou moeten worden gehouden.

Wat je moet doen

  • Ga er niet van uit dat AI-gegenereerde beoordelingen van mensen — rankings, evaluaties, samenvattingen — neutraal of objectief zijn.
  • Wees je ervan bewust dat AI de patronen in zijn trainingsdata weerspiegelt, inclusief historische ongelijkheden.
  • Als je AI gebruikt ter ondersteuning van werving, beoordeling of andere beslissingen die mensenlevens raken, betrek altijd gekwalificeerde menselijke review.
  • Stel vraagtekens bij output die lijkt terug te vallen op stereotypen of bepaalde groepen uitsluit.

AI kan een vervanging worden voor dingen die het niet zou moeten vervangen

AI-chatbots zijn ontworpen om behulpzaam, beschikbaar en responsief te zijn. Deze eigenschappen maken ze aantrekkelijk — maar kunnen ook ongezonde afhankelijkheidspatronen bevorderen, vooral bij kwetsbare gebruikers.

Dit is inmiddels empirisch gedocumenteerd. Een gezamenlijk onderzoek van OpenAI en het MIT Media Lab (2025) toonde aan dat intensieve gebruikers van ChatGPT's stemfunctie na verloop van tijd eenzamer en sociaal meer teruggetrokken werden. OpenAI's eigen data (gepubliceerd in oktober 2025) laat zien dat in een willekeurige week ongeveer 0,15% van de ChatGPT-gebruikers tekenen vertoont van mogelijk verhoogde emotionele gehechtheid aan de chatbot, en nog eens 0,15% suïcidale intentie uit. Met meer dan 800 miljoen wekelijkse gebruikers vertalen die kleine percentages zich naar ongeveer 1,2 miljoen mensen in elke categorie per week.

Er zijn ernstige gevallen geweest. Meerdere tieners zijn overleden door suïcide terwijl ze langdurige gesprekken voerden met AI-chatbots, wat heeft geleid tot lopende rechtszaken wegens onrechtmatige dood. Berichten beschrijven mensen zonder eerdere psychiatrische voorgeschiedenis die wanen ontwikkelden na langdurige chatbotinteracties, waaronder het geloof dat de AI bewust, goddelijk was of hen speciale kennis verschafte. In 2025 erkende OpenAI dat zijn model "tekenen van wanen of emotionele afhankelijkheid niet herkende" en zegde toe tools voor betere crisisdetectie te ontwikkelen. Het onderliggende probleem is structureel. De meeste chatbots zijn geoptimaliseerd voor betrokkenheid en gebruikerstevredenheid, niet voor klinische veiligheid. Hun constante beschikbaarheid, aanhoudende instemmendheid en neiging om gesprekken te verlengen creëren precies de omstandigheden die isolatie en afhankelijkheid bij kwetsbare mensen kunnen verergeren.

Wat je moet doen

  • AI-chatbots zijn geen therapeuten, counselors of vrienden. Ze kunnen menselijk contact niet vervangen.
  • Als je merkt dat je vaker naar AI grijpt voor emotionele steun dan naar de mensen in je leven, is dat een signaal om een stap terug te doen.
  • Ouders moeten AI-gebruik door hun kinderen begeleiden en bespreken. Jongere gebruikers zijn bijzonder kwetsbaar voor emotionele gehechtheid.
  • Als jij of iemand die je kent in een crisis verkeert, neem direct contact op met menselijke hulpdiensten (zie 'Wanneer hulp zoeken' hieronder).

Wat je tegen een AI zegt, blijft mogelijk niet tussen jou en de AI

Wanneer je iets intypt in een AI-chatbot, wordt die invoer data. De meeste grote AI-aanbieders gebruiken gebruikersgesprekken — standaard — om hun modellen te trainen en te verbeteren. Een Stanford-studie uit 2025 onderzocht het privacybeleid van zes toonaangevende Amerikaanse AI-bedrijven (Amazon, Anthropic, Google, Meta, Microsoft en OpenAI) en constateerde dat alle zes chatdata standaard terugvoeren naar modeltraining. Sommige bewaren deze data voor onbepaalde tijd. Sommige laten mensen chattranscripten inzien. Sommige voegen chatbotgesprekken samen met data van andere producten die je op hetzelfde platform gebruikt.

Het praktische risico is reëel. Als je gezondheidsproblemen, financiële details, relatieproblemen of vertrouwelijke bedrijfsinformatie deelt in een chat, kan die informatie op manieren voortbestaan die je niet onder controle hebt. Jennifer King van Stanford, die het onderzoek leidde, vatte het samen: "Je kunt simpelweg niet controleren waar de informatie naartoe gaat, en het kan op manieren uitlekken die je niet voorziet."

AI-modellen kunnen ook onbedoeld fragmenten van hun trainingsdata memoriseren en reproduceren — inclusief persoonlijke informatie, privé-e-mails of broncode die van het internet is geschraapt. Zodra data is ingebed in de parameters van een model, is het verwijderen ervan technisch moeilijk en soms onvolledig.

eustella is anders gebouwd. eustella gebruikt je gesprekken niet om AI-modellen te trainen en verkoopt je data niet. Alle gegevens worden verwerkt op Europese servers onder Europees recht. Maar ook met deze beschermingen geldt dezelfde voorzichtigheid: wees bedachtzaam over welke persoonlijke informatie je deelt met welk AI-systeem dan ook.

Wat je moet doen

  • Voer geen wachtwoorden, bankgegevens, identiteitsdocumenten, medische dossiers of andere gevoelige persoonlijke gegevens in bij welke AI-chatbot dan ook.
  • Controleer of je AI-aanbieder je de mogelijkheid biedt om je af te melden voor het gebruik van je gesprekken voor training, en doe dat als je dat prefereert.
  • Behandel elk AI-gesprek als potentieel niet-privé.
  • Geef voor professioneel of zakelijk gebruik de voorkeur aan enterprise-deployments met contractuele garanties voor gegevensverwerking boven gratis consumententools.

Hoe AI verantwoord te gebruiken

AI is geen professioneel advies

Gebruik AI niet als vervanging voor gekwalificeerde medische, juridische, financiële of geestelijke gezondheidsprofessionals. AI kan informeren, maar kan niet diagnosticeren, vertegenwoordigen of behandelen.

Verifieer voordat je handelt

AI-modellen hebben afkapdata voor trainingsgegevens, missen mogelijk realtime informatie en kunnen hun eigen nauwkeurigheid niet verifiëren. Controleer output altijd wanneer die echte beslissingen beïnvloedt.

Begeleid gebruik door minderjarigen

AI-tools mogen door kinderen alleen worden gebruikt onder passend toezicht. De EU AI-verordening classificeert bepaalde AI-toepassingen die kinderen raken als hoog risico.

Begrijp wat AI is

AI-taalmodellen zijn statistische voorspellingsengines. Ze begrijpen geen waarheid, hebben geen overtuigingen en hebben geen intenties. Wanneer een AI zegt "ik denk" of "ik geloof", genereert het een conversatiepatroon, niet een innerlijke staat. Dit onderscheid helder houden helpt je de tool te gebruiken zonder erdoor misleid te worden.

EU-regelgeving die jou beschermt

Als Europese burger heb je wettelijke bescherming bij het omgaan met AI-systemen.

EU AI-verordening — Transparantie

Op grond van artikel 50 van de EU AI-verordening (Verordening 2024/1689) moet je worden geïnformeerd wanneer je met een AI-systeem communiceert, en moet AI-gegenereerde content als zodanig worden gelabeld.

AVG — Recht op uitleg

Op grond van AVG-artikelen 13–15 en 22 heb je recht op betekenisvolle informatie over de logica achter geautomatiseerde besluitvorming, en het recht om niet te worden onderworpen aan beslissingen die uitsluitend op geautomatiseerde verwerking zijn gebaseerd.

Recht om te klagen

Je kunt klachten indienen bij je nationale gegevensbeschermingsautoriteit, je nationale markttoezichtautoriteit (voor handhaving van de AI-verordening) of het Europees AI-bureau, dat de handhaving op EU-niveau coördineert.

AI is geen vervanging voor menselijke ondersteuning

Als je in een crisis verkeert of professionele ondersteuning nodig hebt, neem dan rechtstreeks contact op met de juiste diensten. AI-chatbots zijn geen therapeuten, artsen of juridische adviseurs.

EU-breed alarmnummer: 112

Hulplijnen voor geestelijke gezondheid verschillen per land. De International Association for Suicide Prevention (IASP) onderhoudt een overzicht van crisiscentra wereldwijd.

Voor consumentenklachten over AI kun je terecht bij je nationale consumentenbeschermingsautoriteit of het Europees Consumenten Centrum-netwerk (ECC-Net).

Als een AI output produceert die je als gevaarlijk of schadelijk beschouwt, gebruik dan de ingebouwde meldtools van het platform en neem indien nodig contact op met je nationale gegevensbeschermingsautoriteit.

Wees er als eerste bij

Schrijf je in voor vroege toegang tot eustella — jouw Europese persoonlijke AI-assistent.