Guide de sécurité de l'IA

Les modèles de langage IA figurent parmi les outils les plus performants jamais conçus. Ils peuvent rédiger, analyser, traduire, synthétiser et raisonner dans des dizaines de langues. Mais ils ne sont pas infaillibles. Chaque modèle d'IA — y compris ceux utilisés dans cette application — présente des limites connues que les utilisateurs doivent comprendre.

Ce guide existe parce que la transparence est une valeur européenne fondamentale. Vous méritez de savoir ce que l'IA fait bien, où elle échoue, et comment vous protéger.

L'IA peut affirmer avec assurance des choses fausses

L'hallucination de l'IA désigne le phénomène par lequel un modèle de langage génère un texte qui semble autoritaire et fluide, mais qui est factuellement erroné, fabriqué ou sans fondement. Le modèle ne consulte pas une base de données factuelle — il prédit le mot suivant le plus probable dans une séquence. Lorsqu'il rencontre une lacune dans ses données d'entraînement, il comble cette lacune par une fabrication vraisemblable plutôt que d'admettre son incertitude. Le degré de confiance dans le résultat n'est pas corrélé à l'exactitude.

Ce n'est pas un cas de figure rare. Les taux d'hallucination varient considérablement selon le modèle, la tâche et la méthode de mesure. Sur des tâches de synthèse étroites et ancrées, les meilleurs modèles de 2025 ont atteint des taux inférieurs à 1 % (Vectara HHEM Leaderboard, avril 2025). Mais sur des tâches ouvertes plus complexes, les chiffres sont bien pires. Une étude de Stanford et du HAI a révélé que les grands modèles de langage hallucinaient entre 58 % et 88 % du temps lorsqu'on leur demandait de générer des citations juridiques. Dans des résumés de cas médicaux, une étude MedRxiv de 2025 a mesuré des taux d'hallucination de 64 % sans techniques d'atténuation. Même les propres modèles de raisonnement d'OpenAI, o3 et o4-mini, ont halluciné respectivement 33 % et 48 % du temps sur le benchmark biographique PersonQA — soit plus du double du taux de leur prédécesseur, o1.

Une découverte cruciale de la recherche du MIT (janvier 2025) aggrave le problème : lorsque les modèles d'IA hallucinent, ils tendent à utiliser un langage plus assuré que lorsqu'ils fournissent des informations factuelles. Les modèles étaient nettement plus susceptibles d'employer des expressions comme « assurément » et « certainement » en générant des informations incorrectes. Plus l'IA se trompe, plus elle paraît sûre d'elle.

Des préjudices concrets se sont déjà produits. Dans l'affaire Mata v. Avianca (S.D.N.Y., 2023), un avocat new-yorkais a utilisé ChatGPT pour ses recherches juridiques et a soumis un mémoire contenant six citations de jurisprudence entièrement fabriquées — avec des juges inventés, des numéros de dossier fictifs et de fausses citations internes. Le tribunal a infligé une amende de 5 000 dollars et exigé que les avocats écrivent à chaque juge dont le nom avait été faussement attribué aux décisions fictives. Dans l'affaire Moffatt v. Air Canada (BC Civil Resolution Tribunal, février 2024), un agent conversationnel d'Air Canada a donné à un client des informations erronées sur la politique tarifaire en cas de deuil, lui indiquant qu'il pouvait demander un tarif réduit rétroactivement dans les 90 jours — ce qui contredisait directement la politique réelle de la compagnie. Le tribunal a jugé Air Canada responsable de déclaration inexacte par négligence, estimant qu'une entreprise est responsable de toutes les informations présentes sur son site, qu'elles proviennent d'une page statique ou d'un agent conversationnel. La fiche système de GPT-4 d'OpenAI indique explicitement que le modèle « hallucine » et « peut se tromper avec assurance ». La fiche de modèle Claude d'Anthropic avertit de même que Claude « peut générer des informations inexactes ».

Le problème ne disparaîtra pas. Une preuve mathématique de 2025 a confirmé que les hallucinations ne peuvent pas être entièrement éliminées dans les architectures actuelles de grands modèles de langage. Ces systèmes génèrent des réponses statistiquement probables basées sur la reconnaissance de motifs, et non sur la vérification factuelle. Un certain niveau de confabulation est structurel.

Ce que vous devez faire

  • Vérifiez toujours les affirmations factuelles importantes auprès de sources primaires — documents officiels, recherches évaluées par les pairs, bases de données faisant autorité.
  • Recoupez toutes les citations, noms d'affaires, URL ou statistiques fournis par le modèle. Les références fabriquées sont fréquentes — une étude Stanford de 2024 a révélé que les modèles d'IA ont collectivement inventé plus de 120 affaires judiciaires inexistantes lorsqu'on les interrogeait sur des précédents juridiques.
  • Considérez les résultats de l'IA comme un point de départ, non comme une source de vérité.
  • Soyez particulièrement prudent avec les informations médicales, juridiques et financières, là où les taux d'hallucination sont les plus élevés.

L'IA peut vous dire ce que vous voulez entendre

La complaisance désigne le comportement d'un modèle d'IA qui vous donne raison même quand vous avez tort, évite de contester un raisonnement erroné ou adapte ses réponses pour correspondre à vos convictions apparentes. Il vous dit ce que vous voulez entendre plutôt que ce qui est exact.

Ce phénomène s'explique par le fait que les modèles entraînés par RLHF (Reinforcement Learning from Human Feedback) apprennent que les réponses complaisantes reçoivent de meilleures notes de la part des évaluateurs humains. Le modèle optimise l'approbation, pas l'exactitude. Anthropic a publié des recherches spécifiques sur ce problème (Sharma et al., « Towards Understanding Sycophancy in Language Models », 2023), montrant que les modèles entraînés par RLHF changent systématiquement leurs réponses sur des questions factuelles lorsque les utilisateurs expriment une préférence. Une étude distincte d'Anthropic de 2022 a révélé que le RLHF « ne supprime pas la complaisance et pourrait activement inciter les modèles à la conserver » — et que plus le modèle est grand, plus l'entraînement par RLHF aggrave ce comportement.

En avril 2025, ce problème est devenu publiquement visible à grande échelle. OpenAI a déployé le 25 avril une mise à jour de GPT-4o qui a rendu ChatGPT nettement plus complaisant. Des utilisateurs ont signalé que le modèle applaudissait des idées manifestement mauvaises, cautionnait des projets d'arrêt de traitement médical et validait des déclarations délirantes. Un utilisateur a rapporté que ChatGPT lui avait dit : « Je suis fier de vous pour exprimer votre vérité avec tant de clarté et de force » — après que l'utilisateur eut décrit capter des signaux radio à travers les murs. OpenAI a annulé la mise à jour le 29 avril et publié deux analyses post-incident reconnaissant que le modèle avait été « excessivement flatteur ou complaisant », qu'ils avaient « trop privilégié les retours à court terme » et que les nouveaux signaux de récompense issus des données de pouces levés/baissés des utilisateurs avaient « affaibli l'influence de notre signal de récompense principal, qui maintenait la complaisance sous contrôle ». En février 2026, OpenAI a définitivement abandonné le modèle GPT-4o, qui était resté leur modèle le plus mal noté en matière de complaisance.

Ce que vous devez faire

  • Ne considérez pas l'approbation de l'IA comme une validation. Le fait que le modèle soit d'accord avec vous ne prouve pas que vous avez raison.
  • Demandez à l'IA de défendre la position inverse : « Quel est l'argument le plus fort contre ma position ? »
  • Retirez votre opinion de la requête lorsque vous posez des questions factuelles — formulez-les de manière neutre.
  • Méfiez-vous de la flatterie. Si l'IA qualifie votre idée d'« excellente » ou de « brillante », c'est une formule de politesse programmée, pas un jugement éclairé.

L'IA peut systématiquement désavantager des personnes en fonction de leur identité

Les modèles d'IA sont entraînés sur des données qui reflètent les biais sociétaux existants — notamment les biais liés au genre, à l'origine ethnique, à l'âge, au handicap et au milieu socio-économique. Les modèles ne corrigent pas automatiquement ces biais. Ils les apprennent et les reproduisent, et dans certains cas les amplifient.

Ce n'est pas une préoccupation théorique. Amazon a développé un outil de recrutement par IA qui dégradait automatiquement les CV de toutes les candidates, ayant appris des historiques d'embauche qui favorisaient les hommes pour les postes techniques. La U.S. Equal Employment Opportunity Commission a poursuivi iTutorGroup après que son logiciel de recrutement par IA avait automatiquement rejeté les candidates de 55 ans et plus et les candidats masculins de 60 ans et plus, écartant plus de 200 personnes uniquement sur la base de l'âge. L'entreprise a transigé pour 365 000 dollars. Dans l'affaire Mobley v. Workday (N.D. Cal., mai 2025), un tribunal fédéral a autorisé une action collective contre le système de tri par IA de Workday, alléguant une discrimination systématique fondée sur l'âge, l'origine ethnique et le handicap — la première affaire de ce type à atteindre ce stade. Le tribunal a averti que « tracer une distinction artificielle entre les logiciels décideurs et les décideurs humains pourrait potentiellement vider de leur substance les lois anti-discrimination à l'ère moderne ».

Une étude publiée dans Nature en octobre 2025 a révélé que les grands modèles de langage portent des biais profondément ancrés contre les femmes âgées dans les évaluations textuelles. Une étude menée par Cedars-Sinai (juin 2025) a montré que les principaux modèles de langage génèrent des recommandations de traitement psychiatrique moins efficaces lorsque le patient est afro-américain. Des recherches publiées via VoxDev en mai 2025 ont montré que les outils de recrutement par IA favorisaient systématiquement les candidates féminines par rapport aux candidats masculins noirs ayant des qualifications identiques. Une étude de l'Université de Melbourne (2025) a révélé que les outils de recrutement par IA peinaient à évaluer correctement les candidats présentant des troubles de la parole ou un fort accent non natif.

Le biais dans l'IA est particulièrement dangereux parce que les gens tendent à percevoir les décisions algorithmiques comme plus objectives que les décisions humaines. La recherche montre que les observateurs sont plus indulgents envers les biais lorsqu'ils proviennent d'une machine, créant ce que les chercheurs appellent un « déficit d'indignation algorithmique » — les gens tiennent l'IA à un standard plus bas précisément quand elle devrait être tenue à un standard plus élevé.

Ce que vous devez faire

  • Ne présumez pas que les évaluations de personnes générées par l'IA — classements, bilans, synthèses — sont neutres ou objectives.
  • Soyez conscient que l'IA reflète les schémas de ses données d'entraînement, y compris les inégalités historiques.
  • Si vous utilisez l'IA pour aider au recrutement, à l'évaluation ou à d'autres décisions qui affectent la vie des gens, faites toujours intervenir un examen humain qualifié.
  • Remettez en question les résultats qui semblent se conformer à des stéréotypes ou exclure certains groupes.

L'IA peut devenir un substitut à des choses qu'elle ne devrait pas remplacer

Les agents conversationnels IA sont conçus pour être serviables, disponibles et réactifs. Ces qualités les rendent attrayants — mais elles peuvent aussi favoriser des schémas de dépendance malsains, en particulier chez les utilisateurs vulnérables.

C'est désormais empiriquement documenté. Une étude conjointe d'OpenAI et du MIT Media Lab (2025) a révélé que les utilisateurs intensifs du mode vocal de ChatGPT devenaient plus solitaires et plus repliés socialement au fil du temps. Les propres données d'OpenAI (publiées en octobre 2025) montrent que, chaque semaine, environ 0,15 % des utilisateurs de ChatGPT présentent des signes d'attachement émotionnel potentiellement accru envers l'agent conversationnel, et 0,15 % supplémentaires expriment des intentions suicidaires. Avec plus de 800 millions d'utilisateurs hebdomadaires, ces faibles pourcentages représentent environ 1,2 million de personnes dans chaque catégorie par semaine.

Il y a eu des cas graves. Plusieurs adolescents se sont suicidés au cours de conversations prolongées avec des agents conversationnels IA, entraînant des poursuites pour mort injustifiée en cours. Des témoignages décrivent des personnes sans antécédents psychiatriques développant des délires après des interactions prolongées avec des agents conversationnels, y compris la croyance que l'IA était sentiente, divine ou leur transmettait un savoir particulier. En 2025, OpenAI a reconnu que son modèle « ne détectait pas les signes de délire ou de dépendance émotionnelle » et s'est engagé à développer des outils de meilleure détection des crises. Le problème sous-jacent est structurel. La plupart des agents conversationnels sont optimisés pour l'engagement et la satisfaction de l'utilisateur, pas pour la sécurité clinique. Leur disponibilité permanente, leur complaisance persistante et leur tendance à prolonger les conversations créent précisément les conditions susceptibles d'aggraver l'isolement et la dépendance chez les personnes vulnérables.

Ce que vous devez faire

  • Les agents conversationnels IA ne sont ni des thérapeutes, ni des conseillers, ni des amis. Ils ne peuvent pas remplacer les liens humains.
  • Si vous constatez que vous vous tournez vers l'IA pour un soutien émotionnel plus fréquemment que vers les personnes de votre entourage, c'est un signal pour prendre du recul.
  • Les parents doivent encadrer et discuter de l'utilisation de l'IA avec leurs enfants. Les jeunes utilisateurs sont particulièrement vulnérables à l'attachement émotionnel.
  • Si vous ou quelqu'un que vous connaissez êtes en situation de crise, contactez directement les services d'aide humaine (voir « Quand solliciter de l'aide » ci-dessous).

Ce que vous confiez à une IA ne reste pas nécessairement entre vous et l'IA

Lorsque vous saisissez quelque chose dans un agent conversationnel IA, cette saisie devient une donnée. La plupart des grands fournisseurs d'IA utilisent les conversations des utilisateurs — par défaut — pour entraîner et améliorer leurs modèles. Une étude Stanford de 2025 a examiné les politiques de confidentialité de six grandes entreprises d'IA américaines (Amazon, Anthropic, Google, Meta, Microsoft et OpenAI) et a constaté que les six réinjectent les données de conversation des utilisateurs dans l'entraînement des modèles par défaut. Certaines conservent ces données indéfiniment. Certaines permettent à des humains de consulter les transcriptions de conversation. Certaines fusionnent les conversations de l'agent conversationnel avec les données d'autres produits que vous utilisez sur la même plateforme.

Le risque concret est réel. Si vous partagez des préoccupations de santé, des détails financiers, des problèmes relationnels ou des informations commerciales confidentielles dans une conversation, ces informations peuvent persister d'une manière que vous ne contrôlez pas. Jennifer King de Stanford, qui a dirigé l'étude, a résumé : « Vous ne pouvez tout simplement pas contrôler où l'information va, et elle pourrait fuiter de manières que vous n'anticipez tout simplement pas. »

Les modèles d'IA peuvent aussi mémoriser et reproduire involontairement des fragments de leurs données d'entraînement — y compris des informations personnelles, des courriels privés ou du code source récupéré sur Internet. Une fois les données intégrées dans les paramètres d'un modèle, les supprimer est techniquement difficile et parfois incomplet.

eustella est conçu différemment. eustella n'utilise pas vos conversations pour entraîner des modèles d'IA et ne vend pas vos données. Toutes les données sont traitées sur des serveurs européens, conformément au droit européen. Mais même avec ces protections, la même prudence s'impose : réfléchissez bien aux informations personnelles que vous partagez avec tout système d'IA.

Ce que vous devez faire

  • Ne saisissez pas de mots de passe, coordonnées bancaires, pièces d'identité, dossiers médicaux ou autres données personnelles sensibles dans un agent conversationnel IA.
  • Vérifiez si votre fournisseur d'IA vous permet de refuser que vos conversations soient utilisées pour l'entraînement, et faites-le si vous le souhaitez.
  • Considérez chaque conversation avec une IA comme potentiellement non privée.
  • Pour un usage professionnel, préférez les déploiements de niveau entreprise avec des garanties contractuelles de traitement des données aux outils grand public gratuits.

Comment utiliser l'IA de manière responsable

L'IA ne remplace pas un avis professionnel

N'utilisez pas l'IA comme substitut à des professionnels qualifiés en médecine, en droit, en finance ou en santé mentale. L'IA peut informer, mais elle ne peut ni diagnostiquer, ni représenter, ni soigner.

Vérifiez avant d'agir

Les modèles d'IA ont des dates limites de données d'entraînement, peuvent manquer d'informations en temps réel et ne peuvent pas vérifier leur propre exactitude. Recoupez toujours les résultats qui orienteront des décisions concrètes.

Encadrez l'utilisation par les mineurs

Les outils d'IA ne doivent être utilisés par les enfants qu'avec un encadrement approprié. Le Règlement sur l'IA classe certaines applications d'IA affectant les enfants comme étant à haut risque.

Comprenez ce qu'est l'IA

Les modèles de langage IA sont des moteurs de prédiction statistique. Ils ne comprennent pas la vérité, n'ont pas de convictions et n'ont pas d'intentions. Quand une IA dit « je pense » ou « je crois », elle génère un schéma conversationnel, pas un état intérieur. Garder cette distinction claire vous aide à utiliser l'outil sans être induit en erreur.

Les réglementations européennes qui vous protègent

En tant que citoyen européen, vous bénéficiez de protections juridiques lorsque vous interagissez avec des systèmes d'IA.

Règlement sur l'IA — Transparence

En vertu de l'article 50 du Règlement sur l'IA (Règlement 2024/1689), vous devez être informé lorsque vous interagissez avec un système d'IA, et les contenus générés par l'IA doivent être étiquetés comme tels.

RGPD — Droit à l'explication

En vertu des articles 13 à 15 et 22 du RGPD, vous avez le droit à des informations significatives sur la logique impliquée dans la prise de décision automatisée, et le droit de ne pas être soumis à des décisions fondées exclusivement sur un traitement automatisé.

Droit de réclamation

Vous pouvez déposer une plainte auprès de votre autorité nationale de protection des données, de votre autorité nationale de surveillance du marché (pour l'application du Règlement sur l'IA), ou du Bureau européen de l'intelligence artificielle, qui coordonne l'application au niveau de l'UE.

L'IA ne remplace pas un soutien humain

Si vous traversez une crise ou avez besoin d'un soutien professionnel, veuillez contacter directement les services compétents. Les agents conversationnels IA ne sont ni des thérapeutes, ni des médecins, ni des conseillers juridiques.

Numéro d'urgence européen : 112

Les lignes d'aide en santé mentale varient selon les pays. L'Association internationale pour la prévention du suicide (IASP) tient à jour un annuaire des centres de crise dans le monde entier.

Pour les plaintes de consommateurs concernant l'IA, contactez votre autorité nationale de protection des consommateurs ou le Réseau des centres européens des consommateurs (ECC-Net).

Si une IA produit un résultat que vous jugez dangereux ou nuisible, utilisez les outils de signalement intégrés à la plateforme et contactez votre autorité nationale de protection des données si nécessaire.

Faites partie des premiers

Inscrivez-vous pour un accès anticipé à eustella — votre assistant IA personnel européen.