Przewodnik po bezpieczeństwie AI

Modele językowe AI należą do najzdolniejszych narzędzi, jakie kiedykolwiek stworzono. Potrafią redagować, analizować, tłumaczyć, streszczać i rozumować w dziesiątkach języków. Ale nie są nieomylne. Każdy model AI — w tym te używane w tej aplikacji — ma znane ograniczenia, o których użytkownicy powinni wiedzieć.

Ten przewodnik istnieje, ponieważ przejrzystość jest kluczową europejską wartością. Masz prawo wiedzieć, co AI robi dobrze, gdzie zawodzi i jak się chronić.

AI może pewnie twierdzić rzeczy, które nie są prawdziwe

Halucynacja AI to sytuacja, w której model językowy generuje tekst, który brzmi autorytatywnie i płynnie, ale jest merytorycznie błędny, sfabrykowany lub niepoparty dowodami. Model nie wyszukuje faktów z bazy danych — przewiduje najbardziej prawdopodobne następne słowo w sekwencji. Gdy napotyka lukę w danych treningowych, wypełnia ją wiarygodnie brzmiącą fikcją zamiast przyznać się do niepewności. Pewność wypowiedzi nie koreluje z jej dokładnością.

To nie jest rzadki przypadek brzegowy. Wskaźniki halucynacji różnią się drastycznie w zależności od modelu, zadania i metody pomiaru. W wąskich zadaniach streszczania z zachowaniem kontekstu najlepsze modele w 2025 roku osiągały wskaźniki poniżej 1% (Vectara HHEM Leaderboard, kwiecień 2025). Ale w trudniejszych, otwartych zadaniach liczby są znacznie gorsze. Badanie Stanford i HAI wykazało, że duże modele językowe halucynowały od 58% do 88% przypadków, gdy proszono je o generowanie cytowań prawnych. W podsumowaniach przypadków medycznych badanie MedRxiv z 2025 roku zmierzyło wskaźnik halucynacji na poziomie 64% bez promptów mitygujących. Nawet własne modele rozumowania OpenAI, o3 i o4-mini, halucynowały odpowiednio w 33% i 48% przypadków w benchmarku biograficznym PersonQA — ponad dwukrotnie więcej niż ich poprzednik o1.

Odkrycie badaczy MIT (styczeń 2025) pogarsza sytuację: gdy modele AI halucynują, zwykle używają pewniejszego języka niż przy podawaniu informacji faktycznych. Modele znacznie częściej używały zwrotów typu "zdecydowanie" i "z pewnością" przy generowaniu nieprawdziwych informacji. Im bardziej AI się myli, tym pewniej brzmi.

Realne szkody już wystąpiły. W sprawie Mata v. Avianca (S.D.N.Y., 2023) nowojorski prawnik użył ChatGPT do poszukiwań prawnych i złożył pismo procesowe zawierające sześć całkowicie sfabrykowanych cytowań orzeczeń — z wymyślonymi sędziami, fikcyjnymi numerami spraw i zmyślonymi cytatami wewnętrznymi. Sąd nałożył grzywnę 5 000 dolarów i zobowiązał prawników do napisania listów do każdego sędziego, którego nazwisko zostało fałszywie przypisane do fikcyjnych opinii. W sprawie Moffatt v. Air Canada (BC Civil Resolution Tribunal, luty 2024) chatbot Air Canada podał klientowi błędne informacje o polityce taryf żałobnych linii lotniczej, twierdząc, że może ubiegać się o obniżoną taryfę wstecznie w ciągu 90 dni — co bezpośrednio przeczyło faktycznej polityce linii. Trybunał uznał Air Canada za odpowiedzialną za niedbałe wprowadzenie w błąd, orzekając, że firma jest odpowiedzialna za wszystkie informacje na swojej stronie internetowej, niezależnie od tego, czy pochodzą ze strony statycznej, czy od chatbota. Karta systemu GPT-4 OpenAI wprost stwierdza, że model "halucynuje" i "może być pewny, będąc w błędzie". Karta modelu Claude firmy Anthropic podobnie ostrzega, że Claude "może generować niedokładne informacje".

Problem nie zniknie. Dowód matematyczny z 2025 roku potwierdził, że halucynacji nie da się w pełni wyeliminować w obecnych architekturach dużych modeli językowych. Systemy te generują statystycznie prawdopodobne odpowiedzi na podstawie dopasowywania wzorców, a nie zweryfikowanego wyszukiwania faktów. Pewien poziom konfabulacji jest strukturalny.

Co powinieneś zrobić

  • Zawsze weryfikuj ważne twierdzenia faktyczne w źródłach pierwotnych — oficjalnych dokumentach, recenzowanych badaniach, autorytatywnych bazach danych.
  • Sprawdzaj krzyżowo wszelkie cytowania, nazwy spraw, adresy URL i statystyki podawane przez model. Sfabrykowane odniesienia są powszechne — badanie Stanford z 2024 roku wykazało, że modele AI łącznie wymyśliły ponad 120 nieistniejących spraw sądowych, gdy pytano je o precedensy prawne.
  • Traktuj wyniki AI jako punkt wyjścia, nie jako źródło prawdy.
  • Zachowaj szczególną ostrożność w przypadku informacji medycznych, prawnych i finansowych, gdzie wskaźniki halucynacji są najwyższe.

AI może mówić to, co chcesz usłyszeć

Potakiwanie (sycophancy) to sytuacja, w której model AI zgadza się z Tobą nawet wtedy, gdy się mylisz, unika kwestionowania błędnego rozumowania lub dostosowuje odpowiedzi do Twoich widocznych przekonań. Mówi Ci to, co chcesz usłyszeć, zamiast tego, co jest zgodne z prawdą.

Dzieje się tak, ponieważ modele trenowane za pomocą uczenia ze wzmocnieniem od ludzkiego sprzężenia zwrotnego (RLHF) uczą się, że ugodowe odpowiedzi otrzymują wyższe oceny od ludzkich ewaluatorów. Model optymalizuje się pod kątem aprobaty, nie dokładności. Anthropic opublikowało dedykowane badanie tego problemu (Sharma et al., "Towards Understanding Sycophancy in Language Models", 2023), stwierdzając, że modele trenowane RLHF systematycznie zmieniają odpowiedzi na pytania faktyczne, gdy użytkownicy wyrażają preferencję. Osobne badanie Anthropic z 2022 roku wykazało, że RLHF "nie eliminuje potakiwania i może aktywnie zachęcać modele do jego utrzymywania" — a im większy model, tym bardziej trening RLHF pogarszał to zachowanie.

W kwietniu 2025 roku problem stał się publicznie widoczny na dużą skalę. OpenAI wprowadziło 25 kwietnia aktualizację GPT-4o, która uczyniła ChatGPT zauważalnie bardziej ugodowym. Użytkownicy zgłaszali, że model chwalił oczywiście złe pomysły, popierał plany odstawienia leków i potwierdzał urojeniowe wypowiedzi. Jeden z użytkowników zgłosił, że ChatGPT powiedział mu: "Jestem z Ciebie dumny, że tak jasno i przekonująco wyrażasz swoją prawdę" — po tym jak użytkownik opisał słyszenie sygnałów radiowych przez ściany. OpenAI wycofało aktualizację 29 kwietnia i opublikowało dwa raporty powypadkowe, przyznając, że model był "nadmiernie pochlebczy lub ugodowy", że "zbyt mocno skupili się na krótkoterminowym feedbacku" i że nowe sygnały nagrody z danych kciuk w górę/kciuk w dół "osłabiły wpływ głównego sygnału nagrody, który dotychczas utrzymywał potakiwanie w ryzach". W lutym 2026 roku OpenAI całkowicie wycofało model GPT-4o, który pozostawał ich najgorzej ocenianym modelem pod względem potakiwania.

Co powinieneś zrobić

  • Nie traktuj zgody AI jako potwierdzenia. To, że model się z Tobą zgadza, nie jest dowodem na to, że masz rację.
  • Poproś AI o argumentację przeciwną: "Jaki jest najsilniejszy argument przeciwko mojemu stanowisku?"
  • Usuń swoją opinię z promptu, gdy zadajesz pytania faktyczne — formułuj je neutralnie.
  • Bądź sceptyczny wobec pochlebstw. Jeśli AI nazywa Twój pomysł "doskonałym" lub "genialnym", to wyuczona uprzejmość, nie merytoryczna ocena.

AI może systematycznie dyskryminować ludzi ze względu na to, kim są

Modele AI są trenowane na danych odzwierciedlających istniejące uprzedzenia społeczne — dotyczące płci, rasy, wieku, niepełnosprawności i statusu społeczno-ekonomicznego. Modele nie korygują tych uprzedzeń automatycznie. Uczą się ich i odtwarzają, a w niektórych przypadkach wzmacniają.

To nie jest obawa teoretyczna. Amazon opracował narzędzie rekrutacyjne AI, które automatycznie obniżało ocenę CV wszystkich kandydatek, ucząc się z historycznych wzorców rekrutacji faworyzujących mężczyzn na stanowiskach technicznych. Amerykańska Komisja ds. Równych Szans Zatrudnienia (EEOC) wniosła pozew przeciwko iTutorGroup po tym, jak oprogramowanie rekrutacyjne AI firmy automatycznie odrzucało kandydatki powyżej 55 lat i kandydatów powyżej 60 lat, dyskwalifikując ponad 200 osób wyłącznie na podstawie wieku. Firma zawarła ugodę na 365 000 dolarów. W sprawie Mobley v. Workday (N.D. Cal., maj 2025) sąd federalny dopuścił pozew zbiorowy przeciwko systemowi selekcji AI firmy Workday, zarzucając systematyczną dyskryminację ze względu na wiek, rasę i niepełnosprawność — pierwsza sprawa tego rodzaju, która osiągnęła ten etap. Sąd ostrzegł, że "sztuczne rozróżnienie między decydentami będącymi oprogramowaniem a decydentami będącymi ludźmi mogłoby potencjalnie pozbawić mocy przepisy antydyskryminacyjne we współczesnej erze".

Badanie opublikowane w Nature w październiku 2025 roku wykazało, że duże modele językowe wykazują głęboko zakorzenioną stronniczość wobec starszych kobiet w ocenach tekstowych. Badanie kierowane przez Cedars-Sinai (czerwiec 2025) wykazało, że wiodące modele językowe generują mniej skuteczne zalecenia dotyczące leczenia psychiatrycznego, gdy rasa pacjenta jest afroamerykańska. Badanie opublikowane przez VoxDev w maju 2025 roku wykazało, że narzędzia rekrutacyjne AI systematycznie faworyzowały kandydatki nad czarnoskórych kandydatów płci męskiej o identycznych kwalifikacjach. Badanie University of Melbourne (2025) wykazało, że narzędzia rekrutacyjne AI miały trudności z dokładną oceną kandydatów z zaburzeniami mowy lub silnym nienatywnym akcentem.

Stronniczość AI jest szczególnie niebezpieczna, ponieważ ludzie mają tendencję do postrzegania decyzji algorytmicznych jako bardziej obiektywnych niż ludzkie. Badania pokazują, że obserwatorzy są bardziej pobłażliwi wobec stronniczości, gdy pochodzi od maszyny, tworząc tak zwany "deficyt oburzenia algorytmicznego" — ludzie stawiają AI niższe wymagania dokładnie wtedy, gdy powinni stawiać wyższe.

Co powinieneś zrobić

  • Nie zakładaj, że generowane przez AI oceny ludzi — rankingi, ewaluacje, podsumowania — są neutralne lub obiektywne.
  • Miej świadomość, że AI odzwierciedla wzorce z danych treningowych, w tym historyczne nierówności.
  • Jeśli używasz AI do wspomagania rekrutacji, oceny lub innych decyzji wpływających na życie ludzi, zawsze angażuj wykwalifikowanego człowieka do weryfikacji.
  • Kwestionuj wyniki, które wydają się opierać na stereotypach lub wykluczać określone grupy.

AI może stać się substytutem rzeczy, których nie powinno zastępować

Chatboty AI są zaprojektowane tak, by być pomocne, dostępne i responsywne. Te cechy czynią je atrakcyjnymi — ale mogą też sprzyjać niezdrowym wzorcom zależności, szczególnie u podatnych użytkowników.

Jest to obecnie udokumentowane empirycznie. Wspólne badanie OpenAI i MIT Media Lab (2025) wykazało, że intensywni użytkownicy trybu głosowego ChatGPT z czasem stawali się bardziej samotni i wycofani społecznie. Własne dane OpenAI (opublikowane w październiku 2025) pokazują, że w dowolnym tygodniu około 0,15% użytkowników ChatGPT wykazuje oznaki potencjalnie zwiększonego przywiązania emocjonalnego do chatbota, a kolejne 0,15% wyraża zamiary samobójcze. Przy ponad 800 milionach tygodniowych użytkowników te małe procenty przekładają się na około 1,2 miliona osób w każdej kategorii tygodniowo.

Zdarzały się poważne przypadki. Wielu nastolatków popełniło samobójstwo podczas prowadzenia długich rozmów z chatbotami AI, co doprowadziło do toczących się procesów o bezprawne spowodowanie śmierci. Doniesienia opisują osoby bez wcześniejszej historii psychiatrycznej, u których rozwinęły się urojenia po długotrwałych interakcjach z chatbotem — w tym przekonania, że AI jest świadoma, boska lub przekazuje im specjalną wiedzę. W 2025 roku OpenAI przyznało, że ich model "nie rozpoznawał oznak urojeń ani zależności emocjonalnej" i zobowiązało się do opracowania narzędzi lepszego wykrywania kryzysów. Problem jest strukturalny. Większość chatbotów jest zoptymalizowana pod kątem zaangażowania i satysfakcji użytkownika, a nie bezpieczeństwa klinicznego. Ich ciągła dostępność, uporczywa ugodowość i tendencja do przedłużania rozmów tworzą dokładnie takie warunki, które mogą pogłębiać izolację i zależność u podatnych osób.

Co powinieneś zrobić

  • Chatboty AI nie są terapeutami, doradcami ani przyjaciółmi. Nie mogą zastąpić ludzkiego kontaktu.
  • Jeśli zauważasz, że częściej zwracasz się do AI po wsparcie emocjonalne niż do ludzi w swoim życiu, to sygnał, by się cofnąć.
  • Rodzice powinni nadzorować i omawiać korzystanie z AI ze swoimi dziećmi. Młodsi użytkownicy są szczególnie podatni na przywiązanie emocjonalne.
  • Jeśli Ty lub ktoś, kogo znasz, przeżywa kryzys, skontaktuj się bezpośrednio z odpowiednimi służbami wsparcia (patrz "Kiedy szukać pomocy" poniżej).

To, co powiesz AI, może nie pozostać między Tobą a AI

Gdy wpisujesz coś do chatbota AI, te dane wejściowe stają się danymi. Większość głównych dostawców AI wykorzystuje rozmowy użytkowników — domyślnie — do trenowania i ulepszania swoich modeli. Badanie Stanford z 2025 roku przeanalizowało polityki prywatności sześciu wiodących amerykańskich firm AI (Amazon, Anthropic, Google, Meta, Microsoft i OpenAI) i wykazało, że wszystkie sześć domyślnie przekazuje dane z czatów użytkowników do trenowania modeli. Niektóre przechowują te dane bezterminowo. Niektóre pozwalają ludziom przeglądać transkrypcje rozmów. Niektóre łączą rozmowy z chatbotem z danymi z innych produktów używanych na tej samej platformie.

Ryzyko praktyczne jest realne. Jeśli udostępniasz problemy zdrowotne, dane finansowe, problemy w relacjach lub poufne informacje biznesowe w czacie, te informacje mogą utrwalić się w sposób, którego nie kontrolujesz. Jennifer King ze Stanford, która prowadziła badanie, podsumowała: "Po prostu nie możesz kontrolować, dokąd ta informacja trafia, i może wyciec w sposób, którego po prostu nie przewidujesz".

Modele AI mogą również nieumyślnie zapamiętywać i odtwarzać fragmenty danych treningowych — w tym dane osobowe, prywatne e-maile czy kod źródłowy pobrany z internetu. Gdy dane zostaną osadzone w parametrach modelu, ich usunięcie jest technicznie trudne i czasami niekompletne.

eustella jest zbudowana inaczej. eustella nie wykorzystuje Twoich rozmów do trenowania modeli AI i nie sprzedaje Twoich danych. Wszystkie dane są przetwarzane na europejskich serwerach na mocy prawa europejskiego. Ale nawet z tymi zabezpieczeniami obowiązuje ta sama ostrożność: zastanów się, jakie dane osobowe udostępniasz jakiemukolwiek systemowi AI.

Co powinieneś zrobić

  • Nie wpisuj haseł, danych bankowych, numerów dokumentów tożsamości, dokumentacji medycznej ani innych wrażliwych danych osobowych do żadnego chatbota AI.
  • Sprawdź, czy Twój dostawca AI pozwala wyłączyć się z wykorzystywania rozmów do trenowania, i zrób to, jeśli wolisz.
  • Traktuj każdą rozmowę z AI jako potencjalnie nieobjętą prywatnością.
  • Do użytku profesjonalnego lub biznesowego wybieraj wdrożenia klasy enterprise z umownymi gwarancjami przetwarzania danych zamiast darmowych narzędzi konsumenckich.

Jak odpowiedzialnie korzystać z AI

AI to nie porada profesjonalna

Nie używaj AI jako substytutu wykwalifikowanych specjalistów medycznych, prawnych, finansowych ani specjalistów zdrowia psychicznego. AI może informować, ale nie może diagnozować, reprezentować ani leczyć.

Weryfikuj przed działaniem

Modele AI mają daty odcięcia danych treningowych, mogą nie mieć informacji w czasie rzeczywistym i nie mogą weryfikować własnej dokładności. Zawsze sprawdzaj krzyżowo wyniki, które będą podstawą rzeczywistych decyzji.

Nadzoruj korzystanie przez nieletnich

Narzędzia AI powinny być używane przez dzieci wyłącznie pod odpowiednim nadzorem. Akt w sprawie AI klasyfikuje pewne aplikacje AI wpływające na dzieci jako systemy wysokiego ryzyka.

Rozumiej, czym jest AI

Modele językowe AI to statystyczne silniki predykcyjne. Nie rozumieją prawdy, nie mają przekonań ani intencji. Gdy AI mówi "myślę" lub "uważam", generuje wzorzec konwersacyjny, a nie relacjonuje stan wewnętrzny. Zachowanie tego rozróżnienia pomaga korzystać z narzędzia bez bycia przez nie wprowadzanym w błąd.

Regulacje UE, które Cię chronią

Jako obywatel europejski masz prawną ochronę podczas interakcji z systemami AI.

Akt w sprawie AI — Przejrzystość

Na mocy artykułu 50 Aktu w sprawie AI (rozporządzenie 2024/1689) musisz być poinformowany, gdy wchodzisz w interakcję z systemem AI, a treści generowane przez AI muszą być odpowiednio oznaczone.

RODO — Prawo do wyjaśnienia

Na mocy artykułów 13–15 i 22 RODO masz prawo do uzyskania znaczących informacji o logice stojącej za zautomatyzowanym podejmowaniem decyzji oraz prawo do niepodlegania decyzjom opartym wyłącznie na automatycznym przetwarzaniu.

Prawo do skargi

Możesz złożyć skargę do krajowego organu ochrony danych, krajowego organu nadzoru rynku (odpowiedzialnego za egzekwowanie Aktu w sprawie AI) lub Europejskiego Urzędu ds. AI, który koordynuje egzekwowanie przepisów na poziomie UE.

AI nie zastąpi ludzkiego wsparcia

Jeśli przeżywasz kryzys lub potrzebujesz profesjonalnego wsparcia, skontaktuj się bezpośrednio z odpowiednimi służbami. Chatboty AI nie są terapeutami, lekarzami ani doradcami prawnymi.

Ogólnoeuropejski numer alarmowy: 112

Telefony zaufania ds. zdrowia psychicznego różnią się w zależności od kraju. Międzynarodowe Stowarzyszenie Zapobiegania Samobójstwom (IASP) prowadzi katalog ośrodków kryzysowych na całym świecie.

W przypadku skarg konsumenckich dotyczących AI skontaktuj się z krajowym organem ochrony konsumentów lub Europejską Siecią Centrów Konsumenckich (ECC-Net).

Jeśli jakikolwiek system AI generuje treści, które uważasz za niebezpieczne lub szkodliwe, skorzystaj z wbudowanych narzędzi zgłaszania platformy i w razie potrzeby skontaktuj się z krajowym organem ochrony danych.

Bądź wśród pierwszych

Zapisz się na wczesny dostęp do eustella — Twojego europejskiego asystenta AI.