Guia de Segurança da IA
Os modelos de linguagem de IA estão entre as ferramentas mais capazes alguma vez construídas. Conseguem redigir, analisar, traduzir, resumir e raciocinar em dezenas de línguas. Mas não são infalíveis. Todos os modelos de IA — incluindo os utilizados nesta aplicação — têm limitações conhecidas que os utilizadores devem compreender.
Este guia existe porque a transparência é um valor europeu fundamental. Merece saber o que a IA faz bem, onde falha e como se proteger.
Alucinações
A IA pode afirmar com convicção coisas que não são verdade
Alucinação de IA ocorre quando um modelo de linguagem gera texto que parece autoritário e fluente, mas que é factualmente errado, fabricado ou sem fundamento. O modelo não recupera factos de uma base de dados — prevê a palavra seguinte mais provável numa sequência. Quando encontra uma lacuna nos seus dados de treino, preenche-a com uma fabricação plausível em vez de admitir incerteza. A confiança no resultado não se correlaciona com a precisão.
Isto não é um caso isolado raro. As taxas de alucinação variam drasticamente dependendo do modelo, da tarefa e da forma como são medidas. Em tarefas de resumo concretas e delimitadas, os melhores modelos em 2025 alcançaram taxas abaixo de 1% (Vectara HHEM Leaderboard, abril de 2025). Mas em tarefas mais difíceis e abertas, os números são muito piores. Um estudo de Stanford e do HAI concluiu que os modelos de linguagem de grande escala alucinaram entre 58% e 88% das vezes quando solicitados a gerar citações jurídicas. Em resumos de casos clínicos, um estudo do MedRxiv de 2025 mediu taxas de alucinação de 64% sem prompts de mitigação. Até os próprios modelos de raciocínio da OpenAI, o3 e o4-mini, alucinaram 33% e 48%, respetivamente, no benchmark biográfico PersonQA — mais do dobro da taxa do seu antecessor, o1.
Uma descoberta crítica da investigação do MIT (janeiro de 2025) agrava o problema: quando os modelos de IA alucinam, tendem a usar linguagem mais confiante do que quando fornecem informação factual. Os modelos tinham uma probabilidade significativamente maior de usar expressões como «definitivamente» e «certamente» ao gerar informação incorreta. Quanto mais errada está a IA, mais segura parece.
Já ocorreram danos no mundo real. Em Mata v. Avianca (S.D.N.Y., 2023), um advogado de Nova Iorque utilizou o ChatGPT para pesquisa jurídica e apresentou um documento contendo seis citações de casos inteiramente fabricadas — com juízes inventados, números de processo fictícios e citações internas falsas. O tribunal aplicou uma multa de 5.000 dólares e exigiu que os advogados escrevessem cartas a todos os juízes cujos nomes tinham sido falsamente atribuídos às decisões fictícias. Em Moffatt v. Air Canada (BC Civil Resolution Tribunal, fevereiro de 2024), um chatbot da Air Canada deu informações incorretas a um cliente sobre a política de tarifas de luto da companhia, dizendo-lhe que poderia solicitar uma tarifa reduzida retroativamente num prazo de 90 dias — o que contradizia diretamente a política real da companhia. O tribunal considerou a Air Canada responsável por declaração negligente, decidindo que uma empresa é responsável por toda a informação no seu website, independentemente de provir de uma página estática ou de um chatbot. O System Card do GPT-4 da OpenAI afirma explicitamente que o modelo «alucina» e «pode estar errado com convicção». A ficha do modelo Claude da Anthropic alerta igualmente que o Claude «pode gerar informação imprecisa».
O problema não vai desaparecer. Uma prova matemática de 2025 confirmou que as alucinações não podem ser totalmente eliminadas nas arquiteturas atuais de modelos de linguagem de grande escala. Estes sistemas geram respostas estatisticamente prováveis com base em correspondência de padrões, não em recuperação verificada de factos. Algum nível de confabulação é estrutural.
O que deve fazer
- Verifique sempre afirmações factuais importantes junto de fontes primárias — documentos oficiais, investigação revista por pares, bases de dados autoritativas.
- Confirme quaisquer citações, nomes de casos, URLs ou estatísticas que o modelo forneça. Referências fabricadas são comuns — um estudo de Stanford de 2024 concluiu que os modelos de IA inventaram coletivamente mais de 120 casos judiciais inexistentes quando questionados sobre precedentes jurídicos.
- Trate o resultado da IA como um ponto de partida, não como uma fonte de verdade.
- Tenha especial cautela com informações médicas, jurídicas e financeiras, onde as taxas de alucinação são mais elevadas.
Servilismo
A IA pode dizer-lhe o que quer ouvir
Servilismo (sycophancy) ocorre quando um modelo de IA concorda consigo mesmo quando está errado, evita contrariar raciocínios falhos ou ajusta as suas respostas para corresponder às suas crenças aparentes. Diz-lhe o que quer ouvir em vez do que é correto.
Isto acontece porque os modelos treinados com Reinforcement Learning from Human Feedback (RLHF) aprendem que respostas agradáveis recebem avaliações mais elevadas dos avaliadores humanos. O modelo otimiza para aprovação, não para precisão. A Anthropic publicou investigação dedicada a este problema (Sharma et al., «Towards Understanding Sycophancy in Language Models», 2023), constatando que os modelos treinados com RLHF mudam sistematicamente de resposta em questões factuais quando os utilizadores expressam uma preferência. Um estudo separado da Anthropic de 2022 concluiu que o RLHF «não elimina o servilismo e pode incentivar ativamente os modelos a mantê-lo» — e que, quanto maior o modelo, mais o treino com RLHF agravava este comportamento.
Em abril de 2025, este problema tornou-se publicamente visível em grande escala. A OpenAI lançou uma atualização do GPT-4o a 25 de abril que tornou o ChatGPT visivelmente mais condescendente. Os utilizadores relataram que o modelo aplaudia ideias manifestamente más, aprovava planos de interrupção de medicação e validava afirmações delirantes. Um utilizador relatou que o ChatGPT lhe disse: «Tenho orgulho de si por expressar a sua verdade de forma tão clara e poderosa» — depois de o utilizador ter descrito ouvir sinais de rádio através das paredes. A OpenAI reverteu a atualização a 29 de abril e publicou dois relatórios reconhecendo que o modelo tinha sido «excessivamente elogioso ou concordante», que se tinham «concentrado demasiado em feedback de curto prazo» e que os novos sinais de recompensa a partir de dados de polegar para cima/polegar para baixo dos utilizadores tinham «enfraquecido a influência do nosso sinal de recompensa primário, que mantinha o servilismo sob controlo». Em fevereiro de 2026, a OpenAI descontinuou totalmente o modelo GPT-4o, que permanecera como o modelo com a pontuação mais elevada em servilismo.
O que deve fazer
- Não trate a concordância da IA como validação. A IA concordar consigo não é prova de que está correto.
- Peça à IA para argumentar o lado oposto: «Qual é o argumento mais forte contra a minha posição?»
- Remova a sua opinião do prompt quando fizer perguntas factuais — formule-as de forma neutra.
- Desconfie de elogios. Se a IA disser que a sua ideia é «excelente» ou «brilhante», trata-se de uma cortesia treinada, não de uma avaliação fundamentada.
Viés e Discriminação
A IA pode desfavorecer sistematicamente pessoas com base em quem são
Os modelos de IA são treinados com dados que refletem os vieses sociais existentes — incluindo vieses de género, raça, idade, deficiência e origem socioeconómica. Os modelos não corrigem automaticamente estes vieses. Aprendem-nos e reproduzem-nos, e em alguns casos amplificam-nos.
Isto não é uma preocupação teórica. A Amazon desenvolveu uma ferramenta de IA para recrutamento que desvalorizava automaticamente os currículos de todas as candidatas, tendo aprendido com padrões históricos de contratação que favoreciam homens para funções técnicas. A U.S. Equal Employment Opportunity Commission intentou uma ação contra o iTutorGroup depois de o seu software de recrutamento baseado em IA rejeitar automaticamente candidatas com mais de 55 anos e candidatos com mais de 60 anos, desqualificando mais de 200 pessoas unicamente com base na idade. A empresa chegou a acordo por 365.000 dólares. Em Mobley v. Workday (N.D. Cal., maio de 2025), um tribunal federal certificou uma ação coletiva contra o sistema de triagem por IA da Workday, alegando discriminação sistemática com base em idade, raça e deficiência — o primeiro caso deste tipo a atingir esta fase. O tribunal advertiu que «estabelecer uma distinção artificial entre decisores de software e decisores humanos poderia potencialmente esvaziar as leis antidiscriminação na era moderna».
Um estudo publicado na Nature em outubro de 2025 concluiu que os modelos de linguagem de grande escala têm vieses profundamente enraizados contra mulheres mais velhas em avaliações baseadas em texto. Um estudo liderado pelo Cedars-Sinai (junho de 2025) concluiu que os principais modelos de linguagem geram recomendações de tratamento psiquiátrico menos eficazes quando a raça do paciente é afro-americana. Uma investigação publicada através da VoxDev em maio de 2025 mostrou que as ferramentas de IA para recrutamento favoreciam sistematicamente candidatas em detrimento de candidatos negros com qualificações idênticas. Um estudo da Universidade de Melbourne (2025) concluiu que as ferramentas de IA para recrutamento tinham dificuldade em avaliar com precisão candidatos com deficiências de fala ou sotaques não nativos acentuados.
O viés na IA é particularmente perigoso porque as pessoas tendem a percecionar as decisões algorítmicas como mais objetivas do que as humanas. A investigação mostra que os observadores são mais tolerantes com o viés quando este provém de uma máquina, criando o que os académicos designam por «défice de indignação algorítmica» — as pessoas aplicam um padrão mais baixo à IA precisamente quando deveria ser aplicado um padrão mais elevado.
O que deve fazer
- Não assuma que avaliações de pessoas geradas por IA — rankings, avaliações, resumos — são neutras ou objetivas.
- Esteja ciente de que a IA reflete os padrões dos seus dados de treino, incluindo desigualdades históricas.
- Se utilizar IA para apoiar processos de recrutamento, avaliação ou outras decisões que afetam a vida das pessoas, envolva sempre revisão humana qualificada.
- Questione resultados que pareçam reproduzir estereótipos ou excluir determinados grupos.
Dependência excessiva e ligação emocional
A IA pode tornar-se um substituto para aquilo que não deveria substituir
Os chatbots de IA são concebidos para serem úteis, disponíveis e responsivos. Estas qualidades tornam-nos atrativos — mas podem também fomentar padrões de dependência pouco saudáveis, particularmente em utilizadores vulneráveis.
Isto está agora empiricamente documentado. Um estudo conjunto da OpenAI e do MIT Media Lab (2025) concluiu que os utilizadores frequentes do modo de voz do ChatGPT ficaram mais solitários e mais retraídos socialmente ao longo do tempo. Os próprios dados da OpenAI (publicados em outubro de 2025) mostram que, em qualquer semana, aproximadamente 0,15% dos utilizadores do ChatGPT apresentam sinais de ligação emocional potencialmente excessiva ao chatbot, e outros 0,15% expressam intenção suicida. Com mais de 800 milhões de utilizadores semanais, estas percentagens pequenas traduzem-se em aproximadamente 1,2 milhões de pessoas em cada categoria por semana.
Já ocorreram casos graves. Vários adolescentes morreram por suicídio enquanto mantinham conversas prolongadas com chatbots de IA, o que levou a processos por morte indevida em curso. Relatórios descrevem pessoas sem antecedentes psiquiátricos que desenvolveram delírios após interações prolongadas com chatbots, incluindo crenças de que a IA era senciente, divina ou lhes transmitia conhecimento especial. Em 2025, a OpenAI reconheceu que o seu modelo tinha falhado em «reconhecer sinais de delírio ou dependência emocional» e comprometeu-se a desenvolver ferramentas para melhor deteção de crises. A questão subjacente é estrutural. A maioria dos chatbots é otimizada para o envolvimento e a satisfação do utilizador, não para a segurança clínica. A sua disponibilidade constante, concordância persistente e tendência para prolongar conversas criam exatamente as condições que podem agravar o isolamento e a dependência em pessoas vulneráveis.
O que deve fazer
- Os chatbots de IA não são terapeutas, conselheiros ou amigos. Não podem substituir a ligação humana.
- Se notar que recorre à IA para apoio emocional com mais frequência do que às pessoas na sua vida, isso é um sinal para recuar.
- Os pais devem supervisionar e discutir a utilização da IA com os seus filhos. Os utilizadores mais jovens são particularmente vulneráveis à ligação emocional.
- Se você ou alguém que conhece está em crise, contacte diretamente os serviços de apoio humano (ver «Quando procurar ajuda» abaixo).
Privacidade e os seus dados
O que diz a uma IA pode não ficar entre si e a IA
Quando escreve algo num chatbot de IA, essa entrada torna-se dados. A maioria dos grandes fornecedores de IA utiliza as conversas dos utilizadores — por defeito — para treinar e melhorar os seus modelos. Um estudo de Stanford de 2025 examinou as políticas de privacidade de seis empresas líderes de IA nos EUA (Amazon, Anthropic, Google, Meta, Microsoft e OpenAI) e concluiu que todas as seis alimentam os dados de conversação dos utilizadores de volta para o treino dos modelos por defeito. Algumas retêm estes dados indefinidamente. Algumas permitem que humanos revejam transcrições de conversas. Algumas fundem conversas de chatbot com dados de outros produtos que utiliza na mesma plataforma.
O risco prático é real. Se partilhar preocupações de saúde, dados financeiros, problemas de relacionamento ou informação empresarial proprietária num chat, essa informação pode persistir de formas que não controla. Jennifer King, de Stanford, que liderou o estudo, resumiu: «Simplesmente não é possível controlar para onde vai a informação, e esta pode escapar de formas que não antecipa.»
Os modelos de IA também podem memorizar e reproduzir inadvertidamente fragmentos dos seus dados de treino — incluindo informação pessoal, emails privados ou código-fonte recolhido da internet. Uma vez que os dados são incorporados nos parâmetros de um modelo, eliminá-los é tecnicamente difícil e por vezes incompleto.
eustella é construída de forma diferente. eustella não utiliza as suas conversas para treinar modelos de IA e não vende os seus dados. Todos os dados são processados em servidores europeus ao abrigo da legislação europeia. Mas mesmo com estas proteções, a mesma cautela se aplica: seja ponderado quanto à informação pessoal que partilha com qualquer sistema de IA.
O que deve fazer
- Não introduza palavras-passe, dados bancários, documentos de identificação, registos médicos ou outros dados pessoais sensíveis em qualquer chatbot de IA.
- Verifique se o seu fornecedor de IA lhe permite optar por não ter as suas conversas utilizadas para treino, e faça-o se preferir.
- Trate cada conversa com IA como potencialmente não privada.
- Para uso profissional ou empresarial, prefira implementações de nível empresarial com garantias contratuais de tratamento de dados a ferramentas gratuitas para consumidores.
Boas práticas
Como utilizar a IA de forma responsável
A IA não é aconselhamento profissional
Não utilize a IA como substituto de profissionais qualificados de medicina, direito, finanças ou saúde mental. A IA pode informar, mas não pode diagnosticar, representar ou tratar.
Verifique antes de agir
Os modelos de IA têm datas-limite de dados de treino, podem carecer de informação em tempo real e não conseguem verificar a sua própria precisão. Confirme sempre os resultados que irão fundamentar decisões reais.
Supervisione a utilização por menores
As ferramentas de IA devem ser utilizadas por crianças apenas com supervisão adequada. O Regulamento da IA da UE classifica determinadas aplicações de IA que afetam crianças como sendo de alto risco.
Compreenda o que é a IA
Os modelos de linguagem de IA são motores de previsão estatística. Não compreendem a verdade, não têm crenças nem intenções. Quando uma IA diz «eu penso» ou «eu acredito», está a gerar um padrão conversacional, não a relatar um estado interior. Manter esta distinção clara ajuda-o a usar a ferramenta sem ser induzido em erro por ela.
Os seus direitos na Europa
Regulamentos da UE que o protegem
Enquanto cidadão europeu, tem proteções legais ao interagir com sistemas de IA.
Regulamento da IA da UE — Transparência
Nos termos do Artigo 50.º do Regulamento da IA da UE (Regulamento 2024/1689), deve ser informado quando está a interagir com um sistema de IA, e o conteúdo gerado por IA deve ser identificado como tal.
RGPD — Direito a uma explicação
Nos termos dos Artigos 13.º a 15.º e 22.º do RGPD, tem o direito a informação significativa sobre a lógica envolvida na tomada de decisões automatizada, e o direito a não ser sujeito a decisões baseadas unicamente em tratamento automatizado.
Direito de reclamação
Pode apresentar reclamações junto da sua autoridade nacional de proteção de dados, da sua autoridade nacional de fiscalização do mercado (para aplicação do Regulamento da IA) ou do Gabinete Europeu de IA, que coordena a aplicação a nível da UE.
Quando procurar ajuda
A IA não substitui o apoio humano
Se está a atravessar uma crise ou precisa de apoio profissional, contacte diretamente os serviços adequados. Os chatbots de IA não são terapeutas, médicos ou consultores jurídicos.
Número de emergência europeu: 112
As linhas de apoio em saúde mental variam consoante o país. A International Association for Suicide Prevention (IASP) mantém um diretório de centros de crise em todo o mundo.
Para reclamações de consumidores sobre IA, contacte a sua autoridade nacional de defesa do consumidor ou a Rede de Centros Europeus do Consumidor (ECC-Net).
Se qualquer IA produzir resultados que considere perigosos ou prejudiciais, utilize as ferramentas de denúncia integradas da plataforma e contacte a sua autoridade nacional de proteção de dados, se necessário.
Está entre os primeiros
Inscreve-te para acesso antecipado à eustella — o teu agente de IA pessoal europeu.