Quase um terço dos impactos negativos associados ao uso de inteligência artificial atinge diretamente o bem-estar psicológico das pessoas. É o que revela levantamento da Data Privacy Brasil com base na recém-lançada Biblioteca de Danos em IA, um repositório público que sistematiza casos concretos relacionados a prejuízos provocados por sistemas automatizados.
Entre os 71 episódios documentados, 29,6% estão ligados a danos psicológicos e sociais, incluindo situações de vigilância excessiva e exposição a conteúdos nocivos.
Um dos exemplos citados é o de João Antônio Trindade, detido por engano em 2024 durante a final do campeonato sergipano, após falha em sistema de reconhecimento facial utilizado por policiais militares em Sergipe. Ele foi algemado e conduzido para interrogatório dentro do estádio.
Outro caso ocorreu em 2023, também em Sergipe, quando a auxiliar administrativa Thaís Santos foi confundida duas vezes com uma foragida da Justiça durante uma micareta, devido a erro no mesmo tipo de sistema. Na segunda abordagem, agentes tentaram algemá-la. Segundo relato, ela ficou tão nervosa que urinou nas roupas e retornou para casa chorando.
Também entram nessa categoria episódios envolvendo adolescentes que passam a manter relações afetivas com chatbots ou que são incentivados ao suicídio em interações com aplicativos baseados em IA.
Para Carla Rodrigues, coordenadora da área de Plataformas e Mercados Digitais da Data Privacy Brasil, os dados demonstram que os prejuízos já são realidade. “A biblioteca demonstra que os danos da IA já estão em curso e geram impactos concretos sobre direitos, trabalho, meio ambiente e democracia. Não se trata de riscos hipotéticos”, afirma.
Ela acrescenta que dar nome a esses impactos ajuda a tornar visíveis efeitos negativos que muitas pessoas vivenciam sem associar diretamente ao uso de inteligência artificial.
A iniciativa foi concebida como ferramenta de consulta para debates sobre regulação da tecnologia. O projeto de lei que trata do tema, o PL 2.338, foi aprovado no Senado em dezembro de 2024 e segue em tramitação na Câmara dos Deputados.
Segundo Rodrigues, o objetivo é organizar e tornar acessíveis casos concretos para qualificar o debate público e contribuir para o aperfeiçoamento das normas.
Além dos impactos psicológicos e sociais, 23,9% dos registros dizem respeito a violações de direitos fundamentais, como privacidade, devido processo legal e discriminação. Entre os exemplos está uma decisão judicial de 2023 elaborada com auxílio do OpenAI por meio do ChatGPT, que citou jurisprudência inexistente atribuída ao Superior Tribunal de Justiça (STJ).
Conforme noticiado pelo G1, o juiz federal Jefferson Ferreira Rodrigues, atualmente no Acre, publicou sentença contendo trechos formulados pelo aplicativo. À época, segundo a reportagem, ele classificou o episódio como erro comum e atribuiu a pesquisa a um servidor de seu gabinete. Para a Data Privacy Brasil, o caso evidencia violação ao devido processo ao produzir fundamentação incorreta, sem transparência ou possibilidade de contestação adequada.
Os impactos socioambientais e econômicos também representam 23,9% dos casos. Nessa categoria estão incluídos o elevado consumo de energia e água associado à instalação de data centers, além da precarização do trabalho e do uso de obras protegidas por direitos autorais sem remuneração.
Já os danos democráticos correspondem a 22,5% dos registros e abrangem ameaças ao debate público por meio de conteúdos automatizados e desinformação. A circulação de imagens e vídeos manipulados por IA, conhecidos como deepfakes, com potencial de influenciar processos eleitorais, integra esse grupo.
A biblioteca disponibiliza ainda um formulário para envio de novos casos. As contribuições são anônimas, precisam ter como base fontes públicas e passam por curadoria da equipe de pesquisa antes de integrarem o acervo.
Jornal da Chapada

















































