ACOMPANHE-NOS     Campo Grande News no Facebook Campo Grande News no X Campo Grande News no Instagram Campo Grande News no TikTok Campo Grande News no Youtube
FEVEREIRO, SEGUNDA  16    CAMPO GRANDE 32º

Artigos

IA no centro da crise da historicidade do Holocausto

Por Charlley Luz (*) | 16/02/2026 08:30


Acirculação massiva de conteúdos históricos gerados por inteligência artificial (IA) nas plataformas digitais tem produzido aliterações profundas nos modos de construção, mediação e disputa da memória coletiva. Esse fenômeno torna-se particularmente sensível quando incide sobre eventos-limite da história contemporânea, como o Holocausto judeu perpetrado pela Alemanha nazista.

A Carta aberta: Ação consistente contra falsificações do Holocausto geradas por IA em plataformas de mídia social, divulgada em 13 de janeiro de 2026 por uma ampla rede de memoriais, arquivos e instituições de pesquisa, principalmente da Alemanha, explicita uma preocupação que não se restringe à moderação de conteúdo, mas aponta para uma crise estrutural dos regimes contemporâneos de historicidade.

Na carta se denuncia o crescimento de conteúdos sobre o Holocausto gerados por inteligência artificial nas redes sociais que não representam fatos históricos, mas sim ficções emocionais e distorcidas. Essas imagens e narrativas, como cenas inventadas em campos de concentração ou reencontros fictícios, por exemplo, são impulsionadas tanto por fazendas de conteúdo, interessadas em cliques e monetização, quanto por atores que buscam relativizar crimes nazistas, inverter papéis de vítimas e perpetradores ou difundir revisionismo histórico. Os algoritmos das plataformas amplificam esse material por seu forte apelo emocional, independentemente de sua veracidade, o que contribui para a banalização, a desinformação e a erosão da confiança do público em documentos e pesquisas históricas autênticas.

As instituições signatárias afirmam não serem contrárias ao uso de tecnologias digitais ou da própria IA em contextos educativos, desde que adotados critérios éticos e responsabilidade histórica. Defendem a proteção da memória das vítimas e dos sobreviventes, a valorização de fontes científicas e o protagonismo de vozes reais. Nesse sentido, cobram das plataformas digitais uma atuação ativa: combate proativo a conteúdos de IA que distorcem a história, possibilidade de denúncia como desinformação, exclusão desses conteúdos de programas de monetização, rotulagem obrigatória de material gerado por IA e cooperação com memoriais, arquivos e especialistas para aprimorar a detecção de falsificações relacionadas ao Holocausto.

Essa crise pode ser analisada de forma mais profunda quando colocada em diálogo com o conceito de museu algorítmico, ensaio publicado no Jornal da USP. Isto permite compreender como algoritmos passaram a desempenhar funções tradicionalmente associadas à curadoria, à autoridade documental e à mediação cultural, reconfigurando o estatuto da memória em ambientes digitais.

Analisa-se como as falsificações históricas e os simulacros gerados por IA não constituem um desvio ocasional, mas um efeito estrutural de um ecossistema informacional orientado pela lógica do engajamento, da previsibilidade e da opacidade algorítmica. O chamado museu algorítmico não se refere a uma instituição específica, mas a um regime simbólico difuso, no qual imagens, narrativas e fragmentos históricos são continuamente reorganizados por sistemas de recomendação, os algoritmos estabelecidos pelas big techs.

Nesse regime, a curadoria deixa de ser um ato explícito, fundamentado em critérios históricos e documentais, para se tornar uma operação invisível, guiada por métricas de atenção e desempenho. A memória deixa de ser um campo de disputa interpretativa consciente e passa a ser modelada por cálculos probabilísticos que privilegiam o que é a média, o emocionalmente carregado, o visualmente plausível e viralmente compartilhável.

Essa transformação implica uma mudança profunda na natureza dos documentos. No museu algorítmico, o valor de um artefato histórico não está mais vinculado à sua autenticidade, proveniência ou função probatória, mas principalmente à sua capacidade de gerar impacto afetivo. O que prevalece não é o documento, mas a imagem; não a fonte, mas a simulação tecnologicamente mais natural; não a contextualização, mas a circulação e os likes obtidos.

É nesse contexto que se insere a proliferação recente de imagens geradas por IA que representam cenas fictícias do Holocausto: supostos reencontros entre prisioneiros e libertadores, crianças chorando atrás de arame farpado, cenas de campos de concentração que jamais existiram. Como destacam os signatários da carta aberta, trata-se de produções que não apenas falseiam a história, mas constroem uma forma específica de ficção emocional, na qual o sofrimento histórico é instrumentalizado como recurso estético e mercadológico.

A gravidade desse processo não reside apenas na falsidade factual dessas imagens, mas no modo como elas se inserem nos fluxos algorítmicos das plataformas digitais. Ao serem priorizadas por sistemas que favorecem conteúdos emocionalmente intensos, essas imagens competem diretamente com documentos históricos autênticos, alterando os regimes de visibilidade e credibilidade da memória do Holocausto. O algoritmo, nesse cenário, não distingue entre testemunho, documento e simulação: ele otimiza aquilo que performa melhor, mesmo que seja algo criado a partir de datasets obscuros.

Esse deslocamento produz um efeito cumulativo de erosão da confiança histórica. À medida que imagens geradas por IA circulam sem rotulagem clara e com alto grau de verossimilhança, os próprios documentos de arquivo passam a ser percebidos como apenas mais uma narrativa possível. Instala-se, assim, uma forma de relativismo visual, na qual a distinção entre prova e ficção se dissolve. O paradoxo é evidente: quanto mais sofisticadas se tornam as tecnologias de geração de imagens, mais frágeis se tornam os critérios públicos de autenticidade.

As consequências desse processo são particularmente graves para instituições de memória, nossos arquivos, museus, memoriais e centros de pesquisa, cujo trabalho se fundamenta na preservação, contextualização e interpretação rigorosa de fontes por meio de curadorias elaboradas. No museu algorítmico, entretanto, a autoridade não é institucional nem epistemológica, mas estatística. O que aparece mais, circula mais e engaja mais tende a ser percebido como mais real, independentemente de sua relação com os fatos históricos.

Além disso, a repetição de narrativas ficcionais contribui para a diluição da singularidade histórica do Holocausto, como se pode observar nas preocupações da carta. Ao ser transformado em um repertório genérico de imagens de sofrimento, o evento perde sua especificidade histórica, política e ética. Esse processo não apenas banaliza o passado, mas cria condições simbólicas favoráveis a formas sutis de revisionismo, nas quais a distinção entre vítimas e perpetradores pode ser obscurecida ou reconfigurada.

A carta aberta de 13 de janeiro de 2026 acerta ao atribuir responsabilidade direta às plataformas digitais. A exigência de rotulagem inequívoca de conteúdos gerados por IA, a exclusão desses conteúdos de programas de monetização e a cooperação com especialistas em memória histórica não são medidas secundárias, mas condições mínimas para a preservação de um espaço público informacional eticamente responsável.

No entanto, como sugere a reflexão sobre o museu algorítmico, tais ações precisam ser acompanhadas por uma revisão mais ampla dos próprios modelos de mediação algorítmica. Isso implica tornar visíveis os processos de seleção, recomendação e priorização de conteúdos, bem como registrar os rastros técnicos e decisórios envolvidos na geração de imagens e narrativas — aquilo que pode ser compreendido como os paradados da memória digital. Sem essa camada de transparência, a curadoria algorítmica continuará operando como uma curadoria sem rosto, sem responsabilidade histórica e sem compromisso com a verdade documental.

A inteligência artificial não é, em si, incompatível com práticas de memória, educação e preservação histórica. Ao contrário, pode oferecer instrumentos valiosos para análise, acesso e mediação de acervos. O desafio contemporâneo consiste em impedir que essas tecnologias sejam integralmente capturadas por lógicas de mercado e engajamento, em detrimento da historicidade.

Preservar a memória do Holocausto em tempos de IA exige mais do que combater imagens falsas. Exige repensar criticamente os regimes algorítmicos que organizam o visível, restituir à curadoria seu caráter ético e político e reafirmar a singularidade histórica contra sua diluição estatística. Em última instância, trata-se de decidir se a memória coletiva será orientada pela responsabilidade histórica ou pela lógica indiferente do cálculo.

(*) Charlley Luz, doutorando da Escola de Comunicações e Artes da USP

 

Os artigos publicados com assinatura não traduzem necessariamente a opinião do portal. A publicação tem como propósito estimular o debate e provocar a reflexão sobre os problemas brasileiros.