Texto: Quem Controla Nossa Memória?
Minha investigação acadêmica buscou entender como as ferramentas de inteligência artificial (IA) influenciam o comportamento humano. O que descobri foi alarmante. Imagens geradas por IA estavam repletas de estereótipos quando retratavam grupos historicamente marginalizados, como mulheres, pessoas com deficiência, LGBTI+ e não brancos. Mais preocupante ainda foi perceber que os participantes da minha pesquisa reproduziam preconceitos ao interagir com essas imagens.
As imagens têm poder, tanto de uma perspectiva histórica quanto cultural. Elas podem interromper conflitos, mudar opiniões políticas e unir pessoas. Publicitários sabem disso e exploram essa capacidade em mídias tradicionais e digitais. O advento da IA amplia esse potencial de influência, mas também traz riscos inéditos: e se a IA puder moldar o passado, alterando registros históricos e reescrevendo a realidade?
No começo de 2024, durante o Super Bowl, a cantora Alicia Keys desafinou em sua apresentação enquanto cantava “If I Ain’t Got You”. No dia seguinte, a versão oficial do vídeo havia sido corrigida. Quem não gravou o evento ao vivo não encontrará o erro original. Esse episódio pode parecer banal, mas mostra como registros podem ser alterados ou apagados, criando uma história oficial que não corresponde à realidade. Se um erro em um show pode ser apagado, o que impediria que registros históricos e culturais fossem modificados? Quem decide o que é real? Quem controla a verdade?
Durante minha pesquisa, desenvolvi um conceito chamado de apagamento pela IA (“AI Erasure”, no original em inglês). Ele explora os riscos por duas vias: a capacidade de essas ferramentas moldarem registros e a possibilidade de apagá-los. O que coloca, de modo geral, a memória coletiva em risco.
Se imagens sintéticas podem influenciar preconceitos, o que impede que vídeos, áudios e mídias manipuladas também distorçam a história? A digitalização democratizou o acesso à informação, mas não garante diversidade nem representação. Ferramentas do estilo Wikipedia, que tinha o objetivo inicial de democratizar a informação, mostram como dados digitalizados podem estar cheios de informações equivocadas. A solução, então, passa por regulamentação, ética e rigor na construção de bancos de dados.
O apagamento pela IA também envolve manipulações intencionais por governos autoritários ou corporações, criando registros que promovem interesses políticos ou econômicos. Isso pode levar à homogeneização da história, apagando a diversidade humana em nome de narrativas dominantes. Quem controla nossa memória?
Stephanie Dinkins é uma artista que cria representações de mulheres negras em sistemas de IA. Recentemente, no jornal americano The New York Times, ela questionou por que a palavra “escravo” não podia ser usada por uma ferramenta generativa. Para atenuar preconceitos raciais e imagens ofensivas, algumas empresas passaram a proibir certas palavras nas entradas de texto submetidos a geradores, como “escravo” e “fascista”. O que Dinkins propõe ecoa o conceito de “apagamento pela IA”: “O que essa tecnologia está fazendo com a história? Podemos ver que alguém está tentando corrigir o viés, mas, ao mesmo tempo, isso apaga um pedaço da história.”
Vivemos num momento histórico de alerta para o futuro digital. Devemos levantar questões urgentes sobre o que escolhemos lembrar, quem é representado nos arquivos digitais e como a IA pode remodelar nossa compreensão da história e identidade. Diante dessas ameaças, é urgente questionar quem será representado nos arquivos digitais e como a IA poderá remodelar a compreensão sobre história e identidade. É preciso defender a diversidade, regulamentar as tecnologias e proteger memórias e culturas contra o apagamento digital.
A integração da IA nos sistemas sociais requer responsabilidade coletiva para evitar que a história seja moldada e apagada ao sabor de interesses específicos. Se não agirmos agora, arriscaremos perder muito mais do que dados: perderemos parte essencial do que nos torna humanos.
GUILDO MELO
Adaptado de nexojornal.com.br,09/03/2025.