Nesta semana, milhões de pessoas visualizaram imagens falsas da cantora Taylor Swift geradas por IA – Inteligência Artificial. Agora, ao pesquisar o nome da artista no X (antigo Twitter), aparece uma imagem de erro, na tentativa de frear o compartilhamento da deepfake.

Pesquisas por Taylor Swift dão erro no X (twitter)
Imagem: Reprodução

Uma das imagens foi vista cerca de 47 milhões de vezes no X, antes de ser removida na quinta-feira (25). A publicação ficou disponível na plataforma por aproximadamente 17 horas, de acordo com a impressa estadunidense.

Por causa de toda a indignação dos fãs, a rede social bloqueou as pesquisas. Além disso, os fãs subiram a tag “protect Taylor” (protejam a Taylor) nos Trending Topics do X. O objetivo do bloqueio é tentar reduzir a circulação dessas imagens.

Com a propagação dessas imagens da segunda cantora mais ouvida no Spotify do mundo, fomentou-se o debate sobre as imagens criadas por IA e sobre a regularização do uso delas. O secretário de imprensa da Casa Branca disse a correspondente da ABC News que estão alarmados e que o Congresso precisa tomar medidas legislativas.

A indignação só aumentou entre os fãs ao descobrirem que não há nenhuma lei em nível federal nos EUA que impeça alguém de criar ou compartilhar imagens de deepfake não consensuais.

A pornografia deepfake é frequentemente descrita também como abuso sexual baseado em imagens, visto que não há a autorização da pessoa que é alvo dessas imagens íntimas.

Tanto o governo dos EUA, como de outros países estão em alertas a esses casos, visto que essas imagens não são exclusivas aos famosos. No Brasil, em Recife, um caso recente foi denunciado em que alunos criaram nudes falsos com Inteligência Artificial em um colégio particular.