Deepfakes de Taylor Swift e Psicopatia: Compreendendo a Relação com a Baixa Capacidade Cognitiva

Escrito por Academia do Psicólogo | Jan 29, 2024 12:39:55 PM

Recentemente, o assunto dos deepfakes tornou-se notavelmente proeminente na consciência pública, particularmente devido ao perturbador caso envolvendo a mundialmente famosa estrela pop Taylor Swift. A Inteligência Artificial foi utilizada para criar imagens de Swift que são explícitas e falsas, mas incrivelmente convincentes, levantando preocupações generalizadas e gerando um debate intenso.

O termo "deepfakes" vem da combinação de "deep learning" (aprendizado profundo) e "fake" (falso), e refere-se a mídias sintéticas avançadas, onde a aparência de uma pessoa em uma imagem ou vídeo existente é substituída por outra usando tecnologia de IA avançada. Enquanto essas tecnologias têm aplicações impressionantes, elas também trazem significativas questões éticas e de privacidade, especialmente quando usadas para criar conteúdo explícito sem o consentimento das pessoas retratadas.

Este artigo aborda não apenas a tecnologia por trás dos deepfakes, mas também suas implicações psicológicas e éticas, particularmente em casos de alto perfil como o de Taylor Swift. A análise se foca em explorar como a criação e a disseminação dessas imagens podem estar relacionadas a traços psicopáticos e a uma diminuição da capacidade cognitiva, oferecendo insights valiosos para profissionais da psicologia no entendimento e na abordagem deste novo e desafiador aspecto da tecnologia digital.

O Caso Taylor Swift: Reflexões Legais e Éticas Sobre Deepfakes Pornográficos

O incidente envolvendo Taylor Swift, marcado pela disseminação de imagens pornográficas deepfake em plataformas de mídia social, incluindo uma imagem visualizada por mais de 47 milhões de usuários na plataforma X (anteriormente conhecida como Twitter), reacendeu debates sobre a legalidade e a ética desse tipo de conteúdo. Apesar dos esforços das plataformas para remover essas imagens e penalizar os responsáveis, o impacto permanece significativo e extenso.

Esse incidente desencadeou apelos bipartidários nos Estados Unidos por leis federais mais rigorosas contra a pornografia deepfake sem consentimento, enfatizando o dano emocional, financeiro e reputacional profundo que pode infligir, especialmente às mulheres.

O deputado democrata Joseph Morelle propôs a legislação denominada "Preventing Deepfakes of Intimate Images Act", que visa criminalizar o compartilhamento de pornografia deepfake não consensual. De maneira semelhante, o deputado republicano Tom Kean Jr. destacou a necessidade de salvaguardas contra o avanço rápido da tecnologia de IA neste contexto, defendendo uma lei "AI Labeling Act" que exige a rotulagem clara de todo conteúdo gerado por IA.

O direcionamento de mulheres para a criação de deepfakes pornográficos não consensuais não é novo, mas tornou-se mais disseminado com os avanços em IA. Um estudo de 2019 realizado pela DeepTrace Labs descobriu que 96% do conteúdo de vídeo deepfake era material pornográfico não consensual.

Este panorama levanta questões cruciais sobre a responsabilidade das plataformas de mídia social e a eficácia das legislações atuais em proteger indivíduos, especialmente mulheres, contra abusos digitais. O caso de Taylor Swift, portanto, não é apenas um incidente isolado, mas um exemplo das falhas sistêmicas no controle de conteúdos deepfake e da necessidade urgente de ações legislativas mais robustas.

Compreendendo a Psicologia dos Deepfakes

A psicologia por trás da criação e do compartilhamento de deepfakes é uma matéria complexa, e as pesquisas nessa área estão em estágios iniciais, focando nas características dos indivíduos que se envolvem em tais comportamentos e na nossa capacidade de detectá-los.

Estudos recentes revelaram insights sobre os perfis psicológicos e cognitivos de indivíduos que criam e compartilham deepfakes, elucidando suas motivações e susceptibilidade.

O Papel da Psicopatia

Um estudo publicado no periódico Computers in Human Behavior iluminou as características psicológicas associadas à criação e compartilhamento de pornografia deepfake. Os resultados sugeriram uma preocupante conexão entre traços psicopáticos e a probabilidade de se envolver em tais atividades.

A psicopatia, caracterizada pela falta de empatia e remorso, impulsividade e comportamentos antissociais, aparece como um preditor significativo neste contexto. Indivíduos com pontuações mais altas em escalas de psicopatia foram mais inclinados a criar deepfakes. Essa tendência alinha-se com o desrespeito geral pelo bem-estar dos outros e os comportamentos manipulativos e de tomada de risco frequentemente associados à psicopatia.

O estudo também revelou que aqueles com maiores pontuações de psicopatia eram mais propensos a culpar as vítimas e perceber a criação de deepfakes como menos prejudicial. Esse diminuído senso de dano e responsabilidade aponta para um perigoso processo de racionalização que poderia alimentar a proliferação de tal conteúdo.

"Traços de personalidade associados ao apoio de comportamentos online desviantes e ofensas sexuais mais amplamente, por exemplo, a psicopatia, previram julgamentos mais lenientes de ofensas, bem como uma maior propensão para criar e compartilhar imagens – sugerindo que, através de mais pesquisas, poderíamos ser capazes de prever melhor pessoas mais propensas a se envolver em tal comportamento e intervir adequadamente," explicou o autor principal do estudo, Dean Fido, ao PsyPost em 2022.

Gênero e Status de Celebridade na Percepção da Vítima

A pesquisa também destacou como a percepção de incidentes deepfake varia com base no gênero da vítima e no status de celebridade. Incidentes envolvendo vítimas femininas foram vistos como mais prejudiciais e criminosos do que aqueles envolvendo vítimas masculinas. Além disso, houve uma diferença notável na forma como homens e mulheres percebiam esses incidentes, com homens sendo menos propensos a ver deepfakes de celebridades como prejudiciais em comparação com aqueles envolvendo não-celebridades.

Habilidades Cognitivas e Compartilhamento de Deepfakes

Expandindo o perfil psicológico, outro estudo na Heliyon examina a influência das habilidades cognitivas na susceptibilidade e compartilhamento de deepfakes. Os resultados indicaram que indivíduos com maiores habilidades cognitivas, caracterizados por melhor processamento de informações e habilidades de tomada de decisão, são menos propensos a serem enganados ou compartilhar deepfakes.

Indivíduos com maiores habilidades cognitivas tendem a se engajar em análises mais críticas das informações, tornando-os menos susceptíveis a acreditar na autenticidade dos deepfakes. Esse ceticismo aumentado também se traduz em uma menor probabilidade de compartilhar deepfakes, mostrou o estudo, apontando para o papel protetor das habilidades cognitivas contra a manipulação por meio de tais tecnologias avançadas de IA.

Detectando Deepfakes

Três estudos recentes alcançaram avanços significativos na compreensão de como os humanos interagem com e percebem a tecnologia deepfake.

O Reconhecimento Subconsciente de Rostos AI

Um estudo publicado na Vision Research descobriu que, enquanto os participantes lutavam para diferenciar verbalmente rostos reais de rostos gerados por AI hiper-realistas, a atividade cerebral deles identificava corretamente rostos gerados por AI 54% das vezes, superando significativamente a precisão de identificação verbal de 37%. Isso sugere um nível mais profundo e subconsciente no qual nossos cérebros processam e reconhecem a autenticidade das imagens.

"Usando métodos comportamentais e de neuroimagem, descobrimos que era possível detectar de forma confiável imagens falsas geradas por AI usando a atividade EEG após apenas um breve olhar, mesmo que os observadores não pudessem relatar conscientemente ver diferenças," concluíram os pesquisadores. "Dado que os observadores já têm dificuldades em diferenciar entre rostos falsos e reais, é de imediata e prática preocupação investigar mais as importantes maneiras pelas quais o cérebro pode distinguir os dois."

Hiperrealismo em Rostos AI

O segundo estudo, detalhado na Psychological Science e liderado por Amy Dawel da Australian National University, explorou o fenômeno do "hiperrealismo" em rostos gerados por AI. Esta pesquisa investigou por que rostos AI frequentemente parecem mais humanos do que os rostos humanos reais.

Usando teorias psicológicas como a teoria do espaço facial, o estudo examinou como rostos gerados por AI podem incorporar características humanas médias mais proeminentemente do que rostos reais. Intrigantemente, o estudo descobriu um viés para o hiperrealismo em rostos AI brancos, que foram consistentemente percebidos como mais humanos do que rostos humanos brancos reais.

O Paradoxo da Superconfiança

Este efeito de hiperrealismo foi ainda mais destacado por uma superconfiança em participantes que eram menos precisos na detecção de rostos AI, indicando uma interação complexa entre percepção, viés e confiança na identificação de conteúdo gerado por AI.

"Esperávamos que as pessoas percebessem que não eram muito boas em detectar AI, dado o quão realistas os rostos se tornaram. Ficamos muito surpresos ao descobrir que as pessoas estavam superconfiantes," Dawel disse ao PsyPost no ano passado. "As pessoas não são muito boas em identificar impostores de AI — e se você acha que é, as chances são de que você está cometendo mais erros do que a maioria. Nosso estudo mostrou que as pessoas que estavam mais confiantes cometeram mais erros na detecção de rostos gerados por AI."

Conexão com Mentalidade Conspiratória e Uso de Mídias Sociais

Um terceiro estudo, realizado pela Telematics and Informatics, revelou que indivíduos com pontuações mais altas em uma escala de mentalidade conspiratória e aqueles que passam mais tempo nas mídias sociais eram melhores na identificação de vídeos deepfake. Isso indica que uma mentalidade mais questionadora e a exposição regular a diferentes tipos de conteúdo de mídia podem melhorar a capacidade de discernir deepfakes.

"O tempo gasto nas mídias sociais e a crença em teorias da conspiração estão positivamente correlacionados com a habilidade de detectar deepfakes," explicou Ewout Nas, autor principal do estudo, em entrevista ao PsyPost. "De forma geral, os vídeos deepfake estão se tornando mais realistas e mais difíceis de identificar. Não é mais possível confiar automaticamente em tudo o que se vê em gravações de vídeo."

Fonte e Referência: Psypost