Tudo sobre Facebook
Tudo sobre Inteligência Artificial
Nos últimos tempos, com o avanço da inteligência artificial (IA), casos de deepfake se tornaram mais comuns. E, mais recentemente, esse tipo de uso da tecnologia passou a atacar pessoas famosas ao criar pornografia falsa delas.
E, apesar de boa parte desse conteúdo estar hospedado em sites específicos, ele vem chegando às redes sociais.
Se você gostou desse post, não esqueça de compartilhar:
Pensando nisso, o Comitê de Supervisão da Meta, conselho independente da Meta que pode decidir e fazer recomendações acerca de sua empresa genitora, anunciou estar aceitando casos que podem levar em conta como a companhia lida com pornografia deepfake.
- Segundo a WIRED, o Conselho de Supervisão da Meta se concentrará em dois casos de pornografia deepfake, ambos com relação a duas celebridades que tiveram imagens suas alteradas para criar conteúdo explícito;
- Em um caso sobre uma artista estadunidense não-identificada, a pornografia deepfake dela foi removida do Facebook após já ter sido sinalizada em outra área da rede social;
- A publicação também foi adicionada ao Media Matching Service Bank da Meta. Esse sistema automatizado encontra e remove imagens já sinalizadas como fora das políticas da empresa, para mantê-las fora da plataforma;
- Em outro caso, a imagem deepfake de uma celebridade indiana não-identificada seguiu no Instagram, mesmo após os usuários a denunciarem por violar políticas da Meta sobre pornografia;
- Segundo o anúncio do Comitê, a imagem falsa foi removida da plataforma tão logo ele assumiu o caso.
Nos dois casos, as imagens foram removidas por violarem políticas da empresa de Mark Zuckerberg sobre intimidação e assédio, além de não se enquadrarem em suas políticas sobre pornografia.
A Meta não tolera “conteúdo que retrate, ameace ou promova violência sexual, agressão sexual ou exploração sexual”, tampouco pornografia, ou anúncios sexualmente explícitos em nenhuma de suas plataformas (Facebook, Instagram, WhatsApp e Threads).
Em publicação em seu blog postada junto ao anúncio de seu Comitê, a Meta informou que removeu as postagens por violarem o trecho de sua política de intimidação e assédio que trata de “photoshops ou desenhos sexualizados depreciativos”, além de ter determinado que “violou a política de nudez adulta e atividade sexual [da Meta]”.
A expectativa do Conselho é de usar tais casos para examinar as políticas e sistemas da Meta para detectar e remover pornografia deepfake não-consensual, conforme diz Julie Owono, membro do Comitê.
“Já posso dizer provisoriamente que o principal problema é provavelmente a detecção. Ela não é tão perfeita, ou, pelo menos, não é tão eficiente quanto gostaríamos”, ressaltou.
Críticas fora dos EUA
E não é só nos Estados Unidos que a Meta enfrenta críticas acerca de sua abordagem de moderação de conteúdo. Suas práticas relativas ao tema fora do país e na Europa Ocidental também causam preocupação.
Sobre isso, o Comitê já expressou receio quanto à possibilidade de que ambas as celebridades vítimas de deepfake recebessem tratamento diferente em resposta ao surgimento das imagens falsas na plataforma.
Sabemos que a Meta é mais rápido e eficaz na moderação de conteúdo em alguns mercados e idiomas do que em outros. Ao analisar um caso dos EUA e outro da Índia, queremos ver se a Meta está protegendo todas as mulheres mundialmente de forma justa. É fundamental que este assunto seja abordado e o conselho espera explorar se as políticas e práticas de fiscalização da Meta são eficazes para resolver este problema.
Helle Thorning-Schmidt, copresidente do Comitê de Supervisão da Meta
Crescimento exponencial da pornografia deepfake
Um estudo recente do Channel 4 encontrou deepfakes de mais de quatro mil celebridades. Em janeiro, bombou nas redes sociais um deepfake não-consensual da cantora Taylor Swift, especialmente no X, que restringiu as buscas pelo nome da artistam o que não adiantou muito.
No mês passado, a NBC News informou que anúncios de um app deepfake executado no Facebook e Instagram apresentavam imagens de Jenna Ortega, quando era menor de idade, sem roupas.
Já na Índia, o fenômeno tem como alvo grandes atrizes de Bollywood, como Priyanka Chopra Jonas, Alia Bhatt e Rashmika Mandann.
Pesquisas indicam que, desde o surgimento do deepfake, há meia década, a pornografia criada com esta tecnologia tem as mulheres como grande alvo. Relatórios da WIRED divulgados em 2023 apontaram que 244,62 mil vídeos foram enviados para os 35 principais sites de hospedagem deste tipo de conteúdo, recorde absoluto.
A pornografia deepfake é causa crescente de assédio on-line baseado em gênero e é cada vez mais usada para atingir, silenciar e intimidar mulheres on-line e off-line. Vários estudos mostram que a pornografia deepfake tem como alvo esmagador as mulheres. Este conteúdo pode ser extremamente prejudicial para as vítimas e as ferramentas utilizadas para criá-lo estão a tornar-se mais sofisticadas e acessíveis.
Helle Thorning-Schmidt, copresidente do Comitê de Supervisão da Meta
Em janeiro, legisladores estadunidenses implementaram a Disrupt Explicit Forged Images and Non-Consensual Edits, (DEFIANCE Act), que permite às pessoas cujas imagens foram usadas em pornografia deepfake abrissem processo caso consigam provar que o conteúdo foi forjado sem seu consentimento.
A congressista patrocinadora do projeto, Alexandria Ocasio-Cortez, chegou a ser alvo do mau uso da tecnologia no início deste ano.
As vítimas de deepfakes pornográficos não-consensuais esperaram muito tempo para que a legislação federal responsabilizasse os perpetradores. À medida que os deepfakes se tornam mais fáceis de acessar e criar – 96% dos vídeos deepfake que circulam online são pornografia não-consensual – o Congresso precisa agir para mostrar às vítimas que elas não serão deixadas para trás.
Alexandria Ocasio-Cortez, congressista, no início do ano