Chamou a atenção nos últimos dias o vazamento de uma suposta troca de mensagens de Arthur Aguiar com uma mulher, em tom de flerte. O ator, cantor e ex-"BBB" disse ter reunido provas de que se tratava de uma montagem e mencionou um áudio manipulado com sua própria voz. Ele contou que registrou um boletim de ocorrência. Ultimamente, personalidades da mídia vêm denunciando diversos tipos de golpes que envolvem o uso de Inteligência Artificial e causam prejuízos à sua imagem. Alguns casos já foram resolvidos, mas outros ainda aguardam um desfecho, como o de Isis Valverde, que teve imagens falsas de nudes circulando na internet.
Nesta quarta-feira (24), a influenciadora e apresentadora Virgínia Fonseca alertou seus mais de 48 milhões de seguidores sobre golpes utilizando sua voz recriada através de IA. O mesmo já aconteceu com o ator Mateus Solano e com o apresentador Tiago Leifert. Ambos tiveram as vozes manipuladas para propagandas de jogos on-line de azar. Eles foram às redes sociais para avisar sobre o conteúdo falso e não tomaram outras medidas. Os conteúdos falsos acabaram desaparecendo após os alertas.
Já Debora Bloch e Lilia Cabral tiveram as vozes usadas de forma indevida em anúncios de produtos cosméticos. Elas acionaram o advogado Ricardo Brajterman, que notificou a Meta, empresa responsável por Facebook, Instagram e outras redes. Os conteúdos foram retirados do ar. No último sábado (20), Paolla Oliveira publicou um vídeo contando que passou pelo mesmo problema.
— Não é só uma denúncia, é também, mas é mais para a gente entender como estamos vulneráveis. Vocês sabiam que estão utilizando a minha voz e e o meu rosto sem minha permissão em diversos conteúdos aqui e outras redes disseminando informações falsas? Falando sobre produtos que nunca ouvi falar, divulgando jogos, falsas promoções (...) Vocês sabiam que até um acionamento jurídico nestes casos pode não ter eficácia? Porque a gente não tem regras sobre este assunto. Bora cobrar as plataformas de mídia, o governo, que está discutindo um projeto — disse a atriz.
Houve ainda um caso envolvendo Fabiana Karla, mas este sem IA. A imagem dela foi utilizada sem autorização para ofertar produtos para emagrecer na internet. Brajterman entrou com notificação, e o material parou de ser exibido:
— As empresas geralmente não estão constituídas aqui ou mandam entregar produtos via Sedex. A gente não consegue encontrar CNPJ. Geralmente acionamos a empresa responsável pela rede social e pedimos duas coisas: que ela retire do ar e que informe o IP da máquina. Mas eles não informam o IP por motivo de sigilo, só mediante ordem judicial. Então, quando a notificação não surte efeito, entramos com ação judicial e pedimos que o provedor informe o IP. Uma vez com o número, podemos processar o autor do crime virtual, tanto na esfera cível quanto na criminal.
- TV e famosos: se inscreva no canal da coluna Play no WhatsApp
Além de usarem IA para vender produtos e serviços, os criminosos recorrem à tecnologia para a criação de imagens falsas em que pessoas famosas aparecem nuas. Mel Maia revelou recentemente ter sido vítima de deepfake com um suposto vídeo íntimo. Já Isis Valverde teve falsos nudes divulgados nas redes no fim do ano passado. Ricardo Brajterman assumiu este caso, que está sendo investigado em sigilo pela polícia após a denúncia, mas ainda sem uma resposta sobre quem inseriu o rosto da atriz nas imagens:
— Um desmentido demora meses. Às vezes, anos. O judiciário é muito lento. Ele não anda na velocidade com que as mentiras precisam ser desmentidas. Se algo tomou uma proporção muito grande, sempre recomendo à vítima que se pronuncie nas redes, para que aquilo não vire uma verdade.
Os crimes feitos a partir de IA vêm sendo abordados inclusive na teledramaturgia. Em "Elas por elas", Helena (Isabela Teixeira) fez áudios falsos com a voz de Jonas (Mateus Solano) e enviou para pessoas próximas a ele enquanto o mantinha em cativeiro. Em "Família é tudo", a voz de Luca (Jayme Matarazzo) foi utilizada na criação de uma material falso, com o objetivo de enganar Electra (Juliana Paiva).
— São muito parecidas com a realidade, mas não são perfeitas. É possível ver alguns erros, cortes, sotaque diferente, voz robotizada. É tosco, mas engana muita gente. No futuro, com o desenvolvimento da IA, deve ficar praticamente perfeito — avalia o advogado.
Veja ex-casais que brigaram na Justiça pela guarda dos filhos
SIGA A COLUNA NAS REDES
Inscreva-se na Newsletter: Coluna Play + Patrícia Kogut