Apesar de ter largado na frente ao regulamentar, a nível federal, o uso de inteligência artificial (IA) nas eleições, o Brasil terá como desafio colocar em prática o controle sobre os abusos da tecnologia durante as campanhas deste ano. As especificidades de algumas redes sociais e a velocidade da propagação do conteúdo são alguns dos entraves.
Com eleições em alguns dos países mais populosos do mundo, como Estados Unidos, Índia, Indonésia, México e Reino Unido, além do pleito municipal do Brasil, este ano pode ser um ponto de virada no uso de conteúdo enganoso nas campanhas. Isso porque ferramentas para criar e manipular imagens, vídeos e áudios se tornaram mais acessíveis.
Em 27 de fevereiro, o Tribunal Superior Eleitoral (TSE) aprovou 12 resoluções que disciplinam as regras a serem aplicadas no processo eleitoral deste ano. As novidades envolvem o uso de inteligência artificial na propaganda: a exigência de rótulos de identificação de conteúdo sintético multimídia; a restrição ao uso de chatbots e avatares para intermediar a comunicação da campanha, que não poderá simular interlocução com pessoa real; e a vedação de uso de deepfakes (conteúdo sintético em formato de áudio, vídeo ou combinação de ambos, que tenha sido gerado ou manipulado digitalmente).
Dificuldade concreta
Professor do Insper e do Ibmec, Gustavo Macedo, que é especialista em ética e inteligência artificial, diz que a iniciativa do TSE coloca o país na vanguarda da discussão, independentemente do mérito das regras aprovadas:
— Como toda vanguarda, há riscos. Não sabemos o que vai dar certo e errado. Mas com certeza os outros países estão estudando o caso brasileiro, acompanhando nosso debate. Nesse sentido temos a oportunidade de exportar boas práticas de regulação de IA.
Casos de deepfake eleitoral já identificados dão a dimensão, no entanto, do desafio que será a aplicação da nova regra. Em ação que corre na Justiça Eleitoral do Paraná, por exemplo, o pré-candidato do PP à prefeitura de Maringá, Silvio Barros, não conseguiu impedir a continuidade da circulação de um material falso pelo WhatsApp. Barros teve um áudio fabricado por IA em que ele anuncia ter desistido de concorrer ao cargo, o que não ocorreu.
Na semana passada, o juiz Nicola Frascati Junior, do Tribunal Regional Eleitoral do estado, que já havia determinado o bloqueio da disseminação do conteúdo, destacou que o WhatsApp declarou ser “impossível o impedimento” de que os usuários da rede “veiculem novamente o conteúdo tido por ilícito”.
A Meta, dona do WhatsApp, alega que, por ser um “sistema de criptografia ponta-a-ponta”, é “descabida eventual imposição de filtragem prévia de conteúdo de determinada mensagem antes de que ela chegue ao seu destinatário”. Empresas de aplicativos de mensagens possuem a seu favor jurisprudência firmada de que aplicativos de mensagem não são obrigadas a violar a criptografia para cumprir decisões judiciais.
O GLOBO procurou a Meta, que também é dona do Facebook e Instagram, o Google (YouTube) e o TikTok para comentar as normas aprovadas pelo TSE, mas as empresas não responderam.
— Esse requerimento de transparência (aprovado no TSE) está alinhado com legislações debatidas no mundo. Tem muitas legislações estaduais americanas que exigem essa rotulagem — diz Laura Schertel Mendes, professora de Direito Civil na Universidade de Brasília (UnB).
Nos Estados Unidos, ao menos cinco estados já aprovaram regulamentações sobre o uso de inteligência artificial nas eleições deste ano. Michigan, Minnesota e Texas preveem sanções na esfera criminal para infratores, enquanto as regras em Washington e na Califórnia se restringem à esfera cível.
As leis vão desde a obrigação de identificar claramente que se trata de um conteúdo manipulado até o banimento completo desse tipo de uso sem consentimento. As restrições variam entre 30 e 90 dias antes da eleição, e as punições vão de medidas cautelares e indenizações até multas e prisões. Em Minnesota, onde há as regras mais rígidas, reincidências podem levar a cinco anos de prisão e multa de 10 mil dólares. Outros 14 estados americanos discutem aprovar projetos de lei sobre o tema ainda neste ano.
A pressão pela regulamentação vem crescendo após a aparição de deepfakes nas primárias americanas. Autoridades de New Hampshire começaram a investigar em janeiro relatos de uma aparente chamada automática (robocall) que usava inteligência artificial para imitar a voz do presidente Joe Biden e desencorajar os eleitores do estado de irem às urnas.
Especialistas dizem esperar que as eleições de 2024 sirvam como “laboratório” para se observar as tendências do uso popularizado da inteligência artificial. As eleições argentinas, no ano passado, apontaram para algumas direções, pois tanto o presidente eleito, Javier Milei, quanto o candidato peronista Sergio Massa, e seus respectivos apoiadores, adotaram essas tecnologias para produzir materiais de campanha — e, por vezes, produzir desinformação.
Punições às plataformas
Executivos de grandes empresas ouvidos pelo GLOBO temem que as resoluções do TSE deem margem para interpretações divergentes. A principal preocupação é com a possibilidade de punição das plataformas.
O texto do TSE prevê a responsabilização pela veiculação de conteúdo ilegal se não for retirado do ar “imediatamente”. O significado do termo, porém, ainda não está claro. Se isso deve ocorrer logo após a postagem, e a empresa é obrigada a criar uma resposta automatizada; se deve ocorrer após decisão judicial; ou depois de notificação extrajudicial do TSE às plataformas ou aos partidos.
Para evitar interpretações divergentes, o TSE organiza cursos de capacitação para juízes de todo o país sobre as novas regras. O tribunal também decidiu convidar representantes de plataformas para conversar com os magistrados que devem atuar nas eleições municipais. O objetivo é esclarecer as políticas de uso das redes, bem como questões técnicas relacionadas ao funcionamento das ferramentas.
Na próxima terça-feira, o ministro Alexandre de Moraes, presidente do TSE, irá inaugurar um centro integrado contra a desinformação, na sede do tribunal. A ideia é que o órgão seja formado pelo Ministério Público Eleitoral, governo federal e Ordem dos Advogados do Brasil (OAB) com função de monitorar o tema durante a campanha.
Durante a Conferência de Segurança de Munique, realizada no mês passado na Alemanha, 20 empresas líderes de tecnologia, incluindo Google, Meta, TikTok e X (antigo Twitter), firmaram acordo para trabalharem juntas na detecção e combate a fake news geradas por IA nas eleições de 2024.
Inscreva-se na Newsletter: Jogo Político