O Google vai aprimorar seu motor de busca para reduzir a exibição de conteúdos de pornografia falsos, gerados por inteligência artificial sem o consentimento de pessoas envolvidas, e que muitas vezes aparecem nos resultados de pesquisas.
O ajuste será necessário diante de uma explosão na disseminação de imagens fakes e não autorizadas de sexo explícito criadas por ferramentas de inteligência artificial generativa.
- Pornografia formalizada: Entenda quais são as regras do X, antigo Twitter, para conteúdos adultos
- Deepfake: Entenda técnica de manipulação de imagem que expôs Mel Maia na web
Quando esse conteúdo gerado por IA apresenta o rosto ou o corpo de uma pessoa real sem a sua autorização, essa pessoa pode solicitar a sua remoção dos resultados de busca. Agora, quando o Google decidir que uma remoção de conteúdo é necessária, ele filtrará todos os resultados em pesquisas semelhantes e removerá imagens duplicadas, disse a empresa nesta quarta-feira em um post em seu blog.
O Google também afirmou que melhorou os seus sistemas de classificação de busca para que conteúdo falso explícito não apareça como resultados principais.
— Nós já tínhamos políticas para permitir que as pessoas removessem esse conteúdo se o encontrassem na pesquisa, mas estamos no meio de uma mudança tecnológica — disse Emma Higham, gerente de produto que lidera as proteções para a tecnologia de IA generativa do Google na ferramenta de busca e em outros aplicativos. — Como em toda mudança tecnológica, também estamos vendo novos abusos.
Em 2023, a Bloomberg descobriu que o Google Search era a principal fonte de tráfego para sites que hospedam deepfakes, ou pornografia gerada por IA. No Google, uma busca por muitas celebridades conhecidas combinada com a palavra “deepfake” direcionava os usuários para MrDeepfakes.com e outros sites que existem principalmente para negociar imagens pornográficas.
- Empresário, político e fortuna de R$ 5,5 bi: Saiba quem é o húngaro que entrou na lista de mais ricos da Forbes com site pornô
Um ano atrás, o Google Search representava 44% das quatro milhões de visitas de desktop a MrDeepfakes.com, de acordo com dados da Similarweb.
O Google tem ajustado os resultados para consultas que buscam especificamente conteúdo deepfake vinculado ao nome de alguém. Em vez de mostrar essas imagens, o motor de busca será treinado para exibir conteúdo de alta qualidade e não explícito, como artigos de notícias, quando esses resultados estiverem disponíveis, disse a empresa.
Até agora, essas mudanças reduziram a exposição a resultados de imagens explícitas nesses tipos de consultas em mais de 70%, informou a empresa.
Entre abril e maio, o tráfego de busca nos EUA para os dois principais sites de pornografia deepfake despencou, de acordo com dados da Similarweb publicados em uma reportagem da Bloomberg de maio.
O Google também está rebaixando sites que apresentam um alto volume de páginas que foram removidas da busca porque violaram políticas contra conteúdo falso explícito, disse a empresa em sua postagem no blog.
Em uma entrevista separada, Emma Higham, a gerente de produto, ressaltou que o Google está enfrentando novos desafios ao decidir quando agir em relação a imagens explícitas não consensuais e quando deixar os resultados em seu motor de busca intactos, citando a necessidade de equilibrar a capacidade dos usuários de encontrar informações com a segurança on-line.
Defensores têm criticado o fato de o Google ter desclassificado, em vez de remover completamente da lista, o conteúdo deepfake.
—Temos que ter cuidado para não adotarmos uma abordagem demasiadamente brusca e termos consequências indesejadas no acesso à informação — disse Emma, referindo-se a performers adultos que podem não querer que os conteúdo explícitos e consensuais sejam retirados da classificação do no motor de busca. — Mas quando vemos que há consultas de alto risco e um alto risco de conteúdo explícito falso aparecendo de forma não consensual, estamos tomando medidas drásticas.