Um engenheiro de sistemas da Microsoft enviou cartas para o Conselho de Administração da companhia, legisladores e para a FTC, a agência que regula o mercado consumidor nos EUA, alertando que a big tech não está fazendo o suficiente para manter a segurança de sua ferramenta de imagens por inteligência artificial (IA), impedindo-o de criar conteúdo abusivo e violento.
O profissional se refere ao Copilot Designer, variante das ferramentas de IA que a Microsoft tem oferecido a seus usuários.
Shane Jones afirmou que descobriu uma vulnerabilidade de segurança no mais recente modelo gerador de imagens DALL-E, da OpenAI (da qual a Microsoft é parceira e investidora) que permitiu que ele ultrapassasse barreiras que preveniria a ferramenta de criar imagens que possam causar danos. O modelo DALL-E é embutido em várias das ferramentas de IA da Microsoft, incluindo o Copilot Designer.
Jones afirmou que reportou suas descobertas à Microsoft insistentemente nos últimos três meses e “repetidamente insistiu” perante a companhia pela “retirada do Copilot Designer do acesso do público até que melhores salvaguardas pudessem ser postas em prática”, de acordo com uma carta enviada para a FTC à qual a agência Bloomberg teve acesso.
“Enquanto a Microsoft está fazendo publicidade do Copilot Designer como um produto seguro parar o uso por qualquer pessoa, incluindo crianças de qualquer idade, internamente a companhia está bem informada sobre pontos sistemáticos onde o produto está criando imagens perigosas, que podem ser ofensivas ou inapropriadas para os consumidores”, escreve Jones.
Ele continua:
“O Copilot Designer, da Microsoft, não inclui os alertas ou avisos necessários para que os usuários do produto possam estar conscientes desses riscos.
Teorias da conspiração, sexualização e outros problemas
Na carta à FTC, Jones disse que o Copilot Designer tinha a tendência de gerar aleatoriamente uma “imagem inadequada e sexualizada de uma mulher em algumas das imagens que cria”.
Ele também afirmou que a ferramenta de IA criava “conteúdo prejudicial em várias outras categorias, incluindo: viés político, consumo de álcool e drogas por menores, uso indevido de marcas comerciais e direitos autorais corporativos, teorias da conspiração e religião, para citar algumas”.
A FTC confirmou que recebeu a carta, mas se recusou a comentar mais detalhes. Parlamentares destinatários das cartas também não quiseram se pronunciar. Em uma das cartas enviadas a congressistas, Jones pediu aos legisladores que investigassem os riscos das “tecnologias de geração de imagens de IA e as práticas de governança corporativa e de IA responsável das empresas que constroem e comercializam esses produtos”.
O episódio se soma às crescente preocupações sobre a tendência de ferramentas de IA gerarem conteúdo perigoso. Na semana passada, a Microsoft afirmou que estava investigando relatórios de que o chatbot do Copilot estava gerando respostas que os usuários classificaram como mentalmente perturbadoras, inclusive mensagens contraditórias sobre suicídio.
Em fevereiro, o Gemini, que é o carro-chefe da Alphabet, dona do Google, na área de IA, foi criticado por gerar cenas historicamente imprecisas quando solicitado a criar imagens de pessoas.
“Eu não acredito que precisamos esperar por regulamentação governamental para garantir que sejamos transparentes com os consumidores sobre os riscos da IA”, disse Jones na carta que enviou a conselheiros da Microsoft. “Dadas nossos valores corporativos, devemos divulgar voluntariamente e de forma transparente os riscos conhecidos da IA, especialmente quando o produto de IA está sendo ativamente comercializado para crianças.”
Em um comunicado, a Microsoft afirmou que está “comprometida em abordar todas as preocupações que os funcionários têm”, de acordo com as políticas da empresa. E adicionou que “aprecia os esforços dos empregados em estudar e testar nossa tecnologia mais recente para aprimorar ainda mais sua segurança”. A OpenAI não respondeu.