Tecnologia
PUBLICIDADE

Por The New York Times — São Francisco

No início do ano passado, um hacker obteve acesso aos sistemas internos de mensagens da OpenAI, fabricante do ChatGPT, e roubou detalhes sobre o projeto das tecnologias de inteligência artificial da empresa.

O hacker obteve detalhes de discussões em um fórum on-line em que os funcionários falavam sobre as tecnologias mais recentes da OpenAI, de acordo com duas pessoas familiarizadas com o incidente, mas não entrou nos sistemas em que a empresa abriga e constrói sua IA.

Os executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco em abril de 2023, de acordo com essas pessoas, que discutiram informações confidenciais sobre a empresa sob condição de anonimato.

Mas os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada, disseram as duas pessoas. Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo privado sem vínculos conhecidos com um governo estrangeiro. A empresa não informou ao FBI ou a qualquer outro órgão de segurança pública.

Clement Delangue, que dirige a empresa de IA Hugging Face, no Capitólio, em Washington. Delangue disse que os pesquisadores chineses de IA estão se aproximando rapidamente de seus colegas americanos — Foto: Kenny Holston/The New York Times
Clement Delangue, que dirige a empresa de IA Hugging Face, no Capitólio, em Washington. Delangue disse que os pesquisadores chineses de IA estão se aproximando rapidamente de seus colegas americanos — Foto: Kenny Holston/The New York Times

Para alguns funcionários da OpenAI, a notícia levantou o temor de que adversários estrangeiros, como a China, pudessem roubar a tecnologia de IA que, embora agora seja principalmente uma ferramenta de trabalho e pesquisa, poderia acabar colocando em risco a segurança nacional dos EUA.

Isso também gerou dúvidas sobre a seriedade com que a OpenAI estava tratando a segurança e expôs as fraturas dentro da empresa sobre os riscos da IA.

Após a violação, Leopold Aschenbrenner, um gerente de programa técnico da OpenAI focado em garantir que as futuras tecnologias de IA não causem danos graves, enviou um memorando à diretoria da OpenAI, argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.

Aschenbrenner disse que a OpenAI o demitiu na primavera deste ano por vazar outras informações fora da empresa e argumentou que sua demissão teve motivação política. Ele fez alusão à violação em um podcast recente, mas os detalhes do incidente não foram relatados anteriormente.

Segundo ele, a segurança da OpenAI não era forte o suficiente para proteger contra o roubo de segredos importantes se agentes estrangeiros se infiltrassem na empresa.

"Apreciamos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou à sua separação", disse uma porta-voz da OpenAI, Liz Bourgeois. Referindo-se aos esforços da empresa para criar inteligência artificial geral, uma máquina capaz de fazer qualquer coisa que o cérebro humano possa fazer, ela acrescentou: "Embora compartilhemos seu compromisso com a criação de uma inteligência artificial geral (AGI na sigla inglês) segura, discordamos de muitas das alegações que ele fez desde então sobre nosso trabalho".

Os temores de que uma invasão de uma empresa de tecnologia dos EUA possa ter vínculos com a China não são irracionais. No mês passado, Brad Smith, presidente da Microsoft, testemunhou no Capitólio sobre como os hackers chineses usaram os sistemas da gigante da tecnologia para lançar um amplo ataque às redes do governo federal.

Daniela Amodei, presidente e cofundadora da Anthropic, em São Francisco. Amodei disse que os riscos dos atuais sistemas de IA não são tão dramáticos — Foto: Marissa Leshnov/The New York Times
Daniela Amodei, presidente e cofundadora da Anthropic, em São Francisco. Amodei disse que os riscos dos atuais sistemas de IA não são tão dramáticos — Foto: Marissa Leshnov/The New York Times

No entanto, de acordo com as leis federais e da Califórnia, a OpenAI não pode impedir que as pessoas trabalhem na empresa por causa de sua nacionalidade, e os pesquisadores de políticas afirmaram que barrar os talentos estrangeiros dos projetos dos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.

"Precisamos das melhores e mais brilhantes mentes trabalhando nessa tecnologia", disse Matt Knight, chefe de segurança da OpenAI, em uma entrevista ao The New York Times. "Ela traz alguns riscos, e precisamos descobrir quais são eles."

(O Times processou a OpenAI e sua parceira, a Microsoft, alegando violação de direitos autorais de conteúdo de notícias relacionado a sistemas de IA).

A OpenAI não é a única empresa que está criando sistemas cada vez mais poderosos usando uma tecnologia de IA que está melhorando rapidamente. Algumas delas - principalmente a Meta, proprietária do Facebook e do Instagram - estão compartilhando livremente seus projetos com o resto do mundo como software de código aberto.

Elas acreditam que os perigos apresentados pelas atuais tecnologias de IA são pequenos e que o compartilhamento do código permite que engenheiros e pesquisadores de todo o setor identifiquem e corrijam problemas.

Os sistemas de IA atuais podem ajudar a disseminar a desinformação on-line, incluindo textos, imagens estáticas e, cada vez mais, vídeos. Eles também estão começando a eliminar alguns empregos.

Empresas como a OpenAI e seus concorrentes Anthropic e Google adicionam proteções a seus aplicativos de IA antes de oferecê-los a indivíduos e empresas, na esperança de evitar que as pessoas usem os aplicativos para espalhar desinformação ou causar outros problemas.

Mas não há muitas evidências de que as tecnologias de IA atuais representem um risco significativo à segurança nacional. Estudos realizados pela OpenAI, Anthropic e outros no ano passado mostraram que a IA não era significativamente mais perigosa do que os mecanismos de busca.

Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua mais recente tecnologia de IA não seria um grande risco se seus projetos fossem roubados ou compartilhados livremente com outras pessoas.

Se fosse propriedade de outra pessoa, isso poderia ser extremamente prejudicial para grande parte da sociedade? Nossa resposta é: "Não, provavelmente não", disse ela ao Times no mês passado. "Isso poderia acelerar algo para um mau ator no futuro? Talvez. Isso é realmente especulativo."

Ainda assim, pesquisadores e executivos de tecnologia há muito se preocupam com a possibilidade de a IA um dia alimentar a criação de novas armas biológicas ou ajudar a invadir os sistemas de computadores do governo. Alguns até acreditam que ela poderia destruir a humanidade.

Webstories
Mais recente Próxima Já em teste: Como é o avião elétrico chinês que poderá voar 3 mil km com bateria 'ultracondensada'
Mais do Globo

Supremo suspendeu cobrança de ITCMD para alguns casos em 2021, até que seja promulgada lei complementar sobre o tema

Justiça impede cobrança de imposto sobre heranças e bens no exterior, ampliando alcance de decisão do STF

Ex-presidente afirma falsamente não saber nada sobre o documento, que propõe políticas conservadoras para um possível segundo mandato do republicano

Contra pornografia e aborto e a favor de deportação em massa: o que é o Projeto 2025 e por que Trump tenta se afastar dele?

O consumo de lixo digital gera danos na vida real: a primeira é a perda de um tempo que poderia ser melhor usado

Como apodrecer seu cérebro

Ela largou a carreira de advogada e converteu em cozinha a garagem da casa dos pais, arriscando-se no negócio de bolos e doces em 1995

A doceira dos famosos

Até abril de 2025, mais de 200 eventos e atividades serão promovidos em Estrasburgo e em seus arredores

Estrasburgo é a capital mundial do livro em 2024

A irmã do presidente, Karina Milei, e Santiago Caputo, braço-direito dele, estão por trás da estratégia do conflito permanente

Os estrategistas por trás de Milei

Em meio a controvérsias, Apple, Google, Microsoft, Meta e OpenAI avançam com novas funções de IA espelhadas em seus produtos e serviços

Do e-mail às redes sociais: como as big techs têm transformados IAs em assistentes onipresentes

Dizem que ajuda na perda de peso, controle do açúcar no sangue, acne e outras coisas

Intestino, pele, emagrecimento: os mitos e verdades sobre a ação do vinagre de mação na saúde

Milhões de americanos e brasileiros usam cigarros eletrônicos, mas há pouca pesquisa sobre como ajudá-los a parar

Como parar de fumar vape? Médicos afirmam que é mais difícil do que largar o cigarro, mas há caminhos