Tecnologia
PUBLICIDADE

Por Cade Metz, do The New York Times — Toronto

Geoffrey Hinton era um pioneiro da Inteligência Artificial (IA). Em 2012, o doutor Hinton e dois estudantes de pós-graduação da Universidade de Toronto criaram uma tecnologia que se tornou a base intelectual para os sistemas de IA que grandes companhias acreditam ser a chave para o futuro.

Na segunda-feira, no entanto, ele oficialmente se juntou a um coro de críticos, que dizem que essas mesmas companhias estão correndo em direção ao perigo por conta de sua campanha agressiva para criar produtos baseados em inteligência artificial generativa, a tecnologia que se popularizou com chatbots como o Chat GPT.

Doutor Hinton disse que deixou seu emprego no Google, onde trabalhou por mais de uma década e se tornou uma das vozes mais respeitadas na área, para falar livremente sobre os riscos da inteligência artificial. Uma parte dele, diz, agora lamenta o trabalho de sua vida.

“Eu me consolo com a desculpa habitual: se eu não tivesse feito isso, alguém teria”, disse Hilton durante uma longa entrevista na semana passada na mesa de jantar de sua casa em Toronto, a uma curta caminhada de distância de onde ele e seus estudantes fizeram a grande descoberta.

A jornada da inteligência artificial inovadora para a apocalíptica marca um momento particular para a indústria de tecnologia e talvez o seu ponto de inflexão mais importante em décadas. Líderes da indústria acreditam que os os novos sistemas de IA podem ser tão importantes quanto a introdução do navegador da internet no início dos anos 1990 e podem levar a avanços em áreas que vão desde a pesquisa de drogas até a educação.

Mas o medo de liberar algo perigoso na natureza está sendo o tormento de muitos membros da indústria. A IA generativa já pode ser uma ferramenta de desinformação. Logo, pode se tornar um risco para empregos. Em algum momento, dizem os maiores temores da tecnologia, pode ser um risco para a humanidade.

“É difícil ver como você pode impedir que maus atores o usem para coisas ruins”, afirma Hinton.

Depois que a OpenAI, uma start-up de São Francisco, lançou uma nova versão do Chat GPT em março, mais de mil líderes e pesquisadores de tecnologia assinaram uma carta aberta pedindo uma moratória de seis meses no desenvolvimento de novos sistemas. O argumento era de que tecnologias de IA representam “riscos profundos para a sociedade e para a humanidade”.

Alguns dias depois, dezenove atuais e ex-líderes da Associação para o Avanço da Inteligência Artificial, uma sociedade acadêmica de 40 anos, divulgaram sua própria carta alertando sobre os riscos da IA. Esse grupo incluía Eric Horvitz, diretor científico da Microsoft, que implantou a tecnologia da OpenAI em uma ampla gama de produtos, incluindo seu mecanismo de busca Bing.

Hinton, normalmente chamado de “O poderoso chefão da IA", não assinou nenhuma das duas cartas e disse que não queria criticar publicamente o Google e outras companhias antes de deixar seu trabalho.

O cientista chefe da Google, Jeff Dean, disse em um comunicado: “Nós nos mantemos comprometidos com uma abordagem responsável da IA. Vamos continuar aprendendo a entender riscos potenciais enquanto inovamos de forma ousada”.

Hinton, um britânico expatriado de 75 anos, é um acadêmico de longa data, cuja carreira foi impulsionada por suas convicções pessoais sobre o desenvolvimento e uso de IA. Em 1972, como estudante de pós-graduação na Universidade de Edimburgo, Hinton embarcou em uma ideia chamada rede neural. Uma rede neural é um sistema matemático que aprende habilidades analisando dados. Na época, poucos pesquisadores acreditaram na ideia. Mas tornou-se o trabalho de sua vida.

Nos anos 1980, Hinton era um professor de ciência da computação na Carnegie Mellon University, mas deixou a universidade pelo Canadá por se dizer relutante em aceitar fundos do Pentágono. Naquela época, a maior parte das pesquisas em IA nos Estados Unidos era financiada pelo Departamento de Defesa. Hinton foi profundamente contrário ao uso de inteligência artificial em campos de batalha — o que ele chamou de “robôs soldados”.

Em 2012, Hinton e dois de seus alunos em Toronto, Ilya Sutskever e Alex Krichevsky, construíram uma rede neural que poderia analisar milhares de fotos e aprender a identificar objetos comuns, como flores, cachorros e carros.

A Google gastou US$ 44 milhões para adquirir a companhia fundada por Hilton e seus dois estudantes. O sistema criado por eles levou ao desenvolvimento de tecnologias mais potentes, incluindo chatbots como Chat GPT e Google Bard. Sutskever tornou- se cientista-chefe da OpenAI. Em 2018, Hinton e dois outros colaboradores de longa data receberam o Prêmio Turing, muitas vezes chamado de “Prêmio Nobel da computação”, por seu trabalho em redes neurais.

Por volta do mesmo período, Google, OpenAI e outras companhias começaram a construir redes neurais que aprendem a partir de uma grande quantidade de textos digitais. Hinton avaliou que esse era um jeito poderosos para máquinas entenderem e criar linguagem, mas inferior ao modo como humanos lidam com a linguagem.

Então, no último ano, o Google e a OpenAI construíram sistemas usando uma grande quantidade de dados. Hinton ainda acreditava que esses sistemas eram inferiores à mente humanas em alguns aspectos, mas achava que eles estavam eclipsando a inteligência humana em outros. “Talvez o que esteja acontecendo nesses sistemas”, disse, “é na verdade bem melhor do que o que acontece no cérebro”.

Na medida que as companhias melhoraram seus sistemas de inteligência artificial, ele acredita, se tornaram cada vez mais perigosas. “Olhe como era a cinco anos atrás e como é agora. Pegue a diferença e projete para a frente. É assustador”, afirmou.

Até o ano passado, ele diz que o Google agia como um “administrador adequado” para a tecnologia, tomando cuidado para não liberar algo que pudesse causar danos. Mas agora que Microsoft melhorou o mecanismo de pesquisa Bing com um chatbot — desafiando a essência do negócio da Google — o Google está correndo para implantar o mesmo tipo de tecnologia. Os gigantes da tecnologia estão presos em uma competição que pode ser impossível de parar, disse o Dr. Hinton.

Sua preocupação imediata é que a internet seja inundada com fotos, vídeos e textos falsos, e a pessoa comum “não será mais capaz de saber o que é verdade”.

Ele também está preocupado que tecnologias de IA se tornem o mercado de trabalho. Hoje, chatbots como o Chat GPT tendem a complementar os trabalhadores humanos, mas podem substituir assistentes pessoais, tradutores e outros profissionais que lidam com tarefas rotineiras. “Isso tira o trabalho pesado”, disse ele. “Pode levar a mais do que isso.”

Ele se preocupa que as versões futuras da tecnologia representem uma ameaça para a humanidade, porque muitas vezes aprendem comportamentos inesperados com a grande quantidade de dados que analisam. Isso se torna um problema, disse ele, à medida que indivíduos e empresas permitem que sistemas de IA não apenas gerem seu próprio código de computador, mas realmente executem esse código por conta própria. E ele teme o dia em que armas verdadeiramente autônomas – aqueles robôs assassinos – se tornem realidade.

“A ideia de que essas coisas poderiam realmente ficar mais inteligentes do que as pessoas – algumas pessoas acreditaram nisso”, disse ele. “Mas a maioria das pessoas achou que estava errada. E eu pensei que estava longe. Eu pensei que era de 30 a 50 anos ou até mais longe. Obviamente, não penso mais nisso.”

Muitos outros especialistas, incluindo muitos de seus alunos e colegas, dizem que essa ameaça é hipotética. Mas o Hinton acredita que a corrida entre o Google e a Microsoft e outros vai se transformar em uma corrida global que não vai parar se não houver algum tipo de regulamentação global.

Mas isso pode ser impossível, disse ele. Ao contrário das armas nucleares, disse ele, não há como saber se empresas ou países estão trabalhando nessa tecnologia em segredo. A melhor esperança é que os principais cientistas do mundo colaborem com formas de controlar a IA. “Não acho que eles devam escalar mais até entenderem se podem controlá-lo”, disse ele.

Hinton disse que quando as pessoas o perguntavam como ele conseguia trabalhar com tecnologias potencialmente perigosas, ele parafraseava Robert Oppenheimer, que liderou o esforço dos Estados Unidos para construir a bomba atômica: “Quando você vê que algo é tecnicamente bom, vá em frente e faça”.

Ele não diz mais isso.

Mais recente Próxima ChatGPT: Samsung bane ferramenta de IA para funcionários após vazamentos de dados
Mais do Globo

Valor não acumula e caso ninguém garante os 15 números, prêmio máximo será dividido entre outros acertadores

Lotofácil especial de Independência sorteia R$ 200 milhões nesta segunda; saiba como apostar

Associação de descendentes emitiu 'parecer desfavorável' à manutenção definitiva do símbolo olímpico no ponto turístico

Herdeiros de Eiffel cobram retirada dos anéis olímpicos da torre ícone de Paris

A Polícia de Queensland emitiu um mandado de prisão para um homem de 33 anos procurado por atos com a intenção de causar danos corporais graves,

Homem que jogou café quente em bebê vira alvo de caçada internacional; criança já passou por quatro cirurgias

Proposta é oferecer rótulos de pequenos produtores; comidinhas também são artesanais

Vinho brasileiro na torneira: Casa Tão Longe, Tão Perto abre em Botafogo

Pelo menos duas mil pessoas que fugiram dos seus países vivem na cidade

Debate sobre refugiados travado por candidatos a prefeito de Niterói  repercute entre imigrantes

Trata-se de mais um caso que pode beneficiar uma figura ligada ao jogo do bicho

'Gerente' ligado a Rogerio Andrade pede a Nunes Marques para sair da prisão

Wide receiver foi imobilizado de bruços perto de estádio e liberado a tempo de partida do Miami Dolphins contra o Jacksonville Jaguars

Policial que algemou astro da NFL a caminho de jogo é afastado, e atleta quebra silêncio: 'E se eu não fosse Tyreek Hill?'