Tecnologia
PUBLICIDADE

Por O GLOBO, com agências internacionais

O bilionário Elon Musk e mais de mil pesquisadores, especialistas e executivos do setor de tecnologia publicaram nesta quarta-feira uma carta aberta conclamando empresas do mundo inteiro a realizarem uma pausa de seis meses no desenvolvimento de novas ferramentas de inteligência artificial (IA), como o popular ChatGPT, diante do que chamaram de “perigosa” corrida armamentista.

A carta foi divulgada pelo Future of Life Institute, um grupo sem fins lucrativos, e ganhou a adesão de centenas de acadêmicos e executivos do setor em poucas horas desde que foi tornada pública.

“Nos últimos meses, vimos os laboratórios de Inteligência Artificial em uma corrida fora do controle para desenvolver e aprimorar mentes digitais que ninguém - nem seus próprios criadores – consegue entender, prever ou controlar de forma confiável”, diz a carta, que menciona riscos à sociedade e à humanidade.

O Future of Life Institute tem Musk como um dos seus maiores financiadores e é liderado por Max Tegmark, professor do Instituto de Tecnologia de Massachusetts (MIT) e pesquisador de IA.

Entre os signatários da carta estão os mais conceituados pesquisadores sobre inteligência artificial, como os professores Stuart Russel, da Universidade de Montreal, e Youshua Bengio, de Berkeley, além de pensadores como o escritor Yuval Noah Harari.

Steve Wozniak, cofundador da Apple, também assina o documento, além de outros executivos do setor, como os fundadores de startups de IA como Stability AI e Charcacter.ai.

Moratória de seis meses

Eles pedem uma pausa no desenvolvimento dessa nova tecnologia até que protocolos de segurança sejam desenvolvidos, implementados, compartilhados e auditados por especialistas independentes. E, caso os laboratórios de IA não consigam fazer essa suspensão nas pesquisas, eles conclamam os governos a agirem e instituírem uma moratória:

"Pedimos a todos os laboratórios de IA que pausem imediatamente, por pelo menos seis meses, os treinamentos de sistemas de IA mais poderosos do que o GPT-4 (a versão mais atual do ChatGPT). Esta pausa precisa ser pública e verificável, e incluir todos os atores relevantes. Se esta pausa não puder ser colocada em prática rapidamente, os governos devem tomar medidas e estabelecerem uma moratória (nas pesquisas)", diz a carta.

Os protocolos de segurança a serem criados, dizem os signatários da carta, não apenas precisam ter auditoria independente como devem "garantir que os sistemas serão seguros acima de qualquer dúvida razoável".

Imagem de Papa Francisco vestindo jaqueta puffer branca foi gerada por inteligência artificial — Foto: Reprodução
Imagem de Papa Francisco vestindo jaqueta puffer branca foi gerada por inteligência artificial — Foto: Reprodução

"Todos os sistemas com inteligência que rivalizem com a humana podem apresentar riscos profundos à sociedade e à humanidade", alertam.

Musk é um dos cofundadores do laboratório de pesquisa sem fins lucrativos OpenAI, junto com Sam Altman, que também é o diretor executivo da OpenAI. O bilionário deixou a plataforma em 2018 e se tornou um crítico dela desde então.

Na época, o objetivo da OpenAI era “avançar a inteligência digital da maneira mais provável para beneficiar a humanidade como um todo, sem restrições pela necessidade de gerar retorno financeiro”.

Entre os primeiros mil signatários da carta, há ainda engenheiros e pesquisadores da Microsoft, Google, Amazon e Meta (dona do Facebook e do Instagram). O documento também é assinado pelos cofundadores do Skype e do Pinterest, Jaan Tallinn e Evan Sharp, respectivamente.

Yoshua Bengio, fundador e diretor científico do instituto canadense de pesquisa em IA Mila, assinou a petição, de acordo com um comunicado do instituto. Emad Mostaque, fundador e CEO da Stability AI, também.

“Vimos as incríveis capacidades do GPT-4 e outros modelos massivos. Aqueles que os fabricam disseram que podem ser uma ameaça existencial para a sociedade e até para a humanidade, sem nenhum plano para mitigar totalmente esses riscos”, disse Mostaque. “É hora de colocar as prioridades comerciais de lado e fazer uma pausa para o bem de todos para avaliar, em vez de correr para um futuro incerto.”

Ação dos governos

O Reino Unido vai publicar um documento nesta quarta-feira pedindo aos reguladores que desenvolvam uma abordagem consistente sobre o uo da Inteligência Artificial nas diferentes indústrias, de modo a assegurar que os sistema de Inteligência Artificial sejam justos e transparentes. No entanto, o governo britânico não vai dar mais poder ou recursos aos reguladores com este intuito, ao menos por enquanto.

A União Europeia também está preparando sua própria legislação sobre como a IA será usada na Europa, que deverá prever multas para empresas que violarem as regras.

O que diz a carta

Veja alguns trechos da carta:

"Os sistemas de Inteligência Artificial contemporâneos estão se tornando competidores dos humanos em tarefas generalizadas, temos que nos perguntar: vamos deixar as máquinas inundarem nossos canais de informação com propaganda e inverdades?

Devemos automatizar todas as profissões? Devemos desenvolver cérebros não-humanos que podem eventualmente nos exceder em número e inteligência, nos tornar obsoletos e nos substituir? Devemos perder o controle da nossa civilização?

Essas decisões não devem ser tomadas por líderes da área de tecnologia que não foram eleitos. Sistemas de IA poderosos devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos sejam positivos e seus riscos possam ser gerenciáveis.

Um comunicado recente da OpenAI (empresa que desenvolveu o ChatGPT) sobre Inteligência Artificial em geral diz que "em algum ponto, será importante ter uma revisão independente antes de começarmos a treinar sistemas futuros, e ter os mais avançados esforços em concordância sobre limites ao crescimento dos computadores usados para criar esses novos modelos". Nós concordamos. Esse ponto é agora.

Laboratórios de IA e especialistas independentes deveriam usar essa pausa para desenvolver e implementar conjuntamente protocolos de segurança para modelos avançados de IA que possam ser auditados e supervisionados rigorosamente por especialistas independentes.

Esses protocolos devem assegurar que os sistemas a eles aderentes são seguros além de qualquer dúvida razoável. Isso não significa uma pausa no desenvolvimento da IA em geral, apenas um passo atrás na perigosa corrida pelos maiores e imprevisíveis modelos caixa-preta de IA.

Toda pesquisa e desenvolvimento deve ser focada em fazer os atuais sistemas, poderosos e que estão no estado da arte, mais acurados, seguros, interpretáveis, transparentes, robustos, alinhados, confiáveis e leais.

Em paralelo, todos os desenvolvedores de IA devem trabalhar com os que elaboram as políticas para acelerar dramaticamente o desenvolvimento de sistemas de governança robustos.

Isso deve incluir ao menos: novas e capazes autoridades regulatórias dedicadas a IA; supervisão e rastreio de sistemas de IA altamente capazes e de pools de capacidade computacionais; assegurar que os sistemas tenham uma espécie de marca d´água bem como procedência que nos ajude a distinguir o real do sintético.

Também deve haver rastreamento de vazamentos desses modelos; criação de um ecossistema de certificação e auditoria; previsão de responsabilidades para danos que possam ser causados pela IA, financiamento público robusto para pesquisa sobre segurança de IA, além de instituições capitalizadas para lidar com as disrupções econômicas e políticas (que impactarão especialmente a democracia) causadas pela IA."

Webstories
Mais recente Próxima Twitter: Elon Musk anuncia que apenas pagantes aparecerão na aba 'para você'
Mais do Globo

Um dos envolvidos já havia sido preso e confessou ter entrado em uma briga com as vítimas

Chacina da sinuca: o que se sabe sobre briga após campeonato em Sergipe que terminou com seis mortos, um preso e dois foragidos

Num deles, Alexandre de Moraes é sugerido como sendo 'advogado do PCC'

Eleições SP: campanha digital de Nunes lança série de vídeos de ataques a Marçal

A decisão é da 4ª Câmara de Direito Privado do TJ do Rio

Vendedora ambulante será indenizada após ser abordada com violência no Metrô do Rio

Como francês Stephan Dunoyer de Segonzac deu pontapé inicial do esporte no país ao decolar dos pés do Cristo Redentor, em setembro de 1974

'Homem-pipa': O voo que inaugurou a asa-delta no Brasil, há 50 anos

Neurocirurgião Jacinto Lay sofreu queda em março do ano passado, quando pilotava sozinho uma aeronave de pequeno porte

Estado de saúde de médico que pilotava avião que caiu em Teresina é grave; piloto já tinha caído outra vez

BepiColombo, uma missão conjunta europeia e japonesa, concluiu seu último sobrevoo por Mercúrio, enviando uma prévia do planeta cheio de crateras que começará a orbitar em 2026

Novas imagens mostram a superfície de Mercúrio como nunca vista antes;  veja com detalhes nítidos

Supremo Tribunal Federal reservou três semanas para ouvir 85 testemunhas de defesa de cinco réus, sendo que algumas são as mesmas, como os delegados Giniton Lages e Daniel Rosa, que investigaram o caso

Caso Marielle: audiência da ação penal contra irmãos Brazão e Rivaldo Barbosa será retomada hoje pelo STF

A decisão do candidato da oposição de deixar a Venezuela por temer pela sua vida e pela da sua família ocorreu depois de ter sido processado pelo Ministério Público por cinco crimes relacionados com a sua função eleitoral

Saiba como foi a fuga de Edmundo González, candidato de oposição da Venezuela ameaçado por Nicolás Maduro

Cidade contabiliza 21 casos desde 2022; prefeitura destaca cuidados necessários

Mpox em Niterói: secretária de Saúde diz que doença está sob controle