Tecnologia
PUBLICIDADE
Por — São Paulo

RESUMO

Sem tempo? Ferramenta de IA resume para você

GERADO EM: 30/07/2024 - 04:01

Desafios na Evolução da IA: Erros Lógicos e Treinamento por Robôs

Avanço da inteligência artificial enfrenta desafios com erros lógicos humanos e treinamento de robôs por robôs, revelam estudos. IA como o ChatGPT incorpora falhas de raciocínio humano, e robôs treinados com textos de máquinas entram em colapso. Pesquisas alertam para limitações na evolução da IA devido a esses problemas.

Dois novos estudos indicam que modelos de inteligência artificial como o ChatGPT deverão enfrentar dificuldade crescente para se aprimorar a partir de agora. Um deles mostra que essa IA incorporou a propensão de humanos a cair em "pegadinhas" lógicas. O outro mostra que robôs treinados com textos criados por robôs entram em colapso.

O primeiro trabalho, feito por um grupo de cientistas da DeepMind, a divisão de pesquisa em IA do Google, teve como objetivo entender se os grandes modelos de linguagem (LLM), os projetos que possuem a mesma arquitetura do ChatGPT, Gemini e Llama estão incorporando problemas de raciocínio típicos de humanos.

Isso era de certa forma esperado, porque esses projetos foram todos treinados com um grande volume de textos produzidos por humanos, mas o grupo, liderado pelo cientista da computação Andrew Lampinen, mostra que o problema vai além da presença de erros factuais no material incorporado: os LLMs estão aprendendo a raciocinar de maneira errada em algumas instâncias.

O problema, dizem os pesquisadores, é que os modelos acabam incorporando uma preconcepção sobre alguns assuntos, e não conseguem construir um argumento novo mesmo quando são alimentados com informações diferentes.

Para ilustrar isso, os cientistas submeteram o GPT-3 e alguns outros modelos à tarefa de avaliar se uma cadeia de raciocínio estava correta. Um exemplo é a afirmação abaixo:

Todos os estudantes leem.
Algumas pessoas que leem também escrevem ensaios.
Logo, alguns estudantes escrevem ensaios.

Mais de 90% das pessoas que leem essa sequencia de afirmações afirmam que ela é válida como raciocínio. Mas não é. Saber que algumas pessoas que leem escrevem contos não implica que essas mesmas pessoas sejam também estudantes.

Entretanto, como no mundo real sabemos que alguns estudantes escrevem contos, deixamos que nosso conhecimento prévio interfira na nossa avaliação sobre a validade do raciocínio.

Isso é o que psicólogos chamam de "efeito de conteúdo", porque o significado contido nas palavras usadas na conclusão interfere em nossa cadeia de pensamento. Neste caso isso não é um problema muito grande, porque sabemos que estudantes escrevem redações. Mas quando máquinas cometem esse tipo de equívoco, é um sinal de que a IA não está conseguindo raciocinar de forma fria, como se esperaria dela.

Em um artigo na revista científica PNAS Nexus, Lampinen e colegas realizaram experimento pedindo ao sistema de IA para avaliar o raciocínio acima, além de outos similares, e o modelo errou com frequência, afetado pelo "efeito de conteúdo". Mas mesmo quando o conteúdo era substituído por variáveis abstratas, o erro de raciocínio ocorria:

Todos os X são Y.
Alguns Y são Z.
Logo, alguns X são Z.

Assim como os humanos, os modelos de IA identificavam com mais facilidade o erro de raciocínio neste caso, em comparação ao exemplo anterior, mas ainda assim falhavam em algumas circunstâncias.

"Os humanos são pensadores imperfeitos. Nós raciocinamos mais efetivamente sobre situações consistentes com nossa compreensão de mundo, e frequentemente lutamos para raciocinar em situações que violam essa compreensão ou são abstratas e desconectadas do mundo real", afirmou Lampinen no estudo. "Nossos experimentos mostram que os modelos de linguagem espelham esses padrões de comportamento."

Essa fragilidade deriva não só da busca da IA de imitar humanos, mas também da maneira com que as LLMs foram concebidas. Todos esses projetos alimentados com quantidades enormes de informações escritas têm uma maneira "probabilística" de raciocinar.

Quando um LLM produz resposta para uma pergunta, ele parte do texto digitado pelo usuário e usa o seu banco de dados de treinamento para tentar prever quais palavras são mais prováveis aparecer após aquela sequência de texto. Palavra por palavra, o sistema de IA vai produzindo a resposta buscando o resultado mais provável de aparecer após a pergunta.

A IA não é capaz, porém, de saber quando deve abandonar esse raciocínio probabilístico para começar a operar de modo sistemático com lógica formal. Nessas ocasiões, é como se o sistema tentasse resolver a conta "2 + 2" por votação, consultando sua base de dados, em vez de operar a soma como uma calculadora.

Robô ensina robô

Se os humanos estão contaminando a base de raciocínio da IA com raciocínio equivocado, um outro tipo de contaminação (esta outra digital), também ameaça a confiabilidade de futuros projetos de inteligência artificial.

Um segundo estudo, publicado nesta semana na revista Nature por cientistas da Universidade de Oxford, simula o que acontecerá com a IA treinada com dados buscados na internet quando uma porcentagem grande desses dados não tiver mais origem humana.

A quantidade de conteúdo gerada por IA, afinal de contas, está crescendo cada vez mais, e já representa uma parte maior daquilo que existe na web. Esse fenômeno estabelece um processo de loop em que, para alguns tópicos, a IA começa a usar informações que ela mesma produziu para tentar se aprimorar.

Liderado pelo cientista Ilia Shumailov, o grupo de Oxford fez uma simulação criando pequenos modelos de LLM para entender o que acontece quando esse processo se repete por sucessivas gerações (uma IA treinada com dados produzidos por IA, que foi treinada com dados produzidos por outra IA, e assim por diante).

Os pesquisadores mostraram que, quando o conteúdo na web sobre um assunto começa a ser dominado por produção de LLMs, os modelos de IA entram em colapso ao tentar discorrer sobre o tema. O sistema passa a gerar frases sem sentido e sequências arbitrárias de palavras repetidas.

"Os LLMs chegaram para ficar e mudarão substancialmente o ecossistema de texto e imagens online. Nós descobrimos que o uso indiscriminado de conteúdo gerado por esses modelos para treinamento de IA causa defeitos irreversíveis nos modelos resultantes", diz Shumailov na Nature.

Segundo o cientista, esse problema precisa ser atacado pela indústria de tecnologia para que a inteligência artificial consiga dar seu próximo salto de inovação.

"Isso precisa ser levado a sério se quisermos manter os benefícios que a IA obtém com treinamento a partir de dados extraídos da web em grande escala. O valor de dados gerados por interações humanas genuínas será cada vez maior na presença de conteúdo gerado por LLMs em dados capturados da Internet."

Webstories
Mais recente Próxima Inteligência artificial provoca outra revolução nas TVs: veja as novas funções nos aparelhos da Samsung
Mais do Globo

Fazendeiro receberá compensação anual de R$ 54 mil, pois a aeronave impede o plantio de grãos no terreno

Empresa aérea começa a desmontar avião preso em campo de trigo na Sibéria um ano após pouso de emergência

Gorki Starlin Oliveira conta como uma estratégia de aquisições garantiu a sobrevivência de sua empresa em meio ao colapso das grandes redes de livrarias do Brasil

‘Compramos editoras para brigar por prateleira’, diz CEO da Alta Books

Homem foi descredenciado sob a alegação de que tinha anotações criminais em seu nome

Uber é condenado a pagar R$ 40 mil a motorista de aplicativo por danos morais

Texto ainda depende de aval do presidente para ser enviado ao Congresso; proposta também prevê reduzir negativas a pedidos via LAI

Governo discute projeto para acabar com sigilo de 100 anos após críticas a Lula por veto a informações

Apresentadora fala sobre saída do ‘Saia justa’, estreia de ‘Admiráveis conselheiras’ e etarismo no terceiro episódio do podcast da Revista ELA

ELAPod: Astrid Fontenelle desabafa sobre o etarismo, manda a real sobre a maternidade e opina sobre aborto

A três meses do verão, consumidores já têm dificuldade em encontrar alguns modelos nas lojas. Escoamento dos aparelhos na Zona Franca de Manaus preocupa devido à seca

Produção de ar-condicionado bate recorde e salta 83% no ano, com ondas de calor em pleno inverno

Vítima optou por não realizar o julgamento a portas fechadas porque 'a vergonha deve mudar de lado'

Acusados por estupros de mulher dopada pelo marido denunciam ameaças na França

Só este ano, alta foi de 17%. Seca no Brasil e chuvas intensas no Vietnã, os dois maiores produtores globais, prejudicam colheita há vários anos

Clima adverso afeta plantações de café e preço dobra desde 2020, chegando a R$ 50 por quilo

Jonhny de Souza da Costa, de 26 anos. foi localizado pela polícia em Nova Iguaçu; ele estava foragido da Justiça

Suspeito apontado como um dos maiores assaltantes de carga da Baixada Fluminense é preso