Tecnologia
PUBLICIDADE
Por — São Paulo

RESUMO

Sem tempo? Ferramenta de IA resume para você

GERADO EM: 30/07/2024 - 04:01

Desafios na Evolução da IA: Erros Lógicos e Treinamento por Robôs

Avanço da inteligência artificial enfrenta desafios com erros lógicos humanos e treinamento de robôs por robôs, revelam estudos. IA como o ChatGPT incorpora falhas de raciocínio humano, e robôs treinados com textos de máquinas entram em colapso. Pesquisas alertam para limitações na evolução da IA devido a esses problemas.

Dois novos estudos indicam que modelos de inteligência artificial como o ChatGPT deverão enfrentar dificuldade crescente para se aprimorar a partir de agora. Um deles mostra que essa IA incorporou a propensão de humanos a cair em "pegadinhas" lógicas. O outro mostra que robôs treinados com textos criados por robôs entram em colapso.

O primeiro trabalho, feito por um grupo de cientistas da DeepMind, a divisão de pesquisa em IA do Google, teve como objetivo entender se os grandes modelos de linguagem (LLM), os projetos que possuem a mesma arquitetura do ChatGPT, Gemini e Llama estão incorporando problemas de raciocínio típicos de humanos.

Isso era de certa forma esperado, porque esses projetos foram todos treinados com um grande volume de textos produzidos por humanos, mas o grupo, liderado pelo cientista da computação Andrew Lampinen, mostra que o problema vai além da presença de erros factuais no material incorporado: os LLMs estão aprendendo a raciocinar de maneira errada em algumas instâncias.

O problema, dizem os pesquisadores, é que os modelos acabam incorporando uma preconcepção sobre alguns assuntos, e não conseguem construir um argumento novo mesmo quando são alimentados com informações diferentes.

Para ilustrar isso, os cientistas submeteram o GPT-3 e alguns outros modelos à tarefa de avaliar se uma cadeia de raciocínio estava correta. Um exemplo é a afirmação abaixo:

Todos os estudantes leem.
Algumas pessoas que leem também escrevem ensaios.
Logo, alguns estudantes escrevem ensaios.

Mais de 90% das pessoas que leem essa sequencia de afirmações afirmam que ela é válida como raciocínio. Mas não é. Saber que algumas pessoas que leem escrevem contos não implica que essas mesmas pessoas sejam também estudantes.

Entretanto, como no mundo real sabemos que alguns estudantes escrevem contos, deixamos que nosso conhecimento prévio interfira na nossa avaliação sobre a validade do raciocínio.

Isso é o que psicólogos chamam de "efeito de conteúdo", porque o significado contido nas palavras usadas na conclusão interfere em nossa cadeia de pensamento. Neste caso isso não é um problema muito grande, porque sabemos que estudantes escrevem redações. Mas quando máquinas cometem esse tipo de equívoco, é um sinal de que a IA não está conseguindo raciocinar de forma fria, como se esperaria dela.

Em um artigo na revista científica PNAS Nexus, Lampinen e colegas realizaram experimento pedindo ao sistema de IA para avaliar o raciocínio acima, além de outos similares, e o modelo errou com frequência, afetado pelo "efeito de conteúdo". Mas mesmo quando o conteúdo era substituído por variáveis abstratas, o erro de raciocínio ocorria:

Todos os X são Y.
Alguns Y são Z.
Logo, alguns X são Z.

Assim como os humanos, os modelos de IA identificavam com mais facilidade o erro de raciocínio neste caso, em comparação ao exemplo anterior, mas ainda assim falhavam em algumas circunstâncias.

"Os humanos são pensadores imperfeitos. Nós raciocinamos mais efetivamente sobre situações consistentes com nossa compreensão de mundo, e frequentemente lutamos para raciocinar em situações que violam essa compreensão ou são abstratas e desconectadas do mundo real", afirmou Lampinen no estudo. "Nossos experimentos mostram que os modelos de linguagem espelham esses padrões de comportamento."

Essa fragilidade deriva não só da busca da IA de imitar humanos, mas também da maneira com que as LLMs foram concebidas. Todos esses projetos alimentados com quantidades enormes de informações escritas têm uma maneira "probabilística" de raciocinar.

Quando um LLM produz resposta para uma pergunta, ele parte do texto digitado pelo usuário e usa o seu banco de dados de treinamento para tentar prever quais palavras são mais prováveis aparecer após aquela sequência de texto. Palavra por palavra, o sistema de IA vai produzindo a resposta buscando o resultado mais provável de aparecer após a pergunta.

A IA não é capaz, porém, de saber quando deve abandonar esse raciocínio probabilístico para começar a operar de modo sistemático com lógica formal. Nessas ocasiões, é como se o sistema tentasse resolver a conta "2 + 2" por votação, consultando sua base de dados, em vez de operar a soma como uma calculadora.

Robô ensina robô

Se os humanos estão contaminando a base de raciocínio da IA com raciocínio equivocado, um outro tipo de contaminação (esta outra digital), também ameaça a confiabilidade de futuros projetos de inteligência artificial.

Um segundo estudo, publicado nesta semana na revista Nature por cientistas da Universidade de Oxford, simula o que acontecerá com a IA treinada com dados buscados na internet quando uma porcentagem grande desses dados não tiver mais origem humana.

A quantidade de conteúdo gerada por IA, afinal de contas, está crescendo cada vez mais, e já representa uma parte maior daquilo que existe na web. Esse fenômeno estabelece um processo de loop em que, para alguns tópicos, a IA começa a usar informações que ela mesma produziu para tentar se aprimorar.

Liderado pelo cientista Ilia Shumailov, o grupo de Oxford fez uma simulação criando pequenos modelos de LLM para entender o que acontece quando esse processo se repete por sucessivas gerações (uma IA treinada com dados produzidos por IA, que foi treinada com dados produzidos por outra IA, e assim por diante).

Os pesquisadores mostraram que, quando o conteúdo na web sobre um assunto começa a ser dominado por produção de LLMs, os modelos de IA entram em colapso ao tentar discorrer sobre o tema. O sistema passa a gerar frases sem sentido e sequências arbitrárias de palavras repetidas.

"Os LLMs chegaram para ficar e mudarão substancialmente o ecossistema de texto e imagens online. Nós descobrimos que o uso indiscriminado de conteúdo gerado por esses modelos para treinamento de IA causa defeitos irreversíveis nos modelos resultantes", diz Shumailov na Nature.

Segundo o cientista, esse problema precisa ser atacado pela indústria de tecnologia para que a inteligência artificial consiga dar seu próximo salto de inovação.

"Isso precisa ser levado a sério se quisermos manter os benefícios que a IA obtém com treinamento a partir de dados extraídos da web em grande escala. O valor de dados gerados por interações humanas genuínas será cada vez maior na presença de conteúdo gerado por LLMs em dados capturados da Internet."

Webstories
Mais recente Próxima Inteligência artificial provoca outra revolução nas TVs: veja as novas funções nos aparelhos da Samsung
Mais do Globo

Um dos envolvidos já havia sido preso e confessou ter entrado em uma briga com as vítimas

Chacina da sinuca: o que se sabe sobre briga após campeonato em Sergipe que terminou com seis mortos, um preso e dois foragidos

Num deles, Alexandre de Moraes é sugerido como sendo 'advogado do PCC'

Eleições SP: campanha digital de Nunes lança série de vídeos de ataques a Marçal

A decisão é da 4ª Câmara de Direito Privado do TJ do Rio

Vendedora ambulante será indenizada após ser abordada com violência no Metrô do Rio

Como francês Stephan Dunoyer de Segonzac deu pontapé inicial do esporte no país ao decolar dos pés do Cristo Redentor, em setembro de 1974

'Homem-pipa': O voo que inaugurou a asa-delta no Brasil, há 50 anos

Neurocirurgião Jacinto Lay sofreu queda em março do ano passado, quando pilotava sozinho uma aeronave de pequeno porte

Estado de saúde de médico que pilotava avião que caiu em Teresina é grave; piloto já tinha caído outra vez

BepiColombo, uma missão conjunta europeia e japonesa, concluiu seu último sobrevoo por Mercúrio, enviando uma prévia do planeta cheio de crateras que começará a orbitar em 2026

Novas imagens mostram a superfície de Mercúrio como nunca vista antes;  veja com detalhes nítidos

Supremo Tribunal Federal reservou três semanas para ouvir 85 testemunhas de defesa de cinco réus, sendo que algumas são as mesmas, como os delegados Giniton Lages e Daniel Rosa, que investigaram o caso

Caso Marielle: audiência da ação penal contra irmãos Brazão e Rivaldo Barbosa será retomada hoje pelo STF

A decisão do candidato da oposição de deixar a Venezuela por temer pela sua vida e pela da sua família ocorreu depois de ter sido processado pelo Ministério Público por cinco crimes relacionados com a sua função eleitoral

Saiba como foi a fuga de Edmundo González, candidato de oposição da Venezuela ameaçado por Nicolás Maduro

Cidade contabiliza 21 casos desde 2022; prefeitura destaca cuidados necessários

Mpox em Niterói: secretária de Saúde diz que doença está sob controle