Tecnologia
PUBLICIDADE

Por Carolina Nalin — Rio

A despeito de inúmeros benefícios que a inteligência artificial no campo da criação pode trazer, a rápida ascensão desses produtos também carrega uma série de dilemas ainda longe de serem superados. Os grandes modelos de linguagem — como são chamados os algoritmos treinados em grande quantidade de dados — que estão por trás dessas plataformas geram preocupações sobre como mensurar a aprendizagem e o risco de desinformação.

E, dado que ainda não há legislação para lidar com tais aparatos, suas limitações ainda não são bem compreendidas.

No campo do Direito, o ChatGPT já foi aprovado no exame “The Bar” nos Estados Unidos, o equivalente à prova da OAB brasileira. Na medicina, estudos de pesquisadores da Universidade de Yale apontaram que o programa pode ser aprovado no Exame de Licenciamento Médico dos EUA.

Na área da Administração, o professor Christian Terwiesch, da Wharton, escola de negócios da Universidade Pensilvânia, testou a capacidade do ChatGPT e identificou que ele seria aprovado em disciplina central para receber o diploma do MBA em Wharton.

A popularização do ChatGPT chegou ainda às salas de aula de escolas de ensino fundamental e médio, como relata reportagem do New York Times. Professores e administradores tentam discernir se os alunos estão usando o chatbot para fazer trabalhos escolares.

Algumas escolas públicas na cidade de Nova York e Seattle proibiram a ferramenta nas redes e dispositivos Wi-Fi da escola para evitar trapaças, embora os alunos possam encontrar facilmente alternativas para usar o chatbot.

Numa batalha em tempo real com a nova onda tecnológica, professores universitários nos Estados Unidos, chefes de departamento e administradores começam a reformar as salas de aula em resposta ao ChatGPT, provocando mudanças no ensino e na forma de medir a aprendizagem.

Alguns professores reformularam completamente seus cursos, com mais exames orais, trabalhos em grupo e avaliações manuscritas em vez de digitadas. Mas há quem relute em proibir a ferramenta porque não quer infringir a liberdade acadêmica.

Risco de desinformação

Não é só no campo educacional que esses programas levantam preocupações. O sistema baseado em IA generativa pode criar falsas associações que culminem em desinformação para os usuários.

Outro problema é a diferença de resultados que a plataforma pode gerar a depender da quantidade e da natureza dos dados imputados em sua base de dados.

— A IA tem que ser treinada a partir de dados confiáveis. Sabemos que hoje em dia existe uma grande quantidade de fake news dispersas na internet. Se o mecanismo for treinado com base em conteúdo falso, ele irá replicar e amplificar esse tipo de conteúdo — alerta Walter Hildebrandi, diretor de Tecnologia da Zendesk para a América Latina.

Christian Perrone, gerente de Direito e Tecnologia e GovTech do Instituto de Tecnologia e Sociedade (ITS), destaca o potencial excludente que os padrões estabelecidos pelos chatbots baseado em IA podem trazer:

— Que respostas vai dar uma IA com relação a perguntas filosóficas, como ‘qual o sentido da vida?’ Isso tem impactos éticos e na nossa capacidade cognitiva. Se eu perguntar a um buscador, vou receber milhares de versões e links relacionados. Se perguntar ao ChatGPT, virá uma única resposta. Isso diminui a vertente cognitiva das pessoas. Qualquer lei que surja deve pensar nos potenciais riscos.

Regulamentação na UE

Em resposta a algumas dessas questões, a OpenAI publicou trechos de um relatório feito por pesquisadores da empresa em conjunto com o Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown e o Observatório da Internet de Stanford.

A pesquisa chegou à conclusão de que modelos de linguagem podem ser usados de forma indevida para fins de desinformação, com criação de “textos convincentes e enganosos para uso em operações de influência”.

Paulatinamente, reguladores e tribunais devem estabelecer limites para a IA. A Comissão Europeia iniciou uma força-tarefa para elaborar uma regulação sobre inteligência artificial (AI Act) para garantir o uso por empresas e consumidores de forma ética e segura.

A proposta prevê que as empresas envolvidas com essas tecnologias, especialmente as que integram a inteligência artificial de alto risco, devem esclarecer o funcionamento de seus sistemas. O objetivo é garantir segurança jurídica, transparência e confiança e permitir o desenvolvimento de um mercado saudável.

Mais recente Próxima
Mais do Globo

Brasileira pode conquistar nova medalha em Paris hoje. Rebeca Andrade é favorita ao pódio

Rebeca Andrade nas Olimpíadas: onde assistir e qual é o horário da final do salto da ginástica artística

Quais são as marcas e as técnicas que procuram diminuir o impacto negativo sobre o meio ambiente da roupa mais democrática do planeta

Conheça alternativas para tornar a produção do jeans mais sustentável

Fotógrafos relatam como foi o processo de concepção das imagens em cartaz na Casa Firjan, em Botafogo

Lavadeira, barbeiro, calceteiro: exposição de fotos em Botafogo enfoca profissões em extinção

‘Queremos criar o museu do theatro’ revela Clara Paulino, presidente do Theatro Municipal

Theatro Municipal pode ganhar museu para expor parte do seu acervo de 70 mil itens

A treinadora da seleção feminina brasileira usou da psicologia e de toda sua experiência para deixar a estreante o mais tranquila possível

Entenda estratégia da técnica Sarah Menezes para Bia Souza vencer  Olimpíada em Paris