Editorial
PUBLICIDADE
Editorial

A opinião do GLOBO

Informações da coluna

Editorial

A opinião do GLOBO.

Por

A Meta pretendia começar a usar, a partir de hoje, dados compartilhados por usuários de Facebook e Instagram na Europa para treinar seus modelos de inteligência artificial (IA). Mas, ao informar a intenção, foi alvo de questionamentos das autoridades europeias e teve de adiar os planos. No Brasil e nos Estados Unidos, o desenlace foi diferente. A análise de postagens, fotos e legendas publicadas pelos usuários já é realidade, e milhões estão no escuro sobre como suas informações já foram, são ou serão usadas.

A empresa argumenta que já existe autorização de uso, pois há muitos anos a IA governa seus sistemas de segurança e integridade. E diz que, a qualquer momento, os usuários podem se opor a fornecer os dados. É verdade que os brasileiros têm a opção de bloquear o acesso a eles, como garante a Lei Geral de Proteção de Dados (LGPD), mas o procedimento é trabalhoso e pouco intuitivo.

O fundador da Meta, Mark Zuckerberg, anunciou no início do mês que um assistente de inteligência artificial em português será integrado aos serviços da empresa a partir de julho. Os recursos começarão pelas caixas de busca de Instagram, Facebook e WhatsApp. Está previsto também um site semelhante ao ChatGPT, alimentado pelo modelo da Meta, o Llama. Mas Zuckerberg não deixou claro que os serviços seriam precedidos por mudanças nos termos de uso. No dia 16, uma mudança na política de privacidade facilitou a análise de dados capturados dos brasileiros.

Para os desenvolvedores de IA, dados são matéria-prima básica. Os grandes modelos de linguagem (LLMs) usados nas ferramentas de IA como Llama, ChatGPT ou Google Gemini são treinados por quantidades colossais de conteúdo produzido por seres humanos. Dos livros e acervos de jornais às informações disponíveis na internet. O “aprendizado” das máquinas se dá a partir da análise de um oceano interminável de bits. O GPT-4 foi treinado com uma quantidade de textos que um ser humano levaria 20 mil anos para ler.

Em comunicado oficial, a Meta reconhece suas intenções: “Como é necessária uma quantidade grande de dados para treinar modelos eficazes, uma combinação de fontes é usada para treinamento”. Porém a empresa peca na falta de transparência. Ao jornal The New York Times, um porta-voz não explicou como as informações dos usuários são tratadas. Preferiu ser evasivo, afirmando que são usadas “para construir e melhorar as experiências de IA”.

O contraste com a Europa mostra a falta que faz uma regulação mais eficaz das redes sociais tanto nos Estados Unidos como no Brasil. Dado o histórico da Meta no que diz respeito à privacidade, é aconselhável que as autoridades fiquem atentas. O lançamento de uma ferramenta de IA tem potencial de maravilhar o público com as novidades e recursos que oferece. Os benefícios são bem-vindos. A opacidade no relacionamento com os usuários não é.

Mais recente Próxima Eleição na França traz tensão ao projeto europeu