Tecnologia
PUBLICIDADE

Por Rafael Garcia e Glauce Cavalcanti — São Paulo e Rio

Desde quando a inteligência artificial (IA) não passava de ficção científica, especialistas propõem limites para manter sob controle máquinas inteligentes. O avanço exponencial da IA nos últimos anos reacendeu esse temor de revolta da criatura contra seu criador, e o debate sobre como regular as inovações para equilibrar seus efeitos ganha mais atenção.

Não estão em jogo apenas questões existenciais, mas ameaças que já estão se mostrando presentes nas sociedades, como a maior dificuldade de separar verdade e mentira, o impacto da desinformação na política e nos conflitos e a influência dos algoritmos nas decisões de consumo.

Especialistas concordam que é preciso estabelecer normas para os robôs, que, em última instância, destinam-se aos propósitos dos humanos que os constroem e treinam. Mas muitas vezes a tecnologia avança a passos mais rápidos do que governos e instituições são capazes de reagir.

Na última sexta-feira, a Itália determinou a suspensão temporária do ChatGPT no país por ver riscos de desrespeito à legislação europeia de proteção a dados pessoais. Esta foi usada como referência porque, embora a União Europeia trabalhe na primeira legislação transnacional sobre IA, levará muito tempo até entrar em vigor.

O desafio é maior diante da perspectiva de que uma regulação para a IA deveria ocorrer de forma transversal na sociedade e ser global, alerta o futurista Brett King. Autor de best-sellers sobre o impacto da tecnologia na sociedade e ex-consultor para fintechs do governo americano, durante a gestão de Barack Obama, King afirma que “não faz sentido haver regulação local”:

— Vimos isso com as big techs, que podem ter a operação em uma jurisdição, mas têm alcance global, impactando bilhões de pessoas. Com a IA será a mesma coisa. Imagens feitas no Midjourney como as de Trump sendo preso, dizem-nos que em 12 meses, no ambiente político, não será possível confiar em vídeo ou imagem alguma divulgada pela imprensa que revele algo que tenha sido feito por um opositor, por exemplo. Então, é preciso ter uma forma de distinguir conteúdo gerado por inteligência artificial de conteúdo tradicional, e isso requer uma regulação, o que não existe hoje — defende King, que virá ao Rio este mês participar da conferência Rio2C.

Elvis Presley está vivo e andando de metrô de Nova York? Imagem gerada em plataforma de inteligência artificial simula fato que ainda não aconteceu — Foto: Midjourney/Arte e Fotografia O GLOBO
Elvis Presley está vivo e andando de metrô de Nova York? Imagem gerada em plataforma de inteligência artificial simula fato que ainda não aconteceu — Foto: Midjourney/Arte e Fotografia O GLOBO

Ele chama a atenção para as dificuldades políticas que surgirão para algum acordo sobre os limites éticos para a inteligência artificial:

— Do ponto de vista humano, como essa tecnologia pode servir à Humanidade e como vamos criar esses parâmetros éticos? Como definir ética para uma operação segura de inteligência artificial? Isso também estaria sujeito à política.

No Brasil, uma comissão de juristas convocada pelo Senado entregou em dezembro um relatório de 900 páginas com propostas para regular o setor. Se depender do documento, o Estado assume em grande parte a tarefa de regular a IA.

— O problema de entregar a inteligência artificial para a autorregulação é se repetir aquilo que vimos nos EUA na década de 1990. Tiveram a oportunidade de regulamentar o uso da internet, mas desistiram, por medo de que a regulação fosse maléfica e atrasasse o desenvolvimento da tecnologia — diz o advogado Filipe Medon, especialista em tecnologia e um dos consultores do documento, lembrando que a crise de desinformação nas redes sociais e suas repercussões políticas mudaram esse cenário.

— Os EUA chegaram agora num ponto em que precisam regulamentar a internet e estão discutindo isso em várias audiências públicas.

Em setembro passado, a Comissão Europeia apresentou a primeira versão de sua Diretiva de Responsabilização em Inteligência Artificial, proposta de lei que facilita cidadãos europeus processarem empresas de IA.

Pelo projeto, se uma pessoa for atropelada por um carro autoguiado, por exemplo, a pena recai sobre a empresa que o construiu, não importa que a tecnologia, no fim das contas, previna mais acidentes que cause. O mesmo vale para candidatos a emprego descartados por algoritmos de recrutamento com critérios de IA preconceituosos.

‘Eu, Robô’

Exemplos de impactos negativos da IA que já conhecemos são vários, a começar pela gestão de conteúdo dos algoritmos das redes sociais e suas consequências em áreas como a política e a saúde mental. A IA generativa abre temas ainda mais controversos e dilemas éticos mais profundos, como o seu uso na medicina ou em armamentos. Decisões sobre quem deve viver ou morrer poderão ser atribuídas às máquinas?

Elvis está vivo e andando de metrô de Nova York? Imagem gerada em plataforma de inteligência artificial simula fato que ainda não aconteceu — Foto: Midjourney/Arte e Fotografia O GLOBO
Elvis está vivo e andando de metrô de Nova York? Imagem gerada em plataforma de inteligência artificial simula fato que ainda não aconteceu — Foto: Midjourney/Arte e Fotografia O GLOBO

No livro de contos “Eu, Robô”, Isaac Asimov introduziu, em 1950, o tema da ética na IA, com suas “três leis da robótica”. No livro, que inspirou o filme homônimo de 2004 com Will Smith, essas leis determinavam que um autômato devia proteger sua própria existência e sempre obedecer aos humanos, sem jamais atacar uma pessoa (nem mesmo a pedido de outra).

Os robôs ainda não têm autoconsciência, mas propostas para se criar arcabouços regulatórios e éticos para o desenvolvimento dessa tecnologia com responsabilidade crescem na academia.

Códigos de ética para inteligência artificial no mundo real são mais complexos que as leis de Asimov. Uma das propostas mais recentes foi feita por um grupo internacional de 26 especialistas liderados pela cientista da computação Ozlem Garibay, da Universidade Central da Flórida, nos EUA.

Após uma série de simpósios para discutir uma IA mais “centrada em humanos”, eles publicaram na semana passada um estudo de 48 páginas delineando desafios. Como as aplicações reais da inteligência artificial são muito mais específicas que as dos robôs humanoides da ficção, os pesquisadores adotam muitas abstrações e há pouca coisa ainda concreta sobre essa nova realidade.

‘Governança e supervisão’

Entre os princípios fundamentais que projetos de IA devem seguir, diz Garibay, estão a busca do bem-estar humano, a postura responsável no desenvolvimento de tecnologias, o respeito à privacidade e uma cultura de design (concepção) que inclua avaliação de riscos.

Um dos receios dos pesquisadores é a inteligência artificial ser projetada de modo que não seja possível compreender como ela é constituída. Como os métodos de “aprendizado profundo” usados hoje pelos cientistas para aprimorar sistemas envolvem muita “recursividade” (programas de computador que escrevem partes de outros programas), é comum que algumas partes dos sistemas se tornem um segredo até para os técnicos.

Para evitar que um robô vire uma “caixa-preta” insondável, é preciso garantir transparência no cerne de projetos e algoritmos. Isso é difícil de fazer e pode limitar a capacidade de um sistema, o que aumenta a relutância dos desenvolvedores na corrida da IA.

A Universidade de Massachusetts em Lowell, nos EUA, por exemplo, acaba de investir US$ 6 milhões (metade saindo do Departamento de Defesa americano) na criação de sistemas de IA para tomada de decisão em situações críticas.

A tecnologia poderia ser usada, por exemplo, na triagem de feridos em hospitais sobrecarregados por tragédias. O chefe do projeto, Neil Shortland, diz que esses sistemas seriam programados para dar moral humana aos algoritmos. A IA, afirma, pode se tornar até melhor que as pessoas na tomada de decisões críticas, porque não é afetada por estresse e cansaço.

Projetos dessa natureza, diz Garibay, encaixam-se na categoria daqueles que prometem grandes benefícios, mas trazem consigo um risco maior de malefícios e precisam se submeter a algum tipo de governança e supervisão.

Webstories
Mais recente Próxima Inteligência artificial: onde as empresas já aproveitam oportunidades de negócios
Mais do Globo

Decisão judicial que restaurou benesse descabida a servidores do TCU revela urgência da reforma administrativa

Legislação continua a abrir brechas para privilégios

Implantação do novo modelo em todo o país poderá reduzir desigualdade entre as redes pública e privada

É preciso dar início logo às mudanças aprovadas para o ensino médio

Integrantes do próprio regime vão percebendo que o governo não tem mais o mínimo de sustentação popular

Maduro não entrega. Pode cair

Numa discussão entre uma mulher branca e um homem preto, quem tem razão? A cor da pele prevalece sobre o gênero?

Etnia, gênero e orientação sexual pesam mais que argumentos

Sociedade brasileira precisa pactuar regras democráticas que valham para todos

Não dá para repudiar ditadura e apoiar Maduro

Neoindustrialização fortalece cadeias produtivas locais, cuja finalidade principal é o bem-estar da sociedade

Um setor industrial mais inovador e verde

Veja o horóscopo do dia 3/8 para os signos de Áries, Touro, Gêmeos, Câncer, Leão, Virgem, Libra, Escorpião, Sagitário, Capricórnio, Aquário e Peixes

Horóscopo de hoje: veja previsão para seu signo no dia 3/8

Philippe Katerine afirmou em entrevista à CNN França que ‘não foi a intenção’ ofender religiosos em apresentação na cerimônia que abriu evento esportivo

'Papai Smurf' de Paris-2024: saiba quem é o 'cantor azul' que se desculpou após críticas por show na Olimpíada

Celebridades se afastam das grandes cidades e ostentam propriedades rurais de luxo pelo interior do país

De Xororó a Bruno Gagliasso e Giovanna Ewbank, veja quem são os fazendeiros famosos; fotos

Jogos do Brasil nas Olimpíadas de Paris-2024 neste sábado (3) tem como destaques a ginástica artística, surfe, futebol, judô, boxe, ciclismo e decatlo

Hoje tem Brasil nas Olimpíadas 2024? Veja onde assistir e programação dos jogos deste sábado (3)