Tecnologia
PUBLICIDADE

A OpenAI, criadora do ChatGPT, lançou ontem um novo sistema de inteligência artificial (IA) capaz de criar vídeos com base em instruções de textos dos usuários. Não é a primeira empresa a se enveredar nesta seara.

Há dez meses, a Runway AI, uma startup de Nova York, apresentou tecnologia capaz de criar vídeos a partir de frases na tela do computador. As imagens eram exibidas na época com borrões ou entrecortadas em vídeos de poucos segundos.

A novidade apresentada pela OpenAI ontem é um sistema de vídeos que poderia ter saído de um filme de Hollywood (veja abaixo frames de vídeos e a descrição usada para criá-los).

Batizado como Sora, uma homenagem para a palavra japonesa céu, o sistema de IA pode criar rapidamente vídeos de até um minuto que representam “cenas complexas, com vários personagens, tipos específicos de movimento e detalhes preciosos do tema e do plano de fundo”, disse a empresa em um post no X (ex-Twitter) ontem.

Para especialistas, o risco é que ela se torne uma forma rápida e barata de criar desinformação na internet, tornando ainda mais difícil definir o que é real ou não.

Para mostrar o potencial da nova ferramenta, a OpenAI apresentou uma série de vídeos criados a partir de descrições apresentadas ao Sora. Em um dos exemplos, a descrição feita para o sistema de IA foi: a descrição foi a seguinte: vários mamutes gigantes se aproximando em uma planície nevada, com longos pelos balançando levemente ao vento enquanto caminham entre árvores e montanhas cobertas de neve em meio à luz do meio da tarde com nuvens finas e um sol alto que cria um brilho quente. A visão baixa da câmera é impressionante, capturando o grande mamífero peludo com uma bela fotografia.

Outro desafio ao "ChatGPT de vídeo" foi: Com jeitinho de cinema, a descrição foi: trailer de filme apresentando as aventuras de um astronauta de 30 anos usando um capacete de motocicleta tricotado em lã vermelha, sob um céu azul num deserto de sal, em estilo cinematográfico filmado em 35mm, com cores vívidas. O resultado pode ser visto abaixo:

Acesso limitado

Por enquanto, a ferramenta foi disponibilizada a “um número limitado de criadores”, escreveu Sam Altman, CEO da OpenAI. A empresa ainda está tentando entender os perigos do sistema e deu acesso a uma equipe de especialistas encarregada de avaliar a segurança do Sora antes de incorporá-lo aos seus produtos.

Segundo a OpenAI, o classificador de texto verificará e rejeitará solicitações que violem a política de uso, como as que solicitam violência extrema, conteúdo sexual, imagens de ódio, semelhança de celebridades ou IP de terceiros.

“Apesar de extensas pesquisas e testes, não podemos prever todos os usos benéficos que as pessoas farão da nossa tecnologia nem todas as formas como irão abusar dela. É por isso que acreditamos que aprender com o uso no mundo real é um componente crítico para criar e lançar sistemas de IA cada vez mais seguros ao longo do tempo”, afirma o termo de uso da ferramenta.

— Outra ferramentas já fazem isso há algum tempo, mas não com a mesma qualidade. Ficava nítido que aquilo era uma obra criada. O que a OpenAI apresentou, se realmente foi só produção da própria ferramenta, representa um salto grande — afirmou Carlos Rafael Gimenes das Neves, professor de sistemas de informação da ESPM.

Riscos Eleitorais

Um dos efeitos adversos do sistema, ao ser liberado pela OpenAI, pode ser o de fornecer “matéria-prima” para criação de deepfakes, imagens que simulam rostos e identidades de pessoas reais em situações que não existem.

— Ainda não sabemos qual foi a base de imagens que usaram. Mesmo que eu não consiga especificar um rosto na geração do vídeo, é possível gerar material com características específicas de alguém. Você vai ter o vídeo que quer e depois pode trocar o rosto da pessoa em outra ferramenta. Vai ficar mais fácil produzir esse tipo de conteúdo e em nível profissional — avaliou Neves.

Marco Sabino, advogado, professor e especialista em mídia e tecnologia, afirma que a regulação das empresas de tecnologia e inteligência artificial “é urgente” e citou preocupação com riscos eleitorais.

— O olho humano não vai conseguir diferenciar imagens geradas por ferramentas de IA das originais. E há a possibilidade de criação de conteúdos falsos. E deepfake está aí há muito tempo, impactou eleições anteriores.

Essa ponderação, continua o especialista, vem em razão da assimetria de informações detidas pelos proprietários das ferramentas de IA e as de usuários e reguladores.

Como parte dos preparativos para o lançamento do produto, a OpenAI disse que está criando ferramentas para ajudar a detectar quando um vídeo foi gerado pelo Sora. Mas empresas de IA já tiveram dificuldades para criar sistemas de detecção de IA infalíveis.

Vídeos 'on demand'

Ontem, nas postagens que fez no X, além de exibir vários exemplos de vídeos gerados pelo Sora pelos escolhidos para testar a ferramenta, Sam Altman também atendeu a sugestões de comandos em texto de seus seguidores no X. E respondeu com a versão em vídeo das ideias.

Um dos seguidores, por exemplo, pediu "uma corrida de bicicleta no oceano com diferentes animais como atletas pedalando suas bicicletas com uma visão da câmera de um drone". Altman devolveu com o vídeo abaixo.

O resultado do experimento pedido pelo internauta Kunal Shah foi um vídeo surrealista, com uma clara característica de desenho animado. Mas outros testes reproduzem pequenos filmes muito realistas. Um exemplo foi a ideia de Cate Bligh, seguidora de Altman.

Ela pediu um vídeo com "uma aula de culinária para nhoque feito em casa dada por uma avó influenciadora digital no cenário de uma rústica cozinha rural da Toscana com uma luz cinematográfica. Ao ver o resultado, abaixo, é difícil imaginar que a pessoa na tela não existe.

Uma cena animada de um monstrinho ao lado de uma vela, descrito assim, vira um desenho parecido com os de grandes estúdios de animação. Já a descrição de uma mulher caminhando nas ruas de Tóquio resulta em outro vídeo hiper-realista.

Solução para identificar

Como parte de seus preparativos para o lançamento do produto, a OpenAI disse que está criando ferramentas para ajudar a detectar quando um vídeo foi gerado pela Sora. Mas as empresas de IA já tiveram dificuldades para criar sistemas de detecção de IA infalíveis.

No ano passado, a OpenAI arquivou um classificador que tinha como objetivo detectar escrita gerada por IA, citando sua "baixa taxa de precisão".

Webstories
Mais recente Próxima Sora: veja os vídeos criados a partir de textos pelo novo sistema de IA da OpenAI que ganharam as redes sociais
Mais do Globo

Valor não acumula e caso ninguém garante os 15 números, prêmio máximo será dividido entre outros acertadores

Lotofácil especial de Independência sorteia R$ 200 milhões nesta segunda; saiba como apostar

Associação de descendentes emitiu 'parecer desfavorável' à manutenção definitiva do símbolo olímpico no ponto turístico

Herdeiros de Eiffel cobram retirada dos anéis olímpicos da torre ícone de Paris

A Polícia de Queensland emitiu um mandado de prisão para um homem de 33 anos procurado por atos com a intenção de causar danos corporais graves,

Homem que jogou café quente em bebê vira alvo de caçada internacional; criança já passou por quatro cirurgias

Proposta é oferecer rótulos de pequenos produtores; comidinhas também são artesanais

Vinho brasileiro na torneira: Casa Tão Longe, Tão Perto abre em Botafogo

Pelo menos duas mil pessoas que fugiram dos seus países vivem na cidade

Debate sobre refugiados travado por candidatos a prefeito de Niterói  repercute entre imigrantes

Trata-se de mais um caso que pode beneficiar uma figura ligada ao jogo do bicho

'Gerente' ligado a Rogerio Andrade pede a Nunes Marques para sair da prisão

Wide receiver foi imobilizado de bruços perto de estádio e liberado a tempo de partida do Miami Dolphins contra o Jacksonville Jaguars

Policial que algemou astro da NFL a caminho de jogo é afastado, e atleta quebra silêncio: 'E se eu não fosse Tyreek Hill?'