Helen Toner, ex-membro do conselho da OpenAI, disse que este não sabia sobre o lançamento do chatbot ChatGPT em 2022 e só ficou sabendo pelo Twitter (atual X).
Em um podcast chamado The TED AI Show, Toner fez seu relato mais completo até o momento sobre os eventos que a levaram e a outros membros do conselho a demitir Sam Altman em novembro do ano passado. Nos dias que se seguiram à repentina demissão do CEO, os funcionários ameaçaram se demitir, Altman foi readmitido e Toner e outros conselheiros deixaram a diretoria.
- Depois de acabar com equipe de segurança: OpenAI cria conselho de supervisão com Sam Altman
- IA, segurança, pressão sobre conselho: Entenda por que a demissão do 'pai do ChatGPT' gerou polêmica nos EUA
“Quando o ChatGPT foi lançado em novembro de 2022, a diretoria não foi informada com antecedência sobre isso”, disse Toner no podcast. “Ficamos sabendo do ChatGPT pelo Twitter.”
O lançamento do ChatGPT pela empresa foi relativamente tranquilo: a OpenAI simplesmente chamou o chatbot de um modelo de inteligência artificial que “interage de forma conversacional”. Mas, nos dias e semanas seguintes, a capacidade do ChatGPT de gerar textos que soam humanos fez dele um grande sucesso e ajudou a preparar o caminho para o atual boom da IA.
- Na área de inteligência artificial: Google e Meta propõem parcerias milionárias com estúdios de Hollywood
A OpenAI não fez um comentário imediato. Em uma declaração fornecida ao podcast TED, o atual chefe do conselho da OpenAI, Bret Taylor, disse: “Estamos desapontados com o fato de a Sra. Toner continuar a revisitar essas questões”.
Ele também disse que uma análise independente da demissão de Altman “concluiu que a decisão da diretoria anterior não se baseou em preocupações relacionadas à segurança do produto, ao ritmo de desenvolvimento, às finanças da OpenAI ou às suas declarações a investidores, clientes ou parceiros comerciais”.
O jogo dos seis erros da inteligência artificial
Taylor afirmou ainda que “mais de 95% dos funcionários” pediram a reintegração de Altman e que a empresa continua focada em sua “missão de garantir que a AGI (Inteligência Artificial Generativa) beneficie toda a humanidade”.
Os motivos do conselho para demitir Altman foram fonte de intensa especulação no Vale do Silício. Na época, a diretoria disse apenas que Altman não havia sido “consistentemente sincero” em suas interações com os diretores. Nos meses que se seguiram, surgiram novos detalhes sobre as tensões entre Altman, a diretoria e alguns funcionários.
No podcast, Toner também disse que Altman não divulgou seu envolvimento com o fundo da OpenAI. E ela criticou sua liderança em segurança. “Em várias ocasiões, ele nos forneceu informações imprecisas sobre os processos formais de segurança que a empresa tinha em vigor”, disse ela, “o que significa que era basicamente impossível para a diretoria saber se esses processos de segurança estavam funcionando bem ou o que precisava ser mudado”.
- 'Obama muçulmano' e 'cola na pizza': Google tenta melhorar resultados de pesquisa com IA generativa
Toner disse que, após anos de eventos como esse, “nós quatro chegamos à conclusão de que simplesmente não podíamos acreditar nas coisas que Sam estava nos dizendo”.
Em um artigo publicado na revista The Economist no fim de semana, Toner e Tasha McCauley, outra ex-diretora, expuseram seu pensamento, dizendo que a OpenAI não estava posicionada para se regular e que os governos deveriam intervir para garantir que a poderosa IA fosse desenvolvida com segurança.