Acordo da OpenAI com Pentágono gera crise interna

Mensagens escritas com giz cobriam a calçada do lado de fora dos escritórios da OpenAI em São Francisco na manhã de segunda-feira (2): “Onde estão seus limites?” “Vocês precisam se manifestar.” “Quais são as salvaguardas?”

De acordo com as redes sociais e reportagens, as mensagens foram escritas por ativistas. Mas alguns desses sentimentos são compartilhados por muitos dentro do prédio, depois que a OpenAI fechou um acordo com o Pentágono na sexta-feira (27) para usar seus modelos de IA em sistemas confidenciais.

A Anthropic já havia rejeitado uma atualização de seu contrato com o Pentágono porque considerou que a linguagem não estava de acordo com os limites da empresa em relação ao uso de IA em vigilância em massa e armas autônomas.

Como resultado, o Pentágono colocou a empresa em uma lista de restrições, designando-a como um risco para a cadeia de suprimentos.

Os contratos são repletos de complexidade jurídica e técnica. Mas em fóruns públicos e conversas privadas, os funcionários da OpenAI estão reclamando sobre como a liderança da OpenAI lidou com as negociações com o Pentágono.

Muitos funcionários “respeitam muito” a Anthropic por enfrentar o Pentágono e estão frustrados com a forma como a OpenAI lidou com seu próprio contrato, disse um funcionário atual à CNN, sob condição de anonimato para falar livremente.

À medida que as horas se esgotavam até ao prazo final da sexta-feira estabelecido pelo Pentágono para a Anthropic aceitar o contrato, o CEO da OpenAI, Sam Altman, surpreendeu muitos ao afirmar que concordava com o seu rival, o CEO da Anthropic, Dario Amodei, e partilhava as mesmas condições.

Mas descobriu-se que Altman estava negociando seu próprio acordo. As críticas surgiram horas depois, quando a OpenAI anunciou seu contrato com o Pentágono, aparentemente tomando o lugar da Anthropic.

Depois que a OpenAI publicou alguns dos termos do contrato no sábado (28), muitos observadores externos imediatamente questionaram como as linhas vermelhas sobre armas autônomas e vigilância em massa seriam realmente mantidas, com alguns dizendo que a linguagem ainda permitiria que as salvaguardas fossem desconsideradas.

Em resposta, Altman respondeu publicamente a perguntas sobre o assunto no sábado à noite e anunciou na segunda-feira que a OpenAI havia ajustado seu contrato com o Pentágono para estabelecer de forma mais clara as salvaguardas que impediriam que os serviços da OpenAI fossem usados em programas de vigilância. (Armas autônomas não foram mencionadas no texto adicionado que ele publicou online.)

Muitos funcionários reconhecem a necessidade de apoiar o governo, já que os EUA competem com a China em IA, de acordo com o funcionário atual. Mas eles também sentiram que um contrato de tal importância e magnitude foi aprovado às pressas.

“Em parte, é como foi percebido, como foi comunicado e como a narrativa se tornou”, disse o funcionário.

Alguns funcionários expressaram publicamente suas frustrações. O cientista pesquisador Aidan McLaughlin postou no X na manhã de segunda-feira, antes da atualização do contrato de Altman.

“Pessoalmente, não acho que esse acordo tenha valido a pena.”

Mais tarde, ele chamou a discussão interna sobre o assunto de “opressora”, mas disse que se sentia “incrivelmente orgulhoso de trabalhar em um lugar onde as pessoas podem dizer o que pensam”.

Jasmine Wang, que trabalha com questões de segurança de IA na OpenAI, postou que queria “assessoria jurídica independente” para analisar a nova redação do contrato anunciada por Altman na segunda-feira.

Mais tarde, ela republicou análises jurídicas que apoiavam a alegação da OpenAI de que o contrato solidificava suas linhas vermelhas e outras que o criticavam como “linguagem ambígua”.

Altman reconheceu a falha na comunicação.

“As questões são extremamente complexas e exigem uma comunicação clara”, escreveu Altman no X na segunda-feira. “Estávamos genuinamente tentando acalmar os ânimos e evitar um resultado muito pior, mas acho que isso acabou parecendo oportunista e descuidado.”

Durante uma reunião com todos os funcionários da OpenAI na terça-feira, Altman reiterou que apressar o acordo foi um “erro”, de acordo com uma fonte familiarizada com a reunião. Mas a OpenAI não pode se pronunciar sobre casos de uso individuais de sua tecnologia, disse Altman, como distinguir quais operações militares específicas podem ser consideradas boas ou ruins.

Um porta-voz da OpenAI indicou à CNN as declarações públicas de Altman.

Alguns funcionários também se sentiram frustrados na terça-feira pelo fato de alguns observadores estarem retratando a Anthropic como heroica, apesar dos anos anteriores de trabalho com o Pentágono e a grande empresa de defesa Palantir, sem grande escrutínio.

Altman disse aos funcionários na terça-feira que acredita que os governos deveriam trabalhar com laboratórios como o OpenAI, que aplicam padrões de segurança, em vez de empresas com menos proteções.

Ele disse que está pedindo ao governo que retire a designação de risco da cadeia de suprimentos da Anthropic.

“Acredito que, com sorte, teremos os melhores modelos que incentivarão o governo a estar disposto a trabalhar conosco, mesmo que nossa pilha de segurança os incomode ou imponha alguns limites ou algo mais”, disse ele na reunião.

FONTE

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *