A diretora de alinhamento de IA da Meta se deixa levar pelo OpenClaw

por David Gerard

Summer Yue é a diretora de alinhamento de IA na Meta. Ela se juntou à empresa quando a Meta comprou 49% da Scale AI e trouxe qualquer pessoa da Scale que valesse a pena contratar.

“Alinhamento de IA” é um ótimo termo para colocar em um título. Foi inventado pelos doidinhos apocalípticos da IA de Eliezer Yudkowsky. Significa um robô realmente inteligente que é controlável o bastante para que possamos usá-lo como nosso escravo.

O termo foi suavizado um pouco para significar “IA que não comete erros crassos”, mas o apelo dos robôs escravos é o que “IA alinhada” realmente significa. Não temos IA inteligente, mas parece que esse é o trabalho número um se realmente conseguirmos chegar lá. De qualquer forma, construir o robô escravo é o trabalho da Yue.

Yue tem um histórico de anos como pesquisadora em aprendizado de máquina. Ela sabe do que está falando — ou deveria saber. Especificamente, ela deveria saber o suficiente para não fazer o que afirma ter feito no domingo à noite:

Nada te faz mais humilde do que dizer ao seu OpenClaw “confirme antes de agir” e ver ele apagar a sua caixa de entrada em ritmo acelerado. Eu não consegui pará-lo do meu celular. Tive que CORRER para o meu Mac mini como se estivesse desarmando uma bomba.

Yue também postou prints. O robô está apagando todos os seus e-mails anteriores a 15 de fevereiro que não estão em uma lista de “manter”. Ela diz para parar e ele continua! “PARE, OPENCLAW!” Oh não!

O que aconteceu? O robô tinha uma instrução para não fazer nada a menos que lhe fosse dito, mas a janela de contexto dele ficou muito grande, então o OpenClaw resumiu a janela de contexto! E chatbots não resumem texto — eles encurtam-no. Então essa instrução ficou… encurtada.

O que realmente aconteceu foi que alguém que está plenamente informada dos riscos ficou surpresa quando seu agente de IA — uma classe de software que não funciona de forma confiável e não pode funcionar de forma confiável — cometeu um erro.

Para ser franco, tudo isso parte da premissa de que essa história realmente aconteceu. Toda ela é baseada em seis posts no X e três prints. Nem Yue nem a Meta responderam a nenhum dos muitos pedidos por um posicionamento feitos pela imprensa.

A história também se alinha a um padrão comum de promoção da IA, em que os defensores da IA falam como seu robô se comportou como o Aprendiz de Feiticeiro e estragou algo de forma grave, como se isso fosse uma conquista. É como eles dizem: meu robô é tão poderoso que, no próximo modelo, meu amigo… será incrível. Isso mostra o quanto precisamos de alinhamento de IA!!

Yue não posta muito. Ela publica no X a cada dois ou três meses e seus posts são daquele estilo bem corporativo. Seu último havia sido em outubro. De repente, há seis posts apenas sobre esse suposto incidente pessoal.

Vale a pena perguntar se isso realmente aconteceu. Ou, se algo como isso de fato aconteceu, quão envolvido o departamento de marketing da Meta estava nesse post público no X.

Isso não é uma desgraça que ocorreu com alguma pessoa aleatória. Esta é a diretora de alinhamento de IA da Meta.

Não sou o único a se perguntar sobre isso. A PC Gamer também sugere: “Claro, sempre há a possibilidade de que nada disso seja real.”

Mas, em contrapartida, temos uma lista extensa de pessoas anteriormente espertas que tiveram seus pequeninos cérebros explodidos após usarem um chatbot uma vez, e elas começam a dizer que é bom, a IA é de boa, você pode rodá-la localmente, todos vocês, haters de IA, são defensores da cultura da pureza para. Alguns deles começam a falar sobre seu agente de codificação como se fosse sua namorada. A quem eles controlam completamente.

Portanto, não está claro se a caixa de entrada de Summer Yue foi de fato devorada por um monte de lixo “vibe coded”, mas é uma história estúpida o bastante para ser plausível. Porque o chatbot continua apodrecendo cérebros, em especial cérebros que trabalham em IA.

Publicado originalmente no Pivot to AI em 24/2/2026.

A newsletter do Manual. Gratuita. Cancele quando quiser:

Quais edições extras deseja receber?


Siga no Bluesky, Mastodon e Telegram. Inscreva-se nas notificações push e no Feed RSS.

1 comentário

  1. >agente de IA — uma classe de software que não funciona de forma confiável e não pode funcionar de forma confiável

    Obrigado por essa, Sr. Gerard. É exatamente isso: ela não pode ser confiável por definição. Não há melhoria que se faça em cima desse modelo que mude essa característica, ponto.

    Quando as pessoas entenderem que LLMs não sabem nada, sendo apenas um modelo estatístico de linguagem, quem sabe, talvez, levem menos a sério tudo isso — em especial esse pessoal que usa como conselheiro pessoal.