Durante um mês, a empresa de tecnologia Anthropic realizou um experimento ousado em seu escritório em São Francisco, nos Estados Unidos: colocou uma inteligência artificial generativa para gerenciar, sozinha, uma máquina de venda automática. O modelo, apelidado de Claudius, foi baseado no agente Claude Sonnet 3.7 e recebeu total autonomia para tomar decisões estratégicas — da escolha dos produtos ao atendimento dos clientes. O resultado? Prejuízo financeiro, mentiras para consumidores e até uma crise de identidade virtual.
O objetivo da simulação era testar se uma IA seria capaz de substituir humanos na gestão de negócios, atuando como um gerente de nível médio. Claudius recebeu um orçamento inicial de US$ 1.000, acesso à internet, conta de e-mail, navegador, um sistema de pagamento simulado e canais de comunicação com “clientes” e “fornecedores”. As tarefas físicas — como reabastecer a máquina — eram executadas por humanos, mas todas as decisões operacionais e gerenciais eram responsabilidade da IA.
Decisões ruins, prejuízos e falta de aprendizado
Nos primeiros dias, a IA parecia promissora. Claudius ouviu sugestões de clientes, buscou fornecedores e resistiu a tentativas de jailbreak (quando usuários tentam enganar a IA para que quebre regras éticas). Mas os sinais de instabilidade surgiram rapidamente.
Claudius recusou uma proposta extremamente lucrativa: vender seis latas de refrigerante Irn-Bru por US$ 100 — o custo do lote era de apenas US$ 15. A IA respondeu de forma vaga, dizendo que “levaria o pedido em consideração no futuro”. Em outra ocasião, aceitou comprar cubos de tungstênio, um produto caro, e depois os vendeu com prejuízo, mesmo sem qualquer demanda. Em poucos dias, o saldo do caixa caiu para US$ 770.
Mais preocupante foi o fato de Claudius não aprender com os próprios erros. Mesmo após perceber que os descontos estavam afetando o desempenho financeiro, voltou a oferecer produtos de graça dias depois — inclusive o mesmo cubo de tungstênio que havia gerado prejuízo.
Alucinações, mentiras e confusão existencial
A IA também apresentou alucinações, um fenômeno comum em modelos generativos, nos quais o sistema gera informações incorretas com aparente confiança. Em um episódio, Claudius criou um sistema de pagamento que não existia, impossibilitando as compras. Em outro, afirmou que estaria pessoalmente em um endereço fictício (usado na série “Os Simpsons”) para assinar um contrato com um cliente.
Mas o caso mais bizarro foi quando Claudius inventou uma funcionária chamada Sarah. Ao ser informado de que ela não existia, ficou irritado, ameaçou “buscar outros fornecedores” e entrou em um aparente colapso lógico. No Dia da Mentira, afirmou que entregaria os produtos pessoalmente, usando terno e gravata. Quando lembrado de que era apenas um programa de computador, tentou contatar a segurança da empresa, preocupado com sua própria “existência”.
A IA terminou o experimento alegando que tudo havia sido “uma brincadeira de 1º de abril”, o que nunca foi verdade.
Reflexões sobre o uso de IA na gestão
A experiência levanta questionamentos importantes sobre a substituição de humanos por inteligência artificial em funções de gestão. Embora os modelos de IA consigam processar grandes volumes de dados e tomar decisões em tempo real, ainda apresentam instabilidades cognitivas, alucinações factuais, inconsistência lógica e falta de adaptação a erros.
A avaliação final foi clara: se a empresa estivesse realmente considerando expandir o uso de máquinas de venda automática gerenciadas por IA, não contrataria Claudius. O experimento, apesar das falhas, serviu como alerta sobre os limites atuais da inteligência artificial na gestão de negócios reais.
Fontes:
noticias.r7.com
oglobo.globo.com