O Google atualizou suas diretrizes de inteligência artificial (IA) e removeu um compromisso assumido em 2018 de não utilizar a tecnologia em armas ou sistemas de vigilância. A mudança foi revelada pela Bloomberg na última terça-feira (4), e gerou questionamentos sobre o novo posicionamento da empresa em relação à ética e à segurança no uso da IA.
Mudança nos princípios de IA
Desde 2018, o Google mantinha um documento público com diretrizes éticas para o desenvolvimento de inteligência artificial. A versão anterior incluía uma seção chamada “Aplicações que não buscaremos”, que restringia o uso da IA em armamentos, sistemas de vigilância, tecnologias que poderiam causar danos significativos e aplicações que violassem princípios de direitos humanos e leis internacionais.
Com a atualização, essa seção foi removida, sinalizando uma flexibilização das regras que a empresa havia estabelecido há seis anos.
Justificativa da empresa
Em um comunicado publicado no blog oficial do Google, Demis Hassabis, chefe do Google DeepMind, e James Manyika, vice-presidente sênior de tecnologia e sociedade, explicaram a alteração. Segundo eles, a evolução da IA e o cenário geopolítico atual exigem que empresas baseadas em países democráticos atendam clientes governamentais e atuem na segurança nacional.
“O mundo passa por uma competição global pela liderança em IA dentro de um cenário geopolítico cada vez mais complexo. Acreditamos que as democracias devem liderar o desenvolvimento da inteligência artificial, guiadas por valores como liberdade, igualdade e respeito aos direitos humanos”, afirmaram Hassabis e Manyika.
A publicação também reforça que empresas, governos e organizações que compartilham esses valores precisam trabalhar juntos para criar IAs que protejam as pessoas, impulsionem o crescimento global e contribuam para a segurança nacional.
Impacto e repercussão
A mudança nas diretrizes do Google gerou preocupações entre funcionários e especialistas em ética de IA. Segundo o portal TechCrunch, empregados da big tech vêm criticando a empresa por contratos recentes com os militares dos Estados Unidos e de Israel, que envolvem serviços de nuvem. No ano passado, funcionários do Google DeepMind assinaram uma carta pedindo o encerramento dessas parcerias, citando o compromisso da empresa de não aplicar IA em armamentos, que agora foi removido.
A decisão do Google o alinha a outras gigantes do setor que já possuem contratos militares. A Microsoft e a Amazon, por exemplo, mantêm parcerias com o Pentágono há anos. Além disso, no final de 2023, a OpenAI anunciou uma colaboração com a fabricante de defesa Anduril para fornecer tecnologia ao Departamento de Defesa dos EUA. A Anthropic, outra empresa de IA, também se associou à Palantir para fornecer acesso ao chatbot Claude a órgãos militares e de inteligência.
Ainda há restrições?
Mesmo com a remoção da seção sobre proibições, o Google afirma que sua IA continuará respeitando princípios amplamente aceitos de direito internacional e direitos humanos. A empresa promete implementar supervisão humana e coletar feedback para garantir que sua tecnologia seja utilizada de forma responsável.
Além disso, o Google diz que realizará testes rigorosos para mitigar impactos negativos e evitar consequências indesejadas. No entanto, a falta de clareza sobre como essas medidas serão aplicadas gera incertezas entre especialistas e críticos da mudança.
Fontes:
tudocelular.com
tecnoblog.net
1.folha.uol.com.br