
Image by Matthew Henry, from Unsplash
O Google Revoga Proibição do Uso de IA para Armas e Tecnologias de Vigilância
Alphabet, a empresa matriz do Google, reverteu sua promessa de não usar IA para o desenvolvimento de armas ou ferramentas de vigilância.
Com pressa? Aqui estão os fatos rápidos!
- O Google atualizou suas diretrizes de ética em IA, removendo restrições relacionadas a danos, logo antes do relatório de ganhos.
- O chefe de IA, Demis Hassabis, destacou a segurança nacional e a competição global de IA como fatores-chave.
- Especialistas alertam que as diretrizes atualizadas do Google podem levar ao desenvolvimento de mais armas autônomas.
Na terça-feira, pouco antes de divulgar lucros abaixo do esperado, a empresa atualizou suas diretrizes de ética em IA, removendo referências a evitar tecnologias que poderiam causar danos, conforme relatado pelo The Guardian.
A chefe de IA da Google, Demis Hassabis, explicou que as diretrizes estavam sendo revisadas para se adaptar a um mundo em mudança, com a IA agora sendo vista como crucial para proteger a “segurança nacional”.
Em uma publicação no blog, Hassabis e o vice-presidente sênior James Manyika enfatizaram que, à medida que a competição global de IA se intensifica, a empresa acredita que as “democracias deveriam liderar no desenvolvimento de IA”, orientadas pelos princípios de “liberdade, igualdade e respeito aos direitos humanos”.
WIRED destacou que o Google compartilhou atualizações de seus princípios de IA em uma nota adicionada ao topo de uma postagem de blog de 2018 que apresentava as diretrizes. “Fizemos atualizações em nossos Princípios de IA. Visite AI.Google para as últimas novidades,” diz a nota.
Aljazeera relatou que o Google introduziu pela primeira vez seus princípios de IA em 2018, após protestos de funcionários sobre o envolvimento da empresa no Projeto Maven do Departamento de Defesa dos EUA, que explorava o uso de IA para ajudar o exército a identificar alvos para ataques com drones.
Em resposta à reação negativa, que resultou em demissões de funcionários e milhares de petições, o Google decidiu não renovar seu contrato com o Pentágono. Mais tarde naquele ano, o Google também optou por não concorrer a um contrato de computação em nuvem de US$ 10 bilhões com o Pentágono, citando preocupações de que o projeto poderia não estar alinhado com seus princípios de IA, conforme notado pela Aljazeera.
A atualização da política de ética do Google também segue a presença do CEO da Alphabet Inc., Sundar Pichai, juntamente com líderes de tecnologia como Jeff Bezos da Amazon e Mark Zuckerberg da Meta, na posse do presidente dos EUA, Donald Trump, em 20 de janeiro.
No entanto, no anúncio de terça-feira, o Google revisou seus compromissos com a IA. A página atualizada não lista mais usos específicos proibidos para seus projetos de IA, dando à empresa mais flexibilidade para explorar aplicações sensíveis.
O documento revisado agora enfatiza que o Google manterá “supervisão humana adequada, diligência devida e mecanismos de feedback para alinhar com os objetivos do usuário, responsabilidade social e princípios amplamente aceitos de direito internacional e direitos humanos”. Além disso, a empresa declara sua intenção de “mitigar resultados não intencionais ou prejudiciais.”
No entanto, especialistas alertam que a IA poderia em breve ser amplamente implantada no campo de batalha, embora as preocupações estejam aumentando sobre o seu uso, especialmente em relação aos sistemas de armas autônomos.
“Para um líder global da indústria abandonar as linhas vermelhas que estabeleceu para si mesmo sinaliza uma mudança preocupante, num momento em que precisamos mais do que nunca de uma liderança responsável em IA”, disse Anna Bacciarelli, pesquisadora sênior de IA na Human Rights Watch, conforme relatado pela BBC.
Bacciarelli também observou que a decisão “unilateral” destaca “por que os princípios voluntários não são um substituto adequado para a regulamentação e a lei vinculante.”