A Google acaba de fazer uma alteração silenciosa, mas significativa, nos seus princípios éticos relacionados com a inteligência artificial (IA). Esta mudança está a causar ondas de choque na comunidade tecnológica e a levantar questões sérias sobre o futuro da IA e o seu potencial uso em tecnologias perigosas.
Até recentemente, a Google tinha um compromisso claro de não desenvolver IA para:
- Armas ou tecnologias cujo propósito principal fosse causar, ou facilitar, diretamente danos a pessoas.
- Tecnologias que recolhessem ou usassem informações para vigilância, violando normas internacionalmente aceites.
Agora, estas promessas foram removidas dos princípios da empresa. Esta mudança abre a porta para o possível envolvimento da Google no desenvolvimento de IA para fins militares e de vigilância.

Um historial de hesitação e mudança
Esta não é a primeira vez que a Google se vê envolvida em controvérsias relacionadas com contratos militares e governamentais:
- Em 2018, a empresa recusou-se a renovar o contrato “Project Maven” com o governo dos EUA, que envolvia a análise de vigilância por drones.
- No mesmo ano, a Google optou por não concorrer a um contrato de cloud com o Pentágono, citando preocupações éticas.
- Em 2022, o envolvimento da empresa no “Project Nimbus” levantou preocupações internas sobre potenciais violações de direitos humanos.
A mudança nos princípios éticos da Google pode ser vista como uma resposta à crescente competição global no campo da IA. Demis Hassabis, CEO da Google DeepMind, afirmou que “as democracias devem liderar o desenvolvimento da IA”. Esta declaração, embora aparentemente inócua, ganha um novo significado quando considerada no contexto de uma possível corrida armamentista de IA.
Shyam Sankar, CTO da Palantir, vai mais longe, sugerindo que uma corrida armamentista de IA deve ser um “esforço de toda a nação que se estende muito além do Departamento de Defesa para que possamos vencer como nação”.
Implicações e preocupações
A decisão da Google levanta várias preocupações:
- Potencial uso militar da IA: a tecnologia que hoje parece ficção científica pode tornar-se realidade num futuro próximo.
- Escalada de tensões globais: uma corrida armamentista de IA entre potências como os EUA e a China pode aumentar o risco de conflitos.
- Dilema ético para os funcionários: muitos profissionais de tecnologia podem sentir-se desconfortáveis em trabalhar em projetos com potenciais aplicações militares.
O que podemos fazer?
Infelizmente, as opções para os consumidores são limitadas. Um boicote aos produtos Google (e de outras empresas tecnológicas) poderia ter algum impacto, mas não resolveria o problema fundamental. Se a Google parar, outra empresa ocupará provavelmente o seu lugar.
A esperança reside na possibilidade de que os líderes da indústria tecnológica priorizem o bem-estar da humanidade acima dos ganhos financeiros. No entanto, à medida que a tecnologia continua a avançar a um ritmo acelerado, a necessidade de um debate público e de regulamentação adequada torna-se cada vez mais urgente.
Esta mudança nos princípios da Google serve como um lembrete sóbrio de que, embora a tecnologia tenha o potencial de melhorar o mundo, também pode ser usada de maneiras que muitos consideram eticamente questionáveis. Cabe a nós, como sociedade, manter-nos vigilantes e exigir transparência e responsabilidade das empresas tecnológicas que moldam o nosso futuro.
Outros artigos interessantes: