A rápida integração da inteligência artificial generativa (IA generativa) nas empresas trouxe consigo um aumento expressivo dos riscos da IA generativa associados à segurança de dados.
Um novo relatório da Unit 42, a unidade de investigação da Palo Alto Networks, revela que o tráfego relacionado com estas ferramentas cresceu mais de 890% em 2024, enquanto os incidentes de perda de dados mais do que duplicaram.

O estudo, intitulado “The State of Generative AI 2025“, analisou dados de mais de 7.000 organizações a nível global e concluiu que os incidentes ligados à IA generativa já representam 14% de todas as ocorrências de segurança em plataformas SaaS (Software as a Service). Este cenário sublinha a urgência de as empresas adotarem políticas de governação mais robustas para equilibrar inovação e proteção.
O desafio da Shadow AI e o cenário no Brasil
Um dos maiores desafios para as equipas de TI é o fenómeno da “Shadow AI“, que corresponde ao uso de ferramentas de IA por parte dos colaboradores sem o conhecimento ou aprovação da empresa.
A prática, embora muitas vezes pareça inofensiva, como usar um assistente para redigir um email ou um chatbot para gerar código, cria pontos cegos que podem resultar no vazamento de informações confidenciais, perda de propriedade intelectual ou violação de normas regulatórias.
Em média, uma organização utiliza 66 aplicações de IA generativa distintas, sendo que 10% delas são classificadas como de alto risco.
No Brasil, a adoção destas tecnologias é igualmente acentuada. O relatório aponta que as ferramentas mais utilizadas em volume de transações são o Grammarly (44,37%), o ChatGPT (20,20%) e o Microsoft Power Apps (13,55%).
Em termos de volume de dados transferidos, o Microsoft Power Apps lidera com 33,68% do tráfego.
Segundo Marcos Oliveira, country manager da Palo Alto Networks no Brasil, “é fundamental estabelecer políticas claras de uso e mecanismos de controle para que seus benefícios sejam aproveitados sem comprometer a segurança“.
Estratégias para uma adoção segura da IA generativa
Para mitigar os riscos associados à segurança em IA, nomeadamente a IA generativa,, os especialistas da Unit 42 recomendam uma abordagem multifacetada.
A implementação de controlos de acesso condicionais é um primeiro passo, permitindo que as empresas restrinjam o uso de aplicações com base no perfil do utilizador, no dispositivo ou no nível de risco da ferramenta, prevenindo que dados sensíveis sejam processados por serviços não autorizados.
Outra medida de suma importância é a inspeção de conteúdo em tempo real, uma tecnologia que detecta e bloqueia a partilha de informações críticas antes que estas saiam do perímetro da organização. Esta funcionalidade é complementada pela abordagem de “confiança zero” (Zero Trust), que valida continuamente a identidade e o comportamento dos utilizadores antes de conceder acesso.
Por fim, o relatório destaca a formação contínua dos colaboradores como um pilar essencial para garantir que as ferramentas de IA generativa sejam usadas de forma responsável e segura.
Conclusão
O crescimento exponencial da IA generativa oferece oportunidades de produtividade inegáveis, mas o relatório da Palo Alto Networks serve como um alerta claro: a inovação não pode ultrapassar a capacidade de proteção das organizações.
A visibilidade sobre as ferramentas em uso e a implementação de uma estratégia de segurança proativa são fundamentais para que as empresas possam explorar o potencial da IA sem expor os seus ativos mais valiosos a riscos crescentes.
Outros artigos interessantes:










