Os chatbots de inteligência artificial tornaram-se uma parte significativa do nosso dia a dia, oferecendo respostas rápidas e assistência em diversas tarefas. No entanto, a crescente popularidade destes assistentes virtuais traz consigo riscos importantes relacionados com a privacidade e segurança dos dados pessoais.
Embora empresas como a OpenAI afirmem ter políticas rigorosas de proteção de dados, a verdade é que as informações partilhadas com chatbots são armazenadas em servidores que podem ser vulneráveis a ataques informáticos. Além disso, estas conversas podem ser acedidas por funcionários autorizados e empresas terceiras para fins de manutenção do sistema.
A Itália chegou mesmo a proibir temporariamente o ChatGPT devido a preocupações com o cumprimento do Regulamento Geral de Proteção de Dados (RGPD) da União Europeia, evidenciando os riscos reais associados à utilização destas ferramentas.
Informações que nunca deves partilhar com chatbots
1. Dados financeiros em risco
Apesar de os chatbots poderem oferecer conselhos financeiros gerais, partilhar detalhes específicos das tuas contas bancárias ou histórico de transações pode ser extremamente perigoso. Criminosos informáticos podem utilizar estas informações para criar esquemas de phishing personalizados ou, em casos mais graves, aceder às tuas contas.
Se precisares de aconselhamento financeiro personalizado, o mais seguro é consultar um profissional certificado que esteja vinculado a rigorosas políticas de confidencialidade.
2. Pensamentos íntimos e saúde mental
Tem-se verificado uma tendência preocupante de pessoas a utilizarem chatbots como substitutos de terapeutas. No entanto, estes sistemas não possuem a formação nem a capacidade para oferecer aconselhamento psicológico adequado.
Os pensamentos íntimos partilhados podem ser incluídos em conjuntos de dados de treino ou, pior ainda, serem expostos em caso de violação de dados. Para questões de saúde mental, é fundamental procurar ajuda profissional qualificada que possa oferecer um apoio verdadeiramente personalizado e confidencial.
3. Informação confidencial do trabalho
Grandes empresas tecnológicas como a Samsung, Apple e Google já proibiram os seus funcionários de utilizarem chatbots de IA no trabalho. Esta decisão surgiu após incidentes em que informação confidencial foi inadvertidamente carregada para estas plataformas.
A utilização de chatbots para resumir reuniões ou automatizar tarefas pode parecer prática, mas representa um risco significativo de exposição de dados sensíveis da empresa. É crucial seguir as políticas de segurança da informação estabelecidas pela tua organização.
4. Palavras-passe e credenciais
Uma violação de dados no ChatGPT em maio de 2022 demonstrou que nenhuma plataforma está completamente segura. Partilhar palavras-passe com chatbots, mesmo que seja para resolver problemas técnicos, pode comprometer seriamente a segurança das tuas contas.
Para gerir credenciais de forma segura, utiliza gestores de palavras-passe dedicados ou segue os protocolos de segurança estabelecidos pela tua organização.
5. Dados pessoais identificáveis
Informações como morada, número de segurança social, data de nascimento ou dados de saúde nunca devem ser partilhados com chatbots. Mesmo uma referência casual à tua localização durante uma pergunta sobre serviços locais pode expor-te a riscos desnecessários.
Quando utilizas plataformas integradas com IA, como o Snapchat, deves ter especial atenção para não revelares inadvertidamente mais informação do que pretendias.
Outros artigos interessantes:
- Novo forno da Xiaomi promete revolucionar a tua cozinha
- Bowers & Wilkins baixa preço dos auscultadores PX7 S2e em 35%
- Cibercrime na Black Friday: consumidores em alerta máximo