O risco de usar IA: funcionários podem estar compartilhando dados comerciais confidenciais sem perceber

Três a cada quatro funcionários admitem usar ferramentas de inteligência artificial no trabalho. Embora a IA possa oferecer diversos benefícios para a produtividade e eficiência dos funcionários, cresce a preocupação com o tipo de dados inseridos nessas ferramentas no ambiente corporativo. Neste sentido, a empresa de segurança de aplicações SaaS, Indusface, decidiu investigar mais a fundo esse tema e identificar quais são os dados mais frequentemente compartilhados por profissionais com a IA, além das implicações que isso pode ter para indivíduos e empresas.

1. Arquivos e documentos de trabalho

Uma das categorias mais comuns de informações compartilhadas com IA são arquivos e documentos relacionados ao trabalho. Mais de 80% dos profissionais em empresas da Fortune 500 utilizam ferramentas de IA, como o ChatGPT, para auxiliar em tarefas como análise de números, refinamento de e-mails, relatórios e apresentações.

No entanto, 11% dos dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias internas de negócios, muitas vezes sem compreender totalmente como a plataforma processa essas informações. Por isso, é recomendável remover dados sensíveis ao inserir comandos de busca em ferramentas de IA.

2. Informações pessoais

Detalhes pessoais, como nomes, endereços e informações de contato, estão sendo compartilhados diariamente com ferramentas de IA. Surpreendentemente, 30% dos profissionais acreditam que proteger seus dados pessoais não vale o esforço, o que indica uma crescente sensação de impotência e falta de treinamento.

O acesso a treinamentos de cibersegurança aumentou pela primeira vez em quatro anos, com 33% dos participantes utilizando-os e 11% tendo acesso, mas não aproveitando o recurso. Para que as empresas permaneçam seguras contra ameaças cibernéticas, é essencial capacitar seus funcionários e ensiná-los a utilizar a IA com segurança.

3. Informações de clientes ou funcionários

Dados de clientes, incluindo informações que podem estar sujeitas a regulamentações ou requisitos de confidencialidade, frequentemente são compartilhados com IA por profissionais.

Para empresários e gestores que utilizam IA para tratar informações de funcionários, é fundamental ter cautela ao compartilhar dados bancários, folhas de pagamento, endereços ou até mesmo avaliações de desempenho. Isso pode violar políticas contratuais e expor a organização a vulnerabilidades, incluindo possíveis ações legais em caso de vazamento de dados sensíveis.

4. Informações financeiras

Modelos de linguagem de grande escala (LLMs) são amplamente utilizados em aplicações de IA generativa, como assistentes virtuais e chatbots conversacionais, e frequentemente operam com modelos da OpenAI, Google Cloud AI, entre outros.

No entanto, os dados que treinam esses modelos geralmente são coletados por web crawlers que extraem informações de sites, muitas vezes sem o consentimento dos usuários. Essas informações podem conter dados pessoais identificáveis (PII).

Outros sistemas de IA que oferecem experiências personalizadas ao cliente também podem coletar dados pessoais. Por isso, é recomendável garantir que os dispositivos usados para interagir com LLMs estejam protegidos com antivírus completo, especialmente ao lidar com informações financeiras sensíveis de negócios.

5. Senhas e credenciais de acesso

Os modelos de IA são projetados para fornecer insights, mas não para armazenar senhas com segurança, o que pode resultar em exposição não intencional, especialmente se a plataforma não possuir medidas rigorosas de privacidade e segurança.

Evite reutilizar senhas já usadas em múltiplos sites, pois isso pode levar a violações de segurança em diversas contas. O uso de senhas fortes, combinando símbolos e números, nunca foi tão importante. Além disso, ative a autenticação de dois fatores para proteger suas contas e mitigar o risco de ataques cibernéticos.

6. Código-fonte da empresa e propriedade intelectual (IP)

Cada vez mais desenvolvedores e funcionários recorrem à IA para assistência em codificação. No entanto, compartilhar códigos-fonte da empresa pode representar um grande risco de segurança, pois eles são propriedade intelectual essencial do negócio. Se um código proprietário for inserido em plataformas de IA, ele pode ser armazenado, processado ou até mesmo utilizado para treinar futuros modelos de IA, potencialmente expondo segredos comerciais a terceiros.

Por isso, as empresas devem implementar políticas rígidas de uso de IA para garantir que códigos sensíveis permaneçam protegidos e nunca sejam compartilhados externamente. Além disso, a adoção de modelos de IA auto-hospedados ou ferramentas de IA seguras e aprovadas pela empresa pode ajudar a reduzir os riscos de vazamento de propriedade intelectual.

TAGS:
Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Sair da versão mobile