Ao utilizar este site, você concorda com a nossa política de privacidade e termos de uso.
Aceitar
starten.techstarten.techstarten.tech
Redimensionador de fontesAa
  • hubs
  • notícias
  • oportunidades
  • artigos
  • pt
    • pt
    • en
Leitura: O risco de usar IA: funcionários podem estar compartilhando dados comerciais confidenciais sem perceber
compartilhar
Redimensionador de fontesAa
starten.techstarten.tech
  • hubs
  • notícias
  • oportunidades
  • artigos
pesquisar
  • quem somos
  • manifesto
  • contato
siga starten.tech>
2023 © starten.tech. Todos os direitos reservados.
starten.tech > notícias > tech > O risco de usar IA: funcionários podem estar compartilhando dados comerciais confidenciais sem perceber
tech

O risco de usar IA: funcionários podem estar compartilhando dados comerciais confidenciais sem perceber

da redação.
Última atualização: 02/03/2025 18:39
da redação.
compartilhar
compartilhar

Três a cada quatro funcionários admitem usar ferramentas de inteligência artificial no trabalho. Embora a IA possa oferecer diversos benefícios para a produtividade e eficiência dos funcionários, cresce a preocupação com o tipo de dados inseridos nessas ferramentas no ambiente corporativo. Neste sentido, a empresa de segurança de aplicações SaaS, Indusface, decidiu investigar mais a fundo esse tema e identificar quais são os dados mais frequentemente compartilhados por profissionais com a IA, além das implicações que isso pode ter para indivíduos e empresas.

1. Arquivos e documentos de trabalho

Uma das categorias mais comuns de informações compartilhadas com IA são arquivos e documentos relacionados ao trabalho. Mais de 80% dos profissionais em empresas da Fortune 500 utilizam ferramentas de IA, como o ChatGPT, para auxiliar em tarefas como análise de números, refinamento de e-mails, relatórios e apresentações.

No entanto, 11% dos dados que os funcionários colam no ChatGPT são estritamente confidenciais, como estratégias internas de negócios, muitas vezes sem compreender totalmente como a plataforma processa essas informações. Por isso, é recomendável remover dados sensíveis ao inserir comandos de busca em ferramentas de IA.

2. Informações pessoais

Detalhes pessoais, como nomes, endereços e informações de contato, estão sendo compartilhados diariamente com ferramentas de IA. Surpreendentemente, 30% dos profissionais acreditam que proteger seus dados pessoais não vale o esforço, o que indica uma crescente sensação de impotência e falta de treinamento.

O acesso a treinamentos de cibersegurança aumentou pela primeira vez em quatro anos, com 33% dos participantes utilizando-os e 11% tendo acesso, mas não aproveitando o recurso. Para que as empresas permaneçam seguras contra ameaças cibernéticas, é essencial capacitar seus funcionários e ensiná-los a utilizar a IA com segurança.

3. Informações de clientes ou funcionários

Dados de clientes, incluindo informações que podem estar sujeitas a regulamentações ou requisitos de confidencialidade, frequentemente são compartilhados com IA por profissionais.

Para empresários e gestores que utilizam IA para tratar informações de funcionários, é fundamental ter cautela ao compartilhar dados bancários, folhas de pagamento, endereços ou até mesmo avaliações de desempenho. Isso pode violar políticas contratuais e expor a organização a vulnerabilidades, incluindo possíveis ações legais em caso de vazamento de dados sensíveis.

4. Informações financeiras

Modelos de linguagem de grande escala (LLMs) são amplamente utilizados em aplicações de IA generativa, como assistentes virtuais e chatbots conversacionais, e frequentemente operam com modelos da OpenAI, Google Cloud AI, entre outros.

No entanto, os dados que treinam esses modelos geralmente são coletados por web crawlers que extraem informações de sites, muitas vezes sem o consentimento dos usuários. Essas informações podem conter dados pessoais identificáveis (PII).

Outros sistemas de IA que oferecem experiências personalizadas ao cliente também podem coletar dados pessoais. Por isso, é recomendável garantir que os dispositivos usados para interagir com LLMs estejam protegidos com antivírus completo, especialmente ao lidar com informações financeiras sensíveis de negócios.

5. Senhas e credenciais de acesso

Os modelos de IA são projetados para fornecer insights, mas não para armazenar senhas com segurança, o que pode resultar em exposição não intencional, especialmente se a plataforma não possuir medidas rigorosas de privacidade e segurança.

Evite reutilizar senhas já usadas em múltiplos sites, pois isso pode levar a violações de segurança em diversas contas. O uso de senhas fortes, combinando símbolos e números, nunca foi tão importante. Além disso, ative a autenticação de dois fatores para proteger suas contas e mitigar o risco de ataques cibernéticos.

6. Código-fonte da empresa e propriedade intelectual (IP)

Cada vez mais desenvolvedores e funcionários recorrem à IA para assistência em codificação. No entanto, compartilhar códigos-fonte da empresa pode representar um grande risco de segurança, pois eles são propriedade intelectual essencial do negócio. Se um código proprietário for inserido em plataformas de IA, ele pode ser armazenado, processado ou até mesmo utilizado para treinar futuros modelos de IA, potencialmente expondo segredos comerciais a terceiros.

Por isso, as empresas devem implementar políticas rígidas de uso de IA para garantir que códigos sensíveis permaneçam protegidos e nunca sejam compartilhados externamente. Além disso, a adoção de modelos de IA auto-hospedados ou ferramentas de IA seguras e aprovadas pela empresa pode ajudar a reduzir os riscos de vazamento de propriedade intelectual.

TAGS:tecnologia
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

últimas notícias

  • Finep articula política nacional para apoio a deeptechs no Brasil
  • Inscrições abertas para o Startup Comunidade
  • Curso gratuito ensina a usar o Gemini, IA do Google, em cinco dias
  • Inaitec firma parceria com multinacional e amplia suporte tecnológico a startups com até R$ 30 mil em créditos
  • Dois Irmãos aposta na inovação como motor de desenvolvimento regional

notícias relacionadas

tech

Finep articula política nacional para apoio a deeptechs no Brasil

4 Min leitura
cursos

Curso gratuito ensina a usar o Gemini, IA do Google, em cinco dias

2 Min leitura
tech

Dois Irmãos aposta na inovação como motor de desenvolvimento regional

7 Min leitura
eventos

GovTech Summit 2025 vai reunir referências na área de tecnologia e inovação em Porto Alegre

3 Min leitura

editorial

starten.tech: jornalismo digital que traduz o dinamismo local para o contexto global de inovação, startups e tecnologia.

🏆vencedor do Brasil Publisher Awards 2024 na categoria “Melhor site de Tecnologia”.

sugira uma pauta

[email protected]

tags

agtech artigos cursos editais edtech eventos femtech fintech geek govtech healthtech hubs legaltech logtech oportunidades Sem categoria tech

cadastre-se

starten.techstarten.tech
siga starten.tech>
2024 © starten.tech. Todos os direitos reservados.
  • quem somos
  • contato
  • política de privacidade
  • termos de uso
Vá para versão mobile
Welcome Back!

Sign in to your account

Perdeu sua senha?