[ 240,017 page views, 116,787 usuários nos últimos 30 dias ] - [ 5.966 assinantes na newsletter, taxa de abertura 27% ]

Pesquisar
i.a. divulgação check point

Dados confidenciais em quase 10% do uso de IA

De acordo com um relatório sobre vazamento de dados de Gen-AI da empresa de segurança Harmonic Security, 8,5% das solicitações de funcionários para LLMs populares continham dados confidenciais, aumentando as preocupações com segurança, conformidade, privacidade e questões legais. A empresa analisou dezenas de milhares de solicitações para ChatGPT, Copilot, Gemini, Claude e Perplexity no quarto trimestre de 2024. Descobriu-se que os dados dos clientes, incluindo dados de cobrança e autenticação, foram responsáveis ​​pela maior parcela de dados vazados: 46%. O que particularmente impressionou a Harmonic foi a alta proporção de reivindicações de seguros. Dessa forma, esses relatórios, repletos de dados de clientes, são frequentemente inseridos em ferramentas de IA pelos funcionários para economizar tempo no processamento.

Leia também
Google alerta para “uso adversarial” de GenAI
Insegurança derruba investimentos e retarda I.A.

De acordo com a análise, os dados dos funcionários, incluindo dados de folha de pagamento e informações de identificação pessoal (PII), foram responsáveis ​​por 27% das solicitações confidenciais, seguidos por dados jurídicos e financeiros, com 15%.

“Informações relacionadas à segurança, que respondem por quase sete por cento das solicitações confidenciais, são particularmente preocupantes”, alerta o relatório. “Exemplos incluem resultados de testes de penetração, configurações de rede e relatórios de incidentes. Esses dados podem fornecer aos invasores um modelo para explorar vulnerabilidades.”