[ 161,299 page views, 63,350 usuários nos últimos 30 dias ] - [ 6.103 assinantes na newsletter, taxa de abertura 27% ]

Pesquisar
código desenvolvimento

Plataforma promete segurança em devops com I.A.

A Cisco anunciou no dia 15 de Janeiro o lançamento do Cisco AI Defense, uma solução para que as empresas desenvolvam, implantem e protejam aplicativos de IA com confiança conforme diz o comunicado de lançamento. “Líderes de negócios e tecnologia não podem se dar ao luxo de sacrificar a segurança pela velocidade ao adotar a IA”, disse Jeetu Patel, vice-presidente executivo e diretor de produtos da Cisco. “Em um cenário dinâmico onde a competição é acirrada, a velocidade decide os vencedores. Fundido na estrutura da rede, o Cisco AI Defense combina a capacidade única de detectar e proteger contra ameaças ao desenvolver e acessar aplicativos de IA sem abrir mão de segurança.”

Leia também
Ford desmente vazamento anunciado na dark web
Cl0p ameaça vazar dados de 59 empresas

Segundo o comunicado de lançament, o AI Defense é auto-otimizado, “aproveitando os modelos de aprendizado de máquina proprietários da Cisco para detectar preocupações de segurança e proteção de IA em constante evolução com base em dados de inteligência de ameaças do Cisco Talos. Os clientes do Splunk que estão usando o AI Defense receberão alertas enriquecidos com contexto adicional de todo o ecossistema. O AI Defense integra-se perfeitamente aos fluxos de dados existentes para visibilidade e controle incomparáveis ​​e é incorporado ao Security Cloud, a plataforma de segurança unificada, orientada por IA e entre domínios da Cisco”.

O comunicado diz, ainda, que o Índice de Prontidão de IA de 2024 da Cisco aponta que apenas 29% dos entrevistados se sentem totalmente preparados para detectar e impedir adulterações não autorizadas com IA: “Os desafios de segurança também são novos e complexos, com aplicativos de IA sendo multimodelo e multinuvem. Vulnerabilidades podem ocorrer no nível do modelo ou do aplicativo, enquanto a responsabilidade recai sobre diferentes proprietários, incluindo desenvolvedores, usuários finais e fornecedores. À medida que as empresas vão além dos dados públicos e começam a treinar modelos em dados proprietários, os riscos só aumentam”.