Uma grave falha de segurança foi descoberta no PyTorch, um dos frameworks de aprendizado de máquina de código aberto mais utilizados pelos pesquisadores de IA. Identificada como CVE-2025-32434, essa vulnerabilidade permite que invasores executem remotamente código em sistemas que tratam modelos de IA, mesmo quando configurações de proteção como “weights_only=True” estão habilitadas. A vulnerabilidade afeta todas as versões do PyTorch até a 2.5.1, de acordo com o alerta. O problema está corrigido na versão 2.6.0, disponibilizada via pip.
Leia também
Machine learning extrai imagens 2D de malware para análise
Google alerta para “uso adversarial” de GenAI
A vulnerabilidade está na função torch.load(), que é usada para carregar modelos serializados no PyTorch. Até agora, os desenvolvedores recomendavam usar o parâmetro weights_only=true para evitar que códigos maliciosos fossem executados em modelos de terceiros. No entanto, o pesquisador de segurança Jian Zhou mostrou que contornar essa proteção é possível, e isso ameaça uma ampla gama de cargas de trabalho, desde inferência e aprendizado federado até repositórios de modelos públicos.
Os invasores podem substituir modelos em repositórios públicos ou injetá-los na cadeia de suprimentos de software. Basta baixar um código falso e malicioso que será lançado na máquina. Portanto, não apenas aplicativos individuais estão em risco, mas também serviços de nuvem inteiros e plataformas de pesquisa que usam torch.load() com versões desatualizadas do PyTorch.
A gravidade da ameaça é confirmada por sua classificação: o nível crítico de perigo (CVSS: 9,3) se deve à facilidade de exploração e aos danos potenciais – desde roubo de dados até a tomada completa do sistema. O PyTorch é usado tanto em startups quanto na infraestrutura de gigantes como Meta e Microsoft, o que torna a escala de um possível ataque especialmente significativa.