Esta técnica, designada pela Google como automodificação "just-in-time", representa uma ameaça significativa, embora a sua eficácia no mundo real ainda seja limitada.
Numa análise a cinco famílias de malware recentes desenvolvidas com IA generativa, como a PromptLock, a Google concluiu que estas amostras ainda apresentam "limitações claras", omitindo táticas avançadas de evasão, persistência e movimento lateral. Embora um estudo académico tenha demonstrado a viabilidade de usar LLMs para automatizar o ciclo de vida de um ataque de ransomware, o resultado foi fácil de detetar e neutralizar com defesas tradicionais. No entanto, o relatório de previsões da Google para 2026, "Cybersecurity Outlook Report", antecipa que a utilização de IA por cibercriminosos se tornará um novo padrão de ataque. A previsão aponta para a consolidação de ataques multimodais que combinam texto, voz e vídeo (deepfakes) para criar falsificações convincentes, aumentando o risco de fraudes de identidade e comprometimento de contas empresariais. A proliferação de "agentes sombra" — ferramentas de IA usadas por colaboradores sem autorização — é também identificada como uma fragilidade crescente, aumentando a probabilidade de fugas de dados confidenciais. Apesar de o malware gerado por IA ser ainda experimental e pouco impressionante, a Google sublinha que a tendência merece monitorização contínua.













