O documento reflete a inquietação de que muitas organizações estão a incorporar IA para otimizar e automatizar processos sem avaliar devidamente as suas limitações e vulnerabilidades. Entre os riscos destacados estão os ataques por injeção de instruções adversárias, a contaminação de dados de treino, a recolha excessiva de informação que pode comprometer a segurança e a chamada "deriva de IA", um fenómeno em que os modelos perdem precisão à medida que os dados do mundo real se afastam dos dados com que foram treinados. As agências alertam ainda para a falta de explicabilidade de alguns sistemas de IA, que pode dificultar o diagnóstico de erros, e para o risco de uma dependência excessiva da tecnologia, que pode levar à perda de competências humanas. A recomendação é clara: sistemas como chatbots e modelos de linguagem podem não possuir a robustez necessária para tomar decisões críticas em ambientes industriais e não devem ser utilizados em funções relacionadas com a segurança.

Esta orientação é particularmente pertinente para países como Portugal, onde a digitalização de setores essenciais avança a um ritmo elevado.