A descoberta foi feita através de código oculto na sexta versão beta do iOS 26, confirmando os planos da empresa para expandir as capacidades dos seus dispositivos de áudio com recurso a inteligência artificial. A nova funcionalidade será potenciada pela Apple Intelligence, o novo sistema de inteligência artificial da empresa, e permitirá aos utilizadores compreender conversas em outras línguas de forma instantânea e fluida.

Embora os detalhes técnicos ainda não sejam totalmente conhecidos, espera-se que a tecnologia permita uma experiência de tradução simultânea diretamente através dos AirPods, eliminando barreiras de comunicação em viagens ou reuniões internacionais.

Esta revelação surge num momento oportuno, com rumores a apontarem para o lançamento dos muito aguardados AirPods Pro 3 durante o evento de apresentação do iPhone 17. Embora a funcionalidade de tradução possa chegar através de uma atualização de software para modelos existentes, a sua associação ao lançamento de novo hardware sugere que poderá ser otimizada ou exclusiva para a nova geração de auscultadores. Este avanço posiciona a Apple para competir diretamente com outras empresas que já exploram o mercado dos “hearables” inteligentes e reforça a sua estratégia de criar um ecossistema onde o software e o hardware trabalham em conjunto para oferecer experiências únicas e diferenciadoras.