Cover Image for Apple presenta herramientas de traducción en tiempo real impulsadas por inteligencia artificial en la WWDC 2025.

Apple presenta herramientas de traducción en tiempo real impulsadas por inteligencia artificial en la WWDC 2025.

En la conferencia WWDC 2025, Apple dio a conocer que la traducción en tiempo real estará disponible en iOS 26. Además, los iPads y algunos modelos de Apple Watch también contarán con esta funcionalidad.

En la reciente edición de la conferencia anual de desarrolladores de Apple, se presentaron importantes novedades sobre iOS 26. Uno de los aspectos más destacados será la incorporación de funciones de traducción en tiempo real, que se integrarán en aplicaciones como Mensajes, Teléfono y FaceTime. Estas traducciones serán impulsadas por modelos de inteligencia artificial que funcionarán directamente en el dispositivo.

Durante una llamada, cuando se realice la traducción, esta se emitirá en voz alta a través de un asistente de IA y aparecerá también como subtítulos en pantalla. En el caso de los mensajes de texto, la aplicación Mensajes podrá traducir automáticamente a medida que el usuario escribe. Leslie Ikemoto, directora de experiencia de entrada de Apple, mencionó que esta función de traducción en tiempo real también será efectiva para comunicarse con smartphones que no sean de Apple, aunque no especificó qué idiomas estarán disponibles para esta función.

Además, iPadOS 26 ofrecerá capacidades similares de traducción en las mismas tres aplicaciones fundamentales: Teléfono, FaceTime y Mensajes. Apple destacó que la traducción automática también funcionará en chats grupales y en mensajes individuales en los iPads. Asimismo, los usuarios de iPhone que cuenten con las características de Apple Intelligence podrán utilizar la traducción en la aplicación Mensajes de watchOS 26 en dispositivos como Apple Watch Series 9, Series 10 y Ultra 2.

Históricamente, Apple había introducido algunas funciones de traducción en Siri desde iOS 11 y lanzó una aplicación dedicada para la traducción en iOS 14. Ahora, estas capacidades se integrarán más profundamente en el sistema operativo del iPhone como parte del conjunto de funciones de Apple Intelligence. Ha habido especulaciones sobre la posibilidad de añadir traducción en vivo a los AirPods, pero este tema no fue abordado durante la presentación. Google, por otro lado, ya ha ofrecido características de traducción en sus Pixel Buds desde hace varios años, lo que coloca a Apple en una posición rezagada en este aspecto. Es posible que se revele más información sobre esto en el próximo keynote de otoño, que se centrará más en los desarrollos de hardware.