Apple Intelligence: Todo lo que necesitas saber sobre el modelo de inteligencia artificial de Apple y sus servicios.
Image Credits:Apple
Si has actualizado a un modelo de iPhone más reciente, probablemente hayas notado que Apple Intelligence está apareciendo en algunas de tus aplicaciones más utilizadas, como Mensajes, Correo y Notas. Apple Intelligence (sí, también abreviado como AI) apareció en el ecosistema de Apple en octubre de 2024 y está aquí para quedarse mientras Apple compite con Google, OpenAI, Anthropic y otros para construir las mejores herramientas de AI.
¿Qué es Apple Intelligence?
Image Credits:Apple
Los ejecutivos de marketing de Cupertino han denominado Apple Intelligence: “AI para el resto de nosotros.” La plataforma está diseñada para aprovechar las cosas que el generativo AI ya hace bien, como la generación de texto e imágenes, para mejorar las características existentes. Al igual que otras plataformas, como ChatGPT y Google Gemini, Apple Intelligence fue entrenada en grandes modelos de información. Estos sistemas utilizan el aprendizaje profundo para establecer conexiones, ya sea con texto, imágenes, video o música.
La oferta de texto, impulsada por LLM, se presenta como herramientas de escritura. La característica está disponible en diversas aplicaciones de Apple, incluyendo Correo, Mensajes, Pages y Notificaciones. Puede usarse para proporcionar resúmenes de texto largo, revisar y hasta escribir mensajes por ti, utilizando prompts de contenido y tono.
La generación de imágenes también se ha integrado, aunque de manera un poco menos fluida. Los usuarios pueden pedir a Apple Intelligence que genere emojis personalizados (Genmojis) en el estilo de la casa de Apple. Image Playground, por su parte, es una aplicación de generación de imágenes independiente que utiliza prompts para crear contenido visual que puede usarse en Mensajes, Keynote o compartirse en redes sociales.
Apple Intelligence también marca un esperado rejuvenecimiento para Siri. El asistente inteligente fue pionero en el campo, pero ha sido más o menos ignorado durante los últimos años. Siri se ha integrado mucho más profundamente en los sistemas operativos de Apple; por ejemplo, en lugar del icono familiar, los usuarios verán una luz parpadeante alrededor del borde de la pantalla de su iPhone cuando esté en funcionamiento.
Lo más importante es que el nuevo Siri funciona en varias aplicaciones. Esto significa, por ejemplo, que puedes pedirle a Siri que edite una foto y luego la inserte directamente en un mensaje de texto. Es una experiencia sin fricciones que el asistente había carecido anteriormente. La conciencia en pantalla significa que Siri utiliza el contexto del contenido con el que estás actualmente involucrado para proporcionarte una respuesta adecuada.
Antes de WWDC 2025, muchos esperaban que Apple presentara una versión aún más mejorada de Siri, pero tendremos que esperar un poco más.
“Como hemos compartido, estamos continuando nuestro trabajo para entregar las características que hacen que Siri sea aún más personal,” dijo Craig Federighi, VP de Software Engineering de Apple, en WWDC 2025. “Este trabajo necesitaba más tiempo para alcanzar nuestro alto estándar de calidad, y estamos deseando compartir más sobre ello en el próximo año.”
Esta versión de Siri aún no lanzada, que es más personalizada, debería ser capaz de entender “contexto personal,” como tus relaciones, rutina de comunicación y más. Pero, según un informe de Bloomberg, la versión en desarrollo de esta nueva Siri es demasiado defectuosa para lanzarla, por lo que su lanzamiento se ha retrasado.
En WWDC 2025, Apple también presentó una nueva característica de AI llamada Visual Intelligence, que te permite realizar una búsqueda de imágenes de lo que ves mientras navegas. Apple también presentó una característica de traducción en tiempo real que puede traducir conversaciones en tiempo real en las aplicaciones Mensajes, FaceTime y Teléfono.
Visual Intelligence y Live Translation se espera que estén disponibles más tarde en 2025, cuando iOS 26 se lance al público.
¿Cuándo se presentó Apple Intelligence?
Después de meses de especulación, Apple Intelligence tomó el centro del escenario en WWDC 2024. La plataforma se anunció en medio de un torrente de noticias sobre generativo AI de empresas como Google y Open AI, lo que generó preocupaciones de que la empresa tecnológica, conocida por su reserva, se había perdido la última moda tecnológica.
Sin embargo, Apple tenía un equipo en marcha, trabajando en lo que resultó ser un enfoque muy propio de Apple para la inteligencia artificial. A pesar de la especulación, Apple Intelligence es una toma muy práctica del género.
Apple Intelligence no es una característica independiente. Se trata más bien de integrarse en las ofertas existentes. Aunque es un ejercicio de branding en un sentido muy real, la tecnología impulsada por el modelo de lenguaje grande (LLM) funcionará en segundo plano. Desde la perspectiva del consumidor, la tecnología se presentará principalmente en forma de nuevas características para las aplicaciones existentes.
Durante el evento de iPhone 16 en septiembre de 2024, Apple destacó una serie de características impulsadas por AI que llegarían a sus dispositivos, desde traducción en el Apple Watch Series 10, búsqueda visual en iPhones, y varios ajustes en las capacidades de Siri. La primera oleada de Apple Intelligence llegará al final de octubre, como parte de iOS 18.1, iPadOS 18.1 y macOS Sequoia 15.1.
Las características se lanzaron primero en inglés estadounidense. Apple luego añadió localizaciones en inglés australiano, canadiense, neozelandés, sudafricano y británico. El soporte para chino, inglés (India), inglés (Singapur), francés, alemán, italiano, japonés, coreano, portugués, español y vietnamita llegará en 2025.
¿Quién obtiene Apple Intelligence?
Image Credits:Darrell Etherington
La primera oleada de Apple Intelligence llegó en octubre de 2024 a través de las actualizaciones de iOS 18.1, iPadOS 18.1 y macOS Sequoia 15.1. Estas actualizaciones incluyeron herramientas de escritura integradas, limpieza de imágenes, resúmenes de artículos y una entrada de escritura para la nueva experiencia de Siri. Una segunda oleada de características se hizo disponible como parte de iOS 18.2, iPadOS 18.2 y macOS Sequoia 15.2. Esta lista incluye, Genmoji, Image Playground, Visual Intelligence, Image Wand y la integración de ChatGPT.
Estas ofertas son gratuitas, siempre y cuando tengas uno de los siguientes dispositivos:
- Todos los modelos de iPhone 16
- iPhone 15 Pro Max (A17 Pro)
- iPad Pro (M1 y posteriores)
- iPad Air (M1 y posteriores)
- iPad mini (A17 o posteriores)
- MacBook Air (M1 y posteriores)
- iMac (M1 y posteriores)
- Mac mini (M1 y posteriores)
- Mac Pro (M2 Ultra)
Notablemente, solo los modelos Pro del iPhone 15 obtendrán acceso, debido a las limitaciones del chipset del modelo estándar. Presumiblemente, sin embargo, toda la línea de iPhone 16 podrá ejecutar Apple Intelligence cuando llegue.
¿Cómo funciona el AI de Apple sin conexión a internet?
Image Credits:Apple
Cuando preguntas a GPT o Gemini una pregunta, tu consulta se envía a servidores externos para generar una respuesta, lo que requiere una conexión a internet. Sin embargo, Apple ha adoptado un enfoque de modelo pequeño y personalizado para el entrenamiento.
La principal ventaja de este enfoque es que muchas de estas tareas se vuelven mucho menos intensivas en recursos y pueden realizarse en el dispositivo. Esto se debe a que, en lugar de confiar en el enfoque de “cocina” que alimenta plataformas como GPT y Gemini, la empresa ha recopilado conjuntos de datos en casa para tareas específicas, como, por ejemplo, componer un correo electrónico.
Sin embargo, esto no se aplica a todo. Las consultas más complejas utilizarán la nueva oferta de Private Cloud Compute. La empresa ahora opera servidores remotos que ejecutan Apple Silicon, que afirma que le permite ofrecer el mismo nivel de privacidad que sus dispositivos de consumo. Ya sea que una acción se realice localmente o a través de la nube, será invisible para el usuario, a menos que su dispositivo esté desconectado, en cuyo caso las consultas remotas mostrarán un error.
Apple Intelligence con aplicaciones de terceros
Image Credits:Didem Mente/Anadolu Agency / Getty Images
Hubo mucho ruido sobre la posible colaboración de Apple con OpenAI antes del lanzamiento de Apple Intelligence. Sin embargo, resultó que el acuerdo era más sobre ofrecer una plataforma alternativa para las cosas para las que no está realmente diseñada. Es una admisión tácita de que construir un sistema de modelo pequeño tiene sus limitaciones.
Apple Intelligence es gratuita. También lo es el acceso a ChatGPT. Sin embargo, aquellos con cuentas de pago a este último tendrán acceso a características premium que los usuarios gratuitos no tendrán, incluyendo consultas ilimitadas.
La integración de ChatGPT, que debuta en iOS 18.2, iPadOS 18.2 y macOS Sequoia 15.2, tiene dos roles principales: complementar la base de conocimientos de Siri y agregar a las herramientas de escritura existentes.
Con el servicio habilitado, ciertas preguntas pueden pedir al nuevo Siri que solicite la aprobación del usuario para acceder a ChatGPT. Ejemplos de preguntas que pueden surgir esta opción son recetas y planificación de viajes. Los usuarios también pueden pedir directamente a Siri que “consulte a ChatGPT.”
Compose es la otra característica principal de ChatGPT disponible a través de Apple Intelligence. Los usuarios pueden acceder a ella en cualquier aplicación que soporte la nueva característica de herramientas de escritura. Compose añade la capacidad de escribir contenido basado en un prompt. Esto se une a las herramientas de escritura existentes como Style y Summary.
Sabemos con certeza que Apple planea colaborar con otros servicios de inteligencia generativa. La empresa casi lo ha confirmado, Google Gemini está en la lista.
¿Pueden los desarrolladores construir sobre los modelos de AI de Apple?
En WWDC 2025, Apple anunció lo que llama el marco de modelos fundacionales, que permitirá a los desarrolladores acceder a sus modelos de AI mientras están desconectados.
Esto hace que sea más posible que los desarrolladores construyan características de AI en sus aplicaciones de terceros que aprovechen los sistemas existentes de Apple.
“Por ejemplo, si te estás preparando para un examen, una aplicación como Kahoot puede crear un cuestionario personalizado a partir de tus notas para hacer el estudio más atractivo,” dijo Federighi en WWDC. “Y porque ocurre utilizando modelos en el dispositivo, esto ocurre sin costos de API en la nube […] No podríamos estar más emocionados por cómo los desarrolladores pueden construir sobre Apple Intelligence para ofrecerte nuevas experiencias que sean inteligentes, disponibles cuando estés desconectado y que protejan tu privacidad.”
¿Cuándo recibirá Siri su próxima actualización?
Apple está previsto que presente una nueva y mejorada experiencia de Siri en 2026, lo que ya es un poco tarde en comparación con los competidores. Puede ser un golpe para Apple, pero para acelerar el desarrollo, pueden no tener más remedio que asociarse con una empresa externa para impulsar el nuevo Siri. Apple ha estado rumoreado que está en conversaciones avanzadas con Google, su principal competidor en hardware de smartphones.




