En el terreno del software móvil, algo está cambiando de fondo: Apple y Google han comenzado a integrar grandes modelos de lenguaje (LLMs) directamente en sus asistentes, con el propósito de hacerlos más conversacionales y “adivinar” lo que el usuario hará a continuación. Apple Intelligence, la capa de IA recién anunciada, potencia a Siri con conexiones contextuales; Google, por su parte, inserta funciones avanzadas en Gemini —incluyendo edición fotográfica y salud predictiva— que ya dominan demostraciones virales en redes sociales.
Apple presentó Apple Intelligence como el sistema que llevará modelos generativos al núcleo del iPhone, iPad y Mac. Gracias a esta arquitectura, Siri podrá entender peticiones sucesivas sin perder el hilo: puedes preguntar algo, luego hacer un seguimiento, y el asistente mantendrá el contexto para actuar con sentido.
Hasta ahora, Apple había planeado lanzar la versión LLM de Siri junto con iOS 18, pero la integración ha enfrentado retrasos; algunos reportes sugieren que podría debutar hasta 2026. Además, para maximizar resultados, Apple evalúa permitir que partes del nuevo Siri se apoyen en modelos de OpenAI o Anthropic.
Mientras, Google no espera. En su ecosistema, Gemini ya ofrece funciones como Nano Banana, un modelo especializado en edición de imágenes que permite cambiar vestuarios, fusionar fotos o aplicar estilos con instrucciones de texto. También cuenta con marcas visibles e invisibles (SynthID) para identificar imágenes generadas por IA. En su más reciente actualización, Gemini permite editar fotos directamente desde la app, sin pasar por herramientas externas.
Pero eso no es todo: Gemini avanza hacia la salud predictiva. Si tus hábitos sugieren patrones —actividad física, sueño, ritmo cardiaco—, el sistema podría anticipar sugerencias útiles para bienestar. Además, uno de sus lanzamientos más recientes permite convertir una foto en un clip de video corto con elementos de audio generados automáticamente, lo cual extiende las capacidades creativas de los usuarios sin necesidad de usar otras apps.
En redes como TikTok, los ejemplos de Siri entendiendo instrucciones contextuales o Gemini transformando retratos se multiplican. Se estima que un 25 % de las búsquedas móviles están relacionadas con funciones de IA —ya sea pedir a Siri que redacte mensajes o usar Gemini para retocar imágenes—, lo que evidencia el interés del público por estas posibilidades.
Para el usuario común, estas novedades implican una evolución en la rutina diaria: en lugar de abrir apps por separado, bastará con pedir algo en lenguaje natural para que el sistema actúe en múltiples frentes. Por ejemplo: “Muéstrame las fotos de ayer y añade una versión retocada a mi nota”, o “¿Cuántas horas dormí y necesitas sugerirme cuándo descansar?”. Siri y Gemini buscan responder con acciones completas, no solo respuestas textuales.
Sin embargo, el camino no está libre de retos. El procesamiento local en dispositivos —necesario para preservar la privacidad— tiene límites de potencia. Apple enfrenta dilemas técnicos para ejecutar modelos robustos en el chip del iPhone sin depender del servidor. En ciertos casos, la ejecución requerirá cooperación con la nube privada. Además, el retraso de Siri basado en LLM ha generado dudas sobre si Apple podrá igualar a competidores más rápidos en esta carrera.
Aun así, el proyecto avanza con fuerza. Apple ha adoptado un enfoque cauteloso: no lanzar la IA como producto aislado, sino integrarla en funciones que los usuarios ya emplean, como fotos, calendario o mensajes. Google, en cambio, ha ido más agresivo al incorporar funciones creativas dentro de Gemini e impulso de herramientas como Camera Coach, que analiza la escena del visor de la cámara y sugiere mejores composiciones en tiempo real.
En resumen: la próxima generación de asistentes en tu celular ya va más allá de responder preguntas. Siri y Gemini pretenden anticiparse, colaborar y transformar, haciendo que tu dispositivo deje de ser un receptor pasivo y se convierta en un compañero predictivo. Y aunque ambos gigantes tienen caminos distintos, la apuesta es la misma: convertir IA avanzada en herramienta cotidiana y confiable.
Deja una respuesta