Categoria:

Hemos probado Apple Intelligence durante un mes y estas son nuestras impresiones

Autor: Julian Chokkattu

Llevo más de un mes viviendo con una versión beta de Apple Intelligence. La vida no ha cambiado mucho desde que sus funciones llegaron a mi iPhone 16 Pro.

Si no te atreviste con la versión beta pública, desde ya podrás experimentar con Apple Intelligence. Apple por fin lanzó su tan anunciado conjunto de prestaciones de inteligencia artificial en iOS 18.1, iPadOS 18.1 y MacOS Sequoia 15.1, actualizaciones de software que se están desplegando para determinados iPhone, iPad y Mac.

Impulsada por los grandes modelos de lenguaje de la compañía, Apple Intelligence ha sido impulsada como una de las mayores razones para comprar el nuevo iPhone 16, iPad Mini o iMac. En la conferencia para desarrolladores WWDC del pasado mes de junio, Tim Cook declaró que llevaría la experiencia de uso de los productos de Apple a “nuevos límites”. ¿El problema? Esa experiencia, en su forma actual, es bastante plana.

Cómo se accede a Apple Intelligence

El despliegue de Apple Intelligence es atípico para la empresa, que normalmente agrupa todas sus características emblemáticas y las despliega en una gran actualización, a menudo junto con nuevos dispositivos. En este caso, iOS 18.1 llega un mes después de iOS 18 y la serie iPhone 16. Incluso después de instalar iOS 18.1, tendrás que apuntarte a una lista de espera para acceder a Apple Intelligence (suponiendo que tengas un dispositivo compatible), aunque esto solo debería tardar unas horas en aprobarse. E incluso entonces, no podrás acceder a las mejores funciones de Apple Intelligence. No llegarán sino hasta iOS 18.2.

Puedes elegir entre Reescribir, Corregir o Resumir el texto resaltado en el menú Herramientas de escritura.

Fotografía: Julian Chokkattu

¿Qué puedes hacer ahora mismo?

Empecemos por Herramientas de escritura, que te ayuda a Reescribir, Corregir o Resumir texto, estés donde estés, en el sistema operativo. Reescribir cambia el tono de la frase de informal a profesional, por ejemplo, mientras que Corregir corrige erratas y mejora la gramática. Lástima que sea casi imposible recordar que esta función existe, porque solamente aparece cuando se resaltan las palabras. Tal vez Herramientas de escritura sería mejor como un pequeño botón integrado en el teclado virtual.

Ahora puedes escribirle a Siri, aunque técnicamente esto no es nuevo. Antes se trataba de un ajuste de accesibilidad, que Apple ha incorporado a la experiencia, poniéndose por fin a la altura de Alexa y Google Assistant, que han tenido esta capacidad por defecto durante años. Siri también tiene un nuevo diseño, con un efecto brillante alrededor de la pantalla, y la capacidad de entender las consultas un poco más fácil, incluso si te trabas al hacer la pregunta. Sin embargo, a pesar de su nueva capa de pintura, en el día a día se siente prácticamente igual, lo que puede resultar un poco decepcionante.

Por otra parte, verás la opción de enviar respuestas inteligentes (mensajes rápidos generados por la IA basados en el contexto de la conversación, como “Gracias” o “Suena bien”) a personas en Mensajes y Correo. Si bien esto puede ser útil, es difícil entusiasmarse con una función que ha estado integrada en Gmail desde 2017.

Los resúmenes son otra gran parte de Apple Intelligence. Puedes usarlos para obtener una visión general de las páginas web e incluso de tus notificaciones. Si tienes varios mensajes de un chat grupal, el resumen resaltará las cosas importantes que se dijeron y podrás hacer clic para ver todos los detalles. Todavía no le he sacado mucho partido, ya que mis resúmenes suelen ser un revoltijo de palabras.

Una vez, resumió mis correos del trabajo y decía “emergencia médica” como parte de ellos. Revisé mi bandeja de entrada para ver qué pasaba. Resulta que alguien dijo que respondía con un día de retraso debido a una emergencia médica, pero que estaba bien. No era un correo electrónico de trabajo importante (me alegra saber que estaban bien), pero el resumen me hizo revisar mi bandeja de entrada cuando no era necesario. La mayoría de las veces, me encontré haciendo clic en mis notificaciones porque la Apple Intelligence destacaba algo que parecía crucial pero no lo era.

Las funciones más útiles de la primera oleada de Apple Intelligence son Limpieza y las funciones de transcripción en tiempo real de las aplicaciones Teléfono, Notas y Notas de voz. La primera te permite borrar objetos de tus fotos, algo que Google introdujo en 2021 en sus teléfonos Pixel; solo tienes que pulsar Editar en una foto y elegir Limpiar, y hará un buen trabajo borrando lo que hayas seleccionado, y después rellenando el hueco. Te permite pulsar grabar en Notas, Notas de voz o incluso durante llamadas telefónicas, para obtener una transcripción guardada automáticamente. Esto me resulta muy útil como periodista.

Las funciones de transcripción en tiempo real son de las mejores de la primera oleada de prestaciones de Apple Intelligence.

Fotografía: Julian Chokkattu

Por último, prueba la función de búsqueda en Fotos de Apple. Ahora hay menos barreras a la hora de buscar una foto, lo que significa que basta con introducir algo como “en el parque con [nombre de tu pareja]” para que aparezcan todas las imágenes de tu biblioteca. Puede entender ese contexto, aunque tendrás que aprovechar las funciones de Fotos de Apple, como etiquetar personas y mascotas. (Google también acaba de presentar una función muy similar en Google Fotos).

La segunda venida

No es tanto que las pocas funciones disponibles en la primera actualización de Inteligencia de Apple sean cosas que ya hemos visto de la competencia hace años. Al fin y al cabo, no importa si Apple se está poniendo al día o no, porque los usuarios de Apple ya pueden aprovechar algunas de estas funciones de una forma más privada y segura gracias a Private Cloud Compute de Apple (más información sobre esta tecnología aquí).

Pero Apple debería haber esperado para lanzar Apple Intelligence cuando todas sus funciones clave estuvieran disponibles simultáneamente, no de forma fragmentada. La reputación de Siri lleva mucho tiempo en la cuneta. Apple Intelligence promete cambiar eso, pero Siri es casi igual en iOS 18.1. La mayoría de las veces, cuando hago una pregunta, obtengo el mismo resultado: “Esto es lo que he encontrado en la web” Resulta que tendrás que esperar a iOS 18.2, que trae la integración ChatGPT que te permite hacer preguntas más abiertas y obtener respuestas más detalladas. La experiencia actual de Apple Intelligence sugiere que estás recibiendo algo nuevo, pero no es el caso.

Es con la próxima actualización cuando llegarán las funciones de voz más interesantes. Por ejemplo, Siri será capaz de entender el contexto de lo que hay en la pantalla de tu dispositivo, así que si alguien te manda un mensaje con una dirección, podrás pedirle que la guarde en su tarjeta de contactos. Y como Siri tiene acceso a tus correos electrónicos y mensajes, podrá incluso aprovechar el contexto personal. Pregúntale cosas como “¿Cuándo tengo que ir al aeropuerto a recoger a mi hermana?” y Siri te dará la respuesta, consultando los correos electrónicos o mensajes sobre vuelos que tu hermana haya enviado y asociándolos con estimaciones de tráfico.

Las funciones que pueden llevar al iPhone a nuevos “límites” solo están disponibles en iOS 18.2. Entre ellas están Image Playground, que te permite recurrir a IA para generar imágenes a partir de texto; Genmoji, para crear nuevos emojis a partir de texto; e Inteligencia Visual, que puede identificar lo que tienes delante y proporcionar contexto (como el nombre de un actor en un póster). Espero que Genmoji sea el próximo gran éxito, porque ¿quién no quiere crear emojis personalizados?

La Inteligencia Visual, que puede identificar lo que tienes delante y proporcionar contexto, no llegará hasta iOS 18.2.

Fotografía: Julian Chokkattu

Descargué la beta para desarrolladores de iOS 18.2, que llegó a finales de la semana pasada. De momento solo he podido acceder a Inteligencia Visual, pero su uso es más interesante que el de muchas de las otras funciones existentes de Apple Intelligence. Para iniciarla, mantén pulsado el botón de control de la cámara, apunta con el visor a algo del mundo real sobre lo que quieras aprender más y podrás “Preguntar” a través de ChatGPT o “Buscar” a través de Google. ¿Es esta experiencia similar a lo que Google Lens lleva haciendo siete años? Sí, pero la he utilizado más veces en la última semana que la mayoría de las funciones de Apple Intelligence en el último mes (un botón dedicado da para mucho).

Ayer mismo, mi pareja se preguntaba cómo era posible que las flores de nuestro vecino siguieran floreciendo con tanta belleza. Teníamos curiosidad por saber qué flor era: ella sacó Google Lens de su Pixel y yo saqué Apple Intelligence del iPhone. Hicimos fotos de las flores, y ambas tecnologías dijeron más o menos lo mismo: estábamos viendo margaritas, y algunas variedades pueden florecer hasta el otoño si están bien cuidadas en el clima adecuado.

En cualquier caso, si te decepcionas con Apple Intelligence, en concreto con Siri, es la próxima actualización la que por fin elevará el asistente de más de 10 años y, con suerte, lo pondrá a la altura de la competencia. Pero teniendo en cuenta su historia, harías bien en tener una pizca de escepticismo sobre la posibilidad de que Siri vaya a ser útil para algo más que el parte meteorológico.

Artículo originalmente publicado en WIRED. Adaptado por Mauricio Serfatty Godoy.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Te puede interesar también
los-9-animales-marinos-mas-grandes-del-mundo:-hasta-34-metros-y-180-toneladas
Tecnología

Los 9 animales marinos más grandes del mundo: hasta 34 metros y 180 toneladas

Descubre las asombrosas criaturas que dominan los océanos: desde la colosal ballena azul hasta el misterioso calamar gigante Sumergirse junto a estos gigantes marinos es una experiencia inolvidable que permite a los buceadores observar de cerca la majestuosidad y serenidad de estas colosales criaturas en su hábitat natural La magnitud del océano alberga algunos de

Leer Más >>
elecciones-en-estados-unidos-2024,-en-vivo-|-harris:-“trump-devalua-la-capacidad-de-las-mujeres-a-tomar-decisiones-sobre-su-propio-cuerpo”
Política

Elecciones en Estados Unidos 2024, en vivo | Harris: “Trump devalúa la capacidad de las mujeres a tomar decisiones sobre su propio cuerpo”

José Luis Ávila Hillary Clinton sobre Trump: “¿No sería genial no tener que pensar en este hombre nunca más?” Reaparece Hillary Clinton. Tras su aplaudido discurso en la Convención Nacional Demócrata en agosto, la excandidata presidencial subió un mensaje a sus redes llamando a los estadounidenses a pasar la página que ha supuesto la incursión de

Leer Más >>

¿Quieres hablar con nosotros en cabina?

Nuestros Horarios en el Estudio:

9am a 11am | 12m a 1pm | 4 a 5 pm | 5 a 6pm

horario del pacifico