Llevo un par de lentes de montura gruesa en la cara. No me parecen pesados pero sí gruesos. Me acerco a un póster del cuadro Girl with a Pearl Earring (La joven del arete de perla), y pregunto en voz alta qué tiene de especial. Una breve respuesta que detalla el uso experto de la luz y el color por parte de Johannes Vermeer llega flotando a mis oídos, y cuando pregunto por la fecha en que fue pintado, rápidamente oigo la misma voz: “Alrededor de 1965”.
No es un episodio de esquizofrenia, lo juro. Llevo un prototipo de las próximas gafas inteligentes de Google, impulsadas por su asistente de voz con IA Gemini. La compañía las presentó en su Conferencia de Desarrolladores I/O 2024, mostrando un video de prueba de concepto de un par potenciado por IA con el nombre de “Project Astra”. Por el momento las gafas están en fase de desarrollo, pero Google planea lanzarlas en algún momento de 2025.
Estas gafas inteligentes son una parte del gran anuncio de hoy de Google: Android XR. Esta plataforma de “realidad extendida” (XR, por sus siglas en inglés) marca el décimo año de expansión del sistema operativo móvil de Google a nuevas plataformas más allá de los smartphones, uniéndose a las filas de Wear OS, Google TV y Android Auto. Prepara el terreno para una nueva oleada de visores y lentes de realidad virtual (VR) y aumentada (AR) con una versión personalizada de Android.
La mayoría de los productos que ejecutan Android siguen el mismo modelo: Google gestiona el sistema operativo, pero varias empresas venden dispositivos que ejecutan el software Android. Sin embargo, Android XR es una estrecha colaboración entre Google y Samsung, además de Qualcomm, al igual que la plataforma de reloj inteligente Wear OS. Debutará con un visor de realidad mixta de Samsung cuyo nombre en clave es “Project Moohan”, que también se lanzará en 2025. Tuve la oportunidad de probar este visor junto con las gafas.
Android XR se anunció en un evento para desarrolladores celebrado en Nueva York con el que se pretende que los creadores de aplicaciones se interesen por la plataforma antes del lanzamiento oficial del proyecto. Yo realicé las primeras pruebas con las versiones pioneras de hardware y software, por lo que no se me permitió hacer fotos ni grabar videos de mi experiencia. Así que tendrán que confiar enteramente en mis palabras.
En esta era moderna donde la tecnología de la comunicación ha evolucionado, ¿te gustaría más el sexo a distancia? Recorrimos esta alternativa en nuestra entrevista con Dan Liu, fundador y CEO de la empresa especializa en ‘placer a control remoto’.
Android XR a fondo
Android XR llega casi una década después de que Samsung y Google lanzaran sus respectivas plataformas de realidad virtual impulsadas por smartphones: GearVR y Daydream View. Ambas compañías cerraron sus ambiciones de VR unos años más tarde, pero Shahram Izadi, vicepresidente de realidad aumentada y mixta en Google, me asegura que las cosas son diferentes esta vez: “La tecnología se encuentra en un punto de inflexión. La IA generativa ha generado la necesidad de nuevos casos de uso que, en ese entonces, eran difíciles de predecir y que gracias a algunos avances hemos tenido”. Agrega que tanto Google como Samsung han desarrollando tecnologías de realidad aumentada y virtual incluso después de que sus plataformas iniciales cerraran.
El enfoque de la plataforma es importante porque cualquier aplicación de Android será accesible en una computadora frontal Android XR. Si una app tiene una experiencia optimizada para tablets con pantallas más grandes, entonces será aún más funcional. Naturalmente, para una verdadera experiencia de diseño espacial, los desarrolladores tendrán que optar y hacer trabajo de campo, pero Google asegura que es posible construir para Android XR utilizando muchas de las mismas herramientas que se emplean actualmente para desarrollar aplicaciones de Android. También es compatible con OpenXR, Unity y WebXR para garantizar una mayor compatibilidad con aplicaciones y experiencias.
Pero lo que diferencia a Android XR de todo lo demás y de las versiones anteriores es que está desarrollado con el asistente Gemini de Google en su núcleo. Cuando actives Gemini en un visor de realidad mixta o en unas gafas inteligentes, podrá oír y ver lo que estás viendo. Por ejemplo, puedes pedirle a Gemini que reorganice las aplicaciones del entorno virtual si todo está desordenado, en lugar de arrastrarlas tú. También fui testigo de cómo Gemini narraba un partido de fútbol en tiempo real mientras yo lo veía en YouTube. Permítanme que me adentre en mis experiencias para explicarlo mejor.
Hablemos del Proyecto Moohan
El visor de realidad mixta de Samsung tiene buen aspecto, aunque se parece mucho al de VR estándar. Tiene un tacto un poco “plasticoso”, pero relativamente ligero. Lo ajusté mediante un dial situado en la parte posterior del rompecabezas; aunque solo pasé cerca de 30 minutos con el dispositivo puesto, no me resultó demasiado incómodo en la cabeza. Siguiendo el ejemplo de las gafas Vision Pro de Apple, Samsung incorporó una batería independiente, así que tendrás que guardarla en el bolsillo y habrá que cargar un cable que conectará ambas piezas.
Las personas que necesiten lentes de montura podrán adquirir unas plantillas graduadas que se pegan a los lentes del visor. También hay un bloqueador de luz opcional que se fija rápidamente a la parte inferior en caso de que quieras una experiencia más envolvente. Samsung disponía de adaptadores para mi graduación ocular, así que pude quitarme los lentes, y también opté por utilizarlo con el bloqueador de luz. Funcionó bastante bien a la hora de bloquear la luz ambiental, aunque me produjo un ligero sangrado alrededor de la nariz.
La interfaz admite controles de VR: la forma predeterminada de interactuar con todo es por medio de las manos. En este sentido, es muy parecido a las Vision Pro; utiliza las manos para mover el cursor y pellizca con los dedos índice y pulgar para seleccionar. Puedes pellizcar y acercar o alejar para desplazarte. El visor también es compatible con el seguimiento ocular, pero requiere de un poco de calibración adicional: una vez configurado, basta con mirar un ícono y hacer el gesto de pellizcar para dar clic, no hace falta que levantes el brazo. Puedes usar los dos dedos simultáneamente y la sensación será de respuesta. Cuentas con seis grados de libertad para moverte por una habitación en un entorno virtual, y te protegen vallas virtuales en caso de que te acerques demasiado a la pared.
La calidad visual de la pantalla es nítida, aunque se pixelea un poco en el modo de visión en color. Como la mayoría de los visores, Project Moohan utiliza un “renderizado foveado”; la parte de la imagen situada en el centro de la visión es la más nítida y se renderiza con mayor calidad, mientras que la calidad de la imagen disminuye hacia la periferia. Nunca sentí náuseas ni me mareé, esto rara vez ha sido un problema para mí en las experiencias de VR, pero sí tuve la sensación de que las cosas del centro de la pantalla estaban a veces demasiado cerca unas de otras. Podría tratarse de un problema relacionado con mi distancia interpupilar, aunque el casco detectó mis puntos por pulgada (DPI) y utilizó las cámaras de seguimiento ocular para calibrarla. Samsung asegura que los datos de seguimiento ocular nunca salen del dispositivo.
Abrí varias aplicaciones de Google, cambié su tamaño y las coloqué por la habitación. El texto era nítido en aplicaciones como Chrome, y los modelos 3D extraídos de Google Search se veían muy detallados. La compañía recalca su compromiso con la optimización de apps para entornos espaciales; por ello, YouTube deconstruyó su interfaz para tener el video al frente y al centro. Estos son algunos ejemplos:
Google Fotos también tiene un truco interesante: Las fotos que normalmente ves en 2D, ahora podrás disfrutarlas en tres dimensiones. No importa si la imagen se capturó con una cámara de película, smartphone o una cámara profesional mirrorless. Google está utilizando modelos de aprendizaje automático para comprender la profundidad aparente en imágenes y videos, lo que le permite obtener esa experiencia multimedia 3D más inmersiva sin tener que capturar contenido espacial. Sin embargo, la captura espacial parece una característica que aterrizará en los teléfonos Pixel en el futuro, al igual que en los iPhone una vez que se anunciaron las Vision Pro.
Vi un video en 2D de un niño pequeño interactuando con un recién nacido, pero entonces pulsé el botón de inmersión y el clip de repente ganó más profundidad y se sintió más realista. Algunos bordes alrededor de los sujetos se veían borrosos, como cuando el modo retrato de la cámara de tu móvil no sabe decidir muy bien dónde debe empezar el desenfoque. Pero a pesar de que estaba claro que había algún tipo de procesamiento, seguía siendo impresionante. Dicho esto, no voy a ponerme un casco de realidad virtual para revivir mis recuerdos; o bueno, no todavía.
Naturalmente, puedes trabajar en un entorno de realidad mixta con un teclado y un mouse Bluetooth conectados, y puedes ponerte en un entorno inmersivo si quieres concentrarte, o dejar activado el modo transparente para asegurarte de que tus compañeros de trabajo no están haciendo fotos y riéndose mientras llevas un ridículo visor para hacer cosas. No estaba claro si podrías conectar los lentes a una laptop para llevar tu trabajo a la realidad mixta, una función que sí está disponible en las Vision Pro.
Una nueva versión del modelo de IA insignia de Google muestra cómo la empresa prevé que la inteligencia artificial transforme la informática personal, la búsqueda web y, tal vez, la forma en que las personas interactúan con el mundo físico.
Gemini en XR
Con un toque en el lateral de las gafas se abre un lanzador de aplicaciones, donde puedes activar Gemini si quieres que permanezca “encendido” de forma persistente. Una vez activo, hay un ícono en la parte superior del espacio virtual para que sepas que todo lo que dices y miras lo registra el chatbot.
En el modo transparente, puedes acercarte a un objeto y preguntarle a Gemini sobre él: un googler que estaba haciendo una demostración del casco, antes de que yo lo probara, se acercó a otra persona que llevaba una camiseta del FC Barcelona y le pidió a Gemini que buscara “la clasificación de este equipo”, Gemini registró rápidamente el nombre del equipo y sacó resultados de búsqueda con la clasificación de la liga y los detalles de los últimos partidos.
Puedes pedirle cualquier cosa a Gemini y te responderá con resultados visuales en las gafas. Le pedí que me llevara a Perú y abrió una versión en 3D de Google Maps. Pude moverme y centrarme en Lima, y en las ciudades donde la app ya tiene muchos modelos 3D, puedes explorar zonas con más detalle. Puedes seguir hablando con el chatbot en estas experiencias, así que le hice preguntas como cuándo sería el mejor momento para visitarla y obtuve una respuesta rápida.
En otro ejemplo, me asomé al interior de un restaurante de Nueva York para hacer una visita virtual del local. Google sugiere que puede utilizar la IA para unir imágenes del interior de un local y mostrarlas de forma que parezca que estás allí. Hizo un trabajo bastante bueno, y le pregunté a Gemini si el lugar acepta reservas, sin tener que decir específicamente el nombre, porque yo estaba mirando el restaurante. “Acepta reservas”, contestó sin chistar. Pero Gemini no podía hacerme una; esa integración podría venir más tarde.
A continuación, he visto algunos videos en YouTube, donde los contenidos 2D se ven nítidos y coloridos. El contenido estereoscópico era aún mejor; mis sentidos se sentían rodeados. Vi a unos excursionistas caminando por un sendero y le pregunté a Gemini dónde estaba todo aquello, y me respondió: “Nueva Zelanda”; no pude comprobarlo, pero me pareció la respuesta correcta. Vi más reproducciones espacializadas de clips en 2D mientras el reproductor virtual añadía profundidad y capas para que parecieran en 3D. Fui a la aplicación Google TV y activé el “modo Cine” para abrir un cine virtual en el que ver películas y series, como en otros visores de realidad virtual.
“Circle to Search”, la función que Google estrenó a principios de año en los teléfonos Android, también está disponible en Android XR. Solo tienes que acercarte a un objeto físico cercano, pulsar el botón superior del auricular y, a continuación, pellizcar y dibujar un círculo alrededor de lo que quieras saber más. Obtendrás una página de búsqueda de Google con resultados.
En la conferencia Meta Connect para desarrolladores, Mark Zuckerberg presentó Orion, unas gafas inteligentes futuristas con las que la empresa espera liderar el próximo cambio fundacional de la informática personal.
Gafas inteligentes
Project Moohan es como si Google y Samsung se pusieran al día con el resto del mercado de la realidad virtual, aunque la integración de Gemini da a sus esfuerzos una capa única. Sin embargo, tengo que admitir que estaba mucho más emocionado por probar las gafas inteligentes, donde Gemini podría ser aún más útil. No me decepcionaron. Me acerqué a otra sala y había varios pares de gafas delante de mí. Algunas eran gafas de sol, otras tenían cristales transparentes. Al igual que los cascos, puedes cargarlos con tu graduación. Google no dio nombre a los prototipos de gafas.
Las gafas tienen patillas gruesas, pero no se diferencian demasiado de algo como las Meta Wayfarers. Hace varios años, Google compró North, una empresa que fabricaba lentes inteligentes, y la influencia del diseño es evidente. Estas nuevas monturas son decididamente más delgadas que las Focals de North y más cómodas de llevar: solo hay que acostumbrarse al grueso borde que rodea los ojos. Hay una cámara integrada en la montura, con un LED que se enciende cuando la cámara está activa.
La mayor parte del procesamiento se lleva a cabo en el smartphone, que se vincula a la montura durante la instalación. La descarga de gran parte de la informática en el teléfono es lo que permite que la batería de las gafas dure “todo el día”, o eso espera Google. A diferencia de las gafas de Meta, las de Google tienen pantalla. Y podría haber opciones entre las que elegir: sin pantalla pero con acceso a Gemini, con una pantalla monocular en una lente o gafas con un binocular que se muestra en la parte frontal y central para una mejor experiencia.
Un toque en el lateral de la montura activa la pantalla y muestra información general, como la fecha, la hora y el tiempo. A continuación, puedes iniciar aplicaciones. Pude echar un primer vistazo a Google Maps, donde, al mirar hacia delante, puedes ver indicaciones giro a giro superpuestas en el mundo real. Si miras hacia abajo, verás la aplicación Google Maps como si estuvieras mirando un teléfono. Te ofrece una vista de pájaro de tu navegación actual por si quieres ver la ruta completa. Google explicó que habrá otras integraciones de aplicaciones en el futuro.
La estrella del espectáculo es Gemini, con el nuevo Gemini 2.0, que puedes activar y pausar con un toque en el brazo de las gafas. Le pedí a Gemini que me explicara la importancia del cuadro que estaba mirando y me dio una respuesta concisa. A continuación, estaba viendo una señal de tráfico en español; le pedí que la tradujera y el texto en inglés apareció superpuesto sobre la señal. Aún más loco fue cuando Google hizo que alguien se pusiera enfrente de mí y me dijera una frase en español. Sus palabras se tradujeron al inglés en tiempo real en las gafas, permitiéndome entenderlas sin tener una aplicación en mi teléfono.
En el Google I/O del año pasado, la compañía presentó unas gafas inteligentes que podían subtitular conversaciones del mundo real, una función muy útil para las personas con pérdida de audición. Tuve la oportunidad de verlo en acción durante mi demostración, la experiencia no era perfecta, pero sí lo bastante buena para seguir una conversación y, francamente, resultaba un poco alucinante ver cómo aparecían palabras debajo de la cara de una persona cuando estás en el mundo real y no en un entorno digital.
A continuación, me acerqué a varios libros que había en una estantería y elegí uno. Abrí el libro por una página al azar y le pedí a Gemini que resumiera la página, y con una rapidez admirable lo hizo e incluso resaltó un diálogo entre dos personajes. Otro truco ingenioso es que Gemini tiene una pequeña ventana en la que recuerda las cosas que ves, así que después de alejarme, pude preguntarle el nombre del “libro amarillo” de la estantería, ese que ni siquiera había mirado, y rápidamente me lo dio. Esta ventana sensible al contexto dura “minutos”, así que no puedes pedirle que te recuerde algo que viste a primera hora del día, aunque Google está trabajando para aumentar esta función.
Las demostraciones continuaron: me acerqué a una máquina Nespresso y le pedí a Gemini que me dijera cómo usarla. Acertó el nombre del modelo en el primer intento con solo verla delante de mí. Miré el disco de OK Computer y le pedí a Gemini que reprodujera un tema del álbum de Radiohead a través de los altavoces de los lentes. Como Gemini 2.0 es multilingüe, también le pedí que describiera otro cuadro que tenía delante en mi segunda lengua, el malayalam. No soy hablante nativo, pero fui capaz de distinguir las palabras y me sonó casi todo. Me imagino a mi madre sacándole partido, ya que el inglés no es su lengua materna.
Como está emparejado con tu teléfono, tus notificaciones también aparecerán en las gafas. Están resumidas con IA para que no tengas la sensación de tener un muro de texto delante de la cara, y puedes utilizar los comandos de voz de Gemini para responder. Para hacer fotos, basta con pulsar un botón situado en la parte superior del brazo derecho de las gafas. Después de la captura, aparece una vista previa para reajustar el encuadre si es necesario. Como llevan una pantalla integrada, estas gafas también pueden reproducir videos. La pantalla era pequeña y la imagen no era la más nítida, pero Google asegura que “la versión final será varias veces más brillante y vívida”.
Luego de que Nintendo emprendiera acciones legales contra desarrolladores de emuladores y sitios de ROM, surgen pruebas de que la empresa podría estar usando un emulador propio o de código abierto para proyectar videojuegos retro en su museo.
Una década después de Glass
Recuerdo haber visto la primera demostración de Google Glass en mi habitación de la universidad; un momento realmente icónico en Google I/O 2012, donde la gente se lanzaba en paracaídas hacia el Moscone Convention Center llevando unas gafas inteligentes cíborg que transmitían video de su aproximación a través de una llamada de Hangouts. Estas gafas inteligentes con Android XR no despiertan tanta expectación, pero en el poco tiempo que llevo con ellas, puedo decir lo siguiente: de todas las gafas inteligentes que he probado, son las que más se acercan a hacer realidad la visión original de Glass.
No obstante, la big tech también está en un lugar muy diferente como empresa de lo que estaba en 2012. Recientemente, un juez dictaminó que Google Search era un monopolio ilegal y pidió a la empresa que vendiera Google Chrome. Sin embargo, Google y Samsung quieren ahora ser “la plataforma” de la próxima ola de computación espacial. La VR también ha tenido un camino complicado debido al vacilante interés de los consumidores y, dado el historial de Google en la cancelación de proyectos, es difícil saber si una plataforma de computación facial que requiere un hardware especial y caro correrá la misma suerte que tantas aplicaciones y servicios anteriores.
Izadi sostiene que el enfoque de la plataforma ayuda en ese sentido: “Estamos establecidos como vertical de Android, no vamos a desaparecer pronto, esa es la garantía que podemos ofrecerle al público”. La gran apuesta parece estar en torno a Gemini y la IA. Ah, y la sinergia entre Google y Samsung. Como dice Kihwan Kim, el vicepresidente ejecutivo de Samsung que lidera el Proyecto Moohan: “No se trata de que algunos equipos o empresas hagan esto, esto es diferente. Se trata de empezar desde cero para ver cómo la IA puede influir en la realidad virtual y en la realidad aumentada”, y añade que la colaboración con Google ha sido como “un solo espíritu”, algo que nunca antes había experimentado.
Artículo originalmente publicado en WIRED. Adaptado por Alondra Flores.