Android XR y Samsung Project Moohan: así será el nuevo ecosistema inmersivo de Google

  • Android XR unifica realidad aumentada, mixta y virtual en una plataforma abierta basada en Android, compatible con apps de Google Play y estándares como OpenXR y WebXR.
  • Gemini, la IA multimodal de Google, se integra de forma nativa para ofrecer asistencia contextual, control por voz y gestos, traducciones en tiempo real y experiencias más inteligentes.
  • Samsung Project Moohan será el primer visor en estrenar Android XR, con Snapdragon XR2 Plus Gen 2, passthrough a color, seguimiento ocular y funciones como PC Connect o Travel Mode.
  • Apps como Google Fotos aprovechan Android XR para mostrar recuerdos en modos de espacio compartido e inmersivo, con conversión de fotos y vídeos 2D a experiencias 3D espaciales.

Imagen de Android XR

Samsung está lista para dar el salto a la realidad extendida con su visor Project Moohan, que será presentado oficialmente durante el Mobile World Congress 2025 en Barcelona. Se trata del primer visor XR de la compañía que utilizará Android XR, una plataforma adaptada para este tipo de dispositivos y desarrollada en colaboración con Google y Qualcomm. Si deseas profundizar en la asociación entre estas empresas, puedes leer sobre la colaboración entre Samsung y Google.

Android XR sistema operativo inmersivo

Android XR: el nuevo ecosistema de realidad extendida

Plataforma Android XR inmersiva

Google ha dado un paso importante en la unificación del ecosistema XR con Android XR, su versión especializada del sistema operativo que permitirá a las aplicaciones funcionar sin problemas en entornos de realidad aumentada, mixta y virtual. La integración de este sistema en el visor de Samsung facilitará la adaptación de aplicaciones ya existentes en Android, lo que puede darle una ventaja competitiva respecto a otros sistemas cerrados como visionOS de Apple. Para conocer más sobre este nuevo sistema operativo, consulta este artículo sobre Android XR y su impacto en la realidad extendida.

Android XR no es solo un sistema para visores voluminosos, sino una plataforma pensada para todo tipo de dispositivos inmersivos, desde cascos de realidad mixta hasta gafas ligeras de inteligencia artificial. La idea de Google es que, a lo largo del día, el usuario pueda ir cambiando de factor de forma sin perder sus aplicaciones, sus sesiones abiertas ni su contexto, de forma muy similar a como ocurre hoy entre móvil, reloj y tablet.

Uno de los pilares del sistema es la compatibilidad amplia con las apps de Google Play. Muchas aplicaciones de Android pueden ejecutarse en Android XR en modo de ventana, mientras que otras se adaptan a entornos espaciales mediante interfaces flotantes, paneles curvos o vistas inmersivas a pantalla completa. Google ya ha optimizado aplicaciones clave como Google Fotos, Google Maps o YouTube para que aprovechen mejor el espacio 3D y las capacidades de seguimiento de cabeza y manos.

La arquitectura de Android XR se apoya en estándares abiertos del sector XR, como OpenXR y WebXR, lo que simplifica que experiencias desarrolladas para otras plataformas puedan migrarse con menos esfuerzo. Al mismo tiempo, el sistema hereda la base de Android tradicional, de modo que los desarrolladores pueden trabajar desde Android Studio con herramientas conocidas y un SDK específico, Jetpack XR, que añade componentes espaciales y patrones de diseño adaptados a la realidad extendida.

Otro de los grandes atractivos de Android XR es su integración con Gemini, la inteligencia artificial multimodal de Google, que permitirá realizar interacciones más naturales y mejorar la experiencia del usuario en ámbitos como la productividad y el entretenimiento. Gemini actúa como el hilo conductor entre dispositivos y como un asistente capaz de entender la voz, la imagen y el entorno 3D en tiempo real.

Android XR y Gemini: experiencias inmersivas con IA

La integración profunda entre Android XR y Gemini convierte a los visores y gafas compatibles en algo más que simples pantallas en la cara: se transforman en asistentes contextuales permanentes. Gracias a sus capacidades multimodales, Gemini puede ver lo mismo que ve el usuario, escuchar sus peticiones y responder con información superpuesta directamente en el espacio.

En dispositivos XR basados en Android XR, Gemini funciona como asistente siempre disponible. Desde unas gafas ligeras, el usuario puede pedir indicaciones, traducciones instantáneas o un resumen de los mensajes sin sacar el móvil; en un visor como Project Moohan, ese mismo asistente es capaz de manejar ventanas, posicionar paneles flotantes alrededor del usuario o convertir una simple habitación en un despacho virtual completo.

Las capacidades de Gemini permiten funciones como el control por gestos y voz combinados: el usuario puede señalar un objeto del entorno real mientras formula una pregunta, y el sistema lo identifica y responde con información contextual. Esto abre la puerta a casos de uso como asistencia en tiempo real en la cocina siguiendo una receta proyectada en el aire, ayuda con instrucciones de montaje o explicaciones educativas sobre elementos del entorno.

Este tipo de avances ya se han visto en productos como las gafas Ray-Ban Meta con asistentes de IA, que incluyen funciones de interpretación del mundo real. En el caso de Android XR, esta filosofía se lleva un paso más allá al integrarse de forma nativa en el sistema operativo, de modo que cualquier app puede apoyarse en Gemini para ofrecer experiencias más inteligentes, desde aplicaciones de productividad hasta juegos y herramientas creativas.

En el visor de Samsung y en futuros dispositivos XR, se espera que también lleguen funciones avanzadas como Your Likeness, que genera una representación digital del rostro del usuario para videollamadas inmersivas, o sistemas de Auto-Spatialization y System Autospatialization, capaces de transformar contenido 2D en experiencias 3D en tiempo real para aprovechar al máximo el espacio inmersivo.

Android XR y Google Fotos: tus recuerdos en 3D

Una de las demostraciones más claras del potencial de Android XR está en la nueva versión de Google Fotos adaptada al entorno inmersivo. La app ha sido rediseñada para ofrecer dos modos principales que aprovechan las capacidades espaciales del visor:

  • Modo de espacio compartido: permite usar Google Fotos como en un móvil o tablet, mostrando las imágenes en 2D en una ventana flotante que convive con otras aplicaciones. El usuario puede redimensionar la ventana, colocarla en cualquier parte del espacio y hacer multitarea con otras apps abiertas alrededor.
  • Modo inmersivo: en este modo, Android XR ocupa el entorno al completo para sumergir al usuario en sus fotos y vídeos. Es posible revivir panorámicas en gran tamaño, disfrutar de contenido en 360° o VR180 y, sobre todo, transformar fotos y vídeos en 2D en experiencias 3D que generan profundidad y sensación de presencia.

El proceso de conversión de contenido 2D a 3D (espacialización) abre una nueva forma de revivir recuerdos personales. Las fotos suelen espacializarse en cuestión de segundos, mientras que los vídeos pueden tardar algo más, en función de su duración y resolución. Una vez convertidos, el usuario puede alternar entre vistas 2D y 3D, acceder al contenido espacializado almacenado localmente en el visor e incluso disfrutar de vídeos VR180 nativos.

Además, con Android XR es posible reproducir vídeos en 4K dentro del visor, visualizar panorámicas y fotos en 360° ocupando todo el campo de visión o mostrar fotos en 2D sobre una pantalla virtual gigante. Todo ello se gestiona desde la misma app de Google Fotos, usando la copia de seguridad en la nube o el contenido almacenado directamente en el dispositivo XR, sin necesidad de volver a subir los archivos.

En cuanto al compartido de contenido, de momento los límites se centran en la imposibilidad de crear copias de seguridad específicas de contenido espacializado, aunque sí se puede compartir material nativo en 3D siempre que el dispositivo receptor y sus aplicaciones soporten este tipo de formatos. Pese a estas restricciones iniciales, Android XR se perfila como una plataforma idónea para construir álbumes de recuerdos verdaderamente inmersivos.

Project Moohan: el visor XR de Samsung

Visor XR Project Moohan de Samsung

El visor de Samsung, conocido como Project Moohan, busca posicionarse como un competidor directo del Apple Vision Pro. A nivel de diseño, se asemeja a unas gafas de esquí y está construido con una combinación de metal, vidrio y plástico, lo que sugiere un enfoque premium. El frontal de cristal y la banda ajustable que integra la batería apuntan a un dispositivo pensado para sesiones relativamente largas sin sacrificar comodidad.

En cuanto a hardware, Project Moohan estará equipado con el potente procesador Snapdragon XR2 Plus Gen 2, diseñado para ofrecer una experiencia fluida y de baja latencia en realidad extendida. Esto permitirá una respuesta casi instantánea en la interacción con el entorno virtual, algo esencial para evitar mareos y garantizar sensaciones naturales al mover la cabeza, las manos o los ojos. Puedes comparar este nuevo visor con otros productos del mercado en nuestro artículo sobre Samsung Project Moohan y Meta Quest 3.

Además, el visor contará con varias cámaras, incluyendo sensores de seguimiento ocular y cámaras externas que permitirán simular una experiencia de realidad mixta mediante passthrough a color. Este enfoque, similar al de otros visores de gama alta, permite mezclar con precisión elementos digitales con el mundo físico y habilita interacciones avanzadas por mirada, gestos y control de manos sin necesidad de mandos tradicionales, aunque el sistema también será compatible con controladores VR para juegos.

Project Moohan aprovechará muchas de las funciones que Google está incorporando a Android XR, como PC Connect para llevar el escritorio del ordenador al visor mediante ventanas flotantes, Travel Mode para estabilizar el entorno XR en desplazamientos y evitar mareos, o funciones como Your Likeness para crear avatares hiperrealistas que reflejen las expresiones faciales del usuario en videollamadas. Todas estas capacidades sitúan al visor de Samsung como una pieza central del nuevo ecosistema XR de Google.

El papel de la inteligencia artificial en Android XR

Inteligencia artificial en Android XR

Uno de los aspectos clave de Android XR es su integración profunda con inteligencia artificial. Gracias a Gemini, los dispositivos XR podrán contar con asistentes capaces de interpretar el mundo real y proporcionar información contextual de forma instantánea, convirtiendo cada experiencia en algo mucho más dinámico y personalizado.

El uso de IA en estos visores no solo permitirá control por gestos y voz, sino que también facilitará la identificación de objetos, la traducción de textos en tiempo real y la generación de recordatorios visuales basados en lo que el usuario observa. Un simple vistazo a un cartel en otro idioma podría activar una traducción superpuesta en la lente, o mirar un producto en una tienda bastaría para obtener reseñas, especificaciones o comparativas con otros modelos.

Este enfoque se extiende a funciones avanzadas del sistema, como System Autospatialization, orientada a transformar cualquier ventana o app 2D en una experiencia 3D inmersiva en tiempo real. De esta manera, incluso las aplicaciones que todavía no han sido adaptadas al formato espacial pueden aprovechar las capacidades del visor, acelerando la adopción del ecosistema sin exigir grandes inversiones iniciales a los desarrolladores.

Este tipo de avances ya se han visto en productos como las gafas Ray-Ban Meta, que incluyen asistentes de IA para mejorar la interacción con el usuario. En el caso de Android XR, la diferencia está en que todo el sistema gira alrededor de una IA centralizada (Gemini) que unifica la experiencia entre visores XR, gafas con cable, gafas sin pantalla y otros dispositivos del ecosistema Android.

Samsung desvelará su visor Project Moohan en el Mobile World Congress 2025, donde se espera que se muestren todas las capacidades de la inteligencia artificial integrada en Android XR y cómo estas novedades se traducen en casos de uso reales para trabajo, ocio, educación o comunicación.

Herramientas y futuro del ecosistema Android XR

Para consolidar Android XR como un estándar de facto en realidad extendida, Google está apostando por un ecosistema de desarrollo muy accesible. Los creadores que ya trabajan con Android pueden aprovechar gran parte de sus conocimientos, ya que el SDK de Android XR, las bibliotecas Jetpack XR y la integración con motores como Unity permiten desarrollar experiencias espaciales desde Android Studio con patrones familiares.

Además, se están introduciendo interfaces XR basadas en Material 3, adaptadas a entornos 3D: componentes flotantes, paneles curvos, menús contextuales anclados al entorno y sistemas de interacción pensados para manos, mirada y voz. La compatibilidad con WebXR facilita también que las experiencias inmersivas se distribuyan a través del navegador, sin necesidad de instalar apps dedicadas, lo que rebaja la barrera de entrada tanto para usuarios como para desarrolladores.

El lanzamiento de sucesivas versiones preliminares del SDK y las herramientas para desarrolladores refuerza la idea de que Android XR está concebido como una plataforma abierta y escalable, orientada tanto a visores de alta gama como a gafas XR con cable o gafas ligeras de IA. Esta flexibilidad es clave para que múltiples fabricantes puedan sumarse, desde grandes marcas de electrónica de consumo a compañías especializadas en gafas de diseño.

Cuándo sabremos más sobre esta tecnología

El Google I/O será otro evento clave donde se podrán conocer más detalles sobre las futuras aplicaciones de esta tecnología y sobre las nuevas funciones que Google vaya incorporando a Android XR, tanto a nivel de usuario final como de herramientas de desarrollo.

El anuncio de Project Moohan llega en un momento clave, ya que Apple y Meta han dominado el sector de la realidad extendida durante los últimos años. Apple ha apostado por un enfoque más exclusivo con Vision Pro, mientras que Meta ha abierto su plataforma a terceros fabricantes con Horizon OS, reforzando su posición en el terreno del entretenimiento y el social VR.

Samsung, por su parte, pretende diferenciarse con un ecosistema más abierto basado en Android XR, lo que podría facilitar la adopción de este tipo de dispositivos al aprovechar el enorme catálogo de apps de Google Play y la familiaridad del entorno Android. Además, su asociación con Google y Qualcomm le proporciona una base tecnológica sólida para competir en el mercado y ofrecer actualizaciones constantes a nivel de sistema, IA y hardware.

El Mobile World Congress 2025 será el escenario donde Samsung desvelará todos los detalles de su visor Project Moohan. Se espera que los asistentes puedan probar el dispositivo y conocer más de cerca cómo se integra Android XR en este nuevo ecosistema, cómo se comporta Gemini en entornos inmersivos y hasta qué punto las funciones como PC Connect, Travel Mode o la espacialización de contenido cambian el día a día del usuario.

Samsung presenta gafas Android XR Project Moohan en el MWC25-0
Artículo relacionado:
Samsung Project Moohan (Galaxy XR): así es el visor de realidad mixta con Android XR y Gemini

Con la combinación del hardware de Samsung, el software de Google y la potencia de Gemini, Android XR y Project Moohan apuntan a convertirse en una referencia de la computación inmersiva, proponiendo un modelo en el que la pantalla ya no es un objeto aislado, sino una capa superpuesta al mundo físico que acompaña al usuario en todo momento.