Hasta ahora y recientemente hemos podido hablar mucho del futuro de las Google Glass, y de su posible cancelación. Sin embargo, parece que siguen su camino para ser una realidad en el mercado internacional. Ahora la compañía ha patentado un nuevo diseño para las gafas inteligentes, en el que podemos ver algunas mejorar notables en el mismo, y diferencias con respecto al diseño anterior.
Las nuevas Google Glass no serán tan diferentes de las anteriores que hasta ahora habíamos conocido. Sin embargo, sí que hay algunos elementos que supondrán una diferencia determinante si este diseño es finalmente el que vemos cuando la compañía lance oficialmente las gafas inteligentes al mercado. La primera de las diferencias radica en que este nuevo diseño no lleva un puente para que las gafas se apoyen sobre la nariz. Esto nos resulta realmente extraño, pues en realidad es difícil que unas gafas puedan utilizarse sin un puente que apoye sobre la nariz. Además, a esto hay que añadir que no parece que estas gafas puedan llevar cristales. A esto hay que sumar que parece que pasan a ser simétricas. Las anteriores no lo eran, contaban con la batería en una de las patillas, lo que hacía que esa fuera mucha más grande que la otra. En este caso no es así, y las dos patillas son iguales, lo que nos lleva a pensar dos cosas. O bien hay dos baterías, lo que daría una autonomía mayor, o bien la batería está en el propio núcleo de las gafas.
Esta última opción suena realmente interesante, pues es posible que ya ni siquiera exista un marco para el núcleo de las gafas inteligentes, sino que simplemente este núcleo de las gafas pueda fijarse en cualquier gafa. Tampoco es posible determinar esto a partir del nuevo diseño patentado, y si tenemos que decir nosotros cuál será el diseño definitivo, probablemente diríamos que simplemente será como el que vemos en los gráficos, pero con un puente que apoya en la nariz.
Sea como sea, la hoja de ruta de las nuevas Google Glass ha ido moviéndose a lo largo del tiempo: primero se habló de un lanzamiento a finales de un año, después se pospuso a comienzos del siguiente, y más tarde se valoró una llegada en la segunda mitad. Hoy por hoy, todo apunta a que su disponibilidad dependerá de las pruebas con usuarios y de la madurez del ecosistema, sin una fecha concreta confirmada.
De la patente al producto: diseño, hardware y ergonomía
La patente sugiere un enfoque que prioriza un diseño discreto y cercano a una montura convencional. La simetría en las patillas elimina el desequilibrio clásico de los primeros prototipos y abre la puerta a dos caminos: doble batería para mayor autonomía o un único paquete energético en el núcleo. La ausencia de puente en los esquemas exige soluciones de apoyo alternativas o un rediseño posterior con apoyo nasal, algo habitual cuando un concepto pasa de boceto a producto.
En paralelo, las demostraciones recientes de Google apuntan a una arquitectura ligera: gran parte de la potencia de cómputo se desplazaría al smartphone y a la nube, permitiendo que las gafas integren lo esencial (cámara, micrófono, proyección y sensores) y mantengan un peso contenido para uso prolongado durante todo el día. Este planteamiento encaja con un mercado que ya premia monturas “invisibles”, similares a gafas corrientes.
Otro matiz importante es la posibilidad de un HUD monocular opcional. Google ha dejado entrever que algunas variantes podrían priorizar audio, cámara y asistente, y otras sumar pantalla en la lente para notificaciones y guías sutiles. Este abanico permitiría distintos precios y perfiles de usuario, mejorando la adopción.

Gemini y Android XR: inteligencia en primera persona
La clave de esta nueva generación es la integración profunda de Gemini (el asistente de IA multimodal de Google) sobre Android XR, una plataforma pensada para auriculares y gafas de realidad extendida. En las pruebas, el sistema aprovecha la cámara para “ver lo que tú ves” y entender el contexto: desde identificar el autor de un cuadro hasta guiarte paso a paso con una máquina de café concreta, todo mediante diálogo natural y respuestas en tiempo real.
El control es cómodo y respetuoso con la privacidad: un botón táctil en la patilla activa o pausa al asistente, evitando que esté escuchando de forma permanente. Cuando la cámara se usa, un LED visible se ilumina para informar a las personas cercanas. Además, la información puede proyectarse discretamente en la lente para consultas rápidas; en prototipos tempranos, la lectura de textos aún está puliéndose.
- Traducción en vivo con subtítulos proyectados, útil en viajes y reuniones multilingües.
- Memoria contextual que recuerda objetos y ubicaciones mediante una “ventana de contexto” visual.
- Escaneo y comprensión de textos para estudiar, trabajar o gestionar documentos al vuelo.
- Navegación asistida con indicaciones sutiles en el campo de visión y soporte de voz.
- Captura multimedia manos libres y gestión de notificaciones sin sacar el móvil.
Estrategia y ecosistema: alianzas y formatos
Google acompaña la tecnología con una estrategia de alianzas que incluye a marcas de gafas como Warby Parker y Gentle Monster, y socios tecnológicos como Samsung y Qualcomm. El objetivo es que el resultado sean gafas que la gente quiera llevar, con monturas atractivas y cómodas, y un ecosistema Android XR capaz de atraer a desarrolladores con herramientas familiares.
La idea de un HUD opcional permitiría lanzar varias líneas: modelos centrados en audio + cámara a precios más contenidos, y otros con pantalla para superponer indicaciones y textos. Esta segmentación reduce la barrera de entrada y facilita que diferentes públicos encuentren su encaje, desde usuarios que buscan un asistente contextual hasta quienes necesitan un flujo visual mínimo en el día a día.
También hay aprendizaje organizativo: figuras de liderazgo de Google han reconocido que, en el pasado, subestimaron la complejidad de la cadena de suministro para electrónica de consumo. Hoy el enfoque es más pragmático, con prototipos maduros que se evalúan en sesiones controladas para recoger feedback antes de escalar.
Privacidad, casos de uso y madurez del mercado
Estas gafas pueden aportar valor inmediato en accesibilidad (traducciones en vivo, guía contextual), en ámbitos profesionales (técnicos que ven instrucciones sin apartar la vista, médicos con datos en consulta) y en productividad personal (gestión de calendario, mensajes y búsquedas por voz). La presencia del LED, los controles físicos y la activación explícita del asistente ayudan a mitigar inquietudes de privacidad.
El mercado evoluciona por fases: primero, gafas con IA asistencial sin RA completa; después, modelos con pantallas más capaces para superponer información; y, más adelante, dispositivos más autónomos con menor dependencia del móvil. Mientras tanto, competidores como Meta ya han validado el interés por formatos ligeros sin pantalla, lo que confirma que el diseño discreto y la utilidad cotidiana son determinantes.
En este contexto, la apuesta de Google por un ecosistema abierto y por la colaboración con marcas de moda y socios tecnológicos busca acelerar la adopción y evitar errores del pasado. Si la experiencia es fluida, respetuosa y realmente útil en primera persona, la propuesta puede consolidarse como la evolución natural del wearable inteligente.
Fuente: Oficina de Patentes y Marcas Registradas de Estados Unidos.
Todo lo que muestran la patente y los prototipos converge en la misma dirección: un diseño más equilibrado y llevable, un asistente que entiende el contexto visual y una plataforma XR abierta. Si Google mantiene el foco en utilidad real, comodidad y privacidad, estas Google Glass tienen más opciones que nunca de superar aquella primera etapa y convertirse en un aliado continuo que suma, sin estorbar.

