Google lo ha vuelto a hacer. Un equipo de ingenieros de la compañía presentó Project Glass, unas gafas de realidad aumentada. En sus lentes se desplegará información relacionada con lo que vemos. Desde ellas también se podrá navegar, oír música o mantener un chat. Y todo funcionando con Android.
Project Glass es el fruto del trabajo de varios empleados y colaboradores de Google y las han ideado en el famoso 20% del tiempo semanal que la compañía les deja libres para dedicarse a sus propios proyectos y muchos se preguntan si realmente merecen la pena.
El equipo publicó en su día en una cuenta de Google+ un vídeo con lo que desean que sea Project Glass. En él se ve cómo las gafas pueden mostrar la agenda del día o información del tiempo antes de salir de casa.
Una vez en la calle, muestran una especie de Google Maps que nos guiará a nuestro destino. Desde ellas también se puede hacer checking en una aplicación de geolocalización como Foursquare para que los amigos sepan dónde estamos.
También desde las gafas se activa el reproductor mp3 con la música que acompaña al protagonista del vídeo. Además permiten recibir notificaciones. Y, ante la entrada de una videollamada, se puede pausar la música e iniciar la conversación.
Las posibilidades de Project Glass parecen infinitas. Es la apuesta de Google por la realidad aumentada, para llevar todos los datos que tiene el buscador a la calle.
En Project Glass trabajan algunos de los ingenieros más futuristas de Google. Uno de ellos, Babak Parviz, es un científico que consiguió insertar un circuito integrado en unas lentes de contacto biónicas. Otro, Steve Lee, es experto en geolocalización y desarrolló Latitude en Google Maps. También se implicó Sebastian Thrun, vinculado a proyectos de conducción autónoma y a iniciativas educativas. Su llegada se acompañó de titulares según las Google Glass se acercan.
Ni en el vídeo ni en la página del proyecto dan más detalles sobre cómo se conectan las gafas a internet o cómo despliegan toda la información. Pero la prensa especializada señaló pronto que no son un simple proyecto: ya estaban siendo probadas en el mundo real.
Página del proyecto en Google+. Lee también el retorno de las Google Glass.
Qué es Project Glass y cómo se usa
Project Glass propone una interfaz tipo HUD que superpone datos útiles directamente en el campo de visión. En la práctica, permite consultar agenda, tiempo y mensajes mientras preparamos el café, responder con la voz o decir a dónde ir y recibir indicaciones giro a giro sin sacar el móvil.
El enfoque es que todo suceda de forma manos libres: atender llamadas, hacer y recibir videollamadas, grabar clips, tomar fotos y controlar la música, siempre con comandos sencillos y una capa visual discreta y complementos como una familia de accesorios.
En las primeras iteraciones se popularizó el comando “Ok Glass” para activar acciones como haz una foto, graba vídeo, guíame hacia… o envía un mensaje. La patilla derecha táctil permite navegar por tarjetas y confirmar acciones con gestos.
Para lograr ligereza, el sistema combina procesamiento en las propias gafas y en el teléfono, además de sincronización con la nube. Esta arquitectura reduce peso y mejora la comodidad de uso continuo y prepara la próxima versión.

De la visión al producto: fases, retos y giro de enfoque
La primera etapa fue un programa para desarrolladores (Explorer) con acceso anticipado y un precio elevado para impulsar un ecosistema de apps y más tarde se especuló con un nuevo lanzamiento.
Entre los principales retos se citaron errores de software, autonomía limitada en usos intensivos y dudas sobre privacidad en espacios públicos. Parte de la comunidad de desarrolladores perdió interés y varias apps se abandonaron y los desarrolladores dejaron de interesarse.
Google reorientó la propuesta hacia el ámbito profesional con iniciativas como Glass at Work y ediciones empresariales. El objetivo: tareas concretas donde el valor manos libres es crítico (procedimientos, asistencia remota, auditorías y seguridad).
En paralelo, la compañía fomentó colaboraciones con fabricantes de monturas y partners de software, abriendo la puerta a lentes graduadas y a diseños más discretos en distintos colores y estilos y a nuevos diseños patentados.

Edición empresarial: casos de uso reales
En entornos médicos, técnicos y de fabricación, las gafas han permitido listas de verificación guiadas, instrucciones paso a paso, captura manos libres y soporte remoto con vídeo en primera persona. En ediciones como la Enterprise Edition se mejoró batería y procesador para uso intensivo.
Destacaron retransmisiones de cirugías en directo con soporte de expertos remotos, procedimientos dentales avanzados y operaciones maxilofaciales en distintos países, así como el uso en escuelas de vuelo para listas de chequeo y entrenamiento, en debates sobre si el producto debía renovarse o morir.
Socios tecnológicos desarrollaron soluciones verticales para sanidad, construcción, mantenimiento y educación, integrando notificaciones, escaneo de códigos, tareas y flujos conectados con herramientas corporativas y opciones con cristales incluidos.
La distribución se canalizó a través de partners, con soporte y despliegue gestionado, restringiendo su enfoque al uso profesional y priorizando integración con MDM y cumplimiento, además de proyectos complementarios como Project Aura.

Tecnología y especificaciones destacadas
Los modelos han evolucionado, pero se mantienen constantes clave: ligereza, visión periférica, voz y control táctil. De forma resumida, estas son características presentes en distintas iteraciones:
- Pantalla/óptica: módulo que proyecta aprox. 640×360 con buena legibilidad; prisma situado ligeramente por encima de la línea de visión.
- Cámaras: 5–8 MP con vídeo HD; LED indicador de actividad en ediciones recientes para transparencia.
- Sensores: acelerómetro, giroscopio, magnetómetro, luz ambiental, proximidad, orientación y sensores derivados para contexto y gestos (incluida activación por inclinación de cabeza).
- Audio: conducción ósea y altavoz; soporte de auriculares en versiones posteriores.
- Controles: comandos de voz tipo “Ok Glass”, touchpad lateral y gestos; gestión por tarjetas.
- Conectividad: Wi‑Fi 802.11 b/g y Bluetooth; funcionamiento autónomo o enlazado al móvil.
- Plataforma: Android modificado, APIs específicas como Mirror API para tarjetas y notificaciones, con políticas de monetización limitadas en fases tempranas.
- Hardware (Explorer): SoC OMAP 4430 de doble núcleo; 1–2 GB de RAM, 16 GB de almacenamiento con sincronización en la nube.
- Hardware (Enterprise): salto a plataformas XR dedicadas como Snapdragon XR1 con 3 GB de RAM y 32 GB de almacenamiento; USB‑C y Bluetooth 5.
- Batería: orientada a una jornada de uso discreto; carga rápida en versiones recientes.
- Diseño: marco de titanio, almohadillas nasales ajustables y peso contenido (en torno a decenas de gramos) para uso prolongado; montura ajustable y compatibilidad con lentes graduadas.
Lo que viene: IA conversacional, traducción y Android XR
En demostraciones recientes, Google ha mostrado gafas impulsadas por Android XR junto a fabricantes del ecosistema, con una experiencia centrada en voz, contexto y respuestas en tiempo real. La integración con Gemini permite identificar lo que se ve, reproducir música, seguir rutas y gestionar mensajes sin manos y explorar propuestas sin pantalla.
Destacan funciones como traducción simultánea con subtítulos en la pantalla, memoria contextual para recordar dónde dejaste objetos cotidianos y lectura/explicación de textos (por ejemplo, al escanear un libro), además de usos creativos como redactar un haiku o resumir lo que aparece enfrente.
La arquitectura prioriza descargar cómputo en el teléfono y la nube para mantener las gafas ligeras, con botón físico o gesto para activar el asistente y LED visible cuando la cámara está en uso. La experiencia busca ser natural y socialmente aceptable.
Google avanza alianzas con fabricantes de monturas y socios tecnológicos (incluidos proveedores de chips y marcas de electrónica) y explora visores de realidad mixta complementarios. Frente a alternativas sin pantalla, la combinación de IA + display abre nuevas interacciones.
Privacidad y seguridad: diseño responsable
La privacidad es un pilar. Se han documentado riesgos como modificación del sistema, lectura maliciosa de QR o acceso indebido a contenido capturado. Para mitigarlos, el sector recomienda medidas como LED de grabación visible, almacenamiento local cuando sea posible y sistemas reforzados con reporte de incidentes.
Además, cobran importancia los diferenciadores de diseño que hagan reconocibles las smart glasses, la formación previa de usuarios y el cumplimiento de marcos como RGPD y ePrivacy. En ciertos casos de uso, incluso se plantea limitar o autorizar expresamente el uso de cámara según el contexto.
La propuesta de Project Glass ha pasado de la visión inspiradora a los casos de uso medibles en campo, mientras Google explora nuevas generaciones con IA, traducción en vivo y Android XR. Con el foco adecuado en privacidad, autonomía y utilidad, las gafas conectadas apuntan a consolidarse allí donde más aportan: tareas manos libres, contexto y asistencia en tiempo real.

