Aunque ya no se le den tantas portadas como cuando se anunció, el proyecto Google Glass sigue con vida. Y, un buen ejemplo de ello es que a finales de este mismo mes se realizará un evento para desarrolladores. La fecha exacta es el 28 y 29 de enero en San Francisco (el 1 y 2 habrá otro en New York). Por lo tanto, no se detiene para nada esta novedad de Google.
Como hemos indicado el evento es para desarrolladores, en especial para aquellos que pagaron la cantidad de 1.500$ para poder ser de los primeros a la hora de tener el hardware y, por lo que dicen en Phandroid, estos “inversores” tendrán la posibilidad de llevarse un prototipo específico para comenzar con las pruebas. Por lo tanto, el avance es evidente.
Qué se podrá ver en el evento
Por lo que se ha podido conocer, en el evento se podrán ver todos los avances respecto a Google Glass, que parece ser que son bastante tanto en el apartado del software, con una mayor exactitud del reconocimiento de voz y mejor rendimiento al conectarse a Internet. Además, es posible que haya nuevo hardware, aunque no se ha indicado exactamente cuál.
Más allá del hands-on, es habitual que este tipo de encuentros incluyan sesiones técnicas sobre APIs y portales para desarrolladores (por ejemplo, modelos de monetización y mejores prácticas), charlas sobre colaboración entre SEO y Desarrollo para alinear producto y crecimiento, y demostraciones de IA para desarrolladores con soluciones on-device como MediaPipe y en la nube con plataformas de IA como servicio. Suele haber espacio para metodologías como BDD (Behavior‑Driven Development), así como ponencias sobre código abierto y nubes soberanas que fomentan la interoperabilidad y evitan el vendor lock‑in.
Este formato formativo se completa con bloques de networking y cierres con catering que facilitan sinergias entre equipos, inversores y comunidades locales, un elemento clave cuando se inicia un nuevo ecosistema de apps y accesorios en torno a un dispositivo como Glass.
Hackathones y comunidad: impulso real para crear apps
La consolidación del ecosistema se apoya en encuentros prácticos. Un caso relevante fue un hackathon celebrado en la ETSISI de la UPM, organizado por Intelygenz, que reunió a alrededor de 90 desarrolladores con patrocinadores como BBVA, Estrella Damm, Telepizza y Nextinit. La propuesta permitió aprender a programar Glass en un contexto donde el número de unidades era reducido, con objetivos claros: detectar ideas pioneras y atraer talento. La inscripción se realizó en línea (con plazo hasta mediados de marzo), con una cuota simbólica de 25 euros que incluía comida y camiseta del evento.
Este tipo de iniciativas encaja con el paso “cero” del ciclo de adopción: antes de que el gran público conozca el producto, la comunidad técnica ya ha prototipado casos de uso en ámbitos como salud, logística, formación o mantenimiento de campo.
Relación con Google I/O y el calendario de eventos
Glass no evoluciona en el vacío. Google mantiene un calendario constante de eventos para desarrolladores en todo el mundo (I/O, I/O Connect, DevFest, cumbres de Workspace, Cloud Next, hack challenges, summits regionales, etc.). Estos escaparates marcan hitos donde se presentan novedades de IA, mejoras de Android, actualizaciones de Maps, Photos o Lens, y nuevas capacidades de asistentes conversacionales y agentes. En este contexto, Glass se beneficia de avances transversales: mejores modelos de voz, visión por computador integrada y utilidades de productividad que los desarrolladores pueden aprovechar de forma inmediata.
Lo que más interesa al desarrollador: capacidades y oportunidades
Para construir experiencias útiles en Glass, conviene dominar sus pilares: comandos de voz de activación natural (“Ok, Glass”), panel táctil en la patilla derecha con gestos de toque y desplazamiento, y un conjunto amplio de sensores (acelerómetro, giroscopio, magnetómetro, luz ambiental y proximidad) que habilitan interfaces contextuales. La captura con cámara integrada permite fotos de 5 Mpx y vídeo en 720p, mientras que el sistema de conducción ósea facilita el audio sin auriculares convencionales.
El desarrollo de aplicaciones se apoya en APIs creadas para Glass y en la posibilidad de integrarse con servicios de Google como Maps, Gmail o Photos, además de frameworks modernos de IA. En sectores profesionales, las ediciones orientadas a empresa han potenciado la teleasistencia, la telemedicina, la inspección remota y los flujos de trabajo hands‑free. Esta utilidad práctica refuerza el argumento de Glass como herramienta de productividad más que como gadget de consumo.
Por lo tanto, el intento de Google por dar un salto cualitativo y de usabilidad a la hora de utilizar la tecnología móvil en combinación con unas gafas, va tomando forma y, si el camino emprendido va bien y son capaces de rebajar el precio que hasta la fecha se ha dado para poder conseguir unas Google Glass, podemos estar ante una evolución real de la tecnología aplicada al día a día.
El caso es que, como algunos anunciaban, el proyecto no está muerto y va dando los pasos habituales: primeros los desarrolladores (para así conseguir accesorios y aplicaciones), luego presentaciones y, finalmente, puesta a la venta. El paso uno, como os hemos comentado, se da a finales de este mes. El resto, llegará poco a poco, pero llegará. En esta etapa, aprovechar los eventos técnicos, los hackathones y el calendario global de Google multiplica las opciones de que las primeras soluciones reales para Glass destaquen por su rendimiento, su enfoque en IA aplicada y su encaje con necesidades profesionales concretas.
