2025년 5월 20일 (현지시간) 구글은 연례 개발자 컨퍼런스 '구글 I/O 2025'에서 차세대 컴퓨팅 플랫폼으로 확장 현실(XR, Extended Reality)을 전면에 내세웠다. 특히 안드로이드 XR(Android XR) 플랫폼과 이를 기반으로 한 스마트 안경 및 헤드셋에 대한 구체적인 비전과 기술적 시연은 'AI 일상화'를 넘어선 '몰입형 컴퓨팅 시대'의 서막을 알렸다.
안드로이드 XR: 새로운 컴퓨팅 패러다임의 기술적 핵심
구글은 안드로이드 XR을 모바일, TV, 오토(Auto)에 이은 새로운 안드로이드 플랫폼으로 소개한다. 이는 가상 현실(VR), 증강 현실(AR), 혼합 현실(MR)을 아우르는 통합된 운영체제로, 사용자에게 디지털 정보와 실제 세계를 자연스럽게 융합하는 몰입형 경험을 제공하는 데 중점을 둔다.
안드로이드 XR은 특히 AI 기술, 그중에서도 제미나이(Gemini)와의 깊은 통합을 통해 차별점을 지닌다. AI는 온-디바이스 비전 처리(On-Device Vision Processing) 및 환경 이해 모델(Environmental Understanding Models)을 활용하여 사용자의 주변 환경을 인지하고, 시각적 및 청각적 맥락을 기반으로 상황에 맞는 정보를 실시간으로 추론하여 제공한다. 이는 단순한 정보 표시를 넘어, AI가 사용자의 눈과 귀가 되어 세상과 상호작용하는 진정한 '앰비언트 컴퓨팅(Ambient Computing)'을 지향하는 기술적 기반이 된다.
'프로젝트 아스트라'와 스마트 안경: 일상 속 AI 비서의 기술적 실현
이번 I/O에서 가장 주목받은 것은 '프로젝트 아스트라(Project Astra)'와 연동되는 **안드로이드 XR 스마트 안경**의 시연이었다. 이 스마트 안경은 다음과 같은 혁신적인 기능을 선보인다.
실시간 번역:** 해외 여행 중 외국인과의 대화 시, 상대방의 음성이 실시간으로 텍스트로 번역되어 안경 렌즈에 오버레이(Overlay)되는 시연은 참석자들의 탄성을 자아냈다. 이는 소형의 신경망 기계 번역(Neural Machine Translation, NMT) 모델을 온-디바이스에서 효율적으로 구동하고, 음성 인식(ASR) 및 음성 합성(TTS) 기술을 결합하여 종단 간 지연 시간(End-to-End Latency)을 최소화한 결과다.
상황 인지형 정보를 제공한다. 사용자가 특정 사물을 바라보면 AI가 이를 객체 인식(Object Recognition) 및 장면 이해 모델(Scene Understanding Models)을 통해 식별하고, 관련 정보를 안경 렌즈에 띄워주는 기능을 보여주었다.
이를테면, 식물을 바라보면 식물의 이름과 관리법을 알려주거나, 특정 건물을 보면 역사적 배경을 설명하는 등 실시간으로 주변 환경과 상호작용하는 능력을 선보인다. 이는 시각적 질문 응답(Visual Question Answering, VQA) 모델의 발전과 온-디바이스 추론 성능의 향상 덕분이다.
생산성에서는 안경을 통해 음성 명령으로 메시지를 보내거나, 일정을 확인하고, 사진을 촬영하는 등 스마트폰을 꺼내지 않고도 일상적인 작업을 수행할 수 있도록 지원한다. 특히 '제미나이 라이브(Gemini Live)' 기능은 안경에 내장된 카메라를 통해 사용자의 시야를 공유하고 실시간으로 상황을 인식하여 더욱 자연스러운 상호작용을 가능하게 하는 멀티모달 대화형 AI(Multimodal Conversational AI)의 정점이다.
삼성·퀄컴과의 협력: 하드웨어 생태계 확장과 기술적 시너지
구글의 안드로이드 XR 전략은 강력한 하드웨어 파트너십을 기반으로 한다. 구글은 삼성전자와 함께 **'프로젝트 무한(Project Moohan)'**이라는 코드명으로 알려진 혼합 현실(MR) 헤드셋을 개발 중임을 재확인했다.
이 협력은 삼성의 마이크로 OLED(Micro-OLED) 또는 마이크로 LED(Micro-LED) 디스플레이 기술, 정밀한 제조 공정, 그리고 구글의 안드로이드 XR 소프트웨어 플랫폼 및 최첨단 AI 기술이 결합되어 고품질의 몰입형 경험을 제공하는 데 초점을 맞춘다. 스마트 안경 분야에서도 협력을 확대하여 삼성전자 기기에서 안드로이드 XR 경험을 최적화할 계획이다.
퀄컴(Qualcomm)과도 협력한다. 안드로이드 XR의 핵심인 온-디바이스 AI 구동 성능은 퀄컴의 스냅드래곤(Snapdragon) 프로세서에 통합된 전용 AI 엔진(NPU, Neural Processing Unit)과 최적화를 통해 구현된다. 퀄컴은 구글의 제미나이 나노(Gemini Nano)와 같은 경량 AI 모델이 모바일 XR 기기에서 효율적으로 작동하도록 하드웨어 가속(Hardware Acceleration) 및 AI 스택 최적화(AI Stack Optimization)를 지원한다. 이는 저전력 환경에서 복잡한 AI 추론을 실현하는 데 필수적인 요소다.
패션 디자인에서도 협력하는 구글은 안드로이드 XR 스마트 안경이 일상복처럼 자연스럽게 착용될 수 있도록 젠틀 몬스터(Gentle Monster), 와비 파커(Warby Parker) 등 유명 안경 브랜드와의 협력을 발표했다. 이는 기술적인 완성도뿐만 아니라 인체 공학적 디자인(Ergonomic Design)과 사용자 수용성(User Acceptability)까지 고려한 구글의 전략을 보여준다.
개발자를 위한 XR 도구 및 미래 전망
구글은 안드로이드 XR 개발자 도구(SDK Preview 2) 및 유니티(Unity) 개발 환경 지원을 강화한다. 개발자들은 기존 안드로이드 앱을 XR 환경에 쉽게 통합하거나, 새로운 3D 몰입형 경험을 구축할 수 있는 다양한 프레임워크인 **Android Jetpack XR, OpenXR, WebXR** 등을 활용할 수 있다. 이러한 개발자 지원은 XR 생태계 확장의 중요한 부분이다.
구글 I/O 2025에서 공개된 안드로이드 XR의 비전은 AI와 하드웨어, 소프트웨어가 유기적으로 결합된 새로운 컴퓨팅 시대를 예고한다. 아직 배터리 수명, 사회적 수용성, 개인 정보 보호와 같은 기술적, 사회적 과제들이 남아있지만, 구글은 강력한 파트너십을 통해 이러한 난관을 극복하고 XR을 차세대 메인스트림 컴퓨팅 플랫폼으로 만들겠다는 강력한 의지를 보여줬다.
IT News 김들풀 기자 itnews@