转:【Google】Android XR眼镜发布,生态意义值得重视,开启“主动推理”穿戴时代太平洋时间8日10点,Google正式召开Android XR发布会,宣告智能眼镜从“拍摄工具”向“推理终端”的代际跨越,展示了如下内容:1)针对10月发布的Samsung Galaxy XR头显更新功能:PC Connect(电脑互联)、Likeness(拟真化身)、Travel Mode(旅行模式);2)与XReal合作的 "Project Aura" AR眼镜:目前仅作为开发者套件(Developer Kit)亮相,通过一个有线连接的小型计算模块供电(采用高通 XR Gen 2 Plus 芯片),有3个摄像头,配备微型OLED显示屏,可与PC等设备直连,首次用上Nano Banana图像编辑能力,预计2026年上市;3)Warby Parker (美国高性价比眼镜公司)& Gentle Monster(韩国奢侈眼镜公司)合作版AI眼镜,包括有屏幕与无屏幕版,预计2026年上市。[礼物]基于Gemini 3 的突出表现,市场对于其在XR设备上的应用已经有所预期,除此之外,我们认为,本次谷歌的XR发布会的另一重要意义在于——基于Android XR及谷歌Gemini的生态:1)Gemini 3赋能,穿戴设备具备“慢思考”能力:相较于Meta Ray-Ban等竞品仅能进行浅层问答,处于Gemini时代的Google眼镜展现了较优的逻辑链处理能力。这意味着眼镜不仅能识别物体,还能像Project Astra演示中那样,实现了从“感知”到“解决问题”的质变。2)硬件形态去魅,Android XR生态围剿:Google此次采取了“单目显示(Monocular)+ 开放生态”的务实策略,一方面,避免了以往科技巨头对硬件的堆砌,追求轻便、时尚,即“AI眼镜首先必须是眼镜”。另一方面,谷歌专注于安卓XR平台本身,以统一的平台、能力和开发体系,构筑一个庞大的XR生态,缓解了此前业内XR设备生态碎片化的问题。3)Project Astra 正式“入眼”,重定义人机交互:Gemini Live API的开放让眼镜具备了极低延迟的实时多模态能力(Video/Audio Streaming),而当前DeepMind正努力将Project Astra引入Gemini Live,意味着后续新系统有望支持“自然打断”和“语境感知”(传统方式多需要唤醒词),能过滤背景噪音并主动发起对话,真正实现了DeepMind CEO Demis Hassabis所描述的“通用AI助手”体验——看你所看,想你所想。4)后续可展望智能手带产品推出:Meta Ray-Ban Display 配备了一款名为 Neural Band 的腕带,用于手势控制眼镜,而谷歌在2021年收购了智能手表制造商 Fitbit,未来可有所期待。
转:【Google】AndroidXR眼镜发布,生态意义值得重视,开启“主动推
但斌啊
2025-12-09 11:55:18
0
阅读:0