出品/壹览商业
作者/李彦
编辑/木鱼
高峰骑车买早餐,一只手扶把,一只手拿袋子,老板说“扫码”。此时佩戴者只需说一句“乐奇,支付10元”,眼镜识别收款码,再来一句“确认支付”,整个支付过程在视线与语音之间完成。这样的操作,过去或许属于科幻场景,如今已经成为现实。
6月17日,Rokid宣布与支付宝合作,推出全球首个基于智能眼镜的语音支付系统“看一下支付”。用户在佩戴Rokid Glasses时,无需掏出手机或触碰屏幕,仅通过“语音唤醒+视觉识别+语音确认”三步即可完成付款,适用于骑行、外卖、搬运、展会等双手被占用的场景。
据Rokid介绍,“看一下支付”功能背后的技术保障主要由支付宝提供。支付环节引入“本人佩戴+语音确认”的双重认证机制,确保交易真实性和唯一性。即便设备被他人佩戴,也无法通过语音支付完成交易,且配备“被盗即赔”服务,降低使用风险。
与此同时,Rokid也在空间感知与出行场景上拓展能力。上周,Rokid与高德地图联合发布导航智能体“NaviAgent”,为AI眼镜引入基于位置的AR导航与路径反馈功能。用户在骑行或步行过程中,可通过眼镜界面实时查看“贴地引导线”、场景化方向指引、红绿灯读秒等动态信息,无需频繁低头看手机,提升了导航直观性与出行安全性。
除了导航展示,双方还在本地生活信息层面打通了接口。用户可通过语音查询“附近评分4.9以上的川菜馆”或“这栋楼里有哪些咖啡店”,眼镜将返回结构化搜索结果,包括菜单、营业时间、用户评价等。这意味着地图不再只是路径工具,而成为连接线下服务的重要节点,使AI眼镜具备了“位置感知+场景推荐”的基础服务能力。
从AI眼镜的发展看,行业普遍将其分为四个阶段:
AI音频眼镜:主打开放式耳机替代,具备语音助手能力,解放耳朵,初步替代手机接听、播报功能;
AI拍摄眼镜:加入拍摄、图像识别、翻译等功能,适用于内容创作、记录等场景,冲击运动相机市场;
AI+AR眼镜:支持AR显示、地图导航、视觉问答,拓展信息获取与场景反馈,开始替代手机部分功能;
AI+XR眼镜:构建虚实融合空间,具备多模态交互能力,是未来人机界面的终极形态(目前尚处研发期)。
当前,Rokid在AI+AR层面推进导航与支付功能,意味着它正处于“第二层向第三层”的跃迁点,即从“辅助型工具”向“生活场景服务型”迈进。
在这一阶段,AI眼镜产品的“脱手率”(用户在无需主动操作的前提下使用设备完成任务的比例)正在成为衡量其实用性的重要指标。这背后反映的是人机交互范式的转变:从点按屏幕转向语音、眼神、环境感知等多模态交互。
这也是为什么AI眼镜的发展无法依靠单一厂商“闭门造硬件”,而必须依赖于内容平台、地图系统、支付工具、搜索引擎等基础生态的接入。Rokid与支付宝、高德的合作,本质上是一次生态嵌套。
对行业而言,未来的AI眼镜不再只是单一厂商的硬件产品,而将演化为一个跨平台、跨场景、软硬协同的人机交互操作系统。其价值不仅在于“看得见”,更在于“看得懂”与“做得到”。
从产业视角看,AI眼镜的核心竞争力正从硬件与设计向软件与生态延伸。
短期看,硬件工程(轻量化、续航、散热)、工业设计(佩戴舒适性)、语音与视觉识别准确率仍是产品普及的基本门槛。
但中长期看,决定AI眼镜走多远的,是其模型能力与内容生态。例如是否支持本地知识图谱、是否具备长期记忆、是否能够接入丰富的第三方服务和应用程序,是否能够构建自主的“智能体系统”等,都是决定“陪伴型价值”能否成立的关键。
但也必须看到,真正推动AI眼镜普及的,还需等待多个核心问题的突破:如何降低设备功耗、提升全天候续航?如何在保证隐私的前提下实现本地识别与反馈?如何构建标准化的AI助手系统与多模态OS?
当这些问题逐步解决,AI眼镜才可能真正走向普及。而那个时刻,也许并不遥远。