
川观智库研究员 黄爱林
4月20日,华为正式发布新款AI智能眼镜,搭载自研端侧大模型与多模态感知能力,支持实时翻译等功能。这一动作印证了IDC(国际数据公司)近期报告《从“看见”到“思考”——智能眼镜的AI生态元年》(下简称“报告”)的核心判断:智能眼镜的较量,已从拼硬件参数,正式转向拼"动脑"和"干活"能力。
根据IDC的定义,智能眼镜(Smart Eyewear)涵盖两大类别:一是带有独立数据处理芯片但不具备显示功能的智能眼镜形态产品,包括音频眼镜以及搭载摄像头的音频拍摄眼镜;二是能实现增强现实、扩展现实、虚拟现实和混合现实的智能头戴显示设备。从技术成熟度和生产成本来看,音频眼镜已达到五星成熟度,而AR设备仍处于早期阶段。
智能眼镜正经历从“看见”到“思考”的跨越。回顾智能眼镜的发展历程,从2012年Google Glass首次让世界“看见”这一概念,到2021年Ray-Ban Stories( Meta与意大利时尚眼镜巨头 EssilorLuxottica<依视路陆逊迪卡>联合推出的智能眼镜系列)开启时尚联名之路,再到2024-2025年小米、华为等厂商推出AI拍摄眼镜,行业经历了十余年的探索。2026年MWC(世界移动通信大会)展会上,各大厂商发布的新品重心已从“硬件参数”转向“AI落地能力”——智能眼镜终于开始“思考”。数据显示,2024年第四季度至2025年第四季度期间,具备AI功能的智能眼镜产品占比显著提升,中国市场尤为突出。
报告提出十大趋势洞察,其中五个正在发生的转变值得重点关注:
一是大家不卷重量,开始卷“算力调度”了。 以前厂商都在宣传眼镜做到了49克还是50克,但IDC发现,用户戴上眼镜后,根本不在意AI的回复是来自眼镜本地芯片、旁边手机的算力还是远方的云端服务器。用户只关心自己对着眼镜说完“帮我记一下刚才开会说的第三点”,它是秒回还是卡顿。这就引出了一个比单纯堆芯片更难的技术活——算力调度,即在不同的需求下,调用不同的算力,如:让简单的唤醒用眼镜本身的低功耗芯片,复杂的翻译借用一下身边的手机性能,深度的推理再用云端。这种让响应像呼吸一样自然的“软实力”,正在重塑产业链的话语权。
二是眼镜终于要“主动点”了。 如果现在的眼镜还停留在你问一句它答一句的“语音助手逻辑”,那2026年的新品会带来明显变化。IDC举了个很形象的例子:当你拿着一堆文件走进会议室,眼镜捕捉到亮着的电脑屏幕、周围的讨论声,它不再等你发指令,而是可能直接在镜片上弹出一行小字——“需要帮你开启会议纪要吗?”这种从“能回答”到“能办事”,再到“主动想着帮你办事”的跃迁,意味着眼镜开始具备预判能力。当然,要实现这一点,绕不开对跨应用权限的打通和对隐私的分层授权。
三是销路打开的背后不光是尝鲜。报告提到一个关键变量,智能眼镜今年首次被纳入了国家消费补贴的“国补”范围。这意味着它不再是主要面向科技爱好者的玩具,而是真正走向大众的数码消费品。IDC预测,2026年小于50克的智能眼镜产品占比会超过45%,轻便和能办事的组合效应,正在把路人变成用户。
四是一个隐形变化发生在供应链端。随着上游订单像雪片一样飞来,核心零部件的良率(合格率)和产能开始吃紧。成本占比最高的芯片和光学模组,将倒逼供应链进行一轮技术洗牌,谁能提供更稳定、更便宜的方案,谁就能抓住这波红利。
五是中国厂商出海的路子变了:不再是简单的贴牌或低价,而是带着国内验证成熟的AI场景方案去欧美和东南亚做本地化适配。华为今天的发布,其实也是这种全球协同的一个缩影。
IDC报告指出,AI能力的下一次跃迁是“更懂用户要什么”——从“能回答”到“能办事”,再到“主动办事”。多模态感知、用户数据积累、场景上下文理解将成为关键前提。对硬件厂商而言,算力决定响应速度,感知决定理解起点,协同决定能力上限;对AI服务商而言,与硬件深度协同优化调度、针对场景适配模型、与生态服务商打通执行闭环是核心方向。
【未经授权,严禁转载!联系电话028-86968276】
