1輩吇筷楽 发表于 前天 16:38

古尔曼:苹果 AI 智能眼镜项目加速,目标在2026年底发布首款产品

5 月 23 日消息,据彭博社马克・古尔曼今日报道,苹果正加速推进其智能眼镜研发计划,目标在 2026 年底发布首款产品,旨在进一步抢占人工智能增强设备市场。
据知情人士透露,苹果工程师正加紧研发这款眼镜,以期实现在 2026 年年底发布的目标,但该公司搁置了研发配备内置摄像头的智能手表计划。
该产品将直接对标 Meta Ray-Ban 智能眼镜及谷歌本周公布的 Android XR 眼镜原型,定位为“基于 AI 的基础型可穿戴设备”。
据内部人士透露,这套智能眼镜将配备摄像头、麦克风阵列及微型扬声器,支持拍摄静态照片与动态视频、实时翻译、逐向导航、音乐播放及通话功能。
与 Meta 等竞争对手等产品类似,用户可通过 Siri 语音助手进行交互,设备还可根据用户视野内容提供环境分析反馈。不过,该产品暂不具备 AR 功能。
知情人士透露,苹果将在今年年底开始与海外供应商合作,并完成“大批量”原型机生产,为后续量产测试预留充足时间。
一位测试工程师向彭博社表示:“产品形态与 Meta Ray-Ban 近似,但做工更精良”。据称,这项工作由苹果 Vision 产品事业部牵头,该事业部此前曾负责 Vision Pro 的研发工作。
值得注意的是,不同于 Meta 采用 Llama 与谷歌 Gemini 双 AI 平台,苹果将完全依赖自主研发的 AI 模型。
内部人士反映,苹果研发团队对公司的 AI 技术储备存在顾虑。目前 iPhone 的视觉智能功能仍需依托谷歌和 OpenAI 的技术支持,而 Meta 眼镜及谷歌 Android XR 眼镜均基于自有 AI 平台。为实现硬件自主化,苹果正加紧开发替代方案。
IT之家注意到,苹果前段时间刚刚发布了一款视觉语言模型 ——FastVLM,提供 0.5B、1.5B、7B 三个版本,专为 Apple Silicon 设备的端侧 AI 运算进行优化。该技术的应用场景指向苹果正在研发的智能眼镜类穿戴设备。
技术文档显示,FastVLM 在保持精度的前提下,实现了高分辨率图像处理的近实时响应,同时所需的计算量比同类模型要少得多。


1輩吇筷楽 发表于 前天 16:39

远场降噪才是痛点。麦克风阵列得配合声学算法滤掉环境音,否则实时翻译卡成PPT。自研模型训练没喂够噪音样本的话,户外根本没法用。
页: [1]
查看完整版本: 古尔曼:苹果 AI 智能眼镜项目加速,目标在2026年底发布首款产品