苹果宣布iOS 18无障碍功能,包括眼动追踪、音乐触觉、人声快捷键
5 月 15 日消息,IT之家从苹果官网获悉,苹果今日宣布将于今年晚些时候推出全新的辅助功能,包括眼动追踪,可以帮助残障用户通过眼动来使用 iPad 或 iPhone。
此外,音乐触觉将为听觉受损用户提供在 iPhone 中使用触感引擎体验音乐的全新方式;人声快捷键让用户可以通过自定义声音来执行任务;当在移动的车辆中使用 iPhone 或 iPad 时,车辆运动提示(Vehicle Motion Cues)有助于减缓晕车;visionOS 将提供更多的无障碍功能。
预计上述新功能将在 iOS 18、iPadOS 18 和 macOS 15 等更新中提供,但苹果并没有明确这样表述。
IT之家附苹果官网介绍如下:
眼动追踪登陆 iPad 和 iPhone
由人工智能支持的眼动追踪为用户提供了只需双眼即可使用 iPad 和 iPhone 的内置选项。眼动追踪是专为残障用户设计的功能,只需几秒钟即可设置和校准前置摄像头,并通过设备端机器学习功能,将设置和控制此功能的所有数据安全地保存在设备端,不与 Apple 共享。眼动追踪可在 iPadOS 和 iOS 应用程序中运行,不需要额外的硬件或配件。通过眼动追踪,用户可以浏览应用程序的元素,并使用停留控制来激活每个元素,仅通过眼睛访问其他功能,如物理按钮、滑动和其他手势。
音乐触觉令更多人体验音乐
音乐触觉是让听力受损用户在 iPhone 上体验音乐的一种全新方式。打开此辅助功能后,iPhone 中的触感引擎会随着音乐播放而体现轻拍、织体和微妙振动。音乐触觉功能适用于 Apple Music 中的数百万首歌曲,并将作为 API 提供给开发者,使更多用户能够体验他们 App 中的音乐。
更多语音新功能
iPhone 和 iPad 用户可以通过人声快捷键,为 Siri 添加自定义话语,从而启动快捷方式并完成复杂任务。另一个新功能,倾听非典型语音(Listen for Atypical Speech),提供了增强语音识别范围的选项。倾听非典型语音功能使用设备端机器学习来识别用户的语音模式。这些功能专为因脑性麻痹、肌萎缩侧索硬化症(ALS)或中风等而影响语言功能的用户设计,基于 iOS 17 中引入的功能,为无法言语或面临言语能力风险的用户提供了新的个性化和控制功能。