苹果公布 iOS 17 无障碍新功能:专为残障人士设计
苹果日前公布了一系列认知辅助新功能,包括辅助访问(Assistive Access)、实时语音(Live Speech)、个性化语音(Personal Voice)等,专为残障人士设计,为该群体提供更多的辅助和便利,并预告新功能将于今年晚些时候推出,预计将在iOS 17系统中推出。
图源:苹果中国官网 下同
简单来说,认知障碍用户将可通过Assistive Access更轻松地独立使用iPhone 与 iPad;失语用户将可通过Live Speech在通话与交谈中通过打字转换语音输出来实现对话;面临失语风险的用户则可使用Personal Voice创建与自己嗓音相似的合成语音,与家人好友交流沟通。对于失明或低视力用户,放大器的检测模式提供了Point and Speak功能,可识别用户指向的文本并大声朗读,帮助他们更好地了解和使用家用电器等实体对象。
首先辅助访问(Assistive Access)功能包括了电话与 Facetime 的自定义体验,和信息、相机、照片与音乐 app 等一起合并为一个单独的 Calls app。这项功能提供了包括高对比度按键与大型文字标签的独特界面,以及各种工具,帮助那些被信赖的照顾者们为他们的照顾对象定制使用体验。例如,对于希望通过图像方式交流的用户,信息 app 提供了只有表情符号的键盘,并可录制视频信息以分享给所爱之人。用户及其所信赖的照顾者也可以为主屏幕和 app 选择更加图像化、基于网格的布局,或者为希望使用文字交互的用户选择分行布局。
而通过实时语音(Live Speech)功能,用户可以在iPhone、iPad与Mac设备中在打电话、FaceTime和面对面交流时输入自己想说的话,让设备将这些话大声朗读出来。用户还可以保存常用短语,在与家人、好友和同事热烈交流时快速表达意见。
而对于面临失语风险,或其他可能逐渐影响语言能力的疾病的用户,个性化语音(Personal Voice)是一项简单安全的功能,可创建与他们的嗓音相似的语音。 用户可以使用 iPhone 或 iPad 录制 15 分钟的音频,朗读随机生成的文字提示,创建 Personal Voice。这项语言辅助功能使用设备端机器学习技术,确保用户信息私密安全,并与 Live Speech 无缝集成,让用户可以在与所爱之人交流时通过 Personal Voice 说话。
此外,苹果还在放大器app中为失明或低视力用户推出Point and Speak功能,该功能可以帮助视障用户更轻松地了解和使用带有多个文字标签的实体对象。例如,在使用微波炉等家用电器时,Point and Speak 可结合相机 与激光雷达扫描仪输入的内容,辅以设备端机器学习,随着用户在电器按键区移动手指,朗读出每个按键上的文字。作为 iPhone 与 iPad 放大器 app 的内置功能,Point and Speak 可与旁白协作,并与人物检测、门检测和图像描述等放大器的其他功能一同发挥作用,帮助用户在实体环境中游刃有余。
其他功能如下:
失聪或重听用户可将 Made for iPhone 助听设备直接与 Mac 配对,并根据自身需要进行自定义设置3。
语音控制为文字编辑新增语音建议,让用户通过语音输入时可在如“do”,“due”和“dew”等多个发音相似的选项中选择正确的词汇。4。此外,通过语音控制指南,用户可以了解使用语音命令替代 iPhone、iPad 和 Mac 触控与输入的建议和技巧。
肢体与活动障碍用户可使用切换控制将任意开关变成虚拟游戏控制器,在 iPhone 和 iPad 上畅玩喜爱的游戏。
对于低视力用户,Mac 上的访达、信息、邮件、日历和备忘录等 app 的文字大小现在更容易调整了。
对快速动画敏感的用户,可在信息和 Safari 浏览器中自动暂停带有移动元素的图像,如 GIF 动图。
对于旁白用户,Siri 语音可在进行高速语音反馈时仍然听起来自然生动;用户还可以在 0.8 倍速与 2 倍速的范围内调整 Siri 语音的速度。
夏晓卿
校验提示文案
夏晓卿
校验提示文案