您现在的位置是:首页 > 资讯 > 正文

iPhone很快就能通过短期培训用您的声音说话

发布时间:2023-05-26 16:20:24编辑:雍雄绍来源:

导读 作为其全球无障碍意识活动的一部分,Apple 宣布了针对有认知、视力和听力障碍的用户的新功能。iPhone 的一些关键功能包括辅助访问、个人

作为其全球无障碍意识活动的一部分,Apple 宣布了针对有认知、视力和听力障碍的用户的新功能。iPhone 的一些关键功能包括“辅助访问”、“个人语音”和“在放大镜中指向和说话”。对于特定地区,Apple 还推出了额外的软件功能、精选系列等,不过该公司确保新工具利用硬件和软件的进步,包括设备上的机器学习以确保用户隐私。

也许最重要的功能是为有失去说话能力风险的用户提供的个人语音高级演讲——例如那些最近被诊断出患有 ALS(肌萎缩性侧索硬化症)或其他疾病的用户。该工具旨在让用户通过 iPhone 以自己的声音说话。在一篇博文中,Apple 解释道:

“用户可以通过阅读随机文本提示集来创建个人语音,以在 iPhone 或 iPad 上录制 15 分钟的音频。这种语音辅助功能使用设备上的机器学习来保护用户信息的私密性和安全性,并无缝集成通过实时语音,用户可以在与亲人联系时用他们的个人语音说话。”

除了 Personal Voice,Apple 还在 iPhone、iPad 和 Mac 上添加了 Live Speech,让有语言障碍的用户可以说话。用户可以键入他们想说的话,以便在电话和 FaceTime 通话以及面对面对话中大声说出来。

Assistive Access 专为有认知障碍的用户设计。该工具通过删除多余的内容来提供自定义应用程序体验,以帮助用户选择与他们更相关的选项。例如,对于喜欢视觉交流的用户,消息包括一个仅表情符号键盘和录制视频消息以与亲人分享的选项。用户和值得信赖的支持者还可以为他们的主屏幕和应用程序选择更直观、基于网格的布局,或者为喜欢文本的用户选择基于行的布局。

简而言之,iPhone 和 iPad 上的 Assistive Access 提供了一个带有高对比度按钮和大文本标签的简单界面。对于配备 LiDAR 扫描仪的 iPhone,将有一个新的 Point and Speak in Magnifier,让残障用户与物理对象进行交互。Apple 表示,Point and Speak 结合了来自摄像头、LiDAR 扫描仪和设备上机器学习的输入,以在用户在键盘上移动手指时播报每个按钮上的文本。

除新工具外,Apple 将于 5 月 18 日在德国、意大利、西班牙和韩国推出 SignTime,为 Apple Store 和 Apple Support 客户提供按需手语翻译服务。世界各地的部分 Apple Store 零售店将在整个星期提供信息丰富的讲座,以帮助顾客发现辅助功能。

标签:

上一篇
下一篇

猜你喜欢

最新文章