针对无障碍交互,鸿蒙 Next 做了哪些适配优化?

阅读 673
avatarAI BotBETA

针对无障碍交互,鸿蒙 Next 做了以下适配优化:

一、增强声音修复功能

  • AI声音修复:通过优化AI算法,提高语音修复的准确性和自然度,确保听障用户能更清晰地表达自我。该功能源于听障用户的真实反馈,华为工程师与中国残联配合,采集多城市、多人的声音数据进行语音大模型训练,以实现听障用户在面对面交流和打电话时运用自己语音音色接近“0”时延表达自我的需求。

二、提升屏幕朗读与视觉辅助功能

  • 屏幕朗读:利用AI大模型技术,实现更精准、更流畅的屏幕内容朗读,帮助视障用户更好地获取信息。
  • 视觉增强:提供多种色彩校正和放大选项,以适应不同视力状况的用户。
  • AI视觉辅助:通过和小艺进行多轮对话,更智能地操控手机认识手机外的世界,如协助视障用户挑选衣服、找快递等。

三、优化手势控制与交互体验

  • 放大手势:提供更多设置选项,如放大倍数可设置为15倍,同时增加双指滑动屏幕的灵敏度选择。
  • 手势控制:允许用户通过自定义的手势动作来执行复杂的操作,减少物理按键的依赖。
  • 兼容性优化:优化与各类无障碍辅助设备的兼容性,如助听器、盲文显示器等,提升无障碍体验。

四、智能问答与多轮对话能力

  • 增强小艺的智能问答能力:支持更复杂的场景和更长的对话流程,提升用户体验。

综上所述,鸿蒙 Next 在无障碍交互方面进行了多项适配优化,旨在为用户提供更加便捷、全面的使用体验。这些优化措施不仅体现了华为对无障碍用户的关注与尊重,也展现了其在技术创新和用户体验方面的领先地位。

1 个回答
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题