在10月15日国际盲人日当天,由中国残疾人联合会指导、清华大学主办的“包容与多样——无障碍发展国际学术大会”在北京清华大学召开,来自全球的专家学者共同探讨了国际无障碍发展经验和最新的趋势。在大会上,清华大学未来实验室主任徐迎庆教授正式发布了由清华大学自主研发的大幅面触觉图形显示终端的产品原型,该设备可以让盲人在互联网上也可以更加轻松地“读”懂文字甚至是图片内容。
作为网民上网的主要入口之一,百度公司与清华大学多年来一直共同致力于信息无障碍的推动,此次也深度参与了“大幅面触觉图形显示终端”的产品研发中,提供了百度语音搜索、百度百科等产品能力,让盲人用户也能轻松地“百度一下”,寻找到自己想要的信息和服务。
根据世界卫生组织2017年发布的报告,目前全球的视觉受损人口约由2.53亿,而这其中更有3600万人是全盲患者。而随着全球人口数量的不断增加和老龄化趋势的到来,英国《柳叶刀》杂志预测到2050年,全球全盲人群的数量可能会增加到1.15亿人。如何保证这些人在当今的互联网环境中有方便的无障碍体验,就成为了很多科研单位、高校、企业的重要课题。
针对盲人辅助功能,例如Windows、iOS、Android等系统都在系统层面有一个相对完整的解决方案,不过,现有的解决方案相对而言只能一定程度上解决文字浏览、阅读的问题。但由于当前互联网上大量的图片和视频内容,对于盲人用户的浏览来说,“上网并看懂”依旧存在非常大的门槛。而清华大学发布的这款大幅面触觉图形显示终端,所要解决的就是盲人阅读图像信息的无障碍问题。
这款大幅面触觉图形显示终端产品与传统的计算机的液晶屏幕不同,它的表面是由可以凸起和收回的点阵组成的。通过计算机控制这些点阵的变化,可以把传统的图片变成可以触摸的图形。盲人用户通过触摸这些凸起点阵所组成的盲文或触觉图形来阅读文字和认知图片。该设备的研发成功也进一步推动众多针对盲人用户的无障碍应用的发展,例如:电子盲文图书的普及、盲人用户上网学习、购物、和浏览,并且使得盲人今后学习诸如数学几何、物理电路、化学结构等图形化知识的时候更加便利。今后,盲人在阅读盲文图书的时候,不仅可以读到文字还可以“看到”插图。
有了合适的硬件,还要依靠合适的软件去适配,才能为盲人用户提供真正好用的无障碍产品。百度语音技术带来出色的语音识别、语音合成和语音输出能力,帮助设备更快、更准确的理解视障人群的需求并有效的输出内容。百度语音识别基于海量搜索数据的深挖,结合语音语义一体化技术、多语种混合声学建模等多项百度大脑技术创新,整体语音识别准确率达98%。另外,设备已全面接入百度百科的大众百科和博物馆计划相关内容,支持10,000个词条内容、博物馆介绍音频、藏品介绍音频及藏品图片等。同时,百度阅读提供了3万本书籍内容,将转化成盲文让视障人群能够正常的阅读内容,获取信息。这些能力的接入将为盲人用户提供百度百科盲文搜索、盲文电子书阅读、盲人上网购物等应用,帮助他们更好地使用互联网。
除了与清华大学在针对盲人用户无障碍体验的创新硬件层面展开合作以外,百度搜索为了更好满足视障人群在日常生活中的搜索需求,还专门优化了简单搜索APP的产品体验并提供了“盲人模式”,让盲人用户在使用智能手机搜索时,可以享受到更好的无障碍体验,帮助视障人群平等、便捷地获取信息和消费服务。由于简单搜索APP本身在搜索结果页无广告的特点,对于盲人用户来说,这款产品无疑可以让他们的使用更加方便简单。
百度以“用科技让复杂的世界更简单”作为公司的使命,此次与清华大学开展的合作,正是对这一使命的践行。未来,百度还将与清华大学开展更加深入的合作,持续优化简单搜索APP等产品的无障碍体验,让盲人用户也能像普通用户一样,充分体验互联网发展带来的便利。