• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

胶州搜狗seo优化(seo搜索引擎优化实战)



6月24日,由人民网研究院编撰的移动互联网蓝皮书《中国移动互联网发展报告(2019)》正式发布。报告指出,人工智能与产业结合推动爆发式增长,是未来我国移动互联网发展的重大趋势之一。人工智能有望作为一项基础性技术支撑,赋能各行各业,形成新一波高速发展浪潮。

“人类正在走向智能时代”。一方面,全球科研机构、科技公司都在人工智能研发方面投入越来越多的精力,一场赌注未来、抢占产业先机的新竞赛已经鸣枪起跑;另一方面,不论是战胜围棋冠军的AlphaGo,还是获得公民身份的仿人机器人索菲亚,人工智能在应用领域的一系列表现,让世人对它的理解,从科幻电影里酷炫非凡的特技效果,变成了更多实实在在、触手可及的真实场景。

关于人工智能,从来不缺少观点与争论。但行业的发展,离不开的是清醒的认识与洞见。在这方面,老一辈人工智能科学家张钹堪称典范。

张钹是计算机专家、中国计算机学会会士,2014年获得中国计算机学会终身成就奖。他还是中国科学院院士,清华大学人工智能研究院院长。从事人工神经网络、遗传算法、分形和小波等理论研究,并聚焦模式识别、知识工程、智能机器人与智能控制等领域的应用技术研究。

作为人工智能领域的专家, 张钹担任此次人工智能大会的荣誉主席,将出席大会并做题为《走向第三代人工智能》的专题报告 ,了解他对行业的思考与洞见,有助于我们更科学地看待人工智能的前景。



图像识别、语音识别和围棋,堪称近年来人工智能发展的“代表作”:

2015年,微软宣布在ImageNet的图像识别上,电脑系统识别能力已经超越了人类:人类错误率为5.1%,而微软的深度学习系统可以达到4.94%;

2016年,搜狗、百度和科大讯飞宣布,各自的中文语音识别准确率均达到了97%,高于人类;

2016年及2017年,AlphaGo以压倒性优势接连击败当前最好的人类棋手李世石与柯洁。

在张钹看来,人工智能之所以能取得这些成绩,主要来自三方面的原因:一是大数据,二是计算能力,三是算法。

以围棋为例,一个人类棋手一生能够经历的棋局量级能达到百万,可AlphaGo在三个星期内就学习了7000万局人类棋局,还“左右互搏”,自己与自己下,量级达到几十亿级。这两项数据可谓云泥之别,人类棋手在坐到棋盘前就已经输了,难怪柯洁在败北后也只好感慨:“它太完美,我看不到希望。”支撑AlphaGo在如此短的时间内“消化”掉几千万局棋局的,正是强大的学习算法。

虽然当前人工智能的进步让人刮目相看,但是张钹认为,这些成功是因为场景都满足了以下五个条件:

第一,数据充足,不仅是说数量大,还要具备一定的多样性,且不能残缺;

第二,确定性;

第三,具有完全的信息,这是最重要的;

第四,静态,包括按确定性的规律演化,具有可预测性。

第五,特定领域和单任务。

反之,一旦不能满足上述全部条件,计算机做起来就会感到困难。

比如,AlphaGo之所以能在围棋上吊打人类,就是因为围棋属于完全信息博弈,它虽然复杂,但本质上只需要计算速度够快,计算机就可以学习掌握。但在日常生活中,人们的所有决策都是在不完全信息的条件下完成的,这就使得计算机的应用场景明显受限。别的不说,如果把围棋换成麻将,计算机就会感到棘手,因为麻将(以及其他牌类)属于不完全信息博弈。

此外,静态的条件也过于理想。它要求事态按照确定的规律来演化,具有可预测性。但现实往往不是这样,比如路况,本身就是一个复杂的场景,不具备可预测性,可见在复杂路况下自动驾驶还有很长的路要走。



既然当前人工智能取得的成果还存在不少局限,那么,什么才是“智能”该有的样子?

张钹的答案是:要有理解。

当前人工智能的能力范围,受限于他所提到的上述五个条件,恰恰说明计算机是依靠不断重复计算和学习来达到眼前效果的,现在的人工智能是没有理解的人工智能。

以问答系统为例,计算机之所以能够给出问题的答案,并不是因为它理解了人类在说什么,而是依靠大量的数据检索,寻找或匹配出了与问题相对应的答案。它可以回答“美国总统是谁”,但如果你问“特朗普是个人吗”,它大概会懵掉。

会检索、检索快,在张钹看来还远谈不上智能。现在的深度学习本质上是基于概率统计的学习,简单来说,就是寻找那些重复出现的模式,重复多了就会被认为是规律和真理,所以大数据也会出现不理想甚至是错误的结果。

因此张钹提出,人工智能的核心应该是知识表示和不确定性推理。对人工智能来说最重要的能力是知识,而非数据。机器应用数据的能力已经超过了人类,但人类在应用知识方面要强于机器,如果两者无法结合,人工智能就无法很好地与产业结合。他认为,有理解的人工智能是可以做出来的,只不过这需要时间。



张钹表示,人工智能实际上经历过两代,第一代是符号推理,第二代就是目前的概率学习,它最大的问题是不可解释和不可理解。

为什么人工智能需要可解释性?

假如人工智能将来越来越多地应用到实践中,那么人类就必须要知道,计算机是如何“想”的。

比如智能驾驶汽车要上路,如果人类不清楚工作原理,那如何放心的把生命安全托付给计算机?

因此张钹提出要建立可解释、鲁棒性(即性能稳定,抗干扰能力强等状态)强的人工智能理论和方法,发展安全、可靠和可信的人工智能技术。他提倡发展第三代人工智能,这还需要计算机科学与数学、脑科学等的结合与突破。



欲了解更多信息,可通过如下方式联系我们:

大会信息咨询

平平

手机:185-1086-6934

微信:185-1086-6934

企业服务专员

王老师

手机:170-9008-6234

微信:dalonsmary1010

本文链接:https://www.24zzc.com/news/170557066555651.html

相关文章推荐

    无相关信息