• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

必应软件中心(微软必应的下载在哪)


“如果无数多的猴子在无数多的打字机上随机打字,并持续无限久的时间,那么在某个时候,它们必然会打出莎士比亚的全部著作。”这是法国数学家波莱尔在1909年提出的“无限猴子定理”。然而,这帮猴子却难以辨别出它们打出的东西到底是什么。这就像一台计算机在不停运算,得出的只是一行行代码。如果让这些代码更有意义,需要计算机明白自己在干什么,也就是所谓的人工智能(AI)、深度学习。事实上,除了人们日常所接触到的应用和服务层,AI早已渗透到架构层。

数据中心在机器学习时代面临新的挑战(图片来自Wired)

人工智能涉及的领域非常广泛,工业、航天、商业都有应用,数据的积累和分析让这种技术有了更高的价值。机器开始懂得用户想要什么,可以预测未来的天气和球赛的比分,这种人工智能与场景的结合,要实现的就是改变生活方式和解放生产力。微软前执行副总裁陆奇曾指出,如果大数据被充分利用,全球企业将额外获得1.6万亿美元的数字红利。

海量数据的解读对计算性能是不小的考验,设备堆叠和软件优化无法解决根本问题,要从基础架构上做出改变。也就是说,未来的数据中心绝不是传统意义上的通用计算机,而是可以针对业务需求做出感知响应,同时兼顾效率与能耗,实现所谓的智慧计算。更重要的是,随着IPDC的发展,互联网企业业务和技术快速迭代,对数据中心提出了新的挑战,需要更好地支持AI、机器学习等前沿技术。

为了充分挖掘计算潜力,很多厂商都在尝试用GPU处理并行计算,其由数以千计的更小、更高效的核心组成,这些核心专为同时处理多任务而设计,在Linpack测试中也可以获得更好的浮点运算性能。前不久,我们采访了联想集团中国区中央及行业技术支持和体验中心总监李鑫,他认为未来服务器结构会发生新的变化,计算与IO是完全分开的,像NVIDIA这样涉足GPU计算的厂商,持续攀升的股价足以说明这种技术的火热。不过,GPU在兼容性、能耗、成本等方面也存在一些缺陷,使得大家开始寻求其他方案,“老古董”FPGA再次被提及。

近两年,FPGA市场的大交易不断。通过收购Altera,英特尔希望借助更高的集成度,将数据中心用半导体的性能提升两倍以上,要在同一硅片上整合微处理器和FPGA,设计层面的整合较为重要。而作为全球最大的FPGA厂商之一,Xilinx在收购Auviz Systems(提供基于FPGA中间件IP,减少应用功耗)之后,则会利用后者在数据中心和卷积神经网络领域的技术,提高FPGA在人工智能领域的地位。

FPGA在AI数据中心时代杀出重围

那么,FPGA为何能在AI数据中心时代杀出重围呢?究其原因,无外乎兼容性、可定制、功耗、性价比。熟悉FPGA的人并不少,其全称为Field-Programmable Gate Arra,即现场可编程门阵列,以硬件描述语言(Verilog或VHDL)完成的电路设计,特点是可以排列组合出各种复杂的逻辑功能,即使在出厂成品后也能根据设计需要改变逻辑模块和连接。并行计算时,FPGA包含的LUTs、register、DSP等经由网络通过编程连接,实现特定功能,并且可以反复重配使用。无论是对比GPU还是ASIC ,FPGA的兼容性和灵活性都更好。

微软的研究人员认为,通过在必应网络搜索数据中心使用FPGA,服务器能够快速处理更高的搜索查询负载,所需设备数量有所削减,“在云环境中,可重新配置逻辑将成为数据中心的首选资源实现机制,并将随着时间推移而承载超越传统CPU的大部分数据中心计算任务。”

功耗方面,根据浪潮为国内某大型互联网公司定制的FPGA实测数据显示,一个FPGA加速卡的功耗约为20W-75W的功耗,对应的1个GPU单元为235W-300W。此外,一块中端GPU的每瓦单精度20Gflops/W,而FPGA为60Gflops/W-80Gflops/W。不过在实现同样功能时,FPGA较GPU和ASIC需要的电路面积更大,这也导致了其总功耗优势下降,尚需进一步优化。

全球FPGA市场的年均增长率会达到7%(数据来自Gartner)

应用方面,FPGA在通信、医疗、工业、军事等领域均有涉足,例如信号基站就需要FPGA进行数据处理,架构的广泛适应性也为FPGA应用于数据中心打下了基础。市场调查机构Gartner预测,从2014年到2023年,全球FPGA市场的年均增长率会达到7%。

FPGA仍有不足 兼顾灵活和性能是关键

或许有人会说,除了GPU异构,就不能为人工智能、机器学习专门定制芯片(ASIC)吗?的确,这种方案会带来更好的性能,但研发周期和设计成本难以控制,要等待最新的半导体工艺,商用风险较大。

当然,FPGA也绝非面面俱到。首先GPU在峰值性能远远把FPGA甩在身后,这也是NVIDIA主推GPU加速的原因之一,适用于很多深度学习场景,性能足够满足需求。其次,由于传统FPGA采用硬件语言编程,让大多数程序员犯了难,开发门槛较高。对此,不少人开始转向基于OpenCL的软件开发模式,优势是适配多种平台,语言更加易于理解,普及程度也逐渐提高。

本月在美国盐湖城举行的全球超算大会SC16上,英特尔与浪潮联手推出了FPGA加速卡F10A,其基于Altera的Arrial 10芯片,单芯片峰值运算能力达到1.5TFlops,功耗仅为35W,每瓦特性能42GFlops。这款加速卡支持OpenCL高级语言开发,与使用Verilog耗时三个月的研发周期相比,F10A只需1名工程师用1个月即可开发完成。

综上所述,FPGA在人工智能数据中心时代将有更大的发展空间。传统GPU加速通过硬件不断强化带来性能提升,却难以兼顾个性化、设计成本等因素。相比之下,FPGA可以更有针对性地满足需求,可以利用架构优化提高峰值性能,追赶与GPU加速的差距。(注:本文部分技术内容来自知乎用户@李一雷、@岑川)

本文链接:https://www.24zzc.com/news/169534520537760.html

相关文章推荐

    无相关信息