正文
可重构计算的例子(使用FPGA作为可重构计算单元)
然而,可重构运算在当时并没有普及。从可重构运算提出直到二十一世纪初的40年正是摩尔定律的黄金时期,工艺一年半就更新一次,因此架构上更新带来的性能增强可能还不如工艺更新来得强。
当时最流行的就是靠摩尔定律狂飙突进来实现处理器运算能力的进化,因此与旧架构相差很大的可重构运算并未得到重视:花五年时间研发的可重构计算芯片很可能性能还不及依靠摩尔定律提升性能的传统架构
CPU
。
同时,由摩尔定律带来的
CPU
性能增长完全可以满足当时运算的需求。因此当时可重构运算还只是停留在学术圈子里的精致理论,业界推广的动力并不大。
另一个可重构运算普及的障碍是使用难度。传统CPU上编程使用抽象的高级语言(如
C++
,
Java
等等)描述,已经有成熟的体系。然而可重构计算需要的硬件编程通常使用硬件描述语言(
Verilog
,
VHDL
等等),对于程序员来说需要大量的时间才能掌握。
这样的话可重构计算的生态就无法发展:门槛高意味着做的人少,做的人少意味着知名度低,相关项目数量少,这又导致了无法吸引到开发者参与项目。
异构计算与可重构计算
在今天,摩尔定律遇到了瓶颈,因此可重构计算普及的第一个障碍正在慢慢消失。摩尔定律的瓶颈第一来自于经济学,第二来自于物理定律。从经济学的角度,本来摩尔定律的目标就是通过工艺制程进步缩小特征尺寸让相同功能的芯片需要的晶圆面积更小。工艺制程进步所需的研发成本和mask制作的
NRE
成本上升,而每块芯片的制造成本下降
。在之前的几十年里,工艺制程研发成本和
mask
制作的
NRE
成本上升平摊到每块芯片中不会抵消太多芯片制造成本的下降,从而使用新工艺的芯片的总成本相对于旧工艺会下降。然而,在最新的工艺中,由于新工艺的
mask NRE
成本非常高,生产的芯片必须出货量非常大才能保证摊薄
NRE
成本上升,这对于很多芯片设计公司来说风险很大。因此经济学角度对于摩尔定律的驱动力大大下降了。
从物理学角度来说,障碍主要来源于量子效应和光刻精度。当特征尺寸缩小到
10nm
的时候,栅氧化层的厚度仅仅只有十个原子那么厚,在那个时候会产生诸多量子效应,导致晶体管的特性难以控制。
另一方面,随着大数据时代的来临,整个社会产生的运算需求迅猛增加。这一点与摩尔定律遇到的瓶颈此消彼长,导致计算机以及半导体行业不得不停下来仔细思考在除了继续无脑改进CPU制造工艺之外,还有没有其他满足运算需求的办法。
很自然地,大家想到了计算机架构这件事。目前在云端的计算五花八门,包括机器学习,数据库,图像处理,金融运算等等。为什么运算能力不足?因为大家都想要图方便,只用通用的
CPU
来处理所有的任务。
前面已经提到,
CPU
的架构并不适合所有任务,只是因为在大数据时代来临前
CPU