用整个硅片做芯片?台积电说可商业化
经历了华为事件,有一个不得不谈的问题,我国芯片到底多烂
近几年美国一直找各种理由打压华为,导致去年华为事件爆发,从这件事给大家提了一个醒,那就是我们有崛起的梦想,但是也有面临的阻力。因此,如何突破阻力,不是光靠所谓的喊口号,支持华为、华为加油等等,而是实现我们的真正意义上的强大! 例如,我们一直
据Digitiimes报道,尽管对极其昂贵的、类似Cerebras Systems开发的Wafer Scale Engine(WSE)那样的超级计算机AI芯片的需求仍然很有限,但台积电依然计划在两年内投入类似芯片的商业生。报道指出,能实现这个的关键是台积电(TSMC)能够通过其InFO_SoW(集成的扇出晶圆上系统)IC缩放工艺来提高其良率。
Digitimes进一步表示,Nvidia的GPU Ampere系列和富士通超级计算机Fugaku都已经采用了台积电的晶圆上晶圆上芯片(CoWoS)封装工艺。
要了解台积电在这里构建的内容,需要解析多个缩写。集成式扇出是台积电多年来提供的一种封装技术。通常,在将硅片结合到封装之前将硅片切成裸片,那么得到的封装将大于物理裸片。
对于那些需要绝对最小裸片尺寸的公司,这种安排并不理想。为此他们提供了另一种技术,称为晶圆级处理,通过封装仍为晶圆一部分的裸片来消除尺寸差异。这样可以节省大量空间,但会限制芯片可用的电气连接数量。
InFO通过将更传统的模切工艺与其他步骤相结合来解决此限制,从而保留了晶圆级加工(WLP)产生的大部分尺寸优势。以常规方式切割die,然后将其重新安装在第二个晶圆上,每个die之间留有额外的空间用于连接。3Dincites 根据台积电在ECTC 2020上的演讲,对InFO_SoW 进行了深入研究。InFO_SoW的重点是利用InFO提供的优势并将其扩展到晶圆尺寸的处理模块。
晶圆级处理的理论优势之一是以最小的功耗实现了巨大的连接性。下面的幻灯片说明了其中的一些差异,包括PDN(配电网络)阻抗的显着降低。这些说法与去年研究小组报告的有关晶圆级处理的陈述相呼应。研究小组对这一想法进行了调查,认为这是现代时代扩展CPU性能的一种可行方法。
InFO_SoW只是台积电提供的一种高级封装技术。下面的幻灯片显示了其各种封装选项在功率效率和垂直互连间距方面的比较。
台积电表示,它可以将带宽密度提高2倍,阻抗降低97%,同时将互连功耗降低15%。
此外,这个芯片的TDP令人惊叹。即使我知道这个数字是针对整个12英寸晶圆的,但7,000W TDP还是让人大开眼界。而台积电正在为Cerebras建造“芯片”,其中包含40万个内核和1.2万亿个晶体管。
如果您考虑一下,AMD和英特尔近年来所拥护的大多数进步都是互连和封装方面的改进。小芯片及其相关的包装要求,以及HyperTransport Infinity Fabric 的开发和演变一直是AMD讨论的主要话题。同时,英特尔已经与EMIB,Foveros和Omni-Path进行了合作。
如今,每个人都专注于封装的原因是因为越来越难以通过缩小die和改进工艺节点来使晶体管获得更好的性能。改善封装技术是公司试图在不违反物理定律的前提下提高性能的方法之一。
这些晶圆级处理器永远不会成为您在家中安装的设备。Cerebras晶圆的估计成本为200万美元。晶圆级处理使我感兴趣的是,无论功能多么强大,云最终都可以在任何单个桌面安装上建立真正的优势。从理论上讲,只要我们能够解决延迟问题,晶圆级处理+云计算就可以改变计算领域。
世界最大芯片Wafer Scale Engine(WSE)的诞生
去年八月,初创公司Cerebras Systems宣布推出有史以来最大的芯片Wafer Scale Engine(WSE)。
据悉,WSE拥有1.2万亿个晶体管,这是一个什么概念呢?比较一下,1971年英特尔首款4004处理器拥有2300个晶体管,最近,AMD推出的最新处理器拥有320亿个晶体管。由此可见WSE规模之庞大。
大多数芯片是在12英寸硅晶圆上制造的,并在芯片工厂中批量处理。但Cerebras Systems芯片是在单个晶圆上通过互联实现的单芯片。这些互连设计使其全部保持高速运行,可使万亿个晶体管全部一起工作。
Cerebras Wafer Scale Engine专门针对处理人工智能应用程序而设计的。该公司本周正在加利福尼亚州帕洛阿尔托的斯坦福大学举行的Hot Chips会议上讨论这项设计。
此前,三星已经制造了一个闪存芯片,即eUFS,拥有2万亿个晶体管。但Cerebras芯片拥有400,000个核心,42,225平方毫米。它比最大的Nvidia图形处理单元大 56.7倍,该单元的尺寸为815平方毫米和211亿个晶体管。
与传统芯片相比,WSE还包含3000倍的高速片上存储器,并且具有10000倍的存储器带宽。
芯片巨头正式宣布,中国芯片迎来新的转机?华为并非孤军奋战
“浴血奋战”的华为 众所周知,近几年来,特朗普和美国政府一直对我们国内的华为公司抱着打压的态度,企图在各个方面限制华为的发展,以此来遏制华为甚至是我们国内技术的崛起! 不得不说,特朗普对于华为的用心是十分险恶的,但是就目前的情况来看,华为除了
该芯片来自Andrew Feldman领导的团队,后者曾创建微型服务器公司SeaMicro,并以3.34亿美元的价格出售给了AMD。
芯片尺寸在AI中非常重要,因为大芯片可以更快地处理信息,在更短的时间内产生答案。减少训练时间,使研究人员能够测试更多想法,使用更多数据并解决新问题。谷歌,Facebook,OpenAI,腾讯,百度和许多专业人士都认为,今天人工智能的主要限制是训练需要很长时间。因此,缩短训练时间就消除了整个行业进步的主要瓶颈。
当然,芯片制造商通常不会制造如此大的芯片。在单个晶圆上,在制造过程中通常会产生一些杂质,杂质会导致芯片发生故障。如果晶圆上只有一个芯片,它有杂质的几率是100%,杂质会使芯片失效。但Cerebras设计的芯片是有冗余的,因此一种杂质不会破坏整个芯片。
WSE有很多创新,通过解决限制芯片尺寸的数十年的技术挑战 - 例如交叉光罩连接,良率,功率输送,以及封装等,Cerebras Systems首席执行官费尔德曼说。“每个架构决策都是为了优化AI工作的性能。结果是,Cerebras WSE根据工作量提供了数百或数千倍于现有解决方案的性能,只需很小的功耗和空间。“
WSE通过加速神经网络训练的所有元素来实现这些性能提升。神经网络是多级计算反馈回路。较快的输入在循环中移动,循环学习的速度越快,从而减少了训练时间。
Linley Group首席分析师Linley Gwennap在一份声明中说:“Cerebras凭借其晶圆级技术实现了巨大的飞跃,在单片晶圆上实现了更多的处理性能。” 为了实现这一壮举,该公司已经解决了一系列工程难题,包括实施高速芯片到芯片通信,解决制造缺陷,封装如此大的芯片,以及电源和冷却等问题。通过将各种学科的顶级工程师聚集在一起,Cerebras在短短几年内创造了新技术并交付了产品。
据悉,该芯片面积比最大的GPU多56.7倍,Cerebras WSE提供更多内核进行计算,更多内存靠近内核,因此内核可以高效运行。由于这些大量的内核和内存位于单个芯片上,因此所有通信都在芯片内进行,这意味着它的低延迟通信带宽是巨大的,因此内核组可以以最高效率进行协作。
Cerebras WSE中的46,225平方毫米的硅包含400,000个AI优化,无缓存,无开销的计算内核和18千兆字节的本地、分布式、超高速SRAM内存,内存带宽为每秒9 PB。这些内核通过细粒度、全硬件、片上网状连接通信网络连接在一起,可提供每秒100 petabits的总带宽。更多内核,更多本地内存和低延迟高带宽结构共同构成了加速AI工作的最佳架构。
WSE包含400,000个AI优化的计算核心。被称为稀疏线性代数核心的SLAC,计算核心灵活、可编程,并针对支持所有神经网络计算的稀疏线性代数进行了优化。SLAC的可编程性确保内核可以在不断变化的机器学习领域中运行所有神经网络算法。
由于稀疏线性代数核心针对神经网络计算基元进行了优化,因此它们可实现最佳利用率 - 通常是GPU的三倍或四倍。此外,WSE核心包括Cerebras发明的稀疏性收集技术,以加速稀疏工作负载(包含零的工作负载)的计算性能,如深度学习。
零在深度学习计算中很普遍。通常,要相乘的向量和矩阵中的大多数元素都是零。然而,乘以零是浪费硅、功率和时间,因为没有新的信息。
因为GPU和张量处理单元是密集的执行引擎 - 设计为永不遇到零的引擎 - 它们即使在零时也会乘以每个元素。当50%-98%的数据为零时,如深度学习中的情况一样,大多数乘法都被浪费了。由于Cerebras稀疏线性代数核不会乘以零,所有零数据都会被滤除,并且可以在硬件中跳过。
内存是每个计算机体系结构的关键组件。更接近计算的内存转换为更快的计算,更低的延迟和更好的数据移动功效。高性能深度学习需要大量计算,并且频繁访问数据。这需要计算核心和存储器之间的紧密接近,这在GPU中并非如此,其中绝大多数存储器是很缓慢的,且在片外。
Cerebras Wafer Scale Engine包含更多内核,具有比迄今为止任何芯片更多的本地内存,并且在一个时钟周期内可以通过其核心访问18GB的片上内存。WSE上的核心本地内存集合可提供每秒9PB的内存带宽 - 比领先的图形处理单元多3,000倍的片上内存和10,000倍的内存带宽。
Swarm通信结构是WSE上使用的处理器间通信结构,它可以传统通信技术的功耗的一小部分实现突破性带宽和低延迟。Swarm提供低延迟、高带宽的2D网格,可连接WSE上的所有400,000个核心,每秒带宽为100 petabits。
路由方面,Swarm为每个神经网络提供独特的优化通信路径。软件根据正在运行的特定用户定义的神经网络结构,配置通过400,000个核心的最佳通信路径以连接处理器。
Cerebras WSE的总带宽为每秒100 petabits。不需要诸如TCP / IP和MPI之类的通信协议支持,因此避免了它们的性能损失。该架构中的通信能量成本远低于每比特1焦耳,这比GPU低近两个数量级。通过结合大量带宽和极低的延迟,Swarm通信结构使Cerebras WSE能够比任何当前可用的解决方案更快地学习。
*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。
今天是《半导体行业观察》为您分享的第2363期内容,欢迎关注。
联发科|存储|CMOS|晶圆|FPGA|苹果|5G|英伟达|射频
本文源自头条号:半导体行业观察如有侵权请联系删除
1600亿投资入场"造芯",美国慌忙宣布,中国芯片产业让美国担忧?
在现代的工业体系中,芯片已经成为越来越重要的制造业"核心"之一,无论是航天航空这类的高大上的产业,还是小孩子手中摆弄的电子玩具,亦或者是已经与每个人的生活相容的手机,芯片都毫无疑问是决定产品功能和产品质量的核心元器件之一。我国的半导体行业起步