来源:内容编译自CNN,谢谢。
美国政府对向中国销售用于人工智能(AI)应用的高科技存储芯片实施了新的出口管制。
这些规则适用于美国制造的高带宽存储器(HBM)技术以及外国生产的技术。
以下是您需要了解的有关这些尖端半导体的所有信息,随着全球对人工智能的狂热,它们的需求也飙升。
什么是高带宽内存?
高带宽内存 (HBM) 基本上是一堆内存芯片,是存储数据的小型组件。与旧技术 DRAM(动态随机存取存储器)相比,它们可以存储更多信息并更快地传输数据。
HBM 芯片通常用于显卡、高性能计算系统、数据中心和自动驾驶汽车。
最重要的是,它们对于运行日益流行的人工智能应用程序(包括生成式人工智能)至关重要,这些应用程序由人工智能处理器提供支持,例如 Nvidia ( NVDA ) 和 Advanced Micro Devices ( AMD ) 生产的图形处理单元 (GPU)。
芯片研究机构 TechInsights 副主席 G·丹·哈奇森 (G Dan Hutcheson) 告诉 CNN:“处理器和内存是人工智能的两个基本组成部分。没有内存,就好比有一个有逻辑的大脑,却没有任何记忆。”
这些限制将如何影响中国?
最新的出口限制措施于12月2日宣布,此前拜登政府在三年内已宣布了两轮针对先进芯片的限制措施,目的是阻止中国获取可能使其获得优势的关键技术。作为报复,北京对制造半导体和其他高科技设备所必需的锗、镓和其他材料元素的出口实施了新的限制。
专家表示,最新的出口限制将减缓中国在 AI 芯片方面的发展,最多会阻碍其获得 HBM 的渠道。尽管中国目前生产 HBM 的能力落后于韩国的 SK 海力士和三星以及美国的美光 ( MU ),但它正在开发自己的 HBM 能力。
科技领域专业网络咨询公司 Ansforce 首席执行官 Jeffery Chiu 向 CNN 表示:“美国出口限制将在短期内减少中国获得更高质量 HBM 的机会。但从长远来看,中国仍然能够独立生产,尽管技术不够先进。”
为什么 HBM 如此重要?
与传统内存芯片相比,HBM 芯片的强大之处在于其更大的存储空间和更快的数据传输速度。
由于人工智能应用需要大量复杂的计算,这些特性可确保这些应用程序顺利运行,不会出现延迟或故障。
更大的存储空间意味着可以存储、传输和处理更多的数据,从而提高人工智能应用程序的性能,因为大型语言模型 (LLM) 使它们能够拥有更多的参数进行训练。
把数据传输速度提高,或者用芯片术语来说就是提高带宽,想象成高速公路。高速公路的车道越多,出现瓶颈的可能性就越小,因此可以容纳的汽车就越多。
“这就像是一条双车道高速公路和一条百车道高速公路之间的区别。你不会遇到交通堵塞,”哈奇森说。
谁是顶尖制造商?
目前,全球HBM市场由三家公司主导。
根据台北市场研究机构 TrendForce 发布的研究报告, 截至 2022 年,海力士占据 HBM 总市场份额的 50%,其次是三星(40%)和美光(10%)。预计这两家韩国公司将在 2023 年和 2024 年占据 HBM 市场的类似份额,合计占据约 95% 的份额。
据台湾官方中央社援引美光公司高管 Praveen Vaidyanatha 的话报道,美光公司的目标是到 2025 年 将其 HBM 市场份额提高到 20% 至 25% 之间。
HBM 的高价值使得所有制造商都将相当一部分制造能力用于更先进的内存芯片。TrendForce 高级研究副总裁 Avril Wu 表示,从 2024 年开始, HBM预计将占标准内存芯片总市场的 20% 以上,到明年可能超过 30%。
HBM 是如何制成的?
想象一下将多个标准内存芯片像汉堡一样层层堆叠。这基本上就是 HBM 的结构。
表面上听起来很简单,但做起来却并不容易,这反映在价格上。HBM 的单位售价比传统内存芯片高出数倍。
这是因为 HBM 的高度大约相当于六根头发的高度,这意味着堆叠在一起的每一层标准内存芯片也需要非常薄,这一壮举需要被称为先进封装的一流制造技术。
“每个内存芯片都需要被磨薄到半根头发那么薄,然后才能堆叠在一起,这是非常困难的事情,”邱说。
此外,这些存储芯片在叠合之前,需要在上面钻孔,以便电线穿过,而这些孔的位置和大小需要极其精确。
“当你尝试制造这些设备时,你会遇到很多失败点。这几乎就像建造一座纸牌屋,”哈奇森说。
参考链接:https://edition.cnn.com/2024/12/08/tech/us-china-hbm-chips-hnk-intl/inde...
本文转载自:本文转载自:半导体行业观察