内容概要:内存内处理(PIM,也称为存内计算)是指将处理器与RAM(随机存取存储器)集成在单个芯片上。集成后的芯片也被称为PIM芯片。PIM允许在计算机、服务器或类似设备的内存中执行计算和处理,该架构通过在内存模块内执行任务来加速任务的整体处理。为了解决冯·诺依曼瓶颈带来的功耗和算力问题,存内计算的概念被提了出来。与冯·诺依曼架构中分离的处理器和存储器不同的是,存内计算将数据的存储和计算融为一体,使得存储阵列不仅具有常规的数据存储能力,同时又具有阵列运算的功能。21世纪以来,随着人工智能技术的快速发展,具有高能效比的存内计算架构迎来了发展浪潮,此后,存内计算在神经网络计算等领域逐渐受到关注。三星、台积电、海力士、英特尔、IBM等半导体巨头也都投入到了存内计算架构的研发之中。存内计算的出现使计算平台的算力功耗比、面积功耗比等进入了一个新的阶段。据Precedence Research数据,2023年全球存内计算市场规模约为180.4亿美元,预计到2028年规模将增长至387.6亿美元,期间年复合增长率为17%。
关键词:内存内处理 (PIM)芯片发展历程、内存内处理 (PIM)芯片发展优势、内存内处理 (PIM)芯片市场现状
一、内存内处理 (PIM)芯片行业相关概述
内存内处理(PIM,也称为存内计算)是指将处理器与RAM(随机存取存储器)集成在单个芯片上。集成后的芯片也被称为PIM芯片。PIM允许在计算机、服务器或类似设备的内存中执行计算和处理,该架构通过在内存模块内执行任务来加速任务的整体处理。
存内计算的提出可以追溯到上世纪70年代,1969年,William等首次提出存储和逻辑整合的想法,将存储和逻辑运算电路集成为小的元胞,然后迭代成一个二维阵列,再通过编程的方法可以实现所需的复杂逻辑行为,这种存内逻辑结构设计在设计、制造、测试等方面具有许多优势。次年,Harlod等提出存内逻辑处理器的概念,存内逻辑阵列不但可以作为CPU与存储之间的高速缓冲,还具有处理数据的能力。1975年,Elmasry等提出了一种利用双极型晶体管构成的两级存内逻辑,该结构可以实现存储和组合逻辑功能。1982年,Odaka等提出了一种存内逻辑计算超大规模专用集成电路(VLSI),集成了6144位存储和770个逻辑门电路,提高了处理器效率。21世纪之前对于存内计算的研究还处于起步阶段,21世纪以来,随着人工智能技术的快速发展,具有高能效比的存内计算架构迎来了发展浪潮,此后,存内计算在神经网络计算等领域逐渐受到关注。2018年,IEEE国际固态电路会议(ISSCC)开始设立一个独立的议程来讨论存内计算相关的设计。三星、台积电、海力士、英特尔、IBM等半导体巨头也都投入到了存内计算架构的研发之中。存内计算的出现使计算平台的算力功耗比、面积功耗比等进入了一个新的阶段。
相关报告:智研咨询发布的《2025年中国内存内处理 (PIM)芯片行业市场全景分析及产业需求研判报告》
二、内存内处理 (PIM)芯片行业发展背景
1965年,英特尔联合创始人戈登·摩尔预测,单个芯片上的晶体管数量大约每两年翻一番,而成本只会有极小的增加。该预测被称为摩尔定律。由于技术的进步与芯片制造工艺的改进,在过去几十年里,芯片的算力有着显著的提高。例如,1978年,英特尔推出的8086微处理器,工作在4.77MHz的时钟频率,具有0.33百万条指令每秒的处理速度;20世纪90年代早期,英特尔Pentium系列处理器的算力达到了100MIPS;到了90年代末期,英特尔PentiumIII系列处理器的算力达到了600-700MIPS;2000年以后,英特尔推出Core系列处理器,算力则达到了20-30十亿条指令每秒;2020年苹果公司推出的M1处理器,算力已经达到了1000BIPS。尽管摩尔定律预见了芯片行业的发展趋势,但如今,随着晶体管尺寸接近原子级,半导体材料和制造工艺已经到达物理极限,同时,随着芯片尺寸和晶体管数量的增加,芯片的发热和功耗也急剧增加,摩尔定律正面临越来越多的局限与挑战。物理尺寸和制造工艺的提升已经无法满足摩尔定律发展的速度,因此,需要寻找新的技术来维持计算机性能的增长。
截至2023年底,全球算力基础设施总规模达到910EFLOPS(FP32),同比增长40%。美国、中国算力基础设施规模位列前两名,中国算力总规模达230 EFLOPS。近年来,随着可穿戴设备、物联网、边缘计算、人工智能等应用的兴起,人们对于计算平台提出了更高的要求,即用有限的能源与资源实现更大的算力,或者实现相同的算力消耗更低的能源与资源。以中央处理器(CPU)与存储器构成的现有计算平台,当需要处理的数据越来越多时,便会由于中央处理与存储器之间的吞吐率急剧上升而出现瓶颈,该瓶颈被称为冯·诺依曼瓶颈,在进行计算时,首先需要将存储器里的值通过总线读取出来,再将输入和读取出的值通过总线送到中央处理器进行计算得到输出结果。在消耗大量时间读取和写入数据的同时,由于需要频繁访问存储器,大量无关的能量会被消耗。冯·诺依曼瓶颈的出现导致现有平台的算力受限,这严重阻碍了物联网、边缘计算、人工智能等应用的发展。为了解决这些问题,业内提出了几种解决方案,包括引入缓存结构(Cache)和无序执行(Out-of-orderProcessing)技术减少存储访问带来的损失等。然而,这些技术仍然跟不上新兴应用所需存储的指数增长,这对传统的计算系统提出了挑战。
三、内存内处理 (PIM)芯片行业发展现状
为了解决冯·诺依曼瓶颈带来的功耗和算力问题,存内计算的概念被提了出来。与冯·诺依曼架构中分离的处理器和存储器不同的是,存内计算将数据的存储和计算融为一体,使得存储阵列不仅具有常规的数据存储能力,同时又具有阵列运算的功能。由于存内计算无需将数据从存储器中读出,因此不存在中央处理器与存储器之间的吞吐率瓶颈,同时,因为省去了存储的读写过程,存内计算平台的功耗和时效都远优于冯·诺依曼架构的计算平台。在机器学习、人工智能、实时数据分析等应用中,存内计算可以实现对大容量数据的更高效处理,这在数据集变得越来越大且越来越复杂的情况下变得越来越重要。其次,存内计算可以帮助克服传统基于磁盘的存储系统的性能限制,降低处理大型数据集的数据搬运量。通过消除这种瓶颈,存内计算可以释放处理器的计算潜力,加速计算平台技术的进步。除了消除计算瓶颈外,存内计算还在降低计算系统的能耗方面发挥着重要的作用,通过减少访问存储器需求,存内计算可以帮助降低计算系统的能耗,从而达到更加节能的目的。
以三星HBM-PIM为例,与配备传统的HBM的GPU相比,生成式AI运行在基于三星的HBM-PIM的系统上,能效平均高出了约2倍,性能加速了2倍以上。
目前的PIM方案主要通过在内存(DRAM)芯片中实现部分数据处理,其中典型的产品形态包括HBM-PIM和PIM-DIMM。这些方案在DRAM Die中内置了处理单元,为系统提供了具备大吞吐和低延迟的片上处理能力。这种存内处理技术可应用于多种场景,包括语音识别、数据库索引搜索、基因匹配等。DRAM存储芯片在信息时代扮演着至关重要的角色,为半导体存储器第一大产品。在各国政策大力支持、市场需求持续增长、厂商技术水平不断提升等因素驱动下,DRAM存储芯片行业取得了显著的发展成果。但2022年以来,伴随着消费电子市场低迷,DRAM需求也明显下滑,市场规模萎缩。2023年全球DRAM市场规模为518.6亿美元,同比下降35%,占存储市场的56%左右。
内存内处理这一创新技术自问世以来,便受到了业界的广泛关注。目前,三星、SK海力士、阿里巴巴达摩院等科技巨头纷纷投入研发,将内存内处理技术作为未来的增长引擎。据Precedence Research数据,2023年全球存内计算市场规模约为180.4亿美元,预计到2028年规模将增长至387.6亿美元,期间年复合增长率为17%。
以上数据及信息可参考智研咨询(www.chyxx.com)发布的《2025年中国内存内处理 (PIM)芯片行业市场全景分析及产业需求研判报告》。智研咨询是中国领先产业咨询机构,提供深度产业研究报告、商业计划书、可行性研究报告及定制服务等一站式产业咨询服务。您可以关注【智研咨询】公众号,每天及时掌握更多行业动态。
2025年中国内存内处理 (PIM)芯片行业市场全景分析及产业需求研判报告
《2025年中国内存内处理 (PIM)芯片行业市场全景分析及产业需求研判报告》共十章,包括内存内处理 (PIM)芯片行业相关概述、内存内处理 (PIM)芯片行业运行环境(PEST)分析、全球内存内处理 (PIM)芯片行业运营态势、中国内存内处理 (PIM)芯片行业经营情况分析、中国内存内处理 (PIM)芯片行业竞争格局分析、中国内存内处理 (PIM)芯片行业上、下游产业链分析、内存内处理 (PIM)芯片行业主要优势企业分析、内存内处理 (PIM)芯片行业投资机会、内存内处理 (PIM)芯片行业发展前景预测。
文章转载、引用说明:
智研咨询推崇信息资源共享,欢迎各大媒体和行研机构转载引用。但请遵守如下规则:
1.可全文转载,但不得恶意镜像。转载需注明来源(智研咨询)。
2.转载文章内容时不得进行删减或修改。图表和数据可以引用,但不能去除水印和数据来源。
如有违反以上规则,我们将保留追究法律责任的权力。
版权提示:
智研咨询倡导尊重与保护知识产权,对有明确来源的内容注明出处。如发现本站文章存在版权、稿酬或其它问题,烦请联系我们,我们将及时与您沟通处理。联系方式:gaojian@chyxx.com、010-60343812。