DRAM解决方案在频宽、延迟、速度、容量及功耗管理方面各有优势,但成本与上市时程仍是关键挑战。为降低创新风险,客户需积极参与承诺采购,而制造商则须寻求降低成本的策略。例如,LPDDR、PIM(Processing-In-Memory)、Wide I/O、GDDR与HBM(High Bandwidth Memory)各具特色,适用于不同应用场景。  

短期内,PIM被视为最具创新的记忆体方案,主要支援神经处理单元(NPU),但仅限少量应用。Mobile HBM虽可提升效能,但应用尚未明朗。预计2026年,Apple将在iPhone Pro Max与折叠机型中,由PoP(Package-on-Package)架构转向独立式DRAM配置,提升频宽,同时NAND表现将透过UFS 5.0技术改进。  

随著自动驾驶技术发展,高效能应用处理器(AP)与LPDDR的使用将进一步增加,预计HBM4将在2027年后导入自动驾驶系统。此外,XR装置、无人机与游戏领域也将扩展Wide I/O的应用,以提升低延迟处理能力。  

NVIDIA提出的DIGITS技术,将透过GPU与HBM的整合提升记忆体频宽,并在2025年中透过SOCAMM技术(System-On-Chip Advanced Memory Module)增强CPU频宽,以扩展容量并提升讯号完整性。然而,PCB与连接器成本仍是一大挑战,短期内尚无计划将该技术应用于一般PC市场。  

三星在Semicon Korea 2024的演讲中,强调生成式AI记忆体解决方案需在高频宽、速度、容量、低延迟与功耗管理之间取得平衡。预计至2030年,HBM5的堆叠层数将达20层,并与更多逻辑装置整合於单一小晶片(Chiplet)架构中,台积电在CoWoS技术中的角色将更加重要。供应链横向合作的重要性日益提升,将取代单一企业全面整合的垂直整合模式。

AI模型的快速叠代,促使硬体技术发展及成本下降。过去,智慧型手机的软体环境在iOS与Android框架下变化有限,但AI技术的引入正带来差异化发展。例如,DeepSeek正开发行动AI的LLM(大型语言模型),预期OpenAI等企业将逐步标准化AI技术。

未来,随著PIM与Low Latency Wide I/O(LLW)等创新技术的普及与成本持续下降,这些技术有望在软体标准化后的数年内加速落地。  

Counterpoint Research研究总监MS Hwang表示,面对AI时代的快速发展,记忆体技术的创新将成为驱动产业转型的关键。无论是在智慧型手机、自动驾驶,还是高效能运算领域,记忆体解决方案都扮演著举足轻重的角色。随著供应链合作模式的变革,技术标准化与成本优化将推动记忆体产业迈向更高效能、低功耗的未来。


點擊閱讀下一則新聞 點擊閱讀下一則新聞
川普2.0需要更低利率! 中长天期美债、投等债ETF机会来了