鸿海研究院量子计算研究所所长谢明修和该所博士实习生刘宸銉,携手美国乔治亚理工大学与台湾大学,在量子机器学习领域取得重大突破,提出全新的量子参数适应(Quantum Parameter Adaptation, QPA)方法,成功将量子计算与古典深度学习结合,提升参数高效微调(Parameter-Efficient Fine-Tuning, PEFT)在大型语言模型上的应用能力。透过量子神经网路(Quantum Neural Network, QNN)在训练阶段产生古典模型的权重参数,可在不牺牲模型效能的前提下,大幅降低所需调整的参数数量。实验结果显示,QPA 相较于传统方法,能有效减少参数需求,同时保持甚至提升文本生成效能。
这次成果首次展现在量子参数生成的架构下,可将量子计算资源限制于训练阶段,推理时仍可完全依赖古典硬体运行,为量子与古典计算的协同发展开辟全新路径。这项突破性技术不仅降低了量子机器学习对量子硬体资源的依赖与部署成本,也为量子-古典混合超算(Quantum-Centric Supercomputing)在大型语言模型中的应用奠定了重要基石,展现了量子计算在现实应用中的可行性与前景。
ICLR是机器学习领域的顶尖国际会议。在 Google Scholar Metrics 的所有被索引的会议与期刊中,根据 h5-index 指标排名,ICLR 的 h5-index 高达 304,位列全球第 10 名,展现其在学术界的卓越影响力。今年总共有11,672件论文投稿,投稿数量比起去年多出四千多笔,2025年将在新加坡展览中心举行第13届年会。
鸿海研究院此次的技术突破,将为台湾在量子计算与机器学习领域取得关键影响力,也证明鸿海在量子计算领域的持续耕耘投入,已经累积相当卓越的技术能力。鸿海研究院将继续致力于量子计算的研究,为全球技术创新和产业进步做出更大的贡献。
