全球半导体行业正面临严重的时效挑战。过去十年,人工智能的发展速度前所未有,模型规模从数百万参数增长到数万亿参数。
然而,运行这些模型所需的物理硬件演进周期以年为单位,而非周。这种时间上的脱节导致了效率差距的扩大,巨大的能耗和不断上升的成本威胁着人工智能革命的经济可持续性。
在HiPEAC 2026会议上,来自欧洲的顶级计算机架构研究人员一致认为,“先扩大规模,再解决”方法已无法满足当前需求。
会议最后一天,在主题演讲中,伊利诺伊大学厄巴纳-香槟分校(UIUC)的Deming Chen教授表示,未来计算将不仅依赖于新算法,还要打破软件设计与硬件执行之间的障碍。
合作伙伴内容
标题:热能进步推动下一代AI芯片设计
作者:Andras Vass-Varnai 2026-02-02
标题:一家球机制造商如何跟踪8个地点的库存
作者:MRPeasy 2026-02-01
标题:Lightmatter和GUC合作为AI超大规模数据中心生产共封装光学(CPO)解决方案
作者:Global Unichip Corp. (GUC) 2026-01-28
“规模优先”的陷阱
多年来,人工智能开发遵循一种分割过程。研究人员构建大型神经网络以获得最高准确性,假设硬件完美。只有在模型完成后,硬件工程师才尝试使其在真实芯片上运行。
EDN_阅读视频
Deming Chen(来源:UIUC)Chen认为这种单向工作流程导致了显著的技术债务。在HiPEAC观众面前,Chen指出,现代硬件是异构的,并受到严格的功耗、热和制造限制。
当硬件被视为背景层时,人工智能系统就会与硅基实际能力不匹配。这会导致移动数据使用的能量远多于实际计算。
“自上而下的优化无法真正弥补基本设计决策的偏差,”Chen在克拉科夫告诉观众。“我们正面临爆炸性的成本和能耗。如果你继续这个趋势,很快训练一个大型语言模型的能耗将超过小国家的能耗。”
协同设计革命
伊利诺伊大学的研究人员提出了一种A3C3方法(人工智能算法和加速器协同设计、协同搜索和协同生成)。而不是将硬件视为固定目标,这种方法使用数学来同时探索神经网络和硬件设计。
Chen用SkyNet解释了这一点,这是一个专为低功耗无人机对象检测构建的神经网络。他的团队通过双向搜索创建了模型及其硬件作为一个匹配对。在DAC系统设计竞赛中,SkyNet击败了100多个其他参赛作品,其准确性和速度优于人类设计的模型,如ResNet。“这真正展示了协同设计仅通过构造就可以在整体准确率、能耗和性能方面取得飞跃,”Chen解释道。
SkyNet神经网络(来源:教授Deming Chen,UIUC)驯服内存野兽
大型语言模型(LLMs)需要协同设计的需求尤为明显。由于LLMs一次生成一个标记,它们受到内存的限制。通常,更多的时间用于将模型权重从内存移动到处理器,而不是实际计算。
为了解决这个问题,Chen的团队创建了Medusa,一种改变LLM设计的系统,添加几个“头部”。这些头部同时预测多个未来的标记。然后,基于树的检查确认哪些预测是正确的。
“它将内存受限的顺序解码过程转化为计算密集型并行过程,”Chen解释道。通过利用GPU的剩余算术能力,Medusa实现了超过2倍的速度提升,而不影响生成质量。
与此同时,团队还解决了日益增长的关键值(KV)缓存问题,该缓存存储对话历史。随着上下文窗口达到数百万个标记,此缓存可能会压垮GPU内存。Chen介绍了SnapKV技术,该技术观察注意力模式以识别并保留模型实际使用的“重要”标记。
“模型试图理解消息中最重要信息是什么,”Chen指出。“通过SnapKV,我们丢弃不太重要的标记,实现内存占用减少8.2倍。”
可访问的设计过程
Teresa Cervero(来源:BSC)虽然UIUC致力于高性能解决方案,但欧洲研究人员正在使用人工智能解决不同的问题:熟练硬件工程师的短缺。巴塞罗那超级计算中心(BSC)的高级研究员Teresa Cervero强调,现代芯片设计的复杂性已经创造了进入障碍,使学生、初创企业和小企业难以入门。
“欧洲的专业劳动力不大,所以我们需要改进这一点,”Cervero在会议期间接受EE Times采访时表示。“我们希望降低进入门槛,让工程师不用担心深入底层细节。”
在BSC,研究人员正在将大语言模型(LLMs)添加到开源RISC-V处理器的设计过程中。他们使用开源工具而不是大科技公司的封闭“黑盒”模型,以简化访问。Cervero描述了LLMs如何通过生成RTL代码和SystemVerilog检查来确保芯片按预期工作。
RTL生成框架LLM(来源:BSC)然而,Cervero谨慎地降低了对完全自动化的期望。“这不是替换工程工作;只是有一个额外的工具,”她说。“你不能只说‘这是我的问题,帮我设计整个芯片’。你必须指导它。一旦它在芯片中,就完成了——你不能随便修复。”
信任赤字和“正确构建”
美国和欧洲研究人员都关注可靠性。生成式AI有时会“幻觉”,生成看起来正确但实际上是错误的代码。尽管这在软件中令人烦恼,但它会毁掉硬件,因为一个错误可以使硅晶片变得无用。
“尽管有突破,LLMs经常生成无法通过正式验证的代码,”Chen警告道。“这是有前景的,但我们总是面临这个问题:生成的代码是否正确?”
为了解决这个问题,Chen介绍了Proof2Silicon框架,该框架强制实施“正确构建”范式。而不是让LLM直接编写Verilog,系统要求它用Dafny语言编写代码,这是一种专门用于验证的语言。
数学定理证明者立即检查这段代码。如果有问题,一个较小的“策略代理”会找到错误并修复提示,直到代码被证明是正确的。只有这样,它才会被转换为硬件。
“我们强制实践构建的方法,”Chen解释道。“通过验证器反馈引导的提示修复,我们可以引导模型走向可验证的代码,而无需昂贵的微调。”
转向LLM辅助设计
这些新技术正在引领计算机制造方式的重大变化。Chen预测,从传统的计算机辅助设计(CAD)向“LLM辅助设计”(LAD)转变。不久,工程师将与设计工具交谈,说明他们想要什么,而AI将处理细节、检查和布局。
BSC的Cervero认为这是开源项目的重要一步,特别是RISC-V。通过让AI处理检查和编码的枯燥部分,小型团队可以与大公司竞争。“我们想为学术界和中小企业提供访问,”她说。“利用联盟的专业知识,我们可以确保这些人准备好使用这些工具进入产业。”
两位研究者都同意,硬件开发需要加快步伐以跟上软件进展。到2035年,他们设想自我改进的系统——硬件可以在现场自行更改,以跟上新的AI模型,结束行业目前面临的长期延迟。
“旅程刚刚开始,”Chen总结道。“通往可持续人工智能的道路在于构建系统,其中架构的智能与算法的智能相匹配。”随着行业超越蛮力扩展,共同努力——结合人类想法与机器执行——可能最终将硬件与软件同步。
相关话题:
相关内容:
相关主题:AI、BSC、DEMING CHEN、HIPEAC、HIPEAC2026、MEMORY、SEMICONDUCTORS、SUSTAINABILITY
分享本文:
关于作者
Pablo Valerio Pablo是一位经验丰富的工程师,拥有30多年的从业经验。在过去10年里,他是EE Times的贡献编辑(他编辑供应链部分)。他还为EPSNews、InformationWeek、EBN、LightReading、Network Computing和IEEE Xplore撰稿。他的报道涵盖供应链、半导体、网络、物联网、安全和智慧城市。他拥有俄亥俄州立大学电气与电子工程硕士学位。在LinkedIn上关注Pablo