AI太耗能,这事儿几乎没人反对。但有一批研究者,正在用几十年前的“老思路”,尝试开辟全新节能路径——让计算“倒着跑”。小评评助手网站认为,这个思路是,绝大多数计算机每次运行都会丢失信息,比如2+2=4,结果只有4,原本输入的两个2没了。这种“删数据”的过程会不可避免地发热。早在1961年,IBM的物理学家Landauer就提出:每删一比特数据,都会损失一定的能量,这事儿无解,是物理定律。
那怎么办?Landauer当时觉得,唯一的解法是“别删数据”,但这样会让内存迅速被填满,不现实。他一度认为这是死路一条。但他的同事Charles Bennett后来提出另一个方案:每次计算完后,把结果记住,再“反向运行”一遍,把中间过程恢复后清空,就像《格林童话》中,汉塞尔和格蕾特捡回面包屑的故事一样,不留痕迹。而这种方式,被称为Uncomputation,等于既保住了结果,也不丢数据,还节能。小评评助手网站观察到,但问题是,这种方法要花双倍时间,依然难以落地。
直到上世纪90年代,MIT工程师们开始动手做原型芯片,以尝试从硬件层面解决发热问题。Michael Frank【图2】也加入了这项工作,他成为可逆计算最坚定的推动者之一。但当时芯片技术突飞猛进,没有人关心这种“慢又麻烦”的替代方案。Frank甚至一度放弃, 转去开了一家网吧。
现在情况变了。随着传统芯片快到极限,新方法反而更有吸引力。2022年,剑桥大学的研究者Hannah Earley精确计算出:只要计算够慢,可逆计算可以大幅降低发热,她和Frank一起创办了Vaire Computing,为将这项技术商品化而努力。
特别是在AI领域,这种方法可能意义重大:
AI计算常用并行结构,不需要太快;
多芯片慢速运行,可以获得更好的节能效果;
发热低,可以密集布置,从而省空间和散热成本。
几十年的理论,如今终于逼近落地。哥本哈根大学的Mogensen评价说:“真正看到可逆计算芯片投产,将是这个领域最令人兴奋的一刻。”
感兴趣的小伙伴可以阅读原文:https://www.quantamagazine.org/how-can-ai-researchers-save-energy-by-going-backward-20250530/