Tech
模拟计算:重拾古老智慧
不需要0和1来进行计算,有时避免它们更好。
如今的计算几乎完全是数字化的。互联网的庞大信息库、驱动人工智能的算法、你正在阅读这篇文章的屏幕——这些都是通过电子电路操控二进制数字(0和1,开和关)来实现的。有人说,我们生活在数字时代。
但为什么一个使用离散信息块的系统会擅长模拟我们连续的、模拟的世界呢?事实上,几千年来,人类一直使用模拟计算设备来理解和预测自然的潮起潮落。
已知最早的模拟计算机之一是古希腊的安提凯希拉机械,它使用几十个齿轮来预测日食和计算太阳和月亮的位置。17世纪发明的计算尺执行了那些最终将人类送上月球的数学运算。(然而,算盘不算是模拟计算:它的离散“计数器”使其成为最早的数字计算机之一。)在19世纪末,William Thomson(后来的开尔文勋爵)设计了一台使用轴、曲柄和滑轮来模拟天体对潮汐影响的机器。几十年后,它的后继者被用于D-Day诺曼底登陆的计划中。
这些设备有什么共同之处?它们都是物理系统,被设置为服从你想要理解的现象背后的数学方程。例如,Thomson的潮汐计算机受到了19世纪数学进步的启发,这些进步将预测潮汐的问题转化为复杂的三角表达式。手工计算这个表达式既费力又容易出错。Thomson机器中的曲柄和滑轮被设置为通过旋转它们,用户会得到与所需解决的表达式结果相同的输出。
模拟计算在微分分析仪中达到了顶峰,这台机器由Vannevar Bush于1931年在麻省理工学院首次建造。分析仪使用了一系列复杂的齿轮和轴,由电动机驱动。它可以计算各种各样的微分方程——用于模拟物理现象的方程。但要修改一个方程,必须手工费力地重新配置机器。
当现代数字计算在20世纪30年代末开始时,它笨重、昂贵且性能不佳。但数字计算有其优势。数字计算机更容易编程,通常比模拟机器更准确。随着晶体管的崛起和摩尔定律推动的后续进展,数字处理很快占据了主导地位。
然而,随着我们的数字世界的爆炸式增长,其成本也在增加。每次数字位的切换都会消耗一丁点能量。新的人工智能系统需要巨量的计算能力。例如,新闻报道揭示,Microsoft和OpenAI正在计划一个耗资1000亿美元的数据中心,这个中心将消耗大约5吉瓦的电力,大致相当于五座核反应堆的输出。
1938年在剑桥大学建造的微分分析器
模拟计算提供了一种替代方案。驱动人工智能系统的神经网络通过多次进行乘法和加法运算来进行预测。
在使用电信号而不是齿轮和滑轮的模拟计算机中,电流可以通过一个使用精心选择的电阻来模拟这些运算的电路,从而显著节省功耗。
数字计算的优势是显而易见的,但其缺点也是如此。或许,通过回顾计算的过去,研究人员将能够引导我们走向可持续的计算未来。
本文译自 Quanta Magazine,由 BALI 编辑发布。