@ 2022.12.31 , 13:23

2022年度,计算机科学最重要的成果

当今计算机科学家的工作越来越跨学科。今年,最重要的计算机科学成果还涉及其他科学和数学。最实际的涉及互联网安全的密码学问题,往往是复杂的数学问题。 一个这样的问题——两条椭圆曲线的乘积及其与阿贝尔曲面的关系——最终推翻了一种有前途的新密码方案,该方案被认为足以抵御来自量子计算机的攻击。 并且以单向陷门函数的形式出现的一组不同的数学关系将告诉密码学家是否有真正安全的代码。

计算机科学,尤其是量子计算,也与物理学有很大的重叠。 在今年理论计算机科学的最大发展之一中,研究人员发布了 NLTS 猜想的证明,指出粒子之间的幽灵般的联系——量子纠缠——并不像物理学家曾经想象的那样微妙。这不仅对物理学有所影响,而且揭示了量子纠缠所带来的无数密码学的可能性。

人工智能一直与生物学相得益彰——事实上,该领域从人脑中汲取灵感。虽然了解大脑的工作原理和创造类脑人工智能长期以来对计算机科学家和神经科学家来说似乎是一个白日梦,但一种被称为Transformer的新型神经网络似乎可以像大脑一样处理信息。当我们更多地了解它们如何工作时,每一点新发现都会告诉我们一些关于另一点的信息。也许这就是为什么Transformer在语言处理和图像分类等各种问题上表现如此出色。人工智能甚至可以更好地帮助我们创造更好的人工智能,新的“超网络”可以帮助研究人员以更低的成本更快地训练神经网络。

量子纠缠与NLTS猜想

当谈到量子纠缠时,物理学家和计算机科学家会同时保持沉默。每个人都同意,一个完全纠缠的系统是不可能被完全描述的。但物理学家认为描述接近完全纠缠的系统可能更容易。但计算机科学家则不同意,他们说这些同样无法计算——这种信念被表示为“无低能平凡状态”(NLTS)猜想。6月,一组计算机科学家发布了一个证明,让物理学家感到惊讶,因为它暗示纠缠不一定像他们想象的那样脆弱,而计算机科学家很高兴能更进一步地证明了被称为“量子概率可检验证明定理”的开创性问题,该定理要求NLTS为真。

人工智能框架Transformers

在过去的五年里,Transformers 彻底改变了 AI 处理信息的方式。它最初是为了理解和生成语言而开发的,可同时处理输入数据中的每个元素,使其具有全局理解能力,与采用零碎方法的其他语言网络相比,它提高了速度和准确性。这也使得它异常多才多艺,其他人工智能研究人员正在将其用于各自领域。 他们发现,同样的原理也可以让他们升级图像分类工具和同时处理多种数据。然而,这些好处以比非 Transformer 模型需要更多的训练为代价。研究人员在 3 月份了解到,Transformers 工作原理的部分力量来自于它们赋予单词更多含义的能力,而不是简单地记住模式。 事实上,Transformers的适应性很强,以至于神经科学家已经开始使用基于它的网络对人脑功能进行建模,这表明人工智能与人类智能之间存在基本相似之处。

今年年末爆火的ChatGPT,就是基于Transformers而非传统的gan(对抗神经网络)。

Transformer 是一种深度学习模型,它采用自注意力机制,对输入数据的每一部分的重要性进行差异加权。它主要用于自然语言处理 (NLP)和计算机视觉 (CV) 领域。

密码学

在线通信的安全性基于各种数学问题的难度。而且由于今天的密码协议对于量子计算机来说很容易,研究人员已开始寻找新的数学问题。 但在 7 月,最有希望的备选方案之一在笔记本电脑上仅计算了一个小时后就宣告失败。 “这有点令人失望。”密歇根大学的密码学家克里斯托弗·佩克特说。

这一失败凸显了找到合适问题的难度。研究人员已经证明,如果你能证明“单向函数”的存在,那么创建一个可证明安全的代码才有可能。 我们仍然不知道它们是否存在(这一发现将有助于告诉我们我们生活在什么样的密码学世界中),但是研究人员发现这个问题等价于另一个被称为 Kolmogorov 复杂性的问题:只有当某个版本的 Kolmogorov 复杂性难以计算时,单向函数和真正的密码学才有可能。

單向函式是一種具有下述特點的單射函式:對於每一個輸入,函式值都容易計算;但是對於一個隨機的函式值,算出其對應的輸入卻比較困難。 單向函式是否存在仍然是電腦科學中的一個開放性問題。事實上,如果單向函式存在,將證明複雜性類別P/NP問題中,P不等於NP。

超网络AI

近年来,人工神经网络的模式识别推动了AI领域的发展。但在开始工作之前,研究人员必须首先对其进行训练,在可能持续数月且需要大量数据的过程中微调潜在的数十亿个参数。或者他们可以训练一个网络专门训练其他网络?

新型的“超网络”——一种处理和吐出其他网络的网络——可以满足。名为 GHN-2 的超网络分析任何给定的网络并提供一组参数值,研究显示这些参数值通常至少与以传统方式训练的网络中的参数值一样有效。即使没有提供最佳参数,GHN-2 的建议仍然提供了一个更接近理想的起点,减少了全面训练所需的时间和数据。

今年夏天,出现了另一种辅助机器学习的新方法——被称为具身人工智能,它允许算法从响应迅速的三维环境中学习,而不是从静态图像或抽象数据中学习。这些系统的学习方式与使用传统方法训练的系统有根本不同——而且在许多情况下更好。

算法应用

今年,随着更复杂的神经网络的兴起,计算机作为一种研究工具取得了更大的进步。它们似乎特别适合解决矩阵的乘法问题。

10 月,DeepMind 的研究人员宣布他们的神经网络发现了更快的矩阵相乘算法。

研究人员在 3 月份还发布了一种更快的算法来解决最大流问题,这是计算机科学中最古老的问题之一。

哲学与学科理论基础

马克·布雷弗曼 (Mark Braverman) 是普林斯顿大学的一名理论计算机科学家,他一生中超过四分之一的时间都在研究交互式通信的新理论。 他的工作使研究人员能够量化“信息”和“知识”等术语,不仅可以从理论上更好地理解相互作用,还可以创造新技术来实现更高效、更准确的交流。 由于这一成就和其他成就,国际数学联合会今年 7 月授予 Braverman IMU Abacus 奖章,这是理论计算机科学领域的最高荣誉之一。

https://www.quantamagazine.org/the-biggest-discoveries-in-computer-science-in-2022-20221221/

支付宝打赏 [x]
您的大名: 打赏金额:
赞一个 (5)