年终重磅盘点:2022计算机科学6大突破!破解量子加密、最快矩阵乘法等榜
2022-12-22 15:27来源:IT之家 阅读量:131692022年,计算机领域发生了哪些重大事件广达杂志年终盘点在此
2022年,计算机领域发生了许多划时代的事件。
这一年,计算机科学家学会了完美传输秘密,《变形金刚》进步神速。在人工智能的帮助下,有几十年历史的算法得到了极大的改进...
2022年的计算机事件
现在,计算机科学家可以解决的问题范围越来越广,因此他们的工作越来越跨学科。
今年,计算机科学领域的许多成就也帮助了其他科学家和数学家。
比如密码学,涉及到整个互联网的安全。
密码学的背后,往往是复杂的数学问题曾经有一个非常有前途的新密码方案,被认为足以抵御来自量子计算机的攻击但这个方案被两条椭圆曲线的乘积及其与阿贝尔曲面的关系这个数学问题推翻了
单向函数形式的一组不同的数学关系将告诉密码学家是否存在真正安全的代码。
计算机科学,尤其是量子计算,也和物理学有重叠。
今年理论计算机科学中的一个重要事件是科学家证明了NLTS猜想。
这个猜想告诉我们,粒子之间幽灵般的量子纠缠并不像物理学家曾经认为的那样微妙。
这不仅影响了我们对物理世界的理解,也影响了纠缠带来的密码学的无数可能性。
此外,人工智能一直是生物学的补充——事实上,生物学领域从人脑中汲取灵感,人脑可能是终极计算机。
长期以来,计算机科学家和神经科学家一直希望了解大脑是如何工作的,并创造出像大脑一样的人工智能,但这些似乎都是白日梦。
但令人难以置信的是,变形金刚神经网络似乎能够像大脑一样处理信息每当我们对Transformer的工作原理了解得越多,我们对大脑的了解就越多,反之亦然
或许这就是Transformer如此擅长语言处理和图像分类的原因。
甚至AI可以帮助我们创造更好的AI新的超级网络可以帮助研究人员以更低的成本和更快的速度训练神经网络,也可以帮助其他领域的科学家
Top1:量子纠缠的答案
量子纠缠是一种将遥远的粒子紧密联系在一起的特性可以肯定的是,一个完全纠缠的系统是无法被完全描述的
可是,物理学家认为,接近完全纠缠的系统将更容易描述但是计算机科学家认为这些系统也是无法计算的,这就是量子PCP猜想
为了帮助证明量子PCP理论,科学家提出了一个更简单的假设,称为非低能普通态猜想。
今年6月,来自哈佛大学,伦敦大学学院和加州大学伯克利分校的三名计算机科学家在一篇论文中首次证明了NLTS猜想。
这意味着存在一个可以在更高温度下保持纠缠态的量子系统,也说明即使远离低温等极端条件,纠缠粒子系统仍然难以分析和计算基态能量。
物理学家很惊讶,因为这意味着纠缠不一定像他们想象的那么脆弱,计算机科学家很高兴离证明一个叫做量子PCP的定理又近了一步。
今年10月,研究人员成功地在相当大的距离上纠缠了三个粒子,加强了量子加密的可能性。
改变理解人工智能的方式
在过去的五年里,Transformer彻底改变了AI处理信息的方式。
2017年,《变形金刚》首次出现在一篇论文中。
人们开发Transformer来理解和生成语言它可以实时处理输入数据中的每一个元素,让他们有一个大局观
与其他方法分散的语言网络相比,这种大图大大提高了Transformer的速度和准确性。
这也使得它具有难以置信的通用性其他人工智能研究人员也将Transformer应用于自己的领域
他们发现,应用相同的原理可以用来升级图像分类和同时处理多种数据的工具。
Transformers已经迅速成为诸如单词识别等侧重于分析和预测文本的应用领域的领导者它引发了一波工具的浪潮,如OpenAI的GPT—3,它训练了数千亿个单词,生成了一致的新文本,达到了令人不安的水平
但是,与非变形金刚模型相比,这些好处是以更多的变形金刚训练为代价的。
这些面孔是由基于Transformer的网络在训练了超过20万张名人面孔的数据集后创建的。
今年3月,研究Transformer工作原理的研究人员发现,它如此强大的部分原因是它能够为单词赋予更大的意义,而不是简单的记忆模式。
事实上,Transformer的适应性如此之强,以至于神经科学家已经开始用基于Transformer的网络对人脑的功能进行建模。
这说明人工智能和人类智能可能是同源的。
Top3:破解后的量子加密算法
伴随着量子计算的出现,许多需要消耗巨大计算量的问题得到了解决,经典加密算法的安全性受到了威胁因此,学术界提出了后量子密码学的概念来抵御量子计算机的破解
作为一种备受期待的加密算法,SIKE是一种以椭圆曲线为定理的加密算法。
可是,今年7月,比利时鲁汶大学的两名研究人员发现,这种算法可以用10岁的台式电脑在短短1小时内成功破解。
值得注意的是,研究人员从纯数学的角度解决这个问题,攻击的是算法设计的核心,而不是任何潜在的代码漏洞。
对此,研究人员表示,只有当你能够证明单向函数的存在时,你才能创建一个可证明的安全代码,即一个永远不会失败的代码。
虽然现在还不知道它们是否存在,但是研究人员认为这个问题等价于另一个叫做Kolmogorov复杂度的问题只有当某个版本的Kolmogorov的复杂度难以计算时,单向函数和真正的密码学才有可能
用人工智能训练人工智能
最近几年来,人工神经网络的模式识别技术为人工智能领域注入了活力。
但是在网络开始工作之前,研究人员必须首先训练它。
这个训练过程可能会持续几个月,需要大量的数据在这个过程中,潜在的数十亿个参数需要微调
现在,研究人员有了一个新想法——让机器替他们做这件事。
这个新的超级网络被称为GHN—2,它可以处理和吐出其他网络。
它的速度非常快,可以分析任何给定的网络,快速提供一组参数值,和传统方式训练的网络中的参数值一样有效。
虽然GHN—2提供的参数可能不是最优的,但它仍然提供了一个更理想的起点,并减少了综合训练所需的时间和数据。
反向传播训练是通过在给定图像数据集和我们的DEEPNETS—1M架构数据集上预测的参数进行的。
今年夏天,Quanta杂志还研究了另一种帮助机器学习的新方法——具体化人工智能。
它允许算法从响应的三维环境中学习,而不是通过静态图像或抽象数据。
无论是探索模拟世界的智能体,还是现实世界中的机器人,这些系统都有着根本不同的学习风格,在很多情况下,这些风格都比传统方法训练的更好。
Top5:算法的改进
提高基本计算算法的效率一直是学术界的热门话题,因为它会影响大量计算的整体速度,从而在智能计算领域产生多米诺骨牌效应。
今年10月,在《自然》杂志发表的论文中,DeepMind团队提出了首个AI系统——Alpha Tensor,用于发现矩阵乘法等基础计算任务的新颖,高效,正确的算法。
它的出现为一个50年未解决的数学问题找到了新的答案:找到两个矩阵相乘的最快方法。
矩阵乘法作为矩阵变换的基本运算之一,是许多计算任务的核心组成部分它涵盖了计算机图形学,数字通信,神经网络训练,科学计算等等,而AlphaTensor发现的算法可以大大提高这些领域的计算效率
今年3月,一个由6名计算机科学家组成的团队提出了一种快得离谱的算法,在计算机最古老的最大流问题上取得了突破。
新算法可以在几乎线性的时间内解决这一问题,即其运行时间与记录网络细节所需的时间基本成正比。
最大流问题是一个组合优化问题,讨论如何充分利用设备的能力,使运输流量最大化,达到最佳效果。
在日常生活中,它有很多应用,比如互联网数据流,航空公司排班,甚至为求职者匹配空缺职位等等。
分享信息的新方法
普林斯顿大学的理论计算机科学家马克·布雷弗曼花了他生命中超过四分之一的时间来研究互动交流的新理论。
他的工作使研究人员能够量化信息和知识等术语,这不仅使人们在理论上更加了解交互,还创造了新的技术,使交流更加高效和准确。
布雷弗曼喜欢在办公室的沙发上思考定量问题。
由于他的成就以及其他成就,国际数学联盟于今年7月授予Braverman IMU珠算奖章,这是理论计算机科学领域的最高荣誉之一。
IMU的获奖感言指出,布雷弗曼对信息复杂性的贡献使人们对双方沟通时信息成本的不同衡量标准有了更深刻的理解。
他的工作为不易受传输错误影响的新编码策略和在传输和操作过程中压缩数据的新方法铺平了道路。
信息复杂性的问题来自克劳德·香农的开创性工作——1948年,他为一个人通过通道向另一个人发送消息制定了一个数学框架。
布雷弗曼最大的贡献在于建立了一个广泛的框架,它阐明了描述交互通信边界的一般规则——这些规则为通过算法在线发送数据时的数据压缩和保护提出了新的策略。
交互压缩的问题可以这样理解:如果两个人交换一百万条短信,但只学到1000比特的信息,交换能否压缩成1000比特的守恒。
布雷弗曼和饶的研究表明,答案是否定的。
布雷弗曼不仅解决了这些问题,还引入了一个新的视角,使研究人员能够首先阐明这些问题,然后将其翻译成数学的官方语言。
他的理论为探索这些问题和确定未来技术中可能出现的新通信协议奠定了基础。
参考资料:
。郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。