查看原文
其他

深度 | AI崛起,“光子计算”风口已至!

光子盒研究院 光子盒 2023-04-26
光子盒研究院出品


试想一种情况,如果你在电脑、笔记本、手机或智能手表上点击的任何东西都没有延迟呢?如此低的延迟,人类的大脑甚至都不会注意到它!这将是在我们的指尖上,基于光子技术的光学计算机、以光速实现的信息流和处理。

现在,我们使用的系统是靠电信号来进行计算的;晶体管,通常由硅制成,实现了目前计算系统的逻辑。芯片上数以百万计的微观晶体管操纵着电流,从而实现了0和1的二进制系统——即我们的计算机所理解的语言。

但按照国际能源署(IEA)的一份报告表明,数据中心和数据传输网络各占全球用电量的1-1.5%。大多数数据中心使用的计算(冷却和耗电)电力几乎与它们为服务器供电的电力一样多。如今,这项技术即将饱和。

2015-2021年全球数字和能源指标的趋势

摩尔定律并没有死,而是在衰落。在某个时候,芯片上的晶体管将达到单个原子的大小,不再可能继续缩小它们并提高其密度。缩放几乎是不可能的,功耗会增加,而且它们的价格也不会那么高。我们将不能像过去几十年那样在一个芯片上装更多的硅晶体管。

压力同样随着人工智能的崛起接踵而来。芯片已被应用于各个领域,例如互联网搜索、语言翻译、图像识别和自动驾驶汽车等等。科技公司,例如Google,已经想出了使数字人工智能计算更加高效的方法。

如今,我们该怎么做呢?寻找新兴技术,如量子计算、神经形态芯片、光子学和新材料。其中,光子计算的进展,使其成为再次革新硬件计算的下一个最佳竞争者。


不同于传统计算机,光子计算不是通过将电流表示成0和1来编码和操作数据,而是利用光的物理特性来进行计算。

一台典型的计算机是它真正做得好的三件事的结果:计算+通信+存储。在电子配置中,当电流在晶体管、电容、电阻和其他元件的帮助下被操纵时,这些过程就会被执行;在光子计算中,光是利用光电探测器、相位调制器、波导等来操纵的。这些分别是电子计算机和光子计算的构建块。


与电子计算不同的是,光子计算依靠的是电子操纵,而电子计算依靠的是光子的特性。那么,在二进制语言上工作时,光子计算又是如何具有更好的性能呢?

具体来说,光子计算使用光,这使得它更快、更有效、更紧凑。

1)更高的带宽。光的波性允许并行计算能力,使光学计算能够打包更多的信息,从而看到更高的带宽。这使得光学计算机更加紧凑,处理更多的复杂数据。

2)高效率。与电流相比,光也不容易产生传输损失,因此不会像电计算那样产生相同程度的热量。这意味着它使光计算具有高度的能源效率。此外,人们不需要担心电气短路,因为它们对电磁干扰有免疫力。


3)更快的处理。即使在完美条件下,电流的速度也是光速的50-95%。而这使得光学计算机比普遍的计算机更快。


光子计算的潜力巨大,但是,我们离它又还有多远呢?——这要从光子计算的发展历史说起。

早在20世纪80年代,贝尔实验室的科学家们就对创建光学计算机进行了早期尝试。这种新的计算机将提供明显高于电子技术的带宽:数百太赫兹(1014),而不是几千兆赫兹(109)。到了20世纪80年代中期,人们对这项技术的希望已经达到了一个热潮。

“到了90年代中期,我们将拥有灵活的可编程计算机。你可能永远不会知道里面有光学元件。你会看到没有闪烁的灯光。它将是非常沉闷的外观。但是,它将与其他一切东西兜圈子。电子产品就是跟不上我们的步伐。”
——Dr. Henry J. Caulfield(纽约时报,1985年)

贝尔实验室的光计算方法依赖于实现一个光学版本的电子晶体管——一种用于切换(或放大)电信号的装置。与你的手机和电脑内的晶体管所使用的电子不同,光束并不直接与对方相互作用,它可以与材料相互作用;通过暂时改变它所通过的材料的属性,一束光的通过可以被另一束光所“感受”到。


但是很不幸,贝尔实验室的科学家所做的预测并没有实现。这在很大程度上是由于实现“光学晶体管”十分困难。因为每个光学晶体管都会吸收一些光,导致信号在传播过程中越来越弱,从而限制了该系统上可执行的操作次数。此外,存储光学数据也是一个极具挑战性的问题,至今仍未解决。由于1980年代未兑现的承诺和所引发的炒作,科学界对光学计算的研究深表怀疑。

而就当光学晶体管走向衰落之际,一种新型的光学计算方法正在被悄悄地发明。

在1990年代中期,由于已经有证据表明量子系统可以解决在经典计算机上难以处理的问题,量子计算领域彼时正在迅速发展。有许多已知的实现量子系统的方法,其中就包括使用光子(光的单个粒子)。1994年,为了构建一个光学量子处理器,迈克尔·瑞克(Michael Reck)描述了一个使用一种基本的光学组件——马赫-曾德干涉仪(MZI)阵列来执行重要的数学运算矩阵乘法的系统。


在当时,光学实验通常使用笨重的光学部件进行,这些部件被螺纹固定在光学台上(即重型金属振动控制表面,通常称为“面包板”),以确保机械稳定性。使用这种“面包板”平台,想稳定同步跳动数十束光束的光学系统是不可能的:即使是微小的振动或温度变化也会引入系统错误。因此,尽管科学家们通过连接小型光学电路来形成更大的光学计算机的想法是革命性的,但能够使其成为可能的技术还没有跟上理论的步伐。


而解决方案之一就在于将几米长的光学元件缩小至数十微米,使用可轻松制造和控制的“集成光子学”元件的计算机芯片。得益于对服务于当今互联网骨干的光纤网络技术的兴趣,电信行业当时积极开发光子芯片。然而,直到大约2004年,才有了制造带有大量组件的光子集成电路。并且直到2012年,光子芯片制造工厂开始提供硅基光学芯片的多工程晶片(MPW)服务,才使得多个学术研究小组可以共享资源,并以较低的成本生产设计的低数量。

以下是目前的多个集成光子芯片构造:

基于飞秒激光写入二氧化硅的光子芯片。(a,b)由定向耦合器等基本部件组成的嵌入式光子电路,实现了三维复杂的互连。(c, d) 埋入式光子晶格,沿纵向连续耦合,其截面分别为分形和六边形

可编程二氧化硅光子芯片的部分进展。(a) 波导和移相器(phase shifters)可以用同一个飞秒激光写入系统来制造。波导首先被写入芯片中,移相器随后通过烧蚀沉积在芯片表面的金属薄膜形成。(b) 隔离沟槽被用来降低移相器对相邻波导的散热,减少芯片上的热串扰。(c) 由耦合的直波导组成的三维光格,可以通过多个移相器的组合进行重新配置。

硅-绝缘体(SOI)和铌酸锂-绝缘体(LNOI)。(a) SOI的特点是高密度集成光子元件,甚至在可编程的情况下。(b) 从无源到有源的光子元件都有可能在LNOI上实现。(c) 基于铌酸锂的强非线性的超高速和高能效的光开关。

未来,据科学家估计,光子计算的最终发展形态将是一个没有屏幕的水晶板、是一个在空中的全息投影,用于数据的输入和输出。不过,要达到这个目标需要几十年的时间,从目前来看,这还是一个“空炮”。



但在,我们在近边缘计算和数据中心中已经看到了光子计算可实现的应用。这意味着,有了近边缘计算能力,零售店中支持5G的物联网设备可以计算并存储其产生的部分数据,而不是将所有原始数据传输到遥远的数据中心;这可以利用光子计算的低延迟、低传输损失优势。

在人工智能方面,基于人工神经网络的计算架构模仿了人脑的工作方式,这已经超出了冯-诺依曼架构的框架。有许多种神经网络,如突发神经网络、循环神经网络和卷积神经网络,它们在神经元的排列或与人脑的相似程度上有所不同。应该强调的是,由于光子电路在矩阵乘法和互连方面的优势,非常适合于实现人工神经网络。基于光子芯片,机器学习任务、图像分类和元音识别都被证明具有相当高的准确性和计算速度。

集成光子平台在人工智能中的应用。(a) 一个集成的Kerr mirocomb被用来作为卷积光学神经网络的加速器。(b) 一个基于集成光子电路的全光学神经网络被用于元音识别。(c) 一个深度神经网络在光子芯片上实现,使图像分类具有高精确度。

随着信息时代和人工智能时代的到来,发达的光子技术和先进的量子技术为光基计算开启了新的篇章,将光子计算带入了竞赛。

最后,尽管存在技术上的困难,各种集成光子计算制度已经被提出并应用于解决NP难题或执行机器学习任务。考虑到长期发展,大规模可重构光子电路是必不可少的。大规模计算中光信号的衰减可能对计算结果产生重大影响,为解决上述限制,单光子探测器和量子探测技术的应用可能会大大增强现实中可以处理的光子计算的规模

这些设计技术及其未来发展,将有助于进一步提高集成光子平台的可扩展性,并为大规模光子计算铺平道路。


相关阅读:
检测率提升20倍!「光子传感器」助力量子通信
误差小于100万亿分之一秒,NASA实现高精度单光子探测器
北京量子院首席科学家袁之良团队取得单光子探测新进展
光子计算机正在走向商业化

#光子盒视频号开通啦!你要的,这里全都有#
每周一到周五,我们都将与光子盒的新老朋友相聚在微信视频号,不见不散!
你可能会错过:|qu|cryovac>

|qu|cryovac>

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存