用光像大脑一样计算?光子神经网络

光波常
关注

用光像大脑一样计算?

光子神经网络

1、初识神经网络

大脑可以被认为是地球上最复杂的生物结构,以人类大脑为例,它是一个由大约1000亿个神经元构成的错综复杂的网络结构。其中,每一个神经元都是一个高度精密的细胞,它包含一个体细胞和轴突,许多的树突与突触。其中,树突像树枝一样从体细胞延伸出去,接收来自其它神经元的信号。这些信号在被接收后,会到达细胞体进行集成和处理,当细胞体接受到的综合输入达到了一定程度时,它就会产生一个神经脉冲。而这个神经脉冲通过轴突向其它神经元或细胞传递。这些神经元通过突触相互连接,从而形成了一个庞大且复杂的通信网络,负责处理信息、控制身体功能并支持意识和思维活动。

图1 神经元的结构[1]在1940年,数学家沃伦·麦库洛奇(Warren McCulloch)和神经生理学家沃尔特·皮茨(Walter Pitts)提出了一个简单的神经元模型,被称为麦库洛奇-皮茨模型,用于描述神经元的基本计算功能。1943年,他们又发表了题为《A Logical Calculus of the Ideas Immanent in Nervous Activity》的论文,首次提出神经网络的概念[2],这奠定了人工神经网络领域的基础。1957年,心理学家弗兰克·罗森布拉特(Frank Rosenblatt)提出了感知机模型,这是一种简单且经典的神经网络模型。按照这个模型,当一个感知机在接受了一组输入后,会对其进行加权求和并将结果与激活函数相比较,当结果大于激活函数时就会产生输出。这样便比较好的对一个神经元的作用进行了数学上的描述。

图2 感知机的数学模型不过,感知机模型还是存在一些局限,但是这种基础设计在之后的时间里给了神经网络的发展很大的启发。后来人们引入了多层的感知机和更加复杂的激活函数,再后来,提出了反向传播这一概念,使多层人工神经网络变得更加复杂,可以更好地被训练以学习更加复杂的内容。总而言之,神经网络通过训练,可以改变神经网络每个节点的权重,从而使得模型对于各种不同的输入几乎都可以得到所设计的输出内容。

2、深度神经网络的发展

时间来到2010年,随着计算能力的提高和大数据的发展,深度学习引来了史无前例的繁荣发展。一些深度学习模型,如卷积神经网络和循环神经网络,在图像处理和自然语言处理等领域取得了显著的成果。而扩大深度神经网络的规模将会使它能够实现更加复杂的任务,最近十年间,深度神经网络模型已经从一亿个参数发展到了一万亿个参数[3]。而人类大脑拥有约一千亿个神经元,神经元之间相互连接的突触大约有一千万亿条[4]。所以,构建更大规模的深度神经网络将是未来的一个发展目标,而构建更大规模的深度神经网络需要更强的计算效率与数据吞吐能力。而如今,晶体管电路在尺寸与数量上正在逐渐接近物理极限。使用电子进行计算,由于电子的本征特性,会导致发热,带宽受限,串扰等一系列问题。这些问题都会限制电子深度神经网络的发展受到制约。这个时候,光计算这个概念便逐渐进入了人们的视野,光计算具有具有许多优点,例如巨大的带宽,抗电磁干扰特性以及无压降的传播的特性等等。其中,有一些利用光子特性研究出的器件已经取代了电子器件,例如通信光纤。而光学神经网络希望利用光子的这些特性,实现更低能耗,更加高效的神经网络。

现如今,已经有许多经典的光学神经网络结构被提出,例如在2017年,沈亦晨等人在他们的文章《Deep Learning with Coherent Nanophotonic Circuits》中,介绍了他们开发的具有56个可编程马赫-曾德尔干涉元件的新型光子神经网络,并用它演示了元音的识别[5]。而在2018年,林星等人在文章《All-optical machine learning using diffractive deep neural networks》中,提出了衍射型全光深度学习的结构,并且使用衍射板制作出了这个结构,在手写数字识别和服装分类的任务中都取得了比较准确的结果[6]。

图3 利用MZI干涉仪组成的新型光子神经网络

上面提到的两种光学神经网络是分别基于干涉与衍射的原理构建的。我们知道,干涉现象是因为波的叠加而引起强度重新分布的现象,它要求波的频率相同,存在相互平行的振动分量并且相位差稳定。而衍射现象是光波偏离直线传播的现象,相似地,稳定衍射图样的形成要求波的波峰和波谷的相对稳定性。使用相干光源可以得到最为明显的干涉与衍射效果。不仅如此,在许多干涉和衍射传播的经典理论推导中,都是在光波具有相干性的假设上进行的,在这样的基础上,人们可以凝练出很多简洁有效的公式来准确地描述光波的传播过程。

3、一种理想的相干光源

所以,使用相干光源可以方便且有效地进行光计算或者组建光学神经网络。在相干光中,光波的振动是有序、协调的。这意味着波峰与波峰、波谷与波谷之间的相位关系是稳定的。而激光就是一种非常理想的相干光源,光子神经网络的发展就离不开激光器的各种特性。

我们先来回顾一下激光器的概念,激光,又名为LASER(Light Amplification by Stimulated Emission of Radiation的缩写),可以称作受激辐射光放大,有些时候也会称作受激辐射光震荡。故名思义,就是受激辐射光震荡造成的光放大。

图4 激光器的结构示意图

那么上面屡次提到的“受激辐射”又是什么呢?受激辐射是指当一个原子或者分子在受到外界光的激发后,从高能级落回低能级,同时释放出一束与激发光具有相同频率与相位的光。在激光器中,一种介质(增益介质)在吸收能量(泵浦)时,它的原子或分子会从低能级跃迁到高能级,随后通过受激辐射便会产生更多的光子。这些光子与入射光具有相同的频率和相位,同时,激光器的两头还有两个反射面构成的一个腔体(谐振腔),当这些光子在腔内来回反复运动时,就会不断地引发受激辐射,从而不断地放大,最后从激光器中输出。而我们一般照明时所用的光源是非相干光源,而非相干光源依赖的是自发辐射,自发辐射是原子或分子从激发态自主落回基态时发出的光,这种光的发射时随机的,所以产生的相位、频率和振幅都是随机的,不具有相干性。

图5 受激吸收,自发辐射与受激辐射的示意图

早在很久以前的17世纪,人们普遍接受的还是光线传播的微粒学说。这个时候,一个名为格里马尔迪的意大利物理学家做了一个实验,他使用一个尺寸很小的光源去照明不透明屏幕上的一个小孔,然后在后面的屏幕上观察光强,这里因为光源的尺寸很小,所以避免了因为光源尺寸导致的半阴影效应(例如阳光下的影子边缘是模糊的)造成的成像边缘模糊。那么按照微粒学说的结果来说,屏幕上应该会出现一个轮廓分明的像。但是在实验中,格里马尔迪却观察到像的边缘是模糊的,他对这个现象进行了描述与总结,第一次准确报导了衍射现象。只是当时激光器还没有被提出与发明,普通的光源光谱线比较宽,相干性不太好。如今,如果我们使用激光器再次重复他的实验,那么就能够在屏上观察到明显的衍射环带。所以,一个相干性好的光源也是光学神经网络实验能够与设计相符合的重要条件。

图6 格里马尔迪的小孔实验

4、用光构成的神经网络

那么在有了激光这种相干光源的条件下,结合光的传播理论,人们便开始想办法利用光的传播过程来模拟信号在神经网络中的传播,也就是设计光学神经网络的结构。接下来我们将介绍深度衍射神经网络的结构和原理。

图7 深度衍射神经网络的示意图

如图中所示,衍射神经网络是一个由许多衍射层构成结构,每一个衍射层都由许多“像素”组成,这些“像素”可以对光波的相位进行调制。入射光被加载输入信息后进入衍射神经网络,在经过每一个“像素”时便会受到相位调制,离开像素时会发生衍射,衍射出的光波将会传递到下一个衍射层,被下一层的像素调制并再次向前衍射,如此逐层传播,最后抵达输出平面。所以,衍射神经网络便是遵循子波相干叠加规律和衍射方程,将输入平面映射到输出平面的一个神经网络结构。

与人类的神经网络相比,衍射神经网络中的每一个像素就相当于一个神经元,负责对输入进行加权求和,并输出到下一个神经元。但是,如果每一个“像素”都随机调制光波的相位,对于一个光波输入,并不能得到想要的结果,所以需要训练每一个“像素”对光波调制的程度。以手写数字数据集为例,如果想要让衍射神经网络能够对手写数字进行分类。首先需要将手写数字的图片作为输入,经过神经网络后,会产生一个输出,随后需要将这个输出与理想的输出进行比较并计算误差。将这个误差反向传播回神经网络中,并对每个“像素”产生一个微小的更新,这就是一个训练的过程。使用大量的数据对这个神经网络进行训练,便可以使它具有手写数字分类的能力。即使输入的内容是这个网络没有训练过的数字,它也可以对这个输入进行识别并分类。

不过,目前衍射神经网络还不能够使用光学实现整个训练过程。有一些步骤只能在计算机上完成,所以,还需要在计算机中对光的衍射过程进行准确的建模。衍射神经网络以菲涅尔-惠更斯原理为基础,这是菲涅尔1818年在前人的基础上提出的理论,他认为,波面外的任一点P是波面上无穷球面子波相干叠加的结果。后来,基尔霍夫以这个理论为思想,在麦克斯韦方程组导出的亥姆霍兹方程的基础上,结合格林定理推导出了菲涅尔-基尔霍夫衍射方程。这个方程可以非常准确的描述光波在空间中的衍射过程。再后来,索墨菲在此基础上解决了基尔霍夫衍射数学上不自洽的问题,提出了瑞利索墨菲衍射。而在衍射神经网络中,人们便使用第一类瑞利索墨菲衍射积分来对光波在网络中传播的过程进行建模。按照这样的数学模型在计算机中模拟光在衍射神经网络中的传播,并且通过深度学习框架完成反向传播和像素权重的更新。这样通过计算机训练和测试神经网络,最后,当神经网络的准确率达到一定程度的时候,便把衍射层的调制数据保存下来,加工成衍射元器件,组成衍射神经网络。这样得到的衍射神经网络便可以以光速对手写数字进行识别与分类。

4、结语

可以说,激光是开启现代光学研究与应用的一个重要发明。激光的独特特性使得它在光学领域发挥着无可比拟的作用,不仅在科学研究中提供了前所未有的精密工具,而且在医疗、通信、材料加工等多个领域带来了深远的影响。相比于自然光,激光的光子是高度相干的,即光波的振动能够保持高度有序和协调。这种相干性使得激光在干涉、衍射等现象中表现出非常引人注目的特性,为全息术、光学信息技术的发展提供了理论和实践基础。因此,激光已经成为了一种重要重要工具,推动光学研究的深入发展,并在众多领域中发挥着关键作用。从基础科学到实际应用,激光已经成为光学领域不可或缺的利器,为人类带来了前所未有的光明。

参考文献:

[1] Mohammed H S. Design and Study of Interactive Systems based on Brain-Computer Interfaces and Augmented Reality[D]. INSA de Rennes, 2019.

[2] McCulloch W S, Pitts W. A logical calculus of the ideas immanent in nervous activity[J]. The bulletin of mathematical biophysics, 1943, 5: 115-133.

[3]:Villalobos P, Sevilla J, Besiroglu T, et al. Machine learning model sizes and the parameter gap[J]. arXiv preprint arXiv:2207.02852, 2022.

[4]:Zhang J. Basic neural units of the brain: neurons, synapses and action potential[J]. arXiv preprint arXiv:1906.01703, 2019.

[5] Shen Y, Harris N C, Skirlo S, et al. Deep learning with coherent nanophotonic circuits[J]. Nature photonics, 2017, 11(7): 441-446.

[6] Lin X, Rivenson Y, Yardimci N T, et al. All-optical machine learning using diffractive deep neural networks[J]. Science, 2018, 361(6406): 1004-1008.

       原文标题 : 科普征文 | 用光像大脑一样计算?光子神经网络

声明: 本文由入驻OFweek维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。
侵权投诉

下载OFweek,一手掌握高科技全行业资讯

还不是OFweek会员,马上注册
打开app,查看更多精彩资讯 >
  • 长按识别二维码
  • 进入OFweek阅读全文
长按图片进行保存