查看原文
其他

中国信通院梁林俊等:光计算技术发展与应用研究

The following article is from 信息通信技术与政策 Author 梁林俊 等


0  引言

近年来,伴随着AlphaGo、ChatGPT为代表的人工智能革命性成果的诞生,深度神经网络、人工智能大模型等技术成为全球关注和发展的焦点,各行业对提升智能计算能力的技术需求旺盛,传统电子计算体系存在的“冯·诺依曼瓶颈”、摩尔定律放缓、“功耗墙”等问题日益显著。人工智能公司OpenAI统计显示[1],在2012—2020年,深度人工神经网络的浮点计算量以指数速度快速增长,远超集成电路摩尔定律的增长速率,同时也出现了惊人的能耗问题,限制了人工智能的发展和应用。新形势下,探索和开辟各类基于新原理、新体系、新平台的新型计算技术路径,已成为当务之急,其中,光计算技术是国内外业界广泛关注且至关重要的突破方向。

电子计算技术体系使用电子作为信息载体、基于二进制的数字逻辑电路构建,与其相比,光计算技术最突出的特征是以光波作为信息传输载体,基于光的波动性,以及光和物质的相互作用原理,通过特定的设计,实现电子计算需要一系列复杂逻辑操作才能完成的运算过程。光计算技术理论上具备高速率、低延迟、高并行能力、低传输能耗、不易受干扰、编码维度丰富(波长、模式、偏振、相位等)等突出优点。近年来,计算机视觉、模式识别、生物医药研发等领域对新型计算的需求日益迫切,光计算技术呈现加速发展态势。一方面,学术界对光计算技术高度关注,部分技术路线发展迅速;另一方面,光计算技术逐步从实验室走向产业化应用,有望给智能数据中心、新材料和新药物研制等应用场景带来显著提升。

1  光计算技术可解决的主要问题

光计算技术是基于光电子学、微电子学、量子物理、计算机系统、算法科学等多学科深度交叉融合形成的新型计算技术。基于光学神经网络的光计算技术和基于量子光学的光计算技术是受关注度较高、产业化应用前景较好的两大类技术路线。光学神经网络方面[2-3],主要基于空间光学或集成光学技术,通过光学透镜、干涉仪、光栅、光波导等多类光学元件有机组合,等效实现矩阵乘加运算、卷积、微积分、傅里叶变换等基本数学计算。与基于电子晶体管的二进制数字计算不同,此类光计算技术本质上是一种模拟计算。通过构建人工神经网络算法架构中的线性矩阵计算、非线性函数激活等基本算子,可实现光脉冲神经网络、光学循环神经网络、光学多层感知机以及光学卷积神经网络。目前该技术路线已经初步启动商用化。光量子计算技术方面[4-5],基于光学伊辛机(Photonic Ising Machine,PIM)技术,可用于高效解决组合最优问题,如电路设计、路径优化时在有限的可行解集合中找出最优解。此外,目前研究者已经通过模拟量子计算试验,实现了玻色采样(Boson Sampling)和随机路线采样(Random Circuit Sampling),证明了量子优越性(Quantum Advantage)的成果,显著超越经典电子计算机系统的计算效率。但该技术路线目前处于早期发展阶段,研究人员主要以突破和解决特定问题为主,距离解决通用性问题仍有差距。

值得注意的是,在当前基础科学发展水平下,光信息存储技术难以实现与非型闪存(Nand-Flash Memory)、动态随机存取内存(Dynamic Random Access Memory,DRAM)等电子存储技术相当的性能,故无法通过全光学办法,独立完成现代计算机所需的数据运算和数据存储的完整过程。目前光计算技术的实现,需要高精度、高速的并行电子电路控制和模数转换电路配合,才能充分发挥光计算技术的全部优势。因此,当前具有比较明确的商用化应用前景的光计算技术解决方案,主要采取光电混合计算方案。其中,基于光学神经网络的光计算技术实现,需采用电子芯片存放运算中间值,并执行池化、归一化和激活等非线性运算;基于量子光学的光计算技术实现,需要基于电子芯片的控制系统对光量子态的制备、检测等过程进行精确调节。

2  光计算技术突破重点

2.1  基于光学神经网络的光计算技术
当前,在基于经典电子计算机技术实现的人工智能神经网络计算中,大量的时间和能耗用于线性计算(主要包括加法、矩阵乘法、卷积运算等),近年来大量研究者着力开展基于光学神经网络的光计算技术研究,证明通过光学方法实现上述线性计算,较电子计算技术在运算效率和能耗上有显著的优势,其背后主要是基于光信息传输具备较高的时延带宽积、不同波长的光相互交叉互不干扰、复振幅表述的光波场具有传播即等效于计算(基于傅立叶光学原理)等特性的支撑。

当前,业界推进基于光学神经网络的光计算技术,主要发展思路是构建充分发挥光计算技术和经典电子计算技术优势的光电混合计算系统,将神经网络计算任务进行拆解,光芯片和电芯片协同完成计算任务,其中光芯片负责进行大量的线性计算,电子图像处理器(Graphics Processing Unit,GPU)或现场可编程逻辑门(Field Programmable Gate Array,FPGA)芯片负责进行非线性及存储类型的计算和任务。目前,研究者已经演示了光电混合计算系统实现人工智能图像处理、语音处理、图形渲染等任务的加速处理。近年来,业界对光学神经网络研究有两大重点突破方向。

一是基于傅里叶光学原理的空间光结构神经网络,实现高性能的智能识别能力。光学神经网络研究始于20世纪末,研究人员基于空间光调制器、衍射板、光学透镜等分立式的空间光学器件,搭建光神经网络,此类方式的优势是信号传输损耗小、可利用较为成熟且功能完备的各类自由空间光学器件。1985年,美国宾夕法尼亚大学和美国加州理工学院联合基于神经网络Hopfield模型,实现了具有反馈机制的全连接光学神经网络,揭开了学术界通过试验实现光学神经网络研究的帷幕,标志着光神经网络从理论研究向实验室的跨越。在后续近20年中,电子芯片基本可以满足当时对算力的需求,业界对光计算技术研究热情有限。2010年以来,随着人工智能应用的兴起,基于空间光结构的光学神经网络研究进入高度活跃状态。2018年,美国加利福尼亚大学发布了基于3D打印技术实现全光衍射深度神经网络研究成果[6],该方案手写识别应用准确率超过91%。2020年,美国乔治华盛顿大学基于4F光学系统空间滤波实现的幅度可调卷积神经网络[7],手写识别应用准确率超过98%。2022年,美国康奈尔大学基于有机发光二极管阵列和空间光调制器结合的系统[8],并行实现50万次线性乘法能力,将手写识别应用准确率提升到99%以上。整体来看,该技术路线已经展现出优异的计算性能,但器件的小型化仍然是制约其大规模推广应用的瓶颈问题。

二是通过优化基于相干原理的片上集成光计算器件结构,提升算法性能和复杂度。空间光结构技术器件集成度较低、抗干扰能力不够强,难以形成高复杂度、超大规模的计算系统,随着近年来硅基光电子集成技术的发展升级,为通过芯片技术实现结构紧凑、稳定性强、扩展性高的片上相干光计算系统铺平了道路。2017年,美国麻省理工学院研发了基于56个可编程马赫—增德尔干涉仪(MZI)拓扑级联架构的片上集成光学神经网络[9],该架构实现了矩阵—向量乘法的线性运算,研究人员同时演示了基于光电混合计算架构,实现两层全连接神经网络对于4个元音信号的识别试验,对元音信号准确率达76.7%。该成果对于片上神经网络研究具有里程碑意义,并在全球范围内掀起了光计算技术研究热潮。随后,美国麻省理工学院、美国加利福尼亚大学、新加坡南洋理工大学等陆续实现了基于微环谐振腔结构的光学神经网络实现方案,较基于MZI结构的方案相比,缩小了器件体积、延伸了可实现的算法种类。整体来看,片上光学神经网络是当前光计算技术领域商业化应用的主流突破方向,随着硅光等支撑技术的发展,呈现加快突破趋势。但该路线由于片上器件的性能、传输损耗等方面距离空间光学器件水平仍有差距,计算识别能力仍有待提高。

2.2  基于量子光学的光计算技术
经典计算系统基于二进制进行运算,每个比特的状态以0和1表示,相比之下,量子计算技术主要优势是利用量子态叠加原理,量子系统可以同时且相干地处在若干不同的状态上。基于量子叠加原理,量子计算技术可以处于状态0和状态1的叠加状态上,对于由N个量子比特组成的系统,整个系统可以存在2N个系统状态的相干叠加态上,此特性使量子计算技术具备强大的并行计算能力,理论上计算速度可以远远超过经典计算系统。目前量子计算技术路线总体呈多路并行局面,按照作为量子比特的载体材料进行区分,量子计算技术存在超导、离子阱、光子、冷原子、硅基材料、拓扑子等技术路线,其中光子具备不易退相干、传导速度快、易于操控、可在常温状态下工作等优势,与此同时光子可以基于偏振态、轨道角动量等多个维度进行编码,近年来已被公认是进行量子比特编码的理想载体,光量子计算技术路线也成为主流的突破方向之一。

目前,光量子计算技术领域主要有两条产业化应用前景较好的细分技术路线,一是以解决量子行走(Quantum Walk)、高斯玻色采样为代表的集成光量子技术路线;二是以解决最大割(Max-Cut)问题为代表的使用光纤中的激光脉冲(通常用于光通信)作为量子比特进行计算的相干伊辛机(Coherent Ising Machine,CIM)路线。光量子计算技术通过构建系统哈密顿量来模拟可控物理系统,较需进行复杂的量子门操作和额外量子纠错系统的超导、离子阱等路线相比,技术难度较低,是当前含噪声中型量子(Noisy Intermediate Scale Quantum,NISQ)发展阶段推动量子计算解决专用计算问题的重要发展路径。当前光量子计算技术领域有四个重点突破方向。

一是发掘更适合用于集成光量子计算技术的材料平台。2014年,美国麻省理工学院在硅基材料平台,实现了基于四波混频效应关联光子对的产生,并展示了对信号光和闲频光的分路路由效果,为片上光量子态的制备展示了良好的前景,硅基材料具备扩展性和兼容性好的优势,但同时存在信号调制速率不足的问题。2022年,美国加利福尼亚州理工大学在铌酸锂材料平台上,通过纳米波导结构和色散工程作用,实现显著的光参量放大功能;此外,上海交通大学等单位亦通过铌酸锂平台实现量子光学试验验证,证明铌酸锂材料具备空间小、低损耗、折射率调制高效等优良的光学形状,为实现片上光量子态生成和操控片提供了高效途径。

二是研发和优化用于光量子计算的单光子光源和探测器。单光子源方面,中国科学技术大学于2013年研制了基于量子点脉冲共振激发技术的单光子光源,随后近十年中,中国科学技术大学持续优化光源性能,陆续实现了高全同性参量下转换光子对、双光子纠缠源等突破,为光量子计算提供了较为可靠的光源解决方案。探测器方面,美国国家标准与技术研究院、荷兰代尔夫特理工大学等已实现了基于超导纳米线技术的单光子探测器,探测效率、重复频率等指标持续提升,为光量子计算所需的高性能光探测器提供了优良的解决方案。

三是提升光量子实现特定算法的性能。近年来光量子计算光子纠缠态数量逐步提高。2018年,中国科学技术大学实现18 位光量子纠缠操控[10],刷新了当时所有量子计算技术路线中最高纠缠态制备数量的世界纪录。2020年底,中国科学技术大学、中国科学院上海微系统与信息技术研究所等单位基于集成化的多模干涉仪和外置量子光源技术,成功研发了具备76 个光子的量子计算原型机“九章”[11],在高斯玻色取样求解任务中体现出远超经典计算机的计算速度,验证了量子优越性。2021年,“九章二号”进一步构建了113 个光子的量子计算原型机[12]

四是提高相干伊辛机效应的可实现性。2011年,美国斯坦福大学提出了通过基于垂直腔面发射激光器技术实现伊辛机,通过多个从激光器同步注入来自主激光器的光,实现了通过借用注入光的能量自行振荡,从激光器振荡出的光的偏振态对应于伊辛模型的自旋±1并进行计算效果,该方法因受限于激光器的数量难以实现大规模量子比特制备。2014年,美国斯坦福大学使用光学延迟线外加非线性晶体的方式实现了相干伊辛机,突破了激光器数量的限制,但该方法存在光学延迟线数量要求较多且长度精确度要求高、且计算系统难以精确操纵的缺陷。2015年,美国斯坦福大学联合日本东京大学提出测量反馈型相干伊辛机,采用基于光纤环路外加现场可编程门阵列的高速光电探测和处理电路,克服了光学延迟线使计算系统难以精确操纵的问题;2016年,该研究组基于相干伊辛机原理,实现了最大割问题的求解。

3  光计算技术产业化应用情况

目前,光计算技术总体处于实验室开发逐步转向产品落地阶段,业界大多是基于大学研究成果孵化的初创公司,谷歌、Meta、微软、百度等科技巨头主要通过投资初创公司进行光计算布局,此外,华为、日本电信电话公司(Nippon Telegraph and Telephone Corporation,NTT)等大型科技企业亦有研发团队对光计算技术进行布局。在应用领域,面向人工智能应用的计算加速器是主要产品,部分公司已经有面向服务器人工智能(Artificial Intelligence,AI)推理计算应用场景的加速板卡等产品进入试用阶段。预计未来三年,光计算技术将在AI云端计算领域落地应用,从中长期来看,光计算技术因其成熟的技术和丰富的产业生态,有望向元宇宙、自动驾驶等应用场景渗透。

基于片上光学神经网络是与现有电子计算体系兼容性较高、产业化落地进程较快的技术路线。2021年,美国Lightmatter公司基于可等效实现矩阵乘加运算效果的多阶马赫曾德尔干涉结构光芯片,结合电子计算芯片形成光电混合计算系统,在执行BERT(Bidirectional Encoder Representations from Transformer)自然语言模型等特定算法时,在相同功耗情况下,计算速度达英伟达A100 GPU芯片5倍以上[13]。同年,我国上海曦智科技有限公司亦发布光计算技术产品,其核心为64×64的光学矩阵乘法器,基于硅光工艺单片集成超过10 000 个光子器件[14],运行特定神经网络算法的速度可达目前高端GPU的数百倍。我国光子算数科技有限责任公司于2020年推出定制型光电混合计算加速卡,可完成机器视觉、图形渲染等任务,并已经实现商业化应用。

基于傅里叶光学原理构建的神经网络光计算系统主要用于光学图像信号处理,目前已经初步具备商用化能力。2019年,英国Optalysys公司推出商用分立光学处理系统FT:X2000,该产品基于空间光传输可等效于卷积操作的原理,并通过集成在芯片上的微透镜实现器件小型化,可用于处理高分辨图像和视频。2020年,法国LightOn公司推出基于离轴光全息技术的空间光学计算系统,应用主要面向机器学习、卫星图像分析和自然语言处理方面智能计算开发,该光学系统与电子显卡协同工作,执行部分图像处理类AI算法时,在同等功效下,其算力较单纯使用电子显卡的解决方案高一个数量级。2021年,华为宣布光计算技术成为企业关键技术及产业发展研究创新2.0路线的重要方向,并公布了基于空间光学系统的信号处理系统专利。

基于量子光学原理的光计算系统主要用于特定算法优化求解,目前主要处于方案试验阶段。NTT主要基于相干伊辛机原理求解组合优化问题,2021年,其成功在光纤封闭系统中产生了压缩量子噪声超过75%的连续波压缩光(Continuous-Wave Squeezed Light)[15],为实现高质量的基于相干伊辛机原理的光量子计算机奠定了基础。2021年,我国图灵量子公司发布了全系统集成的专用光量子计算机TuringQ Gen1,包括量子光源、光量子信息处理芯片、探测系统、专用光量子计算软件、光量子芯片EDA软件云接入、光量子计算操作系统及量子云平台,产品面向量子科学研究。2023年,我国北京玻色量子科技有限公司发布了新型相干光量子计算机,可在GHz调控速率下同时控制、读取和执行快速反馈来操控100 个计算量子比特[16]

光量子计算技术在药物开发、材料合成等领域的应用研究正加速推进。当前经典超级计算机很难模拟化学分子的重要量子行为和反应,光量子计算技术可基于量子原理对化学反应进行高速模拟,有望极大提升研发速度。2022年,加拿大Xanadu公司宣布,其研发的光量子计算机北极光(Borealis)完成了高斯玻色采样试验,并开发了一种有望在此量子计算机上模拟锂离子电池的方法。2022年,美国PsiQ公司宣布,在容错量子计算的编译技术上实现突破,大幅度提升了量子计算机用于求解实际问题的可实现性,该公司还宣布与奔驰公司研发部门合作,研究在量子计算机上模拟锂离子电池中电解质分子的化学反应,有望帮助汽车制造商在下一代电池设计中寻求突破。

4  光计算技术产业发展面临的主要问题和挑战

当前,光计算技术产业化落地进程稳步推进,但整体距离实现大规模商用仍有一定距离,其实际应用仍未被证明具有明显优于传统电子处理器的性能。主要存在三方面的制约因素。

一是光计算技术相关底层支撑技术仍需完善。人工智能神经网络训练必须使用非线性激活函数,但目前光学技术中非线性现象并不容易通过试验实现,因此,当前光计算解决方案中主要使用FPGA等电子器件进行非线性计算处理,较多的光电信号转化环节使计算系统能耗较高,下一步需重点探索响应时间短、低光功耗、高数据并行的条件下获得显著的光学非线性特性的方法,以实现全光化的深度神经网络。此外,在自动驾驶等自然场景中的大部分光是非相干的,目前光计算技术主要解决方案需要使用高相干性的光源,一定程度也制约了光计算技术的应用范围,后续仍需加强研究非相关光应用场景下光计算技术的实现方案。

二是光器件的集成化、调制能力仍待升级。目前基于硅光、氮化硅、磷化铟聚合物的工艺都难以充分发挥光计算芯片性能的优势。光器件的信号调控主要通过热光效应或电光效应两种主要方式,使用电光调制往往会造成较高的插入损耗,一定程度上影响光器件的性能;热光调制随着光器件集成密度的提升、器件间距的缩小,器件的散热问题将成为光计算系统设计的挑战。未来大规模光神经网络需重点克服光器件间、电器件间和光电器件间的热串扰难题。

三是光计算技术算法和架构仍需扩展完善。当前光计算芯片架构还比较单一,可以实现的智能算法比较有限,在智能算法还处于高速发展阶段,光计算技术芯片算法迭代升级速度仍无法与电子芯片算法相匹配。未来仍需重点建设适用于光计算技术算法开发的通用编译器、算法框架和工具链,并使之能够与已有的电子AI芯片开发生态相适应。

5  结束语

综合研判当前光计算技术产业发展水平,基于光电混合计算架构的光学神经网络技术最有可能率先实现大规模落地,成为业界应对人工智能时代对算力、能耗急剧升高挑战的重要路径。展望未来,光计算技术重点发展趋势包括三大方面。一是通过硅光技术进一步提升光器件集成度,推动光计算技术核心器件向集成化、小型化、轻便化方向发展。二是进一步完善光计算硬件支持的算法功能,强化基于光域技术实现片上训练的能力,完善光计算技术相关软件开发工具。三是持续升级光电融合的异构计算技术解决方案,深入探索光计算单元与中央处理器(Central Processing Unit,CPU)、GPU、FPGA等电子芯片协同异构计算方案,面向模式识别、多模态等人工智能重点应用,研发经典产品,更加充分地展示光计算技术解决方案在执行重要算法、解决关键问题中所具备的突出性能优势。



作者简介

梁林俊 

中国信息通信研究院信息化与工业化融合研究所工程师,博士,主要从事先进计算、光电子等方面的研究工作。

鲁楠   

中国信息通信研究院信息化与工业化融合研究所工程师,主要从事智能计算、绿色低碳等方面的研究工作。

王扬   

中国信息通信研究院信息化与工业化融合研究所高级工程师,博士,主要从事智能硬件、通信、光电子等方面的研究工作。


论文引用格式:

梁林俊, 鲁楠, 王扬. 光计算技术发展与应用研究[J]. 信息通信技术与政策, 2023,49(6): 40-46.



本文刊于《信息通信技术与政策》2023年 第6期



主办:中国信息通信研究院


《信息通信技术与政策》是工业和信息化部主管、中国信息通信研究院主办的专业学术期刊。本刊定位于“信息通信技术前沿的风向标,信息社会政策探究的思想库”,聚焦信息通信领域技术趋势、公共政策、国家/产业/企业战略,发布前沿研究成果、焦点问题分析、热点政策解读等,推动5G、工业互联网、数字经济、人工智能、区块链、大数据、云计算等技术产业的创新与发展,引导国家技术战略选择与产业政策制定,搭建产、学、研、用的高端学术交流平台。



《信息通信技术与政策》投稿指南


为进一步提高期刊信息化建设水平,为广大学者提供更优质的服务,我刊官方网站已正式投入运行,欢迎投稿!








校  审 | 谨  言、珊  珊

编  辑 | 凌  霄


推荐阅读

中国信通院硕天鸾等:基于真实环境的元宇宙场景搭建关键技术发展态势研究
专家谈



您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存