您的位置:首页 >要闻 >

Ayar Labs押宝下一代光学I/O产品,满足高性能计算和AI互联需求

时间:2022-06-01 16:16:01 来源: OFweek光通讯网

如今,人工智能和机器学习系统开发正变得越来越繁复。不少人工智能领域的科学家们认为,到2023年,先进的人工智能模型可能会包含100万亿甚至更多的连接,堪比人类大脑突触的数量。显然,这些数据已经远远超过了单个处理器的处理能力,而大量的数据却都需要在数据中心内从一个应用程序专用集成电路(ASIC)快速流向另一个集成电路。让人头痛的是,大部分芯片到芯片的通信仍然是通过电气领域的铜互连来进行的,而且将这些巨大的数据量转送出去会消耗大量的电力,甚至有可能带来高额的成本。

总部位于美国硅谷的芯片级光互联解决方案提供商——Ayar Labs正寻求共同努力解决这一问题。据悉,该公司正在开发一系列适配CMOS、低功耗的光输入/输出(I/O)产品,以满足高性能计算和人工智能的互联市场。英伟达似乎也觉得这种方法很有前途。5月25日,Ayar Labs和英伟达联合宣布,他们正在整合Ayar Labs的技术,为英伟达未来的产品开发基于高带宽、低延迟和超低功率的基于光的互连横向架构。

Ayar Labs押宝下一代光学I/O产品,满足高性能计算和AI互联需求

当下,许多早期和初创公司正致力于扩大光子学在人工智能和高性能计算方面的应用。比如,Lightintelligence和Lightmatter等一些公司就在开发“AI加速器”芯片,这些复杂的下一代光子集成电路有望在光学领域彻底解决AI计算所需的耗电大、重复矩阵乘法。但Ayar Labs联合创始人兼首席技术官马克·韦德(Mark Wade)强调,这不是Ayar Labs的目标。

Wade解释称,与其他一些公司不同,Ayar Labs专注于“光学驱动的计算”(optically enabled computing),特别是解决依赖电子主机ASIC的传统计算机架构日益面临的带宽-距离瓶颈,而不是光学计算(optical computing)。

Mark Wade表示,随着计算需求的迅速增长,这些ASIC一直试图在不同的包之间转移越来越多的带宽。而且,虽然数据中心内的许多通信都是在光域进行的,但大部分包到包(package-to-package)的通信仍然是通过铜互连进行的。这就产生了一个权衡:电域中的铜越多,I/O距离越大,芯片之间的带宽就越小,而延迟和功率需求就足够低。

Ayar Labs则希望通过“一种新的光子集成、技术和产品”打破这一瓶颈,真正推动电-光之间的转换,并且尽可能接近主核的ASIC。据悉,这种产品的其中一个元素是一种名为TeraPHY的光学I/O芯粒(chiplet)。这种芯粒被设计成倒装芯片,与ASIC(如英伟达GPU)连接在同一基板上,并直接放在ASIC旁边。携带数据的光通过一条单模光纤连接带输入(或输出)到单晶片,其中微环谐振器系统将光信号解码为电信号。

Ayar Labs指出,其重点是利用主机SoC(芯片系统)的高带宽,以尽可能快的速度将其转换为光域,然后以更加可扩展的方式以低能量长距离移动大量带宽。

微型谐振器架构所实现的小型化和集成化水平使光到电/电到光的转换发生在“一个更密集的起点,最终变得更为节能。而传统产品(如可插拔收发器),则是针对更成熟的光通信市场。

Ayar Labs系统的另一个核心组件是该公司的SuperNova激光光源,它位于不同的芯片上,可以产生16个波长的光,传输到16根光纤(每根光纤本身可以携带16个波长)。这将光源从ASIC封装中分离出来,该公司认为这将提供更灵活的跨应用部署,并更容易在现场更换部件。

事实上,与英伟达的合作只是Ayar Labs在过去几个月里宣布的一系列动作之一。今年2月,Ayar Labs宣布与惠普企业(HPE)之间达成战略合作,双方携手开发“基于光I/O技术的硅光子解决方案”。

随后在4月下旬,Ayar Labs宣布获得了1.3亿美元的C轮融资,用于推动其光学I/O解决方案的商业化,巩固其供应链、提高产能。投资方包括惠普、英伟达(Nvidia)、英特尔(Intel)、格芯(Global Foundries)及其他风险投资伙伴。Mark Wade称,这笔现金将真正为创建一家能够向多个细分市场提供数百万个此类零部件的公司奠定基础。据悉,Ayar Labs预计将在2022年向早期客户发货数千台设备,并且未来进一步扩大规模。在过去的五六年里,Mark Wade一直在其实验室里致力于将这项技术商业化,并预测这方面的需求会不断扩大。他表示,Ayar Labs正在建立的解决方案不是针对某个细分市场的利基解决方案,因为多个细分市场和客户都会开始面临这一问题。


郑重声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。