初创企业 Luminous Computing 开发了一种光学微芯片,专用于运行 AI 模型,运行速度比其他半导体器件更快且耗能更少。
从速度更快的处理器到价格更低的数据存储空间,计算技术的发展加速了 AI 时代的到来。而如今 AI 模型对速度和能耗又提出了更高的要求,这驱动了另一波半导体领域的创新浪潮。
据报道,初创企业 Luminous Computing 最近刚刚筹集到了 900 万美元种子轮融资,本轮投资者包括比尔·盖茨和 Uber CEO Dara Khosrowshai,该公司计划开发全新的芯片来加速 AI 训练和推理。传统半导体产品一般基于电子技术解决 AI 模型对数学计算的需求,而 Luminous 选择以光学技术作为解决方案。
很多行业都在尝试将 AI 能力嵌入到他们的产品当中,比如自动驾驶汽车和无人机的制造商。但目前被广泛采用的电子芯片(如中央处理器 CPU)并不是理想的解决方案,它们不止能耗高,而且处理数据的速度也不够快。
这些限制会带来滞后和延迟,如果你只是在等待研究论文的机器学习模型运行结果,那可能只是觉得长时间等待有点烦人,但如果你依赖 AI 算法引导汽车在繁忙的街道行驶,那延迟可能带来的问题就要严重得多。
而且这个瓶颈正在变得越来越严重:OpenAI 在去年的一项研究报告中表示,自 2012 年以来,最大规模的人工智能训练所使用的计算力呈指数增长,平均每 3.5 个月增长一倍(相比之下,摩尔定律下计算力每 18 个月翻一倍)。自 2012 年以来,计算力已经增长了 30 多万倍(按照摩尔定律仅会增长 12 倍)。
Luminous 的 CEO 兼联合创始人 Marcus Gomez 表示,尽管 AI 领域一直充斥着各种炒作,但底层硬件的局限让人感到沮丧。更强大的 AI 芯片可以使人工智能变得更加强大,不管是辅助医生做医疗诊断的机器学习模型,还是可以运行在手机上的由 AI 驱动的应用程序。
Luminous 将光学看作下一代 AI 芯片的解决方案,光学芯片用激光使光束穿透芯片上的微小结构(称为波导)。通过使用不同颜色的光同时通过波导传输多个数据,它能够超越传统电子芯片的数据承载能力。能够快速传输大量信息意味着光学处理器非常适合处理驱动 AI 模型的超大计算量,而且光学处理器所需的能耗远远低于电子芯片。
Luminous 的另一位联合创始人兼首席技术官 Mitchell Nahmias 表示,Linimous 目前的芯片原型比当前最先进的 AI 芯片的能效高三个数量级。这家初创公司的光学处理器是 Nahmias 和普林斯顿大学多名学者多年研究的成果,从原型开始就备受关注。
但是,Luminous 也面临着激烈的竞争,致力于光学 AI 芯片的企业并非仅此一家。初创公司 Lightelligence 和 Lightmatter 也正致力于研发针对 AI 的光学芯片,同时,半导体巨头英特尔也正在加强该领域的研究。上个月,英特尔在光子神经网络的研究中取得了新的突破,能够有效提升光学芯片的效率,或将使纳米光子神经网络电路离实现更近一步。
麻省理工学院教授、Lightmatter 的技术顾问 Dirk Englund 表示,Luminous 可能会在芯片产量开始增加的时候面临不同操作设备管理的挑战。光学芯片需要从激光器到电光调制器等一系列设备来控制光线以使之生效,这也是光学芯片尚未广泛流行的一个重要原因。
比尔盖茨和其他投资人显然认为 Luminous 的创始人们能够克服这些障碍。他们对 Luminous 寄予厚望,认为它能够突破计算瓶颈,从而释放人工智能真正的潜力。
评论 1 条评论