打造分布式 AI 开发和部署平台,「潞晨科技」完成数亿元 A 轮融资

创投圈
2023
05/22
22:00
分享
评论

潞晨科技宣布完成数亿元的 A 轮融资。据公司介绍,本轮融资是潞晨科技成立 18 个月内完成的第三轮融资,此次融资资金将主要用于团队扩张和业务拓展。

众所周知,如今生成式 AI 的 " 涌现 " 能力来自于底层大模型的成熟,但训练大模型需要的算力、网络、数据成本非寻常公司能承受。而本文主角潞晨科技,希望为这一难题提供解法。

潞晨科技成立于 2021 年,主要业务是通过打造分布式 AI 开发和部署平台,帮助企业降低大模型的落地成本,提升训练、推理效率。公司创始人尤洋告诉 36 氪,自己此前在伯克利、新加坡国立大学均从事分布式计算、机器学习、高性能计算相关研究,曾创造 ImageNet 以及 BERT 训练速度的世界纪录。而在 2021 年左右,他更加笃信大模型的趋势,所以在当年创立潞晨科技,希望降低大模型的落地门槛。

潞晨科技当前的产品包括开源高效深度学习系统 Colossal-AI 和对应的企业版 PaaS 平台。平台主要由异构内存管理系统、高效 N 维并行系统、低延时推理系统组成,整体希望帮客户达成最小化模型部署成本、最大化计算效率的效果。

针对内存管理,尤洋对 36 氪表示,模型参数、层数越大,计算量相应也越大。GPT3 的 1750 亿参数,可能需要占据 800G 内存。再加上训练神经网络时还需要存梯度、优化器状态,"GPT3 在什么都没干的情况下,就要消耗 3200G 内存。" 尤洋举例。再加上内存资源其实较为稀缺,所以科学管理内存资源在训练大模型的场景下变得异常重要。当 GPU 内存放不下这些数据,还需要把部分数据迁移到 CPU、NVMe 硬盘上。

尤洋表示,管理 GPU、CPU、NVMe 硬盘被称为异构管理。过去,异构管理主要延续静态思路,一开始就预估好参数、梯度、优化器等所需的资源。在尤洋看来,这种方式由于比较固化,没办法随着实际训练过程调配,很可能存在浪费资源。但潞晨采取的动态管理方式,可以更加灵活的平衡资源," 我们希望数据都能放到 GPU 里。但是如果 GPU 放不下了就放 CPU 里,CPU 放不下就放 NVMe 里,但同时我们需要最小化 CPU、GPU、NVMe 之间的数据移动,这是最重要的。" 尤洋表示,潞晨的异构内存管理系统可以帮助达成这一目标。

另一方面,企业如今训练大模型,常基于成百上千张 GPU 卡完成。这是因为,理论上,卡越多需要的训练时间越少,大模型的落地也更具效率。但实际情况中,卡越多意味着承载计算功能的机器越多,而在最终汇总各机器结果时,通信又会造成新的效率损耗。

针对这一痛点,潞晨打造了高效 N 维并行系统。尤洋表示,在这一系统中公司采用了高维张量并行等方式提升效率。尤洋表示,这背后的原理主要是用二维的方式设计张量并行。张量并行可以让计算任务被分解后同步进行。二维切片的方式,则让每个机器只需要和同行或者同列的机器打交道,不需要和所有机器打交道。" 假如我们要 1 万个机器计算、传统方法(一维)一个机器需要跟 9999 个剩下机器打交道,我们只需要和 99 个机器打交道就可以。" 他说。

第三是低延时推理系统,作用是减少模型推理速度慢带来的延时感。尤洋表示,解决这一问题,整体的部署方式和模型本身的优化都很重要。在优化方面,潞晨的内存管理、张量并行技术,以及剪枝蒸馏等方案均能发挥作用。

可以看出,异构内存管理系统、高效 N 维并行系统主要在训练步骤中发挥效力,低延时推理系统则提升推理部分的速度。若再细分,异构内存管理系统更能帮助客户节省资源成本,高效 N 维并行系统更能提升计算速度。尤洋表示,目前这三大系统均汇聚在公司的 PaaS 平台中,开源版本 Colossal-AI 目前也已获得约 3 万颗 GitHub 星星。在具体服务方式上,尤洋表示,目前客户可以通过潞晨的 PaaS 平台直接训练自己的模型,潞晨也可以帮助客户训练模型。据介绍,目前潞晨的方案已在自动驾驶、云计算、零售、医药、芯片、金融等行业落地。

Colossal-AI GitHub 星数

在 2023 年的整体规划上,尤洋告诉 36 氪,今年以来公司的业务量随着各行业客户的模型训练需求激增,预计收入整体相比去年会增长 3-5 倍。据了解,本轮融资后潞晨将加速扩张,并希望吸引招募更多的 MLOps、AI 大模型、AI 框架等领域优秀人才加入,以更好服务客户。

来源:36氪

THE END
广告、内容合作请点击这里 寻求合作
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表砍柴网的观点和立场。

相关热点

相关推荐

1
3