Multiverse Computing S.L.今日宣布完成2.15亿美元融资,用于加速部署其 量子计算启发的 人工智能模型压缩技术。该技术承诺在不影响性能的前提下,大幅降低AI推理成本。
这轮B轮融资由Bullhound Capital领投,众多投资方参与,包括惠普企业公司的HP Tech Ventures、SETT、Forgepoint Capital International、CDPVenture Capital、桑坦德气候风投、Quantonation、东芝公司以及巴斯克风险投资集团等。
对于这家初创公司而言,本轮融资是一次重大的资本注入。该公司在2024年3月刚刚完成2500万美元的A轮融资。资金的大幅增长显示了其技术的巨大潜力——公司表示该技术可将大型语言模型的体积缩小高达95%,且不会对性能造成任何影响。这对AI推理成本具有重大意义。
当AI应用规模扩大时,运行成本可能迅速攀升至数百万美元,成本极其高昂。因此市场迫切需要找到更经济的运行方式,这正是Multiverse的目标所在。
挑战在于大型语言模型需要强大的硬件支持,最先进的应用需要使用英伟达公司的大规模GPU集群,每个GPU价值数千美元且耗能巨大。Multiverse的解决方案是压缩这些大型语言模型,使其能在更小的集群上运行。
其CompatifAI技术采用"量子启发算法",这是基于量子计算原理的先进张量网络。这些算法具有独特能力,能够定位AI模型中最相关和不太相关的部分。通过这种方式,该技术可以剔除模型中的不必要部分,显著减小模型体积,同时不会对性能产生明显影响。
Multiverse联合创始人兼首席技术官Román Orús是张量网络的开创者,他表示这些算法通过分析驱动大型语言模型的神经网络内部工作原理来发挥作用。"我们可以消除数十亿个虚假关联,真正优化各种AI模型,"他说道。
除了提供技术外,公司还创建了CompactifAI模型库,包含了Llama、Mistral和DeepSeek等领先开源大型语言模型的高度压缩版本,同时保持原有精度。据Multiverse介绍,这些压缩模型的运行速度比原版快4到12倍,可将推理成本降低50%到80%。该公司表示,CompactifAI模型可在云端、私有本地数据中心运行,对于"超压缩大型语言模型",甚至可以在个人电脑、智能手机、汽车和树莓派等边缘设备上运行。
公司坚持认为,CompactifAI比现有的量化和剪枝等模型压缩技术更加有效,后者会显著损害大型语言模型的准确性和性能。该技术还可用于AI训练,将模型训练和微调时间加速高达1000倍,从而大幅降低成本。
联合创始人兼首席执行官Enrique Lizaso Olmos表示,他正试图改变"缩小大型语言模型必然以性能为代价"的普遍观念。"最初的模型压缩突破很快证明了其变革性意义,"他说道,"我们正在释放AI部署的新效率,凭借大幅降低AI模型硬件需求的能力获得快速采用。"
这家初创公司已经说服了一些大型企业认可其量子启发算法的优势,包括惠普企业,该公司一直在使用这项技术将AI缩小到可在个人电脑本地运行的程度。
"通过让AI应用在边缘更易获得,Multiverse的创新方法有潜力为任何规模的公司带来增强性能、个性化、隐私保护和成本效率等AI优势,"惠普技术与创新总裁Tuan Tran表示。
Bullhound Capital联合创始人兼管理合伙人Per Roman表示,他投资Multiverse是因为AI模型效率存在"全球性需求"。"Román Orús及其工程师团队让我们相信,他们正在这个高度复杂和计算密集的领域开发真正世界级的解决方案,"他说道。