本月,LiveKit 已获得 2250 万美元的额外融资,用于为实时语音和视频驱动的人工智能应用构建基础设施。
以下内容是 LiveKit 联合创始人兼首席执行官 Russ d’Sa 发表的感言,全文如下:
人工智能正在加速计算模式的巨大转变。计算机越像人类,我们就越不适应它们,而它们就越适应我们。我们用眼睛、耳朵和嘴巴进行交流。类人计算机则使用摄像头、麦克风和扬声器。一些输入处理在设备上进行,而负责规划、推理或执行操作的大型人工智能模型则在云端运行。
如何将语音或视频输入从设备传输到人工智能模型,并尽快将生成的输出返回到设备是一项挑战。大脑需要一个神经系统来来回传输信号,而现有的互联网基础设施并不是为实时传输高带宽数据而设计的。
我们启动 LiveKit 就是为了建立这种神经系统。早在 2021 年,实时平台是专为人类举行在线会议而设计的。我们设想在未来,实时语音和视频对于应用程序就像数据库一样重要。在未来,我们需要一个灵活、开源的堆栈,任何开发人员都可以用它来构建任何类型的实时语音或视频应用。
我们没有预料到的是,未来会来得如此之快。在短短 18 个月内,LiveKit 已被超过 20,000 名开发人员使用,其中包括:
- 十大最有价值私营公司中的四家
- 财富 50 强中的六家
- 911 紧急调度
- 人工智能助理、支持和服务代理以及视频游戏中的 NPC
- 用于远程操作的警用和军用无人机
- 用于遥测和观测的自动驾驶汽车、卡车、拖拉机和宇宙飞船
- 安全摄像机和门锁
- 手术室中的手术机器人和人类外科医生
我们还非常荣幸地与 OpenAI 和 Character.ai 的团队合作,让他们的人工智能模型具备看、听和说的能力。在此过程中,我们了解到了要大规模构建和交付人工智能应用所需要克服的基础设施挑战。虽然现在人们把人工智能作为一个 “空间 “来谈论,但随着时间的推移,人工智能将遍及每个空间,而这些挑战也将成为无差别的繁重任务。
今年早些时候,我们将从语音驱动的人工智能助手中汲取的经验融入了 LiveKit Agents,这是一个任何开发人员都可以用来构建实时多模态人工智能应用的框架。虽然 Agents 框架包含了一些核心功能,如以编程方式访问流式音频和视频、有状态的编排和插件系统,但人工智能用例发展如此迅速,开发人员已经有很多新问题需要解决。
有鉴于此,我很荣幸地与大家分享,我们已经募集到 2250 万美元的 A 轮融资,以加大我们为构建人工智能交付网络所做的努力。本轮融资由 Altimeter 领投,Redpoint 以及 Jeff Dean、Elad Gil、Aravind Srinivas、Amjad Masad、Guillermo Rauch、Logan Kilpatrick、Mati Staniszewski、Erik Bernhardsson、Rohan Anil、Mckay Wrigley、Demi Guo 和 Matt Shumer 等人工智能领域的杰出人士提供了支持。
这笔投资将用于巩固我们作为构建实时语音和视频应用的默认堆栈的地位,扩展我们的人工智能基础设施产品,并开发新产品以服务于新的用例。
我想对成千上万的开发者表示感谢,他们使用 LiveKit 构建了各种东西,在我们的社区中给了我们反馈,并在我们经历成长的痛苦时给予了我们支持。没有你们,我就不会写这篇文章。我们会继续努力,打造出更好的产品,这样你们就不必那么辛苦了。
本文来自作者投稿,版权归原作者所有。如需转载,请注明出处:https://www.nxrte.com/zixun/49312.html