在3月31日的联想集团2025/26财年誓师大会上,联想集团首席技术官Tolga Kurtoglu表示尽管AI应用的颠覆性变革正在发生,但当前所经历的,并非真正能为用户创造价值的成熟AI应用,而是一系列快速迭代的技术演示。要释放AI的潜力,必须将技术能力转化为以用户为中心的AI解决方案,打造联想的差异化优势。
未来的以用户为中心的AI不会局限于单一模型、芯片,设备,或者形态,而是多种模型和多种智能体的协作——包括端侧、云端,边缘等,它们融为一体,共同为用户提供无缝丝滑的服务。这种强大能力与简约体验的交融,才是AI带给我们的真正的价值,但如何才能实现这一愿景?
Tolga对联想技术路线进行了详细的拆解:
首先,必须利用一流的模型,为联想的用户快速提供服务。模型开发者正在以前所未有的速度,不断推出性能更高的新模型。但是,为联想的生态系统优化几十亿——有时甚至几万亿个参数是一个复杂的过程,可能需要耗费几个月的时间。很多时候,等到将一个模型投入使用时,它的性能已经被一个新版本的模型甩在身后了。通过联想新建的模型工厂,联想能够把部署时间从几个月缩短到几周。这支专门的全球工程师团队将快速完成常见的模型优化任务,并将优化后的模型交付给不同的研发团队,确保联想新模型部署的速度领先业界。当联想的模型工厂建成后,联想的AI生态体系将成为获取最新模型成果的最佳途径。
其次,必须通过模型编排,为联想的用户实现模型选择的自动化。一个高效的模型编排器,在接收到一项用户查询或任务后,会将其进行拆解,然后会调用最适合完成这项任务的那些模型 —— 无论这些模型是位于设备端、服务器,还是在公有云上。以“联想小天”为例,当前,一项查询什么时候需要保持私密状态、何时可以公开,都需要用户来判断。
但有了模型编排器,端侧设备上的AI智能体能够为你做出这种区分。它会将查询发送到符合你特定需求的模型网络中 —— 无论你的查询是关于复杂的企业编码任务,还是你的午餐吃什么。在边缘设备上部署复杂的模型编排时,联想会把AI智能体无缝连接到用户最需要的公有模型和私有模型上。这样,用户能够掌握的信息将实现指数级的增长,同时用户体验也得到了简化。
这些能力共同通过联想智能体开发框架,实现AI智能体的加速部署。
当联想能够为用户提供最佳的模型,以及拥有无需用户介入就能让模型运行的编排技术,联想就可以将各种各样的模型——以及模型网络,与高价值任务相连接,从而创建任何AI智能体所需的基础构件,其中包括通用基础构件,也就是每个智能体或多个智能体所需的核心智能体能力,比如安全。从这些模型编排能力、自我学习能力、多智能体协作和任务管理能力等,此外还包括专用基础构件,也就是那些为特定人群、特定企业或特定任务定制智能体而额外需要增加的能力。
联想的研发团队无需每次都从零开始,而是可以直接使用这些AI智能体基础构件框架。他们可以将这些构件进行连接、调整,并能够在此基础上,打造满足任何客户需求的任何智能体。
基于模型工厂的、快速的模型部署, 领先业界的模型编排技术, 还有一个智能体开发框架。 有了这些技术,联想就拥有了向用户交付超级AI智能体的能力。
很快,这些超级智能体不仅能够在用户的AI设备生态系统中贴身服务用户,还能够代表用户管理、指挥其他AI智能体,而每个智能体都专注于自己的任务,都拥有属于自己的模型网络。
这就是联想所规划的混合人工智能未来愿景。