AI智能体:应用前景与对算力需求的影响
壁仞科技

引言

AI 技术和大语言模型的飞速进步,使得 AI 智能体这一人工智能技术的重要载体,得以凭借大数据、算法和计算能力的提升,实现对现实世界的感知、理解、决策和执行能力。随着研究的不断深入,AI 智能体在各领域取得了显著的成果,推动了大量学术研究的开展和探讨。本文的核心目的在于探讨 AI 智能体的概念、应用前景,以及其对算力需求的发展趋势。

什么是AI智能体

AI 智能体,又称 AI 代理或 AI Agent,是一种计算机程序,具备一定的自主性、环境交互能力以及目标导向行为。这类智能体拥有感知、推理、决策和执行等多种能力,使其能够在不同场景中替代人类完成特定任务。简单来说,AI 智能体是一种能够感知环境并采取行动以实现目标的智能实体。

AI 智能体基于大语言模型(LLM)进行构建,LLM 在记忆检索、决策推理以及行动顺序选择等方面为 AI 智能体提供了有力支持,从而使其智能程度得到显著提升。在 AI 智能体的基本构成中,主要包括以下三个模块:

  •    感知(Perception):这是 AI 智能体对周围环境进行认知的第一步。通过感知模块,AI 智能体可以获取环境中的信息,例如图像、声音、温度等,从而更好地了解所处环境及其变化。

  •    大脑(Brain):作为 AI 智能体的核心部分,大脑模块负责对收集到的信息进行处理、分析和推理。大脑模块利用机器学习、深度学习等技术,对环境信息进行解析,进而生成相应的决策和策略。

  •    行动(Action):基于大脑模块生成的决策和策略,AI 智能体可以采取实际行动以实现目标。行动模块负责规划、执行和调整行动方案,使 AI 智能体能够在实际环境中完成任务。

image.png
















基于大语言模型的 AI 智能体在处理复杂语言任务方面具有优势。它们可以理解和生成自然语言,进行对话处理,甚至创作文章和故事。这类 AI 智能体广泛应用于各种场景,如客户服务、内容创作、教育、研究等。目前在研究领域,基于 AI 智能体主要有几个代表的项目:

  •   智能体决策方法:Chain-of-Thought[2],Tree-of-Thought[3],ReAct[4]

  •   智能体记忆模块:Retrieval Augmented Generation(RAG)[5]

  •   智能体工具使用:BMTools[6],ToolLLM[7],AgentLM[8]

  •   智能体能力评测:AgentBench[9],ToolEval[10]

  •   智能体通用框架:AutoGPT[11],AutoGen[12],XAgent[13]

  •   多智能体模拟环境:ChatDev[14],AgentVerse[15],AI-Town[16]

在产业界,AI 智能体也有很大的应用空间。例如,微软发布的 Copilot 工具辅助用户完成日常工作;GitHub Copilot 和 Code Cursor 等项目加速了程序员的代码编写工作。此外,OpenAI 在近期开发者大会上展示了最新的 AI Assistant 工具,用户可以在无需编写代码的情况下,创造出基于 GPT-4 的专用智能体。

AI智能体的应用场景和算力需求

AI 智能体的应用场景丰富多样,涵盖了诸如自然语言处理、计算机视觉、语音识别、自动驾驶等多个领域。根据应用场景和任务需求的不同,AI 智能体可以分为单智能体、多智能体和混合智能体三种类型。在实际应用中,不同类型的 AI 智能体对算力的需求因其所应对的任务复杂性和场景特性而有所差异。了解和掌握各种 AI 智能体应用场景的算力需求,对AI芯片和GPGPU(通用图形处理器)研发和设计显得尤为重要。下面我们将简要分析 AI 智能体在不同应用场景下的算力需求,以期为相关领域的研究和应用提供参考。

image.png






单智能体

单智能体主要针对单一任务环境,如软件编写、自动驾驶车辆和智能家居等领域。近期,许多基于大语言模型的 AI 智能体开源项目关注单智能体领域,如 AutoGPT、AutoGen 和 X-Agent 等。这些项目基于 ChatGPT、LLaMA 等大语言模型,通过设计结构化提示词,使智能体遵循预设框架(行动→观察结果→思考→决定下一步行动)独立分析并执行用户需求。单智能体应用的算力需求主要取决于所用大语言模型的参数量、推理上下文长度、数据库搜索算法延迟、调用工具库延迟和响应时间需求。大约需要 1~2 个 8 卡 GPGPU 节点处理少量并发推理请求。

假设使用模型参数为半精度浮点格式(FP16=2 字节),输出 token 长度总共为 200(首个token+后续199个token),响应时间为 10 秒以内,可以通过以下方式计算算力和带宽需求:

壁仞科技

其中:

image.png











另一类单 AI 智能体针对特定任务进行定制化设计(如自动驾驶),其解决问题复杂度和需处理数据量相对确定,因此算力要求相对稳定且并发请求较少,但响应时间要求较高。这类智能体需要 1~2 张高性能 GPGPU 推理卡在本地进行推理。算力需求随特定应用的复杂度和规模而变化。随着模型算法的发展和更复杂应用场景的需求,算力需求可能逐步增长。

多智能体

多智能体系统侧重于智能体间的协同与竞争,如多人竞技游戏、机器人协作和无人机编队等。在这类系统中,各智能体的行为相互影响,构成复杂的系统动态,对算力需求较高。多智能体系统的复杂性使得其对算力的需求明显超过单智能体,因为每个智能体的决策都需要在考虑其他智能体决策的基础上进行权衡。随着系统规模的扩大,涉及高维状态空间和动作空间,对模型表达能力和实际场景中的硬件算力提出较高要求。目前多智能体领域的开源项目包括 ChatDev、AgentVerse 和 AI-Town 等。在这些项目中,每个 AI 智能体扮演不同角色,按照剧本流程(如 ChatDev 和 AgentVerse)执行任务,或在固定场景下自由发挥(如 AI-Town)进行模拟推演。实际部署中,智能体可共用同一大模型(如 ChatGPT),根据不同提示词设计扮演不同角色,或使用小型专家模型(如角色扮演模型或代码生成模型)执行不同任务。

image.png











从算力角度看,按剧本流程发展的多智能体应用所需算力相对较少,因为大部分情况下智能体依次执行推理,较少并发需求。然而,单一模型能力有限,无法胜任所有智能体角色,且模型切换和权重载入时间开销影响用户体验。因此,在某些场景下需同时加载多个不同模型,对芯片内存空间提出高要求。例如,在 ChatDev 场景下,5 个约 30B 参数量的专家模型分别扮演 CEO、产品经理、代码研发人员、代码测试人员和文档撰写人员,至少需要 150GB 内存空间。这种情况下,采用小容量 HBM+大容量 DRAM 组合设计,或许是一种较好的解决方案。

对于多智能体乱序互动场景(如社会行为模拟、城市交通模拟、无人机群等),需要大量并行推理能力。根据模拟粒度不同,可以选择大量小模型(1.5B 至 3B)模拟场景中不同角色行为,或使用稍大模型(7B 至 13B)模拟部分区块或部分群体行为。无论哪种情况,都需要大量高并行算力和高 HBM 带宽 GPGPU 芯片支持。由于模型较小,推理时无需考虑卡间通讯问题。同时,由于模拟场景对计算精度要求不高,可以采用低比特量化及稀疏方法进一步减少算力和带宽需求。

混合智能体

混合智能体系统融合了人类与机器的优势,如人机协同作业、智能医疗等。这类系统将人类和机器智能体置于同一环境中,实现基于人机交互的学习和决策,形成混合智能系统。这有助于应对人工智能在复杂环境中的挑战,并使 AI 系统作出更人性化的决策。

image.png














然而,混合智能体在算力需求上远超单智能体和多智能体系统。这是因为混合智能体需处理复杂的人机交互数据,并在大规模状态空间和动作空间中进行高效决策。同时,混合智能体要在计算精度、响应时间和吞吐量等方面寻求平衡,满足人机协同作业的高要求。此外,实际环境中运行的混合智能体系统,除了需承担多智能体交互所导致的大模型推理开销,还需具备一定的数据收集和模型微调能力,以应对真实环境的不确定因素和用户需求的变化。

为部署这类智能体系统,我们可以采用高性能的训推一体 GPGPU 服务器进行集中管理、决策和微调,单个智能体则可使用低功耗的边缘计算芯片进行人机交互、数据收集和紧急情况的快速响应。

总结

我们以上主要讨论了 AI 智能体大脑(即大模型模块)所需的算力。在实际部署过程中,还需考虑到感知交互接口、工具调用以及环境模拟等所需的大量计算能力。由于文章篇幅有限,这些问题未在此展开讨论。总之,随着人工智能的不断发展和应用拓展,AI 智能体对算力的需求呈现出明显的增长趋势。特别是在多智能体和混合智能体的复杂系统中,对算力的需求更为突出。因此,提升智能算力和提供充足、高效的算力资源将有助于提高 AI 智能体的应用和服务效能,推动人工智能技术向更深远、更广阔的发展空间迈进。









CIO之家 www.ciozj.com 公众号:imciow
关联的文档
也许您喜欢