企业宣传,产品推广,广告招商,广告投放联系seowdb

什么是AI Agent

1概念

在计算机、人工自动专业技术畛域,普通将Agent译为“自动体”,其定义是在必定的环境中表现出自治性、反响性、社会性、预动性、思辨性(慎思性)、认知性等一种或多种自动特色的软件或配件实体。AI Agent则是指由LLM驱动的自动体。目前它还没有一个被宽泛接受的定义,但咱们可以把它形容成这样一个系统:应用LLM推理疑问,能自行创立处置疑问的方案,会借助一系列工具来执行方案。

简而言之,AI Agent是一个具备复杂推理才干、记忆力以及执行义务才干的系统,如下图所示:

AI Agent由以下**组件导致:

中央协调模块,治理**逻辑和自动体行为特点,能启动关键决策。咱们须要在这里定义以下内容:

自动体的总体目的自动体要达成的总体目的和目的。

执行工具自动体可以经常使用的一切工具的冗长列表(或“用户手册”)。

如何经常使用方案模块的解释说明详细说明不同方案模块的作用,以及在什么状况下经常使用。

相关记忆这是一个灵活局部,填充与用户过往对话中最相关的内容。“相关性”是依据用户提出的疑问判别的。

自动体共性(可选)假设要求LLM倾向于经常使用某些类型的工具,或许在最终照应里展现某些特点,则可以将所需共性形容分明。

下图是一个求解用户疑问“2024财年Q1与Q2之间,利润增长了多少?”的揭示模板:

当把揭示输入给LLM后,LLM做出的决策是须要经常使用搜查工具:

记忆模块表演十分关键的作用,记载了自动体外部日志以及和用户交互历史。有2种类型的记忆模块:

短期记忆自动体尝试回答用户提出的单个疑问而经验的思索和执行。通常就是揭示工程中的高低文,超越高低文的限度后,LLM就会遗记之前输入的信息。

常年记忆用户和自动体交相互关的行为和想法,蕴含跨度数周或数月的对话记载。通常是一个外部的向量库,可以简直有限地保管和极速取回历史信息。

记忆模块不只须要基于语义相似性的检索。通常,综合评分由语义相似性、关键性、早先水平,以及其它特定目的导致。记忆模块用于检索特定信息。

工具集是定义明白的可执行上班流,自动体经常使用它们来执行义务。通常,工具集就是专门的第三方API。

例如,自动体可以经常使用RAG(检索增强生成)依据高低文生成答案;经常使用代码解释器(如Python脚本解释器)来编程求解复杂义务;经常使用API从互联网搜查信息;或许经常使用任何便捷的API服务,如经常使用天气API失掉天气预告、经常使用即时信息API收发信息。

复杂的疑问,例如剖析一组财务报表以回答下层业务疑问,通常须要墨守成规的方法。关于由LLM驱动的自动体,方案才干实质是Prompt Engineering(揭示工程)很多初级玩法的初级通常。可以经过经常使用两种技术的组合来应回答杂疑问:

义务和疑问合成

复合疑问或推断信息须要某种方式的合成。例如这个疑问“2024财年Q1与Q2之间,利润增长了多少?”

该疑问可以合成为多个子疑问:

“Q1的利润是多少?”

“Q2的利润是多少?”

“上述两项结果之间的差是多少?”

专门的AI Agent必定能主导这种合成,例如驳回上方的揭示模版:

当填入详细疑问输入给LLM后,LLM会做出疑问拆解结果的照应:

反思或批评

ReAct(推理和举措协同)、Reflexion(反思)、Chain of Thought(思想链)和Graph of Thought(思想图)等技术已成为基于批评或基于证据的揭示框架。它们已被宽泛用于提高LLM的推理才干和照应才干。这些技术还可用于提升自动体生成的执行方案。

例如LangChain自动体框架允许的ReAct,即Reason+Act形式,把复杂疑问拆开,有些缺少的内容经过工具从外部失掉,而后补充到疑问回答里。

ReAct的揭示模版普通蕴含这些内容的屡次重复:

举例疑问“除了Apple Remote之外,还有什么设备可以控制Apple Remote原生设计用来交互的程序?”

ReAct会按如下的步骤思索和执行:

这个环节如下图所示:

2应战

基于LLM去构建Agent,目前也有一系列应战 :

有限的高低文长度限度了对历史信息、详细指令、API调用高低文、API照应的容纳量。Agent的系统设计必定在有限的通讯带宽中上班。与之矛盾的是,像“自我反思”这种机制若想要取得更好的成果,则须要更长甚至有限的高低文窗口。只管向量存取能提供访问更大常识库的才干,但它的表现力并不像高低文内的留意力机制那么弱小。

在针对常年历史做方案、有效地探求处置疑问时,Agent还面临应战。LLM在面对未知失误时,调整方案显得十分困难。和人类从失败经验中学习相比,LLM还不够弱小。

的Agent体系十分依赖经常使用人造言语作为LLM和外部组件(比如记忆和工具)的接口。但是,LLM自身的输入是存有疑虑的,LLM经常犯语法格局失误,也时常发生违抗表现(比如不遵循用户指令)。致使于很多Agent都在解析模型输入上花了很多功夫。

3展望

生成式AI的自动反派演变至今,人类与AI协同发生了三种形式:

在Agents(自动体)形式下人类设定目的和提供必要的资源,而后AI独立地承当大局部上班,最前人类监视进程以及评价最终结果。这种形式下,AI充沛表现了自动体的互动性、自主性和顺应性特色,凑近于独立的执行者,而人类则更多地表演监视者和评价者的角色。Agents形式相较于Embedding(嵌入)形式、Copilot(副驾驶)形式无疑更为高效,或将成为未来人机协同的关键形式。

AI Agent是人工自动成为基础设备的关键推进力。回忆技术开展史,技术的止境是成为基础设备,比如电力成为像空气一样不易被人们发觉,但是又必无法少的基础设备,还如云计算等。简直一切的人都认同,人工自动会成为未来社会的基础设备。而自动体正在促使人工自动基础设备化。AI Agent能够顺应不同的义务和环境,并能够学习和提升其性能,使得它可以被运行于宽泛的畛域,进而成为各个行业和社会优惠的基础撑持。

参考文献

[1]

[2]

[3]

[4]

[5]

[6]

[7]

[8]

[9]

[10]

[11]

© 版权声明
评论 抢沙发
加载中~
每日一言
不怕万人阻挡,只怕自己投降
Not afraid of people blocking, I'm afraid their surrender