Agent和LLM 的相关见解
我大概在21年,还是22年 就接触了Ai,当时OpenAi爆火,网上流行出了很多Agent,比如诗人李白Ai、骂人Ai、xxx策划师,但是早期的Agent实现逻辑仅仅只是在和LLM沟通前加入了一段Prompt,例如:你是诗人李白,下面<Question>是用户的问题,请用专业的视角,口吻回答用户的问题,从现在的视角看,就像诈骗一样哈哈哈。
这其实就是角色扮演。LLM 并没有真的变成李白,它只是在强大的概率预测下,模仿出了李白的语言风格。这算 Agent 吗?我其实觉得算,它是最最基础的语言代理,但它没有灵魂,更没有能力触碰现实世界。
早期使用相关ai产品 或者尝试使用ollama等工具部署LLM,直接和LLM对话,其实会发现LLM是没有实时获取最新信息的能力的,
由于训练数据的截止日期,它不知道昨天的天气,不知道刚才的新闻。面对未知,它要么礼貌地道歉,要么开始一本正经地胡说八道(也就是幻觉)。
本质原因: LLM 是一个概率预测器,它好像被困在了模型生成的静态世界里。它不能像人一样打开 Chrome,输入网址,然后阅读。它没有实时获取信息的能力,因为它只有接收文字、输出。
所以为了让 Ai更智能,不用每天都重复训练所谓数据最新的LLM, 大家想要给LLM提供一种联网搜索的功能,让他能像人一样搜索,但是LLM只能一问一答,他是不能直接操控电脑去上网的呀?
于是,你发明了 Agent(智能体) 它不再只是一段 简单的Prompt诈骗,而是神奇的循环代码。
1. Agent 是 LLM 的代理人
Agent 本身并不是模型,它是包裹在模型外面的一层神奇代码。现在你再来问问题它的工作流程变成了这样:
用户问: “帮我查一下 2026 年 3 月 30 日xx网站的备案审核进度。”
LLM 思考: “我不知道,但我有一个
Search_Tool可以用。”Agent 执行: 捕捉到 LLM 的意图,真的去跑了一段 Python 代码,调用 Google 搜索 API。
LLM 总结: 拿到搜索结果,整理成人类听得懂的话告诉你。
这就是 Agent 的本质:它帮助 LLM 调用工具。 它像一个代理,站在 LLM 和现实世界(互联网、数据库、本地文件)之间。LLM 提供“大脑”负责决策,Agent 提供手脚负责执行。