目前Ai相关的核心名词,你都理解多少?

真成运维 2026-3-11 8 3/11

目前 Ai 名词概念真是层出不穷,有多少已经傻傻分不清谁是谁了。今天就来根据4个类别进行阶段引进这些 Ai 相关的核心名词。

基础概念是底层能力 → 架构工具是核心技术 → 流程框架是编排方式 → 产品工具是落地载体

目前Ai相关的核心名词,你都理解多少?

一、基础核心概念(4 个)

基础概念是底层能力,后续所有阶段都是围绕这一部分来展开的。

1)大语言模型(LLM / 大模型)

  • 是什么:基于 Transformer 架构、在海量文本数据上预训练的超大规模语言理解与生成模型。
  • 出现背景:算力飞跃、Transformer 诞生、互联网语料爆发,传统小模型无法理解复杂语义。
  • 解决问题:让机器从关键词匹配升级到理解语义、逻辑推理、生成内容
  • 作用:AI 系统的 “大脑”,负责理解、推理、生成、对话、总结。
  • 技术本质:通过海量语料学习语言规律、知识关联与概率分布,用自回归 / 掩码预测生成文本。
  • 应用场景:聊天对话、内容创作、代码编写、翻译、问答、摘要。

Transformer 是 2017 年谷歌提出的一种神经网络架构,是当前所有大模型(LLM、多模态、文生图)的底层基础。

2)Prompt(提示词)

  • 是什么:用户向 LLM 输入的指令、问题、示例、约束等所有信息。
  • 出现背景:大模型能力强但意图不明确,需要精准指令引导输出。
  • 解决问题:消除歧义,让模型精准理解任务目标与输出要求
  • 作用:控制输出风格、格式、角度、长度、逻辑,提升结果质量。
  • 技术本质:通过自然语言构造任务范式 + 示例 + 约束,激活模型对应能力。
  • 应用场景:对话、生成、改写、代码、角色扮演、信息提取。

3)Context(上下文)

  • 是什么:当前对话 / 任务中,模型可读取的历史交互信息
  • 出现背景:人类交流是连贯多轮的,单轮输入无法保持逻辑。
  • 解决问题:让模型记住前文,实现连贯、有上下文的交互。
  • 作用:维持对话连贯性、多轮理解、长文本关联推理。
  • 技术本质:将历史对话拼接到当前输入,一起送入模型,利用注意力机制关联信息。
  • 应用场景:多轮聊天、长文档处理、连续调试、复杂对话。

4)Memory(记忆)

  • 是什么:模型长期持久化存储的用户 / 任务信息,不随对话结束丢失。
  • 出现背景:上下文是短期、有限、易丢失,无法满足长期个性化需求。
  • 解决问题:让 AI 拥有长期记忆,记住偏好、历史、专属知识。
  • 作用:个性化服务、持续迭代任务、长期状态管理。
  • 技术本质:将关键信息存入外部存储(数据库 / 文件),交互时主动读取注入上下文。
  • 应用场景:个人助手、专属客服、长期项目助手、个性化推荐。

总结

LLM 是大脑,Prompt 是交互入口,Context 是短期记忆,Memory 是长期记忆。

  • LLM 是核心引擎;
  • Prompt 用来指挥它;
  • Context 保证当前对话连贯;
  • Memory 实现长期个性化。

四者构成 AI 最底层的基础能力

二、架构 / 工具核心概念(5 个)

架构工具是核心技术。

1)Agent(智能体)

  • 是什么:具备自主思考、规划、执行、复盘能力的高级 AI 主体。
  • 出现背景:传统 LLM 只能被动问答,无法独立完成复杂闭环任务。
  • 解决问题:让 AI 从 “工具” 变成能自主干活的执行者
  • 作用:自主拆任务、做计划、调用工具、纠错、完成闭环。
  • 技术本质:LLM 做决策中枢 + 工具调用 + 记忆 + 反思机制,循环执行。
  • 应用场景:自动办公、数据分析、运维、任务规划、自动化流程。

Agent 理解:

Agent 的英文意思是“代理人”。从广义概念理解,它是指一个能够代表用户执行特定任务的实体;其核心工作流在于接收指令、自主处理复杂过程,并最终向用户交付结果,而无需用户干预中间细节。

如果以程序员的视角,Agent 本质上是一套具备自主决策能力的代码系统。它通过封装复杂的业务逻辑与算法,将大模型的推理能力与外部工具(如,在线搜索、代码执行、API调用)相结合,从而被赋予了类似人类的“技能”。这使得 Agent 不仅能被动响应,更能主动规划并解决一系列复杂问题。

一句话总结:Agent 是用来减少与 LLM 进行沟通的次数的。

2)RAG(检索增强生成)

  • 是什么:先从外部库检索相关知识,再将结果喂给模型生成答案。
  • 出现背景:LLM 存在知识过时、幻觉、不懂私有数据问题。
  • 解决问题:用真实、最新、可溯源的外部知识保证回答准确。
  • 作用:减少幻觉、提升准确性、接入私有 / 实时知识。
  • 技术本质:文本向量化 → 向量库检索 → 召回相关片段 → 拼入 Prompt 生成。
  • 应用场景:企业知识库、文档问答、法律 / 医疗 / 技术咨询。

3)Function calling(函数调用)

  • 是什么:LLM 按规则生成结构化参数,主动调用外部工具 / 接口的能力。
  • 出现背景:大模型只能生成文本,无法联网、查库、操作系统。
  • 解决问题:打通 AI 与现实世界、业务系统、工具软件的连接。
  • 作用:查数据、发请求、执行命令、操作软件、获取实时信息。
  • 技术本质:模型输出标准化函数名 + 参数 → 系统解析执行 → 结果返回模型。
  • 应用场景:查天气、查订单、读数据库、发邮件、触发流程。

Function calling:是 Agent 与 LLM 之间调用的约定规范,类似于协议。

4)MCP(模型上下文协议)

  • 是什么:统一模型 / 智能体 / 工具之间传递上下文信息的规范标准。
  • 出现背景:多模型、多智能体协同时,上下文格式不互通、无法共享。
  • 解决问题:实现跨组件、跨模型上下文标准化流转
  • 作用:降低集成成本、提升协同效率、信息互通。
  • 技术本质:定义统一数据结构(角色、内容、时间、类型),实现格式兼容。
  • 应用场景:多模型调度、多 Agent 系统、AI 中台、复杂 AI 应用。

MCP 就是 Agent 调用各个工具的一个协议。

5)Sub-agent(子智能体)

  • 是什么:由主 Agent 调度、负责单一专业任务的细分智能体。
  • 出现背景:单一 Agent 处理多领域任务,效率低、专业性差。
  • 解决问题:任务分工、专业拆解,主脑统筹 + 子体执行。
  • 作用:并行处理、专业化更强、复杂任务更稳定。
  • 技术本质:主 Agent 做任务拆分与分发,Sub-agent 专注单任务执行与结果返回。
  • 应用场景:复杂项目协作、多领域并行任务、AI 团队作业。

总结

以 Agent 为中枢,用 RAG 补知识,用 Function calling 连工具,用 MCP 通信息,用 Sub-agent 做分工。

  • Agent 是总指挥;
  • RAG 解决知识准确问题;
  • Function calling 连接现实世界;
  • MCP 让所有模块互通;
  • Sub-agent 实现专业化分工。

五者构成 AI 系统的核心技术架构

三、流程 / 框架类概念(3 个)

流程框架是编排方式,为了固化我们的流程,让每次对话得到的结果基本保持一致。

1)Linchang(列式编程框架)

  • 是什么:以列 / 步骤为单元,可视化编排 AI 流程的低代码框架。
  • 出现背景:普通用户不会代码,却需要快速搭建 Agent/Workflow。
  • 解决问题:低门槛、可视化搭建 AI 应用,降低开发难度。
  • 作用:快速搭建、可视化调试、流程可复用、无需复杂编码。
  • 技术本质:将 AI 能力封装为节点,按列 / 顺序拖拽编排,自动转执行逻辑。
  • 应用场景:AI 自动化、智能体搭建、流程应用、低代码 AI 开发。

2)Workflow(工作流)

  • 是什么:将复杂任务拆分为固定步骤、顺序、条件、分支的执行流程。
  • 出现背景:复杂任务需要标准化、可复现、可监控的执行逻辑。
  • 解决问题:让 AI 按稳定流程执行,避免混乱、保证结果一致。
  • 作用:标准化、自动化、可复用、可监控、可回溯。
  • 技术本质:节点 + 连线 + 条件判断,按预设逻辑依次触发执行。
  • 应用场景:数据处理、报告生成、审核流程、自动化 pipeline。

3)Skill(技能)

  • 是什么:封装好的、可独立完成单一专业任务的 AI 能力模块。
  • 出现背景:通用 AI 太泛,需要可插拔、可复用的专业能力。
  • 解决问题:能力模块化,方便组合、复用、升级、管理。
  • 作用:专业聚焦、即插即用、可独立迭代。
  • 技术本质:将 Prompt、工具、流程、模型封装为独立可调用单元。
  • 应用场景:客服技能、代码技能、运营技能、数据分析技能。

总结

用 Linchang 低代码搭建,用 Workflow 编排步骤,用 Skill 提供专业能力。

  • Skill 是最小能力单元;
  • Workflow 是流程组织方式;
  • Linchang 是可视化搭建框架。

三者是 AI 能力的编排与落地框架

四、相关产品 / 工具类名词(4 个)

产品工具是落地载体

1)**OpenClaw(CloudBot)**

  • 是什么:云端部署、托管、运行的 AI 机器人 / 智能体平台。
  • 出现背景:企业 / 个人不想自建服务器,需要直接上线管理 AI Bot。(不准确,不过可以理解为管理 AI Bot)
  • 解决问题:快速创建、部署、运维、管理 AI 机器人。
  • 作用:云端运行、多机器人管理、开放接入、弹性扩缩容。
  • 技术本质:云端容器化部署 + Bot 管理后台 + 开放接口 + 多实例调度。
  • 应用场景:企业客服、云端助手、多 Bot 协同、AI 应用上线。

2)Cloudcode

  • 是什么:云端在线编写、运行、存储、协作的 AI 辅助编程工具。
  • 出现背景:本地环境配置繁琐,需要随时随地编码 + AI 辅助。
  • 解决问题:零配置、跨设备、在线开发与运行代码。
  • 作用:在线编程、AI 补全、云端运行、分享协作。
  • 技术本质:浏览器端 IDE + 云端计算资源 + AI 代码模型集成。
  • 应用场景:脚本编写、算法验证、教学演示、协作开发。

3)Codexmanage

  • 是什么:AI 资产(代码、模型、技能、流程)统一管理平台。
  • 出现背景:AI 代码、技能、资产零散,难以复用、版本管理。
  • 解决问题:AI 资产中心化、可追溯、可复用、可共享。
  • 作用:资产管理、版本控制、权限管理、发布上架。
  • 技术本质:资产库存储 + 版本管理系统 + 权限引擎 + 发布通道。
  • 应用场景:企业 AI 资产库、团队协作、技能市场。

4)向量数据库(RAG 核心支撑)

  • 是什么:专门存储与检索向量嵌入(Embedding) 的高性能数据库。
  • 出现背景:传统数据库无法高效做语义相似度检索
  • 解决问题:快速、精准找到语义最相近的文本 / 数据。
  • 作用:支撑 RAG 实现高效、高精度语义检索。
  • 技术本质:将文本转为向量 → 构建索引 → 高维向量近似最近邻搜索(ANN)。
  • 应用场景:RAG 知识库、推荐系统、相似文本匹配、语义检索。

检索增强生成:给 LLM 装一个外置知识库,让它查资料再回答,不瞎编。

总结

Cloudbot 提供云端智能体,Cloudcode 提供云端开发,Codexmanage 管理 AI 资产,向量数据库支撑 RAG 检索。

  • Cloudbot:运行载体;
  • Cloudcode:开发工具;
  • Codexmanage:资产管理;
  • 向量数据库:底层存储支撑。

四者是 AI 系统落地的产品化工具链

END

这篇文章有用吗?

点击星号为它评分!

平均评分 0 / 5. 投票数: 0

到目前为止还没有投票!成为第一位评论此文章。

很抱歉,这篇文章对您没有用!

让我们改善这篇文章!

告诉我们我们如何改善这篇文章?

- THE END -

真成运维

3月11日20:39

最后修改:2026年3月11日
0

非特殊说明,本博所有文章均为博主原创。