从零开始学 AI
想多了解一点这个快速发展的世界,学习一下 AI 相关的知识。
工具篇
本地部署试过 Ollama + DeepSeek R1 32 b,19 年的英特尔芯片已经带不动了。
目前主要用的是 Cherry Studio + 字节方舟的 DeepSeek R1,主要是因为当时领了几十块钱的券~
但是腾讯元宝真的很方便,而且免费。
Web 端的话各种官网混用:腾讯元宝 、ChatGpt、Claude、通义千问。
编辑器的话,用的是Trae,之前用 Trae + Hugo 搭了一个摄影小站:
- www.timelesslens.site
AI 名词
RAG
RAG 的全称是:Retrieval-Augmented Generation,翻译成中文是:检索增强生成。
简而言之就是让大语言模型(比如 ChatGPT)在“生成答案”之前,先去找资料(检索)来增强它的知识,再用这些资料来生成更准确的回答。
为什么需要RAG?
因为对于很多大语言模型来说,他的知识是基于历史数据训练出来的,比如GPT-4是截止到2023年的数据,而在这之后发生的所有的新的事件,新的数据,他都是不知道的,那么他的回答就会有这部分的局限性。
还有就是,很多大模型是基于公开的资料训练出来的,而很多私域的信息他是没有学习过的,而很多知识是私有的知识,这就需要通过资料的方式增强他原来不熟悉的知识。
所以,有了RAG之后,就可以基于自己的知识构建自己的知识库,这样就能做到知识的更新和迭代,也能弥补大模型不知道一些特性领域的专业知识的不足。这样就能让大模型的回答更加的准确, 减少幻觉的发生。
如何构建一个RAG?
1、前置准备
首先我们需要做数据准备,把你要用的资料收集好,比如:公司内部文档(PDF、Word、Markdown)、FAQ列表、产品手册等,然后清洗这些数据,比如去掉无关信息、切分成合理的小段。
然后把每一小段文本用Embedding模型转成向量,把这些向量存到向量数据库里,比如FAISS、Milvus等。
2、检索查询
当用户提问时,先用相同的Embedding模型把问题也转成向量。然后在向量数据库里用向量相似度搜索,找出最相关的几段资料(比如Top 5)。这些找到的内容就是上下文增强材料。
3、生成回答
紧接着,就可以把用户的问题 + 检索到的资料一起,作为Prompt发给大语言模型(LLM)。 这样可以保证模型只在资料范围内生成答案,降低幻觉。
MCP
MCP 的全称是 Model Context Protocol,下面是官网上的解释:
MCP is an open protocol that standardizes how applications provide context to LLMs. Think of MCP like a USB-C port for AI applications. Just as USB-C provides a standardized way to connect your devices to various peripherals and accessories, MCP provides a standardized way to connect AI models to different data sources and tools.
MCP全称是模型上下文协议(Model Context Protocol),由Anthropic在2024年11月推出。它本质上是大模型与外部世界连接的标准化接口,就像给大模型装了个万能插座。
MCP中有三个核心组件
- MCP Hosts:如Claude Desktop或IDE(比如Cursor),作为AI应用的入口,发起数据请求。
- MCP Servers:轻量级服务,负责对接具体数据源或工具(如GitHub API、本地文件系统),提供标准化接口。(一般是别人开发好的,你要用的工具)
- MCP Clients:协议客户端,维护与服务器的连接并转发请求。
有了MCP之后,当用户提出一个问题时,就是大致下面的流程:
- 客户端(Claude Desktop / Cursor)将你的问题发送给大模型(如Claude)。
- Claude 分析可用的工具,并决定使用哪一个(或多个)。
- 客户端通过 MCP Server 执行所选的工具。
- 工具的执行结果被送回给 Claude。
- Claude 结合执行结果构造最终的 prompt 并生成自然语言的回应。
- 回应最终展示给用户
我让 DeepSeek 以生动形象的语言给我解释了一下 MCP,以下是它的回答:
用大白话解释,大模型中的 MCP 就像一个“万能插座”,让原本被困在知识牢笼里的 AI 大模型,突然长出了能连接现实世界的手脚。以下是生动解析:
🔌 1. 大模型原本是个“孤岛天才”
想象大模型是个满腹经纶的学者,但被关在没有窗户的房间里:
- 知识是旧的:只能复述训练时学过的内容(比如不知道今天天气);
- 无法动手操作:知道“怎么发邮件”,但没法真的帮你发;
- 数据隔离:你电脑里的文件、公司数据库,它都摸不着[citation:1][citation:7]。
💡 就像让厨师背熟菜谱却不给厨房——空有理论,做不出菜!
🛠️ 2. MCP 是给大模型配的“万能工具箱”
MCP(Model Context Protocol)是一套标准化接口协议,核心功能类似 “插座+适配器”:
- 统一接口:所有外部工具(数据库、天气 API、微信、Excel)只要装上“MCP 插头”(即 MCP 服务器),就能被大模型即插即用[citation:4][citation:6];
- 双向通信:大模型能查数据(如“读销售报表”),也能执行操作(如“订会议室”)[citation:2];
- 本地安全防护:数据不用上传云端,直接在本地处理,像给插座加了保险开关[citation:1][citation:5]。
✅ 举个栗子:
你说:“把上周销售数据整理成图表,邮件发给老板。”
大模型通过 MCP 自动调用:
1️⃣ 数据库插件 → 拉取数据;
2️⃣ Python 插件 → 生成图表;
3️⃣ 邮箱插件 → 发送邮件。
⚙️ 3. 工作流程像“AI 指挥官”
- 你下指令:“导航去公司附近最火的川菜馆。”
- 大模型分析:需要调用地图工具 + 实时路况。
- MCP 客户端:找到“百度地图 MCP 服务器”(已装好插头)。
- 地图服务器:返回路线、排队时长、评分(数据不离开你手机)。
- 大模型整合:“推荐‘蜀香阁’,车程 15 分钟,当前不用排队哦!”。
🌟 关键突破:
- 不用重复开发:每个工具只需一次适配 MCP,所有大模型都能用;
- 动态扩展能力:装个“股票插件”,AI 立刻懂炒股;装个“Git 插件”,秒变编程助手[citation:4][citation:5]。
🚀 4. 实际效果:AI 从“嘴强王者”变身“全能助理”
- 查私人数据:直接问“帮我找昨天写的年终总结 PPT”;
- 操作跨平台工具:“订明早 9 点的机票,同步到日历并提醒小李”;
- 实时响应:“现在美股苹果股价多少?” → 调用金融数据插件秒回[citation:2][citation:6]。
💡 一句话总结:
MCP 就是大模型的“手脚延伸器”——让 AI 走出虚拟牢笼,用标准化插座连接万物,从此能动手就别吵吵!
当前百度地图、高德、企业微信等均已支持 MCP,未来你的每一个操作指令,背后可能都是 MCP 在默默调度。
Agent
todo
SpringAI
todo