演进逻辑与学习过程
底层逻辑架构是技术核心,工具和 API 会变,但架构不变,需理解以不变应万变。
AI 模型演进类似人类学习过程:
CNN(看特征)→ RNN(记顺序)→ Transformer(注意力机制)→ BERT/GPT(理解与生成)
一、CNN(卷积神经网络)
核心逻辑
像「特征猎人」,通过卷积核(小窗口)扫描图像提取局部特征(如眼睛、嘴巴),再经池化(压缩,保留最大特征值)处理。
底层逻辑架构是技术核心,工具和 API 会变,但架构不变,需理解以不变应万变。
AI 模型演进类似人类学习过程:
CNN(看特征)→ RNN(记顺序)→ Transformer(注意力机制)→ BERT/GPT(理解与生成)
像「特征猎人」,通过卷积核(小窗口)扫描图像提取局部特征(如眼睛、嘴巴),再经池化(压缩,保留最大特征值)处理。
Excalidraw 是一个开源的虚拟白板,用于绘制手绘风格的流程图,支持多人协作编辑。
# 使用 create-excalidraw-app 创建项目
npx create-excalidraw-app my-app
# 启动开发服务器
cd my-app
npm run dev
| 维度 | 更适合用 Skill | 更适合用 RAG |
|---|---|---|
| 知识形态 | 流程、规则、操作指南等结构化知识 | 大量非结构化文档、长文本、多源内容 |
| 更新频率 | 相对稳定,变更不频繁 | 内容经常更新,需实时同步 |
| 检索方式 | 按任务类型匹配,加载对应技能 | 语义检索,从向量库召回相关片段 |
| 典型场景 | 内部 SOP、代码规范、邮件模板、工作流 | 产品文档、FAQ、历史对话、知识库 Q&A |
向量数据库是 RAG 系统的核心,选型直接影响检索效率和生成质量。本文围绕选型方法论、主流产品分析、实战案例、总结与趋势展开,帮助解决技术选型问题。
可以将预训练模型比作刚毕业的全能本科生,具备广泛知识但缺乏行业特定业务能力。微调就是通过行业数据训练,使其从通才转变为懂业务的专才,让模型掌握公司业务或行业黑话。
LoRA(Low-Rank Adaptation)的核心逻辑是:冻结原模型参数,不修改模型「大脑」,而是在模型层间插入可训练的低秩矩阵(Adapter 适配器参数)。如同给教科书贴便利贴,新增知识写在便利贴上,模型推理时同时参考原模型和新增参数。
大模型幻觉是指模型在未知或知识不足时,自信地创造虚假信息的现象,与简单错误不同。
面向多模型接入、统一管理、成本控制的企业级平台。
| 平台 | 特点 | 支持模型 |
|---|---|---|
| One-API | 开源、单文件/Docker 部署,支持密钥管理与二次分发 | OpenAI、Claude、Gemini、DeepSeek、豆包、ChatGLM、文心一言、讯飞星火、通义千问等 |
| APIPark | 云原生、高性能 AI 网关,API 申请审批、调用统计、负载均衡、多模型灾备 | 主流 AI 模型 |
| FastAPI-SDK | 企业级快速集成,轻量、页面简洁,Docker 一键部署 | OpenAI、Azure、文心一言、讯飞星火、通义千问、智谱 GLM、Gemini、DeepSeek |
| 汇云 API | 统一 LLM 网关,无需订阅 | 30+ 厂商(OpenAI、Claude、DeepSeek、Qwen、ChatGLM、文心一言等) |
| 老张 API | 企业级 AI 集成,按量付费、发票支持 | 200+ 大模型 |
Reasoning and Acting
大模型应用落地的关键在于解决「除了陪聊还能做什么」的问题。传统 AI 客服仅能进行情绪安抚,而基于 ReAct 架构的 Agent 可通过调用外部工具(如物流系统查单号、发起退款)实现实际功能,这是玩具与生产力的本质区别,也是行业核心技术壁垒之一。
ReAct 是 reasoning(推理)和 acting(行动)的缩写,核心是让模型具备「思考 → 行动 → 观察」的闭环能力。
客户端存储:
localStorage - 持久化存储sessionStorage - 会话存储Memory - 内存存储(最安全,但刷新页面会丢失)HttpOnly Cookie - 相对安全的方式