All tags

LLM

4 posts

/16 min read/AI

RAG vs Fine-tuning:大模型"学知识"的两条路,该选哪条?

让大模型掌握你的专属知识,RAG 和 Fine-tuning 是两条截然不同的路。一篇文章讲清楚两者的原理、优劣、成本和适用场景,帮你做出正确选择。

/21 min read/AI

一篇论文定义一个时代:Transformer 与注意力机制全解析

从零开始理解 Google 的"Attention Is All You Need"论文,看 Transformer 架构如何用"注意力"取代了传统模型,成为当今 AI 时代的基石。

/18 min read/AI

大模型是怎么"看懂"图片的?——多模态视觉理解全解析

从 Vision Transformer 的切片机制,到视觉与语言的桥梁,再到不同类型图片的识别原理,全面解析多模态大模型的视觉理解能力。

/20 min read/AI

大模型时代:从概念到未来

从核心概念、工作原理、训练过程到 Transformer 架构和 MOE 混合专家模型,全面理解大语言模型。