SimLabs LLM Visual

SimLabs LLM 可视化

这是一套从零开始理解大模型技术的系列化交互课程。它的目标不是堆术语,而是把 Token、向量、Tokenizer、Attention、QKV、Transformer 和推理策略做成可观察、可操作、可逐步学习的 HTML 页面。

路线先行,不会迷路 先直觉,再公式,再工程 适合教学、自学和演示

这个系列的学习方式

一步一步来

先用路线图建立全局地图,再进入单页交互。这样学到 Attention、RAG、Agent 时不会觉得它们是散碎名词。

每页只讲一件事

每张页面尽量围绕一个核心问题展开,避免把多个新概念堆在同一页里。

动手看变化

尽量通过热力图、分步播放、参数滑块、矩阵高亮和对比卡片让用户自己观察变化,而不是只读文字。

当前建设状态: 系列首页、路线数据和通用组件已放到 `ai` 目录,技术地图、Token/向量、矩阵基础、张量 Tensor、神经网络基础、Embedding 语义空间、语言模型目标、Tokenizer、Attention 直觉、QKV、因果 Mask、位置编码、多头注意力、Residual / LayerNorm / FFN、Transformer Block、解码策略、训练与对齐、RAG、Tool Use、Agent、安全、评测、部署与成本都已上线。

当前可直接体验的内容

如果你是第一次进入这个系列,建议先从下面这些关键页面开始。页面脚本加载完成后,这里会自动展开全部已上线课程。

已上线

AI、机器学习与大模型地图

先建立全景地图,分清 AI、机器学习、深度学习和大模型分别位于哪里。

8 分钟 · 入门
起点页面 技术地图
已上线

字符、Token 与向量

理解语言为什么要被切成 token,以及 token 为什么还要被映射成向量。

10 分钟 · 入门
文本表示
已上线

向量、矩阵与线性变换

为 Embedding、线性层、QK 点积打下可视化数学基础。

10 分钟 · 入门
数学基础
已上线

张量 Tensor:从矩阵到多维数组

用 rank、shape、切片和常见操作,把张量从抽象名词变成可以直接观察和操作的对象。

12 分钟 · 入门
张量 Shape 数学基础
已上线

Tokenizer 与 BPE

理解为什么模型看到的不是词,而是更稳定的 token 序列。

10 分钟 · 入门
Tokenizer
已上线

Self-Attention 直觉

理解一个 token 为什么需要看其他 token,而不是只看自己。

10 分钟 · 入门
Attention
现有实验

QKV 与注意力打分

直接体验 Q、K、V、打分矩阵和最终输出,快速把注意力机制看成可以操作的过程。

12 分钟 · 入门
QKV Attention
已上线

多头注意力:为什么要分成多个 Head

对比单头混合视角与多头分工,再看 Concat + W^O 如何把不同 Head 的结果重新融合。

12 分钟 · 进阶
Multi-Head Attention Transformer
已上线

Residual、LayerNorm 与 FFN:Attention 之外的另一半

把“保留主干、整理尺度、再加工特征”拆成可操作实验,补齐 Transformer Block 里注意力之外的直觉。

12 分钟 · 进阶
Residual LayerNorm FFN
已上线

RAG:检索增强生成

从系统视角理解为什么模型常常要先查资料再回答,以及检索如何补强生成质量。

12 分钟 · 进阶
RAG 系统
已上线

Agent:规划、执行、观察与记忆

把“会回答”升级到“会持续完成任务”,看懂 Agent 为什么是一个循环系统。

12 分钟 · 进阶
Agent 系统
建议的第一轮浏览顺序: 先看地图页建立全局结构,再补 Token / 向量、矩阵、张量、神经网络基础、Embedding 与语言模型目标,然后进入 Tokenizer、Attention、QKV、因果 Mask、位置编码、多头注意力、Residual / LayerNorm / FFN 与 Transformer Block,最后再回到 RAG、Agent 和安全等系统主题。

完整路线图

能点击的卡片代表当前已经可直接访问的页面;灰色卡片表示已经排进路线图,但还在持续建设中。页面脚本加载后,这里会自动切换成完整的分阶段课程列表。

阶段 1 · 基础底座

先建立整体地图,再理解文本是怎样一步步变成模型可计算的表示。

阶段 2 · 表示学习

这一段负责把“基础表示”衔接到“模型如何学出语义结构”,避免后面直接跳进 Transformer 时断层。

阶段 3 · Transformer 核心

这是整个系列的技术心脏,集中讲清 Tokenizer、Attention、QKV、因果 Mask、位置编码、多头注意力、Residual / LayerNorm / FFN 和 Transformer Block。

阶段 4 · 训练与推理

理解模型是怎样被训练出来的,以及为什么同一个模型会因为解码参数不同而表现差异很大。

已上线 2 页

核心问题

从预训练到对齐,模型能力如何逐步成形?温度、Top-k 和 Top-p 又是怎么影响输出风格的?

训练 对齐 解码策略

阶段 5 · 应用系统

把单个模型能力放进真实产品系统中,看懂 RAG、Tool Use、Agent、安全、评测与部署。

已上线 6 页

核心问题

一个“可用的大模型系统”不只是一段对话,还需要检索、工具、评测、安全边界和工程权衡。

RAG Tool Use Agent Evals

推荐的起步顺序

1

技术地图

先知道自己到底要学哪几个层次,再去学具体机制。

2

文本表示

搞清文本如何变成 token、向量、矩阵和张量。

3

表示学习

补上神经网络、Embedding 和语言模型目标这层直觉,再进入 Transformer。

4

Transformer 核心

进入 Attention、QKV、因果 Mask、位置编码、多头注意力、Residual / LayerNorm / FFN 和 Block 结构。

5

推理与系统

最后看采样、RAG、工具调用、安全与部署。

一句话理解本系列: 不是把论文原文搬上网页,而是把抽象概念变成你能自己点、自己看、自己验证的学习体验。