核心概念
开源可视化项目评测与集成
汇总并站内嵌入优秀开源可视化项目,快速比较不同交互叙事风格。
核心概念
开源可视化项目评测与集成
难度
进阶
状态
已发布
阅读时长
约 1 分钟
更新日期
2026/03/18
直接动手调参,观察变量变化与行为差异。
在站内直接体验优秀开源项目,快速对比交互体验与讲解深度,再决定是否深度二次开发。
该项目支持站内预览,可直接体验。
该项目更适合在外部 Notebook 或文档页面中体验,请使用左侧按钮打开。
学习焦点:把 next-token 预测拆成 attention、残差流和 logits 的连续决策过程。
联动建议:做完后切到 LLM Visualization,对照二维机制讲解和三维结构视图的差异。
任务 1
让模型补全一个确定性事实短句,看看答案是在哪几层逐步收敛出来的。
重点观察: 看模型是在前期粗筛、后期收敛,还是很早就锁定答案。
预期收获: 理解 Transformer 的答案形成是逐层强化,而不是一步生成。
任务 2
只替换 prompt 里的一个实体,观察全局结构不变时注意力如何重排。
重点观察: 关注语法骨架是否稳定,实体相关 token 是否触发局部重排。
预期收获: 建立“语义变化如何传导到 token-level 决策”的直觉。
任务 3
给模型一个开放式问题,对比它在不确定场景下的候选分布。
重点观察: 重点看候选概率是否更扁平、层间收敛是否更慢。
预期收获: 把“模型不确定”具体化为可观察的概率分布变化。
本地保存当前项目的实验进度与观察笔记,刷新后仍可继续,适合边看边记。
让模型补全一个确定性事实短句,看看答案是在哪几层逐步收敛出来的。
只替换 prompt 里的一个实体,观察全局结构不变时注意力如何重排。
给模型一个开放式问题,对比它在不确定场景下的候选分布。
当前采用“混合集成”策略:
后续会根据访问数据选择 1-2 个项目做本地化深度重构(统一 UI、结果记录与分享、学习进度回放)。
建议配合这些教程、路径和论文一起学习,理解会更连贯。