# Justin Huang > 这是 Justin Huang 的个人博客,写 AI、技术、写作,也写生活。 ## About 这是 Justin Huang 的个人博客,写 AI、技术、写作,也写生活。 - Site: https://justinhuangai.github.io/zh-hans - RSS: https://justinhuangai.github.io/zh-hans/rss.xml - Full content: https://justinhuangai.github.io/zh-hans/llms-full.txt - Individual posts: append .md to any post URL (e.g. /zh-hans/posts/hello-world.md) - JSON API: https://justinhuangai.github.io/api/posts.json ## Blog Posts - [技术报告共读:《Attention Residuals》(注意力残差)](https://justinhuangai.github.io/zh-hans/posts/attention-residuals/): Kimi 团队 Attention Residuals 技术报告:为什么残差连接也该“注意力化”,以及 Full AttnRes / Block AttnRes 如何把这个想法做成可训练、可部署的系统 - [论文共读:《Training Compute-Optimal Large Language Models》(训练计算最优的大语言模型)](https://justinhuangai.github.io/zh-hans/posts/training-compute-optimal-large-language-models/): Chinchilla 论文:为什么 2022 年的大模型全都「喂少了」,以及算力预算到底该怎么分配,附真实 Python 核心代码 - [论文共读:《Scaling Laws for Neural Language Models》(神经语言模型的缩放定律)](https://justinhuangai.github.io/zh-hans/posts/scaling-laws-for-neural-language-models/): 规模的数学:为什么更大的模型可预测地更强,附真实 Python 核心代码 - [OpenClaw 专题:架构分析 🦞](https://justinhuangai.github.io/zh-hans/posts/openclaw-architecture/): 基于 v2026.3.8 源码,拆解一个自托管 AI 助手的工程骨架 - [论文共读:《Language Models are Few-Shot Learners》(语言模型是少样本学习者)](https://justinhuangai.github.io/zh-hans/posts/language-models-are-few-shot-learners/): 更大的模型,更善于从上下文中诱发能力,附真实 Python 代码 - [OpenClaw 专题:生态分析 🦞](https://justinhuangai.github.io/zh-hans/posts/openclaw-ecosystem/): 从一个开源项目到一个完整的 AI 助手生态 - [论文共读:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》(BERT:用于语言理解的深度双向 Transformer 预训练)](https://justinhuangai.github.io/zh-hans/posts/bert/): 预训练范式的确立,附真实 Python 代码 - [论文共读:《Sequence to Sequence Learning with Neural Networks》(使用神经网络进行序列到序列学习)](https://justinhuangai.github.io/zh-hans/posts/sequence-to-sequence-learning-with-neural-networks/): 编码器-解码器范式的确立,附真实 Python 代码 - [Clawdbot:一个值得关注的去中心化 AI 开源项目](https://justinhuangai.github.io/zh-hans/posts/clawdbot/): 一个把所有聊天渠道接入 AI Agent 的自托管平台 - [论文共读:《Neural Machine Translation by Jointly Learning to Align and Translate》(通过联合学习对齐与翻译实现神经机器翻译)](https://justinhuangai.github.io/zh-hans/posts/neural-machine-translation-by-jointly-learning-to-align-and-translate/): 注意力机制的起源,附真实 Python 代码 - [论文共读:《Attention Is All You Need》(注意力就是你所需要的全部)](https://justinhuangai.github.io/zh-hans/posts/attention-is-all-you-need/): 分享我对 Transformer 论文的理解,附真实 Python 代码 - [👋 你好,世界](https://justinhuangai.github.io/zh-hans/posts/hello-world/): 欢迎来到 Astro-Theme-Aither——一个相信文字本身就很美的 AI 原生 Astro 主题。