# Justin Huang > 這是 Justin Huang 的個人部落格,寫 AI、技術、寫作,也寫生活。 ## About 這是 Justin Huang 的個人部落格,寫 AI、技術、寫作,也寫生活。 - Site: https://justinhuangai.github.io/zh-hant - RSS: https://justinhuangai.github.io/zh-hant/rss.xml - Full content: https://justinhuangai.github.io/zh-hant/llms-full.txt - Individual posts: append .md to any post URL (e.g. /zh-hant/posts/hello-world.md) - JSON API: https://justinhuangai.github.io/api/posts.json ## Blog Posts - [技術報告共讀:《Attention Residuals》(注意力殘差)](https://justinhuangai.github.io/zh-hant/posts/attention-residuals/): Kimi Team 的 Attention Residuals 技術報告:為什麼殘差連接也該「注意力化」,以及 Full AttnRes / Block AttnRes 如何把這個想法做成可訓練、可部署的系統 - [論文共讀:《Training Compute-Optimal Large Language Models》(訓練算力最優的大型語言模型)](https://justinhuangai.github.io/zh-hant/posts/training-compute-optimal-large-language-models/): Chinchilla 論文:為什麼大多數大模型其實訓練不足,以及如何聰明地分配算力預算,附真實 Python 核心程式碼 - [論文共讀:《Scaling Laws for Neural Language Models》(神經語言模型的縮放定律)](https://justinhuangai.github.io/zh-hant/posts/scaling-laws-for-neural-language-models/): 規模的數學:為什麼更大的模型可預測地更好,附真實 Python 核心程式碼 - [OpenClaw 專題:架構分析 🦞](https://justinhuangai.github.io/zh-hant/posts/openclaw-architecture/): 基於 v2026.3.8 原始碼,拆解一個自託管 AI 助手的工程骨架 - [論文共讀:《Language Models are Few-Shot Learners》(語言模型是少樣本學習者)](https://justinhuangai.github.io/zh-hant/posts/language-models-are-few-shot-learners/): 更大的模型,更善於從上下文中誘發能力,附真實 Python 程式碼 - [OpenClaw 專題:生態分析 🦞](https://justinhuangai.github.io/zh-hant/posts/openclaw-ecosystem/): 從一個開源專案到一個完整的 AI 助手生態 - [論文共讀:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》(BERT:用於語言理解的深度雙向 Transformer 預訓練)](https://justinhuangai.github.io/zh-hant/posts/bert/): 預訓練範式的確立,附真實 Python 程式碼 - [論文共讀:《Sequence to Sequence Learning with Neural Networks》(使用神經網路進行序列到序列學習)](https://justinhuangai.github.io/zh-hant/posts/sequence-to-sequence-learning-with-neural-networks/): 編碼器-解碼器範式的確立,附真實 Python 程式碼 - [Clawdbot:一個值得關注的去中心化 AI 開源專案](https://justinhuangai.github.io/zh-hant/posts/clawdbot/): 一個把所有聊天渠道接入 AI Agent 的自託管平台 - [論文共讀:《Neural Machine Translation by Jointly Learning to Align and Translate》(通過聯合學習對齊與翻譯實現神經機器翻譯)](https://justinhuangai.github.io/zh-hant/posts/neural-machine-translation-by-jointly-learning-to-align-and-translate/): 注意力機制的起源,附真實 Python 程式碼 - [論文共讀:《Attention Is All You Need》(注意力就是你所需要的全部)](https://justinhuangai.github.io/zh-hant/posts/attention-is-all-you-need/): 分享我對 Transformer 論文的理解,附真實 Python 程式碼 - [👋 你好,世界](https://justinhuangai.github.io/zh-hant/posts/hello-world/): 歡迎來到 Astro-Theme-Aither——一個相信文字本身就很美的 AI 原生 Astro 主題。