# Justin Huang > Justin Huang의 개인 블로그로, AI, 기술, 글쓰기, 삶에 대해 씁니다. ## About Justin Huang의 개인 블로그로, AI, 기술, 글쓰기, 삶에 대해 씁니다. - Site: https://justinhuangai.github.io/ko - RSS: https://justinhuangai.github.io/ko/rss.xml - Full content: https://justinhuangai.github.io/ko/llms-full.txt - Individual posts: append .md to any post URL (e.g. /ko/posts/hello-world.md) - JSON API: https://justinhuangai.github.io/api/posts.json ## Blog Posts - [기술 리포트 읽기: 《Attention Residuals》 (어텐션 잔차)](https://justinhuangai.github.io/ko/posts/attention-residuals/): Kimi Team의 Attention Residuals 기술 리포트 읽기: 왜 residual connection도 attention처럼 바뀌어야 하는지, 그리고 Full AttnRes / Block AttnRes가 그 아이디어를 어떻게 학습 가능하고 배포 가능한 시스템으로 만드는지 - [논문 읽기: 《Training Compute-Optimal Large Language Models》 (연산량 최적의 대규모 언어 모델 학습)](https://justinhuangai.github.io/ko/posts/training-compute-optimal-large-language-models/): Chinchilla 논문 — 왜 대부분의 대형 모델이 과소 학습되었는지, 그리고 컴퓨팅 예산을 현명하게 쓰는 법, 실제 Python 코드 예시 포함 - [논문 읽기: 《Scaling Laws for Neural Language Models》 (신경 언어 모델을 위한 스케일링 법칙)](https://justinhuangai.github.io/ko/posts/scaling-laws-for-neural-language-models/): 규모의 수학 — 더 큰 모델이 예측 가능하게 더 나은 이유, 실제 Python 코드 예시 포함 - [OpenClaw 특집: 아키텍처 분석 🦞](https://justinhuangai.github.io/ko/posts/openclaw-architecture/): v2026.3.8 소스코드 기반, 셀프호스팅 AI 어시스턴트의 엔지니어링 골격 해부 - [논문 읽기: 《Language Models are Few-Shot Learners》 (언어 모델은 퓨샷 학습자다)](https://justinhuangai.github.io/ko/posts/language-models-are-few-shot-learners/): 더 큰 모델, 컨텍스트에서 더 잘 능력을 이끌어내다, 실제 Python 코드 예시 포함 - [OpenClaw 특집: 생태계 분석 🦞](https://justinhuangai.github.io/ko/posts/openclaw-ecosystem/): 하나의 오픈소스 프로젝트에서 완전한 AI 어시스턴트 생태계로 - [논문 읽기: 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》 (BERT: 언어 이해를 위한 깊은 양방향 트랜스포머 사전학습)](https://justinhuangai.github.io/ko/posts/bert/): 사전학습 패러다임의 확립, 실제 Python 코드 예시 포함 - [논문 읽기: 《Sequence to Sequence Learning with Neural Networks》 (신경망을 이용한 시퀀스-투-시퀀스 학습)](https://justinhuangai.github.io/ko/posts/sequence-to-sequence-learning-with-neural-networks/): 인코더-디코더 패러다임의 확립, 실제 Python 코드 예시 포함 - [Clawdbot: 주목할 만한 탈중앙화 오픈소스 AI 프로젝트](https://justinhuangai.github.io/ko/posts/clawdbot/): 모든 채팅 채널을 AI 에이전트에 연결해주는 셀프 호스팅 플랫폼 - [논문 읽기: 《Neural Machine Translation by Jointly Learning to Align and Translate》 (정렬과 번역을 공동으로 학습하는 신경 기계 번역)](https://justinhuangai.github.io/ko/posts/neural-machine-translation-by-jointly-learning-to-align-and-translate/): 어텐션 메커니즘의 기원, 실제 Python 코드 예시 포함 - [논문 읽기: 《Attention Is All You Need》 (어텐션만 있으면 충분하다)](https://justinhuangai.github.io/ko/posts/attention-is-all-you-need/): Transformer 논문에 대한 이해, 실제 Python 코드 예시 포함 - [👋 Hello World](https://justinhuangai.github.io/ko/posts/hello-world/): Astro-Theme-Aither에 오신 것을 환영합니다 — 타이포그래피가 디자인을 이끄는 블로그 테마