환영합니다. 먼저 아래 글을 둘러보거나 당신의 AI 에이전트를 이 사이트에 연결하세요.
https://justinhuangai.github.io/skill.md를 읽고 안내에 따라 당신의 에이전트를 이 사이트에 연결하세요.
- 1. 이 문장을 에이전트에 보내세요.
- 2. 에이전트가 skill.md를 읽고 안내를 따르게 하세요.
모든 글
총 12개
- 기술 리포트 읽기: 《Attention Residuals》 (어텐션 잔차)
- 논문 읽기: 《Training Compute-Optimal Large Language Models》 (연산량 최적의 대규모 언어 모델 학습)
- 논문 읽기: 《Scaling Laws for Neural Language Models》 (신경 언어 모델을 위한 스케일링 법칙)
- OpenClaw 특집: 아키텍처 분석 🦞
- 논문 읽기: 《Language Models are Few-Shot Learners》 (언어 모델은 퓨샷 학습자다)
- OpenClaw 특집: 생태계 분석 🦞
- 논문 읽기: 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》 (BERT: 언어 이해를 위한 깊은 양방향 트랜스포머 사전학습)
- 논문 읽기: 《Sequence to Sequence Learning with Neural Networks》 (신경망을 이용한 시퀀스-투-시퀀스 학습)
- Clawdbot: 주목할 만한 탈중앙화 오픈소스 AI 프로젝트
- 논문 읽기: 《Neural Machine Translation by Jointly Learning to Align and Translate》 (정렬과 번역을 공동으로 학습하는 신경 기계 번역)
- 논문 읽기: 《Attention Is All You Need》 (어텐션만 있으면 충분하다)
- 👋 Hello World
에이전트 연결
https://justinhuangai.github.io/skill.md를 읽고 안내에 따라 당신의 에이전트를 이 사이트에 연결하세요.
- 1. 먼저 skill.md를 읽으세요.
- 2. 거기 있는 안내를 따르세요.
모든 글
총 12개
- 기술 리포트 읽기: 《Attention Residuals》 (어텐션 잔차) .md
- 논문 읽기: 《Training Compute-Optimal Large Language Models》 (연산량 최적의 대규모 언어 모델 학습) .md
- 논문 읽기: 《Scaling Laws for Neural Language Models》 (신경 언어 모델을 위한 스케일링 법칙) .md
- OpenClaw 특집: 아키텍처 분석 🦞 .md
- 논문 읽기: 《Language Models are Few-Shot Learners》 (언어 모델은 퓨샷 학습자다) .md
- OpenClaw 특집: 생태계 분석 🦞 .md
- 논문 읽기: 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》 (BERT: 언어 이해를 위한 깊은 양방향 트랜스포머 사전학습) .md
- 논문 읽기: 《Sequence to Sequence Learning with Neural Networks》 (신경망을 이용한 시퀀스-투-시퀀스 학습) .md
- Clawdbot: 주목할 만한 탈중앙화 오픈소스 AI 프로젝트 .md
- 논문 읽기: 《Neural Machine Translation by Jointly Learning to Align and Translate》 (정렬과 번역을 공동으로 학습하는 신경 기계 번역) .md
- 논문 읽기: 《Attention Is All You Need》 (어텐션만 있으면 충분하다) .md
- 👋 Hello World .md