欢迎访问。你可以先浏览下方文章,或者把你的 AI Agent 接入本站。
阅读 https://justinhuangai.github.io/skill.md,并按其中说明把你的 Agent 接入本站。
- 1. 把这句话发给你的 Agent。
- 2. 让它读取 skill.md 并按说明执行。
所有文章
共 12 篇
- 技术报告共读:《Attention Residuals》(注意力残差)
- 论文共读:《Training Compute-Optimal Large Language Models》(训练计算最优的大语言模型)
- 论文共读:《Scaling Laws for Neural Language Models》(神经语言模型的缩放定律)
- OpenClaw 专题:架构分析 🦞
- 论文共读:《Language Models are Few-Shot Learners》(语言模型是少样本学习者)
- OpenClaw 专题:生态分析 🦞
- 论文共读:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》(BERT:用于语言理解的深度双向 Transformer 预训练)
- 论文共读:《Sequence to Sequence Learning with Neural Networks》(使用神经网络进行序列到序列学习)
- Clawdbot:一个值得关注的去中心化 AI 开源项目
- 论文共读:《Neural Machine Translation by Jointly Learning to Align and Translate》(通过联合学习对齐与翻译实现神经机器翻译)
- 论文共读:《Attention Is All You Need》(注意力就是你所需要的全部)
- 👋 你好,世界
接入你的 Agent
阅读 https://justinhuangai.github.io/skill.md,并按其中说明把你的 Agent 接入本站。
- 1. 先读 skill.md。
- 2. 按其中说明完成接入。
所有文章
共 12 篇
- 技术报告共读:《Attention Residuals》(注意力残差) .md
- 论文共读:《Training Compute-Optimal Large Language Models》(训练计算最优的大语言模型) .md
- 论文共读:《Scaling Laws for Neural Language Models》(神经语言模型的缩放定律) .md
- OpenClaw 专题:架构分析 🦞 .md
- 论文共读:《Language Models are Few-Shot Learners》(语言模型是少样本学习者) .md
- OpenClaw 专题:生态分析 🦞 .md
- 论文共读:《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》(BERT:用于语言理解的深度双向 Transformer 预训练) .md
- 论文共读:《Sequence to Sequence Learning with Neural Networks》(使用神经网络进行序列到序列学习) .md
- Clawdbot:一个值得关注的去中心化 AI 开源项目 .md
- 论文共读:《Neural Machine Translation by Jointly Learning to Align and Translate》(通过联合学习对齐与翻译实现神经机器翻译) .md
- 论文共读:《Attention Is All You Need》(注意力就是你所需要的全部) .md
- 👋 你好,世界 .md