Learning LLM is all you need.
👉 点击 LearnLLM.AI | 学习大模型,从这里开始
精选大模型面试题库:覆盖从基础到前沿的实战题目,助您高效备战求职,抓住职业机遇;
系统化论文研读:从2017年Transformer奠基性论文出发,按清晰的知识体系梳理技术演进,适合不同基础的开发者循序渐进地深度提升。
专属优惠码
我们为Github用户准备了限时专属优惠码:GITHUB50 ,期待在 LearnLLM.AI 与您继续同行,共同成长!
配套视频教程(持续更新中):
👉 点击这里 bilibili
👉 点击这里 YouTube
如有疑问,欢迎随时联系我们。
Happy Learning!
LearnLLM.AI 团队
| 时间 | 论文 | 介绍 | 视频 | 开始学习 |
| — | — | — | — | — |
| 2017-06-12 | Transformer | 提出自注意力与 Transformer 架构 |
| |
| 2018-06-11 | GPT-1 | 预训练 + 微调的生成式 Transformer |
| |
| 2018-10-11 | BERT | 双向编码器:MLM + NSP |
| |
| 2019-02-14 | GPT-2 | 大规模无监督文本生成 |
| |
| 2019-10-23 | T5 | 文本到文本统一框架 |
| |
| 2020-05-28 | GPT-3 | 大模型与少样本学习能力 |
| |
| 2021-07-07 | CodeX | 面向代码生成的 GPT 系列模型 |
| |
| 2022-02-08 | AlphaCode | 竞赛级代码生成系统 |
| |
| 2022-03-04 | InstructGPT | 人类反馈对齐与指令微调 |
| |
| 2023-02-27 | LLaMA-1 | 高效开源预训练基座模型 | |
|
| 2023-07-18 | LLaMA-2 | LLaMA 升级版,开放商用 | |
|
| 2023-09-28 | Qwen 1 | 通义千问第一代基座模型 | |
|
| 2023-10-10 | Mistral 7B | 高效 7B 级开源模型 | |
|
持续更新中…