本项目旨在系统整理与分享深度学习与大语言模型(LLM)相关的核心知识、面试内容、实际应用场景及部署技巧。内容涵盖从基础概念、主流模型对比、Prompt 设计、模型微调到工程部署的完整流程,帮助开发者、研究者以及求职者高效掌握大模型领域的关键能力。
- 📚 计算机专业基础知识
- 🖥️ 开发
- 🐫 深度学习
- 🐱 神经网络
- 🪄 经典模型
- 🐎 RNN原理
- 🐏 LSTM&GRU原理
- 🎣 Transformer原理
- 🦋 Bert原理
- 🐹 基础知识
- 💽 硬件加速库
- 🦜 大模型
- 📚 基础知识
- 📑 大模型架构
- 📘 一文弄懂MOE
- 🔔 经典大模型
- 🤾♂️微调技术
- 🤸♀️一文搞懂什么是微调
- 🤸♂️一文搞懂微调技术的发展与演进
- 🤸LORA
- ⛹️一文搞懂LoRA如何高效微调大模型
- ⛹️♂️LoRA详细步骤解析
- ⛹️♀️一文搞懂如何用QLoRA高效微调大语言模型
- 🤾♀️一文理解AdaLoRA动态低秩适配技术
- 🚴♀️一文理解提示微调(Prefix Tuning_Prompt Tuning_P Tuning)
- 🚵♀️一文弄懂RLHF(基于人类反馈的强化学习)的核心原理
- 🚲从原理到实战:RLHF(人类反馈强化学习)完整流程
- 🚴♂️一文理解监督微调(SFT)在大语言模型训练中的作用
- 🚵♂️一文理解PPO的核心机制与大模型中的应用
- 🚴DPO是怎么通过偏好数据直接优化大模型的?
- 🚵GRPO:让大模型对齐更高效的优化方法
- 🍔大模型框架
- 🧐 RAG
- 📑 Data-Juicer原理及使用
- 🔔 论文/技术报告
- 🏀 GPT
- 📣LLAMA
- 🧙♀️DeepSeek
- 🧙♂️deepseek_llm
- 🧙deepseek_moe
- 🦸deepseek_v2
- 🦸♂️deepseek_v3
- 🦸♀️deepseek_r1
正在更新ing,如果小伙伴对其他内容感兴趣欢迎联系我们😊😊!
如有侵权请联系删除。
微信公众号:算法coting,该公众号主要分享深度学习与大语言模型(LLM)相关的核心知识、面试内容、实际应用场景及部署技巧等。
想找人一起:
🤔 深夜讨论模型结构优化?
💡 头脑风暴科研点子?
🧪 分享面试、比赛、科研经验?
那欢迎加入交流群【拿个大模型offer】\
在这里我们一起:
👉交流模型优化思路、训练加速技巧、复现经验;
👉分享博客内容背后的思考,探讨代码设计与实验细节;
👉吹水科研生活,也卷一卷代码人生。\
📌 群友包括:研究生、算法工程师、AI爱好者、自学深度学习的朋友们
🎯 目标是:打造一个真·有价值的成长社区!
📬 进群方式:扫描下方二维码添加我微信(备注“LLM进群 ”)
👇(由于人数限制,人数超过200就会加入新建的群)
我相信: “分享是一种信仰,连接让成长更有温度。”
如果你也在:
寻找方向、沉淀能力;
在技术 or 学术路上狂奔;
希望有伙伴、有资源、有灵感……
那就关注我吧,我们一起成长,一起搞事情!