从0开始构建自己的LLM

下面是一些从0开始构建自己的LLM:

完全从0开始,最快仅用3小时!即可训练出仅为26M大小的微型语言模型MiniMind。

https://github.com/jingyaogong/minimind

中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。

https://github.com/charent/ChatLM-mini-Chinese

用于从头预训练+SFT一个小参数量的中文LLaMa2的仓库;24G单卡即可运行得到一个具备简单中文问答能力的chat-llama2.

https://github.com/DLLXW/baby-llama2-chinese

从0开始,将chatgpt的技术路线跑一遍。

https://github.com/AI-Study-Han/Zero-Chatgpt

从零实现一个小参数量中文大语言模型。

https://github.com/wdndev/tiny-llm-zh

从0到1构建一个MiniLLM (pretrain+sft+dpo实践中)

https://github.com/Tongjilibo/build_MiniLLM_from_scratch

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部