MicroThinker 微思想家的微调过程
0. 简述 现在的AI研究大部分都在专注于提升AI的推理能力,这里我们微调了一个更小的1B实验模型 Micro […]
MicroThinker 微思想家的微调过程 Read More »
0. 简述 现在的AI研究大部分都在专注于提升AI的推理能力,这里我们微调了一个更小的1B实验模型 Micro […]
MicroThinker 微思想家的微调过程 Read More »
中文翻译: Zipxuan 本文也提供英文版本 English。 随着大语言模型(LLMs
将 LLMs 精调至 1.58 比特:使极端量化变简单 Read More »
作为一个C语言开发者,第一次知道 python 还能支持中文的参数和函数名,还要啥中文编译系统 User: 帮
python 任何有效的标识符作为变量名或函数名,包括中文字符 Read More »
这里测试的是开源模型是 meta-llama/Llama-3.1-405B-Instruct,属于开源模型里面
使用GPU内存和CPU内存装载大模型 Read More »
一、描述: 使用 AutoModelForCausalLM 来实现从两个教师模型(teacher1 和 tea
将两个教师模型的知识蒸馏到一个学生模型中 Read More »
[ Ai2 最新发布 Tülu 3,基于 Llama 3.1 模型,首次完全开源了顶级语言模型的后训练全套方案
Tülu 3: 开源语言模型后训练的下一个时代 Read More »