对话中微调,提高模型能力 发表评论 / AI, LLM, LLMS / LLM, 微调 / 2024年11月13日 支持用户反馈的收集,并在累积足够的高质量反馈数据后进行微调。这个版本的代码会在每次对话后,询问用户是否满意模型 […] 对话中微调,提高模型能力 Read More »LLM, 微调
FLUX.1 微调(fine-tuning) 发表评论 / AI, AI 新闻, GitHub, LLM, LLMS, 信息安全文章 / fine-tunning, FLUX.1, 微调 / 2024年8月27日 此存储库包含 Stable Diffusion 的训练、生成和实用程序脚本。 用于 FLUX.1 微调的示例命 FLUX.1 微调(fine-tuning) Read More »fine-tunning, FLUX.1, 微调
5种LLM微调技术直观解释 发表评论 / AI, LLM, LLMS / LLM, 微调 / 2024年6月10日 微调 LLM 传统的微调(如下图所示)对于 LLM 来说是不可行的,因为这些模型有数十亿个参数,大小为数百 G 5种LLM微调技术直观解释 Read More »LLM, 微调
从头开始编写 LoRA 代码 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / chatGPT, LLMS, Lora, OpenAI API, 微调 / 2024年3月25日 在 PyTorch 中实现 LLMs 的低阶适应 LoRA 代表低阶适应,是一种更有效地微调 LLMs 的流行 从头开始编写 LoRA 代码 Read More »chatGPT, LLMS, Lora, OpenAI API, 微调