从头开始编写 LoRA 代码
在 PyTorch 中实现 LLMs 的低阶适应 LoRA 代表低阶适应,是一种更有效地微调 LLMs 的流行 […]
Gemma 是 Google 的一系列轻量级、最先进的开放式模型, 基于用于创建双子座模型(state-of-
google/gemma-7b 的几种推理方法 Read More »
Hugging Face 已认证账号 47 人赞同了该文章 众所周知,LLM 规模庞大,如果在也能消费类硬件
用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM Read More »
13. 嵌入权重 在自然语言处理(NLP)和机器学习中,嵌入权重(embedding weights)是用于将
了解 LLaMA-2 模型结构(8) Read More »
12. 模型文件的配置信息 根据前面保存的模型文件 output/model.bin 的内容,可以知道,模型配
了解 LLaMA-2 模型结构(7) Read More »
11. 将字符串编码为令牌序列 在聊天的时候,需要把字符串通过 tokenizer 进行编码,命名为 test
了解 LLaMA-2 模型结构(6) Read More »
9. 转换 tokenizer.model 并保存 前面的章节转换模型的所有权重后,还需要转换 tokeniz
了解 LLaMA-2 模型结构(5) Read More »
8. 保存转换后的模型 转换模型的目的是为了使用c/c++来使用,前面的模型转换为自己的模型后,需要保存下来,
了解 LLaMA-2 模型结构(4) Read More »
7. 模型转换 把模型参数,转换为自己想要的模型参数,自己定义模型参数,参照 https://github.c
了解 LLaMA-2 模型结构(3) Read More »
5. 如何打印模型参数? 在使用像PyTorch这样的深度学习框架时,你可以通过几种方法打印模型的参数。以下是
了解 LLaMA-2 模型结构(2) Read More »