了解 LLaMA-2 模型结构(8)
13. 嵌入权重 在自然语言处理(NLP)和机器学习中,嵌入权重(embedding weights)是用于将 […]
了解 LLaMA-2 模型结构(8) Read More »
13. 嵌入权重 在自然语言处理(NLP)和机器学习中,嵌入权重(embedding weights)是用于将 […]
了解 LLaMA-2 模型结构(8) Read More »
12. 模型文件的配置信息 根据前面保存的模型文件 output/model.bin 的内容,可以知道,模型配
了解 LLaMA-2 模型结构(7) Read More »
11. 将字符串编码为令牌序列 在聊天的时候,需要把字符串通过 tokenizer 进行编码,命名为 test
了解 LLaMA-2 模型结构(6) Read More »
9. 转换 tokenizer.model 并保存 前面的章节转换模型的所有权重后,还需要转换 tokeniz
了解 LLaMA-2 模型结构(5) Read More »
8. 保存转换后的模型 转换模型的目的是为了使用c/c++来使用,前面的模型转换为自己的模型后,需要保存下来,
了解 LLaMA-2 模型结构(4) Read More »
7. 模型转换 把模型参数,转换为自己想要的模型参数,自己定义模型参数,参照 https://github.c
了解 LLaMA-2 模型结构(3) Read More »
5. 如何打印模型参数? 在使用像PyTorch这样的深度学习框架时,你可以通过几种方法打印模型的参数。以下是
了解 LLaMA-2 模型结构(2) Read More »
0. 前言 Llama2(有时拼写为LLaMA-2)是一个由Meta Platforms(以前的Faceboo
了解 LLaMA-2 模型结构(1) Read More »
12. Transformer层 transformer.h在GPT-2模型中指的是模型的多个Transfor
了解 OpenAI 的 gpt2 模型结构(4) Read More »
10. 位置编码 transformer.wpe.weight代表的是位置编码(Positional Enco
了解 OpenAI 的 gpt2 模型结构(3) Read More »