LLM 量化(LLM Quantization)| GPTQ | QAT | AWQ | GGUF | GGML | PTQ 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / AWQ, GGUF, LLM, PTQ, QAT, QPTQ, Quantization / 2024年4月1日 这篇文章是关于你在讨论中LLM不断听到的各种量化技术。此处的目的是提供分步说明以及代码,您可以使用这些代码自行 LLM 量化(LLM Quantization)| GPTQ | QAT | AWQ | GGUF | GGML | PTQ Read More »AWQ, GGUF, LLM, PTQ, QAT, QPTQ, Quantization
一高中的高考模拟大题 发表评论 / 信息安全文章 / RSA, 模拟, 高考 / 2024年3月31日 这据说是河南一高中模拟考试的最后大题: 在密码学领域,欧拉函数是非常重要的,其中最著名的应用就是在RSA加密算 一高中的高考模拟大题 Read More »RSA, 模拟, 高考
了解 Qwen-VL 模型 发表评论 / ChatGPT, LLM, LLMS, OpenAI / 2024年3月30日 Qwen-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Mod 了解 Qwen-VL 模型 Read More »
了解 Qwen1.5模型 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / Qwen1.5 / 2024年3月30日 Qwen1.5 是 Qwen2 的测试版,Qwen2 是一种基于 Transformer 的纯解码器语言模型, 了解 Qwen1.5模型 Read More »Qwen1.5
了解 Jamba 模型 发表评论 / LLM, LLMS, 信息安全文章 / chatGPT, JamBa, OpenAI API / 2024年3月29日 对于 Transformers 系列模型,由于这些模型在自然语言处理(NLP)领域内非常流行,很多深度学习框架 了解 Jamba 模型 Read More »chatGPT, JamBa, OpenAI API
grok-1 的一次有效输出结果 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / grok-1 / 2024年3月28日 测试环境 windows, llama.cpp, cuda, 运行命令: grok-1 的一次有效输出结果 Read More »grok-1
Grok-1 的输出内容 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / grok-1 / 2024年3月28日 这个输出是一直不停啊,这是要把他训练的内容全部输出来? 测试环境 windows, llama.cpp, cu Grok-1 的输出内容 Read More »grok-1
从头开始编写 LoRA 代码 发表评论 / ChatGPT, GPT, LLM, LLMS, OpenAI / chatGPT, LLMS, Lora, OpenAI API, 微调 / 2024年3月25日 在 PyTorch 中实现 LLMs 的低阶适应 LoRA 代表低阶适应,是一种更有效地微调 LLMs 的流行 从头开始编写 LoRA 代码 Read More »chatGPT, LLMS, Lora, OpenAI API, 微调
修改 WSL2 可用内存大小和交换分区大小 发表评论 / Linux, Windows / Windows, WSL2 / 2024年3月21日 WSL2默认可以使用的内存大小为主机的80%,对于Linux而言即使装了桌面,一般的开发也没必要给这么多内存, 修改 WSL2 可用内存大小和交换分区大小 Read More »Windows, WSL2