从0开始构建自己的LLM
下面是一些从0开始构建自己的LLM: 完全从0开始,最快仅用3小时!即可训练出仅为26M大小的微型语言模型Mi […]
AI 技术
在测量差异后,这个模型似乎是应用了 LoRA 调优的 Llama 3。不是 Llama 3.1。 参考链接:h
Reflection-Llama-3.1-70B 实际上是 Llama-3? Read More »
这个方法可以使用其他反编译不可读的环境? 在浏览 Internet 寻找灵感时,我发现了一个看起来有趣的组件。
基于 ChatGPT 对编译的JS代码进行逆向工程 Read More »
此存储库包含 Stable Diffusion 的训练、生成和实用程序脚本。 用于 FLUX.1 微调的示例命
FLUX.1 微调(fine-tuning) Read More »
可以使用vllm部署LongWriter模型。请参考vllm_inference.py中的代码,体验闪电般快速
LongWriter:释放长上下文LLM的10,000+字生成能力 Read More »
AI21 Jamba 1.5 系列模型是最先进的混合 SSM-Transformer 指令,遵循基础模型。Ja
AI21 Jamba 1.5 系列模型 Read More »