vLLM:大规模提供 LLM
此环境提供了 vLLM 服务引擎的高性能部署,该引擎针对大规模服务大型语言模型进行了优化。 […]
SimpleTuner 是一个专门用于训练优化的一组实验脚本的存储库。该项目旨在简化代码,重点是使代码易于阅读
专门用于训练优化的 SimpleTuner Read More »
我们很高兴正式发布 trl 与 peft 的集成,使任何人都可以更轻松
在一张 24 GB 的消费级显卡上用 RLHF 微调 20B LLMs Read More »
介绍 我们很高兴分享“万事通”(Jack of All Trades,简称 JAT) 项目,该项目旨在朝着通用
万事通,专精部分领域的多功能 Transformer 智能体 Read More »
最先进的监督微调初学者指南 最近发布的 Llama 3.1 为模型提供了令人难以置信的性能水平,缩小了闭源和开
使用 Unsloth 超高效微调 Llama 3.1 Read More »
如果你认为删除你的互联网历史记录就足够了,你就错了。 你的互联网活动仍然被储存。 下面是一个彻底删除你的互联网
删除你的 google 用户的互联网记录? Read More »
texlive-full 和 texlive 是两个不同的 TeX Live 包,在内容和用途上有所区别: 1
texlive-full 和 texlive 的区别 Read More »
Falcon Mamba 是阿布扎比技术创新研究所 (TII) 根据 TII Falcon
欢迎 FalconMamba:首款强大的无关注 7B 型号 Read More »
揭示了 的LLMs函数调用过程中的一个严重漏洞,引入了一种新颖的“越狱函数”攻击方法,该方法利用对齐差异、用户
LLMs函数调用过程中的一个严重漏洞 Read More »