融合模型 Llama-3.1-8B-Fusion-9010

概述

Llama-3.1-8B-Fusion-9010是一个混合模型,它结合了两个强大的基于 Llama 的模型的优势:arcee-ai/Llama-3.1-SuperNova-Lite 和 mlabonne/Meta-Llama-3.1-8B-Instruct-abliterated。权重以 9:1 的比例混合,其中 90% 的权重来自 SuperNova-Lite,10% 来自被删减的 Meta-Llama-3.1-8B-Instruct 模型。虽然是简单的混合,但模型是可用的,并且没有出现乱码。 这是一个实验。我分别测试 9:18:27:36:4 和 5:5 的比率,以查看它们对模型的影响有多大。 所有模型评估报告将在随后提供。

型号详细信息

主要特点

  • SuperNova-Lite 贡献 (90%):Llama-3.1-SuperNova-Lite 是 Arcee.ai 开发的一个 8B 参数模型,基于 Llama-3.1-8B-Instruct 架构。
  • Meta-Llama-3.1-8B-Instruct-abliterated 贡献 (10%):这是 Llama 3.1 8B Instruct 的未经审查版本,使用消融创建。

用法

您可以通过使用 Hugging Face 的 transformers 库加载它来在您的应用程序中使用这个混合模型:

评估

以下数据已重新评估并计算为每次测试的平均值。

BenchmarkSuperNova-LiteMeta-Llama-3.1-8B-Instruct-abliteratedLlama-3.1-8B-Fusion-9010Llama-3.1-8B-Fusion-8020Llama-3.1-8B-Fusion-7030Llama-3.1-8B-Fusion-6040Llama-3.1-8B-Fusion-5050
IF_Eval82.0976.2982.4482.9383.1082.9482.03
MMLU Pro35.8733.135.6535.3234.9134.533.96
TruthfulQA64.3553.2562.6761.0459.0957.856.75
BBH49.4844.8748.8648.4748.3048.1947.93
GPQA31.9829.5032.2532.3832.6131.1430.6

原文链接:https://huggingface.co/huihui-ai/Llama-3.1-8B-Fusion-9010

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部