混合代理 Mixture-of-Agents (MoA)

混合代理 (MoA) 是一种新颖的方法,它利用多个LLMs代理的集体优势来提高绩效,实现最先进的结果。通过采用分层架构,每层包含多个LLM代理,MoA 在仅使用开源模型的情况下,在 AlpacaEval 2.0 上的表现显着优于 GPT-4 Omni 的 57.5%,得分为 65.1%!

具体内存请参照:https://github.com/togethercomputer/MoA

下面是修改后的代码,使用 ollama 来进行测试:

下面是运行的结果

这个其实就是每个模型响应一遍,然后让一个模型从这些响应获得更标准的答案。

上面测试的模型比较大,其实可以尝试不同的小模型进行混合,或许会比单一模型给出的答案好一点。

下面是小模型的一些修改:

运行结果:

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部