MicroThinker 微思想家的微调过程
0. 简述 现在的AI研究大部分都在专注于提升AI的推理能力,这里我们微调了一个更小的1B实验模型 Micro […]
MicroThinker 微思想家的微调过程 Read More »
0. 简述 现在的AI研究大部分都在专注于提升AI的推理能力,这里我们微调了一个更小的1B实验模型 Micro […]
MicroThinker 微思想家的微调过程 Read More »
中文翻译: Zipxuan 本文也提供英文版本 English。 随着大语言模型(LLMs
将 LLMs 精调至 1.58 比特:使极端量化变简单 Read More »
下面是测试截图,21秒完成 思考过程: 下面是具体的聊天记录 Q: 帮我写个推箱子的小游戏,要有挑战性一点 C
ChatGpt o1-preview 编写推箱子的小游戏 Read More »
这个方法可以使用其他反编译不可读的环境? 在浏览 Internet 寻找灵感时,我发现了一个看起来有趣的组件。
基于 ChatGPT 对编译的JS代码进行逆向工程 Read More »
作者:Omar Sanseviero、Pedro Cuenca、Apolinário&nb
动手使用Transformers 和 Diffusion 模型的生成式 AI Read More »
这篇博文介绍了 SmolLM,这是一个具有 135M、360M 和 1.7B 参数的最先进的小型模型
SmolLM – 速度极快,功能强大 Read More »
本章涵盖 大型语言模型 (LLM),例如 OpenAI 的 ChatGPT 中提供的模型,是过去几年开发的深度
构建大型语言模型(从头开始)第一章 了解大型语言模型 Read More »