Moxin AI 主页图片

模型中心

探索我们的开源模型家族,每个模型都针对特定任务进行了优化,从通用用途到高级推理和多模态理解。

Moxin-7B-Base

这是我们的基础预训练模型,是希望创建高度定制化、精调模型的科研人员和开发者的理想选择。它基于增强型 Mistral 架构,使用超过2万亿个来自精选开放数据集的 token 进行训练。

Moxin-7B-Instruct

一款经过微调、遵循指令且无害的AI助手,适用于指令遵循和对话任务。该模型是使用 Tülu 3 开放框架,通过对基础模型进行有监督微调 (SFT) 和直接偏好优化 (DPO) 创建的。

Moxin-7B-Reasoning

一款专为数学、逻辑和编码等复杂任务设计,具备高级推理能力的专家模型。它通过组相对策略优化 (GRPO) 得到增强,证明了强化学习即使对于 7B 规模的模型也极为有效。

Moxin-7B-VLM

一款强大的视觉语言模型 (VLM),用于复杂的多模态理解。它使用 Moxin-7B-Base 作为其 LLM 骨干,并结合了 DINOv2 和 SigLIP 视觉编码器。这款 VLM 在关键基准测试中优于其他具有相似骨干的模型。

准备好构建了吗?

所有 Moxin AI 模型、代码和数据均可在 Hugging Face 和 GitHub 上获取。立即开始您的实验和创新吧!