Moxin LLM/VLM
真正开放,完全可复现

在零样本任务上实现了SOTA(最先进)性能,专为高效运行而设计,尤其适用于边缘设备。

Moxin AI 主页图片
Moxin AI 核心理念: 真正开放,完全可复现,高性能。

核心特性

为何选择 Moxin AI?

专为开发者和研究人员设计的透明且强大的语言模型。

真正开放与可复现

完整提供模型权重、训练数据和脚本,确保透明度和可定制性。

SOTA级性能

在零样本基准测试中达到最先进水平,性能媲美DeepSeek等领先模型。

边缘AI优化

专为边缘设备设计,配合OminiX引擎实现高效性能。

先进架构

GPRO增强学习和Tokenizer MOE架构,提供卓越性能和效率。

应用场景

使用 Moxin AI 构建

灵活的AI,创新的应用。

机器人与自动化

针对特定机器人指令和工业应用进行微调。

边缘AI解决方案

在设备上直接运行AI,确保隐私和低延迟。

研究平台

完全可复现和透明,是学术研究的理想选择。

Moxin 生态系统

Moxin 个人AI堆栈

全面的AI生态系统

Moxin AI 与 MoFa、Moly 和 OminiX 共同构成了 Moxin 个人AI堆栈,旨在建立强大的贡献者社区。

Moxin AI:核心模型

一个高性能、真正开放且完全可复现的语言模型,是整个生态系统的核心。

MoFa:智能代理框架

利用 Moxin AI 的能力构建智能代理。

Moly:Rust LLM客户端

开发者工具,包括一个Rust LLM客户端,用于与 Moxin 生态系统进行交互。

OminiX:边缘推理与微调引擎

确保 Moxin AI 在边缘设备上高效运行,并实现优化性能。

开始使用 Moxin AI

第一步:下载模型

从Hugging Face获取Moxin AI模型:Base、Chat、Instruct和Reasoning版本。

第二步:使用OminiX部署

利用OminiX引擎在边缘设备上获得最佳性能。

开始构建!

使用真正开放且可复现的AI开始创造。

使用 Moxin AI 的步骤概念图

常见问题解答

常见问题

关于Moxin AI功能和使用的常见问题。

Moxin AI为何称之为"真正开放"?

完整提供模型权重、训练数据构成和脚本,实现完全可复现性。

如何在边缘设备上运行Moxin AI?

使用OminiX推理引擎,针对包括NPU在内的各种硬件进行了优化。

我可以构建哪些应用?

机器人技术、翻译、设备端智能助手和本地知识库应用等。

在哪里可以找到模型和资源?

模型在Hugging Face (moxin-org),代码和文档在GitHub (moxin-org/Moxin-LLM)。

2K+
Hugging Face 下载量
124+
GitHub 星标数
4+
活跃模型数量
持续增长
社区成员

加入 Moxin
社区

成为真正开放、可复现、高性能AI运动的一部分。立即开始构建和贡献吧!