Moxin LLM/VLM
真正开放,完全可复现

在零样本任务上实现了SOTA(最先进)性能,专为高效运行而设计,尤其适用于边缘设备。

Moxin AI 主页图片
Moxin AI 核心理念: 真正开放,完全可复现,高性能。

核心特性

为何选择 Moxin AI?

探索 Moxin AI 的优势,专为寻求透明且强大的语言模型的开发者和研究人员而设计。

彻底的开放性与可复现性

我们提供模型权重、详细的训练数据构成和脚本,确保透明度,并支持深入研究和定制。

SOTA级性能

在多个零样本基准测试中取得了SOTA(最先进)成果,性能媲美DeepSeek等领先模型。

强大的边缘AI引擎

Moxin AI 旨在成为开源边缘语言模型的领导者,性能可与Phi和Gemma媲美,并具有卓越的可复现性。

先进的技术栈

采用GPRO增强学习和Tokenizer MOE架构,以提升性能和效率。

无缝OminiX集成

配合自主研发的OminiX推理和微调引擎,可在包括国产NPU在内的各种边缘硬件上实现最佳性能。

数据透明度与可定制性

可访问模型权重、训练数据构成和脚本,从而能针对机器人或翻译等特定应用进行高效微调。

应用潜力

Moxin AI:开启无限可能

Moxin AI 的灵活性开启了广泛的创新应用之门。

机器人指令微调

利用数据透明性,高效微调 Moxin AI,使其适用于特定的机器人指令和应用。

专业翻译

通过专业术语定制模型,实现高质量、特定领域的翻译任务。

边缘AI创新

直接在手机和个人电脑等设备上运行AI应用,确保数据隐私和低延迟。

研究与开发

Moxin AI 的开放性和可复现性使其成为学术研究和探索AI新前沿的理想平台。

Moxin 生态系统

Moxin 个人AI堆栈

全面的AI生态系统

Moxin AI 与 MoFa、Moly 和 OminiX 共同构成了 Moxin 个人AI堆栈,旨在建立强大的贡献者社区。

Moxin AI:核心模型

一个高性能、真正开放且完全可复现的语言模型,是整个生态系统的核心。

MoFa:智能代理框架

利用 Moxin AI 的能力构建智能代理。

Moly:Rust LLM客户端

开发者工具,包括一个Rust LLM客户端,用于与 Moxin 生态系统进行交互。

OminiX:边缘推理与微调引擎

确保 Moxin AI 在边缘设备上高效运行,并实现优化性能。

开始使用 Moxin AI

第一步:探索模型

访问我们的Hugging Face页面,了解 Moxin AI 模型,如 Moxin-7B-Base, Chat, Instruct, 和 Reasoning。

第二步:获取资源

查看我们的GitHub仓库,获取技术报告、脚本以及使用和微调 Moxin AI 的指南。

第三步:使用 OminiX 部署

利用 OminiX 引擎,在您的边缘设备上部署 Moxin AI,以获得最佳性能。

准备好创新!

开始使用真正开放且可复现的LLM构建您的AI应用吧。

使用 Moxin AI 的步骤概念图

Moxin AI 常见问题解答

关于 Moxin AI 的常见问题

了解关于 Moxin AI 功能、开放性以及如何参与的常见问题解答。

Moxin AI 为何称之为“真正开放”?

Moxin AI 不仅提供模型权重,还提供详细的训练数据构成和脚本,实现了完全的可复现性和深度定制。

Moxin AI 的主要技术优势是什么?

Moxin AI 采用GPRO增强学习和Tokenizer MOE架构,助力其实现SOTA级性能和效率,尤其是在边缘设备上。

如何 Moxin AI 在边缘设备上运行?

Moxin AI 专为边缘AI设计,可利用OminiX推理和微调引擎高效运行,该引擎针对包括NPU在内的各种硬件进行了优化。

我可以使用 Moxin AI 构建哪些应用?

其可定制性使其适用于多种应用,包括机器人技术、专业翻译、设备端智能助手以及本地知识库应用等。

我如何为 Moxin AI 项目做出贡献?

我们欢迎您的贡献!您可以参与模型优化、开发新的用例、改进文档或协助构建OminiX引擎。加入我们的GitHub和Discord社区了解更多。

我在哪里可以找到 Moxin AI 模型和资源?

模型可在 Hugging Face (moxin-org) 获取,您可以在我们的GitHub仓库 (moxin-org/Moxin-LLM) 找到代码、技术报告等更多内容。

2K+
Hugging Face 下载量
124+
GitHub 星标数
4+
活跃模型数量
持续增长
社区成员

加入 Moxin
社区

成为真正开放、可复现、高性能AI运动的一部分。立即开始构建和贡献吧!