跳转到主要内容

⚙️ 前置条件

  • 如果尚未安装,请按照安装指南安装 nexa-SDK。
  • MLX 模型仅在 macOS 上运行。建议至少 16GB RAM
  • 下列为可立即体验的 MLX 兼容模型类型。

LLM - 语言模型

📝 MLX 格式的语言模型。快速体验示例: 试试:
bash
nexa infer NexaAI/Qwen3-0.6B-bf16-MLX
⌨️ 模型加载完成后,直接在 CLI 中输入或粘贴多行文本与模型聊天。

LMM - 多模态模型

🖼️ 可同时接受视觉与/或音频输入的语言模型。MLX 格式的 LMM 快速体验示例:
bash
nexa infer NexaAI/gemma-3-4b-it-8bit-MLX
⌨️ 可直接将图片或音频拖入 CLI——甚至可以一次性拖入多张图片!

支持模型列表

我们精选了一组高质量的 MLX 格式模型:
Hugging Face 的 mlx-community 中有不少 MLX 模型质量不稳定,可能无法在本地正常运行。我们建议使用自家合集中的模型以获得最佳效果。
更多高级模型可访问 Nexa Model Hub。下载与使用这些模型需要访问令牌;获取方式如下:
  • sdk.nexa.ai 创建账号
  • 生成令牌:进入 Deployment → Create Token
  • 激活 SDK:在终端设置你的许可证:
bash
nexa config set license '<your_token_here>'

🙋 请求新模型

缺少你想要的模型?在 Nexa 心愿单 投票——我们会优先支持得票最高的模型! 你也可以在 nexa-sdk GitHub 提交 Issue,或在我们的 Discord/Slack 社区提出请求。