⚙️ 前置条件
- 如果尚未安装,请按照安装指南安装 nexa-SDK。
- MLX 模型仅在 macOS 上运行。建议至少 16GB RAM。
- 下列为可立即体验的 MLX 兼容模型类型。
LLM - 语言模型
📝 MLX 格式的语言模型。快速体验示例: 试试:bash
⌨️ 模型加载完成后,直接在 CLI 中输入或粘贴多行文本与模型聊天。
LMM - 多模态模型
🖼️ 可同时接受视觉与/或音频输入的语言模型。MLX 格式的 LMM 快速体验示例:bash
⌨️ 可直接将图片或音频拖入 CLI——甚至可以一次性拖入多张图片!
支持模型列表
我们精选了一组高质量的 MLX 格式模型:Hugging Face 的
mlx-community 中有不少 MLX 模型质量不稳定,可能无法在本地正常运行。我们建议使用自家合集中的模型以获得最佳效果。- 在 sdk.nexa.ai 创建账号
- 生成令牌:进入 Deployment → Create Token
- 激活 SDK:在终端设置你的许可证:
bash
🙋 请求新模型
缺少你想要的模型?在 Nexa 心愿单 投票——我们会优先支持得票最高的模型! 你也可以在 nexa-sdk GitHub 提交 Issue,或在我们的 Discord/Slack 社区提出请求。Was this page helpful?