跳转到主要内容

🖥️ 支持设备

NPU 模型支持在 Qualcomm 神经处理单元(NPU)上运行:
  • Nexa CLI:Qualcomm Snapdragon NPU PC
  • NexaML:任意 Qualcomm NPU 设备(联系我们 申请访问权限)

⚙️ 前置条件

  • 如果尚未安装,请先安装 nexa-SDK。
  • 使用任何 NPU 模型前都需要先获取访问令牌(token):
    • sdk.nexa.ai 创建账号或登录
    • 生成令牌:进入 Deployment → Create Token
    • 激活 SDK:在终端设置你的许可证:
    bash
    nexa config set license '<your_token_here>'
    

LLM - 语言模型

📝 以 NPU 格式提供的语言模型。快速体验示例:
bash
nexa infer NexaAI/qwen3-4B-npu
⌨️ 模型加载完成后,直接在 CLI 中输入或粘贴多行文本与模型聊天。

LMM - 多模态模型

🖼️ 同时接受视觉与/或音频输入的语言模型。NPU 格式的 LMM 快速体验示例:
bash
nexa infer NexaAI/OmniNeural-4B
⌨️ 可直接将图片或音频拖入 CLI——甚至可以一次性拖入多张图片!

支持模型列表

我们精选了一组高质量的 NPU 格式模型:

Qualcomm NPU 模型

更多高级模型可访问 Nexa Model Hub。下载与使用这些模型需要访问令牌;请参见本页的 前置条件 获取方式。

🙋 请求新模型

缺少你想要的模型?在 Nexa 心愿单 投票——我们会优先支持得票最高的模型! 你也可以在 nexa-sdk GitHub 提交 Issue,或在我们的 Discord/Slack 社区提出请求。