Windows x64 安装
下载安装程序:运行下载的 .exe 文件,并按照安装向导完成安装。运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
当前处于测试范围的功能包含 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!
Windows ARM64 安装
下载安装程序:运行下载的 .exe 文件,并按照安装向导完成安装。运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
当前处于测试范围的功能包含 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!
NPU 加速(Snapdragon X Elite)
硬件要求: 以下 NPU 加速的模型目前仅在 Qualcomm Snapdragon X Elite 笔记本上运行。
如果你拥有 Snapdragon X Elite PC,可以运行旗舰多模态模型 OmniNeural-4B,并获得 NPU 加速:OmniNeural-4B(多模态 NPU 模型)语音输入模式: 程序运行后,可在终端直接录音:按下 CTRL + C 停止录音,随后回车发送。文件输入: 将图像/音频文件拖入命令行:> describe this image '/path/to/image.jpg' '/path/to/audio.wav'
Linux 安装
运行以下命令下载并安装:curl -fsSL /path/to/install.sh -o install.sh && chmod +x install.sh && ./install.sh
运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
我们目前支持 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!