Documentation Index
Fetch the complete documentation index at: https://docs.nexa.ai/llms.txt
Use this file to discover all available pages before exploring further.
安装并运行你的第一个模型
MacOS
Windows x64
Windows ARM64
Linux
MacOS 安装
根据你的 Mac 下载对应安装包:运行下载的 .pkg 文件,并按照安装向导完成安装。运行你的第一个模型
MacOS 支持 MLX(为 Apple Silicon 优化)与 GGUF 模型。语言模型(LLM)nexa infer NexaAI/Qwen3-4B-4bit-MLX
多模态模型nexa infer NexaAI/gemma-3n-E4B-it-4bit-MLX
Hugging Face 上
mlx-community 的部分 MLX 模型质量较不稳定,可能无法在本地正常运行。我们建议使用
我们的模型合集以获得最佳效果。
语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
Windows x64 安装
下载安装程序:运行下载的 .exe 文件,并按照安装向导完成安装。运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
当前处于测试范围的功能包含 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!
Windows ARM64 安装
下载安装程序:运行下载的 .exe 文件,并按照安装向导完成安装。运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
当前处于测试范围的功能包含 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!
NPU 加速(Snapdragon X Elite)
硬件要求: 以下 NPU 加速的模型目前仅在 Qualcomm Snapdragon X Elite 笔记本上运行。
如果你拥有 Snapdragon X Elite PC,可以运行旗舰多模态模型 OmniNeural-4B,并获得 NPU 加速:OmniNeural-4B(多模态 NPU 模型)语音输入模式: 程序运行后,可在终端直接录音:按下 CTRL + C 停止录音,随后回车发送。文件输入: 将图像/音频文件拖入命令行:> describe this image '/path/to/image.jpg' '/path/to/audio.wav'
Linux 安装
运行以下命令下载并安装:curl -fsSL /path/to/install.sh -o install.sh && chmod +x install.sh && ./install.sh
运行你的第一个模型
目前支持 LLM 与多模态模型,更多模型类型将陆续支持!语言模型(LLM)nexa infer NexaAI/Qwen3-0.6B
多模态模型nexa infer NexaAI/Qwen2.5-Omni-3B-GGUF
想尝试其他 GGUF 模型?访问 Hugging Face,复制任一兼容 GGUF 模型的路径(例如 unsloth/Qwen2.5-VL-3B-Instruct-GGUF),并替换上述命令中的模型路径。
我们目前支持 LLM(大语言模型)与 VLM(视觉语言模型)。更多模态将陆续支持!
探索 CLI 命令
查看所有可用的 CLI 命令: