Ollama 支援 Kimi-K2.5、GLM-5、MiniMax、DeepSeek、Qwen、Gemma 等多模型
Ollama 是本地開源模型執行平台,現已支援 Kimi-K2.5、GLM-5、MiniMax、DeepSeek、gpt-oss、Qwen、Gemma 等系列模型的一鍵拉取和本地推理。提供 macOS、Windows、Linux 多平台安裝腳本,搭配 llamafile 等工具,無需 GPU 也能流暢執行大型語言模型,是個人開發者快速驗證 AI 能力的最低門檻方案。
Ollama 是本地開源模型執行平台,現已支援 Kimi-K2.5、GLM-5、MiniMax、DeepSeek、gpt-oss、Qwen、Gemma 等系列模型的一鍵拉取和本地推理。提供 macOS、Windows、Linux 多平台安裝腳本,搭配 llamafile 等工具,無需 GPU 也能流暢執行大型語言模型,是個人開發者快速驗證 AI 能力的最低門檻方案。