目录索引
通过Ollama更新日志看2024年开源LLM发展状况
| 时间 | 版本号 | 新加入模型 | Ollama新功能 |
|---|---|---|---|
| Jan 6 | v0.1.18 | TinyLlama(1.1B) OpenHermes2(Mistral-based,7B) WizardCoder(Code, 33B) Dolphin Phi(Microsoft,uncensored, 2.7B) |
注:支持GPUs with 4GB of memory or less |
| Jan 10 | v0.1.19 | LLaMa-Pro(Tencent, 8B) | 增加了提高context size的设置 |
| Jan 11 | v0.1.20 | MegaDolphin(120B) OpenChat Dolphin Mistral(DPO训练的模型) |
Multi-GPU support |
| Jan 26 | v0.1.21 | Qwen (Alibaba, 1.8B to 72B) DuckDB-NSQL(text-to-sql) Stable Code (llama-based, 7B) Nous Hermes 2 Mixtral |
Suppot more CPUs(CPUs without AVX) Support MESSAGE Modelfile to set vonversation history |
| Jan 27 | v0.1.22 | Stable LM 2 (1.6B) | |
| Feb 2 | v0.1.23 | Llava(视觉,7B,13B,34B) | 支持Vision视觉模型 新增支持更多英伟达GPU keep_alive 模型加载保持时间设置 |
| Feb 8 | v0.1.24 | Qwen1.5(Alibaba,0.5B to 72B) | 提供OpenAI兼容格式的API服务 |
| Feb 15 | v0.1.25 | 支持Windows操作系统 keep_alive -1 支持模型永久导入模式 |
|
| Feb 21 | v0.1.26 | 支持embedding模型(bert, nomic-bert) | |
| Feb 23 | v0.1.27 | Gemma (Google, 2B, 7B) | |
| Mar 2 | v0.1.28 | StarCoder2 (3B, 7B, 15B) DolphinCoder (Code, 15B) llava 1.6 (视觉) |
改进了视觉模型回答文本问题的能力 支持llava 1.6模型 |
| Mar 15 | v0.1.29 | 开始支持AMD显卡 测试:Modelfile支持导入safetensors模型 |
|
| Mar 29 | v0.1.30 | Command R mxbai-embed-large(embedding) |
支持 AMD MI300 and MI300X 加速器 |
| 时间 | 版本号 | 新加入模型 | Ollama新功能 |
|---|---|---|---|
| Apr 5 | v0.1.31 | Qwen 1.5(Alibaba, 32B) StarlingLM Beta(7B) DolphinCoder StarCoder 7B(Code, 7B) StableLM 1.6 Chat |
正式声称支持embedding模型 |
| Apr 17 | v0.1.32 | WizardLM 2 (微软,Mistral model-based,8x22B,7B) Snowflake Arctic Embed(embedding) Command R+ (For RAG) DBRX (132B) Mixtral 8x22B |
|
| May 3 | v0.1.33 | Llama 3 (Meta) Phi 3 Mini(Microsoft, 3.8B) Moondream (视觉) Llama 3 Gradient 1048K(1M context window) Dolphin Llama 3 Qwen 110B (Qwen系列第一个超过100B模型) |
测试功能:单模型同时多请求;多模型导入支持 |
| May 8 | v0.1.34 | Llava Llama 3(视觉) Llava Phi 3(视觉) StarCoder2 15B InstructB(Code, 15B) CodeGemma 1.1(Google) StableLM2 12B (Stability AI) Moondream 2 (视觉) |
|
| May 11 | v0.1.35 | Llama 3 ChatQA(NVIDIA, for QA and RAG) | 支持create时对模型进行量化设置 |
| May 11 | v0.1.36 | ||
| May 12 | v0.1.37 | ||
| May 16 | v0.1.38 | Falcon 2(TII, 11B) Yi 1.5(零一万物,6B, 9B, 34B) |
新命令支持:ollama ps(列出导入模型的信息);clear(清楚历史对话记录) |
| May 29 | v0.1.39 | Cohere Aya 23(multilingual 23种语言) Mistral 7B 0.3 (Mixtral,7B,支持function calling) Phi-3 Medium(微软,14B) Phi-3 Mini 128K and Phi-3 Medium 128K Granite code(by IBM) |
支持直接导入HF的llama3模型(safetensor格式) |
| Jun 1 | v0.1.40 | Codestral(Mistral AI, Code) Granite Code(IBM, 3B, 8B) Deepseek V2(MoE) |
|
| Jun 2 | v0.1.41 | ||
| Jun 8 | v0.1.42 | Qwen 2 系列(Alibaba) | 支持Electron 和 Tauri 的本地开发访问 |
| Jun 12 | v0.1.43 | 更新了import.md的模型导入说明 | |
| Jun 14 | v0.1.44 | ||
| Jun 21 | v0.1.45 | DeepSeek-Coder-V2 (16B, 236B MoE模型) | 增加了ollama show的信息(context length, embedding length etc) |
| Jun 25 | v0.1.46 | ||
| Jun 27 | v0.1.47 | Gemma 2 models (Google,9B and 27B) | 支持Gemma 2 models (9B and 27B) |
| Jun 29 | v0.1.48 | fix与Gemma2相关的问题 |
| 时间 | 版本号 | 新加入模型 | Ollama新功能 |
|---|---|---|---|
| Jul 9 | v0.2.0 | GLM-4 CodeGeeX4 Gemma 2 |
支持单模型并行访问 支持同时启动多模型 |
| Jul 9 | v0.2.1 | ||
| Jul 13 | v0.2.2 | ||
| Jul 13 | v0.2.3 | ||
| Jul 14 | v0.2.4 | ||
| Jul 14 | v0.2.5 | ||
| Jul 19 | v0.2.6 | Mathstral(Mistral AI, 7B) | |
| Jul 19 | v0.2.7 | ||
| Jul 23 | v0.2.8 | Mistral Nemo(Mistral AI and NVIDIA, 12B, 128K context) NuExtract (Phi-3-based, 3.8B) |
|
| Jul 26 | v0.3.0 | Llama 3.1(Meta, 8B, 70B, 405B, tool calling) Mistral Large 2(Mistral AI, 123B, 128K context, code, tool) Firefunction v2 (llama3-based, function calling) Llama-3-Groq-Tool-Use (tool calling) |
支持tool calling (Functions and APIs, Web browsing, Code Interpreter) |
| Jul 31 | v0.3.1 | Gemma 2 2B(google,2B) | support min_p 参数 |
| Aug 1 | v0.3.2 | ||
| Aug 2 | v0.3.3 | ||
| Aug 7 | v0.3.4 | BGE-M3(BAAI, embedding) BGE-Large (embedding) Paraphrase-Multilingual(embedding, 50 languages) |
new embedding API with batch support |
| Aug 12 | v0.3.5 | ||
| Aug 14 | v0.3.6 | support Create Phi-3 models from Safetensors | |
| Aug 27 | v0.3.7 | Hermes 3(tool calling) Phi 3.5 (微软,3.8B) SmolLM (135M, 360M, 1.7B) |
CUDA12 support |
| Aug 28 | v0.3.8 | ||
| Sep 1 | v0.3.9 | ||
| Sep 7 | v0.3.10 | MiniCPM-V (multi-modal) Yi-Coder(10B) DeepSeek-V2.5 |
|
| Sep 18 | v0.3.11 | Solar-Pro-Preview(22B) Qwen 2.5 (18T train data, 128K context) Bespoke-Minicheck Mistral-Small(22B for translation and summarization etc) Reader-LM (0.5B, 1.5B, convert HTML content to Markdown) |
|
| Sep 23 | v0.3.12 | Llama 3.2 (Meta, 1B, 3B) Qwen 2.5 Coder (Code generation, code reasoning, code fixing) |
supports ARM Windows machines |
| 时间 | 版本号 | 新加入模型 | Ollama新功能 |
|---|---|---|---|
| Oct 12 | v0.3.13 | Safty: Llama Guard 3(Meta) Safty: ShieldGemma(Google) |
|
| Oct 18 | v0.3.14 | Granite 3 MoE(IBM, 1B, 3B) Granite 3 Dense(IBM, 2B, 8B, Code, RAG, tool) |
|
| Oct 21 | v0.4.0 | Llama 3.2 Vision(Meta, 11B, 90B) | Support Llama3.2 Vision 支持直接导入Safetensors模型(不需要Modelfile) |
| Nov 8 | v0.4.1 | ||
| Nov 15 | v0.4.2 | Qwen 2.5 Coder (Alibaba, 0.5B, 1.5B, 3B, 7B, 14B and 32B) OpenCoder(1.5B, 8B) Athene V2 (Math, 72B) |
supports NVIDIA Jetson |
| Nov 21 | v0.4.3 | Tülu 3 Mistral Large |
|
| Nov 23 | v0.4.4 | Marco-o1 (Alibaba, 7B, reasoning model) | |
| Nov 25 | v0.4.5 | Ollama Python Library 升级(Python functions can now be provided as tools to models) | |
| Nov 27 | v0.4.6 | QwQ(Alibaba Qwen team, 32B, advancing AI reasoning) | |
| Nov 30 | v0.4.7 |