mirror of
https://github.com/QYG2297248353/appstore-1panel.git
synced 2025-02-18 08:00:30 +08:00
feat: 优化 Ollama 等应用描述信息
This commit is contained in:
parent
e21edc0850
commit
087d09d594
@ -1,12 +1,12 @@
|
|||||||
name: Open WebUI
|
name: Ollama WebUI
|
||||||
tags:
|
tags:
|
||||||
- AI
|
- AI
|
||||||
title: 面向 LLM 的用户友好型 WebUI
|
title: 面向 LLM 的用户友好型 WebUI
|
||||||
type: AI
|
type: AI
|
||||||
description: 面向 LLM 的用户友好型 WebUI
|
description: 面向 LLM 的用户友好型 WebUI
|
||||||
additionalProperties:
|
additionalProperties:
|
||||||
key: open-webui
|
key: ollama-webui
|
||||||
name: Open WebUI
|
name: Ollama WebUI
|
||||||
tags:
|
tags:
|
||||||
- AI
|
- AI
|
||||||
shortDescZh: 面向 LLM 的用户友好型 WebUI
|
shortDescZh: 面向 LLM 的用户友好型 WebUI
|
Before Width: | Height: | Size: 8.7 KiB After Width: | Height: | Size: 8.7 KiB |
@ -2,8 +2,36 @@
|
|||||||
|
|
||||||
**Ollama** 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
|
**Ollama** 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
|
||||||
|
|
||||||
## 优势:
|
## 快速开始
|
||||||
|
|
||||||
- 提供类似OpenAI的简单内容生成接口,极易上手使用;
|
> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [Llama 2](https://ollama.com/library/llama2) 聊天:
|
||||||
- 类似ChatGPT的的聊天界面,无需开发直接与模型聊天;
|
|
||||||
- 支持热切换模型,灵活多变。
|
```
|
||||||
|
ollama run llama2
|
||||||
|
```
|
||||||
|
|
||||||
|
## 模型库
|
||||||
|
|
||||||
|
Ollama 支持 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型
|
||||||
|
|
||||||
|
以下是一些可以下载的示例模型:
|
||||||
|
|
||||||
|
| Model | Parameters | Size | Download |
|
||||||
|
| ------------------ | ---------- | ----- | ------------------------------ |
|
||||||
|
| Llama 2 | 7B | 3.8GB | `ollama run llama2` |
|
||||||
|
| Mistral | 7B | 4.1GB | `ollama run mistral` |
|
||||||
|
| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` |
|
||||||
|
| Phi-2 | 2.7B | 1.7GB | `ollama run phi` |
|
||||||
|
| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` |
|
||||||
|
| Starling | 7B | 4.1GB | `ollama run starling-lm` |
|
||||||
|
| Code Llama | 7B | 3.8GB | `ollama run codellama` |
|
||||||
|
| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` |
|
||||||
|
| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` |
|
||||||
|
| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` |
|
||||||
|
| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` |
|
||||||
|
| Vicuna | 7B | 3.8GB | `ollama run vicuna` |
|
||||||
|
| LLaVA | 7B | 4.5GB | `ollama run llava` |
|
||||||
|
| Gemma | 2B | 1.4GB | `ollama run gemma:2b` |
|
||||||
|
| Gemma | 7B | 4.8GB | `ollama run gemma:7b` |
|
||||||
|
|
||||||
|
> 注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
|
||||||
|
@ -1,20 +1,20 @@
|
|||||||
name: Ollama
|
name: Ollama
|
||||||
tags:
|
tags:
|
||||||
- AI
|
- AI
|
||||||
title: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
title: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||||
type: AI
|
type: AI
|
||||||
description: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
description: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||||
additionalProperties:
|
additionalProperties:
|
||||||
key: ollama
|
key: ollama
|
||||||
name: Ollama
|
name: Ollama
|
||||||
tags:
|
tags:
|
||||||
- AI
|
- AI
|
||||||
shortDescZh: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
shortDescZh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||||
shortDescEn: Get up and running with Llama 2, Mistral, Gemma, and other large language models
|
shortDescEn: Locally run Llama 2, Mistral, Gemma, and other large language models
|
||||||
type: tool
|
type: tool
|
||||||
crossVersionUpdate: true
|
crossVersionUpdate: true
|
||||||
limit: 0
|
limit: 0
|
||||||
recommend: 0
|
recommend: 50
|
||||||
website: https://ollama.com/
|
website: https://ollama.com/
|
||||||
github: https://github.com/ollama/ollama
|
github: https://github.com/ollama/ollama
|
||||||
document: https://github.com/ollama/ollama/blob/main/docs/README.md
|
document: https://github.com/ollama/ollama/blob/main/docs/README.md
|
||||||
|
Loading…
x
Reference in New Issue
Block a user