mirror of
https://github.com/QYG2297248353/appstore-1panel.git
synced 2024-11-25 06:28:47 +08:00
feat: 优化 Ollama 等应用描述信息
This commit is contained in:
parent
e21edc0850
commit
087d09d594
@ -1,12 +1,12 @@
|
||||
name: Open WebUI
|
||||
name: Ollama WebUI
|
||||
tags:
|
||||
- AI
|
||||
title: 面向 LLM 的用户友好型 WebUI
|
||||
type: AI
|
||||
description: 面向 LLM 的用户友好型 WebUI
|
||||
additionalProperties:
|
||||
key: open-webui
|
||||
name: Open WebUI
|
||||
key: ollama-webui
|
||||
name: Ollama WebUI
|
||||
tags:
|
||||
- AI
|
||||
shortDescZh: 面向 LLM 的用户友好型 WebUI
|
Before Width: | Height: | Size: 8.7 KiB After Width: | Height: | Size: 8.7 KiB |
@ -2,8 +2,36 @@
|
||||
|
||||
**Ollama** 是一个开源的大型语言模型服务,提供了类似 OpenAI 的 API 接口和聊天界面,可以非常方便地部署最新版本的 GPT 模型并通过接口使用。支持热加载模型文件,无需重新启动即可切换不同的模型。
|
||||
|
||||
## 优势:
|
||||
## 快速开始
|
||||
|
||||
- 提供类似OpenAI的简单内容生成接口,极易上手使用;
|
||||
- 类似ChatGPT的的聊天界面,无需开发直接与模型聊天;
|
||||
- 支持热切换模型,灵活多变。
|
||||
> 进入 `容器` 列表,找到 Ollama 容器,点击进入终端运行并与 [Llama 2](https://ollama.com/library/llama2) 聊天:
|
||||
|
||||
```
|
||||
ollama run llama2
|
||||
```
|
||||
|
||||
## 模型库
|
||||
|
||||
Ollama 支持 [ollama.com/library](https://ollama.com/library) 上提供的一系列模型
|
||||
|
||||
以下是一些可以下载的示例模型:
|
||||
|
||||
| Model | Parameters | Size | Download |
|
||||
| ------------------ | ---------- | ----- | ------------------------------ |
|
||||
| Llama 2 | 7B | 3.8GB | `ollama run llama2` |
|
||||
| Mistral | 7B | 4.1GB | `ollama run mistral` |
|
||||
| Dolphin Phi | 2.7B | 1.6GB | `ollama run dolphin-phi` |
|
||||
| Phi-2 | 2.7B | 1.7GB | `ollama run phi` |
|
||||
| Neural Chat | 7B | 4.1GB | `ollama run neural-chat` |
|
||||
| Starling | 7B | 4.1GB | `ollama run starling-lm` |
|
||||
| Code Llama | 7B | 3.8GB | `ollama run codellama` |
|
||||
| Llama 2 Uncensored | 7B | 3.8GB | `ollama run llama2-uncensored` |
|
||||
| Llama 2 13B | 13B | 7.3GB | `ollama run llama2:13b` |
|
||||
| Llama 2 70B | 70B | 39GB | `ollama run llama2:70b` |
|
||||
| Orca Mini | 3B | 1.9GB | `ollama run orca-mini` |
|
||||
| Vicuna | 7B | 3.8GB | `ollama run vicuna` |
|
||||
| LLaVA | 7B | 4.5GB | `ollama run llava` |
|
||||
| Gemma | 2B | 1.4GB | `ollama run gemma:2b` |
|
||||
| Gemma | 7B | 4.8GB | `ollama run gemma:7b` |
|
||||
|
||||
> 注意:您应该至少有 8 GB 可用 RAM 来运行 7B 型号,16 GB 来运行 13B 型号,32 GB 来运行 33B 型号。
|
||||
|
@ -1,20 +1,20 @@
|
||||
name: Ollama
|
||||
tags:
|
||||
- AI
|
||||
title: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
title: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
type: AI
|
||||
description: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
description: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
additionalProperties:
|
||||
key: ollama
|
||||
name: Ollama
|
||||
tags:
|
||||
- AI
|
||||
shortDescZh: 启动并运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
shortDescEn: Get up and running with Llama 2, Mistral, Gemma, and other large language models
|
||||
shortDescZh: 本地运行 Llama 2、Mistral、Gemma 和其他大型语言模型
|
||||
shortDescEn: Locally run Llama 2, Mistral, Gemma, and other large language models
|
||||
type: tool
|
||||
crossVersionUpdate: true
|
||||
limit: 0
|
||||
recommend: 0
|
||||
recommend: 50
|
||||
website: https://ollama.com/
|
||||
github: https://github.com/ollama/ollama
|
||||
document: https://github.com/ollama/ollama/blob/main/docs/README.md
|
||||
|
Loading…
Reference in New Issue
Block a user