可在在本地启动并运行 Llama 2 和其他大型语言模型。
Ollama的服务器端是用 Go 编写的,他们还提供了一个 Docker 实例以方便使用:Ollama Docker image
Ollama 允许您从注册表下载模型并在本地运行:
curl https://ollama.ai/install.sh | sh
部署云中:
在 Clever Cloud 上部署 llama、mistral、openchat 或您自己的模型
在此GitHub 存储库中找到该项目所需的文件,并准备好导入环境变量 ( clever env import < .env)。
特点
是有大量围绕其建立的社区插件。
Mobile
Web & Desktop
- HTML UI
- Chatbot UI
- Typescript UI
- Minimalistic React UI for Ollama Models
- Web UI
- Ollamac
- big-AGI
- Cheshire Cat assistant framework
- Amica
。。。等等
Ollama 支持ollama.ai/library上提供的一系列开源模型
ollama4j:
用于与 Ollama API 交互的 Java 库。它允许您将其集成到您的 Java 应用
想要使用 Java 在本地运行大模型?有多种选择,但看起来Ollama也受到了很大的关注
<dependency> |
mvn clean install -U
然后,您可以通过导入来使用 Ollama Java API ollama4j:
import io.github.amithkoujalgi.ollama4j.core.OllamaAPI;
对于最简单的入门方法,我更喜欢使用 Ollama docker 设置。
启动 Ollama docker 容器:
docker run -v ~/ollama:/root/.ollama -p 11434:11434 ollama/ollama
public class Main { |
AI+Java+Quarkus+Langchain4j可以催生新的应用。