Wir verwenden Ollama (https://ollama.com/)
Installation über docker compose.
docker-compose.yaml
services:
ollama:
image: docker.io/ollama/ollama:rocm
container_name: ollama
volumes:
- ollama:/root/.ollama
ports:
- 11434:11434
devices:
- /dev/kfd:/dev/kfd
- /dev/dri:/dev/dri
# environment:
# - OLLAMA_KEEP_ALIVE=1h
# - OLLAMA_HOST=127.0.0.1
pull_policy: always
tty: true
restart: unless-stopped
volumes:
ollama:
driver: local
Umgang mit Models:
# Modell installieren docker exec -it ollama ollama pull llava:v1.6 # Modell entfernen docker exec -it ollama ollama rm llava:v1.6 # Modell aus dem Speicher entladen docker exec -it ollama ollama stop llava:v1.6 # Modell auflisten docker exec -it ollama ollama list
Multimodal-Model (die sich u.a. für die Bildanalyse eignen)
- llava:v1.6; llava:13b : LLaVA is a novel end-to-end trained large multimodal model that combines a vision encoder and Vicuna for general-purpose visual and language understanding.
- DeepSeek-Janus-Pro-7B
Modelle für Übersetzungen:
- Mixtral https://ollama.com/library/mixtral
- deepseek-r1 https://ollama.com/library/deepseek-r1