Wir verwenden Ollama (https://ollama.com/)
Installation über docker compose.
docker-compose.yaml
services: ollama: image: docker.io/ollama/ollama:rocm container_name: ollama volumes: - ollama:/root/.ollama ports: - 11434:11434 devices: - /dev/kfd:/dev/kfd - /dev/dri:/dev/dri # environment: # - OLLAMA_KEEP_ALIVE=1h # - OLLAMA_HOST=127.0.0.1 pull_policy: always tty: true restart: unless-stopped volumes: ollama: driver: local
Umgang mit Models:
# Modell installieren docker exec -it ollama ollama pull llava:v1.6 # Modell entfernen docker exec -it ollama ollama rm llava:v1.6 # Modell aus dem Speicher entladen docker exec -it ollama ollama stop llava:v1.6 # Modell auflisten docker exec -it ollama ollama list
Multimodal-Model (die sich u.a. für die Bildanalyse eignen)
- llava:v1.6; llava:13b : LLaVA is a novel end-to-end trained large multimodal model that combines a vision encoder and Vicuna for general-purpose visual and language understanding.
- DeepSeek-Janus-Pro-7B
Modelle für Übersetzungen:
- Mixtral https://ollama.com/library/mixtral
- deepseek-r1 https://ollama.com/library/deepseek-r1