Přeskočit na obsah
_CORE
AI & Agentic Systems Core Informační Systémy Cloud & Platform Engineering Data Platforma & Integrace Security & Compliance QA, Testing & Observability IoT, Automatizace & Robotika Mobile & Digital Banky & Finance Pojišťovnictví Veřejná správa Obrana & Bezpečnost Zdravotnictví Energetika & Utility Telco & Média Průmysl & Výroba Logistika & E-commerce Retail & Loyalty
Reference Technologie Blog Knowledge Base O nás Spolupráce Kariéra
Pojďme to probrat

Ollama vs vLLM

01. 01. 2024 1 min čtení intermediate

Ollama je nejjednodušší cesta k lokálním LLM. vLLM je optimalizovaný pro produkční serving.

Ollama

  • Jednoduchá instalace (curl + ollama run)
  • Model management (pull, list, rm)
  • REST API kompatibilní s OpenAI
  • Ideální pro vývoj a experimentování
  • macOS, Linux, Windows

ollama pull llama3.2 ollama run llama3.2 ‘Vysvětli Docker’ curl http://localhost:11434/api/generate -d ‘{“model”:”llama3.2”,”prompt”:”Hello”}’

vLLM

  • PagedAttention — efektivní GPU memory management
  • Continuous batching — vysoký throughput
  • OpenAI-kompatibilní API server
  • Tensor parallelism (multi-GPU)
  • Optimalizovaný pro produkci

pip install vllm python -m vllm.entrypoints.openai.api_server \ –model meta-llama/Llama-3-8B-Instruct

Srovnání

  • Jednoduchost: Ollama >> vLLM
  • Throughput: vLLM >> Ollama (2-5×)
  • GPU utilization: vLLM lepší
  • Model format: Ollama = GGUF, vLLM = HuggingFace
  • CPU inference: Ollama OK, vLLM GPU-only

Ollama pro dev, vLLM pro produkci

Ollama pro lokální vývoj a experimentování. vLLM pro production serving s vysokým throughputem.

ollamavllmllmaiinference