Přeskočit na obsah
_CORE
AI & Agentic Systems Core Informační Systémy Cloud & Platform Engineering Data Platforma & Integrace Security & Compliance QA, Testing & Observability IoT, Automatizace & Robotika Mobile & Digital Banky & Finance Pojišťovnictví Veřejná správa Obrana & Bezpečnost Zdravotnictví Energetika & Utility Telco & Média Průmysl & Výroba Logistika & E-commerce Retail & Loyalty
Reference Technologie Blog Knowledge Base O nás Spolupráce Kariéra
Pojďme to probrat

Ollama — LLM na vašem laptopu za 5 minut

30. 01. 2024 1 min čtení CORE SYSTEMSai

Chci si vyzkoušet LLM lokálně, ale nechci nastavovat CUDA. Ollama je odpověď: jeden příkaz pro instalaci, jeden pro spuštění. Docker pro LLM.

Proč lokální inference

  • Privacy: Data nikdy neopustí váš stroj
  • Offline: Funguje bez internetu
  • Cost: $0 per token
  • Latency: Žádný network roundtrip

OpenAI-kompatibilní API

Přesměrujete existující kód na localhost:11434. LangChain, LlamaIndex — vše integruje nativně.

Doporučené modely

  • mistral (7B): Všestranný, dobrá čeština
  • codellama: Code generation
  • phi-2 (2.7B): Ultra lehký, překvapivě schopný

Lokální AI je realita

Každý vývojář si může spustit kvalitní LLM lokálně. Must-have nástroj.

ollamalocal aillmdeveloper tools