Rok 2026 není „další rok AI“. Je to rok, kdy se AI konečně potkává s fyzikou: elektrika, chlazení, optika, supply chain a datacentrový real estate. Podle finančních projekcí a komentářů firem plánují čtyři hyperscalers (Amazon, Alphabet/Google, Microsoft a Meta) dohromady utratit cca $650–700 miliard kapitálových výdajů (capex) — z velké části na AI compute, datacentra a networking. Pro enterprise to znamená jediné: compute se stává strategická surovina a vaše architektura i procurement se musí změnit.
Capex race v číslech: proč se najednou bavíme o stovkách miliard¶
V posledních týdnech se opakují dvě podobná čísla: $650B (konzervativnější součet) a téměř $700B (agregace podle některých analýz). Nejde o marketing — jsou to konkrétní capex výhledy a jejich extrapolace.
- Amazon oznámil projekci $200B capex pro rok 2026 napříč „AI, chips, robotics, and low earth orbit satellites“. (TechCrunch, 5. 2. 2026)
- Alphabet (Google) mluví o $175–185B capex pro 2026, výrazně nad rokem 2025. (TechCrunch, 5. 2. 2026)
- Meta očekává $115–135B capex pro 2026. (CNBC, 6. 2. 2026; TechCrunch, 5. 2. 2026)
- Microsoft neměl jednotný roční výhled v citovaných materiálech, ale kvartální capex kolem $37.5B implikuje řádově ~$150B/rok při podobném tempu. (TechCrunch, 5. 2. 2026)
Proč by vás to mělo zajímat? Protože hyperscalers tímto tempem mění cenotvorbu cloudu, dostupnost GPU kapacit, priority regionů a v konečném důsledku i to, kdo bude schopný provozovat AI ve velkém.
Compute není jen „GPU“. Je to datacentrový stack — a ten má bottlenecky¶
Když se řekne „AI infrastruktura“, většina lidí si představí GPU. Realita v roce 2026 je spíš datacentrový supply chain: energopřípojky, trafostanice, transformátory, rozvaděče, UPS, chlazení (liquid), optické transceivery, network fabric a fyzická výstavba. Právě proto capex roste rychleji než výdaje na samotné čipy.
Z pohledu enterprise to má dva důsledky:
- Regionální nerovnost kapacit se zvýší. Ne všechny regiony mají stejné možnosti připojení energie a výstavby.
- „On-demand“ už nebude default. U některých typů GPU/acceleratorů se prakticky vrací mentalita „capacity reservation“.
Co říkají investoři: růst capex = tlak na free cash flow¶
Nejde jen o to, kdo postaví víc datacenter. Wall Street sleduje, co to udělá s cash. CNBC shrnuje, že čtyři největší internetové firmy v USA dohromady vytvořily v roce 2025 cca $200B free cash flow, což je pokles oproti $237B v roce 2024 — a dramatičtější propad může teprve přijít kvůli investicím do AI. (CNBC, 6. 2. 2026)
V tom samém textu CNBC uvádí konkrétní odhady:
- U Amazonu Morgan Stanley podle CNBC očekává v roce 2026 negativní free cash flow ~-$17B, zatímco Bank of America vidí deficit až -$28B.
- U Alphabetu Pivotal Research podle CNBC projektuje propad free cash flow téměř o 90 % na $8.2B z $73.3B v roce 2025.
Silicon Republic navíc upozorňuje na nervozitu investorů a na to, že predikovaný capex by znamenal růst ~60 % oproti $410B v roce 2025. (Silicon Republic, 6. 2. 2026)
Jaký dopad to bude mít na enterprise: 5 praktických scénářů¶
1) Cloud pricing: „AI tax“ se nebude jmenovat AI tax¶
Hyperscalers potřebují návratnost. Jenže „zdražíme GPU“ zní špatně. V praxi čekejte kombinaci: změny discountů, tlak na commitment (Savings Plans/Reserved capacity), bundling (model + runtime + observability) a větší cenový rozdíl mezi regiony.
2) Lead times a rezervace kapacit: vrací se procurement jako engineering problém¶
Pokud plánujete rollout velké inference platformy (např. customer support, internal copilots, dokumentové workflow), budete řešit kapacity dřív než model. U některých workloadů dává smysl dopředu vyjednat:
- commitment na GPU nodes / reserved capacity,
- vícecloud fallback (minimálně 2 providery),
- alternativní instance types a „acceptable performance tiers“.
3) Model selection bude víc o TCO než o benchmarku¶
U enterprise use-case často nerozhoduje, jestli model vyhraje o 2 body na benchmarku. Rozhoduje, jestli se dá spolehlivě provozovat s garantovanou latencí a predikovatelnou cenou. To vede k větší adopci patternů jako model routing (levnější model jako default, dražší jen na hard queries).
`# Model routing (pseudo) — cost-first fallback
1) cheap model for 80–90% traffic¶
2) escalate to strong model only when needed¶
def route(prompt, risk, sla_ms): if risk == “high” or sla_ms < 800: return “strong-model” if len(prompt) > 6000: return “strong-model” return “cheap-model”
Guardrail: budget per user/session¶
MAX_USD_PER_SESSION = 0.50`
4) Inference architektura: batching, quantization, caching jako standard¶
„Zaplatíme za to“ přestává fungovat, když se škáluje adoption. V roce 2026 vidíme, že enterprise týmy standardizují:
- prompt caching (stabilní systémové prompty + části konverzace),
- response caching pro FAQ a opakované dotazy,
- batching pro non-interactive workloady (summarization, klasifikace),
- quantization a menší SLM pro „edge“ nebo private workloads.
Pokud chcete jít do hloubky nákladů, doporučujeme i náš interní pohled na AI cost optimization.
5) Bezpečnost a regulace: víc dat, víc logů, víc auditů¶
Větší AI provoz = víc citlivých dat v promtech, víc integrací, víc identity touchpoints. Pokud budujete agentní workflow, navazuje to přímo na témata z článku Bezpečnost AI agentů v enterprise.
Druhotné efekty: tlak na produktivitu a změna hiringu¶
Capex race má i sociální dopady. CBS News uvádí, že v roce 2025 firmy přímo odkazovaly na AI při oznámení 55 000 layoffs — více než 12× oproti dvěma letům předtím (data firmy Challenger, Gray & Christmas). Část ekonomů přitom upozorňuje, že firmy mohou AI někdy používat i jako „příběh“ pro layoffs a korekci overhiringu. (CBS News, 3. 2. 2026)
Pro CTO z toho plyne jedna praktická věc: AI se stává součástí operating modelu firmy — nejen projekt v IT. A operating model se mění přes procesy, tooling, security a měření dopadu.
Co dělat v praxi: 90denní plán pro CTO¶
Krok 1 — Udělejte AI capacity & cost baseline (týden 1–2)¶
- Kolik requestů / tokenů / hodin GPU dnes reálně spotřebováváte?
- Jaké workloady jsou interactive vs batch?
- Co je „mission-critical“ (SLA) a co může degradovat?
Krok 2 — Zaveďte AI FinOps (týden 2–6)¶
- budget per team / per product,
- cost anomaly detection,
- standardní patterny: caching, routing, batching.
Krok 3 — Negociujte kapacitu a plánujte vendor risk (týden 4–10)¶
V prostředí, kde hyperscalers sami řeší kapacitní tlaky, je rozumné mít:
- alespoň 2 runtime cesty (např. managed API + vlastní inference),
- exit plán pro kritické use-case (model + data + orchestration),
- varianty pro sovereign cloud a regulované datové domény.
Krok 4 — Připravte platformu, ne jen POC (týden 6–12)¶
Pokud chcete „AI ve firmě“, potřebujete platform engineering: identity, secrets, observability, deployment. Není náhoda, že se v enterprise vrací téma Internal Developer Platform. V CORE SYSTEMS to typicky integrujeme do práce týmu Cloud & Platform a AI & Agentic Systems.
Závěr: AI strategie je teď infrastruktura + finance + architektura¶
$650–700B capex není jen zajímavost z earnings callů. Je to signál, že se AI přesouvá do fáze, kde vítězí ti, kdo umí stavět a provozovat spolehlivou infrastrukturu a zároveň držet TCO pod kontrolou.
Pokud chcete AI škálovat, řešte: capacity planning, AI FinOps, bezpečnost a platform engineering. Rádi s vámi projdeme architekturu, vendor strategii i konkrétní roadmapu.
Zdroje: TechCrunch (5. 2. 2026), CNBC (6. 2. 2026), Silicon Republic (6. 2. 2026), CBS News (3. 2. 2026). Citované číselné údaje vycházejí z uvedených článků a jejich odkazovaných earnings releases.