Trénink GPT-3: ~502 tun CO2. GPT-4 odhadem 10x víc. AI boom má environmentální cenu. Green AI hledá odpovědi.
Strategie¶
- Model selection: Potřebujete GPT-4? Nebo stačí Mistral 7B za 1/100 energy?
- Quantizace: INT8 = ~4x méně energie
- Distillation: 90% kvality za 10% compute
- Caching: 0 inference cost pro cached responses
Měření¶
CodeCarbon (Python library), ML CO2 Impact Calculator, cloud sustainability dashboards.
Naše pravidla¶
- Vždy nejmenší model, který splní task
- Produkční inference vždy quantizovaná
- Caching pro opakující se patterns
- Carbon footprint v quarterly review
Efektivní AI je green AI¶
Menší model, lepší prompt, smart caching — úspora energie i peněz.
green aisustainabilityenergycomputing