V červnu 2019 Emma Strubell, Ananya Ganesh a Andrew McCallum z University of Massachusetts Amherst publikovali článek, který zásadně změnil přemýšlení AI komunity o environmentálních nákladech. Jejich studie „Energy and Policy Considerations for Deep Learning in NLP" byla první důslednou kvantifikací uhlíkových emisí z trénování velkých AI modelů — a čísla byla šokující (Strubell et al., 2019).
Výzkumníci odhadli, že trénování jednoho velkého modelu neuronové sítě vyprodukuje přibližně 284 tun CO₂ ekvivalentu — zhruba pětkrát více než celoživotní emise průměrného amerického auta (včetně výroby). I trénování standardního modelu Transformer emitovalo zhruba ekvivalent transatlantického letu. Tato čísla nezahrnovala energii spotřebovanou experimentováním, neúspěšnými pokusy ani nasazením.
Článek přišel v kritickém momentu. AI obor byl v raných fázích exponenciálního škálovacího trendu. GPT-2 byl právě vydán (únor 2019) a laboratoře závodily v trénování stále větších modelů. Tým Strubell varoval, že „finanční náklady trénování byly hlavním faktorem, zatímco environmentální náklady byly z velké části ignorovány." Požadovali povinné hlášení spotřeby energie v AI výzkumných pracích.
Dopad článku byl významný, ale nedokonalý. Přispěl k rostoucímu povědomí o ekologické stopě AI a pomohl vyvolat hnutí „Green AI". Google a další firmy začaly reportovat některé energetické metriky. Trend k větším modelům se ale jen zrychlil: GPT-3 (2020) byl 100krát větší než GPT-2, GPT-4 (2023) ještě větší. Do roku 2025 kumulativní emise AI systémů mnohonásobně převýšily to, co Strubell změřila v roce 2019.
Práce Strubell ustanovila klíčový princip: Schopnosti AI přicházejí s environmentálními náklady, které musí být měřeny, hlášeny a minimalizovány.
Klíčové zdroje
- Strubell E. et al. (2019). Energy and Policy Considerations for Deep Learning in NLP. ACL.
- MIT Technology Review (2019). Training a single AI model can emit as much carbon as five cars.