Moderní svět využívá stále více výpočetní techniku, a ta zase vyžaduje pořád víc energie. Datová centra se podílejí na celkové globální spotřebě elektřiny asi z jednoho až dvou procent a generativní umělá inteligence (AI), tedy technologie, která je základem inteligentních chatbotů, jako je ChatGPT, tuto již tak vysokou náročnost zřejmě ještě zvýší.
Umělé inteligence mohou způsobit masivní zvýšení spotřeby energie. Vědci hledají řešení
„Umělá inteligence se může zdát jako nehmatatelná, ale fyzicky přetváří svět,“ popsala vloni australská vědkyně Kate Crawfordová v knize Atlas umělé inteligence. Coby ředitelka AI Now Institute čtenáře atlasu varuje, že náklady na tuto technologii neustále rostou.
Před čtyřmi lety někteří vědci odhadovali, že technologický sektor bude do roku 2040 představovat čtrnáct procent celosvětových emisí; jiní předpovídali, že do roku 2030 vzroste energetická poptávka datových center patnáctinásobně. Podle Deepa Jariwaly z Penn State University se mohou i tato čísla hodně rychle změnit. „Pokud budeme pokračovat tímto tempem, do roku 2030 se předpokládá nárůst na osm až jednadvacet procent, což dále prohloubí současnou energetickou krizi,“ uvedl pro webb Penn Today.
S příchodem ChatGPT je situace zřejmě ještě o něco horší, protože všechny uvedené predikce vznikly před jeho nástupem. Kanaďan Martin Bouchard, spoluzakladatel společnosti QScale, která se zabývá digitální infrastrukturou, přitom pro španělský deník El País uvedl, že každý dotaz založený na generativní AI bude vyžadovat nejméně čtyřikrát až pětkrát vyšší výpočetní výkon.
„Generativní umělá inteligence produkuje více emisí než běžné vyhledávače, protože se jedná o složité systémy, které procházejí miliony webových stránek,“ říká Carlos Gómez Rodríguez, profesor informatiky a umělé inteligence na univerzitě v La Coruni. „Umělá inteligence ale produkuje ještě více emisí než vyhledávače, protože využívá architektury neuronových sítí s miliony parametrů, které je třeba trénovat.“
Počítačový průmysl s vlivem letectví
Dvě procenta emisí, které počítačový průmysl produkuje, přibližně odpovídají tomu, co vyrobí za rok všechny aerolinky světa. Sami tvůrci umělých inteligencí zatím nicméně nezveřejňují environmentální dopady technologií, které vyrábějí.
„Máme k dispozici jen odhady. Například trénink GPT3, základního modelu pro ChatGPT, mohl vygenerovat přibližně 500 tun uhlíku, což odpovídá cestě autem na Měsíc a zpět. Možná to nevypadá jako moc, ale takový model se musí pravidelně přeškolovat, aby zahrnoval aktualizovaná data,“ říká Gómez.
Podle jiného odhadu se spotřeba elektřiny organizace OpenAI, která vytvořila ChatGPT, v lednu 2023 mohla rovnat roční spotřebě 175 tisíc dánských domácností. „Jedná se o odhady založené na současném využívání ChatGPT. Pokud se ještě více rozšíří, mohli bychom hovořit o spotřebě elektřiny odpovídající milionům lidí,“ dodává Gómez.
Řešení existují
Podle několika studií ale existují cesty, jak náklady na trénink umělých inteligencí výrazně snížit. Podle Alex Hernándezové, která se tématu dlouhodobě věnuje, by pomohlo učit stroje v místech, která získávají elektřinu z obnovitelných zdrojů – například v Kanadě nebo Norsku, které mají většinu energie z vodních elektráren a využívají ji právě na datová nebo výpočetní centra.
Několik týmů působících na světových univerzitách se také snaží vymyslet energeticky levnější metody tréninku. Náklady by mohl snížit třeba nový způsob optimalizace trénování modelů hlubokého učení.
Například na Michiganské univerzitě vznikl model Zeus vytvořený týmem kolem Mosharafa Chowdhuryho. Ten snižuje energetické požadavky na trénink AI o 75 procent, aniž by bylo potřeba jakkoliv zasahovat do hardwaru – jde jenom o úpravy programu samotného, které lehce zpomalují rychlost učení, ale výrazně zvyšují jeho energetickou efektivitu.