Dynamiczny rozwój narzędzi opartych na sztucznej inteligencji wzbudza uzasadnione pytania o jej wpływ na środowisko. Centra danych rosną jak grzyby po deszczu, a kolejne modele językowe wymagają coraz większych zasobów obliczeniowych. W Polsce i na świecie coraz głośniej mówi się o tym, że AI może stać się jednym z kluczowych czynników napędzających kryzys klimatyczny. Tymczasem najnowsze analizy naukowe każą nieco ostudzić te obawy – choć nie całkowicie je odrzucić.
Skąd biorą się obawy o energochłonność AI?
Rosnące zapotrzebowanie na moc obliczeniową to fakt, którego nie sposób ignorować. Każde zapytanie kierowane do modelu językowego, każda wygenerowana grafika czy przetworzone wideo wymagają pracy tysięcy serwerów skupionych w wielkich centrach danych. Te z kolei pobierają energię elektryczną w ilościach, które jeszcze dekadę temu trudno było sobie wyobrazić w kontekście pojedynczej usługi cyfrowej.
W Polsce temat ten nabiera dodatkowego wymiaru – nasz kraj wciąż w znacznej mierze opiera swój miks energetyczny na węglu kamiennym i brunatnym, co oznacza, że każda kilowatogodzina zużyta przez serwery generuje relatywnie wyższą emisję CO₂ niż w krajach zasilanych głównie energią odnawialną. To lokalna specyfika, która sprawia, że debata o zielonych centrach danych jest w Polsce szczególnie istotna.
Co mówią badania Waterloo University?
Naukowcy z Waterloo University w Kanadzie przeprowadzili szczegółową analizę rzeczywistego śladu energetycznego systemów sztucznej inteligencji. Wnioski są zaskakująco wyważone: choć AI rzeczywiście zużywa znaczące ilości energii, jej globalny udział w całkowitym zapotrzebowaniu energetycznym gospodarki pozostaje stosunkowo skromny.
Według tych badań łączne zużycie energii przez systemy AI jest porównywalne z zapotrzebowaniem małych państw. W skali całej światowej konsumpcji energii stanowi to jednak jedynie niewielki ułamek. Znacznie poważniejszym problemem pozostaje nadal uzależnienie gospodarek od paliw kopalnych, które odpowiadają za zdecydowaną większość globalnych emisji gazów cieplarnianych. Na tym tle wpływ AI okazuje się marginalny – choć, co podkreślają sami badacze, nie całkowicie pomijalny.
Konkretne liczby: ile energii kosztuje jedno zapytanie do AI?
Zamiast operować abstrakcyjnymi pojęciami, warto przyjrzeć się twardym danym. Szacuje się, że pojedyncze zapytanie do modelu językowego zużywa od około 0,3 do 3 Wh energii elektrycznej. Żeby zobrazować tę wartość, wystarczy porównanie: to mniej więcej tyle energii, ile potrzeba do kilku sekund oglądania filmu w jakości HD.
Dla kontrastu:
- Godzina streamingu wideo pochłania od 100 do nawet 200 Wh energii, w zależności od jakości obrazu i używanego urządzenia.
- Obejrzenie jednego odcinka serialu generuje ślad energetyczny wielokrotnie wyższy niż kilkadziesiąt – a nawet kilkaset – zapytań kierowanych do chatbota.
- Przesłanie kilkuset wiadomości e-mail pochłania energię porównywalną z jednym zapytaniem do zaawansowanego modelu AI.
Te proporcje dobrze ilustrują, że choć AI ma swój ślad środowiskowy, nie jest on nieproporcjonalnie duży w zestawieniu z innymi codziennymi aktywnościami cyfrowymi, do których zdążyliśmy się już przyzwyczaić.
Zużycie wody – kolejny mit do zweryfikowania
Poza energią elektryczną centra danych zużywają również duże ilości wody, wykorzystywanej przede wszystkim do chłodzenia serwerów. To kolejny argument podnoszony przez krytyków AI. Tutaj jednak dane również skłaniają do refleksji.
Szacuje się, że pojedyncze zapytanie do systemu AI wiąże się ze zużyciem wody rzędu kilkudziesięciu mililitrów. Dla porównania: produkcja jednej filiżanki kawy – uwzględniając cały cykl życia produktu, od uprawy ziaren po zaparzenie – pochłania nawet 130 litrów wody. Różnica jest więc kolosalna.
Nie oznacza to oczywiście, że zużycie wody przez centra danych można zbagatelizować – szczególnie w regionach dotkniętych niedoborami wodnymi, gdzie lokalizacja dużych farm serwerowych może generować realne napięcia społeczne i środowiskowe. To problem, który wymaga przemyślanej polityki lokalizacyjnej, a nie globalnej paniki.
Nierównomierne obciążenie – problem lokalny, nie globalny
Badania wskazują na jeszcze jeden ważny aspekt: wpływ AI na środowisko jest geograficznie nierównomierny. Regiony, w których koncentruje się infrastruktura centrów danych – jak niektóre stany USA, Irlandia czy Holandia – odczuwają wyraźny wzrost lokalnego zapotrzebowania na energię. W skrajnych przypadkach może to oznaczać presję na lokalne sieci energetyczne i wymuszać uruchamianie mniej ekologicznych źródeł energii jako rezerwy mocy.
W Polsce ten problem jest na razie mniej odczuwalny niż w krajach Europy Zachodniej, jednak dynamiczny rozwój sektora data center może to zmienić w ciągu kilku lat. Tym ważniejsze jest, aby nowe inwestycje w infrastrukturę obliczeniową były od początku planowane z myślą o zasilaniu ze źródeł odnawialnych.
AI jako sojusznik transformacji energetycznej
Warto spojrzeć na sztuczną inteligencję nie tylko przez pryzmat jej własnego śladu węglowego, ale również przez pryzmat tego, co może zaoferować w walce ze zmianami klimatycznymi. Coraz więcej badań i wdrożeń pokazuje, że algorytmy AI mogą aktywnie wspierać transformację energetyczną:
- Optymalizacja zużycia energii w przemyśle i budownictwie dzięki inteligentnemu zarządzaniu systemami grzewczymi i wentylacyjnymi.
- Usprawnianie działania sieci elektroenergetycznych i bilansowanie podaży z popytu na energię w czasie rzeczywistym.
- Przyspieszenie rozwoju odnawialnych źródeł energii poprzez lepszą prognozę produkcji i zarządzanie farmami wiatrowymi oraz fotowoltaicznymi.
- Analiza ogromnych zbiorów danych klimatycznych, co pozwala naukowcom dokładniej modelować zmiany klimatu i opracowywać skuteczniejsze strategie adaptacyjne.
W tym kontekście AI jawi się nie tyle jako problem, ile jako potencjalne narzędzie rozwiązania – pod warunkiem, że będzie rozwijana i wdrażana w sposób odpowiedzialny.
Odpowiedzialne podejście zamiast czarno-białych ocen
Badania Waterloo University nie są zaproszeniem do beztroskiego ignorowania śladu środowiskowego AI. Przeciwnie – podkreślają, że kluczowe znaczenie dla przyszłości tej technologii będzie miało połączenie dynamicznego rozwoju obliczeniowego z równie dynamicznym rozwojem czystej energetyki.
Wielkie firmy technologiczne, takie jak Google, Microsoft czy Amazon, deklarują ambitne cele klimatyczne i inwestują w długoterminowe kontrakty na zakup energii odnawialnej. Pytanie, czy tempo tych inwestycji nadąży za rosnącym apetytem AI na moc obliczeniową, pozostaje jednak otwarte.
W Polsce brakuje jeszcze kompleksowej polityki regulującej kwestie środowiskowe związane z rozwojem infrastruktury cyfrowej. To obszar, który w nadchodzących latach będzie wymagał zarówno aktywności legislacyjnej, jak i zaangażowania samego sektora technologicznego. Debata o AI i klimacie powinna być jednak prowadzona na podstawie rzetelnych danych – a nie uproszczonych narracji, które z technologii czynią albo zbawiciela, albo niszczyciela planety.
