10 GW dla AI. Czy europejskie sieci zniosą „głód” sztucznej inteligencji?
2025-10-10

Sztuczna inteligencja rośnie szybciej niż zdolność sieci do jej zasilania. OpenAI i NVIDIA zapowiedziały wdrożenie infrastruktury o skali co najmniej 10 GW – to moc porównywalna z kilkoma elektrowniami jądrowymi i setkami turbin wiatrowych. Międzynarodowa Agencja Energetyczna (IEA) przewiduje, że do 2030 r. zużycie prądu przez centra danych podwoi się, a każde zapytanie do ChatGPT to średnio ok. 0,34 Wh energii. Jak sprawić, by boom na AI nie wyhamował zielonej transformacji, tylko ją napędził – i co z tego może mieć Polska?
AI przyspiesza – energetyka musi nadążyć
OpenAI i NVIDIA podpisały list intencyjny: „co najmniej 10 GW” nowych systemów do trenowania i uruchamiania kolejnych generacji modeli. Taka liczba przestaje być abstrakcją, gdy zestawimy ją z energetyką – to już nie pojedyncze hale serwerowe, tylko coś w rodzaju fabryk mocy obliczeniowej, które muszą mieć pewne zasilanie i chłodzenie 24/7.
Sam Altman, szef OpenAI, mówi wprost, że energia może stać się „wąskim gardłem” rozwoju. W rozmowach o skali inwestycji przewija się nawet pomysł tempa rzędu jednego gigawata nowej infrastruktury tygodniowo. To pokazuje, jak szybko popyt na moc i chłodzenie może wyprzedzać zdolności przyłączeniowe w wielu krajach.
Liczniki nie kłamią: ile energii zużywa AI?
Międzynarodowa Agencja Energetyczna (IEA) szacuje, że do 2030 r. zużycie energii przez centra danych podwoi się do ok. 945 TWh, czyli mniej więcej tyle, ile dziś zużywa cała Japonia. To nie tylko centra „AI-only”, ale to właśnie zadania AI mają być kluczowym motorem wzrostu. W praktyce oznacza to konieczność nowych źródeł mocy i magazynowania, ale także lepszej efektywności po stronie samych obliczeń i chłodzenia.
A skala „na zapytanie”? Altman podaje, że średnio jedno pytanie do ChatGPT zużywa ok. 0,34 Wh energii oraz ok. 0,000085 galona wody. Niby niewiele, ale przy milionach zapytań dziennie zbiera się z tego realny wolumen, który warto mierzyć i raportować jednolicie.
Skąd wziąć czystą energię – miks zamiast dogmatów
W europejskich realiach trzonem przyrostu mocy dla AI będą odnawialne źródła energii wsparte magazynami i elastycznością po stronie popytu. Równolegle rośnie zainteresowanie technologiami jądrowymi (od klasycznych bloków po SMR w przyszłości), ale o harmonijnym miksie zdecyduje lokalna dostępność sieci, koszty finansowania i tempo realizacji. Inwestorzy wybierają lokalizacje, gdzie jest chłód, stabilna sieć i podaż zielonego prądu – to dlatego kraje nordyckie tak często wygrywają ranking „power first”.
Sama zielona energia nie załatwia wszystkiego. Trzeba jeszcze ją dowieźć w punkt i ustabilizować. To rola długoterminowych kontraktów umów dostawy energii elektrycznej, magazynów oraz współpracy z operatorami systemów. I coraz częściej – inteligentnego sterowania obciążeniem centrów danych, które potrafi „oddychać” z systemem elektroenergetycznym, zamiast grać tylko na własną rękę.
Ciepło, które już mamy: serwerownie jako lokalne źródła energii użytkowej
Centra danych są świetnym źródłem ciepła odpadowego. To nie teoria – duże projekty wchodzą w etap realizacji. W Finlandii Microsoft i Fortum budują rozwiązanie, które po uruchomieniu ma pokrywać około 40% zapotrzebowania na ciepło systemowe w rejonie Espoo, Kauniainen i Kirkkonummi. W praktyce to gigantyczny wymiennik: ciepło z serwerowni trafia do sieci ciepłowniczej, a pompy ciepła podnoszą parametry do potrzeb sieci.
– Czasem najbardziej zrównoważone rozwiązania są proste. Centra danych umożliwiają cyfryzację i tworzą dobrobyt. Stanowią też w dużej mierze niewykorzystane, bezemisyjne źródło ciepła, które w odpowiednich warunkach można bardzo efektywnie wykorzystać – mówił Markus Rauramo, prezes Fortum.
Efekt? Mniej emisji, bardziej stabilne koszty dla mieszkańców i argument, by centra danych sytuować tam, gdzie ciepło ma odbiorców. Trzeba tylko myśleć systemowo: zaplanować trasę magistral, węzły, moc pomp i standardy przyłączeniowe, tak aby operator ciepłowniczy mógł tym efektywnie zarządzać.
Francuska lekcja: kampus naukowy, geotermia i superkomputer na jednej mapie
W regionie Paris-Saclay Veolia prowadzi sieć ciepła i chłodu 5. generacji, która łączy głęboką geotermię z odzyskiem ciepła – także z superkomputera CNRS. To przykład, jak w jednym ekosystemie akademicko-technicznym spiąć różne, niskoemisyjne strumienie energii. Daje to elastyczność, a jednocześnie stabilizuje koszty dla odbiorców.
Takie projekty podpowiadają, jak projektować „miejsca dla AI” w Europie: blisko sieci o niskim śladzie węglowym, w zasięgu odbiorców ciepła i z dostępem do kompetencji. To nie tylko komfort dla inwestora, ale i realna wartość dla lokalnych społeczności.
Polska perspektywa: sieci ciepłownicze to nasz atut
Polska ma jedną z największych sieci ciepłowniczych w UE, co daje przewagę, gdy mówimy o odzysku ciepła z serwerowni. W Poznaniu Veolia Energia Poznań i Beyond.pl pracują nad wpięciem ciepła odpadowego z data center do miejskiej sieci – to pierwszy krok, by cyfrową infrastrukturę zamienić w sojusznika transformacji ciepłownictwa.
– W Grupie Veolia mamy ambitne cele związane z dekarbonizacją naszych aktywów oraz poprawą jakości życia mieszkańców. Chcemy to osiągnąć poprzez wdrażanie ekologicznych rozwiązań oraz stymulowanie innowacji, zwłaszcza w obszarze ciepłownictwa. Dlatego jako Grupa Veolia przygotowaliśmy strategiczny program GreenUp na lata 2024-2027. Wprowadzamy rozwiązania pozwalające na ograniczenie emisji zanieczyszczeń, regenerację zasobów i dekarbonizację gospodarki – dotyczy to nie tylko naszych własnych aktywów, ale także naszych partnerów, w tym miast oraz przemysłu. (…) Wykorzystanie w naszych instalacjach ciepła odpadowego, które jest ubocznym produktem przetwarzania danych, przyczyni się do ograniczenia zużycia paliw kopalnych. Oznacza to, że poznańska sieć ciepłownicza będzie w większym stopniu zasilana dzięki zielonej energii – podkreślił Luiz Hanania, prezes zarządu, dyrektor generalny Grupy Veolia w Polsce.
Kolejne miasta mogą pójść tą drogą, jeśli uprościmy procedury przyłączeniowe i ustandaryzujemy technikę (węzły, wymienniki, pompy ciepła wysokotemperaturowe). Dobrą bazą są też projekty cyfryzacji dużych systemów ciepłowniczych – dokładniejsze dane przepływów i strat pomagają policzyć, gdzie ciepło z serwerowni ma największy sens ekonomiczny i środowiskowy.
Co robić „na teraz”: trzy proste kroki dla branży i miast
Po pierwsze – stawiać na efektywność: chłodzenie wolnym powietrzem tam, gdzie klimat pozwala; zamknięty obieg wody; inteligentny dobór lokalizacji, by skrócić ścieżkę od źródła prądu do serwerowni i od serwerowni do sieci ciepła. To podstawa, która zwraca się już na etapie nakładów inwestycyjnych przedsiębiorstwa (CAPEX).
Po drugie – zawczasu planować odbiór ciepła: rozmowa operatora ciepłowni z inwestorem data center powinna się zaczynać przy wyborze działki, a nie w momencie rozruchu. Wtedy łatwiej uzyskać wysokie temperatury na zasilaniu i niskie koszty pomp.
Po trzecie – wprowadzić przejrzystość danych środowiskowych AI: wspólne wskaźniki (energia, woda, temperatura ciepła odpadowego) i raportowanie publiczne budują zaufanie i ułatwiają finansowanie projektów. Tu sektor może sam wyprzedzić regulacje i pokazać, że chodzi o realny efekt, nie greenwashing.
Energia dla AI, AI dla energii
To nie jest gra o sumie zerowej. AI potrzebuje czystej, przewidywalnej energii, ale sama może pomóc ją oszczędzać: od predykcyjnego sterowania chłodzeniem po lepsze prognozy obciążenia sieci i popytu na ciepło. Gdy centra danych stają się elementem miejskiej gospodarki energetycznej – a nie wyspą – transformacja przyspiesza.
Klucz jest prosty: myśleć o centrach danych jak o elektrociepłowniach XXI wieku, w których „paliwem” jest prąd, „produktem” są obliczenia, a „kogeneracją” – ciepło odpadowe dla mieszkańców. Wtedy każdy kolejny megawat na potrzeby AI pracuje dwa razy: dla cyfrowej gospodarki i lokalnej społeczności.
Autor: Piotr Szymański