Ekologia 5G: zużycie energii, optymalizacja sieci i realny wpływ nowej łączności na ślad węglowy IT

0
22
5/5 - (1 vote)

Nawigacja:

Ekologia 5G – gdzie naprawdę powstaje ślad węglowy

Intencją większości projektów 5G „pod ekologię” jest redukcja zużycia energii i emisji CO2e. Bez rozpisania całego łańcucha – od produkcji sprzętu po utylizację – łatwo jednak tylko przesunąć emisje między segmentami IT i telekomunikacji, zamiast je realnie ograniczyć.

Energia zużywana w sieci a pełny cykl życia sprzętu 5G

W dyskusjach o ekologii 5G dominuje jeden wskaźnik: ile energii zużywa sieć. To ważne, ale obejmuje tylko fazę eksploatacji. Realny ślad węglowy obejmuje co najmniej trzy etapy:

  • Produkcja sprzętu – stacje bazowe, anteny Massive MIMO, routery, przełączniki, serwery w core, urządzenia CPE i urządzenia końcowe (smartfony, modemy, IoT).
  • Eksploatacja – energia zasilająca RAN, core, data center, systemy OSS/BSS, chłodzenie, zasilacze awaryjne, logistyka utrzymania.
  • Utylizacja i wymiana – recykling, transport, przeróbka odpadów, a także „ukryta” emisja związana z przyspieszoną wymianą sprzętu na „5G ready”.

W 5G rośnie masa i złożoność sprzętu (np. anteny z dziesiątkami lub setkami elementów antenowych, serwery GPU pod AI/analizę ruchu), więc udział emisji z produkcji w całym bilansie przestaje być pomijalny. Modernizacja do 5G tylko po to, by pochwalić się statystycznie lepszym kWh/GB, może z perspektywy 10–12 lat cyklu życia sprzętu wypaść gorzej niż dłuższe utrzymanie zoptymalizowanego 4G z precyzyjną refarmingiem pasma.

Marketing „zielonego 5G” kontra fizyka i liczby

Hasła w stylu „5G jest o 90% bardziej efektywne energetycznie niż 4G” opierają się zazwyczaj na jednym, korzystnym wskaźniku: energochłonności przesłania 1 Gb danych. Zwykle pomijane są trzy fakty:

  • 5G przenosi znacznie więcej danych niż 4G – zatem całkowite zużycie energii może rosnąć mimo lepszej efektywności per bit.
  • 5G wymaga gęstszej sieci i bardziej skomplikowanej elektroniki, szczególnie w pasmach wysokich (np. 3,5 GHz i wyżej), co zwiększa bazowy pobór mocy.
  • Nowa generacja technologii zwykle uruchamia nowe usługi (streaming 4K/8K, AR/VR, masowe IoT), które wcześniej były nierealne – i generuje dodatkowy ruch.

Jeśli nie policzy się całkowitego bilansu w ujęciu: energia zużyta przez infrastrukturę łączności + energia w data center + energia urządzeń końcowych + emisje z produkcji i utylizacji, „zielone 5G” łatwo staje się przykładem greenwashingu technologicznego. Lepiej skupić się na jasnym postawieniu tezy: 5G może obniżyć ślad węglowy na jednostkę usługi, pod warunkiem że nie doprowadzimy do eksplozji ruchu i nadmiernego zagęszczania infrastruktury.

Trzy główne źródła emisji w ekosystemie 5G

Żeby realnie zmniejszać ślad węglowy IT z pomocą 5G, trzeba widzieć całą mapę emisji. W uproszczeniu można ją rozdzielić na trzy filary.

Sieć dostępu radiowego (RAN)

RAN – stacje bazowe, anteny, moduły radiowe, zasilanie, klimatyzacja, backhaul – to zazwyczaj największe pojedyncze źródło zużycia energii w sieci mobilnej. W 5G rośnie jego udział z kilku powodów:

  • większa liczba warstw (np. pasmo niskie pod zasięg, średnie pod pojemność, wysokie pod hotspoty),
  • Massive MIMO z wieloma elementami antenowymi i cyfrowym beamformingiem,
  • gęstsza sieć małych komórek, szczególnie w miastach.

RAN w 5G ma jednak największy potencjał optymalizacji energetycznej poprzez funkcje energy saving, inteligentne algorytmy sterowania mocą i staranne planowanie lokalizacji stacji.

Sieć szkieletowa i centra danych

5G przesuwa sporo odpowiedzialności z warstwy radiowej w stronę warstwy obliczeniowej. Core 5G jest w dużej mierze cloud-native, silnie zwirtualizowany, a do tego dochodzi:

  • analiza danych w czasie rzeczywistym (telemetria, monitoring QoS, billing, polityki sieciowe),
  • funkcje bezpieczeństwa i szyfrowania,
  • platformy edge computing obsługujące usługi blisko użytkownika.

To wszystko kończy w data center – czy to własnych operatora, czy w chmurze publicznej. Z punktu widzenia śladu węglowego IT oznacza to, że 5G może przenieść znaczną część emisji „z masztów do serwerowni”. Jeśli data center pracuje na taniej, ale emisyjnej energii, bilans klimatyczny całego ekosystemu 5G nie musi się poprawiać.

Urządzenia końcowe i IoT

Trzeci komponent to urządzenia końcowe:

  • smartfony i tablety z modemami 5G,
  • routery domowe i CPE 5G,
  • moduły IoT w przemyśle, logistyce, smart city.

Z perspektywy samego zużycia energii elektrycznej w cyklu życia, pojedyncze smartfony czy sensory wydają się marginalne. W praktyce to one generują popyt na ruch. Lepsza jakość łączności 5G zachęca do częstszego korzystania z transmisji wideo, aplikacji XR czy ciągłego monitorowania. W efekcie całkowite zużycie energii w infrastrukturze rośnie, bo ruch generowany przez użytkownika rośnie szybciej niż sprawność energetyczna per bit.

Efekt „rebound”: tańszy bit, większy ślad

5G obniża koszt przesłania 1 GB danych, zarówno finansowy, jak i energetyczny. To brzmi dobrze, ale rodzi klasyczny efekt odbicia (rebound effect). Jeśli coś jest tańsze, konsumujemy tego więcej. W sieciach wygląda to tak:

  • niższy kWh/GB i niższy koszt/GB zachęca do oferowania taryf z niemal „nielimitowanym” transferem,
  • serwisy OTT zwiększają jakość domyślnego streamingu (np. z 1080p do 4K),
  • firmy wdrażają zdalne systemy monitoringu wideo „just in case”, zamiast dobrze przemyślanego, selektywnego zbierania danych.

Bez limitów lub przynajmniej świadomych progów jakościowych (np. streaming adaptacyjny, polityka zarządzania danymi w IoT) lepsza efektywność energetyczna per bit może zostać w całości „zjedzona” przez wzrost wolumenu ruchu. Wtedy 5G poprawia wskaźniki „na jednostkę”, ale całkowity ślad węglowy IT rośnie.

Dlaczego bez metryk 5G łatwo stać się ofiarą greenwashingu

Bez twardych danych i uczciwej metodologii liczenia śladu węglowego 5G strategia „zielonej łączności” zamienia się w katalog sloganów. Typowe uproszczenia, które prowadzą na manowce:

  • porównywanie tylko kWh/GB w RAN, z pominięciem core i data center,
  • ignorowanie emisji z produkcji sprzętu telekomunikacyjnego i serwerowego,
  • zakładanie „czystej energii” w miksie, mimo że realnie sieć jest zasilana z systemu zdominowanego przez paliwa kopalne,
  • brak uwzględnienia efektu rebound i wzrostu wolumenu danych.

Jedyną obroną przed greenwashingiem jest konsekwentne mierzenie – na poziomie sieci, usług i projektów IT – oraz jawne połączenie metryk technicznych (przepływność, opóźnienia, SLA) z metrykami klimatycznymi (kWh, CO2e) i TCO. Tylko wtedy można mówić o sensownym projektowaniu ekologii 5G.

Zbliżenie na światłowodowe złącza z niebieskimi kablami w serwerowni
Źródło: Pexels | Autor: Brett Sayles

Jak 5G zmienia profil energetyczny sieci w porównaniu z 4G

5G jest konstrukcyjnie bardziej efektywne energetycznie per bit niż 4G, ale jednocześnie bardziej złożone i zdolne do obsłużenia wielokrotnie większego ruchu. Z punktu widzenia operatora i działów IT różnica między „lepiej per bit” a „mniej energii w ogóle” jest kluczowa.

Sprawność energetyczna 5G per bit a całkowite zużycie energii

Standardy 5G zakładają kilkukrotną poprawę efektywności widmowej i energetycznej w stosunku do 4G. Najprościej:

  • w 5G można przesłać znacznie więcej danych przy tej samej mocy nadawczej,
  • lepsze kodowanie, modulacje i zarządzanie zasobami redukują „puste” nadawanie,
  • funkcje oszczędzania energii pozwalają w uśpieniu znaczących części toru radiowego.

To przekłada się na niższy kWh/GB, ale nie gwarantuje niższego kWh na cały segment sieci. Efekt zależy od czterech czynników:

  1. wzrostu całkowitego ruchu (w GB),
  2. zagęszczenia sieci (liczba stacji bazowych i nośnych),
  3. skuteczności konfiguracji funkcji energy saving,
  4. poziomu konsolidacji i optymalizacji warstwy core i data center.

W praktyce – sieć 5G może zużywać więcej energii niż poprzednia sieć 4G w tym samym obszarze, ale nadal być bardziej efektywna energetycznie, bo obsługuje wielokrotnie większy wolumen ruchu i usług. Dlatego interpretacja wyników zawsze wymaga porównania nie tylko kWh, lecz także jakości i skali usług.

Architektura 5G: Massive MIMO, beamforming i gęstsze sieci

Z architektonicznego punktu widzenia 5G różni się istotnie od 4G. Tym samym zmienia się profil zużycia energii.

Massive MIMO

Massive MIMO (np. 32T32R, 64T64R) pozwala kierunkowo sterować energią radiową i obsługiwać wielu użytkowników w tym samym paśmie częstotliwości. Dla energii oznacza to:

  • lepsze wykorzystanie mocy nadajnika – fala nie jest rozpraszana równomiernie w całym sektorze,
  • możliwość obniżenia mocy przy zachowaniu tej samej jakości sygnału,
  • jednak jednocześnie wyższą złożoność i pobór mocy elektroniki antenowej i przetwarzania sygnału.

Massive MIMO może być „zielone”, jeśli operator świadomie zarządza liczbą aktywnych strumieni przestrzennych i nie traktuje pełnej konfiguracji jako domyślnego trybu 24/7.

Beamforming

Dynamiczny beamforming pozwala „śledzić” użytkownika z węższą wiązką, co przekłada się na:

  • niższe zakłócenia i efektywniejsze wykorzystanie mocy,
  • lokalną redukcję promieniowanej energii w obszarach o mniejszym ruchu,
  • wyższe wymagania obliczeniowe – trzeba na bieżąco przeliczać charakterystyki wiązek.

Jeśli beamforming and scheduling są sprzężone z algorytmami zarządzania energią (np. zmniejszanie liczby aktywnych wiązek w nocy), zysk energetyczny jest realny. Jeśli jednak sieć jest skonfigurowana „na maksymalną wydajność zawsze”, beamforming może stać się kolejnym konsumentem mocy w data center.

Gęstsze sieci małych komórek

5G, szczególnie w wyższych pasmach, wymaga zagęszczenia sieci małymi komórkami (small cells). Korzyści:

  • bliższa odległość do użytkownika – mniejsza wymagana moc nadawcza per komórkę,
  • większa pojemność i lepsze wykorzystanie częstotliwości.

Koszty energetyczne:

  • wiele dodatkowych punktów zasilania,
  • zwiększony ruch w backhaul/fronthaul,
  • często dodatkowe elementy chłodzenia lub zabezpieczenia.

Ścieżka „więcej small cells zawsze i wszędzie” może prowadzić do nadmiernej infrastruktury. Zdecydowanie lepiej projektować sieci gęste tylko tam, gdzie istnieje stabilne, długoterminowe zapotrzebowanie na wysoką pojemność (np. centra biurowe, kampusy przemysłowe) i jednocześnie wdrażać dynamiczne wyłączanie części komórek w okresach znikomych obciążeń.

Kiedy 5G zmniejsza, a kiedy zwiększa zużycie energii

Przejście na 5G przynosi różne efekty w zależności od kontekstu. Kilka scenariuszy:

  • Re-farming pasma 4G na 5G z jednoczesnym wygaszaniem 3G/2G – przy porównywalnym ruchu, z reguły obniża zużycie energii w RAN, bo zastępuje kilka generacji mniej efektywnych jedną nowszą.
  • Scenariusze rozbudowy 5G a bilans energetyczny

    Typowy błąd strategiczny to założenie, że „więcej 5G” automatycznie oznacza mniejsze zużycie energii na sieć. Rezultat zależy głównie od tego, w jaki sposób 5G zastępuje lub uzupełnia starsze technologie.

  • Dodanie 5G na istniejącej infrastrukturze 4G bez wygaszania starszych warstw – zwykle zwiększa całkowite zużycie energii. Operator podwaja (lub potraja) liczbę aktywnych nośnych, a ruch nie rośnie na tyle szybko, żeby lepsza efektywność 5G to skompensowała.
  • Wymiana „1:1” makrokomórek 4G na 5G (standalone lub NSA) z dobrze skonfigurowanymi funkcjami oszczędzania energii – przy lekkim lub umiarkowanym wzroście ruchu może utrzymać lub nieznacznie obniżyć całkowite kWh, poprawiając jednocześnie jakość usług.
  • Budowa gęstej sieci small cells wyłącznie dla marketingowego „5G wszędzie” – prawie zawsze podnosi ślad węglowy, bo wynik energetyczny liczy się w latach, a zapotrzebowanie na taką gęstość zwykle jest sezonowe lub godzinowe.

Rozsądny scenariusz to selektywna gęstość: małe komórki i dodatkowe nośne wdrażane tam, gdzie można wykazać stabilny, długoterminowy popyt (np. kampusy przemysłowe, porty, duże węzły komunikacyjne), zamiast kopiowania tej samej gęstości w obszarach wiejskich czy sypialniach miejskich.

Energetyka sieci prywatnych 5G

Sieci prywatne 5G (np. dla przemysłu) to ciekawy przypadek. Z jednej strony wprowadzają dodatkową infrastrukturę, z drugiej – mogą realnie zmniejszać zużycie energii w całym zakładzie, jeśli wypierają rozwiązania mniej efektywne (własne sieci Wi-Fi o dużej gęstości, tradycyjne systemy przewodowe, ręczne procesy).

Przykładowo, fabryka z prywatnym 5G może:

  • zredukować liczbę przestojów i błędów produkcyjnych dzięki niezawodnej łączności maszyn,
  • optymalizować pracę robotów i AGV na podstawie danych w czasie zbliżonym do rzeczywistego,
  • lepiej zarządzać energią w budynkach (inteligentne sterowanie HVAC, oświetleniem).

Jeżeli ta poprawa efektywności procesów przewyższa dodatkowy koszt energetyczny samej sieci 5G, bilans emisji może być dodatni. Problem pojawia się, gdy prywatne 5G jest wdrażane jako „gadżet innowacyjny”, bez twardych wskaźników efektywności – wówczas staje się kolejną warstwą IT do zasilania i chłodzenia.

Mierzenie śladu węglowego 5G: metryki, które coś znaczą, i te, które mylą

Bez ilościowych wskaźników „zielone 5G” jest hasłem reklamowym. Kluczowy dylemat: jak mierzyć wpływ sieci, żeby nie gubić kontekstu ani nie naginać wniosków do oczekiwanej narracji.

Metryki per bit: konieczne, ale niewystarczające

Podstawowa metryka, na którą lubią powoływać się dostawcy, to kWh/GB. Przydatna, ale pod trzema warunkami:

  1. obejmuje nie tylko RAN, ale także warstwę transportową i core,
  2. jest liczona w podobnych warunkach obciążenia (noc vs szczyt, ruch mobilny vs stacjonarny),
  3. jest zestawiana z całkowitym wolumenem ruchu i kWh w tym samym okresie.

Izolowana poprawa kWh/GB w RAN potrafi wyglądać spektakularnie, podczas gdy faktura za energię i łączny ślad CO2e rosną. Dlatego metryki per bit muszą być zawsze sparowane z metrykami per obszar (np. kWh/miasto, kWh/kraj) i per użytkownik (kWh/użytkownika/miesiąc).

Metryki per usługa i per SLA

Czysto telekomowe wskaźniki – przepływność, opóźnienie, dostępność – trzeba powiązać z energią i emisjami. Dobry kierunek to zestaw wskaźników typu:

  • kWh na godzinę działania usługi (np. prywatna sieć 5G w kampusie),
  • kWh na jednostkę biznesową (np. kWh na przeskanowaną paletę w magazynie, kWh na godzinę streamingu wideo),
  • kWh/SLA – ile energii pochłania utrzymanie danego poziomu opóźnień, redundancji i dostępności.

To na tym poziomie wychodzi na jaw, że „maksymalna przepływność zawsze i wszędzie” jest luksusem energetycznym, a wiele zastosowań biznesowych działa poprawnie przy niższych parametrach radiowych, jeśli są stabilne.

CO2e/kWh kontra „zielone” gwarancje pochodzenia

Operatorzy lubią powoływać się na 100% „zielonej energii” na podstawie gwarancji pochodzenia. Dla bilansu klimatycznego sieci 5G liczy się jednak faktyczny współczynnik emisji CO2e/kWh w systemie, z którego realnie pobierana jest energia.

Dwie typowe pułapki:

  • zakładanie zera emisji dzięki zakupowi certyfikatów, mimo że sieć działa w systemie elektroenergetycznym o wysokim udziale węgla lub gazu,
  • pomijanie emisji z budowy infrastruktury OZE i magazynów energii, jeśli są dedykowane pod sieć 5G.

Uczciwsze podejście to stosowanie marginalnego współczynnika emisji – ile dodatkowe kWh zużyte przez sieć zmienia emisje w systemie – zamiast uśredniania po całym miksie krajowym czy po idealnym scenariuszu z certyfikatu.

Metryki, które sprzyjają greenwashingowi

Istnieje kilka wskaźników, które świetnie wyglądają w prezentacjach, ale niewiele mówią o realnym wpływie na klimat:

  • „% poprawy efektywności energetycznej” bez podania poziomu bazowego – nie wiadomo, czy poprawiono się z bardzo złego na średnie, czy z dobrego na bardzo dobre,
  • liczba wyłączonych stacji 3G/2G bez informacji, jaki ruch przeniesiono i jak zmieniły się kWh w regionie,
  • „ekwiwalent liczby drzew” zamiast konkretnego CO2e oraz okresu czasu, którego dotyczy redukcja.

Jeżeli nie da się z metryki łatwo przeliczyć: „ile kWh, ile ton CO2e, w jakim okresie i w jakim scenariuszu porównawczym”, to raczej element marketingu niż narzędzie decyzyjne.

Zbliżenie kabli ethernet podłączonych do routera w nowoczesnej sieci
Źródło: Pexels | Autor: Pixabay

Architektura i funkcje 5G, które pomagają (lub przeszkadzają) w redukcji energii

5G oferuje wiele funkcji, które mogą być sprzymierzeńcem w zmniejszaniu zużycia energii. Kluczowe słowo: „mogą”. Ten sam zestaw mechanizmów potrafi też podnieść pobór mocy, jeśli jest skonfigurowany wyłącznie pod maksymalną wydajność.

Network slicing: elastyczność kontra narzut energetyczny

Slicing jest często przedstawiany jako remedium na wszystko – od jakości usług po ekologię. Rzeczywistość jest bardziej zniuansowana.

Korzyści energetyczne są realne, gdy slice’y są projektowane jako:

  • logiczne, a nie fizycznie wydzielone sieci z własnym sprzętem,
  • ściśle powiązane z konkretnymi wymaganiami – np. wąskopasmowy slice dla IoT z konserwatywnymi parametrami radiowymi,
  • zdolne do dynamicznego skalowania zasobów w zależności od ruchu.

Problem zaczyna się, gdy każdy dział biznesowy zamawia „swój własny slice z najwyższym SLA”, a operator, dla świętego spokoju, przydziela im nadmiar zasobów. Wtedy slicing zwiększa presję na utrzymywanie dużych rezerw mocy i pojemności – a więc również energii.

Dynamiczna alokacja zasobów i funkcje sleep mode

5G wprowadza rozbudowane mechanizmy usypiania elementów sieci, od pojedynczych nośnych po całe karty radiowe. Kluczowe funkcje obejmują m.in.:

  • Micro Sleep Tx (uśpienie podramkowe) – usypianie nadajnika w okresach bez transmisji, w skali mikrosekund,
  • Carrier On/Off – dynamiczne wyłączanie dodatkowych nośnych w godzinach niskiego ruchu,
  • MIMO layer adaptation – redukcja liczby aktywnych warstw MIMO, gdy nie jest potrzebna maksymalna przepływność.

Na papierze wygląda to imponująco. W praktyce wielu operatorów używa tych funkcji bardzo zachowawczo, obawiając się pogorszenia KPI, zwłaszcza w pomiarach crowdsourcowanych (aplikacje porównujące sieci). Efekt: stacje bazowe „jadą na pełnej mocy logistycznej” nawet w nocy czy w dni świąteczne.

Ścieżką wyjścia jest polityka energetyczna na poziomie zarządczym: akceptacja tego, że nocą czy w mało zaludnionych obszarach priorytetem jest efektywność, a nie topowe wyniki w rankingu prędkości.

MEC i edge computing: lokalne przetwarzanie, globalny rachunek

Multi-access Edge Computing (MEC) bywa przedstawiany jako sposób na redukcję śladu węglowego dzięki lokalnemu przetwarzaniu i mniejszemu ruchowi w sieci szkieletowej. To prawdziwe – ale z zastrzeżeniami.

Korzyści są największe, gdy:

  • dane lokalne faktycznie nie muszą opuszczać obszaru (np. analityka wideo w fabryce, lokalne systemy bezpieczeństwa),
  • obciążenie jest wystarczająco wysokie i przewidywalne, by serwery edge nie pracowały głównie „na pusto”,
  • MEC zastępuje istniejące, mniej efektywne energetycznie lokalne serwerownie, a nie dubluje funkcjonalność chmury.

W przeciwnym scenariuszu MEC staje się kolejną „mini-serwerownią” do zasilania, chłodzenia i utrzymania, a ruch i tak trafia do centralnych data center – ślad węglowy rośnie zamiast maleć.

Funkcje URLLC i mMTC a koszt energetyczny

5G definiuje trzy główne „smaki” usług: eMBB, URLLC i mMTC. Dwa ostatnie mają ciekawe konsekwencje dla energii.

URLLC (Ultra-Reliable Low Latency Communications) wymaga bardzo niskich opóźnień i wysokiej niezawodności. To zwykle oznacza:

  • gęstszą infrastrukturę,
  • rezerwę zasobów radiowych i transportowych,
  • często lokalne przetwarzanie na brzegu sieci.

Skutek: wysoki koszt energetyczny per połączenie. Tego typu parametry mają sens tam, gdzie każdy milisekundowy zysk przekłada się na bezpieczeństwo lub dużą wartość biznesową (np. krytyczne sterowanie). W zastosowaniach czysto konsumenckich URLLC bywa jednak nadużywane jako hasło – sieć jest projektowana pod bardzo wyśrubowane parametry, które w realnych aplikacjach nie są potrzebne.

mMTC (massive Machine Type Communications) z założenia ma wspierać ogromną liczbę energooszczędnych urządzeń. Tu 5G rzeczywiście oferuje narzędzia do redukcji zużycia energii po stronie urządzeń (np. eDRX, PSM). Jeśli jednak przy okazji generuje się gigantyczne ilości danych „na wszelki wypadek”, to zysk energetyczny na krańcu zostaje „przepalony” w sieci i chmurze na ich przechowywanie i analizę.

Kable sieciowe podłączone do serwera w centrum danych
Źródło: Pexels | Autor: Brett Sayles

Optymalizacja energetyczna RAN 5G: od planowania po algorytmy AI

Radiowa część sieci (RAN) to najintensywniejszy konsument energii w mobilnym ekosystemie. Optymalizacja nie zaczyna się od AI – tylko od kilku przyziemnych decyzji inżynierskich.

Planowanie sieci pod realne, a nie „szczytowe” potrzeby

Klasyczne podejście do projektowania RAN: sieć ma wytrzymać rzadki, ale spektakularny szczyt (koncert, mecz, okres świąteczny). Pod to dobiera się gęstość i konfigurację. Efekt – nadmiarowa pojemność przez większą część roku.

Bardziej pragmatyczna strategia:

  • projektowanie pod typowe obciążenie dzienne i tygodniowe,
  • użycie tymczasowych rozwiązań (np. mobilne stacje, dodatkowe nośne czasowe) na wydarzenia masowe,
  • ściślejsza współpraca z organizatorami eventów, żeby przewidywać ruch i przygotowywać krótkoterminowe scenariusze konfiguracji, zamiast budować permanentną nadmiarowość.

To mniej widowiskowe niż chwalenie się „gwarancją 1 Gbit/s na każdym stadionie 24/7”, ale długofalowo bardziej korzystne dla rachunku za prąd.

Energy saving jako KPI, nie „nice to have”

W wielu sieciach funkcje oszczędzania energii są dostępne, ale ich konfiguracja jest kompromisem między komfortem inżyniera a minimalizacją ryzyka. Zmiana zaczyna się wtedy, gdy kWh staje się normalnym KPI w operacjach sieciowych, na równi z dostępnością czy przepływnością.

Praktyczne podejście obejmuje:

Operacjonalizacja oszczędzania energii w RAN

Żeby kWh nie były tylko slajdem w strategii ESG, trzeba je wpleść w codzienną pracę operacji sieciowych. To oznacza zmianę na poziomie procesów, narzędzi i kultury.

Praktyczne elementy takiego podejścia to m.in.:

  • budżety energetyczne na poziomie regionów – tak jak istnieje budżet CAPEX na modernizacje, tak samo można definiować „budżet MWh” z celami redukcyjnymi,
  • dashboardy O&M z kWh jako pierwszoplanową metryką, a nie ukrytą w oddzielnym raporcie ESG,
  • procedury zmiany konfiguracji, w których każdy request na „podniesienie parametrów jakości” ma sekcję: koszt energetyczny i przewidywany wzrost emisji CO2e,
  • premiowanie zespołów sieciowych nie tylko za KPI techniczne, ale też za utrzymanie lub poprawę efektywności energetycznej.

Popularna rada „włączmy wszystkie funkcje energy saving z domyślnymi ustawieniami” rzadko działa. Standardowe profile zwykle są ostrożne, żeby nie ryzykować reklamacji jakościowych. Lepszy efekt daje:

  • faza pilotażu na ograniczonym obszarze (np. jedno miasto, konkretna warstwa częstotliwości),
  • stopniowe zacieśnianie parametrów (krótsze timery, głębsze tryby uśpienia) przy równoległym monitoringu jakości,
  • segregację obszarów: agresywne oszczędzanie w niskoruchowych lokalizacjach, konserwatywne w hotspotach krytycznych biznesowo.

Typowy przykład z życia: po włączeniu agresywnego wyłączania nośnych w nocy pojawiają się pojedyncze skargi użytkowników nocnych dostaw czy kierowców. Zamiast wycofywać funkcję z całego kraju, sensowniej jest odfiltrować konkretne lokalizacje, gdzie ruch nocny jest wyższy niż zakładano (logistyka, centra handlowe, strefy przemysłowe) i tylko tam złagodzić profile oszczędzania.

AI/ML w energetyce RAN: gdzie ma sens, a gdzie jest przerostem formy

Uczenie maszynowe bywa traktowane jako panaceum na wszystkie problemy energetyczne. Tymczasem prosty skrypt korelujący ruch z godziną dnia potrafi dać kilkadziesiąt procent zysku. AI zaczyna mieć przewagę dopiero tam, gdzie prostych zależności już nie widać.

Scenariusze, w których AI/ML ma realny sens:

  • predykcyjne profile ruchu – nie tylko godzina i dzień tygodnia, ale też sezonowość, lokalne wydarzenia, warunki pogodowe (np. mocny deszcz = mniej ruchu outdoor, więcej indoor),
  • dynamiczna optymalizacja parametrów – zamiast sztywnych progów (włącz/wyłącz nośną o 23:00), model przewiduje ryzyko przeciążenia przy danej konfiguracji i dobiera ustawienia pod konkretny dzień i region,
  • koordynacja między stacjami – algorytm widzi, że sąsiednie komórki są słabo obciążone, więc może „uśpić” część z nich i lekko podnieść moc pozostałych, zamiast trzymać wszystkie w trybie czuwania.

Gdzie AI robi więcej szumu niż pożytku?

  • gdy brakuje sensownych danych wejściowych – logi energetyczne są zgrubne, ruch raportowany rzadko, a konfiguracje zmieniane ręcznie bez rejestru,
  • gdy horyzont czasowy decyzji jest bardzo długi (planowanie makro na lata) – tu nadal wystarczy porządny model symulacyjny i zdrowy rozsądek,
  • gdy AI ma maskować brak polityki – brak decyzji, gdzie akceptujemy czasowe obniżenie jakości, algorytm ma „magicznie” pogodzić wszystko naraz.

Alternatywa: zacząć od prostych, zautomatyzowanych reguł (time-of-day, profile weekend/weekday, tryby świąteczne), dopiero potem dołożyć modele predykcyjne tam, gdzie reguły wyraźnie zawodzą. Dobrym kryterium jest pytanie: czy człowiek dałby radę podjąć tę decyzję ręcznie, mając na ekranie 3–4 wykresy? Jeśli tak, AI jest tu luksusem, nie koniecznością.

Współdzielenie RAN a ślad węglowy

Sharing RAN (MORAN, MOCN) jest jednym z niewielu narzędzi, które niemal automatycznie obniżają zarówno CAPEX, jak i ślad węglowy – pod warunkiem, że nie kończy się „podwójną” siecią na tych samych masztach.

Trzy kluczowe scenariusze:

  • wspólny pasywny RAN (maszty, zasilanie, chłodzenie) – redukcja emisji związanych z budową i utrzymaniem infrastruktury fizycznej,
  • aktywny sharing w obszarach wiejskich – zamiast dwóch lub trzech niedociążonych sieci, jedna gęstość pokrycia z rozsądnym obciążeniem energetycznym,
  • czasowe współdzielenie nośnych – np. jeden operator utrzymuje wyższą pojemność w dzień, drugi w nocy, z koordynacją konfiguracji.

Popularna obawa: sharing ogranicza konkurencję i hamuje innowacje. Z perspektywy energii jest odwrotnie – osobne, słabo wykorzystane sieci tworzą trwały „dług ekologiczny”. Rozwiązaniem nie jest rezygnacja z sharingu, lecz precyzyjne wyznaczenie obszarów, gdzie rzeczywista konkurencja wymaga podwójnej infrastruktury (np. ścisłe centra miast, strefy biurowe), a gdzie jej koszt – finansowy i emisyjny – jest nieproporcjonalny do zysku dla klienta.

Modernizacja sprzętu: kiedy wymiana się opłaca klimatycznie

Argument „nowy sprzęt jest bardziej energooszczędny, więc wymieniajmy szybko” brzmi ekologicznie, dopóki nie uwzględni się emisji wbudowanych (embodied carbon). Każdy nowy moduł radiowy to ślad węglowy produkcji, transportu i recyklingu starego wyposażenia.

Prosty test opłacalności klimatycznej wymiany obejmuje:

  • porównanie zużycia energii starego i nowego sprzętu w realistycznym profilu ruchu (nie tylko w idealnych warunkach labowych),
  • oszacowanie emisji wbudowanych dla nowego zestawu (dane od dostawcy lub z modelu LCA),
  • obliczenie okresu „spłaty węglowej” – po ilu latach niższe zużycie energii zrekompensuje emisje z produkcji i wymiany.

Jeśli okres spłaty przekracza planowany czas użytkowania sprzętu lub licencje – ekologicznie taka modernizacja jest wątpliwa. Czasem lepiej jest:

  • wymieniać sprzęt priorytetowo w lokalizacjach o wysokim ruchu, gdzie zysk energetyczny jest największy,
  • re-używać starszy sprzęt w mniej krytycznych obszarach, zamiast wysyłać go od razu do recyklingu,
  • optymalizować konfigurację istniejących modułów (np. wyłączenie części warstw MIMO, refarming pasm) zanim zapadnie decyzja o fizycznej wymianie.

Kontrprzykład dla modnego hasła „all-in na Open RAN dla ekologii”: pierwsza fala wdrożeń często oznacza równoległe utrzymywanie starej architektury, dodatkowe serwery na warstwę wirtualizacji oraz eksperymentalne konfiguracje. W krótkim okresie ślad węglowy może wzrosnąć, nawet jeśli docelowa architektura będzie bardziej efektywna. Realnie ekologiczny jest dopiero scenariusz z planem wyłączenia starej infrastruktury i konsolidacją funkcji, a nie „dokładania” kolejnej warstwy.

Sieć szkieletowa, chmura i data center – ukryty koszt ekologiczny 5G

Debata o energii 5G bywa skupiona na masztach i antenach, a tymczasem coraz większa część pracy (i zużycia prądu) przenosi się do warstwy core i chmury. Im bardziej funkcje sieciowe się wirtualizują, tym większe znaczenie ma efektywność centrów danych i oprogramowania.

Wirtualizacja i cloud-native 5G Core: zysk czy dodatkowy narzut?

Przejście z monolitycznego EPC na wirtualizowany lub cloud-native 5G Core ma potencjał oszczędnościowy – ale nie automatyczny. Zyski pojawiają się głównie wtedy, gdy:

  • infrastruktura jest wysoko współdzielona między funkcjami sieciowymi i innymi aplikacjami (telco cloud, nie „dedykowana farma serwerów pod jeden use case”),
  • stosuje się dynamiczne skalowanie instancji (auto-scaling) z uwzględnieniem ruchu w diurnalnym cyklu,
  • funkcje sieciowe są zaprojektowane tak, by korzystać z efemerycznych zasobów, a nie utrzymywać na stałe nadmiarowe instancje z powodu zbyt konserwatywnych SLA.

Z drugiej strony, wirtualizacja wprowadza narzuty:

  • hypervisor, warstwa kontenerowa, platforma zarządzająca – każda z nich zużywa zasoby niezależnie od rzeczywistego ruchu,
  • nadmierny microservice splitting – dziesiątki drobnych usług generujących dużo ruchu „własnego” wewnątrz data center,
  • stałe rezerwy mocy obliczeniowej utrzymywane „na wszelki wypadek”, gdy zespół nie ufa mechanizmom auto-scaling.

Kontrariańska uwaga: nie każde przesunięcie funkcji z appliance sprzętowego do chmury obniży ślad węglowy. Solarna farma serwerów o wysokim PUE może być lepsza niż małe, gorzej chłodzone mini-data center, ale już migracja ze zoptymalizowanego ASIC do ogólnego x86 w źle zarządzanej serwerowni potrafi zwiększyć popyt na energię per Gbit ruchu.

PUE, WUE i inne parametry centrów danych w kontekście 5G

Klasyczne wskaźniki centrów danych – PUE (Power Usage Effectiveness) czy WUE (Water Usage Effectiveness) – rzadko są łączone z analizą 5G. A to one w dużej mierze decydują, ile energii „znika” w zasilaczach i chłodzeniu zamiast w faktycznej pracy funkcji sieciowych.

Podstawowe pytania przy projektowaniu core 5G i warstwy chmurowej:

  • jakie jest PUE docelowych lokalizacji i jak wypada w porównaniu ze starszymi, lokalnymi serwerowniami operatora,
  • czy kluczowe funkcje 5G będą skupione w najbardziej efektywnych obiektach, czy rozsmarowane po wielu mniejszych, gorszych energetycznie lokalizacjach (np. MEC w nieoptymalnych budynkach),
  • czy wybór lokalizacji chmury uwzględnia lokalny miks energetyczny (regiony z wysokim udziałem OZE), a nie tylko koszty i opóźnienia.

Zdarza się paradoks: przeniesienie funkcji do „hiperskalera z niskim PUE” obniża zużycie energii elektrycznej per jednostkę obliczeń, ale fizyczna lokalizacja data center w regionie z wysokim udziałem węgla sprawia, że ślad CO2e rośnie. Dlatego sama wartość PUE nie wystarcza – musi być czytana razem z marginalnym współczynnikiem emisji dla danej strefy.

Projektowanie funkcji sieciowych pod efektywność obliczeniową

Efektywność energetyczna to nie tylko kwestia infrastruktury, ale też kodu. 5G Core i aplikacje OSS/BSS bywają projektowane z myślą o maksymalnej elastyczności i szybkości wdrażania, co w świecie cloud-native często oznacza ciężkie stosy, wielowarstwowe abstrakcje i bogate frameworki. Z perspektywy MWh to kosztowny luksus.

Kilka praktycznych kierunków optymalizacji:

  • profilowanie zużycia CPU i pamięci dla głównych ścieżek sygnalizacji (rejestracja, handover, sesje danych) i ich optymalizacja pod kątem liczby wywołań,
  • redukcja czatowania między microserwisami – mniejsza liczba skoków sieciowych wewnątrz data center to nie tylko krótsze opóźnienia, ale też mniej pracy dla CPU i sieci,
  • wprowadzenie klas „eko” dla mniej krytycznych zadań (np. batch’owe raportowanie, analityka offline) – mogą być przypisane do węzłów o niższym priorytecie energetycznym, uruchamiane w godzinach niższego obciążenia i w regionach z niższym marginalnym współczynnikiem emisji.

Popularna rada „konteneryzujmy wszystko” przestaje być atrakcyjna, gdy pojawia się wiele warstw orkiestracji, monitoringu, service mesh i bezpieczeństwa, każda z własnymi demonami i agentami. W krytycznych komponentach 5G Core bywa sens utrzymania ciężaru w rozsądnych ryzach – mniej frameworków, więcej prostego, dobrze profilowanego kodu, nawet kosztem nieco wyższego wysiłku developerskiego.

Migracja do chmury publicznej a greenwashing

Operatorzy chętnie podkreślają korzystanie z „zielonej chmury”, ale diabeł tkwi w szczegółach modelu rozliczeń i przydziału zasobów. Migrując funkcje 5G do chmury, można:

  • realnie zwiększyć wykorzystanie zasobów (współdzielenie z innymi klientami, lepszy load balancing),