Breaking news
Zapraszamy do współpracy w 2025 r.! Po więcej informacji skontaktuj się z nami mailowo: [email protected]

Obecnie rozwój w energetyce określają najczęściej dwie anglojęzyczne nazwy, a mianowicie Smart Metering i Smart Grid. Zwykle pojęcia te są mylone i chyba najprościej przyjąć, że pierwsze jest częścią drugiego, czyli inteligentna sieć korzysta z danych pomiarowych. Tutaj jednak zaczyna się pewna rozbieżność.

Adam Hreszczyk*

Smart Metering, czyli inteligentne opomiarowanie (zwane także Advanced Metering Infrastructure, w skrócie AMI) ma sugerować, że w końcu wymyślono sposób, żeby informacja o stanie sieci elektroenergetycznej była pełna i dokładna, jak tylko jest to możliwe. Jednak pomimo ogromnego zaangażowania technologicznego, a w dalszej kolejności administracyjnego i politycznego, starania, aby AMI zawitało pod przysłowiowe strzechy w ostatnim okresie, zaczęły się załamywać. Niedawno otrzymałem telefon z informacją, że zakład energetyczny musi wymienić mi licznik. Na pytanie, dlaczego zmieniają, skoro już mam model nowoczesny, elektroniczny, dostałem odpowiedź, że będę miał znowu indukcyjny, bo… indukcyjne mają dłuższy okres homologacji. I to by było na tyle, jeśli chodzi o inteligentne opomiarowanie mojej strzechy. Okazuje się, że nie da się zbudować inteligentnej sieci, skupiając się wyłącznie na inteligentnych urządzeniach, które są jednak jej warunkiem koniecznym. Istota zagadnienia tkwi w kwestii podejścia do danych, jakie są pozyskiwane. Poniższy artykuł jest próbą pokazania na przykładach z innych dziedzin, jakie problemy należy przezwyciężyć w drodze do Smart Grid.

Zacznijmy od podstawowej sprawy opisanej w książce Kevina Maney'a pod tytułem „Coś za coś”, czyli konfliktu pomiędzy jakością a dostępnością. Okazuje się, że niedocenienie tej zależności było przyczyną niepowodzeń wielu przedsięwzięć, a dokładniej ugrzęźnięciem na czymś, co autor książki określa jako „ziemia niczyja”. Zależność jest taka, że dany produkt ma rację bytu w dwóch wariantach. Pierwszy przypadek, to wysoka jakość, która jest okupiona węższą grupą odbiorców, którzy jednak zapłacą tyle, że mała ilość produktu nie będzie przeszkodą, aby inwestycja się zwróciła. W drugim wariancie jest niższa jakość, co za tym idzie niska cena, co wiąże się z większą grupą potencjalnych odbiorców, czyli większą dostępnością. Często okazuje się także, że w danej niszy rynkowej nie ma zapotrzebowania na produkt wysokiej jakości i jest on wypierany przez bardziej dostępny, i na odwrót. Można przytoczyć wiele przykładów, począwszy od świetnego systemu Betamax firmy Sony z lat osiemdziesiątych, który przegrał z gorszym, ale powszechnym VHS, przejścia IBM na Linux'a, dzięki czemu ich serwery z drogich i mało dostępnych stały się konkurencyjne, walkę American Airlines z tanimi liniami lotniczymi, a skończywszy na nieudanym przedsięwzięciu Teledesic, polegającym na wypełnieniu przestrzeni kosmicznej dużą ilością satelitów w celu zapewnienia powszechnego, taniego internetu o dużym przesyle i jakości.

Warto się teraz zastanowić, w jakim miejscu jest obecnie akcja montażu inteligentnych liczników. Otóż mamy założenie, że nowoczesne liczniki znajdą się u wszystkich odbiorców komunalnych i że systemy Smart Grid będą z tych danych korzystały. Należy pamiętać, że liczniki te dysponują pomiarem raczej wysokiej jakości, a dodatkowo ilość parametrów, jakie można uzyskać z takiego licznika, jest dosyć spora. Bez wchodzenia w szczegóły, można napisać, że w jednym momencie licznik potrafi podać kilkadziesiąt parametrów energii elektrycznej. Mamy więc coś, co można bez obaw uznać za przedsięwzięcie o wysokiej jakości. Tutaj niestety pojawia się spór z dostępnością, czyli założeniem, że dane z każdego licznika zostaną gdzieś dostarczone i zmagazynowane w jakiejś bazie danych, choćby po to, aby jakiś system typu Big Data przeprowadził na nich analizy. I nie chodzi tutaj o zmagazynowanie pomiaru z jakiegoś konkretnego czasu. Trzeba wziąć pod uwagę ciągłe odczyty jako zsynchronizowane dostarczanie dużej ilości danych i podpinanie co jakiś czas nowego serwera, aby przechowywać informację o milionach włączeń czajników elektrycznych lub innych urządzeń. Tutaj widać pierwszy błąd koncepcyjny, czyli założenie, że inteligentne opomiarowanie będzie jednocześnie wysokiej jakości oraz możliwe do przeprowadzenia na masową skalę. Historia różnych przedsięwzięć, jak i obecny stan samego AMI, pokazuje, że należy podejść do problemu w bardziej złożony sposób.

Przyjrzyjmy się wykonawcom projektów inteligentnego opomiarowania, a dokładniej stronom, które zajmują się zbieraniem danych pomiarowych w bazach. Są to najczęściej firmy o profilu IT lub informatyczne oddziały zakładów energetycznych, które przy projektowaniu swoich systemów oparły się na zakresie danych w standardowych systemach bilingowych. Z reguły jest to zużycie energii czynnej i dopiero, gdy ktoś wykonuje inny system, mający korzystać z danych w bazie pomiarów, okazuje się, że chce także mocy biernej, o zgrozo, w czterech kwadrantach. Jak już wspomniałem liczniki mierzą bardzo dużo parametrów, ale niestety na dzień dzisiejszy zostają one w rejestrach urządzenia. Pozyskiwanie ograniczonego zakresu danych nie jest jedynie wynikiem oparcia się na dotychczasowych rozwiązaniach systemów bilingowych, ale także tego, co na Zachodzie jest już określane jako „big data problem”. Chodzi o realne możliwości systemów do przesyłania i magazynowania tak wielkiej ilości odczytów. Samo bilansowanie obarczone jest dużym błędem, gdyż im więcej liczników, tym trudniej je zsynchronizować, aby pomiar następował w tym samym czasie. No i najważniejsza kwestia, że aby można było zrobić jakiś użytek z tych danych poza próbą bilansowania systemu, każdy odczyt musi mieć informację, w jakim miejscu sieci został wykonany. To jest dosyć często pomijane w rozważaniach nad systemami Smart Gridowymi, bo unikalny numer licznika to za mało. Chodzi o to, że próbując inteligentnie zarządzać siecią, należy mieć jej komputerowy model, który pozwoli przyporządkować każdy licznik do miejsca, w którym rzeczywiście dokonywany jest odczyt. Dopiero wtedy można myśleć o wykorzystaniu danych z liczników do rekonfiguracji mającej na celu np. zmniejszenie strat, analizowanie wpływu źródeł OZE na lokalną sieć, na wykrywaniu kradzieży kończąc. Do stworzenia komputerowego modelu sieci służą systemy informacji przestrzennej, w skrócie GIS (Geographic Information System) i już samo wprowadzenie danych o rozległej sieci jest ogromnym przedsięwzięciem.

Można zadać sobie pytanie, czy dokładne opomiarowanie każdego odbiorcy komunalnego ma sens. Jak już wcześniej wspomniałem, na Zachodzie, gdzie wcześniej zaczęto montować inteligentne liczniki, w wielu miejscach inżynierowie spotykają się z nadmiarem informacji, który określają jak „big data problem". W rozważaniach nad nowoczesnymi rozwiązaniami czasami warto wrócić trochę do przeszłości. Kilka lat temu czytałem świetną książkę Philipa Ball'a „Masa krytyczna. Jak jedno z drugiego wynika”, która w przystępny sposób opisuje, jak zasady dotyczące fizyki przekładają się choćby na zachowania społeczeństw. Autor na początku książki cofnął się do dziewiętnastego wieku, aby wyjaśnić, w jakim celu fizycy zaczęli wykorzystywać statystykę do opisania pewnych zjawisk. Chodzi tutaj o drugą zasadę termodynamiki, którą można przedstawiać w różnej formie. Głównie chodzi o to, że procesy obejmujące odpowiednio dużą liczbę cząstek są nieodwracalne, a dodatkowo, gdy układ nie jest termicznie izolowany, pewna cześć energii jest tracona, głównie rozpraszana jako ciepło. Sposób, w jaki przebiegają procesy, np. mieszają się ze sobą gazy lub ciecze, opisuje entropia, która na początku była trudna do określenia. Można przyjąć, że gdy mamy np. dwie kule bilardowe, nietrudno przewidzieć ich zachowanie po zderzeniu. Problemy zaczynają się, gdy badaniu ma podlegać sposób zachowania się nawet małej objętości jakiegoś gazu np. przy zmieszaniu z innym. Znajduje się tam już tyle atomów, że opisanie jakichkolwiek zasad z użyciem modelu mechanicznego mija się z celem. Stąd też wymyślono kinetyczną teorię gazów, która bazuje na tym, że nie trzeba znać szczegółów poruszania się każdej cząsteczki tylko średnie zachowanie. Teorię tę rozwinął James Clerk Maxwell, który założył, że rozkład prędkości cząsteczek będzie przypominał krzywą w kształcie dzwonu, czyli tych poruszających się ze średnią prędkością będzie najwięcej, a liczba szybszych i wolniejszych będzie malała w kierunku skrajnych szybkości. Jeśli weźmie się np. balon z gazem, nie ma takiej możliwości, że nagle jego połowa stanie się sflaczała, a druga mocno napompowana, bo entropia działa tak, że stan, w którym prędkość cząsteczek będzie równo rozłożona po całej objętości, jest najbardziej prawdopodobny. Dzięki temu, aby opisać stan takiego balonu, wystarczą tylko trzy wielkości, tzn. ciśnienie, objętość i temperatura, bez wchodzenia w szczegóły, co się dzieje z każdą cząsteczką. Ten przypadek pokazuje, że aby opisywać skomplikowane zjawiska, wcale nie potrzeba posiadać dokładnej informacji na temat wszystkich jego szczegółów, co moim zdaniem przekłada się także na Smart Metering. Po pierwsze odbiorcy zachowują się analogicznie jak cząsteczki, czyli większość będzie miała w miarę standardowe zużycie, a ci, którzy bardzo oszczędzają lub mają włączone jak najwięcej urządzeń, znajdują się na skraju krzywej dzwonowej.

Jak widać z poprzedniego akapitu, dążenie do gromadzenia danych z dużego obszaru nie ma większego sensu, ponieważ im więcej informacji, tym większe uśrednienie i tym samym mniejsza potrzeba kompletnego ich gromadzenia. Można by sądzić, że nowoczesne liczniki nie są potrzebne, bo wystarczy ich montaż tylko w rozdzielniach. Jednakże na skutek wzrostu znaczenia OZE mamy do czynienia z nowymi warunkami, które nastręczają coraz więcej problemów. O ile bowiem standardowe źródła wytwórcze oraz typowi odbiorcy są mocno przewidywalni, o tyle pogoda, która ma wpływ na odnawialne źródła energii, już taka nie jest. Jak można się dowiedzieć z książki Ian'a Stewart'a „Liczby natury”, pogoda nie należy do zjawisk, które da się opisać konkretnymi wzorami, ale jest to zjawisko chaotyczne. Dodatkowo, zwykle ma ona zasięg lokalny oraz może się szybko zmieniać w taki sposób, że pomiary wykonane na jednym obszarze nijak się mają do położonego kilkadziesiąt kilometrów dalej. Z tego powodu coraz bardziej sensownym podejściem do tematu inteligentnego sterowania siecią są tzw. klastry energii, czyli lokalne skupiska odbiorców oraz prosumentów. Skoro obszar jest mniejszy, pozyskanie dobrej jakości danych w krótszym czasie staje się bardziej realne. W takim kontekście rozważany jest internet rzeczy (Internet of Things, IoT), który opiera się na danych pozyskiwanych już nie od samych odbiorców, ale od poszczególnych urządzeń. W sieci z dużą ilością źródeł odnawialnych może dochodzić do przeciążeń lub deficytów energii elektrycznej. Jednym z rozwiązań jest odgórne sterowanie odbiornikami w taki sposób, aby w czasie deficytu zasilane były tylko te najbardziej potrzebujące. Istnieją już działające systemy, np. Power Matcher sterujące urządzeniami na zasadach popytu i sprzedaży, gdzie urządzenia zasilane w pierwszej kolejności to te, które są gotowe więcej „zapłacić” za energię. Czyli na przykład lodówka, w której temperatura dąży do punktu, w którym jej własny sterownik i tak by już włączył w niej chłodzenie.

Przykłady z życia świadczą niestety, że możliwości, jakie daje technologia, często przerastają nasze umiejętności wyciągania prawidłowych wniosków. Ciekawy przykład znajduje się w książce Malcolma Gladwell'a „Co widział pies i inne przygody”. W jednym z rozdziałów zostały opisane problemy związane z bombardowaniami irackich baterii SCUD'ów przez lotnictwo USA oraz z mammografią. Otóż zarówno w jednym, jak i w drugim przypadku instrumenty pomiarowe osiągnęły już bardzo wysoki poziom technologiczny, a wszystko rozbija się o interpretację wyników. Problemem pilotów było to, że pomimo dokładnego obrazu i tak nie potrafili ocenić, czy bombardowany obiekt jest makietą, cysterną lub prawdziwą baterią rakiet. Po wojnie okazało się, że liczba zniszczonych SCUD'ów była znacznie mniejsza niż ogólna liczba zniszczonych celów, co mocno zweryfikowało samozachwyt lotników co do swojej skuteczności. W przypadku mammografii, dzięki nowoczesnym instrumentom diagnostycznym, lekarze mają dokładny obraz zmiany w tkankach. Jednakże kwestia ich interpretacji jest bardzo często loterią. U jednej kobiety zmiana może być całkowicie niegroźna, natomiast w przypadku innej pacjentki, taka sama anomalia może rozwinąć się w nowotwór. Przytoczone wyżej przykłady świadczą o tym, że jeśli myślimy o sterowaniu siecią, której warunki pracy mogą się szybko zmienić, co było wspomniane w poprzednim akapicie, musimy zdać się na bardziej zaawansowaną predykcję, wykonywaną przez automatykę. Oczywiście nie należy zapominać, że sam mózg człowieka potrafi bardzo dobrze analizować dane i często dzieje się to automatycznie. Jest to opisane przez wspomnianego wcześniej autora, ale już w innej książce pod tytułem „Błysk”. Niestety człowiek ma ograniczone możliwości pod kątem przyjmowania dużej ilości danych. Dlatego już teraz istnieją coraz bardziej zaawansowane systemy medyczne, oparte na Big Data, które np. w przypadku nowotworów, wezmą pod uwagę nie tylko sam wygląd zmiany chorobowej, ale setki innych czynników jak np. stan powietrza i wody w obszarze, w której zachodzi najwięcej zachorowań. Nie inaczej jest w przypadku przetwarzania danych pomiarowych i znajdowania związku z innymi czynnikami wpływającymi na sieć. Tutaj powstaje pole do popisu dla zastosowania bardziej zaawansowanych technik, jak algorytmy uczące się, modele regresji czy sieci neuronowe, a rola człowieka to mądre ich zaimplementowanie, co może być najbardziej krytycznym elementem przedsięwzięcia. Należy pamiętać, że głównym „paliwem” dla takich rozwiązań są dane pomiarowe, a zatem rozwój AMI jest nieunikniony, ale podstawą jest umiejętne dostarczenie tych danych do systemu analitycznego.

Spójrzmy teraz na przykład dlaczego człowiek jest najsłabszym ogniwem, ale z punktu widzenia prosumenta. „Inteligentne” opomiarowanie dotyczy przede wszystkim odbiorców komunalnych. Jednak ten typ odbiorcy tak naprawdę wpływa mocno na obciążenie sieci jedynie w szczycie wieczornym i to się raczej nie zmieni. Oczywiście, informacja o aktualnym zużyciu wyświetlana na liczniku może coś zasugerować odbiorcy i co bardziej świadomi zaczną bardziej racjonalnie wykorzystywać energię. Jednak wątpię, aby ktoś aż tak wziął sobie to do serca i zmienił swój cykl aktywności jak bohater komedii „Co mi zrobisz, jak mnie złapiesz”, który śniadanie jadał na kolację. Do zmniejszenia obciążenia w szczycie jest potrzebna automatyka, która włączy np. pralkę w środku nocy. Niestety, jak na razie polskie społeczeństwo chyba nie cierpi na nadmiar środków finansowych i nie jest w stanie powszechnie zamieniać działających urządzeń domowych na wersje „Smart”. Całkiem inaczej sprawa ma się z dużymi odbiorcami, czyli głównie zakładami przemysłowymi. Dla nich nie potrzeba żadnej dyrektywy unijnej lub przepisów wymuszających montaż nowoczesnych liczników. Im to się po prostu opłaca, bo dokładna informacja o zużyciu daje możliwości do oszczędzania i, w przeciwieństwie do odbiorcy komunalnego, nie są to groszowe sprawy. Oczywiście, taką niszę na rynku odkryło już wiele firm i udaje im się na tym zarobić, jednocześnie przyczyniając się do ograniczenia obciążenia generowanego przez dużych odbiorców. Świetny przykład na temat świadomości potencjalnych prosumentów pochodzi z książki Steven'a D. Levitt'a i Stephen'a J. Dubner'a pt. „Myśl jak freak”. Chodzi o motywy postępowania, które zostały zbadane przez psychologa Roberta Cialdiniego, zajmującego się zagadnieniami wywierania wpływu. Przeprowadził wspólnie z innymi naukowcami eksperyment, w którym badał, co zachęca ludzi do oszczędzania energii elektrycznej w domu. Najpierw przeprowadzono ankietę telefoniczną, w której respondenci na pierwszym miejscu wymieniali takie pozytywne motywy, jak ochrona środowiska czy korzyści dla społeczeństwa. W następnym etapie przeprowadzono eksperyment, w którym rozprowadzono wśród mieszkańców ulotki zachęcające do wyłączenia klimatyzacji podczas upałów, jednakże w poszczególnych rejonach zastosowano różne zachęty. I tutaj nastąpił zwrot. Po przeanalizowaniu zużycia energii w badanych rejonach wynik był zupełnie inny niż podczas ankiet telefonicznych. Najbardziej przekonywującą zachętą okazało się hasło „Dołącz do swoich sąsiadów”, przy której dodatkowo umieszczono informację, że „77 procent okolicznych mieszkańców często używa wentylatorów zamiast klimatyzacji”. Czyli zwyciężył najbardziej podstawowy stadny instynkt, co w zasadzie nie jest takie godne potępienia, o czym można dowiedzieć się z dalszej części książki. Eksperyment ten został przeprowadzony w Kalifornii i można się zastanowić, czy w Polsce zachęty o ochronie środowiska lub oszczędności byłyby lepiej przyjęte.

Podsumowując, myślę, że na podstawie przytoczonych przykładów widać dlaczego wdrożenie Smart Meteringu napotkało problemy, ale przedstawione analogie w miarę obrazowy sposób zasygnalizowały ich źródło. Z ostatniego przykładu widać, że ciężko opierać się na dobrej woli konsumentów, co z kolei pokazuje, jak ważne jest inteligentne zarządzanie siecią. Powinno ono wykorzystywać odpowiednio przetworzony zbiór danych pomiarowych, umiejscowionych w modelu GIS, który jest na tyle elastyczny, aby zasilić danymi systemy automatycznie wspierające pracę sieci. Obserwując obecną sytuację na rynku, nasuwają się następujące wnioski:

  • Firmy zajmujące się produkcją systemów pomiarowych powinny zrewidować wymagania rynku i mocno rozszerzyć swoje kompetencje w dziedzinie tworzenia i utrzymania modelu GIS oraz iść w stronę jakości modelu danych pomiarowych, zamiast jego wielkości. Jest to tym bardziej potrzebne, gdyż nie wiadomo, czy obecne pilotażowe wdrożenia AMI zostaną rozszerzone choćby ze względu na to, że w niektórych rejonach kończy się już homologacja liczników zainstalowanych w pierwszej kolejności.
  • Kolejne lata mogą przynieść spadek mocy głównych jednostek wytwórczych, co przełoży się na znaczny wzrost znaczenia odnawialnych źródeł energii (OZE). Trzeba jednak pamiętać, że OZE (takie jak farmy wiatrowe czy fotowoltaika) są dosyć niestabilne, gdyż zależą od warunków atmosferycznych. Przy takiej zmienności wymagane są magazyny energii, które przejmą nadwyżkę, gdy mocno wieje lub jest bardzo słonecznie, a oddadzą nadwyżkę np. w bezwietrzny, pochmurny poranek lub w przypadku spadku napięcia wywołanego awarią. Ta ostatnia rzecz jest w wielu miejscach bardzo użyteczna dla firm, które ponoszą duże straty w wypadku nagłego zatrzymania produkcji. Wymaga to dobrze zorganizowanego systemu pomiarowego, dającego informację, w jaki sposób magazyny mają magazynować lub oddawać energię. Ponadto, centralne zbieranie danych pomiarowych jest coraz bardziej utrudnione i możliwości zapanowania nad nimi można upatrywać w lokalnych, dobrze opomiarowanych klastrach energii.
  • Dotychczasowe, pilotażowe projekty AMI mogą przynieść wiele bardzo pożytecznych informacji, ale tylko wtedy, gdy pozyskane dane zostaną sprzężone z modelami sieci (GIS). Dzięki temu firmy energetyczne oraz jednostki naukowe będą mogły przeprowadzić szereg analiz poprawiających pracę sieci i dających informację w zakresie dalszego rozwoju systemów typu Smart Grid.

Myślę, że przedstawiony opis oraz wnioski dały Czytelnikowi pogląd nie tylko na to, jak wygląda stan inteligentnego opomiarowania, które - jak widać - powinno jeszcze się trochę zmienić, aby móc się tytułować takim mianem, ale także zachęci do przeczytania kilku ciekawych książek. Na koniec można przytoczyć przykład z książki Miłosza Brzezińskiego (znanego konsultanta biznesowego) pt. „Biznes, czyli kupa ludzi”. Przykład przedstawia rynek jako słonia przemierzającego łąkę, na której leżą owoce na tyle twarde, że mrówki, które tam mieszkają nie mogą z nich skorzystać. Jest to możliwe dopiero wtedy, gdy jakiś owoc zostanie przez słonia rozdeptany. Mrówki do końca nie wiedzą, czy słoń pójdzie utartą ścieżką czy skręci w którąś stronę. Z tego względu ważne jest nie tylko, z jaką szybkością mrówki biegają, aby prześcignąć inne mrowiska w zbieraniu tego, co pozostawił słoń, ale także zdolność przewidzenia, czy w danym momencie słoń nie skręci z obranej ścieżki. Wydaje mi się, że obecnie rynek, tak jak ten słoń z przykładu, skręca ze ścieżki centralnych baz pomiarowych oraz dużych źródeł w coraz większą dywersyfikację, którą trzeba skutecznie obsłużyć.

 

adam hreszczyk* O autorze: Ukończył Wydział Elektryczny Politechniki Zielonogórskiej na specjalności Energoelektronika w Elektroenergetyce. Od 1998 związany z Apator Rector, odpowiedzialny za realizację oprogramowania do obliczeń inżynierskich. Najnowsze projekty jakie w jakich bierze udział to wykonanie obliczeń inżynierskich dla TAURON Dystrybucja oraz zasilenie systemu Synergi Electric danymi z systemu GIS w Energa Operator.

 

 

 

© Materiał chroniony prawem autorskim.