Kategorie
#Technologie: Aktualności

TNC w Zjednoczonym Królestwie

Pomimo że Wielka Brytania nie jest już krajem Europejskiej Wspólnoty i transfer całego sprzętu w dwóch ciężarówkach wymagał specjalnej dokumentacji celnej, na szczęście obyło się tym razem bez większych problemów. Wielki teatr, Brighton Dome, którego historia sięga XIX wieku, a który rozpoczął swoje życie jako królewskie stajnie, ugościł tym razem uczestników konferencji TNC hasłem „Brighter Together”.

Co prawda przy takiej liczbie uczestników (ponad 800 z 70 krajów) trudno było o „together” na wszystkich sesjach, dlatego też organizatorzy wynajęli dodatkowo przestrzenie pobliskiego hotelu oraz… kościoła Unitarian, aby zmieścić cały konferencyjny program. Niemniej jednak podczas imprez wieczornych, towarzyszących TNC, udało się spotkać z wieloma przedstawicielami bliźniaczych instytucji badawczych i sieciowych z całego niemal świata.

Kolejny już raz PCSS odpowiadał za oprawę konferencji – za światło, dźwięk, muzykę, grafikę, oficjalne otwarcie imprezy, wsparcie rejestracji i narzędzi online. Rozpoczęliśmy występem zespołu na żywo – jak na scenę, która gościła premierowe wykonanie „Dark Side of the Moon” Pink Floyd w 1972 roku czy wygraną Abby na Eurowizji w 1974 roku z piosenką „Waterloo” przystało! Wykorzystaliśmy czarno-białe zdjęcia archiwalne z Brighton, żeby je pokolorować na otwarcie i sprawić, że cztery wielkoformatowe ekrany LED zabłysną „brighter” pełnią kolorów podczas kolejnych sesji.

TNC w Brighton było pierwszą konferencją nowej CEO GÉANT – Lise Fuhr, która doskonale poradziła sobie w roli prowadzącej. Zresztą, jak co roku, nowinek było znacznie więcej. Sesje Lightning Talk były nieco odchudzone, tak, że starczyło czasu na rozmowy panelowe z prezenterami, a przestrzeń wystawy znalazła się tym razem w hali Corn Exchange, gdzie odbywały się także dodatkowe prelekcje… tylko dla posiadających słuchawki, by nie zakłócać rozmów na stoiskach. To było prawdziwe targowisko, zorganizowane na kształt kolorowego rynku, jarmarku partnerów reprezentujących krajowe i regionalne sieci badawcze i edukacyjne, szkoły, uczelnie wyższe, dostawców technologii oraz przedstawicieli najbardziej innowacyjnych projektów naukowych z całego świata.

Uczestnicy konferencji mieli niepowtarzalną okazję do wymiany doświadczeń, co było szczególnie widoczne na stoisku PIONIER-a i PCSS, gdzie zaprezentowano ponad 10 projektów (szczegóły dostępne w osobnym artykule: https://www.news.pionier.net.pl/projekty-pioniera-na-tnc25/). Zaznaczona została także działalność sieci oraz Konsorcjum PIONIER. Nasza przestrzeń wyróżniała się nowoczesnym ekranem LED o wymiarach 3 × 2,5 metra, na którym prezentowane były dedykowane, animowane materiały wizualne. Goście mieli również okazję poczęstować się firmowymi krówkami, które cieszyły się dużym zainteresowaniem, wywołując uśmiechy i zachęcając do inspirujących rozmów.

Intensywny czas pobytu w kolorowym mieście Brighton zakończył się zaproszeniem na przyszły rok. Tym razem TNC zmierza do Skandynawii, na drugą stronę Bałtyku – do Helsinek!

Wojciech Bohdanowicz, Damian Niemir

Kategorie
#Technologie: Aktualności

Pomiar temperatury za pomocą światłowodu przy wykorzystaniu zjawiska rozproszenia Brillouina

Pomiar temperatury realizowany jest m.in. w oparciu o zjawisko wstecznego rozpraszania Brillouina. Włókno pełni funkcję rozproszonego czujnika światłowodowego, umożliwiając pomiar temperatury wzdłuż całej jego długości.

Opis miernika DTS i zasad pomiaru

Kiedy impuls świetlny (promień laserowy) propaguje się przez włókno światłowodowe, niewielka jego część ulega rozproszeniu wstecznemu. W przypadku rozpraszania Brillouina, oddziaływanie światła z falami akustycznymi (fononami) w materiale włókna prowadzi do powstania rozproszonego światła o nieco zmienionej częstotliwości. To przesunięcie częstotliwości, zwane przesunięciem częstotliwości Brillouina, jest wrażliwe zarówno na temperaturę, jak i na naprężenie mechaniczne włókna.

Kluczowe aspekty działania to:

  • Wysyłanie impulsu światła: Do włókna optycznego wysyłany jest krótki impuls światła laserowego.
  • Rozpraszanie Brillouina: Gdy światło propaguje się przez włókno, w każdym punkcie następuje rozpraszanie Brillouina. Powstają fale rozproszone wstecznie (tzw. Stokesa i anty-Stokesa), których częstotliwość jest przesunięta względem częstotliwości światła padającego.
  • Zależność od temperatury: Przesunięcie częstotliwości Brillouina zmienia się liniowo wraz z temperaturą włókna. Oznacza to, że im wyższa temperatura, tym większe jest przesunięcie częstotliwości.
  • Zależność od naprężenia: Podobnie jak w przypadku temperatury, częstotliwość Brillouina jest również wrażliwa na naprężenie włókna. Aby odróżnić wpływ temperatury od naprężenia często stosuje się techniki, które pozwalają na jednoczesny pomiar obu parametrów lub wykorzystuje się włókna o specjalnej konstrukcji, w których wpływ jednego z tych czynników jest zminimalizowany lub łatwo kompensowany.
  • Lokalizacja: Dzięki zastosowaniu zasad reflektometrii czasowej (OTDR – Optical Time-Domain Reflectometry), czas powrotu rozproszonego światła pozwala na precyzyjne określenie miejsca, z którego pochodzi rozproszone światło. To umożliwia rozłożony pomiar temperatury, czyli uzyskanie profilu temperatury wzdłuż całej długości włókna.

Cechą charakterystyczną rozproszenia Brillouina jest przesunięcie częstotliwości rozproszonego światła proporcjonalnie do zmiany gęstości włókna. Zmiana gęstości natomiast wynika ze zmian temperatury włókna, jak i odkształcenia włókna, która jest następstwem jego naprężenia.

W ramach projektu PIONIER-LAB został zakupiony miernik FibrisTerre 5020.

System wykorzystuje standardowe przemysłowe światłowody, jako ciągłe, dalekosiężne czujniki naprężeń i temperatury.

FibrisTerre 5020 zmierzy charakterystyczne przesunięcie częstotliwości Brillouina w każdej pozycji wzdłuż włókna. Przesunięcie częstotliwości Brillouina zmienia się zarówno pod wpływem temperatury, jak i odkształcenia – liniowo w szerokim zakresie.

Zależności te można sprowadzić do prostych równań liniowych:

Jak widać przesunięcie częstotliwości Brillouina związane jest zarówno ze zmianą temperatury jak i wpływających na włókno napręzeń mechanicznych.

Konieczne jest „wyizolowanie” wpływu ɛ (naprężenia) na włókno odpowiadające za pomiar T.

Pytanie brzmi: jeśli zarówno temperatura, jak i odkształcenie mają wpływ na mierzoną wielkość – przesunięcie częstotliwości Brillouina – w jaki sposób system monitorujący może rozróżnić, który z nich się zmienił?

Taka sytuacja ma miejsce, gdy zarówno odkształcenie, jak i temperatura muszą być rejestrowane jednocześnie w tej samej strukturze. Interesujący jest pomiar tylko odkształcenia lub tylko temperatury, ale obie z tych wielkości fizycznych mogą wykazywać wpływ krzyżowy – wówczas, któraś z nich (odkształcenie lub temperatura) musi zostać skompensowana (w większości przypadków będzie to żądanie pomiaru odkształcenia z kompensacją temperatury).

Jednym z rozwiązań, które okazało się praktycznie wykonalne to użycie dwóch światłowodowych włókien czujnikowych równolegle wbudowanych w jedną konstrukcję kabla.

Teoretycznie idealnym rozwiązaniem byłoby zastosowanie nieizolowanego włókna, ale wówczas poziom zabezpieczenia przed uszkodzeniem jest oczywiście niewystarczający. Potrzebny jest kompromis między ochroną włókna, a zachowaniem jego zdolności wykrywania odkształceń. Aby przełożyć zewnętrzne naprężenia na włókno trzeba zastosować konstrukcje o jak najmniejszym efekcie poślizgu pomiędzy poszczególnymi warstwami wewnętrznymi kabla.

Do jednoznacznego wyodrębnienia obserwacji naprężenia w konstrukcji kabla, zastosowane powinno być drugie włókno w jak najmniejszym stopniu zależne od odkształceń i sił mechanicznych działających na kabel, a co za tym idzie mogące kompensować zmiany temperatury.

Wspomnianą kompensację temperatury zapewnia włókno umieszczone w luźnej tubie. Ważne jest by zagwarantować niski współczynnik tarcia na styku z kolejną warstwą konstrukcji kabla. Drugie włókno tymczasem pełni funkcję mierzenia odkształceń, aby najlepiej przenosić je na włókno – otaczająca go konstrukcja ma postać ścisłej tuby.

Rys. Propozycja budowy kabla sensorycznego z wykorzystaniem włókna w tubie ścisłej i w tubie luźnej

Tak wyizolowany układ pomiarowy sugeruje również producent miernika DST.

Przykładowe pomiary i obserwacje wyników

W laboratorium światłowodowym CBPIO wykonano przykładowe pomiary temperatury, wykorzystując jako metodę pomiarową analizator BOFDA (włókna podłączono do dwóch portów sensorów i wykonano pomiar w pętli).
Przygotowano układ składający się z 3 typów włókien: Corning Ultra Low Loss 30m, Corning TXF G.654E o długości ok. 20m i 35m włókna standardowego G.652. Zestaw był połączony przez złącza SC/APC ze wspawanymi pigtailami na bazie włókien NZDS G.655. Zestaw włókien podłączono patchcordem światłowodowym z włóknem G.657.

Wyniki pokazały różne odczyty temperatury dla poszczególnych typów włókien. Konieczne jest więc prawidłowe skalibrowanie danego typu włókna do prawidłowego odczytu wartości temperatury. Miernik był skalibrowany dla paramentów włókna ULL. Różne włókna wykazują inną częstotliwość przesunięcia Brillouina.

Dodatkowo można zaobserwować, że włókno TXF najmniej reagowało na zmianę temperatury.

Pomiar trwał 2,5 h prowadzony co 2 min (50 cykli). W tym czasie w pomieszczeniu wyłączono klimatyzator i po ponad 1 h włączono jego pracę by schłodzić pomieszczenie. Zmianę temperatury pokazano powyżej z niebieskim wykresem zmian.

Poniżej wykres z miernika przedstawiający obszary przesunięcia częstotliwości Brillouina:

Oraz wykresy 3D badanego zestawu włókien.

Ponadto, zauważono, że np. włókno NZDS G.655 ma kilka pików zmiany częstotliwości i niestety nie nadaje się do pomiaru temperatury.

Systemy pomiaru temperatury z wykorzystaniem zjawiska Brillouina, często nazywane rozproszonymi czujnikami temperatury (DTS – Distributed Temperature Sensing), oferują możliwości monitorowania. Ich główne zalety to:

Monitorowanie na długich dystansach: Mogą mierzyć temperaturę na odcinkach od kilkuset metrów do dziesiątek kilometrów, co jest niemożliwe dla konwencjonalnych czujników.

  • Ciągły profil temperatury: Zamiast punktowych pomiarów, systemy te dostarczają ciągły profil temperatury wzdłuż całego włókna, umożliwiając precyzyjne wykrywanie i lokalizowanie anomalii termicznych (tzw. “gorących punktów”).
  • Odporność na zakłócenia elektromagnetyczne (EMI): Ponieważ do pomiarów wykorzystuje się światło w szkle, są one niewrażliwe na zakłócenia elektromagnetyczne, co jest kluczowe w środowiskach przemysłowych.
  • Bezpieczeństwo w trudnych warunkach: Światłowody są niekorozyjne i z natury bezpieczne w atmosferach wybuchowych.
  • Szeroki zakres temperatur: W zależności od konstrukcji kabla i powłoki włókna, mogą pracować w szerokim zakresie temperatur, od bardzo niskich do bardzo wysokich (nawet do +750°C).

Typowe zastosowania obejmują:

  • Monitoring infrastruktury:
    • Wykrywanie wycieków i monitorowanie odkształceń w rurociągach (gazociągi, ropociągi).
    • Monitorowanie tuneli (np. wykrywanie pożarów, kontrola wentylacji).
    • Kontrola stanu mostów i innych dużych konstrukcji.
    • Monitorowanie temperatury w lądowiskach i pasach startowych.
  • Energetyka:
    • Monitorowanie temperatury w kablach energetycznych (podziemnych i napowietrznych) w celu wykrywania przegrzewających się punktów i optymalizacji obciążenia.
    • Kontrola temperatury w elektrowniach.
  • Przemysł:
    • Monitorowanie procesów przemysłowych, np. w piecach lub zbiornikach magazynowych.
    • Wykrywanie pożarów i monitorowanie temperatury w magazynach i obiektach przemysłowych.
  • Geotechnika i środowisko:
    • Monitorowanie osuwisk.
    • Badania geotermalne.

Technologia ta jest dynamicznie rozwijana, oferując coraz większą dokładność i zasięg pomiarów, co czyni ją atrakcyjnym rozwiązaniem dla szerokiej gamy zastosowań wymagających rozłożonego monitoringu temperatury i odkształceń.

Piotr Turowicz, Krzysztof Kołat

Kategorie
#Technologie: Aktualności

Komputery kwantowe różnią się między sobą

Komputery kwantowe różnią się fizycznym sposobem implementacji kubitów czyli elementarnych jednostek obliczeniowych w systemie oraz samym sposobem przeprowadzania obliczeń.

Z szerszego punktu widzenia implementacje komputerów kwantowych dzielimy na 3 główne grupy:
– systemy, gdzie kubity są implementowane w nadprzewodzących układach scalonych,
– systemy fotoniczne oparte na przetwarzaniu pojedynczych i splątanych fotonów,
– systemy oparte na manipulowaniu układami atomowymi (pułapki jonowe, centra NV, neutralne atomy).

Aktualnie prowadzone są prace nad technologiami implementacji kubitów opartych na:

  1. Systemach optycznych, gdzie kubitami są pojedyncze fotony. System taki składa się ze źródeł oraz detektorów pojedynczych fotonów (np. ORCA Computing). Tego typu dwa systemy komputerów kwantowych zostały zintegrowane z klasycznym systemem obliczeniowym i od grudnia 2023 roku udostępniane są użytkownikom w PCSS;
  2. Nadprzewodzących układach scalonych (np. IBM Quantum, IQM), gdzie kubity są implementowane na specjalnym układzie scalonym. Taki system został zainstalowany na Politechnice Wrocławskiej w maju 2025 roku;
  3. Pułapkach jonowych (np. AQT), gdzie kubity są zaimplementowane jako pojedyncze jony (np. Ca40+) spułapkowane oraz przetwarzane za pomocą sygnałów optycznych. Taki system będzie zainstalowany w PCSS w czerwcu 2025 roku, jako element europejskiej infrastruktury komputerów kwantowych EuroHPC;
  4. Wyżarzaczach kwantowych, jako specjalizowanych komputerach kwantowych zaprojektowanych do rozwiązywania problemów optymalizacyjnych (np. D-Wave);
  5. Zimnych atomach, gdzie kubitami są chmury zimnych, obojętnych atomów;
  6. Centrach NV w diamentach, gdzie pojedyncze kubity są implementowane jako tzw. centra NV w zmodyfikowanej sieci krystalicznej diamentu;
  7. Systemach nadprzewodzących opartych na układach scalonych z kropkami kwantowymi, gdzie kubity są implementowane jako tzw. kropki kwantowe w krzemowym układzie scalonym działającym w stanie nadprzewodnictwa;
  8. Systemach topologicznych, gdzie kubity są implementowane w tzw. stanie topologicznym – eksperymentalna technologia na wczesnym etapie rozwoju.

Powyższa analiza pokazuje, że na świecie rozwijane są różne zaawansowane technologie fizycznej implementacji kubitów. Każda z tych technologii ma swoje zalety oraz wady i w pewnym stopniu wzajemnie się uzupełnia. Komisja Europejska inwestuje oraz wspiera rozwój wszystkich tych technologii.

 

Krzysztof Kurowski, Piotr Rydlichowski

Kategorie
#Technologie: Aktualności

Centrum operacyjne bezpieczeństwa (SOC) – misja, modele funkcjonowania i narzędzia

Incydent (wg. ustawy KSC) to zdarzenie, które ma lub może mieć niekorzystny wpływ na cyberbezpieczeństwo rozumiane jako odporność systemów informacyjnych na działania naruszające poufność, integralność, dostępność i autentyczność przetwarzanych danych lub związanych z nimi usług oferowanych przez te systemy. Wczesna identyfikacja zagrożeń pozwala niejednokrotnie zapobiec incydentom poprzez wdrożenie środków zaradczych np. polegających na ograniczeniu uprawnień, modyfikacji reguł zapory sieciowej, zainstalowaniu aktualizacji systemów. Misja SOC nie ogranicza się zatem do reagowania na incydent w momencie jego wystąpienia; ona obejmuje także zapobieganie incydentom i to ta aktywność przynosi największe, choć niedoceniane, korzyści.

 

Do realizacji misji, SOC potrzebuje wiedzy na temat chronionej infrastruktury oraz zestawu narzędzi i procedur dających nie tylko wgląd w funkcjonowanie systemów IT, lecz także umożliwiających skuteczne reagowanie na występujące anomalie czy inne zdarzenia naruszające bezpieczeństwo.

Adresowanie zagrożeń wymaga ścisłej współpracy pomiędzy administratorami systemów, właścicielami zasobów (assetów) i specjalistami bezpieczeństwa. Działania te muszą być realizowane zgodnie z procedurami określonymi m.in. w Systemie Zarządzania Bezpieczeństwem Informacji. Procedury i SZBI muszą natomiast czynić zadość obowiązującym legislacjom.

Możliwości reakcji warunkują zakres odpowiedzialności zespołu SOC w przypadku wystąpienia incydentu. Określenie zakresu odpowiedzialności i zasad reagowania jest szczególnie istotne, jeżeli realizacja zadań SOC jest zlecana podmiotom zewnętrznym (outsourcing) w stosunku do chronionej organizacji.

Czy SOC jest wymagany prawem?

W przepisach prawa (KSC, NIS2) nie ma literalnie wpisanej potrzeby utworzenia SOC w organizacjach czy wykupienia zarządzanych usług bezpieczeństwa typu SOC, ale są wymagania proceduralne, które odpowiadają w dużej mierze zakresowi działania typowych SOC-ów. Warto tu wymienić następujące wymagania pojawiające się w istniejących i planowanych ustawach w kontekście podmiotów objętych Krajowym Systemem Cyberbezpieczeństwa:

  • wymóg monitoringu systemów informacyjnych pod kątem ich bezpieczeństwa w trybie ciągłym,
  • niezwłoczne podejmowanie działań po dostrzeżeniu podatności lub cyberzagrożeń,
  • obsługa incydentów oraz przekazywanie informacji o incydentach w ścisłym reżimie czasowym.

Modele funkcjonowania SOC

Kluczowe wymaganie dla SOC to działanie w trybie ciągłym (24/7/365). Aktualnie przyjmuje się takie funkcjonowanie jako standard, inne tryby funkcjonowania stają się rzadkością (np. tylko w godzinach biznesowych). Modele funkcjonowania SOC dzieli się głównie pod kątem umiejscowienia zespołów.

Pierwszy rodzaj SOC, to SOC wewnętrzny – członkowie zespołu specjalistów są zatrudnieni bezpośrednio przez organizację, którą chronią. W praktyce, oznacza to konieczność zatrudnienia co najmniej 5-7 specjalistów (w tym część osób w niepełnym wymiarze). W tym modelu większość narzędzi osadzonych jest w infrastrukturze chronionej organizacji (np. SIEM czy kolektor logów), przy czym część narzędzi (np. konsola EDR czy XDR) może być osadzonych w środowisku chmurowym i udostępnianych zespołowi w modelu software as a service (SaaS), jako zarządzana usługa bezpieczeństwa. Niewątpliwym plusem SOC wewnętrznego jest możliwość pełnej integracji ze strukturami wewnętrznymi organizacji, co ułatwia reagowanie na incydenty i identyfikację zagrożeń – taki zespół SOC może mieć bezpośrednią kontrolę nad kluczowymi urządzeniami w wewnętrznej infrastrukturze organizacji oraz bezpośredni wpływ na administratorów. Minusem są wysokie koszty, które mogą być nieadekwatne do wielkości organizacji.

Koszty i brak wystarczającej liczby odpowiednio wyszkolonych pracowników to główne powody pojawienia się innych modeli funkcjonowania zespołów SOC, w szczególności SOC zarządzanego (Managed SOC), czy też SOC jako usługa (SOCaaS). W obydwóch przypadkach usługi są delegowane – bezpieczeństwo monitorują osoby z zewnętrznej firmy. Przy czym w przypadku Managed SOC część kluczowych systemów bezpieczeństwa może być posadowiona w infrastrukturze chronionej organizacji lub w chmurze; zakres usług może być tu szerszy niż w przypadku SOCaaS. W SOCaaS większość narzędzi wykorzystywanych przez SOC jest posadowiona w infrastrukturze usługodawcy, w szczególności w chmurze. Zespół usługodawcy koncentruje się na identyfikowaniu zagrożeń, w tym analizie ryzyka i szybkim reagowaniu. Natomiast Managed SOC, w odróżnieniu od SOCaaS, może bardziej kompleksowo zarządzać systemami bezpieczeństwa organizacji oraz wspierać audyty wewnętrzne czy wymogi legislacyjne.

Dodatkowo, popularność zdobywa usługa MDR, która koncentruje się na wykrywaniu zagrożeń w oparciu o systemy EDR oraz analizy ruchu sieciowego (NTA), a także realizuje pewne zaawansowane elementy, tzw. threat-huntingu (m.in. identyfikacji nowych zagrożeń). Narzędzia SOC omówione zostaną w kolejnej sekcji.

Ostatnim najczęściej wymienianym modelem SOC, jest model hybrydowy. W tym przypadku organizacja ma wewnętrzny silny zespół SOC i zleca tylko wybrane elementy na zewnątrz, np. korzysta z narzędzi w modelu chmurowym lub zleca konkretne zadania kontrahentom zewnętrznym (np. skanowanie systemów publicznie dostępnych czy analizy powłamaniowe). W tym modelu organizacja ma zwykle pełną kontrolę nad krytycznymi funkcjami zabezpieczeń.

Przyjrzyjmy się narzędziom wykorzystywanym w SOC-ach.

Narzędzia SOC

Celem tej sekcji jest wskazanie typów narzędzi, którymi posiłkują się zespoły bezpieczeństwa, aby chronić infrastrukturę.

Rejestrowanie występujących zdarzeń i podejmowanych aktywności związanych z incydentami jest niezbędne do zapewnienia należytego poziomu usług. Do tego celu wykorzystuje się różnej maści system obsługi zgłoszeń (np. JIRA, Zammad, RT, RTIR itp.).

Zgłoszenia zdarzeń mogą pochodzić od użytkowników, podmiotów zewnętrznych, analityków lub z wdrożonych systemów bezpieczeństwa, np. zapór sieciowych czy analizatorów logów.

Zapory sieciowe pełnią dwojaką rolę – mogą sygnalizować zagrożenia z wykorzystaniem zdefiniowanych reguł oraz mogą być wykorzystywane do reagowania na incydenty poprzez blokowanie lub ograniczanie ruchu sieciowego. Firewalle najnowszych generacji mają dość rozbudowane mechanizmy detekcji zagrożeń i reagowania.

Kompleksowa analiza logów systemów jest możliwa tylko jeśli logi są zebrane w jednym miejscu. Do zbierania logów wykorzystuje się kolektory logów. W przypadku zdarzeń bezpieczeństwa najczęściej wykorzystuje się tzw. systemy SIEM (Security Information and Event Management), które koncentrują się na analizie informacji ukierunkowanych na bezpieczeństwo. Systemy SIEM umożliwiają korelację zdarzeń, analizy statystyczne, wykrywanie anomalii oraz wysyłanie powiadomień (alert), np. w przypadku wykrycia nieprawidłowości lub podejrzanych aktywności.

Kluczowe znaczenie w identyfikacji zagrożeń ma nie tylko analiza logów z systemów operacyjnych czy aplikacji, ale także wgląd w ruch sieciowy. Ruch sieciowy analizuje się zwykle z wykorzystaniem kolektorów rekordów przepływów (Netflow czy IPFIX) oraz systemów detekcji intruzów (IDS), tj. sensorów umieszczonych w chronionej infrastrukturze. Wyniki analizy rekordów przepływów mogą stanowić dodatkowe źródło informacji przekazywanych do SIEM.

Organizacja, która ma wdrożony i dostrojony system SIEM może dodatkowo wdrożyć system SOAR (Security Orchestration, Automation, and Response) w celu automatyzacji i orkiestracji procesów reagowania. Automatyczne reagowanie może również objąć stacje końcowe, ale do tego służy kolejny rodzaj systemu ochrony – system EDR.

Systemy EDR (Endpoint Detection and Response) dbają o ochronę punktów końcowych w sieci poprzez wykrywanie i reagowanie na podejrzane aktywności związane ze złośliwym oprogramowaniem, ransomware czy innymi typami ataków. Kluczowe jest tu reagowanie bezpośrednio na chronionych stacjach, serwerach, urządzeniach mobilnych. EDR w ramach reakcji może np. blokować procesy lub izolować zagrożone punkty końcowe. Informacje ze stacji końcowych przekazywane są do centralnej konsoli zarządzania.

Systemy XDR (eXtended Detection and Response) niejako rozszerzają funkcjonalność systemów EDR poprzez uwzględnienie aktywności sieciowej, systemów chmurowych, systemów poczty elektronicznej, a także zastosowanie zaawansowanych algorytmów analitycznych w celu identyfikacji i priorytetyzacji zagrożeń. Systemy XDR mogą podejmować automatyczne akcje zarówno na urządzeniach końcowych (jak to ma miejsce w przypadku EDR), jak i w warstwie sieciowej czy infrastrukturze serwerowej, z której urządzenia końcowe korzystają.

Monitoring dostępności zasobów to kolejny element wspomagający cyberbezpieczeństwo i identyfikację incydentów. Podobnie jak zespoły NOC (Network Operation Center), monitorujące dostępność sieci, czy administratorzy systemów, także zespoły bezpieczeństwa posiłkują się systemami monitorującymi funkcjonowanie usług w tym czasów odpowiedzi. Do tego celu wykorzystuje się m.in.: Zabbix, SolarWinds, Nagios.

Skuteczne adresowanie zagrożeń wymaga wiedzy o wersjach zainstalowanych w organizacji aplikacji oraz dotyczących ich znanych podatności na ataki, a także eksploitów aktualnie wykorzystywanych przez adwersarzy. Do tego celu wykorzystuje się systemy zarządzania podatnościami, w tym systemy inwentaryzacji zasobów.

Zestaw najpopularniejszych narzędzi zamykają systemy do wymiany informacji o zagrożeniach, takie jak: MISP czy OpenCTI, które wspomagają budowanie szerszej świadomości sytuacyjnej.

Dodatkowo warto wspomnieć jeszcze o narzędziach do analiz powłamaniowych oraz zabezpieczania dowodów, np. narzędziach do tworzenia zrzutów pamięci oraz obrazów dysków. Narzędzia te wykorzystywane są, gdy inne zabezpieczenia zawiodły i doszło do naruszenia bezpieczeństwa.

Elementy proceduralno-prawne

Bardzo istotnym elementem funkcjonowania SOC są procedury, które określają zasady przetwarzania danych i postępowania.

Dla znanych typów incydentów, problemów czy ataków definiuje się zwykle tzw. playbooki – czyli instrukcje postępowania zapewniające skuteczne i co ważne spójne reagowanie.  

Przetwarzanie danych, ograniczanie dostępu do danych, blokowanie ruchu nie może mieć miejsca, jeśli tych działań nie określono w stosownych umowach (m.in. NDA).

Ważne jest też określenie sposobu oceny działań SOC, czyli kluczowych wskaźników efektywności (KPI).

SOC w Konsorcjum PIONIER

Wychodząc naprzeciw potrzebom środowiska naukowego i akademickiego w zakresie podnoszenia poziomu cyberbezpieczeństwa, wynikającego z planowanych legislacji krajowych oraz NIS2, PCSS wspólnie z Jednostkami Wiodącymi Konsorcjum PIONIER podejmuje działania zmierzające do wdrożenia zarządzanych usług bezpieczeństwa i zaoferowania usług SOC w szczególności jednostkom podłączonym do sieci PIONIER.

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomiar temperatury za pomocą światłowodu

Pomiar temperatury to kluczowy aspekt w wielu gałęziach przemysłu, takich jak energetyka, przemysł chemiczny czy rafineryjny, a także w systemach bezpieczeństwa. Tradycyjne czujniki temperatury, takie jak termopary czy rezystancyjne czujniki temperatury, mają swoje ograniczenia, zwłaszcza, gdy wymagana jest ciągła kontrola temperatury na dużych odległościach. W takich przypadkach rozwiązaniem okazuje się technologia pomiaru temperatury z wykorzystaniem włókna światłowodowego.

Zasada działania światłowodowego pomiaru temperatury

W pomiarach temperatury za pomocą włókna światłowodowego wykorzystywana jest zdolność światła do zmiany swoich właściwości pod wpływem temperatury. Istnieją trzy główne metody pomiaru temperatury za pomocą światłowodu:

Rozproszenie Ramana

W tej metodzie wykorzystuje się efekt Ramana – zjawisko rozpraszania światła w światłowodzie. Gdy promień laserowy przechodzi przez światłowód, część jego energii ulega rozproszeniu, co prowadzi do powstania dwóch składowych: Stokesowskiej i anty-Stokesowskiej. Różnica w ich intensywności zależy od temperatury, co pozwala na dokładny pomiar.

Rozproszenie Brillouina

Metoda ta opiera się na efekcie Brillouina, który również wykorzystuje rozpraszanie światła w światłowodzie. Jest to bardzo precyzyjna metoda pozwalająca na pomiary temperatury i naprężeń w czasie rzeczywistym na dużych odległościach (ok 60 – 80 km).

Siatki Bragga (FBG – Fiber Bragg Gratings)

Siatki Bragga to specjalne struktury wbudowane w światłowód, które odbijają światło o określonej długości fali. Wraz ze zmianą temperatury lub naprężenia zmienia się długość fali odbitej, co pozwala na bardzo precyzyjne pomiary. Jest to technika wykorzystywana zwłaszcza w monitorowaniu infrastruktury, np. mostów, tuneli czy rurociągów.

Zalety pomiaru temperatury z wykorzystaniem światłowodu

Długość i zasięg pomiarów

Światłowody mogą mierzyć temperaturę na długich dystansach, co jest kluczowe w rozległych instalacjach przemysłowych, takich jak rurociągi czy linie elektroenergetyczne.

Odporność na zakłócenia elektromagnetyczne

W przeciwieństwie do tradycyjnych czujników elektrycznych, światłowód nie jest wrażliwy na zakłócenia elektromagnetyczne, co sprawia, że doskonale sprawdza się w trudnych warunkach przemysłowych.

Bezpieczeństwo w środowisku wybuchowym

Światłowód nie przewodzi prądu elektrycznego, dzięki czemu może być stosowany w miejscach zagrożonych wybuchem, np. w rafineriach czy kopalniach.

Wysoka rozdzielczość przestrzenna

Dzięki technologii rozproszonej możliwe jest uzyskanie setek punktów pomiarowych na jednym światłowodzie, co pozwala na bardzo precyzyjne monitorowanie rozkładu temperatury.

Niewielkie wymagania konserwacyjne

Systemy światłowodowe są bardzo trwałe i odporne na korozję, co minimalizuje koszty ich utrzymania w porównaniu do tradycyjnych czujników.

Podsumowanie

Światłowodowy pomiar temperatury to innowacyjna technologia, która zyskuje coraz większą popularność dzięki swojej precyzji, odporności na zakłócenia oraz możliwości prowadzenia pomiarów na dużych odległościach. Znajduje zastosowanie w wielu gałęziach przemysłu, zwiększając efektywność, bezpieczeństwo i niezawodność systemów monitorowania temperatury. W obliczu rosnących wymagań dotyczących kontroli i optymalizacji procesów, światłowodowe rozwiązania stają się ważnym elementem nowoczesnej infrastruktury.

Piotr Turowicz, Krzysztof Kołat

Kategorie
#Technologie: Aktualności

Aktualizować czy nie aktualizować

Dla przykładu, samoloty F-35 zostały zaprojektowane w taki sposób, by można było regularnie aktualizować systemy pokładowe i dokładać nowe funkcjonalności[1]. Złożoność systemów rodzi pytanie o potencjalne istnienie tylnych furtek (ang. backdoor) w oprogramowaniu samolotów czy innych środków militarnych. Czy dałoby się zdalnie unieruchomić flotę F-35[2] – takie pytanie zadają sobie potencjalni nabywcy tej zaawansowanej technologicznie broni. Marketingowcy i politycy będą zapewniać, że nie, ale gwarancji nikt nie da. Jeśli nawet aktualnie takich furtek nie ma, to mogą pojawić się w przyszłości przy okazji aktualizacji, czy to w wyniku celowego działania twórców czy ataku hakerów.

[1] https://www.defenseone.com/business/2025/03/f-35-get-new-software-summer-theres-no-date-yet-planned-full-upgrade/403536/

[2] https://ottawacitizen.com/news/national/defence-watch/u-s-f-35-fighter-jets-canada

Należy sobie uświadomić, że oprogramowanie może być wykorzystane jako broń (ang. software as a weapon, SaaW[1]), czy też amunicja[2] i to na wiele różnych sposobów, zarówno w scenariuszach defensywnych jak i ofensywnych.

Z jednej strony mamy mechanizmy zdalnej aktualizacji oprogramowania, w szczególności układowego (ang. firmware), mam tu na myśli m.in. mechanizm FOTA albo OTA, z drugiej zaszyte w kodzie warunki graniczne, które zadziałają w określonych okolicznościach, powodując zablokowanie kluczowych funkcjonalności lub wykonanie określonych akcji. Oczywiście wszystkie te mechanizmy mają pozytywne i negatywne zastosowania. Mogą służyć do ochrony przed zagrożeniami, ale także do siania chaosu czy zniszczenia.

Za przykład pozytywnego wykorzystania mechanizmu FOTA w celu zwiększenia poziomu bezpieczeństwa może służyć zdalne zwiększenie zasięgu samochodów elektrycznych, kiedy w 2017 roku nad Florydę nadciągał huragan Irma[3]. Natomiast warunki logiczne w kodzie chronią interesy licencjodawców w modelach subskrypcyjnych czy filtrują dane chroniąc przed wyciekiem informacji.

Afera z naszego krajowego podwórka, dotycząca pociągów „stających w szczerym polu”, potocznie zwana „aferą Impulsową” pokazuje, że warunki w kodzie można wykorzystać do mniej szlachetnych celów. Implementacja warunków powodujących unieruchomienie środków transportu, kiedy trafią one w określoną lokalizację lub osiągną określony przebieg[4], nie stanowi większego problemu. Podobne „zabezpieczenia”, zwłaszcza te oparte na pozycji geograficznej, można by wprowadzić w oprogramowaniu pojazdów militarnych czy innych środków bojowych.

Czasem oprogramowanie pod przykrywką sprawdzania aktualizacji czy telemetrii wysyła nadspodziewanie dużo danych, do których w ogóle nie powinno mieć dostępu. Świetnym przykładem jest tu transfer danych do Chin dokonywany przez oprogramowanie Adups FOTA preinstalowane kilka lat temu (w 2016 roku) na wielu modelach telefonów z niższej półki[1]. Oprogramowanie to wysyłało na zdalne serwery m.in. zawartość SMS-ów (sic!).

Powody do myślenia daje także „wpadka” z wadliwą aktualizacją oprogramowania CrowdStirke Falcon, która spowodowała 19 lipca 2024 roku awarię systemów Windows na wielką skalę, dotykając milionów systemów, w tym wielu systemów zlokalizowanych w portach lotniczych[2]. A co, gdyby taką wadliwą aktualizację „wypuścił” specjalnie, a nie przypadkiem producent popularnego systemu operacyjnego lub inny duży dostawca, np. na zlecenie pewnego rządu? Ile systemów stałoby się czasowo bezużytecznych? Notabene, niecelowe wypuszczanie niedopracowanych aktualizacji zdarza się producentom dość często – w przypadku giganta z Redmond najświeższy taki przypadek to aktualizacje z marca br.[3] Przypadek SolarWinds, jednego z większych dostawców oprogramowania do monitorowania i zarządzania infrastrukturą, pokazuje skuteczność ataków przez infiltracje producentów oprogramowania. Atakującym udało się przeniknąć do sieci organizacji i wstrzyknąć złośliwy fragment kodu (Sunburst) do oprogramowania monitorującego Orion. Oprogramowanie z wstrzykniętym dodatkiem zostało następnie wysłane do klientów razem z innymi aktualizacjami. Efekt, około 18000 klientów (w tym dużych firm) zostało zainfekowanych – uzyskano dostęp do ich infrastruktury[4].

Atak z zastosowaniem socjotechnik próbowano przeprowadzić również na popularną bibliotekę otwartoźródłową XZ. Infiltracja się powiodła, ale sam atak został udaremniony przez dociekliwego testera oprogramowania zaintrygowanego spadkiem wydajności w nowej wersji systemu. Osoby przeprowadzające atak długo pracowały nad tym by zdobyć zaufanie niezbędne do zrealizowania planu, czyli wstrzyknięcia kodu, który modyfikował zachowanie demona SSH (który pośrednio wykorzystuje biblioteki XZ)[5]. Gdyby plan udało się zrealizować, to atakujący za pomocą predefiniowanych poświadczeń uzyskali by zdalny dostęp do milionów serwerów na całym świecie.

Oprogramowanie jako broń sensu stricto, w walce z mniej lub bardzie sprecyzowanym wrogiem wykorzystują agencje rządów różnych krajów, np. eksploit EternalBlue[6] opracowała NSA w USA – ten kod został niestety przechwycony przez hakerów i wykorzystany do stworzenia m.in. WannaCry[7] (szczególnie popularnego w brytyjskich szpitalach). Kolejny głośny przykład Stuxnet (znany z uszkodzenia Irańskich wirówek przemysłowych) to podobno wspólne dzieło USA i Izraela[8]. Natomiast autorstwo stosunkowo świeżego oprogramowania Hatvibe i Cherryspy przypisuje się agencjom rosyjskim[9]. Oprogramowanie to było wykorzystywane m.in. do szpiegowania dyplomatów z Azji Centralnej. Przy okazji szpiegowania warto wspomnieć broń (wg. legislacji Izraela) jaką jest oprogramowanie Pegasus produkowane przez prywatną firmę NSO – jego sprzedaż jest objęta restrykcjami eksportowymi[10].

Współcześnie wykorzystywane oprogramowanie jest pełne błędów i niedociągnięć, które są sukcesywnie odkrywane i łatane. Część z tych odkrywanych błędów może być wynikiem celowego działania agencji wywiadowczych lub grup cyberprzestępczych. W wielu sytuacjach nie da się jednoznacznie określić czy luka w kodzie była celowym zabiegiem czy tylko zwykłym błędem. Zwykle zaczynamy się nad tym zastanawiać dopiero w sytuacji, kiedy odkrywane są ataki z użyciem nieznanych powszechnie podatności.

Przyzwyczailiśmy się już do ciągłych aktualizacji i nie zastanawiamy się czy i dlaczego są one konieczne. Ufamy dostawcom. To zaufanie nie powinno być jednak bezgraniczne, zwłaszcza w przypadku krytycznych systemów. Aktualizacje przed zainstalowaniem w krytycznych systemach produkcyjnych powinny zostać odpowiednio przetestowane i zweryfikowane. Warto też mieć „plan b”, czyli np. możliwość przywrócenia systemu do stanu pierwotnego.

Pamiętajmy, że aktualizacje są bronią defensywną chroniącą przed nowo odkrywanymi zagrożeniami, ale same też mogą być źródłem zagrożenia i mogą zostać wykorzystane jako broń ofensywna w celu zakłócenia działania systemów lub infiltracji organizacji.

Aktualizujmy systemy, ale rozsądnie. Wybierając wdrażane rozwiązania sprawdzajmy dostawców i ich powiązania.

[1] https://zaufanatrzeciastrona.pl/post/popularne-chinskie-telefony-przylapane-na-wysylaniu-smsow-i-kontaktow-do-chin/

[2] https://testerzy.pl/news/flash/nowa-najwieksza-w-historii-globalna-awaria-it

[3] https://www.windowslatest.com/2025/03/13/windows-11-kb5053598-issues-install-fails-rdp-disconnects-bsods-windows-11-24h2/

[4] https://www.fortinet.com/resources/cyberglossary/solarwinds-cyber-attack

[5] https://www.wired.com/story/xz-backdoor-everything-you-need-to-know/

[6] https://pl.wikipedia.org/wiki/EternalBlue

[7] https://cert.pl/posts/2017/05/wannacry-ransomware/

[8] https://foreignpolicy.com/2016/10/17/obamas-general-pleads-guilty-to-leaking-stuxnet-operation/

[9] https://votiro.com/blog/browser-security-understanding-malware-like-hatvibe-and-cherryspy/

[10] https://en.wikipedia.org/wiki/NSO_Group

[1] https://link.springer.com/chapter/10.1007/978-3-662-56672-5_4

[2] https://blog.lukaszolejnik.com/software-as-munitions-including-offensive-tools/

[3] https://www.theverge.com/2017/9/10/16283330/tesla-hurricane-irma-update-florida-extend-range-model-s-x-60-60d

[4] https://cyberdefence24.pl/cyberbezpieczenstwo/za-nami-rok-blokad-w-pociagach-newagu-co-dzis-wiemy

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Kraków był stolicą europejskich superkomputerów

„Łączenie społeczności HPC, kwantowych i AI w całej Europie” – to temat przewodni tegorocznego spotkania w Krakowie. 

Uczestnicy mogli wziąć udział w sesjach plenarnych, ale także mieli szansę na zapoznanie się z szerokim zakresem tematów. Głównym punktem wydarzenia była strefa demonstracyjna Demo Lab, w której Europejskie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (European High Performance Computing Joint Undertaking, w skrócie EuroHPC JU) zaprezentowało superkomputery operacyjne.

EuroHPC Summit było nie tylko okazją do prezentacji najnowszych osiągnięć, ale także miejscem licznych spotkań, paneli i dyskusji o przyszłości fabryk AI.

Wśród uczestników spotkania nie zabrakło przedstawicieli Konsorcjum PIONIER, m.in. z ACK Cyfronet, ICM, PCSS, TASC i WCSS.

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Diamentowa droga otwartego dostępu

Diamentowy model otwartego dostępu polega w skrócie na tym, że wydawcy czasopism nie pobierają opłat ani za dostęp do publikacji (od czytelników), ani za publikację (od autorów artykułów). W czasopismach diamentowych nie pobiera się opłat autorskich, tzw. author processing charges (APCs). 

 

Spotkanie adresowane jest do wydawców, redakcji czasopism, bibliotek oraz wszystkich zainteresowanych przyszłością otwartego dostępu w Polsce! W trakcie spotkania przedstawione zostaną narzędzia i zasoby DIAMAS wspierające czasopisma diamentowe (w tym DIAMAS Toolsuite i narzędzia do samooceny). Oprócz tego uczestnicy zapoznają się z rezultatami CRAFT-OA (prezentacja narzędzia Digital Diamond Hub i omówienie wyzwań związanych z wdrażaniem narzędzi dla wydawców).

Zaplanowano również dyskusję dotyczącą identyfikacji potrzeb, barier i oczekiwań wobec modelu diamentowego. Może wśród naszych Czytelników znajdą się osoby zainteresowane tym wydarzeniem, do którego wzięcia serdecznie Państwa zapraszamy! 

Aby wziąć udział w wydarzeniu, należy wypełnić formularz rejestracyjny. Liczba miejsc ograniczona!

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

GÉANT: sieć, chmura i bezpieczeństwo

35. posiedzenie Zgromadzenia Ogólnego GÉANT miało miejsce w Poznaniu w pierwszych dniach marca. Ze strony PCSS udział w nim wzięli stali reprezentanci sieci PIONIER – Artur Binczewski i Raimundas Tuminauskas, a także w roli obserwatora nowy Pełnomocnik Dyrektora Instytutu ds. PCSS – Robert Pękal. W ramach członkostwa w BoD, które prowadzi całe posiedzenie, w Zgromadzeniu Ogólnym brał również udział dr inż. Cezary Mazurek.

Kilkudziesięciu przedstawicieli społeczności projektu GÉANT dyskutowało nad najważniejszymi kwestiami związanymi m.in. z budżetem projektu, kolejnymi fazami etapów wdrażania usług oraz realizacją złożonych planów inwestycji. Spotkanie było także okazją do przestawienia wniosków i pomysłów do realizacji z perspektywy sieci narodowych.

W Poznaniu odbyły się również wybory. Dragana Kupres (CARNET), Leonie Schäfer (DFN), Ramaz Kvatadze (GRENA) – tych trzech członków zostało wybranych lub ponownie wybranych do Komitetu Planowania Projektu GÉANT (GÉANT Project Planning Committee, GPPC) – organu przedstawicieli NREN. Nadzoruje i kieruje on planowaniem i składaniem wniosków, w tym tych mających na celu realizację Horyzontu Europa GN5-FPA, w który angażuje się Stowarzyszenie GÉANT. Komitet zawsze stara się, aby reprezentowany był szeroki zakres wiedzy specjalistycznej we wszystkich obszarach tematycznych, w tym sieci, chmury czy bezpieczeństwo.

– W imieniu społeczności GÉANT chciałbym podziękować nominowanym i nominującym oraz powitać naszych nowych i ponownie wybranych członków – powiedział w Poznaniu Tryfon Chiotis, Chief Programmes Officer i współprzewodniczący GPPC. – Skorzystam również z okazji, aby podziękować naszym obecnym członkom za ich ciągłą służbę – to dobre przypomnienie o całej ciężkiej pracy za kulisami, która przyczynia się do sukcesu projektów GÉANT.

Cały tydzień z GÉANT w Poznaniu był także okazją do zaprezentowania uczestnikom infrastruktury sieci PIONIER, laboratoriów CB PIO (w tym komputerów kwantowych oraz infrastruktury czasu i częstotliwości), a także rozmów dotyczących budowy europejskiej infrastruktury komunikacji kwantowej QCI, z udziałem PIONIER-Q.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Światłowody jako czujniki – działanie i zastosowania

Światłowody, znane głównie z zastosowań w telekomunikacji, odgrywają również istotną rolę jako precyzyjne czujniki w różnych dziedzinach nauki i przemysłu. Dzięki swoim unikalnym właściwościom, takim jak odporność na zakłócenia elektromagnetyczne, niewielkie rozmiary oraz możliwość pracy w trudnych warunkach, znajdują zastosowanie w pomiarach fizycznych, chemicznych i biologicznych.

Zasada działania

Światłowody jako czujniki wykorzystują zjawisko zmiany propagacji światła w ich wnętrzu, które mogą być spowodowane różnymi czynnikami zewnętrznymi, takimi jak:

  • zmiany natężenia światła, np. w wyniku zginania światłowodu lub pochłaniania światła przez substancje,
  • zmiany fazy lub częstotliwości, wykorzystanie interferometrii do pomiarów dokładnych zmian parametrów środowiska,
  • zmiany polaryzacji, czułość na naprężenia mechaniczne,
  • rozpraszanie światła, zjawiska takie jak Rayleigha, Brillouina czy Ramana, umożliwiają monitorowanie zjawisk akustycznych, temperatury czy naprężeń.

Rodzaje czujników światłowodowych

Czujniki punktowe mierzą parametry w konkretnym miejscu, np. czujniki naprężeń, temperatury lub ciśnienia. Popularnie wykorzystuje się czujniki zbudowane w oparciu o siatki Bragga. Elementy czujnikowe np. w pomiarach naprężeń mogą mieć złącza światłowodowe po obu stronach i mogą być używane samodzielnie lub szeregowo. Odczyt następuje poprzez urządzenie aktywne (interrogator), które może być oddalone nawet o kilka kilometrów. Czujniki te pozwalają na ciągłe monitorowanie stanu struktur, pęknięć i szczelin (np. w ścianach) – monitorowanie mostów, zapór, budynków, tuneli. Monitoringiem takim można również objąć np. statki, pociągi, konstrukcje skrzydeł samolotów i inne skomplikowane struktury.

Czujniki rozłożone (DAS – Distributed Acoustic Sensor, DTS – Distributed Temperature Sensor) umożliwiają pomiary wzdłuż całej długości światłowodu; stosowane są w monitorowaniu infrastruktury takiej jak rurociągi, trakcje kolejowe czy linie energetyczne. Zaletą tych czujników jest duży obszar działania, nawet do 100 km.

Pomiary DAS znajdują zastosowanie w monitoringu i zabezpieczeniu kanalizacji teletechnicznej, dużych powierzeni terenu czy ochrony obwodowej. Pozwalają na detekcję z dużą precyzją, informują użytkownika o odległości, w której zdarzenie miało miejsce i typie alarmu wywołanego w danym miejscu instalacji na przykład kopanie w ziemi, bieg czy przejście po ziemi nad zakopanym kablem (detekcja w poprzek lub wzdłuż światłowodu), wspinanie się po ogrodzeniu itp. Można określić również kierunek przemieszczania się obiektów i ich prędkość. Jeżeli w otoczeniu światłowodu poruszają się pojazdy mechaniczne, to analizując amplitudę zmian można wykryć ich rodzaje – ciężki czy lżejszy pojazd. Do detekcji tego typu „zjawisk” idealnie nadają się algorytmy uczenia maszynowego czy sztucznej inteligencji.

Czujniki wielofunkcyjne pozwalają na jednoczesne pomiary różnych parametrów, np. temperatury i wibracji.

Zastosowania czujników światłowodowych:

  • PRZEMYSŁ: monitorowanie stanu technicznego budynków, mostów, tuneli, trakcji kolejowych, rurociągów, wież wiatrowych,
  • ENERGETYKA: kontrola temperatury w transformatorach i liniach energetycznych, detekcja awarii kabli,
  • MEDYCYNA: czujniki ciśnienia w mikrochirurgii, monitorowanie parametrów biochemicznych,
  • GEOFIZYKA: monitorowanie ruchów sejsmicznych i osuwisk, badania geologiczne
    i geoakustyczne,
  • BEZPIECZEŃSTWO: detekcja intruzów poprzez analizę wibracji w światłowodach zainstalowanych wzdłuż ogrodzeń czy kabli światłowodowych zakopanych w ziemi, ułożonych na dnie akwenów czy też zawieszonych nad danym obszarem.

 Zalety czujników światłowodowych

  • wysoka precyzja pomiarów,
  • możliwość pracy w ekstremalnych warunkach (wysoka temperatura, wilgotność, wysokie natężenia pola elektromagnetyczne),
  • niewielka waga i kompaktowe rozmiary,
  • brak konieczności dostarczania prądu wzdłuż linii światłowodowej,
  • możliwość wykorzystania standardowego włókna światłowodowego.

    Wyzwania

    Pomimo licznych zalet, zastosowanie światłowodów, jako czujników wiąże się z wyzwaniami, takimi jak wysoki koszt instalacji i kalibracji. Konieczny jest zakup zaawansowanego sprzętu (interrogator) oraz wyposażenie systemu w duże magazyny danych, umożliwiając jednocześnie przetwarzanie ich dużych ilości. Kluczową kwestią jest również zaawansowana analiza sygnałów i prawidłowa detekcja zaobserwowanych anomalii. Jednak rozwój technologii światłowodowych i spadek kosztów produkcji sprawiają, że są one coraz powszechniejsze w różnych dziedzinach. Niewątpliwie dużą zaletą pomiarów typu DAS jest zastosowanie standardowego włókna jednomodowego. Istnieją też specjalne konstrukcje kabli światłowodowych, które lepiej przenoszą odkształcenia otoczenia bezpośrednio na światłowód. Ponadto metoda pomiarowa DAS, DTS nie wymaga specjalnych zakończeń ani pośrednich punktów regeneracji czy wzmacniania sygnału. Światłowody, jako czujniki, stanowią przykład nowoczesnych technologii o szerokim spektrum zastosowań w monitorowaniu i diagnostyce różnorodnych systemów i różnych środowiskach.

     

Piotr Turowicz