Kategorie
#Technologie: Aktualności

Światłowody jako czujniki – część II

W pierwszej części artykułu “Światłowody jako czujniki” przedstawiono pomiar temperatury realizowany w oparciu o zjawisko wstecznego rozproszenia Brillouina. Kontynuując ten temat przestawiamy przykłady pomiarów i ich analizy wykonane w laboratorium PCSS, wykorzystując jako metodę pomiarową analizator BOFDA (włókna podłączono do dwóch portów sensorów i wykonano pomiar w pętli).

Przygotowano układ składający się z 3 typów włókien: Corning Ultra Low Loss 30m, Corning TXF G.654E o długości ok 20m i 35 m włókna standardowego G.652. Zestaw był połączony przez złącza SC/APC z spawanymi pigtailami na bazie włókien NZDS G.655. Zestaw włókien podłączono patchcordem światłowodowym z włóknem G.657.

Poniżej (Rys. 1) wyniki z analizatora obrazujące połączone różne typy włókien światłowodowych.

Rys.1 Przykładowy pomiar temperatury przeprowadzony na połączonych trzech typach włókien (połączonych przez różne pigtaile).

Wyniki pokazały różne odczyty temperatury dla poszczególnych typów włókien. Konieczne jest prawidłowe skalibrowanie danego typu włókna do prawidłowego odczytu wartości temperatury. Miernik był skalibrowany dla paramentów włókna ULL. Różne włókna wykazują inną częstotliwość przesunięcia Brillouina.

Dodatkowo można zaobserwować, że włókno TXF najmniej reagowało na zmianę temperatury.

Pomiar trwał 2,5 h prowadzony co 2 min (50 cykli). W tym czasie w popomieszczeniu wyłączono klimatyzator i po ponad 1 h włączono jego pracę by schłodzić pomieszczenie.

Rys 2. Wykresy wielu pomiarów wraz z pokazanym trendem zmian temperatury (niebieska linia).

Zmianę temperatury pokazano powyżej z niebieskim wykresem zmian.

Poniżej (Rys.3) wykres z miernika przedstawiający obszary przesunięcia częstotliwości Brillouina:

Rys 3. Zmiany przesunięcia częstotliwości Brillouina.

Poniżej wykresy 3D badanego zestawu włókien:

Rys. 4. Wykres 3D obrazujący przesunięcie częstotliwości Brillouina.

Ponadto zauważono że np. włókno NZDS G.655 ma kilka pików zmiany częstotliwości i niestety nie nadaje się do pomiaru temperatury.

Rys. 5. Rysunek przedstawiający charakterystyki pojedynczej i podwójnej częstotliwości Brillouina występującej w różnych typach włókien.

Systemy pomiaru temperatury z wykorzystaniem zjawiska Brillouina, często nazywane rozproszonymi czujnikami temperatury (DTS – Distributed Temperature Sensing), oferują możliwości monitorowania. Ich główne zalety to:

  • Monitorowanie na długich dystansach: Mogą mierzyć temperaturę na odcinkach od kilkuset metrów do dziesiątek kilometrów, co jest niemożliwe dla konwencjonalnych czujników.
  • Ciągły profil temperatury: Zamiast punktowych pomiarów, systemy te dostarczają ciągły profil temperatury wzdłuż całego włókna, umożliwiając precyzyjne wykrywanie i lokalizowanie anomalii termicznych (tzw. “gorących punktów”).
  • Odporność na zakłócenia elektromagnetyczne (EMI): Ponieważ do pomiarów wykorzystuje się światło w szkle, są one niewrażliwe na zakłócenia elektromagnetyczne, co jest kluczowe w środowiskach przemysłowych.
  • Bezpieczeństwo w trudnych warunkach: Światłowody są niekorozyjne i z natury bezpieczne w atmosferach wybuchowych.
  • Szeroki zakres temperatur: W zależności od konstrukcji kabla i powłoki włókna, mogą pracować w szerokim zakresie temperatur, od bardzo niskich do bardzo wysokich (nawet do +750°C).

Typowe zastosowania obejmują:

  • Monitoring infrastruktury:
    • Wykrywanie wycieków i monitorowanie odkształceń w rurociągach (gazociągi, ropociągi).
    • Monitorowanie tuneli (np. wykrywanie pożarów, kontrola wentylacji).
    • Kontrola stanu mostów i innych dużych konstrukcji.
    • Monitorowanie temperatury w lądowiskach i pasach startowych.
  • Energetyka:
    • Monitorowanie temperatury w kablach energetycznych (podziemnych i napowietrznych) w celu wykrywania przegrzewających się punktów i optymalizacji obciążenia.
    • Kontrola temperatury w elektrowniach.
  • Przemysł:
    • Monitorowanie procesów przemysłowych, np. w piecach lub zbiornikach magazynowych.
    • Wykrywanie pożarów i monitorowanie temperatury w magazynach i obiektach przemysłowych.
  • Geotechnika i środowisko:
    • Monitorowanie osuwisk.
    • Badania geotermalne.

Technologia ta jest dynamicznie rozwijana, oferując coraz większą dokładność i zasięg pomiarów, co czyni ją atrakcyjnym rozwiązaniem dla szerokiej gamy zastosowań wymagających rozłożonego monitoringu temperatury i odkształceń.

Piotr Turowicz

Kategorie
#Technologie: Aktualności

CTI (Cyber Threat Intelligence) – aktualne trendy

Początkowy okres rozwoju CTI skupiał się na wsparciu działań reaktywnych, czyli wykorzystaniu oznak kompromitacji (Indicators of Compromise, IOCs) w momencie wystąpienia incydentu oraz w toku analiz powłamaniowych. Na przestrzeni lat aktywność ta wyewoluowała od niszowej działalności, wykonywanej głównie przez zespoły CSIRT/CERT do kluczowego elementu ochrony proaktywnej. Aktualnie coraz większy nacisk kładzie się na pozyskiwanie informacji o strategiach działań adwersarzy i nowych zagrożeniach jeszcze przed wystąpieniem rzeczywistego incydentu.

CTI na ten moment to nie tylko IOCs, ale także próba opisu zachowania adwersarzy, próba identyfikacji cech charakterystycznych poszczególnych grup atakujących czy strategii i typów ataków. Dzięki pozyskiwanej na bieżąco wiedzy możliwa staje się też, w pewnym zakresie, tak zwana atrybucja ataku, czyli próba wskazania grupy hakerskiej odpowiadającej za przeprowadzenie danej kampanii.

Co ciekawe, CTI to także biznes – na rynku pojawia się coraz więcej firm, które żyją z obserwowania tego co się w Internecie dzieje, a liczne zespoły cyberbezpieczeństwa czy zespoły SOC chętnie korzystają z ich usług.  Dla przykładu (proszę nie traktowć tego jako reklamę) warto wspomnieć choćby takie firmy jak Censys, Shodan, SecurityTrails, ZeroFox.

Co się monitoruje? Długo można by wymieniać, ale kilka najczęściej spotykanych elementów to monitoring ekspozycji usług w Internecie, monitorowanie rejestracji nowych domen (z których część jest później wykorzystywana w działalności przestępczej), identyfikacja masowych skanów, identyfikacja serwerów C&C, nowych eksploitów, rejestracja zapytań DNS na potrzeby usługi passive DNS dającej możliwość sprawdzenia na jakie adresy IP wskazywała dana domena w danym czasie lub jakie domeny były powiązane z danym IP, identyfikacja spambotów, identyfikacja stron phishingowych i złośliwych adresów URL, monitoring dark web pod kątem wycieków kont i haseł itd., itp.

Jak taką wiedzę się pozyskuje? Poprzez monitoring (np. zapytań DNS, prób połączeń), skanowanie Internetu (w tym połączenia z adresami pozyskanymi z monitoringu DNS), rejestrację informacji o nowych podatnościach, wystawianie serwisów typu honeypot by wabić potencjalnych atakujących, detonację próbek ze skompromitowanych systemów (lub honeypotów) w piaskownicach (sandbox). Lista oczywiście nie jest wyczerpująca.

Do czego się ją wykorzystuje? Aktualnie próbuje się tą wiedzę wykorzystywać w działaniach operacyjnych do np. dostarczania usług DNS RPZ (blokowanie dostępu do złośliwych domen), identyfikacji potencjalnie skompromitowanych hostów czy serwerów poprzez korelację informacji z rekordów NetFlow/IPFIX z listami kontrolerów botnetów, filtracji ruchu czy ochrony antyphishingowej. Gdy mechanizmy ochrony zawodzą, to CTI nadal się przydaje, jak za dawnych czasów, do analiz powłamaniowych i potencjalnej atrybucji ataku.

Jakie są aktualne trendy? Podobnie jak w innych dziedzinach życia dość dużo uwagi poświęca się sztucznej inteligencji. Sztuczna inteligencja, m.in. duże modele językowe, z jednej strony może być wykorzystywana do usprawniania działań związanych z CTI, a z drugiej może być celem wysublimowanych ataków lub wpierać adwersarzy.  W pierwszym przypadku wykorzystuje się ją do analizy pozyskiwanych informacji czy symulacji rzeczywistych systemów wabiących adwersarzy. W drugim przypadku próbuje się np. zmusić sztuczną inteligencję do ujawnienia poufnych informacji lub spowodować zakłócenia w jej pracy. Sztuczna inteligencja jest też niezwykle pomocna w przygotowywaniu celowanych ataków, np. zaawansowanych ataków socjotechnicznych czy powszechnych kampanii phishingowych.

CTI to także współpraca i zaufanie. Podobnie jak w klasycznym wywiadzie, chcemy wiedzieć jak najwięcej i jednocześnie nie ujawniać wszystkiego co wiemy naszym wrogom czy adwersarzom. Jednocześnie chcemy się dzielić wiedzą z przyjaciółmi, po to by oni podzielili się również z nami. Zaufane środowiska wymiany występują między partnerami w ramach wspólnych projektów, w ramach sieci zrzeszających zespoły bezpieczeństwa np. Trusted Introducer (TI) / TF-CSIRT, gdzie PIONIER-CERT ma status zespołu akredytowanego, czy FIRST, a także w ramach lokalnych inicjatyw. Akredytacja w TI daje zespołowi PIONIER-CERT dostęp do informacji nieprzeznaczonych do szerokiej dystrybucji i otwiera pola współpracy międzynarodowej, a ta współpraca przekłada się z kolei na możliwości podniesienia poziomu bezpieczeństwa infrastruktury. PCSS wraz z partnerami krajowymi, w szczególności tworzącymi Konsorcjum PIONIER (np. projekt PUCHACZ), jak i zagranicznymi, w ramach współpracy w GÉANT, aktywnie włącza się w pozyskiwanie i wykorzystywanie CTI.
Na szczeblu Konsorcjum w ramach grupy Cyber trwają dyskusje nad wymianą doświadczeń w zakresie proceduralnym jak i technicznym (zwłaszcza w kontekście nowelizacji KSC), a także możliwością wzajemnego wsparcia w zapewnianiu wysokiego poziomu bezpieczeństwa.

Warto podkreślić, że aktualna wiedza o zagrożeniach, to jeden z istotnych kluczy do bezpieczeństwa.

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Światłowodowy jako czujniki

Pomiar temperatury realizowany jest m. in. w oparciu o zjawisko wstecznego rozpraszania Brillouina. Włókno pełni funkcję rozproszonego czujnika światłowodowego, umożliwiając pomiar temperatury wzdłuż całej jego długości.

Kiedy impuls świetlny (promień laserowy) propaguje się przez włókno światłowodowe, niewielka jego część ulega rozproszeniu wstecznemu. W przypadku rozpraszania Brillouina, oddziaływanie światła z falami akustycznymi (fononami) w materiale włókna prowadzi do powstania rozproszonego światła o nieco zmienionej częstotliwości. To przesunięcie częstotliwości, zwane przesunięciem częstotliwości Brillouina, jest wrażliwe zarówno na temperaturę, jak i na naprężenie mechaniczne włókna.
Kluczowe aspekty działania to:
• Wysyłanie impulsu światła: Do włókna optycznego wysyłany jest krótki impuls światła laserowego.
• Rozpraszanie Brillouina: Gdy światło propaguje się przez włókno, w każdym punkcie następuje rozpraszanie Brillouina. Powstają fale rozproszone wstecznie (tzw. Stokesa i anty-Stokesa), których częstotliwość jest przesunięta względem częstotliwości światła padającego.
• Zależność od temperatury: Przesunięcie częstotliwości Brillouina zmienia się liniowo wraz z temperaturą włókna. Oznacza to, że im wyższa temperatura, tym większe jest przesunięcie częstotliwości.
• Zależność od naprężenia: Podobnie, częstotliwość Brillouina jest również wrażliwe na naprężenie włókna. Aby odróżnić wpływ temperatury od naprężenia, często stosuje się techniki, które pozwalają na jednoczesny pomiar obu parametrów, lub wykorzystuje się włókna o specjalnej konstrukcji, w których wpływ jednego z tych czynników jest zminimalizowany lub łatwo kompensowany.
• Lokalizacja: Dzięki zastosowaniu zasad reflektometrii czasowej (OTDR – Optical Time-Domain Reflectometry), czas powrotu rozproszonego światła pozwala na precyzyjne określenie miejsca, z którego pochodzi rozproszone światło. To umożliwia rozłożony pomiar temperatury, czyli uzyskanie profilu temperatury wzdłuż całej długości włókna.
Cechą charakterystyczną rozproszenia Brillouina jest przesunięcie częstotliwości rozproszonego światła proporcjonalnie do zmiany gęstości włókna. Zmiana gęstości z kolei wynika ze zmian temperatury włókna, jak i odkształcenia włókna, która jest następstwem jego naprężenia.

W ramach projektu PIONIER-Lab został zakupiony miernik FibrisTerre 5020.

System wykorzystuje standardowe przemysłowe światłowody jako ciągłe, dalekosiężne czujniki naprężeń i temperatury.

FibrisTerre 5020 zmierzy charakterystyczne przesunięcie częstotliwości Brillouina w każdej pozycji wzdłuż włókna. Przesunięcie częstotliwości Brillouina zmienia się zarówno pod wpływem temperatury, jak i odkształcenia – liniowo w szerokim zakresie.
Zależności te można sprowadzić do prostych równań liniowych:

Jak widać przesunięcie częstotliwości Brillouina związane jest zarówno ze zmianą temperatury jak i wpływających na włókno naprężeń mechanicznych.
Konieczne jest „wyizolowanie” wpływu ɛ (naprężenia) na włókno odpowiadające za pomiar T.
Pytanie brzmi: jeśli zarówno temperatura, jak i odkształcenie mają wpływ na mierzoną wielkość – przesunięcie częstotliwości Brillouina – w jaki sposób system monitorujący może rozróżnić, który z nich się zmienił?

Taka sytuacja ma miejsce w następujących typowych scenariuszach.
Zarówno odkształcenie, jak i temperatura muszą być rejestrowane jednocześnie w tej samej strukturze. Interesujący jest tylko pomiar odkształcenia lub temperatury, ale inna wielkość fizyczna może wykazywać wpływ krzyżowy – i musi zostać skompensowana (w większości przypadków będzie to żądanie pomiaru odkształcenia z kompensacją temperatury).

Jednym z rozwiązań, które okazało się praktycznie wykonalne to użycie dwóch światłowodowych włókien czujnikowych równolegle wbudowanych w jedną konstrukcję kabla.
Teoretycznie idealnym rozwiązaniem byłoby zastosowanie nieizolowanego włókna, ale wówczas poziom zabezpieczenia przed uszkodzeniem jest oczywiście niewystarczający. Potrzebny jest kompromis między ochroną włókna, a zachowaniem jego zdolności wykrywania odkształceń. Aby przełożyć zewnętrzne naprężenia na włókno trzeba zastosować konstrukcje o jak najmniejszym efekcie poślizgu pomiędzy poszczególnymi warstwami wewnętrznymi kabla.

Ważne jest, aby pamiętać również o odpowiednim zróżnicowaniu źródła zmiany charakterystyki rozpraszania Brillouina. Jak wspomniane zostało wcześniej – może to być jednocześnie zmiana temperatury jak i naprężenie światłowodu.
Do jednoznacznego wyodrębnienia obserwacji naprężenia w konstrukcji kabla, zastosowane powinno być drugie włókno w jak najmniejszym stopniu zależne od odkształceń i sił mechanicznych działających na kabel, a co za tym idzie mogące kompensować zmiany temperatury.
Wspomnianą kompensację temperatury zapewnia włókno umieszczone w luźnej tubie. Ważne jest by zagwarantować niski współczynnik tarcia na styku z kolejną warstwą konstrukcji kabla. Drugie włókno tymczasem pełni funkcję mierzenia odkształceń, aby najlepiej przenosić je na włókno – otaczająca go konstrukcja ma postać ścisłej tuby.

Rys. Propozycja budowy kabla sensorycznego z wykorzystaniem włókna w tubie ścisłej i w tubie luźnej.

Tak wyizolowany układ pomiarowy sugeruje również producent miernika DST.

Piotr Turowicz

Kategorie
#Technologie: Aktualności

SCinet – największa tymczasowa sieć komputerowa na świecie

Temat opisywany w poprzednim wydaniu PIONIER NEWSa wzbudził niemałe zainteresowanie i postanowiliśmy opisać szczegóły techniczne rozwiązań użytych w tej sieci.

 

 

 

 

 

Architektura i ogólna charakterystyka SCinet

Powyższa grafika przedstawia schemat sieci. Jak można zauważyć, sieć SCinet to w zasadzie dwie sieci:

  • Conference Network – zapewniająca przewodowy i bezprzewodowy dostęp do Internetu dla uczestników i wystawców — zarówno obecnych na miejscu, jak i zdalnych.
  • Science Network – sieć badawcza wspierająca Network Research Exhibition (NRE), eksperymentalne projekty sieciowe SCinet oraz duże demonstracje technologiczne.

W tegorocznej edycji schemat architektury sieci został świadomie uproszczony w porównaniu do lat ubiegłych. Decyzja ta była konsekwencją dynamicznych zmian w dostępności i konfiguracji sprzętu, które — jak to często bywa w tego typu przedsięwzięciach — następowały na bardzo późnym etapie przygotowań. W efekcie konieczne było odejście od dosłownego odwzorowania infrastruktury na rzecz bardziej koncepcyjnego ujęcia architektury. W praktyce pełny i ostateczny kształt sieci staje się znany dopiero po zakończeniu wszystkich etapów wdrożenia oraz przezwyciężeniu napotkanych po drodze wyzwań.

Główna część sieci SCinet (NOC) jest zazwyczaj zlokalizowana w centralnej części Exhibition Floor. Jest to 8 połączonych ze sobą szaf rack ze sprzętem sieciowym i serwerami, pogrupowanych według pełnionej funkcji. Dodatkowo budowanych jest kilka lokalizacji DNOC, czyli punktów dystrybucyjnych, z których wyprowadzane są połączenia dla wystawców. Możemy ich podzielić na dwie grupy:

  • Użytkownicy “Conference network” korzystają z konferencyjnej sieci WiFi lub łączy o prędkości 1 lub 10Gbit doprowadzonych światłowodem do ich stoiska. Wraz z łączem dostają publiczne adresy IPv4 oraz IPv6. Ci właśnie wystawcy są podłączeni do rozlokowanych po całej wystawie punktów dystrybucyjnych DNOC.
  • Użytkownicy “Science Network” korzystają z sieci o prędkości 100Gbit lub szybszej, najczęściej są to wystawcy uczestniczący w NRE, czyli Network Research Exhibition. Duża ich część w tym roku znajdowała się blisko głównej sceny i ich łącza światłowodowe były podwieszone pod sufitem i poprowadzone bezpośrednio do NOC, w niektórych przypadkach były one krosowane przez DNOC.

Sieć SCinet Science

Sieć SCinet Science (SCN) jest nastawiona na dostarczenie zasobów sieciowych koniecznych do przeprowadzenia doświadczeń sieciowych. W 2026 roku było to 31 eksperymentów dotyczących, m.in..: wykonywania dalekich transferów danych, optymalizacji połączeń i protokołów, automatyzacji i orkiestracji sieci. Sieć SCN daje zespołom badawczym dostęp do bardzo wydajnej, nowoczesnej infrastruktury sieciowej oraz połączeń o ogromnej przepustowości. Umożliwia testowanie i sprawdzanie nowych rozwiązań sieciowych w realnych warunkach, w skali zbliżonej do produkcyjnej, czego nie da się zrobić w typowych laboratoriach. Jednocześnie sprzyja współpracy między zespołami z różnych krajów i pomaga przenosić sprawdzone rozwiązania do sieci produkcyjnych.

W tym roku do budowy sieci wykorzystano m.in.:

  • Juniper PTX10002-36QDD
  • Nokia SR-1se
  • Ciena 8190
  • Arista DCS-7060X6-64PE
  • Nokia 7750 SR-1X-48D QSFPDD-800ge

Są to wysokowydajne routery i przełączniki różnych producentów, przeznaczone do pracy z bardzo dużymi przepustowościami. Wykorzystane urządzenia umożliwiały obsługę łączy 400G i 800G oraz nowoczesnych usług sieciowych. Zróżnicowany sprzęt pozwolił na testowanie interoperacyjności i realną pracę w środowisku wielu producentów. W tym roku sieć SCN była oparta na technologii EVPN-VXLAN, co w tak zróżnicowanym środowisku okazało się dużym wyzwaniem.

Lista zrealizowanych doświadczeń NRE: https://sc25.supercomputing.org/scinet/network-research-exhibition/accepted-nre-demos/

Sieć SCinet Conference

SCinet Conference jest siecią dostarczającą usługi sieciowe ponad 16500 uczestnikom konferencji SuperComputing! Jest to rozbudowana sieć składająca się z:

  • Routerów i switchy szkieletowych
  • Routerów i switchy dystrybucyjnych
  • Sieci Wi-Fi (450 AP)
  • Sieci Edge (145 switchy)
  • Serwerów i oprogramowania do monitoringu sieci
  • Serwerów do świadczenia usług konferencyjnych (rejestracja, streaming video)

Sieć została zbudowana z użyciem Junipera MX304 oraz połączeń 100G i 400G do operatorów telekomunikacyjnych. Sieć dystrybucyjna to nowoczesne urządzenia sieciowe: Nokia 7220, Aruba 8360 i 6300M, Arista DCS-7280 i Juniper QFX5120.

WAN

Niesamowitą bazę do budowy sieci SCinet stanowi rozległa sieć WAN. W roku 2026 było 32 łącza zakończone w St. Louis, w znakomitej większości były to łącza 400G! Wykonano również testowe połączenie z użyciem modułów 800G Ciena WL6n na odległości 1050 km. Łączna przepustowość łączy wyniosła 13,72 Tbps, a dzięki zastosowaniu technologii DWDM wystarczyło do tego jedynie 12 par włókien światłowodowych.

Wykonanie wszystkich połączeń jest ciekawym wyzwaniem technicznym, ale również organizacyjnym, ponieważ wymaga współpracy z wieloma operatorami telekomunikacyjnymi (MOREnet, ESnet, Internet2, Lumen, Verizon, Zayo, Arelion, NA-REX).

Podobnie jak w innych obszarach sieci SCinet, do obsługi połączeń WAN stosowany jest sprzęt różnych producentów – Ciena, Infinera, Cisco, Nokia, Arista. Poza urządzeniami DWDM w sieci zastosowano też switche światłowodowe (Polatis 192×192 oraz DiCon 96×96) automatyzujące fizyczne przełączanie tras światłowodowych.

Automatyzacja

Automatyzacja zadań związanych z konfiguracją sieci od wielu lat jest istotnym obszarem działalności zespołów w SCinet. W tym roku zadania zostały zintegrowane w ramach dedykowanego zespołu, który wykonał infrastrukturę automatyzacji sieci składającą się z:

  • Nautobot – podstawowe źródło informacji o sieci (Source of Truth)
  • Cisco NSO – platforma do orkiestracji

Automatyzacja sieci SCinet wiąże się z wieloma trudnościami, m.in. duża liczba producentów stosowanych urządzeń, częste zmiany usług dostępnych użytkownikom i krótki czas na testowanie w rzeczywistych warunkach. Stosowanie automatyzacji wymusza jednak szczegółowe planowanie sieci i stosowanie Source of Truth, co w rezultacie usprawnia całość procesu.

Fiber

Sieć o tak wysokich przepustowościach jest wykonana z użyciem światłowodów. Wykonaniem sieci zajmuje się dedykowany zespół “Fiber” odpowiedzialny za planowanie tras, ułożenie okablowania i przetestowanie połączeń. W tym roku było to łącznie 17 mil światłowodów! Stałą częścią pracy zespołu jest usuwanie awarii. W tak dynamicznym środowisku, jakim jest hala wystawowa w czasie przygotowywania konferencji, łatwo o uszkodzenie kabla, co wiąże się potem z koniecznością lokalizacji uszkodzenia, wymiany fragmentu i spawania.

NetSec

Wykonanie tak dużej sieci wiąże się również z koniecznością odpowiedniego zabezpieczenia przed zagrożeniami oraz identyfikacji incydentów sieci.

Architekturę bezpieczeństwa sieci oparto na wielu warstwach zabezpieczeń, obejmujących m.in.:

  • Stosowanie urządzeń klasy firewall do filtrowania ruchu
  • Stosowanie network taps do zbierania kopii ruchu z wielu miejsc jednocześnie
  • Stosowanie network sensors do wykrywania anomalii i incydentów
  • Stosowanie Firewall Sandbox

Zastosowano rozwiązania sprzętowe (m.in.: Fortinet 4800F, Cisco 6160, Palo 7500) oraz rozwiązania programowe do rozbudowanej analityki (Gravwell, Qualys, Tenable).

Etapy budowy sieci

  • 1 rok planowania
  • 1 miesiąc budowy sieci
  • 1 tydzień operacyjnego funkcjonowania
  • 1 dzień na demontaż sieci

Prace nad architekturą nowej sieci rozpoczynają się na około rok przed kolejną edycją konferencji. W tym czasie zespół analizuje możliwości i ograniczenia infrastruktury centrum konferencyjnego, uzgadnia z producentami dostępność sprzętu oraz określa wymagania techniczne i zapotrzebowanie. Równolegle poszczególne zespoły projektują architekturę w swoich obszarach odpowiedzialności oraz przygotowują konfiguracje w wirtualnym laboratorium sieciowym, którego główna instancja utrzymywana jest w ICM Uniwersytetu Warszawskiego.

Na około miesiąc przed rozpoczęciem konferencji sprzęt dostarczany przez producentów trafia do tymczasowej lokalizacji, gdzie jest montowany w szafach rack. Dzięki zdalnemu dostępowi możliwe jest w tym okresie przenoszenie i testowanie konfiguracji na rzeczywistych urządzeniach. Około tydzień przed konferencją infrastruktura zostaje przeniesiona do docelowego centrum zarządzania siecią (NOC) oraz rozproszonych punktów DNOC. W trakcie operacyjnego działania sieci zespół koncentruje się na bieżącym rozwiązywaniu problemów oraz testowaniu wdrożonych rozwiązań w rzeczywistych warunkach. Po zakończeniu konferencji infrastruktura jest sprawnie demontowana i zwracana dostawcom sprzętu.

Podsumowanie

Zespół SCinet tworzy 215 specjalistów – wolontariuszy z ośmiu krajów, reprezentujących 128 instytucji: uczelni, agencji rządowych, ośrodków obliczeń dużej mocy, sieci badawczo-edukacyjnych i operatorów telekomunikacyjnych. Warto dodać, że częścią zespołu są również przedstawiciele producentów sprzętu i dostarczonych rozwiązań, co zapewnia szybkie wsparcie oraz sprawną diagnostykę sieci.

Tegoroczna edycja ponownie pobiła poprzednie rekordy przepustowości, a w ramach Network Research Exhibition uruchomiono 31 eksperymentów sieciowych. Do budowy SCinet wykorzystano sprzęt i usługi o łącznej wartości 70 mln USD. Dostawcy zaangażowani w projekt udostępnili swoje najnowsze platformy sprzętowe, które podczas konferencji przechodzą intensywne testy.

W tym roku szczególny nacisk położono na automatyzację procesów oraz interoperacyjność rozwiązań sieciowych. Z powodzeniem wykorzystano m.in. platformy Nautobot oraz Cisco NSO.

Członkowie zespołu SCinet wracają do swoich macierzystych instytucji z nową wiedzą i doświadczeniem zdobytym podczas projektowania i budowy sieci. Ten aspekt działalności SCinet jest niezwykle istotny – umożliwia wymianę spostrzeżeń, dobrych praktyk i wiedzy w przyjaznej, otwartej atmosferze.

Jarosław Skomiał, Bartosz Drogosiewicz

Kategorie
#Technologie: Aktualności

Wygodny i bezpieczny, czyli eduMeet

Prezentujemy Państwu najnowszy odcinek podcastu PCSS Talks, który realizuje zespół Poznańskiego Centrum Superkomputerowo-Sieciowego. 

W dzisiejszym odcinku eksperci z PCSS Bartłomiej Idzikowski oraz Piotr Pawałowski przybliżają potencjał otwartoźródłowej platformy eduMeet.

Rozmowa koncentruje się na zastosowaniu technologii WebRTC w bezpiecznych wideokonferencjach, stanowiąc cenne źródło wiedzy o profesjonalnych narzędziach komunikacyjnych niewymagających instalacji oprogramowania.

Polecamy!

Kategorie
#Technologie: Aktualności

Warsztaty z zarządzania kryzysowego GÉANT CLAW 2025 współorganizowane przez PIONIER i PCSS

Dwa intensywne dni szkolenia, po którym nastąpiło ćwiczenie symulacyjne – wszystko odbyło się na terenie Universitat Pompeu Fabra (UPF) – nowoczesnej uczelni publicznej słynącej z wysokiej jakości badań naukowych, innowacji i silnego międzynarodowego charakteru, skupiającej się na naukach społecznych, humanistycznych, zdrowiu i technologii.

Wydarzenie CLAW 2025, które zostało zorganizowane przez społeczność GÉANT, we współpracy z CSUC (Consorci de Serveis Universitaris de Catalunya), zgromadziło ekspertów, praktyków i profesjonalistów skupionych wokół międzynarodowej społeczności krajowych sieci naukowo-badawczych (NREN).

Uczestnicy tej wyjątkowej inicjatywy zgłębiali wiedzę oraz identyfikowali wyzwania związane z zarządzaniem kryzysowym, analizując również konkretne przypadki i scenariusze działań stosowanych w ramach ich własnych organizacji. Wydarzenie rozpoczął keynote speaker Antonio Fuentes (zastępca dyrektora ds. systemów informatycznych i cyberbezpieczeństwa, RedIRIS), który podzielił się doświadczeniami hiszpańskiej sieci naukowo-akademickiej związanymi z niedawną awarią sieci krajowej oraz przybliżył sposoby zarządzania takim zdarzeniem.

Organizatorzy przygotowali również trzy sesje specjalistycznych szkoleń dotyczących kluczowych zagadnień związanych z crisis management, po których odbyło się ćwiczenie, dające możliwość praktycznego wykorzystania nowo nabytych umiejętności. Kolejny scenariusz, osadzony w fikcyjnym państwie Guilder Königereiche, miał na celu przedstawienie przykładowego kryzysu w organizacji w sposób realistyczny i immersyjny. Tegoroczna edycja koncentrowała się na wyzwaniach komunikacyjnych podczas kataklizmów naturalnych, takich jak powódź, wymagających szybkiego i skoordynowanego reagowania informacyjnego. Dodatkowo szczególną uwagę poświęcono zagrożeniom wynikającym z roli mediów społecznościowych, w tym rozprzestrzenianiu się dezinformacji i fake newsów w sytuacjach kryzysowych. Poszczególne zespoły techniczne, zespoły bezpieczeństwa oraz PR musiały opanować sytuację poprzez zaplanowanie i realizację szeregu działań naprawczych.

Dzięki wspólnej nauce i podejmowaniu decyzji w czasie rzeczywistym, uczestnicy wzmocnili swoje kompetencje w zakresie reagowania na trudne sytuacje w ich NREN-ach, współpracując z kolegami z całej społeczności GÉANT.

W roli organizatorów w warsztacie uczestniczył zespół złożony z przedstawicieli Działu Nowych Mediów oraz Działu Współpracy i Kontaktów z Otoczeniem PCSS. Byli oni odpowiedzialni za przygotowanie materiałów multimedialnych na potrzeby ćwiczenia kryzysowego, a także za opracowanie warstwy prezentacyjnej dla poszczególnych zespołów, jednocześnie dbając o prawidłowy przebieg całego wydarzenia.

Wojciech Bohdanowicz

Kategorie
#Technologie: Aktualności

SCinet z polskim akcentem na SC25

SCinet ma silny polski akcent – w pracach zespołu Routing, odpowiedzialnego za konfigurację większości routerów i przełączników, uczestniczą Jarosław Skomiał i Bartosz Drogosiewicz, inżynierowie sieciowi z Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego UW. Po raz kolejny istotną rolę odegrało także wirtualne laboratorium usług sieciowych utrzymywane przez inżynierów z Polski, dzięki czemu ICM UW ponownie uzyskał status złotego sponsora konferencji.

Tegoroczna edycja ponownie pobiła poprzednie rekordy przepustowości, a w ramach Network Research Exhibition uruchomiono 31 eksperymentów sieciowych. Do budowy SCinet wykorzystano sprzęt i usługi o łącznej wartości 70 mln USD. Dostawcy zaangażowani w projekt udostępnili swoje najnowsze platformy sprzętowe, które podczas konferencji przechodzą intensywne testy.

W tym roku szczególny nacisk położono na automatyzację procesów oraz interoperacyjność rozwiązań sieciowych. Z powodzeniem wykorzystano m.in. platformy Nautobot oraz Cisco NSO.

Członkowie zespołu SCinet wracają do swoich macierzystych instytucji z nową wiedzą i doświadczeniem zdobytym podczas projektowania i budowy sieci. Ten aspekt działalności SCinet jest niezwykle istotny – umożliwia wymianę spostrzeżeń, dobrych praktyk i wiedzy w przyjaznej, otwartej atmosferze. Zespół SCinet tworzy 215 specjalistów – wolontariuszy z ośmiu krajów, reprezentujących 128 instytucji: uczelni, agencji rządowych, ośrodków obliczeń dużej mocy, sieci badawczo-edukacyjnych i operatorów telekomunikacyjnych. Warto dodać, że częścią zespołu są również przedstawiciele producentów sprzętu i dostarczonych rozwiązań, co zapewnia szybkie wsparcie oraz sprawną diagnostykę sieci.

Jarosław Skomiał, Bartosz Drogosiewicz

Kategorie
#Technologie: Aktualności

Polskie superkomputery w światowym TOP-ie

Co roku w listopadzie całe środowisko naukowo-informatyczne czeka na to zestawienie i każdego roku z dużym zainteresowaniem wszyscy obserwują aktualny ranking.

W najnowszym rankingu znalazło się siedem polskich maszyn, które działają w ramach krajowej infrastruktury naukowej oraz jeden komputer komercyjny firmy Beyond.pl:

  • 96m. HELIOS, ACK CYFRONET
  • 128m. PROXIMA, PCSS
  • 141m. LEM, WCSS
  • 211m. The F.I.N, Beyond.pl
  • 250m., KRAKEN-FREGATA, CI TASK
  • 280m. ATHENA, CYFRONET
  • 360m. ALTAIR, PCSS
  • 415m. HELIOS CPU, CYFRONET

W TOP10 listy znalazły się cztery maszyny z USA, pięć z Europy i jedna z Japonii. Najszybszym superkomputerem na świecie ponownie został ogłoszony El Capitan. Maszyna jest zainstalowana w Lawrence Livermore National Laboratory w USA. El Capitan został zbudowany w oparciu o platformę HPE Cray EX. Najszybszym superkomputerem europejskim jest cały czas flagowy superkomputer EuroHPC JU, zainstalowany w Niemczech Jupiter Booster (czwarte miejsce na świecie). Pięć lokat niżej znalazł się superkomputer LUMI, do którego polscy naukowcy mogą uzyskać dostęp za pośrednictwem infrastruktury PLGrid.

oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Zdrowy jak PIONIER!

W siedzibie PCSS oraz w siedzibach 9 ośrodków medycznych w Europie (Essen, Marsylia, Leiden, Londyn, Hamburg, Barcelona x2, Genua, Wrocław) można było wziąć udział w multisesji wideokonferencyjnej z wszystkimi uczestniczącymi ośrodkami wraz z jednoczesną transmisją do Internetu.

W wydarzeniu wzięło udział kilkadziesiąt tysięcy odbiorców, wśród nich byli nie tylko lekarze, ale również studenci medycyny.  Na bloku operacyjnym oraz w centrum moderacji w PCSS pojawili się światowej klasy specjaliści, którzy czuwali nad przebiegiem zabiegu i komentowali procedury, w tym: prof. W. Szyfter, prof. C.Piazza, prof. M. Remacle, prof. M. Zabrodsky, prof. Ch. Arens oraz prof. Małgorzata Wierzbicka ze studia we Wrocławiu.

To było wyjątkowe wydarzenie, a w tym roku łączyli się z nami wyjątkowo dość liczni przedstawiciele Azji i Turcji  poprzez portal, który na żywo transmitował całe przedsięwzięcie – opowiada dr Maria Józefowicz z medVC.eu. – Wszyscy eksperci w studio i w ośrodkach mieli do dyspozycji ekrany dotykowe, co pozwalało na bieżąco tłumaczyć kolejne etapy wykonywanej operacji. To coś niesamowitego, bo daje ogromną wiedzę lekarzom, którzy nie mieli wcześniej doświadczenia z takimi zabiegami.

 Magdalena Baranowska-Szczepańska

 

Kategorie
#Technologie: Aktualności

Transfer wzorca czasu i częstotliwości w sieci PIONIER – krajowa infrastruktura T&F na tle Europy

Podczas dedykowanego tym zagadnieniom seminarium pn. „Transmisja sygnału czasu i częstotliwości w sieci PIONIER” swoje wystąpienia zaprezentowali specjaliści z Akademii Górniczo-Hutniczej, Głównego Urzędu Miar oraz Poznańskiego Centrum Superkomputerowo-Sieciowego. Pokazały one jak istotnym elementem współczesnej infrastruktury badawczej jest możliwość dystrybucji ultraprecyzyjnych wzorców czasu i częstotliwości w sieciach światłowodowych.

W roku 2023, w ramach projektu PIONIER-LAB, z wykorzystaniem infrastruktury Ogólnopolskiej Sieci Optycznej PIONIER, uruchomiono dedykowany system transmisyjny wzorca czasu i częstotliwości wraz z węzłami dystrybucji opartymi o urządzenia ELSTAB. Kluczowe węzły umiejscowione zostały w 11-stu lokalizacjach partnerów Konsorcjum, biorących udział w realizacji Laboratorium 2-ego. W kolejnym etapie uruchomiono transmisję na kolejnych odcinkach sieci PIONIER, tak aby finalnie zasięgiem sieci objąć wszystkich Partnerów Konsorcjum. Obecnie trwają prace polegające na instalacji węzłów dystrybucji w pozostałych jednostkach tak, aby w każdej z nich możliwy był dostęp do wzorców czasu i częstotliwości w podstawowym zakresie. Dzięki zastosowaniu zaawansowanych technik kompensacji opóźnień, stabilność przesyłanego sygnału częstotliwości w sieci osiąga poziom lepszy niż 10⁻¹6. Należy w tym miejscu nadmienić, iż równolegle do sieci zrealizowanej w ramach PIONIER-LABa, rozwijana jest także infrastruktura dystrybucji referencyjnej częstotliwości optycznej. Sieć ta to nowa klasa sygnałów, przeznaczona dla innej grupy użytkowników, w której względna stabilność transferu częstotliwości jest nie gorsza niż 10⁻¹8. Łącznie, polska światłowodowa infrastruktura dystrybucji precyzyjnego wzorca czasu i częstotliwości, o długości 7 tys. km, stanowi krajowy kręgosłup systemu, który zaliczany jest do czołówki najlepszych europejskich rozwiązań tego typu.

Fakt ten został już dostrzeżony na arenie międzynarodowej. W zeszłym roku uruchomiono łącze do Narodowego Instytutu Metrologii w Brunszwiku (PTB, niem. Physikalisch-Technische Bundesanstalt), niemieckiego odpowiednika polskiego Głównego Urzędu Miar, który pełni rolę centralnego węzła europejskiego systemu referencyjnego. Całość siedmiuset kilometrowego połączenia została zrealizowana z użyciem wyłącznie polskich urządzeń, a jakość transferu jest na najwyższym, światowym poziomie. Te działania umożliwiły, po raz pierwszy, na udział polskich zegarów optycznych w ogólnoeuropejskiej kampanii światłowodowych porównań tych wzorców. Inicjatywy te pozwalają na udział krajowych ośrodków naukowych w międzynarodowych inicjatywach badawczych i eksperymentach na równorzędnych, partnerskich zasadach.

Równolegle prowadzone są prace nad włączeniem polskiej sieci T&F w paneuropejski system transferu metrologicznego. Polska sieć jest reprezentowana w dwóch kluczowych inicjatywach: inicjatywa wybudowania światłowodowej sieci Core Time and Frequency Network, która jest ważną częścią strategii rozwojowej sieci GÉANT w Europie oraz inicjatywy FOREST, mającej na celu uzyskanie stabilnego finasowania tego typu sieci, poprzez wpisanie ich na ogólnoeuropejską mapę drogową. Polska, dzięki sieci PIONIER i projektowi PIONIER-LAB, aktywnie uczestniczy w tych działaniach, dostarczając zarówno zaplecze techniczne, jak i doświadczenie badawcze.


Krzysztof Kołat, Krzysztof Turza