Kategorie
#Technologie: Aktualności

Transfer wzorca czasu i częstotliwości w sieci PIONIER – krajowa infrastruktura T&F na tle Europy

Podczas dedykowanego tym zagadnieniom seminarium pn. „Transmisja sygnału czasu i częstotliwości w sieci PIONIER” swoje wystąpienia zaprezentowali specjaliści z Akademii Górniczo-Hutniczej, Głównego Urzędu Miar oraz Poznańskiego Centrum Superkomputerowo-Sieciowego. Pokazały one jak istotnym elementem współczesnej infrastruktury badawczej jest możliwość dystrybucji ultraprecyzyjnych wzorców czasu i częstotliwości w sieciach światłowodowych.

W roku 2023, w ramach projektu PIONIER-LAB, z wykorzystaniem infrastruktury Ogólnopolskiej Sieci Optycznej PIONIER, uruchomiono dedykowany system transmisyjny wzorca czasu i częstotliwości wraz z węzłami dystrybucji opartymi o urządzenia ELSTAB. Kluczowe węzły umiejscowione zostały w 11-stu lokalizacjach partnerów Konsorcjum, biorących udział w realizacji Laboratorium 2-ego. W kolejnym etapie uruchomiono transmisję na kolejnych odcinkach sieci PIONIER, tak aby finalnie zasięgiem sieci objąć wszystkich Partnerów Konsorcjum. Obecnie trwają prace polegające na instalacji węzłów dystrybucji w pozostałych jednostkach tak, aby w każdej z nich możliwy był dostęp do wzorców czasu i częstotliwości w podstawowym zakresie. Dzięki zastosowaniu zaawansowanych technik kompensacji opóźnień, stabilność przesyłanego sygnału częstotliwości w sieci osiąga poziom lepszy niż 10⁻¹6. Należy w tym miejscu nadmienić, iż równolegle do sieci zrealizowanej w ramach PIONIER-LABa, rozwijana jest także infrastruktura dystrybucji referencyjnej częstotliwości optycznej. Sieć ta to nowa klasa sygnałów, przeznaczona dla innej grupy użytkowników, w której względna stabilność transferu częstotliwości jest nie gorsza niż 10⁻¹8. Łącznie, polska światłowodowa infrastruktura dystrybucji precyzyjnego wzorca czasu i częstotliwości, o długości 7 tys. km, stanowi krajowy kręgosłup systemu, który zaliczany jest do czołówki najlepszych europejskich rozwiązań tego typu.

Fakt ten został już dostrzeżony na arenie międzynarodowej. W zeszłym roku uruchomiono łącze do Narodowego Instytutu Metrologii w Brunszwiku (PTB, niem. Physikalisch-Technische Bundesanstalt), niemieckiego odpowiednika polskiego Głównego Urzędu Miar, który pełni rolę centralnego węzła europejskiego systemu referencyjnego. Całość siedmiuset kilometrowego połączenia została zrealizowana z użyciem wyłącznie polskich urządzeń, a jakość transferu jest na najwyższym, światowym poziomie. Te działania umożliwiły, po raz pierwszy, na udział polskich zegarów optycznych w ogólnoeuropejskiej kampanii światłowodowych porównań tych wzorców. Inicjatywy te pozwalają na udział krajowych ośrodków naukowych w międzynarodowych inicjatywach badawczych i eksperymentach na równorzędnych, partnerskich zasadach.

Równolegle prowadzone są prace nad włączeniem polskiej sieci T&F w paneuropejski system transferu metrologicznego. Polska sieć jest reprezentowana w dwóch kluczowych inicjatywach: inicjatywa wybudowania światłowodowej sieci Core Time and Frequency Network, która jest ważną częścią strategii rozwojowej sieci GÉANT w Europie oraz inicjatywy FOREST, mającej na celu uzyskanie stabilnego finasowania tego typu sieci, poprzez wpisanie ich na ogólnoeuropejską mapę drogową. Polska, dzięki sieci PIONIER i projektowi PIONIER-LAB, aktywnie uczestniczy w tych działaniach, dostarczając zarówno zaplecze techniczne, jak i doświadczenie badawcze.

Krzysztof Kołat, Krzysztof Turza

Kategorie
#Technologie: Aktualności

Spotkanie techniczne administratorów MAN

Wydarzenie, w dużej mierze poświęcone aspektom wdrożeniowym sieciowej platformy sprzętowej – zakupionej w ramach projektu PIONIER-LAB, otworzył Artur Binczewski, witając uczestników w imieniu gospodarzy. Na sali obecny był także dr inż. Maciej Stroiński, Przewodniczący Rady Konsorcjum PIONIER.

Pierwszy dzień obrad wypełniły prezentacje przygotowane przez „drużynę PIONIERa” z Poznańskiego Centrum Superkomputerowo-Sieciowego. Na początku zaprezentowano aktualną topologię sieci PIONIER. Przypomniano historię budowy infrastruktury informatycznej nauki w kraju począwszy od lat 90-tych ubiegłego wieku. W kolejnych wystąpieniach koledzy: Tomasz Szewczyk, Robert Szuman, Paweł Malak, Bartłomiej Idzikowski, Zbigniew Ołtuszyk, Krzysztof Turza, Piotr Rydlichowski, Piotr Turowicz i Rafał Szpiler zaprezentowali:

  • aktualny sposób realizacji usług w sieci PIONIER,
  • centrum nadzoru nad siecią,
  • koncepcję realizacji łączności regionalnej w oparciu o najnowszą platformę przełączników,
  • nową wersję platformy komunikacyjnej eduMEET,
  • aktualny stan usługi Eduroam,
  • koncepcje budowy PIONIER-IXa,
  • realizację transferu czasu i częstotliwości w sieci PIONIER,
  • nowe zastosowania światłowodów (technologie kwantowe i światłowody jako czujniki),
  • wstępną koncepcję modernizacji obiektów PIONIERa w kierunku samowystarczalności energetycznej.

Drugiego dnia uczestnicy spotkania wzięli udział w sesji z przedstawicielami producenta i dostawcy urządzeń wdrożonych w ramach projektu PIONIER-LAB – firm JUNIPER i COMP. Była to okazja do praktycznej wymiany doświadczeń, dyskusji nad funkcjonowaniem nowej platformy sprzętowej oraz pogłębienia wiedzy o możliwościach jej rozwoju.

Spotkanie miało również wymiar integracyjny – sprzyjało budowaniu relacji i współpracy pomiędzy administratorami z poszczególnych jednostek MAN/KDM. Częścią tego wymiaru była kolacja koleżeńska zorganizowana w Pałacu Katedralnym na Ostrowie Tumskim.

Do zobaczenia na kolejnym spotkaniu technicznym administratorów MAN.

Krzysztof Kołat

Kategorie
#Technologie: Aktualności

TNC w Zjednoczonym Królestwie

Pomimo że Wielka Brytania nie jest już krajem Europejskiej Wspólnoty i transfer całego sprzętu w dwóch ciężarówkach wymagał specjalnej dokumentacji celnej, na szczęście obyło się tym razem bez większych problemów. Wielki teatr, Brighton Dome, którego historia sięga XIX wieku, a który rozpoczął swoje życie jako królewskie stajnie, ugościł tym razem uczestników konferencji TNC hasłem „Brighter Together”.

Co prawda przy takiej liczbie uczestników (ponad 800 z 70 krajów) trudno było o „together” na wszystkich sesjach, dlatego też organizatorzy wynajęli dodatkowo przestrzenie pobliskiego hotelu oraz… kościoła Unitarian, aby zmieścić cały konferencyjny program. Niemniej jednak podczas imprez wieczornych, towarzyszących TNC, udało się spotkać z wieloma przedstawicielami bliźniaczych instytucji badawczych i sieciowych z całego niemal świata.

Kolejny już raz PCSS odpowiadał za oprawę konferencji – za światło, dźwięk, muzykę, grafikę, oficjalne otwarcie imprezy, wsparcie rejestracji i narzędzi online. Rozpoczęliśmy występem zespołu na żywo – jak na scenę, która gościła premierowe wykonanie „Dark Side of the Moon” Pink Floyd w 1972 roku czy wygraną Abby na Eurowizji w 1974 roku z piosenką „Waterloo” przystało! Wykorzystaliśmy czarno-białe zdjęcia archiwalne z Brighton, żeby je pokolorować na otwarcie i sprawić, że cztery wielkoformatowe ekrany LED zabłysną „brighter” pełnią kolorów podczas kolejnych sesji.

TNC w Brighton było pierwszą konferencją nowej CEO GÉANT – Lise Fuhr, która doskonale poradziła sobie w roli prowadzącej. Zresztą, jak co roku, nowinek było znacznie więcej. Sesje Lightning Talk były nieco odchudzone, tak, że starczyło czasu na rozmowy panelowe z prezenterami, a przestrzeń wystawy znalazła się tym razem w hali Corn Exchange, gdzie odbywały się także dodatkowe prelekcje… tylko dla posiadających słuchawki, by nie zakłócać rozmów na stoiskach. To było prawdziwe targowisko, zorganizowane na kształt kolorowego rynku, jarmarku partnerów reprezentujących krajowe i regionalne sieci badawcze i edukacyjne, szkoły, uczelnie wyższe, dostawców technologii oraz przedstawicieli najbardziej innowacyjnych projektów naukowych z całego świata.

Uczestnicy konferencji mieli niepowtarzalną okazję do wymiany doświadczeń, co było szczególnie widoczne na stoisku PIONIER-a i PCSS, gdzie zaprezentowano ponad 10 projektów (szczegóły dostępne w osobnym artykule: https://www.news.pionier.net.pl/projekty-pioniera-na-tnc25/). Zaznaczona została także działalność sieci oraz Konsorcjum PIONIER. Nasza przestrzeń wyróżniała się nowoczesnym ekranem LED o wymiarach 3 × 2,5 metra, na którym prezentowane były dedykowane, animowane materiały wizualne. Goście mieli również okazję poczęstować się firmowymi krówkami, które cieszyły się dużym zainteresowaniem, wywołując uśmiechy i zachęcając do inspirujących rozmów.

Intensywny czas pobytu w kolorowym mieście Brighton zakończył się zaproszeniem na przyszły rok. Tym razem TNC zmierza do Skandynawii, na drugą stronę Bałtyku – do Helsinek!

Wojciech Bohdanowicz, Damian Niemir

Kategorie
#Technologie: Aktualności

PIONIER na konferencji SC25 w Saint Louis

SC25 (Supercomputing 25) to Międzynarodowa Konferencja Obliczeń Wysokowydajnych, Sieci, Pamięci Masowych i Analiz, która rozpocznie się 16 listopada i potrwa do 21. SC to najważniejsze globalne spotkanie specjalistów HPC, badaczy, edukatorów, operatorów systemów, programistów i pionierów obliczeń kwantowych.

Konferencja SC25 będzie kolejną okazją do prezentowania projektów i licznych udanych przedsięwzięć realizowanych w ramach Konsorcjum PIONIER. Hasłem tegorocznego wydarzenia jest HPC ignites  – HPC rozpala.

Stoisko PCSS/PIONIER – Polish Optical Internet będzie miało numer #2918 i będzie koordynowane przez Poznańskie Centrum Superkomputerowo-Sieciowe. Na stoisku zaprezentowane zostaną
kwestie AI: Fabryki Sztucznej Inteligencji w Polsce – PIAST AI oraz GAIA AI. Będzie także szansa na zaprezentowanie obszarów działań kwantowych: projekt PIONIER-Q – Ogólnopolska Kwantowa Infrastruktura Komunikacyjna oraz komputer kwantowy PIAST-Q – komputer kwantowy EuroHPC zlokalizowany w PCSS w Poznaniu, oparty się na technologii uwięzionych jonów.

W ramach PIONIER-Q na stoisku będzie prezentowane demo zatytułowane: “PIONIER-Q National Quantum Communication Network Operation and services”. Poza tym prezentowany będzie katalog usług PIONIERa, a także inne projekty, min. KMD4EOSC czy HERIFORGE.

Istotnym elementem każdej konferencji jest ogłoszenie listy TOP500 oraz ogłaszanie miejsc poszczególnych maszyn, które stoją w siedzibach poszczególnych członków Konsorcjum PIONIER.

Inżynierowie sieciowi ICM UW po raz kolejny biorą właśnie czynny udział w przygotowaniach do budowy sieci podczas konferencji Supercomputing’ 25, którą zaprezentują w tym roku.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Komputery kwantowe różnią się między sobą

Komputery kwantowe różnią się fizycznym sposobem implementacji kubitów czyli elementarnych jednostek obliczeniowych w systemie oraz samym sposobem przeprowadzania obliczeń.

Z szerszego punktu widzenia implementacje komputerów kwantowych dzielimy na 3 główne grupy:
– systemy, gdzie kubity są implementowane w nadprzewodzących układach scalonych,
– systemy fotoniczne oparte na przetwarzaniu pojedynczych i splątanych fotonów,
– systemy oparte na manipulowaniu układami atomowymi (pułapki jonowe, centra NV, neutralne atomy).

Aktualnie prowadzone są prace nad technologiami implementacji kubitów opartych na:

  1. Systemach optycznych, gdzie kubitami są pojedyncze fotony. System taki składa się ze źródeł oraz detektorów pojedynczych fotonów (np. ORCA Computing). Tego typu dwa systemy komputerów kwantowych zostały zintegrowane z klasycznym systemem obliczeniowym i od grudnia 2023 roku udostępniane są użytkownikom w PCSS;
  2. Nadprzewodzących układach scalonych (np. IBM Quantum, IQM), gdzie kubity są implementowane na specjalnym układzie scalonym. Taki system został zainstalowany na Politechnice Wrocławskiej w maju 2025 roku;
  3. Pułapkach jonowych (np. AQT), gdzie kubity są zaimplementowane jako pojedyncze jony (np. Ca40+) spułapkowane oraz przetwarzane za pomocą sygnałów optycznych. Taki system będzie zainstalowany w PCSS w czerwcu 2025 roku, jako element europejskiej infrastruktury komputerów kwantowych EuroHPC;
  4. Wyżarzaczach kwantowych, jako specjalizowanych komputerach kwantowych zaprojektowanych do rozwiązywania problemów optymalizacyjnych (np. D-Wave);
  5. Zimnych atomach, gdzie kubitami są chmury zimnych, obojętnych atomów;
  6. Centrach NV w diamentach, gdzie pojedyncze kubity są implementowane jako tzw. centra NV w zmodyfikowanej sieci krystalicznej diamentu;
  7. Systemach nadprzewodzących opartych na układach scalonych z kropkami kwantowymi, gdzie kubity są implementowane jako tzw. kropki kwantowe w krzemowym układzie scalonym działającym w stanie nadprzewodnictwa;
  8. Systemach topologicznych, gdzie kubity są implementowane w tzw. stanie topologicznym – eksperymentalna technologia na wczesnym etapie rozwoju.

Powyższa analiza pokazuje, że na świecie rozwijane są różne zaawansowane technologie fizycznej implementacji kubitów. Każda z tych technologii ma swoje zalety oraz wady i w pewnym stopniu wzajemnie się uzupełnia. Komisja Europejska inwestuje oraz wspiera rozwój wszystkich tych technologii.

 

Krzysztof Kurowski, Piotr Rydlichowski

Kategorie
#Technologie: Aktualności

Centrum operacyjne bezpieczeństwa (SOC) – misja, modele funkcjonowania i narzędzia

Incydent (wg. ustawy KSC) to zdarzenie, które ma lub może mieć niekorzystny wpływ na cyberbezpieczeństwo rozumiane jako odporność systemów informacyjnych na działania naruszające poufność, integralność, dostępność i autentyczność przetwarzanych danych lub związanych z nimi usług oferowanych przez te systemy. Wczesna identyfikacja zagrożeń pozwala niejednokrotnie zapobiec incydentom poprzez wdrożenie środków zaradczych np. polegających na ograniczeniu uprawnień, modyfikacji reguł zapory sieciowej, zainstalowaniu aktualizacji systemów. Misja SOC nie ogranicza się zatem do reagowania na incydent w momencie jego wystąpienia; ona obejmuje także zapobieganie incydentom i to ta aktywność przynosi największe, choć niedoceniane, korzyści.

 

Do realizacji misji, SOC potrzebuje wiedzy na temat chronionej infrastruktury oraz zestawu narzędzi i procedur dających nie tylko wgląd w funkcjonowanie systemów IT, lecz także umożliwiających skuteczne reagowanie na występujące anomalie czy inne zdarzenia naruszające bezpieczeństwo.

Adresowanie zagrożeń wymaga ścisłej współpracy pomiędzy administratorami systemów, właścicielami zasobów (assetów) i specjalistami bezpieczeństwa. Działania te muszą być realizowane zgodnie z procedurami określonymi m.in. w Systemie Zarządzania Bezpieczeństwem Informacji. Procedury i SZBI muszą natomiast czynić zadość obowiązującym legislacjom.

Możliwości reakcji warunkują zakres odpowiedzialności zespołu SOC w przypadku wystąpienia incydentu. Określenie zakresu odpowiedzialności i zasad reagowania jest szczególnie istotne, jeżeli realizacja zadań SOC jest zlecana podmiotom zewnętrznym (outsourcing) w stosunku do chronionej organizacji.

Czy SOC jest wymagany prawem?

W przepisach prawa (KSC, NIS2) nie ma literalnie wpisanej potrzeby utworzenia SOC w organizacjach czy wykupienia zarządzanych usług bezpieczeństwa typu SOC, ale są wymagania proceduralne, które odpowiadają w dużej mierze zakresowi działania typowych SOC-ów. Warto tu wymienić następujące wymagania pojawiające się w istniejących i planowanych ustawach w kontekście podmiotów objętych Krajowym Systemem Cyberbezpieczeństwa:

  • wymóg monitoringu systemów informacyjnych pod kątem ich bezpieczeństwa w trybie ciągłym,
  • niezwłoczne podejmowanie działań po dostrzeżeniu podatności lub cyberzagrożeń,
  • obsługa incydentów oraz przekazywanie informacji o incydentach w ścisłym reżimie czasowym.

Modele funkcjonowania SOC

Kluczowe wymaganie dla SOC to działanie w trybie ciągłym (24/7/365). Aktualnie przyjmuje się takie funkcjonowanie jako standard, inne tryby funkcjonowania stają się rzadkością (np. tylko w godzinach biznesowych). Modele funkcjonowania SOC dzieli się głównie pod kątem umiejscowienia zespołów.

Pierwszy rodzaj SOC, to SOC wewnętrzny – członkowie zespołu specjalistów są zatrudnieni bezpośrednio przez organizację, którą chronią. W praktyce, oznacza to konieczność zatrudnienia co najmniej 5-7 specjalistów (w tym część osób w niepełnym wymiarze). W tym modelu większość narzędzi osadzonych jest w infrastrukturze chronionej organizacji (np. SIEM czy kolektor logów), przy czym część narzędzi (np. konsola EDR czy XDR) może być osadzonych w środowisku chmurowym i udostępnianych zespołowi w modelu software as a service (SaaS), jako zarządzana usługa bezpieczeństwa. Niewątpliwym plusem SOC wewnętrznego jest możliwość pełnej integracji ze strukturami wewnętrznymi organizacji, co ułatwia reagowanie na incydenty i identyfikację zagrożeń – taki zespół SOC może mieć bezpośrednią kontrolę nad kluczowymi urządzeniami w wewnętrznej infrastrukturze organizacji oraz bezpośredni wpływ na administratorów. Minusem są wysokie koszty, które mogą być nieadekwatne do wielkości organizacji.

Koszty i brak wystarczającej liczby odpowiednio wyszkolonych pracowników to główne powody pojawienia się innych modeli funkcjonowania zespołów SOC, w szczególności SOC zarządzanego (Managed SOC), czy też SOC jako usługa (SOCaaS). W obydwóch przypadkach usługi są delegowane – bezpieczeństwo monitorują osoby z zewnętrznej firmy. Przy czym w przypadku Managed SOC część kluczowych systemów bezpieczeństwa może być posadowiona w infrastrukturze chronionej organizacji lub w chmurze; zakres usług może być tu szerszy niż w przypadku SOCaaS. W SOCaaS większość narzędzi wykorzystywanych przez SOC jest posadowiona w infrastrukturze usługodawcy, w szczególności w chmurze. Zespół usługodawcy koncentruje się na identyfikowaniu zagrożeń, w tym analizie ryzyka i szybkim reagowaniu. Natomiast Managed SOC, w odróżnieniu od SOCaaS, może bardziej kompleksowo zarządzać systemami bezpieczeństwa organizacji oraz wspierać audyty wewnętrzne czy wymogi legislacyjne.

Dodatkowo, popularność zdobywa usługa MDR, która koncentruje się na wykrywaniu zagrożeń w oparciu o systemy EDR oraz analizy ruchu sieciowego (NTA), a także realizuje pewne zaawansowane elementy, tzw. threat-huntingu (m.in. identyfikacji nowych zagrożeń). Narzędzia SOC omówione zostaną w kolejnej sekcji.

Ostatnim najczęściej wymienianym modelem SOC, jest model hybrydowy. W tym przypadku organizacja ma wewnętrzny silny zespół SOC i zleca tylko wybrane elementy na zewnątrz, np. korzysta z narzędzi w modelu chmurowym lub zleca konkretne zadania kontrahentom zewnętrznym (np. skanowanie systemów publicznie dostępnych czy analizy powłamaniowe). W tym modelu organizacja ma zwykle pełną kontrolę nad krytycznymi funkcjami zabezpieczeń.

Przyjrzyjmy się narzędziom wykorzystywanym w SOC-ach.

Narzędzia SOC

Celem tej sekcji jest wskazanie typów narzędzi, którymi posiłkują się zespoły bezpieczeństwa, aby chronić infrastrukturę.

Rejestrowanie występujących zdarzeń i podejmowanych aktywności związanych z incydentami jest niezbędne do zapewnienia należytego poziomu usług. Do tego celu wykorzystuje się różnej maści system obsługi zgłoszeń (np. JIRA, Zammad, RT, RTIR itp.).

Zgłoszenia zdarzeń mogą pochodzić od użytkowników, podmiotów zewnętrznych, analityków lub z wdrożonych systemów bezpieczeństwa, np. zapór sieciowych czy analizatorów logów.

Zapory sieciowe pełnią dwojaką rolę – mogą sygnalizować zagrożenia z wykorzystaniem zdefiniowanych reguł oraz mogą być wykorzystywane do reagowania na incydenty poprzez blokowanie lub ograniczanie ruchu sieciowego. Firewalle najnowszych generacji mają dość rozbudowane mechanizmy detekcji zagrożeń i reagowania.

Kompleksowa analiza logów systemów jest możliwa tylko jeśli logi są zebrane w jednym miejscu. Do zbierania logów wykorzystuje się kolektory logów. W przypadku zdarzeń bezpieczeństwa najczęściej wykorzystuje się tzw. systemy SIEM (Security Information and Event Management), które koncentrują się na analizie informacji ukierunkowanych na bezpieczeństwo. Systemy SIEM umożliwiają korelację zdarzeń, analizy statystyczne, wykrywanie anomalii oraz wysyłanie powiadomień (alert), np. w przypadku wykrycia nieprawidłowości lub podejrzanych aktywności.

Kluczowe znaczenie w identyfikacji zagrożeń ma nie tylko analiza logów z systemów operacyjnych czy aplikacji, ale także wgląd w ruch sieciowy. Ruch sieciowy analizuje się zwykle z wykorzystaniem kolektorów rekordów przepływów (Netflow czy IPFIX) oraz systemów detekcji intruzów (IDS), tj. sensorów umieszczonych w chronionej infrastrukturze. Wyniki analizy rekordów przepływów mogą stanowić dodatkowe źródło informacji przekazywanych do SIEM.

Organizacja, która ma wdrożony i dostrojony system SIEM może dodatkowo wdrożyć system SOAR (Security Orchestration, Automation, and Response) w celu automatyzacji i orkiestracji procesów reagowania. Automatyczne reagowanie może również objąć stacje końcowe, ale do tego służy kolejny rodzaj systemu ochrony – system EDR.

Systemy EDR (Endpoint Detection and Response) dbają o ochronę punktów końcowych w sieci poprzez wykrywanie i reagowanie na podejrzane aktywności związane ze złośliwym oprogramowaniem, ransomware czy innymi typami ataków. Kluczowe jest tu reagowanie bezpośrednio na chronionych stacjach, serwerach, urządzeniach mobilnych. EDR w ramach reakcji może np. blokować procesy lub izolować zagrożone punkty końcowe. Informacje ze stacji końcowych przekazywane są do centralnej konsoli zarządzania.

Systemy XDR (eXtended Detection and Response) niejako rozszerzają funkcjonalność systemów EDR poprzez uwzględnienie aktywności sieciowej, systemów chmurowych, systemów poczty elektronicznej, a także zastosowanie zaawansowanych algorytmów analitycznych w celu identyfikacji i priorytetyzacji zagrożeń. Systemy XDR mogą podejmować automatyczne akcje zarówno na urządzeniach końcowych (jak to ma miejsce w przypadku EDR), jak i w warstwie sieciowej czy infrastrukturze serwerowej, z której urządzenia końcowe korzystają.

Monitoring dostępności zasobów to kolejny element wspomagający cyberbezpieczeństwo i identyfikację incydentów. Podobnie jak zespoły NOC (Network Operation Center), monitorujące dostępność sieci, czy administratorzy systemów, także zespoły bezpieczeństwa posiłkują się systemami monitorującymi funkcjonowanie usług w tym czasów odpowiedzi. Do tego celu wykorzystuje się m.in.: Zabbix, SolarWinds, Nagios.

Skuteczne adresowanie zagrożeń wymaga wiedzy o wersjach zainstalowanych w organizacji aplikacji oraz dotyczących ich znanych podatności na ataki, a także eksploitów aktualnie wykorzystywanych przez adwersarzy. Do tego celu wykorzystuje się systemy zarządzania podatnościami, w tym systemy inwentaryzacji zasobów.

Zestaw najpopularniejszych narzędzi zamykają systemy do wymiany informacji o zagrożeniach, takie jak: MISP czy OpenCTI, które wspomagają budowanie szerszej świadomości sytuacyjnej.

Dodatkowo warto wspomnieć jeszcze o narzędziach do analiz powłamaniowych oraz zabezpieczania dowodów, np. narzędziach do tworzenia zrzutów pamięci oraz obrazów dysków. Narzędzia te wykorzystywane są, gdy inne zabezpieczenia zawiodły i doszło do naruszenia bezpieczeństwa.

Elementy proceduralno-prawne

Bardzo istotnym elementem funkcjonowania SOC są procedury, które określają zasady przetwarzania danych i postępowania.

Dla znanych typów incydentów, problemów czy ataków definiuje się zwykle tzw. playbooki – czyli instrukcje postępowania zapewniające skuteczne i co ważne spójne reagowanie.  

Przetwarzanie danych, ograniczanie dostępu do danych, blokowanie ruchu nie może mieć miejsca, jeśli tych działań nie określono w stosownych umowach (m.in. NDA).

Ważne jest też określenie sposobu oceny działań SOC, czyli kluczowych wskaźników efektywności (KPI).

SOC w Konsorcjum PIONIER

Wychodząc naprzeciw potrzebom środowiska naukowego i akademickiego w zakresie podnoszenia poziomu cyberbezpieczeństwa, wynikającego z planowanych legislacji krajowych oraz NIS2, PCSS wspólnie z Jednostkami Wiodącymi Konsorcjum PIONIER podejmuje działania zmierzające do wdrożenia zarządzanych usług bezpieczeństwa i zaoferowania usług SOC w szczególności jednostkom podłączonym do sieci PIONIER.

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomiar temperatury za pomocą światłowodu

Pomiar temperatury to kluczowy aspekt w wielu gałęziach przemysłu, takich jak energetyka, przemysł chemiczny czy rafineryjny, a także w systemach bezpieczeństwa. Tradycyjne czujniki temperatury, takie jak termopary czy rezystancyjne czujniki temperatury, mają swoje ograniczenia, zwłaszcza, gdy wymagana jest ciągła kontrola temperatury na dużych odległościach. W takich przypadkach rozwiązaniem okazuje się technologia pomiaru temperatury z wykorzystaniem włókna światłowodowego.

Zasada działania światłowodowego pomiaru temperatury

W pomiarach temperatury za pomocą włókna światłowodowego wykorzystywana jest zdolność światła do zmiany swoich właściwości pod wpływem temperatury. Istnieją trzy główne metody pomiaru temperatury za pomocą światłowodu:

Rozproszenie Ramana

W tej metodzie wykorzystuje się efekt Ramana – zjawisko rozpraszania światła w światłowodzie. Gdy promień laserowy przechodzi przez światłowód, część jego energii ulega rozproszeniu, co prowadzi do powstania dwóch składowych: Stokesowskiej i anty-Stokesowskiej. Różnica w ich intensywności zależy od temperatury, co pozwala na dokładny pomiar.

Rozproszenie Brillouina

Metoda ta opiera się na efekcie Brillouina, który również wykorzystuje rozpraszanie światła w światłowodzie. Jest to bardzo precyzyjna metoda pozwalająca na pomiary temperatury i naprężeń w czasie rzeczywistym na dużych odległościach (ok 60 – 80 km).

Siatki Bragga (FBG – Fiber Bragg Gratings)

Siatki Bragga to specjalne struktury wbudowane w światłowód, które odbijają światło o określonej długości fali. Wraz ze zmianą temperatury lub naprężenia zmienia się długość fali odbitej, co pozwala na bardzo precyzyjne pomiary. Jest to technika wykorzystywana zwłaszcza w monitorowaniu infrastruktury, np. mostów, tuneli czy rurociągów.

Zalety pomiaru temperatury z wykorzystaniem światłowodu

Długość i zasięg pomiarów

Światłowody mogą mierzyć temperaturę na długich dystansach, co jest kluczowe w rozległych instalacjach przemysłowych, takich jak rurociągi czy linie elektroenergetyczne.

Odporność na zakłócenia elektromagnetyczne

W przeciwieństwie do tradycyjnych czujników elektrycznych, światłowód nie jest wrażliwy na zakłócenia elektromagnetyczne, co sprawia, że doskonale sprawdza się w trudnych warunkach przemysłowych.

Bezpieczeństwo w środowisku wybuchowym

Światłowód nie przewodzi prądu elektrycznego, dzięki czemu może być stosowany w miejscach zagrożonych wybuchem, np. w rafineriach czy kopalniach.

Wysoka rozdzielczość przestrzenna

Dzięki technologii rozproszonej możliwe jest uzyskanie setek punktów pomiarowych na jednym światłowodzie, co pozwala na bardzo precyzyjne monitorowanie rozkładu temperatury.

Niewielkie wymagania konserwacyjne

Systemy światłowodowe są bardzo trwałe i odporne na korozję, co minimalizuje koszty ich utrzymania w porównaniu do tradycyjnych czujników.

Podsumowanie

Światłowodowy pomiar temperatury to innowacyjna technologia, która zyskuje coraz większą popularność dzięki swojej precyzji, odporności na zakłócenia oraz możliwości prowadzenia pomiarów na dużych odległościach. Znajduje zastosowanie w wielu gałęziach przemysłu, zwiększając efektywność, bezpieczeństwo i niezawodność systemów monitorowania temperatury. W obliczu rosnących wymagań dotyczących kontroli i optymalizacji procesów, światłowodowe rozwiązania stają się ważnym elementem nowoczesnej infrastruktury.

Piotr Turowicz, Krzysztof Kołat

Kategorie
#Technologie: Aktualności

Aktualizować czy nie aktualizować

Dla przykładu, samoloty F-35 zostały zaprojektowane w taki sposób, by można było regularnie aktualizować systemy pokładowe i dokładać nowe funkcjonalności[1]. Złożoność systemów rodzi pytanie o potencjalne istnienie tylnych furtek (ang. backdoor) w oprogramowaniu samolotów czy innych środków militarnych. Czy dałoby się zdalnie unieruchomić flotę F-35[2] – takie pytanie zadają sobie potencjalni nabywcy tej zaawansowanej technologicznie broni. Marketingowcy i politycy będą zapewniać, że nie, ale gwarancji nikt nie da. Jeśli nawet aktualnie takich furtek nie ma, to mogą pojawić się w przyszłości przy okazji aktualizacji, czy to w wyniku celowego działania twórców czy ataku hakerów.

[1] https://www.defenseone.com/business/2025/03/f-35-get-new-software-summer-theres-no-date-yet-planned-full-upgrade/403536/

[2] https://ottawacitizen.com/news/national/defence-watch/u-s-f-35-fighter-jets-canada

Należy sobie uświadomić, że oprogramowanie może być wykorzystane jako broń (ang. software as a weapon, SaaW[1]), czy też amunicja[2] i to na wiele różnych sposobów, zarówno w scenariuszach defensywnych jak i ofensywnych.

Z jednej strony mamy mechanizmy zdalnej aktualizacji oprogramowania, w szczególności układowego (ang. firmware), mam tu na myśli m.in. mechanizm FOTA albo OTA, z drugiej zaszyte w kodzie warunki graniczne, które zadziałają w określonych okolicznościach, powodując zablokowanie kluczowych funkcjonalności lub wykonanie określonych akcji. Oczywiście wszystkie te mechanizmy mają pozytywne i negatywne zastosowania. Mogą służyć do ochrony przed zagrożeniami, ale także do siania chaosu czy zniszczenia.

Za przykład pozytywnego wykorzystania mechanizmu FOTA w celu zwiększenia poziomu bezpieczeństwa może służyć zdalne zwiększenie zasięgu samochodów elektrycznych, kiedy w 2017 roku nad Florydę nadciągał huragan Irma[3]. Natomiast warunki logiczne w kodzie chronią interesy licencjodawców w modelach subskrypcyjnych czy filtrują dane chroniąc przed wyciekiem informacji.

Afera z naszego krajowego podwórka, dotycząca pociągów „stających w szczerym polu”, potocznie zwana „aferą Impulsową” pokazuje, że warunki w kodzie można wykorzystać do mniej szlachetnych celów. Implementacja warunków powodujących unieruchomienie środków transportu, kiedy trafią one w określoną lokalizację lub osiągną określony przebieg[4], nie stanowi większego problemu. Podobne „zabezpieczenia”, zwłaszcza te oparte na pozycji geograficznej, można by wprowadzić w oprogramowaniu pojazdów militarnych czy innych środków bojowych.

Czasem oprogramowanie pod przykrywką sprawdzania aktualizacji czy telemetrii wysyła nadspodziewanie dużo danych, do których w ogóle nie powinno mieć dostępu. Świetnym przykładem jest tu transfer danych do Chin dokonywany przez oprogramowanie Adups FOTA preinstalowane kilka lat temu (w 2016 roku) na wielu modelach telefonów z niższej półki[1]. Oprogramowanie to wysyłało na zdalne serwery m.in. zawartość SMS-ów (sic!).

Powody do myślenia daje także „wpadka” z wadliwą aktualizacją oprogramowania CrowdStirke Falcon, która spowodowała 19 lipca 2024 roku awarię systemów Windows na wielką skalę, dotykając milionów systemów, w tym wielu systemów zlokalizowanych w portach lotniczych[2]. A co, gdyby taką wadliwą aktualizację „wypuścił” specjalnie, a nie przypadkiem producent popularnego systemu operacyjnego lub inny duży dostawca, np. na zlecenie pewnego rządu? Ile systemów stałoby się czasowo bezużytecznych? Notabene, niecelowe wypuszczanie niedopracowanych aktualizacji zdarza się producentom dość często – w przypadku giganta z Redmond najświeższy taki przypadek to aktualizacje z marca br.[3] Przypadek SolarWinds, jednego z większych dostawców oprogramowania do monitorowania i zarządzania infrastrukturą, pokazuje skuteczność ataków przez infiltracje producentów oprogramowania. Atakującym udało się przeniknąć do sieci organizacji i wstrzyknąć złośliwy fragment kodu (Sunburst) do oprogramowania monitorującego Orion. Oprogramowanie z wstrzykniętym dodatkiem zostało następnie wysłane do klientów razem z innymi aktualizacjami. Efekt, około 18000 klientów (w tym dużych firm) zostało zainfekowanych – uzyskano dostęp do ich infrastruktury[4].

Atak z zastosowaniem socjotechnik próbowano przeprowadzić również na popularną bibliotekę otwartoźródłową XZ. Infiltracja się powiodła, ale sam atak został udaremniony przez dociekliwego testera oprogramowania zaintrygowanego spadkiem wydajności w nowej wersji systemu. Osoby przeprowadzające atak długo pracowały nad tym by zdobyć zaufanie niezbędne do zrealizowania planu, czyli wstrzyknięcia kodu, który modyfikował zachowanie demona SSH (który pośrednio wykorzystuje biblioteki XZ)[5]. Gdyby plan udało się zrealizować, to atakujący za pomocą predefiniowanych poświadczeń uzyskali by zdalny dostęp do milionów serwerów na całym świecie.

Oprogramowanie jako broń sensu stricto, w walce z mniej lub bardzie sprecyzowanym wrogiem wykorzystują agencje rządów różnych krajów, np. eksploit EternalBlue[6] opracowała NSA w USA – ten kod został niestety przechwycony przez hakerów i wykorzystany do stworzenia m.in. WannaCry[7] (szczególnie popularnego w brytyjskich szpitalach). Kolejny głośny przykład Stuxnet (znany z uszkodzenia Irańskich wirówek przemysłowych) to podobno wspólne dzieło USA i Izraela[8]. Natomiast autorstwo stosunkowo świeżego oprogramowania Hatvibe i Cherryspy przypisuje się agencjom rosyjskim[9]. Oprogramowanie to było wykorzystywane m.in. do szpiegowania dyplomatów z Azji Centralnej. Przy okazji szpiegowania warto wspomnieć broń (wg. legislacji Izraela) jaką jest oprogramowanie Pegasus produkowane przez prywatną firmę NSO – jego sprzedaż jest objęta restrykcjami eksportowymi[10].

Współcześnie wykorzystywane oprogramowanie jest pełne błędów i niedociągnięć, które są sukcesywnie odkrywane i łatane. Część z tych odkrywanych błędów może być wynikiem celowego działania agencji wywiadowczych lub grup cyberprzestępczych. W wielu sytuacjach nie da się jednoznacznie określić czy luka w kodzie była celowym zabiegiem czy tylko zwykłym błędem. Zwykle zaczynamy się nad tym zastanawiać dopiero w sytuacji, kiedy odkrywane są ataki z użyciem nieznanych powszechnie podatności.

Przyzwyczailiśmy się już do ciągłych aktualizacji i nie zastanawiamy się czy i dlaczego są one konieczne. Ufamy dostawcom. To zaufanie nie powinno być jednak bezgraniczne, zwłaszcza w przypadku krytycznych systemów. Aktualizacje przed zainstalowaniem w krytycznych systemach produkcyjnych powinny zostać odpowiednio przetestowane i zweryfikowane. Warto też mieć „plan b”, czyli np. możliwość przywrócenia systemu do stanu pierwotnego.

Pamiętajmy, że aktualizacje są bronią defensywną chroniącą przed nowo odkrywanymi zagrożeniami, ale same też mogą być źródłem zagrożenia i mogą zostać wykorzystane jako broń ofensywna w celu zakłócenia działania systemów lub infiltracji organizacji.

Aktualizujmy systemy, ale rozsądnie. Wybierając wdrażane rozwiązania sprawdzajmy dostawców i ich powiązania.

[1] https://zaufanatrzeciastrona.pl/post/popularne-chinskie-telefony-przylapane-na-wysylaniu-smsow-i-kontaktow-do-chin/

[2] https://testerzy.pl/news/flash/nowa-najwieksza-w-historii-globalna-awaria-it

[3] https://www.windowslatest.com/2025/03/13/windows-11-kb5053598-issues-install-fails-rdp-disconnects-bsods-windows-11-24h2/

[4] https://www.fortinet.com/resources/cyberglossary/solarwinds-cyber-attack

[5] https://www.wired.com/story/xz-backdoor-everything-you-need-to-know/

[6] https://pl.wikipedia.org/wiki/EternalBlue

[7] https://cert.pl/posts/2017/05/wannacry-ransomware/

[8] https://foreignpolicy.com/2016/10/17/obamas-general-pleads-guilty-to-leaking-stuxnet-operation/

[9] https://votiro.com/blog/browser-security-understanding-malware-like-hatvibe-and-cherryspy/

[10] https://en.wikipedia.org/wiki/NSO_Group

[1] https://link.springer.com/chapter/10.1007/978-3-662-56672-5_4

[2] https://blog.lukaszolejnik.com/software-as-munitions-including-offensive-tools/

[3] https://www.theverge.com/2017/9/10/16283330/tesla-hurricane-irma-update-florida-extend-range-model-s-x-60-60d

[4] https://cyberdefence24.pl/cyberbezpieczenstwo/za-nami-rok-blokad-w-pociagach-newagu-co-dzis-wiemy

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Kraków był stolicą europejskich superkomputerów

„Łączenie społeczności HPC, kwantowych i AI w całej Europie” – to temat przewodni tegorocznego spotkania w Krakowie. 

Uczestnicy mogli wziąć udział w sesjach plenarnych, ale także mieli szansę na zapoznanie się z szerokim zakresem tematów. Głównym punktem wydarzenia była strefa demonstracyjna Demo Lab, w której Europejskie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (European High Performance Computing Joint Undertaking, w skrócie EuroHPC JU) zaprezentowało superkomputery operacyjne.

EuroHPC Summit było nie tylko okazją do prezentacji najnowszych osiągnięć, ale także miejscem licznych spotkań, paneli i dyskusji o przyszłości fabryk AI.

Wśród uczestników spotkania nie zabrakło przedstawicieli Konsorcjum PIONIER, m.in. z ACK Cyfronet, ICM, PCSS, TASC i WCSS.

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Diamentowa droga otwartego dostępu

Diamentowy model otwartego dostępu polega w skrócie na tym, że wydawcy czasopism nie pobierają opłat ani za dostęp do publikacji (od czytelników), ani za publikację (od autorów artykułów). W czasopismach diamentowych nie pobiera się opłat autorskich, tzw. author processing charges (APCs). 

 

Spotkanie adresowane jest do wydawców, redakcji czasopism, bibliotek oraz wszystkich zainteresowanych przyszłością otwartego dostępu w Polsce! W trakcie spotkania przedstawione zostaną narzędzia i zasoby DIAMAS wspierające czasopisma diamentowe (w tym DIAMAS Toolsuite i narzędzia do samooceny). Oprócz tego uczestnicy zapoznają się z rezultatami CRAFT-OA (prezentacja narzędzia Digital Diamond Hub i omówienie wyzwań związanych z wdrażaniem narzędzi dla wydawców).

Zaplanowano również dyskusję dotyczącą identyfikacji potrzeb, barier i oczekiwań wobec modelu diamentowego. Może wśród naszych Czytelników znajdą się osoby zainteresowane tym wydarzeniem, do którego wzięcia serdecznie Państwa zapraszamy! 

Aby wziąć udział w wydarzeniu, należy wypełnić formularz rejestracyjny. Liczba miejsc ograniczona!

Oprac. Magdalena Baranowska-Szczepańska