Kategorie
#Technologie: Aktualności

SCinet z polskim akcentem na SC25

SCinet ma silny polski akcent – w pracach zespołu Routing, odpowiedzialnego za konfigurację większości routerów i przełączników, uczestniczą Jarosław Skomiał i Bartosz Drogosiewicz, inżynierowie sieciowi z Interdyscyplinarnego Centrum Modelowania Matematycznego i Komputerowego UW. Po raz kolejny istotną rolę odegrało także wirtualne laboratorium usług sieciowych utrzymywane przez inżynierów z Polski, dzięki czemu ICM UW ponownie uzyskał status złotego sponsora konferencji.

Tegoroczna edycja ponownie pobiła poprzednie rekordy przepustowości, a w ramach Network Research Exhibition uruchomiono 31 eksperymentów sieciowych. Do budowy SCinet wykorzystano sprzęt i usługi o łącznej wartości 70 mln USD. Dostawcy zaangażowani w projekt udostępnili swoje najnowsze platformy sprzętowe, które podczas konferencji przechodzą intensywne testy.

W tym roku szczególny nacisk położono na automatyzację procesów oraz interoperacyjność rozwiązań sieciowych. Z powodzeniem wykorzystano m.in. platformy Nautobot oraz Cisco NSO.

Członkowie zespołu SCinet wracają do swoich macierzystych instytucji z nową wiedzą i doświadczeniem zdobytym podczas projektowania i budowy sieci. Ten aspekt działalności SCinet jest niezwykle istotny – umożliwia wymianę spostrzeżeń, dobrych praktyk i wiedzy w przyjaznej, otwartej atmosferze. Zespół SCinet tworzy 215 specjalistów – wolontariuszy z ośmiu krajów, reprezentujących 128 instytucji: uczelni, agencji rządowych, ośrodków obliczeń dużej mocy, sieci badawczo-edukacyjnych i operatorów telekomunikacyjnych. Warto dodać, że częścią zespołu są również przedstawiciele producentów sprzętu i dostarczonych rozwiązań, co zapewnia szybkie wsparcie oraz sprawną diagnostykę sieci.

Jarosław Skomiał, Bartosz Drogosiewicz

Kategorie
#Technologie: Aktualności

Polskie superkomputery w światowym TOP-ie

Co roku w listopadzie całe środowisko naukowo-informatyczne czeka na to zestawienie i każdego roku z dużym zainteresowaniem wszyscy obserwują aktualny ranking.

W najnowszym rankingu znalazło się siedem polskich maszyn, które działają w ramach krajowej infrastruktury naukowej oraz jeden komputer komercyjny firmy Beyond.pl:

  • 96m. HELIOS, ACK CYFRONET
  • 128m. PROXIMA, PCSS
  • 141m. LEM, WCSS
  • 211m. The F.I.N, Beyond.pl
  • 250m., KRAKEN-FREGATA, CI TASK
  • 280m. ATHENA, CYFRONET
  • 360m. ALTAIR, PCSS
  • 415m. HELIOS CPU, CYFRONET

W TOP10 listy znalazły się cztery maszyny z USA, pięć z Europy i jedna z Japonii. Najszybszym superkomputerem na świecie ponownie został ogłoszony El Capitan. Maszyna jest zainstalowana w Lawrence Livermore National Laboratory w USA. El Capitan został zbudowany w oparciu o platformę HPE Cray EX. Najszybszym superkomputerem europejskim jest cały czas flagowy superkomputer EuroHPC JU, zainstalowany w Niemczech Jupiter Booster (czwarte miejsce na świecie). Pięć lokat niżej znalazł się superkomputer LUMI, do którego polscy naukowcy mogą uzyskać dostęp za pośrednictwem infrastruktury PLGrid.

oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Zdrowy jak PIONIER!

W siedzibie PCSS oraz w siedzibach 9 ośrodków medycznych w Europie (Essen, Marsylia, Leiden, Londyn, Hamburg, Barcelona x2, Genua, Wrocław) można było wziąć udział w multisesji wideokonferencyjnej z wszystkimi uczestniczącymi ośrodkami wraz z jednoczesną transmisją do Internetu.

W wydarzeniu wzięło udział kilkadziesiąt tysięcy odbiorców, wśród nich byli nie tylko lekarze, ale również studenci medycyny.  Na bloku operacyjnym oraz w centrum moderacji w PCSS pojawili się światowej klasy specjaliści, którzy czuwali nad przebiegiem zabiegu i komentowali procedury, w tym: prof. W. Szyfter, prof. C.Piazza, prof. M. Remacle, prof. M. Zabrodsky, prof. Ch. Arens oraz prof. Małgorzata Wierzbicka ze studia we Wrocławiu.

To było wyjątkowe wydarzenie, a w tym roku łączyli się z nami wyjątkowo dość liczni przedstawiciele Azji i Turcji  poprzez portal, który na żywo transmitował całe przedsięwzięcie – opowiada dr Maria Józefowicz z medVC.eu. – Wszyscy eksperci w studio i w ośrodkach mieli do dyspozycji ekrany dotykowe, co pozwalało na bieżąco tłumaczyć kolejne etapy wykonywanej operacji. To coś niesamowitego, bo daje ogromną wiedzę lekarzom, którzy nie mieli wcześniej doświadczenia z takimi zabiegami.

 Magdalena Baranowska-Szczepańska

 

Kategorie
#Technologie: Aktualności

Transfer wzorca czasu i częstotliwości w sieci PIONIER – krajowa infrastruktura T&F na tle Europy

Podczas dedykowanego tym zagadnieniom seminarium pn. „Transmisja sygnału czasu i częstotliwości w sieci PIONIER” swoje wystąpienia zaprezentowali specjaliści z Akademii Górniczo-Hutniczej, Głównego Urzędu Miar oraz Poznańskiego Centrum Superkomputerowo-Sieciowego. Pokazały one jak istotnym elementem współczesnej infrastruktury badawczej jest możliwość dystrybucji ultraprecyzyjnych wzorców czasu i częstotliwości w sieciach światłowodowych.

W roku 2023, w ramach projektu PIONIER-LAB, z wykorzystaniem infrastruktury Ogólnopolskiej Sieci Optycznej PIONIER, uruchomiono dedykowany system transmisyjny wzorca czasu i częstotliwości wraz z węzłami dystrybucji opartymi o urządzenia ELSTAB. Kluczowe węzły umiejscowione zostały w 11-stu lokalizacjach partnerów Konsorcjum, biorących udział w realizacji Laboratorium 2-ego. W kolejnym etapie uruchomiono transmisję na kolejnych odcinkach sieci PIONIER, tak aby finalnie zasięgiem sieci objąć wszystkich Partnerów Konsorcjum. Obecnie trwają prace polegające na instalacji węzłów dystrybucji w pozostałych jednostkach tak, aby w każdej z nich możliwy był dostęp do wzorców czasu i częstotliwości w podstawowym zakresie. Dzięki zastosowaniu zaawansowanych technik kompensacji opóźnień, stabilność przesyłanego sygnału częstotliwości w sieci osiąga poziom lepszy niż 10⁻¹6. Należy w tym miejscu nadmienić, iż równolegle do sieci zrealizowanej w ramach PIONIER-LABa, rozwijana jest także infrastruktura dystrybucji referencyjnej częstotliwości optycznej. Sieć ta to nowa klasa sygnałów, przeznaczona dla innej grupy użytkowników, w której względna stabilność transferu częstotliwości jest nie gorsza niż 10⁻¹8. Łącznie, polska światłowodowa infrastruktura dystrybucji precyzyjnego wzorca czasu i częstotliwości, o długości 7 tys. km, stanowi krajowy kręgosłup systemu, który zaliczany jest do czołówki najlepszych europejskich rozwiązań tego typu.

Fakt ten został już dostrzeżony na arenie międzynarodowej. W zeszłym roku uruchomiono łącze do Narodowego Instytutu Metrologii w Brunszwiku (PTB, niem. Physikalisch-Technische Bundesanstalt), niemieckiego odpowiednika polskiego Głównego Urzędu Miar, który pełni rolę centralnego węzła europejskiego systemu referencyjnego. Całość siedmiuset kilometrowego połączenia została zrealizowana z użyciem wyłącznie polskich urządzeń, a jakość transferu jest na najwyższym, światowym poziomie. Te działania umożliwiły, po raz pierwszy, na udział polskich zegarów optycznych w ogólnoeuropejskiej kampanii światłowodowych porównań tych wzorców. Inicjatywy te pozwalają na udział krajowych ośrodków naukowych w międzynarodowych inicjatywach badawczych i eksperymentach na równorzędnych, partnerskich zasadach.

Równolegle prowadzone są prace nad włączeniem polskiej sieci T&F w paneuropejski system transferu metrologicznego. Polska sieć jest reprezentowana w dwóch kluczowych inicjatywach: inicjatywa wybudowania światłowodowej sieci Core Time and Frequency Network, która jest ważną częścią strategii rozwojowej sieci GÉANT w Europie oraz inicjatywy FOREST, mającej na celu uzyskanie stabilnego finasowania tego typu sieci, poprzez wpisanie ich na ogólnoeuropejską mapę drogową. Polska, dzięki sieci PIONIER i projektowi PIONIER-LAB, aktywnie uczestniczy w tych działaniach, dostarczając zarówno zaplecze techniczne, jak i doświadczenie badawcze.


Krzysztof Kołat, Krzysztof Turza

Kategorie
#Technologie: Aktualności

Spotkanie techniczne administratorów MAN

Wydarzenie, w dużej mierze poświęcone aspektom wdrożeniowym sieciowej platformy sprzętowej – zakupionej w ramach projektu PIONIER-LAB, otworzył Artur Binczewski, witając uczestników w imieniu gospodarzy. Na sali obecny był także dr inż. Maciej Stroiński, Przewodniczący Rady Konsorcjum PIONIER.

Pierwszy dzień obrad wypełniły prezentacje przygotowane przez „drużynę PIONIERa” z Poznańskiego Centrum Superkomputerowo-Sieciowego. Na początku zaprezentowano aktualną topologię sieci PIONIER. Przypomniano historię budowy infrastruktury informatycznej nauki w kraju począwszy od lat 90-tych ubiegłego wieku. W kolejnych wystąpieniach koledzy: Tomasz Szewczyk, Robert Szuman, Paweł Malak, Bartłomiej Idzikowski, Zbigniew Ołtuszyk, Krzysztof Turza, Piotr Rydlichowski, Piotr Turowicz i Rafał Szpiler zaprezentowali:

  • aktualny sposób realizacji usług w sieci PIONIER,
  • centrum nadzoru nad siecią,
  • koncepcję realizacji łączności regionalnej w oparciu o najnowszą platformę przełączników,
  • nową wersję platformy komunikacyjnej eduMEET,
  • aktualny stan usługi Eduroam,
  • koncepcje budowy PIONIER-IXa,
  • realizację transferu czasu i częstotliwości w sieci PIONIER,
  • nowe zastosowania światłowodów (technologie kwantowe i światłowody jako czujniki),
  • wstępną koncepcję modernizacji obiektów PIONIERa w kierunku samowystarczalności energetycznej.

Drugiego dnia uczestnicy spotkania wzięli udział w sesji z przedstawicielami producenta i dostawcy urządzeń wdrożonych w ramach projektu PIONIER-LAB – firm JUNIPER i COMP. Była to okazja do praktycznej wymiany doświadczeń, dyskusji nad funkcjonowaniem nowej platformy sprzętowej oraz pogłębienia wiedzy o możliwościach jej rozwoju.

Spotkanie miało również wymiar integracyjny – sprzyjało budowaniu relacji i współpracy pomiędzy administratorami z poszczególnych jednostek MAN/KDM. Częścią tego wymiaru była kolacja koleżeńska zorganizowana w Pałacu Katedralnym na Ostrowie Tumskim.

Do zobaczenia na kolejnym spotkaniu technicznym administratorów MAN.

Krzysztof Kołat

Kategorie
#Technologie: Aktualności

TNC w Zjednoczonym Królestwie

Pomimo że Wielka Brytania nie jest już krajem Europejskiej Wspólnoty i transfer całego sprzętu w dwóch ciężarówkach wymagał specjalnej dokumentacji celnej, na szczęście obyło się tym razem bez większych problemów. Wielki teatr, Brighton Dome, którego historia sięga XIX wieku, a który rozpoczął swoje życie jako królewskie stajnie, ugościł tym razem uczestników konferencji TNC hasłem „Brighter Together”.

Co prawda przy takiej liczbie uczestników (ponad 800 z 70 krajów) trudno było o „together” na wszystkich sesjach, dlatego też organizatorzy wynajęli dodatkowo przestrzenie pobliskiego hotelu oraz… kościoła Unitarian, aby zmieścić cały konferencyjny program. Niemniej jednak podczas imprez wieczornych, towarzyszących TNC, udało się spotkać z wieloma przedstawicielami bliźniaczych instytucji badawczych i sieciowych z całego niemal świata.

Kolejny już raz PCSS odpowiadał za oprawę konferencji – za światło, dźwięk, muzykę, grafikę, oficjalne otwarcie imprezy, wsparcie rejestracji i narzędzi online. Rozpoczęliśmy występem zespołu na żywo – jak na scenę, która gościła premierowe wykonanie „Dark Side of the Moon” Pink Floyd w 1972 roku czy wygraną Abby na Eurowizji w 1974 roku z piosenką „Waterloo” przystało! Wykorzystaliśmy czarno-białe zdjęcia archiwalne z Brighton, żeby je pokolorować na otwarcie i sprawić, że cztery wielkoformatowe ekrany LED zabłysną „brighter” pełnią kolorów podczas kolejnych sesji.

TNC w Brighton było pierwszą konferencją nowej CEO GÉANT – Lise Fuhr, która doskonale poradziła sobie w roli prowadzącej. Zresztą, jak co roku, nowinek było znacznie więcej. Sesje Lightning Talk były nieco odchudzone, tak, że starczyło czasu na rozmowy panelowe z prezenterami, a przestrzeń wystawy znalazła się tym razem w hali Corn Exchange, gdzie odbywały się także dodatkowe prelekcje… tylko dla posiadających słuchawki, by nie zakłócać rozmów na stoiskach. To było prawdziwe targowisko, zorganizowane na kształt kolorowego rynku, jarmarku partnerów reprezentujących krajowe i regionalne sieci badawcze i edukacyjne, szkoły, uczelnie wyższe, dostawców technologii oraz przedstawicieli najbardziej innowacyjnych projektów naukowych z całego świata.

Uczestnicy konferencji mieli niepowtarzalną okazję do wymiany doświadczeń, co było szczególnie widoczne na stoisku PIONIER-a i PCSS, gdzie zaprezentowano ponad 10 projektów (szczegóły dostępne w osobnym artykule: https://www.news.pionier.net.pl/projekty-pioniera-na-tnc25/). Zaznaczona została także działalność sieci oraz Konsorcjum PIONIER. Nasza przestrzeń wyróżniała się nowoczesnym ekranem LED o wymiarach 3 × 2,5 metra, na którym prezentowane były dedykowane, animowane materiały wizualne. Goście mieli również okazję poczęstować się firmowymi krówkami, które cieszyły się dużym zainteresowaniem, wywołując uśmiechy i zachęcając do inspirujących rozmów.

Intensywny czas pobytu w kolorowym mieście Brighton zakończył się zaproszeniem na przyszły rok. Tym razem TNC zmierza do Skandynawii, na drugą stronę Bałtyku – do Helsinek!

Wojciech Bohdanowicz, Damian Niemir

Kategorie
#Technologie: Aktualności

PIONIER na konferencji SC25 w Saint Louis

SC25 (Supercomputing 25) to Międzynarodowa Konferencja Obliczeń Wysokowydajnych, Sieci, Pamięci Masowych i Analiz, która rozpocznie się 16 listopada i potrwa do 21. SC to najważniejsze globalne spotkanie specjalistów HPC, badaczy, edukatorów, operatorów systemów, programistów i pionierów obliczeń kwantowych.

Konferencja SC25 będzie kolejną okazją do prezentowania projektów i licznych udanych przedsięwzięć realizowanych w ramach Konsorcjum PIONIER. Hasłem tegorocznego wydarzenia jest HPC ignites  – HPC rozpala.

Stoisko PCSS/PIONIER – Polish Optical Internet oznaczone numerem 2918 będzie koordynowane przez Poznańskie Centrum Superkomputerowo-Sieciowe. Zaprezentowane zostaną
na nim kwestie AI: Fabryki Sztucznej Inteligencji w Polsce – PIAST AI oraz GAIA AI. Będzie także szansa na zaprezentowanie obszarów działań kwantowych: projekt PIONIER-Q – Ogólnopolska Kwantowa Infrastruktura Komunikacyjna oraz komputer kwantowy PIAST-Q – komputer kwantowy EuroHPC zlokalizowany w PCSS w Poznaniu, oparty się na technologii uwięzionych jonów.

W ramach PIONIER-Q na stoisku zademonstrowane zostanie demo pt: “PIONIER-Q National Quantum Communication Network Operation and services”. Poza tym prezentowany będzie także katalog usług PIONIERa, a także inne projekty, min. KMD4EOSC czy HERIFORGE.

Istotnym elementem każdej konferencji jest ogłoszenie listy TOP500 oraz ogłaszanie miejsc poszczególnych maszyn, które stoją w siedzibach członków Konsorcjum PIONIER.

Inżynierowie sieciowi ICM UW po raz kolejny biorą właśnie czynny udział w przygotowaniach do budowy sieci, którą podczas konferencji Supercomputing’ 25, oddadzą do użytku uczestnikom i wystawcom. 

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Komputery kwantowe różnią się między sobą

Komputery kwantowe różnią się fizycznym sposobem implementacji kubitów czyli elementarnych jednostek obliczeniowych w systemie oraz samym sposobem przeprowadzania obliczeń.

Z szerszego punktu widzenia implementacje komputerów kwantowych dzielimy na 3 główne grupy:
– systemy, gdzie kubity są implementowane w nadprzewodzących układach scalonych,
– systemy fotoniczne oparte na przetwarzaniu pojedynczych i splątanych fotonów,
– systemy oparte na manipulowaniu układami atomowymi (pułapki jonowe, centra NV, neutralne atomy).

Aktualnie prowadzone są prace nad technologiami implementacji kubitów opartych na:

  1. Systemach optycznych, gdzie kubitami są pojedyncze fotony. System taki składa się ze źródeł oraz detektorów pojedynczych fotonów (np. ORCA Computing). Tego typu dwa systemy komputerów kwantowych zostały zintegrowane z klasycznym systemem obliczeniowym i od grudnia 2023 roku udostępniane są użytkownikom w PCSS;
  2. Nadprzewodzących układach scalonych (np. IBM Quantum, IQM), gdzie kubity są implementowane na specjalnym układzie scalonym. Taki system został zainstalowany na Politechnice Wrocławskiej w maju 2025 roku;
  3. Pułapkach jonowych (np. AQT), gdzie kubity są zaimplementowane jako pojedyncze jony (np. Ca40+) spułapkowane oraz przetwarzane za pomocą sygnałów optycznych. Taki system będzie zainstalowany w PCSS w czerwcu 2025 roku, jako element europejskiej infrastruktury komputerów kwantowych EuroHPC;
  4. Wyżarzaczach kwantowych, jako specjalizowanych komputerach kwantowych zaprojektowanych do rozwiązywania problemów optymalizacyjnych (np. D-Wave);
  5. Zimnych atomach, gdzie kubitami są chmury zimnych, obojętnych atomów;
  6. Centrach NV w diamentach, gdzie pojedyncze kubity są implementowane jako tzw. centra NV w zmodyfikowanej sieci krystalicznej diamentu;
  7. Systemach nadprzewodzących opartych na układach scalonych z kropkami kwantowymi, gdzie kubity są implementowane jako tzw. kropki kwantowe w krzemowym układzie scalonym działającym w stanie nadprzewodnictwa;
  8. Systemach topologicznych, gdzie kubity są implementowane w tzw. stanie topologicznym – eksperymentalna technologia na wczesnym etapie rozwoju.

Powyższa analiza pokazuje, że na świecie rozwijane są różne zaawansowane technologie fizycznej implementacji kubitów. Każda z tych technologii ma swoje zalety oraz wady i w pewnym stopniu wzajemnie się uzupełnia. Komisja Europejska inwestuje oraz wspiera rozwój wszystkich tych technologii.

 

Krzysztof Kurowski, Piotr Rydlichowski

Kategorie
#Technologie: Aktualności

Centrum operacyjne bezpieczeństwa (SOC) – misja, modele funkcjonowania i narzędzia

Incydent (wg. ustawy KSC) to zdarzenie, które ma lub może mieć niekorzystny wpływ na cyberbezpieczeństwo rozumiane jako odporność systemów informacyjnych na działania naruszające poufność, integralność, dostępność i autentyczność przetwarzanych danych lub związanych z nimi usług oferowanych przez te systemy. Wczesna identyfikacja zagrożeń pozwala niejednokrotnie zapobiec incydentom poprzez wdrożenie środków zaradczych np. polegających na ograniczeniu uprawnień, modyfikacji reguł zapory sieciowej, zainstalowaniu aktualizacji systemów. Misja SOC nie ogranicza się zatem do reagowania na incydent w momencie jego wystąpienia; ona obejmuje także zapobieganie incydentom i to ta aktywność przynosi największe, choć niedoceniane, korzyści.

 

Do realizacji misji, SOC potrzebuje wiedzy na temat chronionej infrastruktury oraz zestawu narzędzi i procedur dających nie tylko wgląd w funkcjonowanie systemów IT, lecz także umożliwiających skuteczne reagowanie na występujące anomalie czy inne zdarzenia naruszające bezpieczeństwo.

Adresowanie zagrożeń wymaga ścisłej współpracy pomiędzy administratorami systemów, właścicielami zasobów (assetów) i specjalistami bezpieczeństwa. Działania te muszą być realizowane zgodnie z procedurami określonymi m.in. w Systemie Zarządzania Bezpieczeństwem Informacji. Procedury i SZBI muszą natomiast czynić zadość obowiązującym legislacjom.

Możliwości reakcji warunkują zakres odpowiedzialności zespołu SOC w przypadku wystąpienia incydentu. Określenie zakresu odpowiedzialności i zasad reagowania jest szczególnie istotne, jeżeli realizacja zadań SOC jest zlecana podmiotom zewnętrznym (outsourcing) w stosunku do chronionej organizacji.

Czy SOC jest wymagany prawem?

W przepisach prawa (KSC, NIS2) nie ma literalnie wpisanej potrzeby utworzenia SOC w organizacjach czy wykupienia zarządzanych usług bezpieczeństwa typu SOC, ale są wymagania proceduralne, które odpowiadają w dużej mierze zakresowi działania typowych SOC-ów. Warto tu wymienić następujące wymagania pojawiające się w istniejących i planowanych ustawach w kontekście podmiotów objętych Krajowym Systemem Cyberbezpieczeństwa:

  • wymóg monitoringu systemów informacyjnych pod kątem ich bezpieczeństwa w trybie ciągłym,
  • niezwłoczne podejmowanie działań po dostrzeżeniu podatności lub cyberzagrożeń,
  • obsługa incydentów oraz przekazywanie informacji o incydentach w ścisłym reżimie czasowym.

Modele funkcjonowania SOC

Kluczowe wymaganie dla SOC to działanie w trybie ciągłym (24/7/365). Aktualnie przyjmuje się takie funkcjonowanie jako standard, inne tryby funkcjonowania stają się rzadkością (np. tylko w godzinach biznesowych). Modele funkcjonowania SOC dzieli się głównie pod kątem umiejscowienia zespołów.

Pierwszy rodzaj SOC, to SOC wewnętrzny – członkowie zespołu specjalistów są zatrudnieni bezpośrednio przez organizację, którą chronią. W praktyce, oznacza to konieczność zatrudnienia co najmniej 5-7 specjalistów (w tym część osób w niepełnym wymiarze). W tym modelu większość narzędzi osadzonych jest w infrastrukturze chronionej organizacji (np. SIEM czy kolektor logów), przy czym część narzędzi (np. konsola EDR czy XDR) może być osadzonych w środowisku chmurowym i udostępnianych zespołowi w modelu software as a service (SaaS), jako zarządzana usługa bezpieczeństwa. Niewątpliwym plusem SOC wewnętrznego jest możliwość pełnej integracji ze strukturami wewnętrznymi organizacji, co ułatwia reagowanie na incydenty i identyfikację zagrożeń – taki zespół SOC może mieć bezpośrednią kontrolę nad kluczowymi urządzeniami w wewnętrznej infrastrukturze organizacji oraz bezpośredni wpływ na administratorów. Minusem są wysokie koszty, które mogą być nieadekwatne do wielkości organizacji.

Koszty i brak wystarczającej liczby odpowiednio wyszkolonych pracowników to główne powody pojawienia się innych modeli funkcjonowania zespołów SOC, w szczególności SOC zarządzanego (Managed SOC), czy też SOC jako usługa (SOCaaS). W obydwóch przypadkach usługi są delegowane – bezpieczeństwo monitorują osoby z zewnętrznej firmy. Przy czym w przypadku Managed SOC część kluczowych systemów bezpieczeństwa może być posadowiona w infrastrukturze chronionej organizacji lub w chmurze; zakres usług może być tu szerszy niż w przypadku SOCaaS. W SOCaaS większość narzędzi wykorzystywanych przez SOC jest posadowiona w infrastrukturze usługodawcy, w szczególności w chmurze. Zespół usługodawcy koncentruje się na identyfikowaniu zagrożeń, w tym analizie ryzyka i szybkim reagowaniu. Natomiast Managed SOC, w odróżnieniu od SOCaaS, może bardziej kompleksowo zarządzać systemami bezpieczeństwa organizacji oraz wspierać audyty wewnętrzne czy wymogi legislacyjne.

Dodatkowo, popularność zdobywa usługa MDR, która koncentruje się na wykrywaniu zagrożeń w oparciu o systemy EDR oraz analizy ruchu sieciowego (NTA), a także realizuje pewne zaawansowane elementy, tzw. threat-huntingu (m.in. identyfikacji nowych zagrożeń). Narzędzia SOC omówione zostaną w kolejnej sekcji.

Ostatnim najczęściej wymienianym modelem SOC, jest model hybrydowy. W tym przypadku organizacja ma wewnętrzny silny zespół SOC i zleca tylko wybrane elementy na zewnątrz, np. korzysta z narzędzi w modelu chmurowym lub zleca konkretne zadania kontrahentom zewnętrznym (np. skanowanie systemów publicznie dostępnych czy analizy powłamaniowe). W tym modelu organizacja ma zwykle pełną kontrolę nad krytycznymi funkcjami zabezpieczeń.

Przyjrzyjmy się narzędziom wykorzystywanym w SOC-ach.

Narzędzia SOC

Celem tej sekcji jest wskazanie typów narzędzi, którymi posiłkują się zespoły bezpieczeństwa, aby chronić infrastrukturę.

Rejestrowanie występujących zdarzeń i podejmowanych aktywności związanych z incydentami jest niezbędne do zapewnienia należytego poziomu usług. Do tego celu wykorzystuje się różnej maści system obsługi zgłoszeń (np. JIRA, Zammad, RT, RTIR itp.).

Zgłoszenia zdarzeń mogą pochodzić od użytkowników, podmiotów zewnętrznych, analityków lub z wdrożonych systemów bezpieczeństwa, np. zapór sieciowych czy analizatorów logów.

Zapory sieciowe pełnią dwojaką rolę – mogą sygnalizować zagrożenia z wykorzystaniem zdefiniowanych reguł oraz mogą być wykorzystywane do reagowania na incydenty poprzez blokowanie lub ograniczanie ruchu sieciowego. Firewalle najnowszych generacji mają dość rozbudowane mechanizmy detekcji zagrożeń i reagowania.

Kompleksowa analiza logów systemów jest możliwa tylko jeśli logi są zebrane w jednym miejscu. Do zbierania logów wykorzystuje się kolektory logów. W przypadku zdarzeń bezpieczeństwa najczęściej wykorzystuje się tzw. systemy SIEM (Security Information and Event Management), które koncentrują się na analizie informacji ukierunkowanych na bezpieczeństwo. Systemy SIEM umożliwiają korelację zdarzeń, analizy statystyczne, wykrywanie anomalii oraz wysyłanie powiadomień (alert), np. w przypadku wykrycia nieprawidłowości lub podejrzanych aktywności.

Kluczowe znaczenie w identyfikacji zagrożeń ma nie tylko analiza logów z systemów operacyjnych czy aplikacji, ale także wgląd w ruch sieciowy. Ruch sieciowy analizuje się zwykle z wykorzystaniem kolektorów rekordów przepływów (Netflow czy IPFIX) oraz systemów detekcji intruzów (IDS), tj. sensorów umieszczonych w chronionej infrastrukturze. Wyniki analizy rekordów przepływów mogą stanowić dodatkowe źródło informacji przekazywanych do SIEM.

Organizacja, która ma wdrożony i dostrojony system SIEM może dodatkowo wdrożyć system SOAR (Security Orchestration, Automation, and Response) w celu automatyzacji i orkiestracji procesów reagowania. Automatyczne reagowanie może również objąć stacje końcowe, ale do tego służy kolejny rodzaj systemu ochrony – system EDR.

Systemy EDR (Endpoint Detection and Response) dbają o ochronę punktów końcowych w sieci poprzez wykrywanie i reagowanie na podejrzane aktywności związane ze złośliwym oprogramowaniem, ransomware czy innymi typami ataków. Kluczowe jest tu reagowanie bezpośrednio na chronionych stacjach, serwerach, urządzeniach mobilnych. EDR w ramach reakcji może np. blokować procesy lub izolować zagrożone punkty końcowe. Informacje ze stacji końcowych przekazywane są do centralnej konsoli zarządzania.

Systemy XDR (eXtended Detection and Response) niejako rozszerzają funkcjonalność systemów EDR poprzez uwzględnienie aktywności sieciowej, systemów chmurowych, systemów poczty elektronicznej, a także zastosowanie zaawansowanych algorytmów analitycznych w celu identyfikacji i priorytetyzacji zagrożeń. Systemy XDR mogą podejmować automatyczne akcje zarówno na urządzeniach końcowych (jak to ma miejsce w przypadku EDR), jak i w warstwie sieciowej czy infrastrukturze serwerowej, z której urządzenia końcowe korzystają.

Monitoring dostępności zasobów to kolejny element wspomagający cyberbezpieczeństwo i identyfikację incydentów. Podobnie jak zespoły NOC (Network Operation Center), monitorujące dostępność sieci, czy administratorzy systemów, także zespoły bezpieczeństwa posiłkują się systemami monitorującymi funkcjonowanie usług w tym czasów odpowiedzi. Do tego celu wykorzystuje się m.in.: Zabbix, SolarWinds, Nagios.

Skuteczne adresowanie zagrożeń wymaga wiedzy o wersjach zainstalowanych w organizacji aplikacji oraz dotyczących ich znanych podatności na ataki, a także eksploitów aktualnie wykorzystywanych przez adwersarzy. Do tego celu wykorzystuje się systemy zarządzania podatnościami, w tym systemy inwentaryzacji zasobów.

Zestaw najpopularniejszych narzędzi zamykają systemy do wymiany informacji o zagrożeniach, takie jak: MISP czy OpenCTI, które wspomagają budowanie szerszej świadomości sytuacyjnej.

Dodatkowo warto wspomnieć jeszcze o narzędziach do analiz powłamaniowych oraz zabezpieczania dowodów, np. narzędziach do tworzenia zrzutów pamięci oraz obrazów dysków. Narzędzia te wykorzystywane są, gdy inne zabezpieczenia zawiodły i doszło do naruszenia bezpieczeństwa.

Elementy proceduralno-prawne

Bardzo istotnym elementem funkcjonowania SOC są procedury, które określają zasady przetwarzania danych i postępowania.

Dla znanych typów incydentów, problemów czy ataków definiuje się zwykle tzw. playbooki – czyli instrukcje postępowania zapewniające skuteczne i co ważne spójne reagowanie.  

Przetwarzanie danych, ograniczanie dostępu do danych, blokowanie ruchu nie może mieć miejsca, jeśli tych działań nie określono w stosownych umowach (m.in. NDA).

Ważne jest też określenie sposobu oceny działań SOC, czyli kluczowych wskaźników efektywności (KPI).

SOC w Konsorcjum PIONIER

Wychodząc naprzeciw potrzebom środowiska naukowego i akademickiego w zakresie podnoszenia poziomu cyberbezpieczeństwa, wynikającego z planowanych legislacji krajowych oraz NIS2, PCSS wspólnie z Jednostkami Wiodącymi Konsorcjum PIONIER podejmuje działania zmierzające do wdrożenia zarządzanych usług bezpieczeństwa i zaoferowania usług SOC w szczególności jednostkom podłączonym do sieci PIONIER.

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomiar temperatury za pomocą światłowodu

Pomiar temperatury to kluczowy aspekt w wielu gałęziach przemysłu, takich jak energetyka, przemysł chemiczny czy rafineryjny, a także w systemach bezpieczeństwa. Tradycyjne czujniki temperatury, takie jak termopary czy rezystancyjne czujniki temperatury, mają swoje ograniczenia, zwłaszcza, gdy wymagana jest ciągła kontrola temperatury na dużych odległościach. W takich przypadkach rozwiązaniem okazuje się technologia pomiaru temperatury z wykorzystaniem włókna światłowodowego.

Zasada działania światłowodowego pomiaru temperatury

W pomiarach temperatury za pomocą włókna światłowodowego wykorzystywana jest zdolność światła do zmiany swoich właściwości pod wpływem temperatury. Istnieją trzy główne metody pomiaru temperatury za pomocą światłowodu:

Rozproszenie Ramana

W tej metodzie wykorzystuje się efekt Ramana – zjawisko rozpraszania światła w światłowodzie. Gdy promień laserowy przechodzi przez światłowód, część jego energii ulega rozproszeniu, co prowadzi do powstania dwóch składowych: Stokesowskiej i anty-Stokesowskiej. Różnica w ich intensywności zależy od temperatury, co pozwala na dokładny pomiar.

Rozproszenie Brillouina

Metoda ta opiera się na efekcie Brillouina, który również wykorzystuje rozpraszanie światła w światłowodzie. Jest to bardzo precyzyjna metoda pozwalająca na pomiary temperatury i naprężeń w czasie rzeczywistym na dużych odległościach (ok 60 – 80 km).

Siatki Bragga (FBG – Fiber Bragg Gratings)

Siatki Bragga to specjalne struktury wbudowane w światłowód, które odbijają światło o określonej długości fali. Wraz ze zmianą temperatury lub naprężenia zmienia się długość fali odbitej, co pozwala na bardzo precyzyjne pomiary. Jest to technika wykorzystywana zwłaszcza w monitorowaniu infrastruktury, np. mostów, tuneli czy rurociągów.

Zalety pomiaru temperatury z wykorzystaniem światłowodu

Długość i zasięg pomiarów

Światłowody mogą mierzyć temperaturę na długich dystansach, co jest kluczowe w rozległych instalacjach przemysłowych, takich jak rurociągi czy linie elektroenergetyczne.

Odporność na zakłócenia elektromagnetyczne

W przeciwieństwie do tradycyjnych czujników elektrycznych, światłowód nie jest wrażliwy na zakłócenia elektromagnetyczne, co sprawia, że doskonale sprawdza się w trudnych warunkach przemysłowych.

Bezpieczeństwo w środowisku wybuchowym

Światłowód nie przewodzi prądu elektrycznego, dzięki czemu może być stosowany w miejscach zagrożonych wybuchem, np. w rafineriach czy kopalniach.

Wysoka rozdzielczość przestrzenna

Dzięki technologii rozproszonej możliwe jest uzyskanie setek punktów pomiarowych na jednym światłowodzie, co pozwala na bardzo precyzyjne monitorowanie rozkładu temperatury.

Niewielkie wymagania konserwacyjne

Systemy światłowodowe są bardzo trwałe i odporne na korozję, co minimalizuje koszty ich utrzymania w porównaniu do tradycyjnych czujników.

Podsumowanie

Światłowodowy pomiar temperatury to innowacyjna technologia, która zyskuje coraz większą popularność dzięki swojej precyzji, odporności na zakłócenia oraz możliwości prowadzenia pomiarów na dużych odległościach. Znajduje zastosowanie w wielu gałęziach przemysłu, zwiększając efektywność, bezpieczeństwo i niezawodność systemów monitorowania temperatury. W obliczu rosnących wymagań dotyczących kontroli i optymalizacji procesów, światłowodowe rozwiązania stają się ważnym elementem nowoczesnej infrastruktury.

Piotr Turowicz, Krzysztof Kołat