Kategorie
#Technologie: Aktualności

Centrum operacyjne bezpieczeństwa (SOC) – misja, modele funkcjonowania i narzędzia

Incydent (wg. ustawy KSC) to zdarzenie, które ma lub może mieć niekorzystny wpływ na cyberbezpieczeństwo rozumiane jako odporność systemów informacyjnych na działania naruszające poufność, integralność, dostępność i autentyczność przetwarzanych danych lub związanych z nimi usług oferowanych przez te systemy. Wczesna identyfikacja zagrożeń pozwala niejednokrotnie zapobiec incydentom poprzez wdrożenie środków zaradczych np. polegających na ograniczeniu uprawnień, modyfikacji reguł zapory sieciowej, zainstalowaniu aktualizacji systemów. Misja SOC nie ogranicza się zatem do reagowania na incydent w momencie jego wystąpienia; ona obejmuje także zapobieganie incydentom i to ta aktywność przynosi największe, choć niedoceniane, korzyści.

 

Do realizacji misji, SOC potrzebuje wiedzy na temat chronionej infrastruktury oraz zestawu narzędzi i procedur dających nie tylko wgląd w funkcjonowanie systemów IT, lecz także umożliwiających skuteczne reagowanie na występujące anomalie czy inne zdarzenia naruszające bezpieczeństwo.

Adresowanie zagrożeń wymaga ścisłej współpracy pomiędzy administratorami systemów, właścicielami zasobów (assetów) i specjalistami bezpieczeństwa. Działania te muszą być realizowane zgodnie z procedurami określonymi m.in. w Systemie Zarządzania Bezpieczeństwem Informacji. Procedury i SZBI muszą natomiast czynić zadość obowiązującym legislacjom.

Możliwości reakcji warunkują zakres odpowiedzialności zespołu SOC w przypadku wystąpienia incydentu. Określenie zakresu odpowiedzialności i zasad reagowania jest szczególnie istotne, jeżeli realizacja zadań SOC jest zlecana podmiotom zewnętrznym (outsourcing) w stosunku do chronionej organizacji.

Czy SOC jest wymagany prawem?

W przepisach prawa (KSC, NIS2) nie ma literalnie wpisanej potrzeby utworzenia SOC w organizacjach czy wykupienia zarządzanych usług bezpieczeństwa typu SOC, ale są wymagania proceduralne, które odpowiadają w dużej mierze zakresowi działania typowych SOC-ów. Warto tu wymienić następujące wymagania pojawiające się w istniejących i planowanych ustawach w kontekście podmiotów objętych Krajowym Systemem Cyberbezpieczeństwa:

  • wymóg monitoringu systemów informacyjnych pod kątem ich bezpieczeństwa w trybie ciągłym,
  • niezwłoczne podejmowanie działań po dostrzeżeniu podatności lub cyberzagrożeń,
  • obsługa incydentów oraz przekazywanie informacji o incydentach w ścisłym reżimie czasowym.

Modele funkcjonowania SOC

Kluczowe wymaganie dla SOC to działanie w trybie ciągłym (24/7/365). Aktualnie przyjmuje się takie funkcjonowanie jako standard, inne tryby funkcjonowania stają się rzadkością (np. tylko w godzinach biznesowych). Modele funkcjonowania SOC dzieli się głównie pod kątem umiejscowienia zespołów.

Pierwszy rodzaj SOC, to SOC wewnętrzny – członkowie zespołu specjalistów są zatrudnieni bezpośrednio przez organizację, którą chronią. W praktyce, oznacza to konieczność zatrudnienia co najmniej 5-7 specjalistów (w tym część osób w niepełnym wymiarze). W tym modelu większość narzędzi osadzonych jest w infrastrukturze chronionej organizacji (np. SIEM czy kolektor logów), przy czym część narzędzi (np. konsola EDR czy XDR) może być osadzonych w środowisku chmurowym i udostępnianych zespołowi w modelu software as a service (SaaS), jako zarządzana usługa bezpieczeństwa. Niewątpliwym plusem SOC wewnętrznego jest możliwość pełnej integracji ze strukturami wewnętrznymi organizacji, co ułatwia reagowanie na incydenty i identyfikację zagrożeń – taki zespół SOC może mieć bezpośrednią kontrolę nad kluczowymi urządzeniami w wewnętrznej infrastrukturze organizacji oraz bezpośredni wpływ na administratorów. Minusem są wysokie koszty, które mogą być nieadekwatne do wielkości organizacji.

Koszty i brak wystarczającej liczby odpowiednio wyszkolonych pracowników to główne powody pojawienia się innych modeli funkcjonowania zespołów SOC, w szczególności SOC zarządzanego (Managed SOC), czy też SOC jako usługa (SOCaaS). W obydwóch przypadkach usługi są delegowane – bezpieczeństwo monitorują osoby z zewnętrznej firmy. Przy czym w przypadku Managed SOC część kluczowych systemów bezpieczeństwa może być posadowiona w infrastrukturze chronionej organizacji lub w chmurze; zakres usług może być tu szerszy niż w przypadku SOCaaS. W SOCaaS większość narzędzi wykorzystywanych przez SOC jest posadowiona w infrastrukturze usługodawcy, w szczególności w chmurze. Zespół usługodawcy koncentruje się na identyfikowaniu zagrożeń, w tym analizie ryzyka i szybkim reagowaniu. Natomiast Managed SOC, w odróżnieniu od SOCaaS, może bardziej kompleksowo zarządzać systemami bezpieczeństwa organizacji oraz wspierać audyty wewnętrzne czy wymogi legislacyjne.

Dodatkowo, popularność zdobywa usługa MDR, która koncentruje się na wykrywaniu zagrożeń w oparciu o systemy EDR oraz analizy ruchu sieciowego (NTA), a także realizuje pewne zaawansowane elementy, tzw. threat-huntingu (m.in. identyfikacji nowych zagrożeń). Narzędzia SOC omówione zostaną w kolejnej sekcji.

Ostatnim najczęściej wymienianym modelem SOC, jest model hybrydowy. W tym przypadku organizacja ma wewnętrzny silny zespół SOC i zleca tylko wybrane elementy na zewnątrz, np. korzysta z narzędzi w modelu chmurowym lub zleca konkretne zadania kontrahentom zewnętrznym (np. skanowanie systemów publicznie dostępnych czy analizy powłamaniowe). W tym modelu organizacja ma zwykle pełną kontrolę nad krytycznymi funkcjami zabezpieczeń.

Przyjrzyjmy się narzędziom wykorzystywanym w SOC-ach.

Narzędzia SOC

Celem tej sekcji jest wskazanie typów narzędzi, którymi posiłkują się zespoły bezpieczeństwa, aby chronić infrastrukturę.

Rejestrowanie występujących zdarzeń i podejmowanych aktywności związanych z incydentami jest niezbędne do zapewnienia należytego poziomu usług. Do tego celu wykorzystuje się różnej maści system obsługi zgłoszeń (np. JIRA, Zammad, RT, RTIR itp.).

Zgłoszenia zdarzeń mogą pochodzić od użytkowników, podmiotów zewnętrznych, analityków lub z wdrożonych systemów bezpieczeństwa, np. zapór sieciowych czy analizatorów logów.

Zapory sieciowe pełnią dwojaką rolę – mogą sygnalizować zagrożenia z wykorzystaniem zdefiniowanych reguł oraz mogą być wykorzystywane do reagowania na incydenty poprzez blokowanie lub ograniczanie ruchu sieciowego. Firewalle najnowszych generacji mają dość rozbudowane mechanizmy detekcji zagrożeń i reagowania.

Kompleksowa analiza logów systemów jest możliwa tylko jeśli logi są zebrane w jednym miejscu. Do zbierania logów wykorzystuje się kolektory logów. W przypadku zdarzeń bezpieczeństwa najczęściej wykorzystuje się tzw. systemy SIEM (Security Information and Event Management), które koncentrują się na analizie informacji ukierunkowanych na bezpieczeństwo. Systemy SIEM umożliwiają korelację zdarzeń, analizy statystyczne, wykrywanie anomalii oraz wysyłanie powiadomień (alert), np. w przypadku wykrycia nieprawidłowości lub podejrzanych aktywności.

Kluczowe znaczenie w identyfikacji zagrożeń ma nie tylko analiza logów z systemów operacyjnych czy aplikacji, ale także wgląd w ruch sieciowy. Ruch sieciowy analizuje się zwykle z wykorzystaniem kolektorów rekordów przepływów (Netflow czy IPFIX) oraz systemów detekcji intruzów (IDS), tj. sensorów umieszczonych w chronionej infrastrukturze. Wyniki analizy rekordów przepływów mogą stanowić dodatkowe źródło informacji przekazywanych do SIEM.

Organizacja, która ma wdrożony i dostrojony system SIEM może dodatkowo wdrożyć system SOAR (Security Orchestration, Automation, and Response) w celu automatyzacji i orkiestracji procesów reagowania. Automatyczne reagowanie może również objąć stacje końcowe, ale do tego służy kolejny rodzaj systemu ochrony – system EDR.

Systemy EDR (Endpoint Detection and Response) dbają o ochronę punktów końcowych w sieci poprzez wykrywanie i reagowanie na podejrzane aktywności związane ze złośliwym oprogramowaniem, ransomware czy innymi typami ataków. Kluczowe jest tu reagowanie bezpośrednio na chronionych stacjach, serwerach, urządzeniach mobilnych. EDR w ramach reakcji może np. blokować procesy lub izolować zagrożone punkty końcowe. Informacje ze stacji końcowych przekazywane są do centralnej konsoli zarządzania.

Systemy XDR (eXtended Detection and Response) niejako rozszerzają funkcjonalność systemów EDR poprzez uwzględnienie aktywności sieciowej, systemów chmurowych, systemów poczty elektronicznej, a także zastosowanie zaawansowanych algorytmów analitycznych w celu identyfikacji i priorytetyzacji zagrożeń. Systemy XDR mogą podejmować automatyczne akcje zarówno na urządzeniach końcowych (jak to ma miejsce w przypadku EDR), jak i w warstwie sieciowej czy infrastrukturze serwerowej, z której urządzenia końcowe korzystają.

Monitoring dostępności zasobów to kolejny element wspomagający cyberbezpieczeństwo i identyfikację incydentów. Podobnie jak zespoły NOC (Network Operation Center), monitorujące dostępność sieci, czy administratorzy systemów, także zespoły bezpieczeństwa posiłkują się systemami monitorującymi funkcjonowanie usług w tym czasów odpowiedzi. Do tego celu wykorzystuje się m.in.: Zabbix, SolarWinds, Nagios.

Skuteczne adresowanie zagrożeń wymaga wiedzy o wersjach zainstalowanych w organizacji aplikacji oraz dotyczących ich znanych podatności na ataki, a także eksploitów aktualnie wykorzystywanych przez adwersarzy. Do tego celu wykorzystuje się systemy zarządzania podatnościami, w tym systemy inwentaryzacji zasobów.

Zestaw najpopularniejszych narzędzi zamykają systemy do wymiany informacji o zagrożeniach, takie jak: MISP czy OpenCTI, które wspomagają budowanie szerszej świadomości sytuacyjnej.

Dodatkowo warto wspomnieć jeszcze o narzędziach do analiz powłamaniowych oraz zabezpieczania dowodów, np. narzędziach do tworzenia zrzutów pamięci oraz obrazów dysków. Narzędzia te wykorzystywane są, gdy inne zabezpieczenia zawiodły i doszło do naruszenia bezpieczeństwa.

Elementy proceduralno-prawne

Bardzo istotnym elementem funkcjonowania SOC są procedury, które określają zasady przetwarzania danych i postępowania.

Dla znanych typów incydentów, problemów czy ataków definiuje się zwykle tzw. playbooki – czyli instrukcje postępowania zapewniające skuteczne i co ważne spójne reagowanie.  

Przetwarzanie danych, ograniczanie dostępu do danych, blokowanie ruchu nie może mieć miejsca, jeśli tych działań nie określono w stosownych umowach (m.in. NDA).

Ważne jest też określenie sposobu oceny działań SOC, czyli kluczowych wskaźników efektywności (KPI).

SOC w Konsorcjum PIONIER

Wychodząc naprzeciw potrzebom środowiska naukowego i akademickiego w zakresie podnoszenia poziomu cyberbezpieczeństwa, wynikającego z planowanych legislacji krajowych oraz NIS2, PCSS wspólnie z Jednostkami Wiodącymi Konsorcjum PIONIER podejmuje działania zmierzające do wdrożenia zarządzanych usług bezpieczeństwa i zaoferowania usług SOC w szczególności jednostkom podłączonym do sieci PIONIER.

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomiar temperatury za pomocą światłowodu

Pomiar temperatury to kluczowy aspekt w wielu gałęziach przemysłu, takich jak energetyka, przemysł chemiczny czy rafineryjny, a także w systemach bezpieczeństwa. Tradycyjne czujniki temperatury, takie jak termopary czy rezystancyjne czujniki temperatury, mają swoje ograniczenia, zwłaszcza, gdy wymagana jest ciągła kontrola temperatury na dużych odległościach. W takich przypadkach rozwiązaniem okazuje się technologia pomiaru temperatury z wykorzystaniem włókna światłowodowego.

Zasada działania światłowodowego pomiaru temperatury

W pomiarach temperatury za pomocą włókna światłowodowego wykorzystywana jest zdolność światła do zmiany swoich właściwości pod wpływem temperatury. Istnieją trzy główne metody pomiaru temperatury za pomocą światłowodu:

Rozproszenie Ramana

W tej metodzie wykorzystuje się efekt Ramana – zjawisko rozpraszania światła w światłowodzie. Gdy promień laserowy przechodzi przez światłowód, część jego energii ulega rozproszeniu, co prowadzi do powstania dwóch składowych: Stokesowskiej i anty-Stokesowskiej. Różnica w ich intensywności zależy od temperatury, co pozwala na dokładny pomiar.

Rozproszenie Brillouina

Metoda ta opiera się na efekcie Brillouina, który również wykorzystuje rozpraszanie światła w światłowodzie. Jest to bardzo precyzyjna metoda pozwalająca na pomiary temperatury i naprężeń w czasie rzeczywistym na dużych odległościach (ok 60 – 80 km).

Siatki Bragga (FBG – Fiber Bragg Gratings)

Siatki Bragga to specjalne struktury wbudowane w światłowód, które odbijają światło o określonej długości fali. Wraz ze zmianą temperatury lub naprężenia zmienia się długość fali odbitej, co pozwala na bardzo precyzyjne pomiary. Jest to technika wykorzystywana zwłaszcza w monitorowaniu infrastruktury, np. mostów, tuneli czy rurociągów.

Zalety pomiaru temperatury z wykorzystaniem światłowodu

Długość i zasięg pomiarów

Światłowody mogą mierzyć temperaturę na długich dystansach, co jest kluczowe w rozległych instalacjach przemysłowych, takich jak rurociągi czy linie elektroenergetyczne.

Odporność na zakłócenia elektromagnetyczne

W przeciwieństwie do tradycyjnych czujników elektrycznych, światłowód nie jest wrażliwy na zakłócenia elektromagnetyczne, co sprawia, że doskonale sprawdza się w trudnych warunkach przemysłowych.

Bezpieczeństwo w środowisku wybuchowym

Światłowód nie przewodzi prądu elektrycznego, dzięki czemu może być stosowany w miejscach zagrożonych wybuchem, np. w rafineriach czy kopalniach.

Wysoka rozdzielczość przestrzenna

Dzięki technologii rozproszonej możliwe jest uzyskanie setek punktów pomiarowych na jednym światłowodzie, co pozwala na bardzo precyzyjne monitorowanie rozkładu temperatury.

Niewielkie wymagania konserwacyjne

Systemy światłowodowe są bardzo trwałe i odporne na korozję, co minimalizuje koszty ich utrzymania w porównaniu do tradycyjnych czujników.

Podsumowanie

Światłowodowy pomiar temperatury to innowacyjna technologia, która zyskuje coraz większą popularność dzięki swojej precyzji, odporności na zakłócenia oraz możliwości prowadzenia pomiarów na dużych odległościach. Znajduje zastosowanie w wielu gałęziach przemysłu, zwiększając efektywność, bezpieczeństwo i niezawodność systemów monitorowania temperatury. W obliczu rosnących wymagań dotyczących kontroli i optymalizacji procesów, światłowodowe rozwiązania stają się ważnym elementem nowoczesnej infrastruktury.

Piotr Turowicz, Krzysztof Kołat

Kategorie
#Technologie: Aktualności

Aktualizować czy nie aktualizować

Dla przykładu, samoloty F-35 zostały zaprojektowane w taki sposób, by można było regularnie aktualizować systemy pokładowe i dokładać nowe funkcjonalności[1]. Złożoność systemów rodzi pytanie o potencjalne istnienie tylnych furtek (ang. backdoor) w oprogramowaniu samolotów czy innych środków militarnych. Czy dałoby się zdalnie unieruchomić flotę F-35[2] – takie pytanie zadają sobie potencjalni nabywcy tej zaawansowanej technologicznie broni. Marketingowcy i politycy będą zapewniać, że nie, ale gwarancji nikt nie da. Jeśli nawet aktualnie takich furtek nie ma, to mogą pojawić się w przyszłości przy okazji aktualizacji, czy to w wyniku celowego działania twórców czy ataku hakerów.

[1] https://www.defenseone.com/business/2025/03/f-35-get-new-software-summer-theres-no-date-yet-planned-full-upgrade/403536/

[2] https://ottawacitizen.com/news/national/defence-watch/u-s-f-35-fighter-jets-canada

Należy sobie uświadomić, że oprogramowanie może być wykorzystane jako broń (ang. software as a weapon, SaaW[1]), czy też amunicja[2] i to na wiele różnych sposobów, zarówno w scenariuszach defensywnych jak i ofensywnych.

Z jednej strony mamy mechanizmy zdalnej aktualizacji oprogramowania, w szczególności układowego (ang. firmware), mam tu na myśli m.in. mechanizm FOTA albo OTA, z drugiej zaszyte w kodzie warunki graniczne, które zadziałają w określonych okolicznościach, powodując zablokowanie kluczowych funkcjonalności lub wykonanie określonych akcji. Oczywiście wszystkie te mechanizmy mają pozytywne i negatywne zastosowania. Mogą służyć do ochrony przed zagrożeniami, ale także do siania chaosu czy zniszczenia.

Za przykład pozytywnego wykorzystania mechanizmu FOTA w celu zwiększenia poziomu bezpieczeństwa może służyć zdalne zwiększenie zasięgu samochodów elektrycznych, kiedy w 2017 roku nad Florydę nadciągał huragan Irma[3]. Natomiast warunki logiczne w kodzie chronią interesy licencjodawców w modelach subskrypcyjnych czy filtrują dane chroniąc przed wyciekiem informacji.

Afera z naszego krajowego podwórka, dotycząca pociągów „stających w szczerym polu”, potocznie zwana „aferą Impulsową” pokazuje, że warunki w kodzie można wykorzystać do mniej szlachetnych celów. Implementacja warunków powodujących unieruchomienie środków transportu, kiedy trafią one w określoną lokalizację lub osiągną określony przebieg[4], nie stanowi większego problemu. Podobne „zabezpieczenia”, zwłaszcza te oparte na pozycji geograficznej, można by wprowadzić w oprogramowaniu pojazdów militarnych czy innych środków bojowych.

Czasem oprogramowanie pod przykrywką sprawdzania aktualizacji czy telemetrii wysyła nadspodziewanie dużo danych, do których w ogóle nie powinno mieć dostępu. Świetnym przykładem jest tu transfer danych do Chin dokonywany przez oprogramowanie Adups FOTA preinstalowane kilka lat temu (w 2016 roku) na wielu modelach telefonów z niższej półki[1]. Oprogramowanie to wysyłało na zdalne serwery m.in. zawartość SMS-ów (sic!).

Powody do myślenia daje także „wpadka” z wadliwą aktualizacją oprogramowania CrowdStirke Falcon, która spowodowała 19 lipca 2024 roku awarię systemów Windows na wielką skalę, dotykając milionów systemów, w tym wielu systemów zlokalizowanych w portach lotniczych[2]. A co, gdyby taką wadliwą aktualizację „wypuścił” specjalnie, a nie przypadkiem producent popularnego systemu operacyjnego lub inny duży dostawca, np. na zlecenie pewnego rządu? Ile systemów stałoby się czasowo bezużytecznych? Notabene, niecelowe wypuszczanie niedopracowanych aktualizacji zdarza się producentom dość często – w przypadku giganta z Redmond najświeższy taki przypadek to aktualizacje z marca br.[3] Przypadek SolarWinds, jednego z większych dostawców oprogramowania do monitorowania i zarządzania infrastrukturą, pokazuje skuteczność ataków przez infiltracje producentów oprogramowania. Atakującym udało się przeniknąć do sieci organizacji i wstrzyknąć złośliwy fragment kodu (Sunburst) do oprogramowania monitorującego Orion. Oprogramowanie z wstrzykniętym dodatkiem zostało następnie wysłane do klientów razem z innymi aktualizacjami. Efekt, około 18000 klientów (w tym dużych firm) zostało zainfekowanych – uzyskano dostęp do ich infrastruktury[4].

Atak z zastosowaniem socjotechnik próbowano przeprowadzić również na popularną bibliotekę otwartoźródłową XZ. Infiltracja się powiodła, ale sam atak został udaremniony przez dociekliwego testera oprogramowania zaintrygowanego spadkiem wydajności w nowej wersji systemu. Osoby przeprowadzające atak długo pracowały nad tym by zdobyć zaufanie niezbędne do zrealizowania planu, czyli wstrzyknięcia kodu, który modyfikował zachowanie demona SSH (który pośrednio wykorzystuje biblioteki XZ)[5]. Gdyby plan udało się zrealizować, to atakujący za pomocą predefiniowanych poświadczeń uzyskali by zdalny dostęp do milionów serwerów na całym świecie.

Oprogramowanie jako broń sensu stricto, w walce z mniej lub bardzie sprecyzowanym wrogiem wykorzystują agencje rządów różnych krajów, np. eksploit EternalBlue[6] opracowała NSA w USA – ten kod został niestety przechwycony przez hakerów i wykorzystany do stworzenia m.in. WannaCry[7] (szczególnie popularnego w brytyjskich szpitalach). Kolejny głośny przykład Stuxnet (znany z uszkodzenia Irańskich wirówek przemysłowych) to podobno wspólne dzieło USA i Izraela[8]. Natomiast autorstwo stosunkowo świeżego oprogramowania Hatvibe i Cherryspy przypisuje się agencjom rosyjskim[9]. Oprogramowanie to było wykorzystywane m.in. do szpiegowania dyplomatów z Azji Centralnej. Przy okazji szpiegowania warto wspomnieć broń (wg. legislacji Izraela) jaką jest oprogramowanie Pegasus produkowane przez prywatną firmę NSO – jego sprzedaż jest objęta restrykcjami eksportowymi[10].

Współcześnie wykorzystywane oprogramowanie jest pełne błędów i niedociągnięć, które są sukcesywnie odkrywane i łatane. Część z tych odkrywanych błędów może być wynikiem celowego działania agencji wywiadowczych lub grup cyberprzestępczych. W wielu sytuacjach nie da się jednoznacznie określić czy luka w kodzie była celowym zabiegiem czy tylko zwykłym błędem. Zwykle zaczynamy się nad tym zastanawiać dopiero w sytuacji, kiedy odkrywane są ataki z użyciem nieznanych powszechnie podatności.

Przyzwyczailiśmy się już do ciągłych aktualizacji i nie zastanawiamy się czy i dlaczego są one konieczne. Ufamy dostawcom. To zaufanie nie powinno być jednak bezgraniczne, zwłaszcza w przypadku krytycznych systemów. Aktualizacje przed zainstalowaniem w krytycznych systemach produkcyjnych powinny zostać odpowiednio przetestowane i zweryfikowane. Warto też mieć „plan b”, czyli np. możliwość przywrócenia systemu do stanu pierwotnego.

Pamiętajmy, że aktualizacje są bronią defensywną chroniącą przed nowo odkrywanymi zagrożeniami, ale same też mogą być źródłem zagrożenia i mogą zostać wykorzystane jako broń ofensywna w celu zakłócenia działania systemów lub infiltracji organizacji.

Aktualizujmy systemy, ale rozsądnie. Wybierając wdrażane rozwiązania sprawdzajmy dostawców i ich powiązania.

[1] https://zaufanatrzeciastrona.pl/post/popularne-chinskie-telefony-przylapane-na-wysylaniu-smsow-i-kontaktow-do-chin/

[2] https://testerzy.pl/news/flash/nowa-najwieksza-w-historii-globalna-awaria-it

[3] https://www.windowslatest.com/2025/03/13/windows-11-kb5053598-issues-install-fails-rdp-disconnects-bsods-windows-11-24h2/

[4] https://www.fortinet.com/resources/cyberglossary/solarwinds-cyber-attack

[5] https://www.wired.com/story/xz-backdoor-everything-you-need-to-know/

[6] https://pl.wikipedia.org/wiki/EternalBlue

[7] https://cert.pl/posts/2017/05/wannacry-ransomware/

[8] https://foreignpolicy.com/2016/10/17/obamas-general-pleads-guilty-to-leaking-stuxnet-operation/

[9] https://votiro.com/blog/browser-security-understanding-malware-like-hatvibe-and-cherryspy/

[10] https://en.wikipedia.org/wiki/NSO_Group

[1] https://link.springer.com/chapter/10.1007/978-3-662-56672-5_4

[2] https://blog.lukaszolejnik.com/software-as-munitions-including-offensive-tools/

[3] https://www.theverge.com/2017/9/10/16283330/tesla-hurricane-irma-update-florida-extend-range-model-s-x-60-60d

[4] https://cyberdefence24.pl/cyberbezpieczenstwo/za-nami-rok-blokad-w-pociagach-newagu-co-dzis-wiemy

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Kraków był stolicą europejskich superkomputerów

„Łączenie społeczności HPC, kwantowych i AI w całej Europie” – to temat przewodni tegorocznego spotkania w Krakowie. 

Uczestnicy mogli wziąć udział w sesjach plenarnych, ale także mieli szansę na zapoznanie się z szerokim zakresem tematów. Głównym punktem wydarzenia była strefa demonstracyjna Demo Lab, w której Europejskie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wielkiej Skali (European High Performance Computing Joint Undertaking, w skrócie EuroHPC JU) zaprezentowało superkomputery operacyjne.

EuroHPC Summit było nie tylko okazją do prezentacji najnowszych osiągnięć, ale także miejscem licznych spotkań, paneli i dyskusji o przyszłości fabryk AI.

Wśród uczestników spotkania nie zabrakło przedstawicieli Konsorcjum PIONIER, m.in. z ACK Cyfronet, ICM, PCSS, TASC i WCSS.

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Diamentowa droga otwartego dostępu

Diamentowy model otwartego dostępu polega w skrócie na tym, że wydawcy czasopism nie pobierają opłat ani za dostęp do publikacji (od czytelników), ani za publikację (od autorów artykułów). W czasopismach diamentowych nie pobiera się opłat autorskich, tzw. author processing charges (APCs). 

 

Spotkanie adresowane jest do wydawców, redakcji czasopism, bibliotek oraz wszystkich zainteresowanych przyszłością otwartego dostępu w Polsce! W trakcie spotkania przedstawione zostaną narzędzia i zasoby DIAMAS wspierające czasopisma diamentowe (w tym DIAMAS Toolsuite i narzędzia do samooceny). Oprócz tego uczestnicy zapoznają się z rezultatami CRAFT-OA (prezentacja narzędzia Digital Diamond Hub i omówienie wyzwań związanych z wdrażaniem narzędzi dla wydawców).

Zaplanowano również dyskusję dotyczącą identyfikacji potrzeb, barier i oczekiwań wobec modelu diamentowego. Może wśród naszych Czytelników znajdą się osoby zainteresowane tym wydarzeniem, do którego wzięcia serdecznie Państwa zapraszamy! 

Aby wziąć udział w wydarzeniu, należy wypełnić formularz rejestracyjny. Liczba miejsc ograniczona!

Oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

GÉANT: sieć, chmura i bezpieczeństwo

35. posiedzenie Zgromadzenia Ogólnego GÉANT miało miejsce w Poznaniu w pierwszych dniach marca. Ze strony PCSS udział w nim wzięli stali reprezentanci sieci PIONIER – Artur Binczewski i Raimundas Tuminauskas, a także w roli obserwatora nowy Pełnomocnik Dyrektora Instytutu ds. PCSS – Robert Pękal. W ramach członkostwa w BoD, które prowadzi całe posiedzenie, w Zgromadzeniu Ogólnym brał również udział dr inż. Cezary Mazurek.

Kilkudziesięciu przedstawicieli społeczności projektu GÉANT dyskutowało nad najważniejszymi kwestiami związanymi m.in. z budżetem projektu, kolejnymi fazami etapów wdrażania usług oraz realizacją złożonych planów inwestycji. Spotkanie było także okazją do przestawienia wniosków i pomysłów do realizacji z perspektywy sieci narodowych.

W Poznaniu odbyły się również wybory. Dragana Kupres (CARNET), Leonie Schäfer (DFN), Ramaz Kvatadze (GRENA) – tych trzech członków zostało wybranych lub ponownie wybranych do Komitetu Planowania Projektu GÉANT (GÉANT Project Planning Committee, GPPC) – organu przedstawicieli NREN. Nadzoruje i kieruje on planowaniem i składaniem wniosków, w tym tych mających na celu realizację Horyzontu Europa GN5-FPA, w który angażuje się Stowarzyszenie GÉANT. Komitet zawsze stara się, aby reprezentowany był szeroki zakres wiedzy specjalistycznej we wszystkich obszarach tematycznych, w tym sieci, chmury czy bezpieczeństwo.

– W imieniu społeczności GÉANT chciałbym podziękować nominowanym i nominującym oraz powitać naszych nowych i ponownie wybranych członków – powiedział w Poznaniu Tryfon Chiotis, Chief Programmes Officer i współprzewodniczący GPPC. – Skorzystam również z okazji, aby podziękować naszym obecnym członkom za ich ciągłą służbę – to dobre przypomnienie o całej ciężkiej pracy za kulisami, która przyczynia się do sukcesu projektów GÉANT.

Cały tydzień z GÉANT w Poznaniu był także okazją do zaprezentowania uczestnikom infrastruktury sieci PIONIER, laboratoriów CB PIO (w tym komputerów kwantowych oraz infrastruktury czasu i częstotliwości), a także rozmów dotyczących budowy europejskiej infrastruktury komunikacji kwantowej QCI, z udziałem PIONIER-Q.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Światłowody jako czujniki – działanie i zastosowania

Światłowody, znane głównie z zastosowań w telekomunikacji, odgrywają również istotną rolę jako precyzyjne czujniki w różnych dziedzinach nauki i przemysłu. Dzięki swoim unikalnym właściwościom, takim jak odporność na zakłócenia elektromagnetyczne, niewielkie rozmiary oraz możliwość pracy w trudnych warunkach, znajdują zastosowanie w pomiarach fizycznych, chemicznych i biologicznych.

Zasada działania

Światłowody jako czujniki wykorzystują zjawisko zmiany propagacji światła w ich wnętrzu, które mogą być spowodowane różnymi czynnikami zewnętrznymi, takimi jak:

  • zmiany natężenia światła, np. w wyniku zginania światłowodu lub pochłaniania światła przez substancje,
  • zmiany fazy lub częstotliwości, wykorzystanie interferometrii do pomiarów dokładnych zmian parametrów środowiska,
  • zmiany polaryzacji, czułość na naprężenia mechaniczne,
  • rozpraszanie światła, zjawiska takie jak Rayleigha, Brillouina czy Ramana, umożliwiają monitorowanie zjawisk akustycznych, temperatury czy naprężeń.

Rodzaje czujników światłowodowych

Czujniki punktowe mierzą parametry w konkretnym miejscu, np. czujniki naprężeń, temperatury lub ciśnienia. Popularnie wykorzystuje się czujniki zbudowane w oparciu o siatki Bragga. Elementy czujnikowe np. w pomiarach naprężeń mogą mieć złącza światłowodowe po obu stronach i mogą być używane samodzielnie lub szeregowo. Odczyt następuje poprzez urządzenie aktywne (interrogator), które może być oddalone nawet o kilka kilometrów. Czujniki te pozwalają na ciągłe monitorowanie stanu struktur, pęknięć i szczelin (np. w ścianach) – monitorowanie mostów, zapór, budynków, tuneli. Monitoringiem takim można również objąć np. statki, pociągi, konstrukcje skrzydeł samolotów i inne skomplikowane struktury.

Czujniki rozłożone (DAS – Distributed Acoustic Sensor, DTS – Distributed Temperature Sensor) umożliwiają pomiary wzdłuż całej długości światłowodu; stosowane są w monitorowaniu infrastruktury takiej jak rurociągi, trakcje kolejowe czy linie energetyczne. Zaletą tych czujników jest duży obszar działania, nawet do 100 km.

Pomiary DAS znajdują zastosowanie w monitoringu i zabezpieczeniu kanalizacji teletechnicznej, dużych powierzeni terenu czy ochrony obwodowej. Pozwalają na detekcję z dużą precyzją, informują użytkownika o odległości, w której zdarzenie miało miejsce i typie alarmu wywołanego w danym miejscu instalacji na przykład kopanie w ziemi, bieg czy przejście po ziemi nad zakopanym kablem (detekcja w poprzek lub wzdłuż światłowodu), wspinanie się po ogrodzeniu itp. Można określić również kierunek przemieszczania się obiektów i ich prędkość. Jeżeli w otoczeniu światłowodu poruszają się pojazdy mechaniczne, to analizując amplitudę zmian można wykryć ich rodzaje – ciężki czy lżejszy pojazd. Do detekcji tego typu „zjawisk” idealnie nadają się algorytmy uczenia maszynowego czy sztucznej inteligencji.

Czujniki wielofunkcyjne pozwalają na jednoczesne pomiary różnych parametrów, np. temperatury i wibracji.

Zastosowania czujników światłowodowych:

  • PRZEMYSŁ: monitorowanie stanu technicznego budynków, mostów, tuneli, trakcji kolejowych, rurociągów, wież wiatrowych,
  • ENERGETYKA: kontrola temperatury w transformatorach i liniach energetycznych, detekcja awarii kabli,
  • MEDYCYNA: czujniki ciśnienia w mikrochirurgii, monitorowanie parametrów biochemicznych,
  • GEOFIZYKA: monitorowanie ruchów sejsmicznych i osuwisk, badania geologiczne
    i geoakustyczne,
  • BEZPIECZEŃSTWO: detekcja intruzów poprzez analizę wibracji w światłowodach zainstalowanych wzdłuż ogrodzeń czy kabli światłowodowych zakopanych w ziemi, ułożonych na dnie akwenów czy też zawieszonych nad danym obszarem.

 Zalety czujników światłowodowych

  • wysoka precyzja pomiarów,
  • możliwość pracy w ekstremalnych warunkach (wysoka temperatura, wilgotność, wysokie natężenia pola elektromagnetyczne),
  • niewielka waga i kompaktowe rozmiary,
  • brak konieczności dostarczania prądu wzdłuż linii światłowodowej,
  • możliwość wykorzystania standardowego włókna światłowodowego.

    Wyzwania

    Pomimo licznych zalet, zastosowanie światłowodów, jako czujników wiąże się z wyzwaniami, takimi jak wysoki koszt instalacji i kalibracji. Konieczny jest zakup zaawansowanego sprzętu (interrogator) oraz wyposażenie systemu w duże magazyny danych, umożliwiając jednocześnie przetwarzanie ich dużych ilości. Kluczową kwestią jest również zaawansowana analiza sygnałów i prawidłowa detekcja zaobserwowanych anomalii. Jednak rozwój technologii światłowodowych i spadek kosztów produkcji sprawiają, że są one coraz powszechniejsze w różnych dziedzinach. Niewątpliwie dużą zaletą pomiarów typu DAS jest zastosowanie standardowego włókna jednomodowego. Istnieją też specjalne konstrukcje kabli światłowodowych, które lepiej przenoszą odkształcenia otoczenia bezpośrednio na światłowód. Ponadto metoda pomiarowa DAS, DTS nie wymaga specjalnych zakończeń ani pośrednich punktów regeneracji czy wzmacniania sygnału. Światłowody, jako czujniki, stanowią przykład nowoczesnych technologii o szerokim spektrum zastosowań w monitorowaniu i diagnostyce różnorodnych systemów i różnych środowiskach.

     

Piotr Turowicz

Kategorie
#Technologie: Aktualności

Nowe rozdanie FENG, czyli Q-ChronoS w różnych miejscach Polski

Przypomnijmy, że Fundusze Europejskie dla Nowoczesnej Gospodarki (FENG) to program operacyjny, którego celem jest zwiększenie potencjału Polski w zakresie wykorzystywania zaawansowanych technologii w gospodarce, a także na polu badań i innowacji.

“System mobilnych sensorów kwantowych z zegarami optycznymi zintegrowanych w sieciach telekomunikacyjnych (Q-ChronoS)” – związany będzie z budową systemów dwóch mobilnych sensorów kwantowych opartych na optycznych zegarach atomowych oraz infrastruktury do transferu częstotliwości optycznej, która umożliwi ich wykorzystanie w różnych miejscach Polski.

Projekt jest kierowany do szerokiego grona odbiorców skupionych wokół technologii kwantowych, geodezji, metrologii, fizyki, radiostrontium oraz komunikacji. Całkowity koszt projektu (FENG.02.04-IP.04-0024/24) wynosi 108 349 798,29 zł, w tym wysokość wkładu Funduszy Europejskich to 79 002 564,01 zł.

Koordynacją projektu ze strony Centrum Badań Kosmicznych PAN zajmuje się dr Jerzy Nawrocki z Obserwatorium Astrogeodynamicznego w Borowcu, Akademii Górniczo-Hutniczej w Krakowie – dr hab. inż.  Przemysław Krehlik, prof. AGH z Wydziału Informatyki, Elektroniki i Telekomunikacji, a toruńskiego uniwersytetu – dr hab. Michał Zawada, prof. UMK z Wydziału Fizyki, Astronomii i Informatyki Stosowanej. Wojbor Bogacki z Poznańskiego Centrum Superkomputerowo-Sieciowego został kierownikiem projektu, natomiast dr Krzysztof Turza odpowiada za prace merytoryczne w projekcie.

Prace PCSS skupią się na dwóch głównych zadaniach. Pierwsze to budowa, wspólnie z kolegami z UMK, mobilnych sensorów kwantowych w postaci zegarów optycznych. Drugie to budowa systemu długo-zasięgowej światłowodowej dystrybucji nośnej optycznej, który umożliwi porównywanie wskazań mobilnych zegarów optycznych. System ten będzie oparty o sieć PIONIER i umożliwi umiejscowienie mobilnych zegarów optycznych w każdym miejscu, gdzie jest obecna sieć PIONIER – wyjaśnia Wojbor Bogacki. – Wytworzona infrastruktura umożliwiać będzie prowadzenie prac badawczo-rozwojowych w takich obszarach jak: geodezja relatywistyczna, badania zmian potencjału grawitacyjnego, detekcji ruchów sejsmicznych, w bezpośrednim oceanograficznym pomiarze poziomu morza i dynamiki oceanów, badaniach radioastronomicznych, standaryzacji i metrologii czasu, w badaniach fundamentalnych, takich jak weryfikacja niezmienności stałych fizycznych, sprzężenia do pól modelu standardowego pól ultralekkiej skalarnej ciemnej materii, modelach ciemnej energii, ogólnego pola skalarnego z ukrytymi sektorami, teorii nowej fizyki Kaluzy-Kleina, modeli dylatonu lub solitonu, weryfikacji niezmienności Lorentza oraz jako testy grawitacji kwantowej, szczególnej teorii względności, detekcji fal grawitacyjnych i poszukiwaniach kosmologicznych defektów topologicznych.

Ponadto, wytworzona infrastruktura pozwala na świadczenie usług komercyjnych:

  • w technologiach georadarowych i wysokiej jakości obrazowaniu przestrzennym,
  • w zwiększeniu bezpieczeństwa technologii kryptografii kwantowej,
  • w kalibracji mikrofalowych i optycznych stacjonarnych zegarów atomowych, optycznej i kwantowej komunikacji w branży kosmicznej,
  • w kalibracji i testowaniu technologii fotonicznych, takich jak optyczne grzebienie częstotliwości,
  • w poszukiwaniach geologicznych dzięki kombinacji tradycyjnych grawimetrów i kwantowych sensorów geopotencjału,
  • w kwantowo ulepszonej synchronizacji czasu dla sieci komunikacyjnych,
  • w zwiększeniu niezawodności i odporności na zakłócenia sygnałów GNSS sieci radarowych.

Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

PIONIER na zdrowie!

Wydarzenie objęło ponad 100 krajów, 40 000 widzów i 20 operacji. Zorganizowane zostało we współpracy Europejskiego Towarzystwa Laryngologicznego, Poznańskiej Akademii Medycznej Nauk Stosowanych im. Księcia Mieszka I, Poznańskiego Centrum Superkomputerowo-Sieciowego oraz Wydziału Zdrowia i Spraw Socjalnych Urzędu Miasta Poznania.

W wydarzeniu uczestniczyły placówki medyczne m.in. z Barcelony, Marsylii, Luksemburga, Giessen, Leiden, a także Essen i Poznania.

Pierwszy raz w tego typu operacjach mogli uczestniczyć medycy z Kambodży, Madagaskaru oraz Martyniki.

Celem było pokazanie najnowszych metod operacyjnych stosowanych przez chirurgów z czołowych europejskich klinik laryngologicznych.

Kliniki, biorące udział w wydarzeniu, były ze sobą połączone poprzez platformę zdalnej współpracy medycznej medVC, umożliwiającą wielopunktową komunikację audio-wideo w czasie rzeczywistym. Dzięki temu chirurdzy z klinik byli w ciągłym kontakcie podczas całej sesji, mogli zatem na bieżąco wymieniać się spostrzeżeniami.

Cała sesja była nadawana w najwyższej jakości przez Internet z wykorzystaniem sieci PIONIER, której operatorem jest Poznańskie Centrum Superkomputerowo-Sieciowe.

oprac. Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Świąteczne lampki

Rok kalendarzowy, w tym fiskalny, zmierza ku końcowi, a liczba pilnych do załatwienia spraw jakoś nie chce się zmniejszyć. Innymi słowy, przedświąteczna gorączka trwa, palce stukają w klawiaturę ze zdwojoną siłą, obroty w sektorze sprzedaży detalicznej, w tym internetowej, biją rekordy.  A my szukamy prawdziwych okazji i … przestępcy robią to samo – też szukają okazji. A okazji i możliwości jest naprawdę wiele.

Z jednej strony jesteśmy zmęczeni, przebodźcowani, z drugiej chcemy w trybie pilnym uszczęśliwić bliskich, potrzebujących lub po prostu siebie (niepotrzebne skreślić). Chcemy być gotowi do świętowania, czujemy presję – czasu coraz mniej. Szukamy, szukamy i trafiamy na „prawdziwe” okazje, mega przeceny, no i dobrze by zapaliły się nam świąteczne lampki – najlepiej czerwone, czyli te ostrzegawcze. Nim coś kupimy, weźmy głęboki oddech, przyjrzyjmy się dokładnie stronie sklepu, produktowi, sprawdźmy dane kontaktowe, czy ten „markt”, to nie przypadkiem „marкt” (к – to z cyrylicy) a może „markł” [1],[2]. Sprawdźmy jakie mamy formy płatności, czy sklep wymaga podania numeru karty bezpośrednio, czy może korzysta z pośredników płatności. Jeśli sklep przekierowuje na portal płatności, to ten portal też sprawdźmy [3]. Strona wygląda w porządku (czytaj OK), to sprawdź dokładnie produkt – czy to artykuł nowy, czy niewybrakowany (zwłaszcza jeśli to produkt „outletowy”), czy materiały, z których jest wykonany są właściwe, sprawdź dane dotyczące rozmiaru (np. biżuterię w doskonałej cenie, świetnie wyglądającą na zdjęciu w rzeczywistości trzeba będzie oglądać pod lupą, a za to zegarek nie zmieści się na zgrabnym nadgarstku).

Karty kredytowe nie wytrzymują już świątecznych zakupów, a musimy skorzystać z promocji – ergo potrzebujemy pożyczki. Jeśli naprawdę musimy coś kupić na kredyt, to skorzystajmy z oferty naszego banku, logując się do niego w tradycyjny sposób, ewentualnie, jeśli kupujemy w sklepie dużej, znanej sieci z ich ofert ratalnych. Nie korzystajmy z usług niezweryfikowanych firm, e-mail z linkiem do oferty pożyczki, to z dużym prawdopodobieństwem jest phishing.

Pamiętajmy, także że kupując bezpośrednio ze sklepów poza Unią Europejską jesteśmy zwykle słabiej chronieni. Wprawdzie „zgodnie z unijnymi przepisami prawa europejskich konsumentów, chronione są zazwyczaj również w przypadku zakupów u sprzedawców internetowych spoza UE. Jednak w takich sytuacjach dochodzenie swoich praw może okazać się trudniejsze.[4]

Jeśli drogi czytelniku nadal zastanawiasz się nad dobrym, bezpiecznym prezentem to rozważ zakup klucza (a najlepiej dwóch kluczy) bezpieczeństwa U2F (uwaga lokowanie produktu). [5]

Zdrowych, Bezpiecznych i Wesołych Świąt
oraz bogatego Gwiazdora
(w Poznaniu św. Mikołaj już był 😉 )

[1] https://www.gov.pl/web/baza-wiedzy/uwaga-csirt-knf-ostrzega-przed-falszywymi-stronami-serwisow-streamingowych

[2] https://www.wirtualnemedia.pl/artykul/ataki-homograficzne-top-10-witryn-pod-ktore-najczesciej-podszywaja-sie-cyberprzestepcy-top-10

[3] https://zaufanatrzeciastrona.pl/post/podstawy-bezpieczenstwa-bezpieczne-zakupy-online-jak-rozpoznac-falszywa-bramke-platnosci/

[4] https://europa.eu/youreurope/citizens/consumers/shopping/contract-information/index_pl.htm

[5] https://www.pkobp.pl/klient-indywidualny/aplikacja-iko-ipko/bezpieczenstwo/logowanie-z-kluczem-bezpieczenstwa

Maciej Miłostan