Kategorie
#Technologie: Aktualności

Software-Defined Networks, czyli marsz w przyszłość

Raz kupione urządzenia obsługiwały konkretne standardy i służyły wiele lat stanowiąc pewnego rodzaju wyspę technologiczną. Owszem, protokoły dynamicznego routingu (czyli wyznaczania tras pakietów) istniały w wyższej warstwie sieciowej, ale w warstwie łącza danych mieliśmy najczęściej sytuację „na sztywno”, gdzie każda ważniejsza zmiana wymagała wizyty inżyniera w pomieszczeniu aparatury. Umowy z klientami usług obowiązywały na stosunkowo długie okresy kilku lat, żeby inwestycje w sprzęt i te „wyspy” czy inne „silosy” finansowo i moralnie się zamortyzowały w czasie trwania umów.

Przez lata znacząco wzrósł ruch w sieciach. Rośnie nie tylko szybkość transmisji, ale przede wszystkim liczba węzłów sieci, liczba włókien, liczba wykorzystanych długości fal nośnych i konieczność połączenia w jednym światłowodzie wielu technologii transmisyjnych. Obecnie, w dobie komunikacji 5G i Internetu rzeczy wymagania rosną i konieczne jest stosowanie również połączeń typu punkt-wiele punktów. Stosuje się podział włókien światłowodowych pomiędzy wiele rozłącznych transmisji w różnych standardach i trybach, np. z podziałem czasu (TDM) lub długości fali (CWDM, DWDM). Zarządzanie i monitoring sieci muszą być wydajne w sytuacji częstych zmian konfiguracji sieci. Czyli potrzebujemy elastyczności i skrócenia czasu od pomysłu, przez fazę proof-of-concept, a później gotowego rozwiązania produkcyjnego.

Skoro wszystko jest software-defined, to sieci światłowodowe też

Współczesny świat zmierza do separowania infrastruktury usługodawcy od odbiorcy. Trendy są takie, że klient nie musi znać się na sposobie realizacji usługi w niższych warstwach. A dostawca chce mieć jeden centralnie zarządzany system dla zapewnienia punktów styku dla wszystkich klientów. Nikt już nie chce autonomicznych wysp technologicznych budowanych tylko dla jednego klienta. Zasada ta obowiązuje w wielu dziedzinach życia, nie tylko w telekomunikacji, ale też choćby w rozwiązaniach chmurowych.

Można powiedzieć, że obszar software-defined, czyli rozwiązań budowanych za pomocą zmiany konfiguracji lub wgrania nowego oprogramowania w miejsce wymiany sprzętu, ma w telekomunikacji dwie główne odnogi. Jedna to Software-Defined Radio (SDR). Dostawcy często tworzą uniwersalną platformę sprzętową odpowiedzialną za część analogową i działającą w szerokim zakresie częstotliwości radiowych. Chodzi o wzmacniacze niskoszumne (odbiorniki) lub mocy (nadajniki), interfejsy antenowe, przemianę częstotliwości i filtrację. Natomiast modulację lub demodulację cyfrową wraz z ramkowaniem i korekcją błędów przenosi się w dziedzinę oprogramowania. Takie urządzenie może obsługiwać wiele standardów cyfrowych jednocześnie bez konieczności inwestowania w nową platformę sprzętową. W szybko zmieniającym się świecie aktualizacji standardów dostępów radiowych rozwiązanie zwiększa elastyczność, bo zmniejsza koszty i skraca czas od pomysłu do uruchomienia pilotażowej usługi.

Ale nie tylko komunikacja radiowa wpadła na ten pomysł. W dziedzinie sieci światłowodowych spotykamy się z Software-Defined Networks (SDN). Można powiedzieć, że SDN jest ważnym założeniem, paradygmatem budowy nowych sieci optycznych. Rosnąca liczba wariantów transmisji, liczby klientów i skracanie czasu uruchomienia usługi powoduje, że rośnie problem zarządzania sieciami i elastycznością w zmianach konfiguracji. Trzydzieści lat temu raz uruchomiony system światłowodowy pracował latami, aż do kolejnej inwestycji w sprzęt nowszej generacji. Dziś jest to dalece niewystarczające. Wraz ze wzrostem stopnia skomplikowania konfiguracji sieci, zarządzanie nimi ręcznie staje się zbyt mało wydajne. Potrzebne są szybkie rozwiązania dla różnych małych projektów, eksperymentów, małych usług. Mamy potrzebę większej zwinności. Kluczowym elementem SDN jest konfiguracja, a w trakcie użytkowania, automatyzacja przepływu danych.

W SDN izoluje się samo zarządzanie siecią od ruchu sieciowego użytkowników sieci. Z punktu widzenia użytkownika, topologia sieci, często stosunkowo skomplikowana, jest niewidoczna i niemożliwa do ustalenia z poziomu klienta, a sam klient nie musi być informowany o zmianach, np. przełączeniach awaryjnych lub innych rekonfiguracjach, o ile zapewniona jest umowna wydajność.

Orkiestracja i już wszystko gra na płaszczyznach

Absolwentom szkół muzycznych orkiestracja kojarzy się zapewne z rozpisaniem utworu na poszczególne instrumenty i procesem tworzenia partytury. Robi to kompozytor albo aranżer. Cóż, dobry inżynier też powinien być artystą w swoim fachu. Nam orkiestracja kojarzy się jednak z zarządzaniem. Otóż łatwo powiedzieć o nowym paradygmacie i roztaczać piękne wizje SDN. Ale praktyka wymaga standaryzacji i rozpisania ról poszczególnych modułów systemu, aby rozwiązania od wielu dostawców były kompatybilne.

W SDN wprowadzono pojęcie płaszczyzn (planes), których rozróżniamy zasadniczo trzy. Mamy płaszczyznę biznesową/aplikacyjną, czyli warstwę określenia wymagań funkcjonalnych. Implementuje się ją zazwyczaj jako moduł oprogramowania orkiestratora, w którym administratorzy określają co chcą osiągnąć i za pomocą jakich środków. Orkiestrator to najwyżej położona część systemu, w której definiuje się usługi, usługobiorców i dochodzi do ich opisu w formie metadanych. Następną płaszczyzną jest pośrednia płaszczyzna kontrolera sieci. W tej płaszczyźnie zarządza się zasadami przepływów danych realizowanych przez urządzenia sieciowe. Wreszcie mamy płaszczyznę przetwarzania strumieni danych użytkownika realizowaną przez same urządzenia sieciowe, do których doprowadzone są światłowody. Większość z nich to będą przełączniki, które obsługują SDN. Płaszczyzny w SDN komunikują się przez uzgodnione interfejsy i implementacje tych płaszczyzn mogą w założeniu pochodzić od różnych dostawców, choć oczywiście są i tacy dostawcy, którzy oferują pełen stos protokołów i rozwiązane „z półki”. Niektórzy dostawcy, dostarczają wszystkie moduły, od przełączników, aż do orkiestratora. Ale są też dostawcy specjalizujący się w wybranych polach, np. dostarczają same przełączniki albo same orkiestratory.

W założeniu, dzięki standaryzacji, operator dużej sieci może kupić „czyste” urządzenia, które dopiero podpięte zostaną pod system kontrolera, a on do systemu orkiestracji, który to zleci odpowiedniej usłudze wygenerowanie konfiguracji do urządzeń, a także zadba o ich wdrożenie w sieci. W ten sposób można zmienić sieć bez fizycznego dostępu do urządzeń.

Protokół jak piosenka, jest dobry na wszystko

Kluczem do sukcesu każdej technologii jest standaryzacja. W SDN przełączniki różnych dostawców powinny docelowo obsługiwać te same standardy, aby moduły zarządzające mogły w prosty sposób generować dla nich konfiguracje. W przeciwnym razie będą budowane wyspy technologiczne danych dostawców gotowych rozwiązań, a integracje pomiędzy tymi wyspami będą bardzo drogie, choć w obrębie danej wyspy SDN będzie realizowane. W telekomunikacji, jeśli trzeba coś ustandaryzować, zazwyczaj kończy się to powstaniem uznanego w branży protokołu, czyli opisu sposobu wymiany danych.

W SDN najbardziej popularny protokół to OpenFlow. Przypisuje się go do warstwy drugiej (łącza danych). Jest protokołem sterowania przepływami, które rozumie się jako strumienie pakietów o pewnych cechach. Na podstawie tzw. tabeli przepływów, dobiera się odpowiedni scenariusz działania dla nadchodzącego od klienta pakietu, np. przekierowanie go na odpowiedni port odpowiedniego urządzenia. OpenFlow umożliwia automatyczne przełączanie tras na podstawie odświeżanej na bieżąco tabeli przepływów w sieci. Trasy mogą być programowane za pomocą poleceń protokołu. Protokół może sterować różnymi parametrami transmisji, np. długością fali w DWDM. Umożliwia także wyliczanie tras, czyli określania węzłów, przez które przepłyną dane klienta. Protokół służy też do konfigurowania i monitorowania urządzeń. Zapewnione są różne miary QoS (Quality of Service) takie jak bitowa stopa błędów, stosunek sygnału do szumu i uogólnione współczynniki jakości. Można powiedzieć, że protokół OpenFlow pośredniczy pomiędzy płaszczyzną zarządzania, a płaszczyzną transmisji danych.

Przełączniki SDN, czyli kto odwali robotę?

Częścią wykonawczą w SDN, działającą w najniższej płaszczyźnie, czyli elementem, który ma styczność z danymi klienta, są przełączniki SDN. Zarządzanie przełącznikiem obsługującym OpenFlow polega na tworzeniu, usuwaniu i modyfikowaniu przepływów wzdłuż ścieżki przepływu danych. Przełącznik, fizyczny lub wirtualny (jako proces uruchomiony na większym urządzeniu), zawiera szereg tabel przepływów oraz zestaw instrukcji (akcji). Wpisy w tabelach przepływów służą do weryfikacji spełnienia pewnych warunków przez nadchodzące pakiety. Potem dochodzi do poddania tych pakietów pewnym akcjom zdefiniowanym w zestawie instrukcji. Te tabele przepływów i akcje mogą być na bieżąco zmieniane i monitorowane przez kontroler sieci.

Przełączniki SDN obsługują najczęściej protokół OpenFlow za pomocą połączenia SSL i TCP/IP. W tym sensie protokół wymaga warstwy trzeciej na interfejsie zarządczym do zarządzania przepływami w warstwie drugiej na innych swoich interfejsach.

Panie, a kto się tym zajmie?

Korzenie standaryzacji sięgają jeszcze roku 1995, kiedy Sun Microsystems zapoczątkował prace w ramach Java Open Networking Foundation (OFN). Były to początki protokołu OpenFlow. Prace były prowadzone były m.in. na Uniwersytecie Stanforda i Indiana University, a pierwsza wersja protokołu powstała w 2009 r. Obecnie dużą rolę odgrywa organizacja Open Networking Foundation (https://opennetworking.org). Jest społecznością stanowiącą parasol nad różnymi projektami standaryzacji rozwiązań software-defined, w tym SDN. Zajmuje się także certyfikacją zgodności z protokołem OpenFlow współpracując z akredytowanymi laboratoriami testującymi. W rozwój SDN zaangażowany jest też wielki biznes. W pracach nad implementacją protokołu uczestniczą Cisco, Hewlett-Packard, IBM, Juniper Networks, Dell, Google i wiele innych czołowych dostawców technologii.

Do pracy, rodacy!

Stosowanie SDN ma dużo zalet, wśród nich przypomnijmy możliwość wydajnego, centralnego i zwinnego zarządzania całą siecią przez zespół administratorów oraz możliwość stosowania mechanizmów automatycznej rekonfiguracji. Skraca się czas prowadzenia faz proof-of-concept i wdrożenia usługi. Zalety SDN ujawniają się najsilniej tam, gdzie spotykają się strumienie danych od różnych klientów i w różnych technologiach. Jest to właśnie przypadek sieci PIONIER. Zatem SDN to przyszłość PIONIERa.

Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

Połączenie z siecią LITNET

Stało się to możliwe m.in. dzięki wsparciu krajów skandynawskich, które w 1991 roku sfinansowały pierwsze międzynarodowe satelitarne połączenie z Uniwersytetem w Oslo. Dziś LITNET to konsorcjum 5 największych uniwersytetów Litwy – dostarcza usługi sieci naukowej dla całego litewskiego środowiska naukowego, które realizowane są na bazie infrastruktury światłowodowej łączącej również sąsiednie kraje Unii Europejskiej.

Połączenie sieci LITNET z PIONIERem planowane było od dłuższego czasu. Sposób budowy i dalszy rozwój wyznaczono w ramach działań w koordynowanym przez PCSS projekcie „Porta Optica”, realizowanym w latach 2005-2007.

Połączenie wykonano z wykorzystaniem budowanej wówczas infrastruktury światłowodowej sieci PIONIER relacji: Gdańsk – Olsztyn – Suwałki – Białystok – Warszawa, w postaci odgałęzienia z Suwałk do Ogrodnik. Infrastrukturę światłowodową do granicy obu krajów zrealizowano ostatecznie w roku 2013. Wtedy też uruchomiono transmisję w technologii DWDM z przepływnością10 Gbps.

To bezpośrednie połączenie umożliwiło szerszą współpracę środowisk naukowych w Polsce i na Litwie, a także we wszystkich krajach bałtyckich. Połączenie wykorzystywane jest też na potrzeby sieci GÉANT – transmisja do krajów bałtyckich.

W roku 2019 połączenie zostało zmodernizowane, umożliwiając realizację wielu kanałów 10 Gbps oraz dostarczania usług spektrum. Umożliwiło to prowadzenie badań z zastosowaniem zaawansowanych metod transmisji czy transmisji sygnałów kwantowych. Infrastruktura wykorzystana jest do współpracy w badaniach naukowych z Litewskim Laboratorium Standardów Czasu i Częstotliwości przy Centrum Fizycznych Nauk i Technologii w Wilnie.

Kolejna modyfikacja nastąpiła w roku 2022 – zwiększono liczbę bezpośrednich połączeń na poziomie włókien światłowodowych. Trwają prace nad realizacją transferu czasu i częstotliwości z wykorzystaniem dedykowanych włókien światłowodowych.

Historia współpracy pomiędzy sieciami PIONIER i LITNET potwierdza korzyści płynące z wykorzystania bezpośrednich połączeń transgranicznych. Umożliwiają one elastyczną adaptację sieci do rosnących wymagań środowiska naukowego.  Połączenia te umożliwiają realizację transmisji z dużymi przepływnościami wspomagającymi efektywną współpracę naukowców sąsiednich krajów, szczególnie w obszarze obliczeń wielkiej skali, a także precyzyjną synchronizację czasu i częstotliwości oraz połączeń kwantowych. Łącznie z infrastrukturą sieci zrealizowaną przez GÉANT w projekcie GN4-3N, trasa będzie najkrótszą drogą do centrum obliczeniowego LUMI w Finlandii.

Raimundas Tuminauskas

Kategorie
#Technologie: Aktualności

Sztuczna inteligencja a bezpieczeństwo

Powszechna fascynacja udostępnioną technologią spowodowała, że użytkownicy zaczęli znajdować coraz to nowe zastosowania dla ChatGPT. Jednakże prowadząc konwersację ze sztuczną inteligencją, na fali powszechnej euforii, nie wszyscy zastanawiali się, co będzie się działo z danymi, które w trakcie „rozmowy” wprowadzą do systemu. W szczególności, czy i jak system te dane wykorzysta. W efekcie, system został zasilony fragmentami poufnych kodów czy dokumentów do użytku wewnętrznego. Co istotne, fragmenty tych dokumentów mogą się pojawić w odpowiedziach na zapytania innych użytkowników. Problem ten dobrze obrazuje wyciek danych Samsunga[1], który nastąpił zaledwie 20 dni po tym jak korporacja zniosła zakaz korzystania przez pracowników z ChatGPT. Zakaz był uprzednio wprowadzony właśnie po to, by chronić firmowe dane. Notabene, na początku maja zakaz w Samsungu został przywrócony. Pamiętajmy, aby chronić nasze dane. Ponadto, korzystając z modeli sztucznej inteligencji weźmy pod uwagę, że wykorzystywane do stworzenia modeli dane wejściowe, przykłady uczące, nie są idealne i mogą być stronnicze (ang. bias), co przekłada się na generowane odpowiedzi. Nie dajmy się zmanipulować.

[1] https://cybernews.com/news/chatgpt-samsung-data-leak/

Narzędzia takie jak ChatGPT są bez wątpienia bardzo użyteczne i otwierają nowe perspektywy w zakresie tworzenia treści czy identyfikacji znanych rozwiązań, ale otwierają też nowe pola do nadużyć. Przy czym nie mam tu na myśli automatycznego pisania prac zaliczeniowych czy znajdowania odpowiedzi do testów on-line, ale wykorzystanie sztucznej inteligencji do prowadzenia kampanii dezinformacyjnych czy ataków spersonalizowanych. Dzięki sztucznej inteligencji personalizacja ataku może zostać dokonana w sposób co najmniej półautomatyczny. Firma OpenAI jest świadoma potencjalnych nadużyć i wspólnie ze środowiskami akademickimi stara się informować o zagrożeniach wynikających z dostępności zaawansowanych modeli językowych i próbuje proponować środki zaradcze. Zachęcam do zapoznania się z raportem podejmującym tę tematykę opublikowanym na stronie OpenAI.[1]

Korzystając z serwisów on-line, a w szczególności je tworząc, warto pamiętać o stosowaniu klasycznych zabezpieczeń IT i należytym testowaniu wdrażanych rozwiązań. Niestety, w tym zakresie dostawca ChatGPT poległ – zaledwie parę miesięcy po udostępnieniu portalu doszło do wycieku danych części użytkowników, w tym danych kart kredytowych.[2] Trzeba przyznać, że firma podeszła do problemu w sposób możliwie transparentny i otwarcie poinformowała o incydencie. Sztuczna inteligencja na ten moment sama nie wdroży dobrych praktyk.

Wśród wielu pomysłów na wykorzystanie modeli językowych pojawiły się również koncepcje automatycznego generowania kodu lub poprawiania kodu. Jedną z takich platform jest Codex[3] zintegrowany również z GitHub-em jako Copilot[4], czyli system, który biorąc pod uwagę kontekst przedstawionego kodu proponuje jego uzupełnienia. Codex potrafi też generować nowy kod na podstawie opisu w języku naturalnym. Czy taki kod jest równie bezpieczny jak napisany przez doświadczonego programistę? M.in. na to pytanie odpowiada praca przygotowana przez naukowców ze Stanford.[5] Odpowiedź niestety nie jest pozytywna – z przeprowadzonego eksperymentu wynika, że osoby korzystające z mechanizmów wspomagających pisały znacząco mniej bezpieczny kod, jednocześnie mając wyższe poczucie, że piszą dobry (bardziej bezpieczny) kod niż osoby, które ze wsparcia nie korzystały. Wniosek jest taki, że z systemów wspomagających powinni korzystać przede wszystkim doświadczeni programiści, którzy są w stanie ocenić czy zaproponowany kod jest zgodny z najlepszymi praktykami bezpiecznego kodowania. Mimo pewnych mankamentów, systemy wspomagające programowanie, jeśli właściwe zastosowane, potrafią zwiększyć produktywność programistów, a tym samym obniżyć czas implementacji nowych systemów. Przy okazji warto zauważyć, że jakość generowanego kodu jest zależna od danych, które algorytmy uczenia dostały na wejściu.

Co ciekawe sztuczną inteligencję można wykorzystać także do generacji kodów umożliwiających przeprowadzanie ataków (tzw. eksploitów). Twórcy modeli starają się wprawdzie zabezpieczyć systemy przed tego typu zapytaniami, ale użytkownicy znajdują nowe sposoby na hakowanie sztucznej inteligencji i omijanie mechanizmów ochronnych.[6],[7] Ominięcie mechanizmów ochronnych pozwala także na automatyczne generowanie treści obraźliwych.

W niektórych systemach, w celu ułatwienia interakcji z aplikacją, wykorzystuje się biblioteki konwertujące zapytania w języku naturalnym na wykorzystywany w silnikach baz danych język SQL. Grupa badaczy przeprowadziła testy popularnych bibliotek wykorzystujących modele typu text-to-sql i w efekcie znalazła podatności umożliwiające wygenerowanie złośliwych zapytań, które mogą doprowadzić do nieautoryzowanego dostępu do danych lub odmowy usługi.[8],[9]

Ataki na sztuczną inteligencję (ang. adversarial attacks) w ogóle, nie tylko na modele językowe, stanowią poważny problem. Problem ten jest szczególnie widoczny w przypadku systemów samochodów autonomicznych – czasem wystarczy przyklejenie na znaku odpowiednio spreparowanej naklejki, aby wprowadzić w błąd systemy wspomagania jazdy, powodując np. pomylenie znaku ograniczenia prędkości ze znakiem stop.[10]

Warto zauważyć, że część systemów sztucznej inteligencji nadaje się wprost do wykorzystania w działalności przestępczej. Techniki umożliwiające wygenerowanie sfałszowanego filmu z twarzą wybranej osoby lub podrobienie wypowiedzi są szeroko dostępne i ich zastosowanie nie wymaga aktualnie poniesienia dużych nakładów finansowych. Interesujące przedstawienie problematyki tzw. Deepfakes zawarto w pracy autorstwa Olgi i Sergiusza Wasiutów.[11] Deepfake mogą być szczególnie groźne, jeśli zostaną wykorzystane w atakach sponsorowanych przez rządy państw np. w celu destabilizacji sytuacji geopolitycznej.

Niebezpieczeństwa związane z upowszechnieniem sztucznej inteligencji zauważają także organy ścigania – dobrym punktem odniesienia są tu dwie publikacje wydane przez Europol[12],[13], publikacja wydana w br. dotyczy ChatGPT a ubiegłoroczna Deepfakes. Obie technologie świetnie się nadają do wspomagania ataków socjotechnicznych – ataki „na wnuczka” mogą w najbliższych latach przybrać nowy wymiar.

Z drugiej strony sztuczna inteligencja, a zwłaszcza techniki analizy obrazów, mogą przyczynić się do podniesienia bezpieczeństwa w przestrzeniach publicznych np. w oparciu o systemy monitoringu wizyjnego. Algorytmy sztucznej inteligencji mogą zostać tu wykorzystane do identyfikacji w czasie rzeczywistym podejrzanych osób lub zachowań. W tej materii trwa dyskusja pomiędzy obrońcami prywatności, a zwolennikami zapewniania bezpieczeństwa publicznego niemal za wszelką cenę. Należy odnotować, że pierwszym krajem w Europie, w którym dopuszczono wspomagane przez AI techniki monitoringu jest Francja. W marcu br. została przyjęta stosowana ustawa[14], a 17 maja Trybunał Konstytucyjny potwierdzi jej zgodność z konstytucją.[15] W argumentacji za przyjęciem ustawy szczególnie podkreślano aspekt zabezpieczenia igrzysk olimpijskich w 2024 roku. Co ciekawe, Francja swoją decyzją wyprzedziła pracę nad legislacjami na forum Parlamentu Europejskiego.[16],[17],[18] Decyzję czy jechać do Francji na olimpiadę każdy musi podjąć sam. Monitoring wizyjny w połączeniu z AI może dać rządzącym niespotykane do tej pory możliwości inwigilacji.

Akty prawne regulujące pewne obszary zastosowań metod sztucznej inteligencji z pewnością powinny powstać, ale należy unikać prób nadmiernej ingerencji w rozwój technologii, jednocześnie zapewniając ochronę swobód obywatelskich. Większość ekspertów jest zgodna, że w centrum wszystkich regulacji powinien stać interes każdego człowieka – regulacje powinny być tworzone w duchu humanizmu. Publikacją szczególnie wartą odnotowania jest whitepaper wydany 1 maja br. przez IBM-a.[19] W dokumencie adresowanym do decydentów przedstawiono zwięzłą prezentację potencjału sztucznej inteligencji oraz założenia, którymi wg. IBM-a warto się kierować przy tworzeniu nowych legislacji. Ramy legislacyjne dla systemów sztucznej inteligencji powinny bazować na ocenach ryzyka. W dokumencie przywołano projekty trzech regulacji opracowywanych niezależnie przez UE, Stany Zjednoczone Ameryki Płónocnej (zalecenia NIST) oraz Singapur. W dokumencie nie wymieniono natomiast zaleceń opublikowanych przez brytyjskie ICO.[20]

Przedstawione do tej pory problemy, to tak naprawdę wierzchołek góry lodowej – najgroźniejsze są te zagrożenia, których jeszcze nie zidentyfikowano i o tym należy również pamiętać formułując ramy prawne.

[1] https://openai.com/research/forecasting-misuse

[2] https://openai.com/blog/march-20-chatgpt-outage

[3] https://openai.com/blog/openai-codex

[4] https://github.com/features/copilot/

[5] https://arxiv.org/abs/2211.03622

[6] https://systemweakness.com/using-chatgpt-to-write-exploits-4ac7119977

[7] https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking/

[8] https://arxiv.org/abs/2211.15363

[9] https://thehackernews.com/2023/01/new-study-uncovers-text-to-sql-model.html

[10] https://adversarial-learning.princeton.edu/darts/

[11] https://studiadesecuritate.up.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[12]https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

[13] https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[14] https://www.reuters.com/technology/france-looks-ai-powered-surveillance-secure-olympics-2023-03-23/

[15] https://www.conseil-constitutionnel.fr/actualites/loi-relative-aux-jeux-olympiques-et-paralympiques-de-2024-et-portant-diverses-autres-dispositions

[16] https://www.europarl.europa.eu/news/pl/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[17] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

[18] https://artificialintelligenceact.eu/

[19] https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models

[20] https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Podróż do źródeł czasu. Zegary i synchronizacja w sieci PIONIER i nie tylko

Pokuśmy się o krótkie rozważanie czym jest czas. Dla istot żywych jest to w zasadzie pewne złudzenie, pewne odczucie, pewna intuicja związana z obserwacją zmian w przestrzeni i możliwością określenia kolejności zdarzeń, czyli kolejności zmian stanów przestrzeni. Choć w tym zawężonym sensie można powiedzieć, że czas sam w sobie nie istnieje, to obserwując zmiany w przestrzeni odczuwamy upływ czasu. W celu znormalizowania szybkości jego upływu możemy przykładowo umówić się z innymi istotami na wielkość fizyczną czasu poprzez zdefiniowanie odstępów pomiędzy pewnymi zdarzeniami, których kolejność jesteśmy w stanie rozróżniać.

Nie mam czasu

Czas i przestrzeń są ze sobą powiązane przez prędkość propagacji fal w rozważanym układzie. Fale dobrze nadają się do rozróżniania i układania kolejności zdarzeń, bo mogą one zostać wyemitowane, odbite, zaabsorbowane (odebrane), rozproszone w przestrzeni. W zależności od przyjętego modelu mogą być to np.: fale elektromagnetyczne, akustyczne, grawitacyjne. Częstotliwość, prędkość, pęd, moc, energia są wielkościami, których wyznaczenie może opierać się na wyznaczaniu zmiany częstotliwości lub pomiaru czasu jaki upłynął między pewnymi zdarzeniami. Przykładowo, zmiana częstotliwości emitowanych fotonów lub mikrofal może świadczyć o zmianach pewnych poziomów energetycznych. Możemy mierzyć odchylenia częstotliwości albo możemy mierzyć bezpośrednio czas, jak upłynął od wysłania gdzieś krótkiego sygnału do jego powrotu i w ten sposób wyznaczać odległości, prędkości, a także śledzić ich zmiany.

Prawda czasu i prawda ekranu

Im większej precyzji potrzebujemy w wyznaczeniu wspomnianych parametrów układu, tym lepszymi zegarami musimy dysponować. Przykładowo, wiemy, że Księżyc oddala się od Ziemi o ok. 3,78 cm rocznie. Biorąc pod uwagę jego odległość od Ziemi (ok. 384.000 km), uzyskanie takiej precyzji przez naukowców i inżynierów jest imponujące. Wzorzec częstotliwości jest kluczowym elementem w wielu badaniach naukowych w dziedzinach takich jak właśnie pomiary odległości i prędkości, pomiary okresów obrotów, pomiary fal grawitacyjnych, pomiary częstotliwości kosmicznych źródeł pól elektromagnetycznych i w wielu innych dziedzinach takich jak spektroskopia lub geodezja. Stabilnych źródeł potrzebuje też radioastronomia, np. ośrodek i obserwatorium w Piwnicach pod Toruniem. Im stabilniejsze jest nasze źródło, tym stabilniejsze w czasie sygnały jesteśmy w stanie rozróżniać i badać.

Nie tylko nauka potrzebuje dobrych zegarów. Potrzebuje ich również telekomunikacja, zwłaszcza radiokomunikacja, od sieci radiofonicznych i telewizyjnych począwszy, aż po operatorów 5G. Pokażę to na przykładzie telewizji cyfrowej w standardzie DVB-T/T2. Otóż, stosuje się tam tzw. sieci jednoczęstotliwościowe, których praca polega na tym, że kilka nadajników w obrębie np. tego samego województwa nadaje dokładnie ten sam sygnał na tej samej częstotliwości. Dekoder widzi sumę tych sygnałów, które docierają oczywiście z różnymi opóźnieniami i z różnymi poziomami do anteny. Żeby mógł on uczynić użytek z takiej sumy i żeby kopie tych sygnałów nie stanowiły wzajemnych zakłóceń, wszystkie one powinny być synchroniczne, a odchyłki częstotliwości i różnice w czasach dotarcia odpowiednio małe.

Przepraszam, która godzina?

Dziś do precyzyjnego wyznaczania czasu służą zegary atomowe. Choć są to skomplikowane urządzenia, nie wyświetlają aktualnej daty i godziny. Może się to wydawać zaskakujące, ale nie są do tego przeznaczone. Nie będzie tu ani wskazania czasu lokalnego, ani nawet czasu uzgodnionego międzynarodowo, tzw. czasu (UTC, ang. Universal Time Coordinated), czyli daty i godziny wyliczanej na podstawie wskazań wielu zegarów atomowych z całego świata.

Jako ciekawostkę dodać można, że czas UTC uwzględnia tzw. sekundę przestępną, która jest co jakiś czas dodawana w związku ze zmianami okresów obrotów Ziemi wokół własnej osi i jej spowalnianiem. Tak, niektóre minuty w naszym życiu miały 61 sekund, ostatnia taka była 31 grudnia 2016 r. Docelowo dodawania tej sekundy zostanie prawdopodobnie zaniechane, a dyskusja na ten temat trwa już wiele lat.

Zegary atomowe natomiast mają tylko jedno zadanie: mają być stabilnym wzorcem częstotliwości, najczęściej w postaci sinusoidalnego sygnału elektrycznego o częstotliwości 10MHz. Dodatkowo, niektóre zegary i systemy generują jeszcze sygnał 1PPS składający się z krótkich impulsów nadawanych co sekundę (ang. pulse per second). Niektóre zegary są optyczne, tzn. ich produktem jest określona stabilna długość fali optycznej. Dopiero na podstawie tych okresowych sygnałów z zegarów atomowych można dokonać tzw. realizacji czasu UTC, czyli nadać tym upływającym kolejnym okresom znaczenie w postaci uzgodnionej daty i godziny.

W Polsce przykładowo dysponujemy dwiema ważnymi realizacjami lokalnymi czasu UTC. Jest to realizacja urzędowa UTC(PL) wykonywana przez Główny Urząd Miar, jak i UTC(AOS) wykonywana przez laboratorium PAN w Borówcu. Zgodność z czasem UTC można stwierdzić post factum po czasie ok. półtora miesiąca, nie istnieje bowiem żadna uzgodniona międzynarodowo bieżąca realizacja czasu UTC. Wydaje się, że osoby, które zajmują się wzorcami czasu muszą mieć anielską cierpliwość, bo jak tu porównać ze sobą zegary, które spóźniają się np. o sekundę na miliard lat? Na szczęście nie musimy czekać, aż upłynie pełna sekunda odchylenia. Zbudowano specjalne urządzenia i systemy porównywania sygnałów odniesienia i ich uchybu częstotliwości, które oferują wynik w czasie od kilku minut do kilku tygodni, w zależności od zastosowania i oczekiwanej precyzji. Zmierzone post factum odchyłki UTC(PL) od UTC mieszczą się w granicach kilku nanosekund.

Do dystrybucji danej realizacji czasu UTC do użytkowników końcowych mogą służyć różne systemy. Czas w postaci daty i godziny często jest przesyłany w Internecie za pomocą NTP (ang. Network Time Protocol). W ten sposób synchronizują się nasze telefony i komputery automatycznie.

Zapewne wielu z czytelników kojarzy też zegary ścienne sterowane radiem, zazwyczaj sygnałem DCF77 nadawanym na falach długich (77,5 kHz) spod Frankfurtu nad Menem. Oprócz daty i godziny zakodowanych w sygnale, sama fala nośna też jest stabilna. Choć do celów domowych albo w automatyce przemysłowej jest to rozwiązanie działające doskonale, tak do celów naukowych i wymagających zastosowań technicznych ten sygnał nie jest zbyt dobry, podobnie jak inne nadawane radiowo wzorce częstotliwości, jak np. rosyjski RWM spod Moskwy, czy chiński BPM spod Pucheng w prowincji Fujian. Owszem, są to sygnały długookresowo stabilne, ale w krótkich okresach występują różne zakłócenia i dryft fazy nadawanej sinusoidy, jak i szereg efektów związanych z propagacją w atmosferze ziemskiej. Najlepsze rezultaty dają tutaj łącza światłowodowe, stąd udział Konsorcjum PIONIER w transmisji czasu jest czymś naturalnym.

Dajcie mi więcej czasu

W XX wieku nastąpił gwałtowny rozwój w budowie precyzyjnych źródeł częstotliwości.

Obecnie dysponujemy w zasadzie następującymi precyzyjnymi źródłami, które uszeregowałem według precyzji od najmniejszej do największej:

  • pojedyncze zegary kwarcowe, farmy kwarcowe (wiele oscylatorów kwarcowych z uśrednianiem fazy) lub zegary kwarcowe umieszczone w środowisku o stabilizowanej temperaturze lub zegary z kompensacją temperatury – używane są tam, gdzie jest potrzebna stabilność krótkookresowa lub istotna jest stosunkowo mała cena i rozmiar urządzeń, np.: w miernikach laboratoryjnych, urządzeniach telekomunikacyjnych lub jako komponenty do sterowania zegarami atomowymi,
  • wzorzec atomowy rubidowy – w urządzeniach telekomunikacyjnych, w których ważna jest umiarkowana cena i do tego niewielki rozmiar, ale wymagana jest lepsza stabilność niż zegarów kwarcowych, np. wojskowe stacje radiolokacyjne, wcześniej również satelity były wyposażane w takie zegary, obecnie dzięki miniaturyzacji i stosunkowo niskiej cenie, pasjonaci tacy jak krótkofalowcy albo audiofile używają ich jako odniesienia w swoich domowych instalacjach,
  • wzorzec atomowy cezowy – do synchronizacji całych sieci telekomunikacyjnych jako główny zegar w dużych systemach,
  • maser wodorowy – pasywny i aktywny – używany przez centralne agencje rządowe, np. krajowa realizacja czasu urzędowego UTC(PL) opiera się na maserze aktywnym.

Należy tu przy okazji wymienić fontannę cezową, która jest urządzeniem służącym do korygowania masera wodorowego. Fontanna sprawdza, czy doprowadzony z masera sygnał jest zgodny z definicją sekundy w układzie SI. Tak pozyskana informacja może posłużyć do oceny jakości masera, a pomiar taki zajmuje do kilku tygodni.

Inną kategorią są systemy synchronizacji oparte o czas generowany przez kogoś innego, np. pobierające czas satelitarny z systemów takich jak GPS, Galileo, Glonass – zastosowaniami to będą głównie pomiary terenowe, w tym eksperymenty naukowe z rozproszoną aparaturą naukową (przykładowo projekt LOFAR), pomiary geodezyjne, a także komercyjne serwerownie, stacje radiowe i telewizyjne i ich wozy transmisyjne. Istnieją też urządzenia, które odbierają odniesienie z wielu satelitów wielu systemów i na tej podstawie wyliczają pewną średnią fazę lokalnego oscylatora kwarcowego.

Zasada działania klasycznego zegara atomowego jest prosta do zrozumienia, choć sama implementacja to już wyżyny techniki, zwłaszcza elektroniki. Choć zegary różnią się znacznie użytymi pierwiastkami, częstotliwościami oraz tym jak atomy są wzbudzone, pewne cechy pozostają wspólne. Otóż wyobraźmy sobie, że mamy szklane naczynie z jakimś określonym pierwiastkiem, np. rubidem. Nazwijmy to naczynie lampą, bo ten rubid w środku świeci pięknie na różowo, a nas w zasadzie interesują opary wzbudzonego rubidu. Podgrzewamy i wzbudzamy atomy do pewnych określonych i znanych stanów energetycznych. Wiemy, że atomy rubidu w określonym stanie energetycznym zmieniają ten stan na inny pod wypływem fal elektromagnetycznych o znanej częstotliwości. Ponieważ jest to efekt kwantowy, to ta częstotliwość jest stała i nie zależy (do pewnego stopnia) od takich parametrów, jak wielkość urządzenia, czyli precyzja jego wykonania, temperatura otoczenia, itd. Dalej, w zegarze mamy sterowane źródło przebiegu okresowego, czyli poprzez zmiany napięcia sterującego możemy zwiększać lub zmniejszać częstotliwość przebiegu. Generalnie, to źródło ze względów technicznych ma dość niską częstotliwość, więc potrzebujemy kilku powielaczy częstotliwości, żeby ją podnieść o kilka rzędów wielkości, żeby wejść w zakres, w którym interesująco się zachowują dla nas atomy rubidu. Kierujemy wiązkę fal o tej podwyższonej, ale sterowanej częstotliwości i odpowiednio dobranej mocy na lampę z oparami rubidu. Jeśli atomy te zaczynają reagować na padające fale, np. zaczynają je absorbować, możemy ten stan wychwycić, np. obserwując drobny spadek intensywności światła lampy. I gotowe, mamy stan wstrojenia się w pożądaną częstotliwość. Ten stan trzeba osiągać powoli, stopniowo przemiatając częstotliwości w pobliżu optimum, a potem delikatnie i powoli sterować, żeby się nie zanadto nie odstroić. Pozostaje tylko poprzez układy dopasowujące wygenerować sygnał 10MHz, który będzie synchroniczny z sygnałem z naszego sterowanego źródła częstotliwości.

Zegar rubidowy należy do najstarszych zegarów atomowych. Trudniejsze do skonstruowania, ze względu na wyższe częstotliwości były zegary cezowe, kolejnym etapem rozwoju były masery wodorowe i fontanny cezowe. W uproszczeniu, aktywny maser wodorowy działa w takich sposób, że atomy wodoru zmieniając stan energetyczny generują pole elektromagnetyczne o określonej częstotliwości, które jest wzmacniane za pomocą wnęki rezonansowej, w której atomy się znajdują. W maserach aktywnych na wyjściu jest oscylator kwarcowy, który jest stabilizowany przez maser w długim okresie.

PIONIERzy czasu

Wiele instytucji naukowych i technicznych potrzebuje wysokostabilnych źródeł odniesienia, ale utrzymywanie przez nie własnego zegara atomowego, zwłaszcza aktywnego masera wodorowego, jest kosztowne i wymaga wysokich, specjalistycznych kwalifikacji. Dlatego obserwuje się dziś trend, w którym instytucje poszukują możliwości podłączenia się do dobrych źródeł synchronizacji, lepszych od tańszych wzorców rubidowych, ale jednocześnie bez konieczności zakupów sprzętu.

Tu pojawia się duża szansa dla Konsorcjum PIONIER. Naszym celem jest taka dystrybucja sygnałów czasu w sieci światłowodowej PIONIER, aby uzyskać opóźnienie do kilkunastu pikosekund względem czasu dostępnego w GUM, a także, żeby to opóźnienie było stabilne. Chodzi nam zatem o to, by nie pogorszyć jakości zegara z powodu cech sieci PIONIER.

Główny Urząd Miar posiada aktywny maser wodorowy, z którego przekazuje PIONIERowi elektryczne sygnały 10MHz oraz 1PPS. Konsorcjum PIONIER jest odpowiedzialne za konwersję ich do postaci optycznej oraz dba o niepogorszenie parametrów sygnału na wyjściu z sieci PIONIER. Do transmisji z GUM jest użyte pojedyncze włókno światłowodowe oraz urządzenie stabilizujące sygnał, które kompensuje wpływ zmian opóźnienia w światłowodzie. Na wyjściu otrzymujemy kopię masera wodorowego z dokładnością do kilkudziesięciu pikosekund.

Innym przykładem wykorzystania sieci PIONIER do transmisji wzorcowej częstotliwości jest tzw. wzorcowa częstotliwość optyczna, w której uzyskujemy stabilną długość fali świetlnej w światłowodzie. Źródłem jest tzw. zegar optyczny na Uniwersytecie Mikołaja Kopernika w Toruniu, będący wysokostabilnym, wąskopasmowym laserem, którego światło jest przenoszone synchronicznie do wygodniejszego okna transmisyjnego światłowodu poprzez laser femtosekundowy.

W ramach Konsorcjum PIONIER budujemy system, w którym będziemy korygować odchyłki powstające w wyniku różnych efektów w światłowodach, m.in. związanych ze zmianami temperatury.  W ramach projektu PIONIER-LAB i laboratorium drugiego tego projektu, w MANach (będących konsorcjantami) budowane są tzw. repozytoria czasu. Do nich zostaną doprowadzone światłowodami sygnały 10MHz oraz 1 PPS, których źródłami będą zarówno GUM, jak i laboratorium w Borówcu. W tych MANach będą także zegary zapasowe na wypadek awarii połączenia światłowodowego z maserami. Te lokalne zegary będą rubidowe lub cezowe, decyzje zapadną wkrótce.

W planowanych repozytoriach czasu będą także serwery NTP do dystrybucji daty i godziny. Serwery te będą w dwóch kategorii – stratum 1 w MANach – jako serwery regionalne – oraz stratum 0 – jako serwer główny, który będzie podłączony do odniesienia w GUM.

Wzorce częstotliwości, jakie będą wkrótce dostępne w sieci PIONIER będą najwyższej jakości w Polsce. Stanowi to znaczny postęp względem lokalnych zegarów rubidowych lub cezowych. To duże ułatwienie dla instytucji, które nie będą musiały budować własnych systemów, a wystarczy, że skorzystają z repozytoriów czasu w MANach.

Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

Géant w nowym rozdaniu

Dr inż. Cezary Mazurek, Pełnomocnik Dyrektora IChB PAN ds. PCSS, jest nieustająco zaangażowany w realizację kolejnych projektów GÉANT od roku 2009. Wówczas w projekcie GN3 objął funkcję lidera aktywności związanej z podnoszeniem wiarygodności oprogramowania i budowaniem w społeczności NREN trwałych kompetencji, w zakresie metodologii tworzenia oprogramowania wysokiej jakości. Obecnie pełni rolę koordynatora rozwoju oprogramowania na poziomie zarządzania projektem. Jest też członkiem GÉANT Programme Planning Committee.

Magdalena Baranowska-Szczepańska:  W pierwszych dniach lutego uczestniczył Pan Doktor w zjeździe kierownictwa projektu GN5-1, który odbył się w niderlandzkim Dordrechcie. Jakie najistotniejsze decyzje tam zapadły?

Cezary Mazurek: – Było to bardzo intensywne i bogate w informacje spotkanie. Wzięło w nim udział 75 osób pełniących w projekcie funkcje liderów pakietów roboczych, liderów zadań i koordynatorów. Poza prezentowanymi aspektami technicznymi i organizacyjnymi dla wielu uczestników ważne były również kwestie pozycji i roli projektu w programie Horyzont Europa. Nie dla wszystkich bowiem jest oczywiste, że GÉANT jest postrzegany przez Komisję Europejską jako ekosystem rozwijający się od e-infrastruktury do szerszej inicjatywy wsparcia wspólnej polityki dotyczącej danych. Jednym z najważniejszych wyzwań stojących przed tą edycją projektu jest to, aby wszystkie produkty i usługi projektu były zaprojektowane i opracowane w sposób efektywny oraz zgodny z krajowymi i międzynarodowymi przepisami dotyczącymi prywatności i praw autorskich. Stąd też na spotkaniu wprowadzono m.in. nowy, usprawniony proces zarządzania cyklem życia produktu (Product Lifecycle Management). Zwracano uwagę na właściwy sposób tworzenia i ponownego wykorzystania oprogramowania open source. Szczególny akcent położono na kwestie związane z prywatnością danych.

MBS: Poznańskie Centrum Superkomputerowo-Sieciowe pozostaje niezmiennie liderem w obszarze wsparcia rozwoju oprogramowania. Działania wspierające obejmują szereg aktywności i usług. Które z nich są najważniejsze i co planowane jest w 2023 roku?

CM: – Udział w pakiecie roboczym, dotyczącym zarządzania projektem (WP1) w roli koordynatora, wiąże się ze wsparciem koordynatora projektu w realizacji zadań na szczeblu całego konsorcjum, a jednocześnie z zapewnieniem widoczności efektów i znaczenia prac realizowanych przez PCSS na poziomie wszystkich liderów pakietów roboczych.

Głównym celem tych działań jest podnoszenie jakości oprogramowania powstającego w ramach projektu, przekrojowo we wszystkich aktywnościach. A konkretnie, do naszych aktywności i usług należą m.in. przeglądy kodu, szkolenia programistów, utrzymywanie i rozwój narzędzi programistycznych czy katalog oprogramowania. W tym roku planujemy wdrożyć rozwiązania kontenerowe w oparciu o Kubernetes/Gitlab oraz jeszcze bardziej zwiększyć użycie dobrych praktyk rozwoju oprogramowania w zespołach GÉANT – ze szczególnym nastawieniem na nowych członków zespołów programistycznych. Zadania te realizowane są w pakiecie roboczym “WP9 Wsparcie operacyjne”, gdzie liderem zadania “Software Governance and Support” jest Marcin Wolski. Na wrzesień mamy też do przygotowania raport z przeglądu wszystkich narzędzi software’owych wykorzystywanych w projekcie.

MBS:  W jakich innych aktywnościach projektu GÉANT sieć PIONIER odgrywa istotną rolę?

CM: – W obecnej edycji projektu zakres ten jest bardzo szeroki. Mamy w projekcie lidera całego pakietu roboczego dr Ivanę Golub. Kierowany przez Ivanę “Pakiet roboczy WP6 Rozwój Sieci” dotyczy rozwoju infrastruktury sieciowej, usług i narzędzi monitoringu – stanowi więc jeden z fundamentalnych pakietów zadaniowych projektu. Liderem zadania w tym pakiecie roboczym jest Roman Łapacz z Działu Sieci Nowych Generacji PCSS. Poza tym, w pakiecie “WP4 Above-the-Net Services” liderem zadania dotyczącego rozwoju nowych usług jest Bartosz Idzikowski z Działu Nowych Mediów. Ponadto w kilku strategicznych zadaniach takich jak Policy Engagement czy User and Stakeholder Engagement odpowiadamy za synergię projektu z innymi inicjatywami europejskimi, jak np. DestinE czy EuroHPC. Należy też jeszcze szczególnie podkreślić nasze zaangażowanie w postaci technologicznego partnerstwa przy organizacji, oprawie medialnej oraz transmisji corocznych konferencji The Networking Conference (TNC). Najbliższa odbędzie się w czerwcu w Tiranie.

Rozmawiała Magdalena Baranowska-Szczepańska

 

Kategorie
#Technologie: Aktualności

Wojna w Ukrainie – mija rok

Zacznijmy od kwestii zbrodni wojennych, których definicje można znaleźć w szeregu traktatów, deklaracji i konwencji, w szczególności Rzymskiego Statutu Międzynarodowego Trybunału Karnego i Konwencji Genewskich. Ostatnia z Konwencji Genewskich pochodzi z 1977 roku – wprawdzie w 2005 roku dodano do niej protokół dodatkowy, ale on dotyczy tylko kwestii przyjęcia dodatkowego znaku rozpoznawczego do oznaczania placówek medycznych. W roku 1977 infrastruktura krytyczna w niewielkim stopniu zależała od urządzeń cyfrowych, komputery nie były szeroko rozpowszechnione, nie istniał Internet. Innymi słowy rzeczywistość nie była tak bardzo cyfrowa jak dziś.

Aktualnie hybrydowe lub stricte komputerowe ataki na infrastrukturę krytyczną mogą prowadzić do tragicznych w skutkach awarii i uszkodzeń. Skuteczny cyberatak może doprowadzić do odcięcia dostaw wody, gazu, energii elektrycznej, czyli katastrofy humanitarnej na dużą skalę. Skutki ukierunkowanego cyberataku są porównywalne z atakiem konwencjonalnym. Czy zatem tego typu ataki mogą lub powinny być ścigane tak jak zbrodnie wojenne?  O prawne uregulowanie tej kwestii NATO i firmy technologiczne zabiegają od wielu lat – dość obszerne opracowania w tej tematyce zostały spisane jako tzw. Podręczniki Tallińskie[1]; pierwsza edycja tego dokumentu została wydana w 2013 roku, druga (2.0) w 2017, a obecnie zbierane są materiały do wersji 3.0. Dokument ten podchodzi do tematu bardzo kompleksowo, ale nie stanowi wiążącej wykładni. Istnieje zatem potrzeba, głośno artykułowana m.in. przez Microsoft[2], stworzenia Cyfrowej Konwencji Genewskiej. Wszystko wskazuje na to, że droga do uzgodnienia i przestrzegania takiej konwencji jest daleka. Czy zatem w obecnie obowiązującym kanonie można ścigać cyberataki jako zbrodnie? Formalny apel do Biura Prokuratorów Międzynarodowego Trybunał Karnego (ICC) o zajęcie się tą tematyką wystosowali w 2022 roku eksperci z Human Rights Center na Uniwersytecie Kalifornijskim w Berkeley[3],[4]. Wprawdzie w apelu wskazywano głównie ataki na Ukrainę z 2015 i 2016 roku, ale złożono go w kontekście trwającej wojny. Chodzi o zbieranie przez prokuratorów ICC dowodów zbrodni będących rezultatem cyberataku. Na wiążące decyzje Trybunału trzeba będzie poczekać. Dlaczego piszę o tym teraz? Dlatego, że do zgłoszenia formalnego pozwu do ICC szykuje się rząd Ukrainy[5]. Warto tu jednak zauważyć, że Rosja nie ratyfikowała Statutu Rzymskiego[6], ale zbrodnie są dokonywane na terenie Ukrainy, która uznała jurysdykcję ICC. Na dzień dzisiejszy trudno wyrokować jak te sprawy będą procedowane, ale warto wiedzieć, że kroki zmierzające do unormowania tych kwestii są podejmowane.

Przejdźmy do drugiej kwestii. Na początku lutego zespół CERT-UA oraz CSIRT MON[7],[8] poinformowały o wspólnej akcji, w której zidentyfikowano szereg stron wykorzystywanych do propagacji złośliwego oprogramowania. Strony te podszywały się m.in. pod witrynę Ministerstwa Spraw Zagranicznych Ukrainy oraz Polską Policję. Zainteresowanych odsyłam do ww. publikacji – znajdą tam Państwo dość szczegółowe informacje o sposobie działania grupy przestępczej i wykorzystanego oprogramowania.

Ostatnia kwestia to cyberataki na placówki NATO, które miały miejsce w trzecim tygodniu lutego. Agencje NATO w bardzo ograniczony sposób informują o atakach targetowanych na własną infrastrukturę, ale czasowa niedostępność stron niektórych agencji została odnotowana przez prasę – wg. doniesień medialnych były to ataki DDoS. Najszerszym echem odbiło się zakłócenie pracy sieci organizacji SAC, dostarczającej pomoc humanitarną do Turcji i Syrii; miała ona problemy z łącznością z jednym z samolotów.[1],[2] Ataki są przypisywane grupie Killnet.

[1] https://www.independent.co.uk/news/world/europe/turkey-syria-earthquake-russian-hackers-b2281278.html

[2] https://cyberdefence24.pl/cyberbezpieczenstwo/cyberatak-na-nato-rosyjska-grupa-zaklocila-pomoc-ofiarom-trzesienia-ziemi

 

[1] https://ccdcoe.org/research/tallinn-manual/

[2] https://www.microsoft.com/en-us/cybersecurity/content-hub/a-digital-geneva-convention-to-protect-cyberspace

[3] https://www.wired.com/story/cyber-war-crimes-sandworm-russia-ukraine/

[4] https://cepa.org/article/russian-cyberattacks-need-an-international-criminal-court-response/

[5] https://thehill.com/policy/cybersecurity/3833793-ukraine-enters-uncharted-territory-with-request-to-investigate-russian-cyberattacks-as-war-crimes/

[6] https://demagog.org.pl/analizy_i_raporty/inwazja-rosji-na-ukraine-czy-rosja-odpowie-za-zbrodnie-wojenne/

[7] https://cert.gov.ua/article/3761104

[8] https://cyberdefence24.pl/armia-i-sluzby/walka-z-phishingiem-polska-i-ukraina-polaczyly-sily

Maciej Miłostan

Kategorie
#Technologie: Aktualności

Pomocna dłoń

Ataki rakietowe na infrastrukturę cywilną i związane z nimi przerwy w dostawach energii są obecnie częścią codziennego życia w Ukrainie. Agregaty prądotwórcze są niezbędne do zapewnienia ciągłości funkcjonowania zarządzanej przez URAN sieci; istotnie wpływają też na polepszenie warunków życia samych pracowników URAN.

Za środki przekazane przez Europejskie Sieci Naukowo-Badawcze (NREN), za pośrednictwem fundacji Vietsch („Vietsch Foundation”) przy udziale ALMA S.A. jako partnera komercyjnego, wybraliśmy i zorganizowaliśmy zakup dwóch agregatów prądotwórczych: mobilnego zainstalowanego na przyczepce samochodowej do zasilania węzłów sieci URAN oraz mniejszego agregatu (2 kW) do codziennego użytku. Dodatkowo przekazaliśmy materiały eksploatacyjne.

Pracownicy operatora sieci PIONIER brali bezpośredni udział w wyborze, zakupie i przekazaniu agregatów wskazanej przez stronę ukraińską firmie przewozowej.

W piątek (20 stycznia 2023 roku) przesyłka szczęśliwie dotarła do Kijowa i została odebrana przez kolegów z sieci URAN!

Fot 1. Przygotowanie agregatu – integracja na podwoziu przyczepki samochodowej

 

Fot. 2. Przesyłka przed wyjazdem na Ukrainę

 

Fot. 3. Przesyłka w Kijowie po odbiorze przez URAN

 

Raimundas Tuminauskas 

Kategorie
#Technologie: Aktualności

Uruchomiliśmy nowy portal PIONIER-LAB

Powstała nowoczesna platforma integracji tego typu usług została udostępniona dla jednostek naukowych, przedsiębiorców i wszystkich prowadzących badania naukowe lub prace rozwojowe. Projekt PIONIER-LAB znajduje się na Polskiej Mapie Infrastruktury Badawczej (dawnej Polskiej Mapie Drogowej Infrastruktury Badawczej) i realizowany jest przez Konsorcjum 21 wiodących jednostek naukowo-badawczych oraz uczelni w Polsce. Jego liderem jest Poznańskie Centrum Superkomputerowo-Sieciowe działające przy Instytucie Chemii Bioorganicznej PAN.

Strona PIONIER-LAB jest stylistycznie zgodna z portalem PIONIER i stanowi jego część. W zakładce „Projekty” portalu PIONIER zostało również utworzone przekierowanie do specjalnie zbudowanej w tym roku podstrony poświęconej PIONIER-LAB. Obecnie strona PIONIER-LAB pełni funkcję informacyjną, trwają natomiast prace zespołu projektowego PIONIER-LAB, który przygotowuje portal usługowy. Gdy prace zostaną zakończone, oba portale zostaną ze sobą zintegrowane.

pionier-lab.pionier.net.pl jest pierwszym z szeregu portali projektów PIONIERa. Kolejnym przykładem rozbudowywania portfolio PIONIERa jest portal PIONIER-Q, uruchomiony w styczniu 2023 roku.

Projekt PIONIER-LAB wykracza poza obszar technologiczny i umożliwia prowadzenie badań interdyscyplinarnych. W projekcie budowane są nowe i unikalne laboratoria badawcze, wykorzystujące krajową sieć światłowodową PIONIER. Obecnie z dostępu do sieci PIONIER korzysta około 450 polskich jednostek naukowo-badawczych, a także wielu przedsiębiorców.

To jeden z największych pod względem zasięgu i budżetu projektów infrastrukturalnych w Polsce. Można powiedzieć, że jest to projekt na trzy pokolenia inżynierów i badaczy – mówi Artur Binczewski, koordynator projektu PIONIER-LAB z Poznańskiego Centrum Superkomputerowo-Sieciowego.

W ramach projektu PIONIER-LAB planowane jest utworzenie ośmiu wyspecjalizowanych laboratoriów: Laboratorium Innowacyjnych Technologii Sieciowych, Rozproszone Laboratorium Czasu i Częstotliwości, Smart Kampus jako laboratorium Smart City, Regionalne „Żywe” Laboratoria Innowacji inspirowanych ICT, Laboratorium Usług Chmurowych, Laboratorium Symulacji Wieloskalowych, Laboratorium i usługi e-szkoleń (w zakresie PIONIER-LAB i innowacji inspirowanych technologią) oraz Laboratorium Preinkubacji. W ramach każdego z laboratorów powstanie szereg usług, które w przyszłości zostaną udostępnione poprzez portal PIONIER-LAB.

Różnorodność laboratoriów pozwala prowadzić badania we wszystkich istotnych dla informatyki i telekomunikacji obszarach, jak również wcielać w życie ideę od pomysłu do produktu w ramach utworzonego Laboratorium Preinkubacji – podkreśla Artur Binczewski.

Ułatwi to prowadzenie badań w wielu różnorodnych obszarach nowych technologii takich jak np.: bezpieczny e-handel czy wykorzystanie sieci nowej generacji. Dowodem przydatności budowanej w ramach projektu infrastruktury może być fakt, że liczące się światowe firmy wniosły do niego sprzęt i oprogramowanie na kwotę ponad 140 mln złotych, co stanowi dobry przykład powiązania sektora nauki z gospodarką.

Z rezultatów projektu będą korzystali zarówno polscy naukowcy, jak i przedsiębiorcy. Dodatkowo, wykorzystanie infrastruktury i usług wytworzonych w ramach projektu, ułatwi udział polskim naukowcom w badaniach europejskich. Portal PIONIER-LAB powstał bowiem zgodnie z założeniami otwartej nauki i European Open Science Cloud oraz zasadami FAIR. Za prace nad jego powstaniem odpowiada zespół portalu pionier.net.pl.

Gabriela Jelonek, Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

CLAW Meeting

Było interaktywnie, multimedialnie i zaskakująco, czasem z elementami humorystycznymi, a czasem także wywołującymi w uczestnikach realny stres, ale na tym właśnie polegają takie ćwiczenia. Oprócz regularnych warsztatów na tym dwudniowym spotkaniu można było wziąć udział także w specjalnie przygotowanej, kilkugodzinnej interakcji na żywo.

Pod koniec listopada w przestrzeniach Centrum Badawczego Polskiego Internetu Optycznego w Poznaniu wspólnie szkoliliśmy, omawialiśmy i tworzyliśmy strategie zarządzania kryzysem, odbyliśmy praktyczne ćwiczenia i rozmowy z mediami, i wreszcie – co zawsze jest najbardziej oczekiwanym elementem spotkania – zorganizowaliśmy trzygodzinne ćwiczenie fabularne, odgrywając role w symulowanym środowisku wyimaginowanego europejskiego Królestwa Guilder, pracując dla akademickiej sieci GuilREN…

 

 

W pięciu salach jednocześnie trwały ustalenia grup, których członkowie wcielali się w inżynierów, specjalistów od komunikacji i kierownictwa NRENu. Specjalnie na tę okazję powstały materiały, multimedia i elementy z pogranicza teatru, gry i interaktywnego spotkania, a do jego obsługi powstała specjalna aplikacja dla użytkowników, w której pojawiały się co chwila nowe informacje budujące fabułę kryzysu i spływające nowe dane. W trakcie można było „zadzwonić” do kilku ważnych osób, udzielających dodatkowych informacji (wypowiedzi nagrane wcześniej, którymi umiejętnie sterowali trenerzy grup, były specjalnie przygotowane z efektem dźwiękowym upodabniającym głos do rozmowy telefonicznej).

 

 

Kryzysowi przypatrywali się dziennikarze lokalnej stacji GBN News, która już od czterech lat relacjonuje kryzysy dotykające Guilder. Tym razem na żywo przekazała „breaking news” z aresztowania profesora Congara, a później także sygnalizowała kolejny hakerski atak za pomocą oprogramowania malware w sieci operatora GuilREN.

 

 

Twórcy ćwiczenia i koordynatorzy całej akcji mieli swoje centrum dowodzenia w studio PCSS, gdzie na długim, półkolistym ekranie mogli na żywo podglądać prace wszystkich ćwiczących grup. Co więcej, można było także posłuchać o czym dyskutują i do jakich wniosków dochodzą podczas warsztatów! Ćwiczenie zakończyło się konferencją prasową, z realnymi kamerami, fotografami, mikrofonami skierowanymi w stronę przedstawiających efekty swojej pracy specjalistów PR poszczególnych grup. Czy faktycznie zakończyła się też historia? Absolutnie nie, gdyż przekaz przerwało pojawienie się na TV przekazu zamaskowanej postaci związanej z ekstremistyczną grupą House of Rousing Fire działającą w Guilder, która stała za atakami i nieoczekiwane pojawienie się inspektora policji w budynku w towarzystwie wyposażonego w długą broń policjanta z jednostki antyterrorystycznej…

 

 

Podczas geantowych warsztatów niezwykle cennym doświadczeniem jest wymiana wiedzy i modeli procedur stosowanych w bliźniaczych sieciach akademickich i badawczych. Uczestnicy reprezentujący PIONIERa także mieli okazję wziąć czynny udział w spotkaniu i przekonać się, czy są przygotowani na różne scenariusze postępowania. Choć w ostatnich latach silniej zwracamy uwagę na bezpieczeństwo i skutki nieprzewidzianych, także globalnych, zdarzeń, to zgodnie ze starą maksymą „ćwiczenie tworzy mistrza” warto – choćby raz w roku – uczestniczyć w symulacji, by w prawdziwych warunkach kryzysu umiejętnie tę wiedzę wykorzystać. Wraz z organizatorami mamy nadzieję, że i tym razem kolejna cegiełka do tych kompetencji została skutecznie i owocnie dołożona.

Damian Niemir

Kategorie
#Technologie: Aktualności

Rok działania portalu PIONIER

Portal pionier.net.pl zaczął działać pod koniec grudnia 2021 roku. Już w styczniu 2022 r. rozpoczęliśmy proces aktualizacji dokumentów federacji PIONIER.Id i zasad dołączenia się do niej za pomocą nowej usługi Proxy PIONIER.Id. To wygodne rozwiązanie szczególnie dla tych service providerów, którzy wolą wykorzystywać OpenID Connect zamiast SAML.

Funkcja ta działa od lutego i od tego momentu PIONIER.Id jest podstawową i preferowaną usługą zarządzania tożsamością dla członków Konsorcjum PIONIER. Nowa usługa logowania jest oparta o oprogramowanie Keycloak i SATOSA oraz protokół OAuth 2.0. Usługa „Keyclock PIONIER.Id” została także zarejestrowana w federacji PIONIER.Id.

Wdrożenie logowania opartego o Keycloak pozwoliło na integrację różnych usług z Federacją PIONIER.Id z wykorzystaniem protokołów OIDC (OpenID Connect 1.0 / OAuth2.0). Są to standardy stosowane obecnie na całym świecie. Dotychczas integracja jakiejkolwiek usługi z Federacją PIONIER.Id musiała bazować na o wiele starszym protokole SAML2.0, dla którego wsparcie w przypadku wielu nowych pakietów oprogramowania, zwłaszcza bazujących na technologii web, jest ograniczone lub niedostępne.

Ponadto, dodanie bazującego na Keycloak elementu Proxy do Federacji PIONIER.Id pozwoliło na podniesienie poziomu bezpieczeństwa integrowanych systemów poprzez możliwości zastosowania drugiego czynnika uwierzytelniania opartego o algorytm TOTP – jednorazowe kody generowane przez aplikację zainstalowaną na urządzeniu mobilnym.

Praktycznym przykładem jest testowe podłączenie aplikacji PIONIER meet do federacji PIONIER.Id z wykorzystaniem budowanych w 2022 roku usług Proxy PIONIER,Id. Gdy zakończymy przyjmowanie aktualizacji dokumentacji, rozpoczniemy podłączanie wielu pozostałych usług powiązanych z PIONIERem, np.: PIONIER.TV Ośrodki. Prace zaplanowano na początek 2023 roku.

Jako Konsorcjum nie zostaliśmy też obojętni na to, co dzieje się za naszą wschodnią granicą. Na naszej stronie w widocznym miejscu cały czas opublikowane jest „Stanowisko w sprawie rosyjskiej agresji na Ukrainę”. Konsorcjum PIONIER stanowczo sprzeciwia się wojnie i podejmuje konkretne działania. Na aktualizowanym na bieżąco slajderze można znaleźć odnośniki do analiz i tekstów specjalistów w dziedzinie cyberbezpieczeństwa z Konsorcjum PIONIER, które publikujemy w PIONIER News. Pod naszym logo cały czas wyświetlamy napis „Solidarni z Ukrainą”, który ma przypominać, że wojna w bardzo różnych formach, także cyfrowa, wciąż trwa i nie możemy pozostać obojętni.

Na portalu wdrożyliśmy też zmiany w jego budowie, np.: poprzez dodanie w menu zakładki „Usługi sieciowe”. Zostały w niej opisane usługi transmisji w technologiach DWDM i MPLS. Wprowadziliśmy też zmiany w drzewie usług. Nowością jest usługa PIONIER DMP na bazie aplikacji ARGOS. Nowa aplikacja jest zgodna z wymaganiami EOSC, a nad opracowaniem dedykowanej instancji wraz tłumaczeniem na język polski i stworzeniem logotypu pracował zespół portalu PIONIER. W październiku usługę włączono do ekosystemu portalu PIONIER.

W drzewie usług pojawiła się też usługa RoHub, która pozwala na zarządzanie, przechowywanie i udostępnianie obiektów badawczych. Zespół portalu PIONIER rozwinął również PIONIER.TV, tworząc nowość, jaką jest PIONIER.TV Ośrodki. Publikowane są tam nowe materiały redakcyjne stworzone przez MANy. PIONIER TV Ośrodki zastąpi PLATON TV, a opublikowane już materiały są w trakcie przenoszenia (portal PLATON TV zostanie wygaszony).

W zakładce „Projekty” zostało utworzone przekierowanie do specjalnie zbudowanej w tym roku podstrony poświęconej PIONIER-LAB. Z kolei w zakładce „Współpraca” pojawił się opis projektu OCRE (Open Clouds for Research Environments), który ma na celu przyspieszenie adaptacji chmury otwartej nauki, poprzez zrzeszenie dostawców chmury, organizacji zajmujących się obserwacją Ziemi (eng. EO – Earth Observation) oraz społeczności naukowej i edukacyjnej. Jest to możliwe dzięki gotowym do użycia umowom o świadczenie usług. Usługi oparte na chmurze oferują europejskiej społeczności badawczej bogactwo narzędzi, jednak dla wielu badaczy są one obecnie niedostępne, a odpowiednie usługi trudno znaleźć i wybrać. Dlatego w tym roku zbudowaliśmy także dodatkową podstronę poświęconą European Open Sciene Cloud wraz z listą usług PIONIER związanych z EOSC. Z pewnością wielu osobom ułatwi to nawigację i zorientowanie się w dostępności narzędzi otwartej nauki.

Zmieniliśmy nieco zakładkę „O PIONIERze”, dodając zdjęcia członków Rady Konsorcjum PIONIER i jej Prezydium – z pewnością pomoże to lepiej się poznać, szczególnie tym, którzy wciąż pracują zdalnie czy w trybie hybrydowym. W końcu nasze Konsorcjum, a tym samym portal, budują ludzie. Widzimy, że coraz więcej osób czyta nasze treści i równie chętnie dzieli się swoją wiedzą na łamach PIONIER News. Dziękujemy za pierwszy wspólny rok w nowej odsłonie!

Gabriela Jelonek, Marcin Dąbrowski i zespół portalu pionier.net.pl