Kategorie
#Technologie: Atlas PIONIERa

Laboratorium nr 4

Żyjemy w czasach dynamicznego rozwoju społeczeństwa cyfrowego,  laboratorium czwarte umożliwi np.: badania nad skutecznością nabywania kompetencji cyfrowych przez nauczycieli oraz stanów emocjonalnych z tym związanych.

Mapkę można pobrać, wydrukować i zawiesić w swoim biurze albo prezentować podczas spotkań. Kolejna mapka już w przyszłym numerze.

Pobierz (PDF, 2,13MB):

Damian Niemir, Maciej Rutkowski

Kategorie
Wstępniak

Wspomnienia i połączenia

W życiu Polskiego Internetu Optycznego PIONIER wiele się dzieje. W ostatnią środę maja znów pojawiamy się u Państwa na emailach, by przekazać aktualności, informacje i przypomnieć wydarzenia, o których warto pamiętać. Piękna pogoda sprawia, że zaczynamy myśleć już o wakacjach, ale zanim one nastąpią wielu z nas czeka mnóstwo pracy, delegacji, szkoleń i warsztatów.

W tym gorącym okresie nie zapominajmy o bezpieczeństwie. I właśnie od tego tematu rozpoczynamy dzisiejsze wydanie newslettera. Dr inż. Maciej Miłostan w interesujący sposób przygląda się narzędziom, które są zarówno bardzo użyteczne i otwierają nowe perspektywy w zakresie tworzenia treści czy identyfikacji znanych rozwiązań, ale otwierają także nowe pola do nadużyć.

Na łamach naszego newslettera piszemy również o tym, że na Politechnice Gdańskiej otwarto właśnie nowoczesne Centrum Kompetencji STOS, w którym pracę rozpoczął wyjątkowy superkomputer. Informujemy także o połączeniu sieci LITNET z PIONIERem, które planowane było już od dłuższego czasu oraz o uruchomieniu w sieci PIONIER usługi transmisyjnej, mającej na celu zapewnienie dedykowanego połączenia pomiędzy CERN w Genewie a Narodowym Centrum Badań Jądrowych w Świerku.

Marcin Dąbrowski z kolei w obszernym tekście przygląda się bacznym okiem przeszłości i wybiega w przyszłość, zadając pytanie dotyczące zarządzania i monitoringu sieci, które muszą być wydajne w sytuacji częstych zmian konfiguracji sieci. Mamy dla Państwa także rozmowę z dr. inż. Józefem Janyszkiem, pomysłodawcą nazwy sieci POL-34, który w niezwykle interesujący sposób wspomina dawne czasy i z nadzieją patrzy w przyszłość! Polecamy serdecznie!

Gabriela Jelonek, jak co miesiąc, przygotowała dla Państwa zestaw szkoleń i warsztatów, w których warto wziąć udział oraz opisała w naszym cyklu PROJEKTY PIONIERa Lab4 czyli Regionalne „Żywe” Laboratoria Innowacji Inspirowane ICT, do którego w ATLASIE PIONIERa dołączamy dla Państwa mapkę.

Przypominamy również, że jeśli ktoś z Państwa ma ochotę przysłać nam tekst, podzielić się komentarzem na temat artykułu lub uwagą na temat całego numeru, to serdecznie zapraszamy do kontaktu. Dane do redakcji znajdują się w ostatniej rubryce każdego numeru.

Miłej lektury, przyjemnej pracy i dobrego odpoczynku,
Magdalena Baranowska-Szczepańska

Kategorie
#Technologie: Aktualności

Połączenie do CERN dla NCBJ

Działające w oparciu o zasoby DWDM oraz transmisję MPLS połączenie, zapewni polskim naukowcom dostęp do sieci LHCOPN.

LHCOPN to wysokowydajna infrastruktura sieciowa, łącząca ośrodki klasy Tier0 oraz Tier1, skupione wokół projektu Worldwide LHC Computing Grid (WLCG).

Jego celem jest zapewnienie globalnych zasobów do przechowywania, dystrybucji i analizy danych, generowanych w ramach eksperymentów prowadzonych z wykorzystaniem Wielkiego Zderzacza Hadronów (LHC).

Informacja o polskim ośrodku dołączonym do LHCOPN została zaprezentowana podczas 50-tego spotkania LHCOPN-LHCONE w FZU w Pradze.

Tomasz Szewczyk

Kategorie
#Technologie: Projekty PIONIERa

Regionalne „Żywe” Laboratoria Innowacji Inspirowane ICT

Zainstalowana aparatura umożliwia testowanie projektowanych rozwiązań pod kątem ich efektywności, np.: jak rozwiązania ICT wpływają na poprawę zdobywania umiejętności podczas kształcenia stacjonarnego. Sieciowy charakter platformy, czyli połączenie laboratoriów poprzez sieć światłowodową, pozwala na przeprowadzanie testów na odpowiednio reprezentatywnej grupie.

Celem budowy laboratorium jest stworzenie sieci otwartych przestrzeni dla naukowców i przedsiębiorców, umożliwienie naukowcom, start-upom i MŚP projektowanie, wdrażanie, testowanie i sprawdzanie poprawności nowatorskich rozwiązań oraz umożliwienie badań nad ich weryfikacją oraz oceną przydatności tych rozwiązań ICT. A wszystko to w kontekście dynamicznego rozwoju społeczeństwa cyfrowego, z wykorzystaniem usług sieciowych nowej generacji.

W szczególności, laboratorium czwarte umożliwi np.: badania nad skutecznością nabywania kompetencji cyfrowych przez nauczycieli oraz stanów emocjonalnych z tym związanych. Biorąc pod uwagę skutki pandemii oraz długotrwałej izolacji, a tym samym koszty społeczne i psychiczne jakie ponieśliśmy jako społeczność, a także zmiany jakie na stałe wpisały się w sposób nauczania czy pracy, prowadzenie badań nad skutecznością edukacyjną nowoczesnych metod nauczania, narzędzi i produktów, a w szczególności oceny i walidacji umiejętności nabywanych z wykorzystaniem zaawansowanych technologii, wydaje się być kluczowe. Umożliwia bowiem badania nad atrakcyjnością technologicznych narzędzi edukacyjnych oraz badania nad oceną zaangażowania i motywacji uczniów.

Laboratoria wyposażone zostaną w programowo-sprzętową platformę badawczą do zbierania i analizy danych biometrycznych z urządzeń takich jak eye-trackery, GSR, EEG czy moduły analizy emocji w oparciu o obserwację twarzy badanego. Platforma pozwali między innymi na zintegrowane zbieranie danych biometrycznych z zainstalowanych w przestrzeni laboratoriów sensorów, takich jak: wspomniane eye-trackery, czepki EEG, bransoletki biometryczne, sensory GSR, urządzenia do analizy mimiki i emocji użytkownika.

Poza tym równocześnie ze zbieraniem danych w czasie rzeczywistym możliwa będzie analiza i prezentacja on-line wszystkich danych zbieranych przez oprzyrządowanie. Zapewnienie interfejsu programistycznego dla eksportu w czasie rzeczywistym wszystkich zbieranych w systemie metryk, pozwoli na synchronizację względem globalnego czasu wszystkich zbieranych danych (ang. Time stamping).

Gabriela Jelonek

Kategorie
#Ludzie: Aktualności

Współpraca i szkolenia międzynarodowe w czerwcu

W ramach szeregu współprac EOSC i Internet2 w czerwcu odbywają się różne międzynarodowe szkolenia, webinaria i kursy, które przedstawiamy poniżej.

Oto spis:

1 czerwca

GN5-1/GN5-IC1/GN4-3N PMB (online)

GPPC Meeting (online)

5 czerwca

TNC23 new (Tirana, Albania i online)

GÉANT General Assembly 30 (Tirana, Albania i online)

Security Day 2023 (Tirana, Albania i online)

Standing on the shoulders of giants: How new and exciting T&I services originate from eduroam and eduGAIN (Tirana, Albania i online)

Workshop: GÉANT Cloud Framework (Tirana, Albania i online)

Workshop: From Zero to Orchestrated (Sheshi Italia 2, Tirana, Albania i online)

TF-EDU: Strategy meets reality: NRENs’ educational services strategic planning and implementation (Tirana, Albania i online)

TNC23 Speakers’ Reception (Restaurant Pergola, Tirana International Hotel)

6 czerwca

TNC23 Side Meeting – Future directions for NRENs in Open Science (Tirana, Albania i online) 

TNC23 Side Meeting: Building a future talent pool: recruiting & retaining talented people ( Tirana, Albania – Rogner Hotel, Paris room )

8 czerwca

FileSender meeting at TNC23 (Tirana, Albania i online)

Global Cloud Activity Exchange (Tirana, Albania i online)

9 czerwca

REFEDS (Tirana, Albania i online)

Automation with Cisco Network Services Orchestrator (Tirana, Albania i online)

R&E Network updates (Tirana, Albania  i online)

Joint EGI-GÉANT Workshop on eHealth (TNC23, Tirana, Albania i online)

TNC23 Workshop: Joining NRENs’ forces and spending power towards a sustainable future (Tirana, Albania )

14-16 czerwca

EUNIS23 Congress (Vigo,Hiszpania, płatne)

IAM Online, InCommon Academy (online, płatne)

20 czerwca

GÉANT International Infoshare (online, tylko dla członków GÉANT)

21 – 22 czerwca

e-IRG Workshop under Swedish EU Presidency (Malmö, Szwecja)

Quantum Solutions (online, tylko dla członków GÉANT)

26 czerwca

Virtual Residency Introductory Workshop 2023 (online)

26-30 czerwca

EUDAT Summer School 2023 (Kajaani, Finlandia)

28 czerwca

Intercontinental Connectivity Workshop (online, tylko dla członków GÉANT)

Gabriela Jelonek

Kategorie
#Technologie: Aktualności

Software-Defined Networks, czyli marsz w przyszłość

Raz kupione urządzenia obsługiwały konkretne standardy i służyły wiele lat stanowiąc pewnego rodzaju wyspę technologiczną. Owszem, protokoły dynamicznego routingu (czyli wyznaczania tras pakietów) istniały w wyższej warstwie sieciowej, ale w warstwie łącza danych mieliśmy najczęściej sytuację „na sztywno”, gdzie każda ważniejsza zmiana wymagała wizyty inżyniera w pomieszczeniu aparatury. Umowy z klientami usług obowiązywały na stosunkowo długie okresy kilku lat, żeby inwestycje w sprzęt i te „wyspy” czy inne „silosy” finansowo i moralnie się zamortyzowały w czasie trwania umów.

Przez lata znacząco wzrósł ruch w sieciach. Rośnie nie tylko szybkość transmisji, ale przede wszystkim liczba węzłów sieci, liczba włókien, liczba wykorzystanych długości fal nośnych i konieczność połączenia w jednym światłowodzie wielu technologii transmisyjnych. Obecnie, w dobie komunikacji 5G i Internetu rzeczy wymagania rosną i konieczne jest stosowanie również połączeń typu punkt-wiele punktów. Stosuje się podział włókien światłowodowych pomiędzy wiele rozłącznych transmisji w różnych standardach i trybach, np. z podziałem czasu (TDM) lub długości fali (CWDM, DWDM). Zarządzanie i monitoring sieci muszą być wydajne w sytuacji częstych zmian konfiguracji sieci. Czyli potrzebujemy elastyczności i skrócenia czasu od pomysłu, przez fazę proof-of-concept, a później gotowego rozwiązania produkcyjnego.

Skoro wszystko jest software-defined, to sieci światłowodowe też

Współczesny świat zmierza do separowania infrastruktury usługodawcy od odbiorcy. Trendy są takie, że klient nie musi znać się na sposobie realizacji usługi w niższych warstwach. A dostawca chce mieć jeden centralnie zarządzany system dla zapewnienia punktów styku dla wszystkich klientów. Nikt już nie chce autonomicznych wysp technologicznych budowanych tylko dla jednego klienta. Zasada ta obowiązuje w wielu dziedzinach życia, nie tylko w telekomunikacji, ale też choćby w rozwiązaniach chmurowych.

Można powiedzieć, że obszar software-defined, czyli rozwiązań budowanych za pomocą zmiany konfiguracji lub wgrania nowego oprogramowania w miejsce wymiany sprzętu, ma w telekomunikacji dwie główne odnogi. Jedna to Software-Defined Radio (SDR). Dostawcy często tworzą uniwersalną platformę sprzętową odpowiedzialną za część analogową i działającą w szerokim zakresie częstotliwości radiowych. Chodzi o wzmacniacze niskoszumne (odbiorniki) lub mocy (nadajniki), interfejsy antenowe, przemianę częstotliwości i filtrację. Natomiast modulację lub demodulację cyfrową wraz z ramkowaniem i korekcją błędów przenosi się w dziedzinę oprogramowania. Takie urządzenie może obsługiwać wiele standardów cyfrowych jednocześnie bez konieczności inwestowania w nową platformę sprzętową. W szybko zmieniającym się świecie aktualizacji standardów dostępów radiowych rozwiązanie zwiększa elastyczność, bo zmniejsza koszty i skraca czas od pomysłu do uruchomienia pilotażowej usługi.

Ale nie tylko komunikacja radiowa wpadła na ten pomysł. W dziedzinie sieci światłowodowych spotykamy się z Software-Defined Networks (SDN). Można powiedzieć, że SDN jest ważnym założeniem, paradygmatem budowy nowych sieci optycznych. Rosnąca liczba wariantów transmisji, liczby klientów i skracanie czasu uruchomienia usługi powoduje, że rośnie problem zarządzania sieciami i elastycznością w zmianach konfiguracji. Trzydzieści lat temu raz uruchomiony system światłowodowy pracował latami, aż do kolejnej inwestycji w sprzęt nowszej generacji. Dziś jest to dalece niewystarczające. Wraz ze wzrostem stopnia skomplikowania konfiguracji sieci, zarządzanie nimi ręcznie staje się zbyt mało wydajne. Potrzebne są szybkie rozwiązania dla różnych małych projektów, eksperymentów, małych usług. Mamy potrzebę większej zwinności. Kluczowym elementem SDN jest konfiguracja, a w trakcie użytkowania, automatyzacja przepływu danych.

W SDN izoluje się samo zarządzanie siecią od ruchu sieciowego użytkowników sieci. Z punktu widzenia użytkownika, topologia sieci, często stosunkowo skomplikowana, jest niewidoczna i niemożliwa do ustalenia z poziomu klienta, a sam klient nie musi być informowany o zmianach, np. przełączeniach awaryjnych lub innych rekonfiguracjach, o ile zapewniona jest umowna wydajność.

Orkiestracja i już wszystko gra na płaszczyznach

Absolwentom szkół muzycznych orkiestracja kojarzy się zapewne z rozpisaniem utworu na poszczególne instrumenty i procesem tworzenia partytury. Robi to kompozytor albo aranżer. Cóż, dobry inżynier też powinien być artystą w swoim fachu. Nam orkiestracja kojarzy się jednak z zarządzaniem. Otóż łatwo powiedzieć o nowym paradygmacie i roztaczać piękne wizje SDN. Ale praktyka wymaga standaryzacji i rozpisania ról poszczególnych modułów systemu, aby rozwiązania od wielu dostawców były kompatybilne.

W SDN wprowadzono pojęcie płaszczyzn (planes), których rozróżniamy zasadniczo trzy. Mamy płaszczyznę biznesową/aplikacyjną, czyli warstwę określenia wymagań funkcjonalnych. Implementuje się ją zazwyczaj jako moduł oprogramowania orkiestratora, w którym administratorzy określają co chcą osiągnąć i za pomocą jakich środków. Orkiestrator to najwyżej położona część systemu, w której definiuje się usługi, usługobiorców i dochodzi do ich opisu w formie metadanych. Następną płaszczyzną jest pośrednia płaszczyzna kontrolera sieci. W tej płaszczyźnie zarządza się zasadami przepływów danych realizowanych przez urządzenia sieciowe. Wreszcie mamy płaszczyznę przetwarzania strumieni danych użytkownika realizowaną przez same urządzenia sieciowe, do których doprowadzone są światłowody. Większość z nich to będą przełączniki, które obsługują SDN. Płaszczyzny w SDN komunikują się przez uzgodnione interfejsy i implementacje tych płaszczyzn mogą w założeniu pochodzić od różnych dostawców, choć oczywiście są i tacy dostawcy, którzy oferują pełen stos protokołów i rozwiązane „z półki”. Niektórzy dostawcy, dostarczają wszystkie moduły, od przełączników, aż do orkiestratora. Ale są też dostawcy specjalizujący się w wybranych polach, np. dostarczają same przełączniki albo same orkiestratory.

W założeniu, dzięki standaryzacji, operator dużej sieci może kupić „czyste” urządzenia, które dopiero podpięte zostaną pod system kontrolera, a on do systemu orkiestracji, który to zleci odpowiedniej usłudze wygenerowanie konfiguracji do urządzeń, a także zadba o ich wdrożenie w sieci. W ten sposób można zmienić sieć bez fizycznego dostępu do urządzeń.

Protokół jak piosenka, jest dobry na wszystko

Kluczem do sukcesu każdej technologii jest standaryzacja. W SDN przełączniki różnych dostawców powinny docelowo obsługiwać te same standardy, aby moduły zarządzające mogły w prosty sposób generować dla nich konfiguracje. W przeciwnym razie będą budowane wyspy technologiczne danych dostawców gotowych rozwiązań, a integracje pomiędzy tymi wyspami będą bardzo drogie, choć w obrębie danej wyspy SDN będzie realizowane. W telekomunikacji, jeśli trzeba coś ustandaryzować, zazwyczaj kończy się to powstaniem uznanego w branży protokołu, czyli opisu sposobu wymiany danych.

W SDN najbardziej popularny protokół to OpenFlow. Przypisuje się go do warstwy drugiej (łącza danych). Jest protokołem sterowania przepływami, które rozumie się jako strumienie pakietów o pewnych cechach. Na podstawie tzw. tabeli przepływów, dobiera się odpowiedni scenariusz działania dla nadchodzącego od klienta pakietu, np. przekierowanie go na odpowiedni port odpowiedniego urządzenia. OpenFlow umożliwia automatyczne przełączanie tras na podstawie odświeżanej na bieżąco tabeli przepływów w sieci. Trasy mogą być programowane za pomocą poleceń protokołu. Protokół może sterować różnymi parametrami transmisji, np. długością fali w DWDM. Umożliwia także wyliczanie tras, czyli określania węzłów, przez które przepłyną dane klienta. Protokół służy też do konfigurowania i monitorowania urządzeń. Zapewnione są różne miary QoS (Quality of Service) takie jak bitowa stopa błędów, stosunek sygnału do szumu i uogólnione współczynniki jakości. Można powiedzieć, że protokół OpenFlow pośredniczy pomiędzy płaszczyzną zarządzania, a płaszczyzną transmisji danych.

Przełączniki SDN, czyli kto odwali robotę?

Częścią wykonawczą w SDN, działającą w najniższej płaszczyźnie, czyli elementem, który ma styczność z danymi klienta, są przełączniki SDN. Zarządzanie przełącznikiem obsługującym OpenFlow polega na tworzeniu, usuwaniu i modyfikowaniu przepływów wzdłuż ścieżki przepływu danych. Przełącznik, fizyczny lub wirtualny (jako proces uruchomiony na większym urządzeniu), zawiera szereg tabel przepływów oraz zestaw instrukcji (akcji). Wpisy w tabelach przepływów służą do weryfikacji spełnienia pewnych warunków przez nadchodzące pakiety. Potem dochodzi do poddania tych pakietów pewnym akcjom zdefiniowanym w zestawie instrukcji. Te tabele przepływów i akcje mogą być na bieżąco zmieniane i monitorowane przez kontroler sieci.

Przełączniki SDN obsługują najczęściej protokół OpenFlow za pomocą połączenia SSL i TCP/IP. W tym sensie protokół wymaga warstwy trzeciej na interfejsie zarządczym do zarządzania przepływami w warstwie drugiej na innych swoich interfejsach.

Panie, a kto się tym zajmie?

Korzenie standaryzacji sięgają jeszcze roku 1995, kiedy Sun Microsystems zapoczątkował prace w ramach Java Open Networking Foundation (OFN). Były to początki protokołu OpenFlow. Prace były prowadzone były m.in. na Uniwersytecie Stanforda i Indiana University, a pierwsza wersja protokołu powstała w 2009 r. Obecnie dużą rolę odgrywa organizacja Open Networking Foundation (https://opennetworking.org). Jest społecznością stanowiącą parasol nad różnymi projektami standaryzacji rozwiązań software-defined, w tym SDN. Zajmuje się także certyfikacją zgodności z protokołem OpenFlow współpracując z akredytowanymi laboratoriami testującymi. W rozwój SDN zaangażowany jest też wielki biznes. W pracach nad implementacją protokołu uczestniczą Cisco, Hewlett-Packard, IBM, Juniper Networks, Dell, Google i wiele innych czołowych dostawców technologii.

Do pracy, rodacy!

Stosowanie SDN ma dużo zalet, wśród nich przypomnijmy możliwość wydajnego, centralnego i zwinnego zarządzania całą siecią przez zespół administratorów oraz możliwość stosowania mechanizmów automatycznej rekonfiguracji. Skraca się czas prowadzenia faz proof-of-concept i wdrożenia usługi. Zalety SDN ujawniają się najsilniej tam, gdzie spotykają się strumienie danych od różnych klientów i w różnych technologiach. Jest to właśnie przypadek sieci PIONIER. Zatem SDN to przyszłość PIONIERa.

Marcin Dąbrowski

Kategorie
#Technologie: Aktualności

Połączenie z siecią LITNET

Stało się to możliwe m.in. dzięki wsparciu krajów skandynawskich, które w 1991 roku sfinansowały pierwsze międzynarodowe satelitarne połączenie z Uniwersytetem w Oslo. Dziś LITNET to konsorcjum 5 największych uniwersytetów Litwy – dostarcza usługi sieci naukowej dla całego litewskiego środowiska naukowego, które realizowane są na bazie infrastruktury światłowodowej łączącej również sąsiednie kraje Unii Europejskiej.

Połączenie sieci LITNET z PIONIERem planowane było od dłuższego czasu. Sposób budowy i dalszy rozwój wyznaczono w ramach działań w koordynowanym przez PCSS projekcie „Porta Optica”, realizowanym w latach 2005-2007.

Połączenie wykonano z wykorzystaniem budowanej wówczas infrastruktury światłowodowej sieci PIONIER relacji: Gdańsk – Olsztyn – Suwałki – Białystok – Warszawa, w postaci odgałęzienia z Suwałk do Ogrodnik. Infrastrukturę światłowodową do granicy obu krajów zrealizowano ostatecznie w roku 2013. Wtedy też uruchomiono transmisję w technologii DWDM z przepływnością10 Gbps.

To bezpośrednie połączenie umożliwiło szerszą współpracę środowisk naukowych w Polsce i na Litwie, a także we wszystkich krajach bałtyckich. Połączenie wykorzystywane jest też na potrzeby sieci GÉANT – transmisja do krajów bałtyckich.

W roku 2019 połączenie zostało zmodernizowane, umożliwiając realizację wielu kanałów 10 Gbps oraz dostarczania usług spektrum. Umożliwiło to prowadzenie badań z zastosowaniem zaawansowanych metod transmisji czy transmisji sygnałów kwantowych. Infrastruktura wykorzystana jest do współpracy w badaniach naukowych z Litewskim Laboratorium Standardów Czasu i Częstotliwości przy Centrum Fizycznych Nauk i Technologii w Wilnie.

Kolejna modyfikacja nastąpiła w roku 2022 – zwiększono liczbę bezpośrednich połączeń na poziomie włókien światłowodowych. Trwają prace nad realizacją transferu czasu i częstotliwości z wykorzystaniem dedykowanych włókien światłowodowych.

Historia współpracy pomiędzy sieciami PIONIER i LITNET potwierdza korzyści płynące z wykorzystania bezpośrednich połączeń transgranicznych. Umożliwiają one elastyczną adaptację sieci do rosnących wymagań środowiska naukowego.  Połączenia te umożliwiają realizację transmisji z dużymi przepływnościami wspomagającymi efektywną współpracę naukowców sąsiednich krajów, szczególnie w obszarze obliczeń wielkiej skali, a także precyzyjną synchronizację czasu i częstotliwości oraz połączeń kwantowych. Łącznie z infrastrukturą sieci zrealizowaną przez GÉANT w projekcie GN4-3N, trasa będzie najkrótszą drogą do centrum obliczeniowego LUMI w Finlandii.

Raimundas Tuminauskas

Kategorie
#Technologie: Aktualności

Sztuczna inteligencja a bezpieczeństwo

Powszechna fascynacja udostępnioną technologią spowodowała, że użytkownicy zaczęli znajdować coraz to nowe zastosowania dla ChatGPT. Jednakże prowadząc konwersację ze sztuczną inteligencją, na fali powszechnej euforii, nie wszyscy zastanawiali się, co będzie się działo z danymi, które w trakcie „rozmowy” wprowadzą do systemu. W szczególności, czy i jak system te dane wykorzysta. W efekcie, system został zasilony fragmentami poufnych kodów czy dokumentów do użytku wewnętrznego. Co istotne, fragmenty tych dokumentów mogą się pojawić w odpowiedziach na zapytania innych użytkowników. Problem ten dobrze obrazuje wyciek danych Samsunga[1], który nastąpił zaledwie 20 dni po tym jak korporacja zniosła zakaz korzystania przez pracowników z ChatGPT. Zakaz był uprzednio wprowadzony właśnie po to, by chronić firmowe dane. Notabene, na początku maja zakaz w Samsungu został przywrócony. Pamiętajmy, aby chronić nasze dane. Ponadto, korzystając z modeli sztucznej inteligencji weźmy pod uwagę, że wykorzystywane do stworzenia modeli dane wejściowe, przykłady uczące, nie są idealne i mogą być stronnicze (ang. bias), co przekłada się na generowane odpowiedzi. Nie dajmy się zmanipulować.

[1] https://cybernews.com/news/chatgpt-samsung-data-leak/

Narzędzia takie jak ChatGPT są bez wątpienia bardzo użyteczne i otwierają nowe perspektywy w zakresie tworzenia treści czy identyfikacji znanych rozwiązań, ale otwierają też nowe pola do nadużyć. Przy czym nie mam tu na myśli automatycznego pisania prac zaliczeniowych czy znajdowania odpowiedzi do testów on-line, ale wykorzystanie sztucznej inteligencji do prowadzenia kampanii dezinformacyjnych czy ataków spersonalizowanych. Dzięki sztucznej inteligencji personalizacja ataku może zostać dokonana w sposób co najmniej półautomatyczny. Firma OpenAI jest świadoma potencjalnych nadużyć i wspólnie ze środowiskami akademickimi stara się informować o zagrożeniach wynikających z dostępności zaawansowanych modeli językowych i próbuje proponować środki zaradcze. Zachęcam do zapoznania się z raportem podejmującym tę tematykę opublikowanym na stronie OpenAI.[1]

Korzystając z serwisów on-line, a w szczególności je tworząc, warto pamiętać o stosowaniu klasycznych zabezpieczeń IT i należytym testowaniu wdrażanych rozwiązań. Niestety, w tym zakresie dostawca ChatGPT poległ – zaledwie parę miesięcy po udostępnieniu portalu doszło do wycieku danych części użytkowników, w tym danych kart kredytowych.[2] Trzeba przyznać, że firma podeszła do problemu w sposób możliwie transparentny i otwarcie poinformowała o incydencie. Sztuczna inteligencja na ten moment sama nie wdroży dobrych praktyk.

Wśród wielu pomysłów na wykorzystanie modeli językowych pojawiły się również koncepcje automatycznego generowania kodu lub poprawiania kodu. Jedną z takich platform jest Codex[3] zintegrowany również z GitHub-em jako Copilot[4], czyli system, który biorąc pod uwagę kontekst przedstawionego kodu proponuje jego uzupełnienia. Codex potrafi też generować nowy kod na podstawie opisu w języku naturalnym. Czy taki kod jest równie bezpieczny jak napisany przez doświadczonego programistę? M.in. na to pytanie odpowiada praca przygotowana przez naukowców ze Stanford.[5] Odpowiedź niestety nie jest pozytywna – z przeprowadzonego eksperymentu wynika, że osoby korzystające z mechanizmów wspomagających pisały znacząco mniej bezpieczny kod, jednocześnie mając wyższe poczucie, że piszą dobry (bardziej bezpieczny) kod niż osoby, które ze wsparcia nie korzystały. Wniosek jest taki, że z systemów wspomagających powinni korzystać przede wszystkim doświadczeni programiści, którzy są w stanie ocenić czy zaproponowany kod jest zgodny z najlepszymi praktykami bezpiecznego kodowania. Mimo pewnych mankamentów, systemy wspomagające programowanie, jeśli właściwe zastosowane, potrafią zwiększyć produktywność programistów, a tym samym obniżyć czas implementacji nowych systemów. Przy okazji warto zauważyć, że jakość generowanego kodu jest zależna od danych, które algorytmy uczenia dostały na wejściu.

Co ciekawe sztuczną inteligencję można wykorzystać także do generacji kodów umożliwiających przeprowadzanie ataków (tzw. eksploitów). Twórcy modeli starają się wprawdzie zabezpieczyć systemy przed tego typu zapytaniami, ale użytkownicy znajdują nowe sposoby na hakowanie sztucznej inteligencji i omijanie mechanizmów ochronnych.[6],[7] Ominięcie mechanizmów ochronnych pozwala także na automatyczne generowanie treści obraźliwych.

W niektórych systemach, w celu ułatwienia interakcji z aplikacją, wykorzystuje się biblioteki konwertujące zapytania w języku naturalnym na wykorzystywany w silnikach baz danych język SQL. Grupa badaczy przeprowadziła testy popularnych bibliotek wykorzystujących modele typu text-to-sql i w efekcie znalazła podatności umożliwiające wygenerowanie złośliwych zapytań, które mogą doprowadzić do nieautoryzowanego dostępu do danych lub odmowy usługi.[8],[9]

Ataki na sztuczną inteligencję (ang. adversarial attacks) w ogóle, nie tylko na modele językowe, stanowią poważny problem. Problem ten jest szczególnie widoczny w przypadku systemów samochodów autonomicznych – czasem wystarczy przyklejenie na znaku odpowiednio spreparowanej naklejki, aby wprowadzić w błąd systemy wspomagania jazdy, powodując np. pomylenie znaku ograniczenia prędkości ze znakiem stop.[10]

Warto zauważyć, że część systemów sztucznej inteligencji nadaje się wprost do wykorzystania w działalności przestępczej. Techniki umożliwiające wygenerowanie sfałszowanego filmu z twarzą wybranej osoby lub podrobienie wypowiedzi są szeroko dostępne i ich zastosowanie nie wymaga aktualnie poniesienia dużych nakładów finansowych. Interesujące przedstawienie problematyki tzw. Deepfakes zawarto w pracy autorstwa Olgi i Sergiusza Wasiutów.[11] Deepfake mogą być szczególnie groźne, jeśli zostaną wykorzystane w atakach sponsorowanych przez rządy państw np. w celu destabilizacji sytuacji geopolitycznej.

Niebezpieczeństwa związane z upowszechnieniem sztucznej inteligencji zauważają także organy ścigania – dobrym punktem odniesienia są tu dwie publikacje wydane przez Europol[12],[13], publikacja wydana w br. dotyczy ChatGPT a ubiegłoroczna Deepfakes. Obie technologie świetnie się nadają do wspomagania ataków socjotechnicznych – ataki „na wnuczka” mogą w najbliższych latach przybrać nowy wymiar.

Z drugiej strony sztuczna inteligencja, a zwłaszcza techniki analizy obrazów, mogą przyczynić się do podniesienia bezpieczeństwa w przestrzeniach publicznych np. w oparciu o systemy monitoringu wizyjnego. Algorytmy sztucznej inteligencji mogą zostać tu wykorzystane do identyfikacji w czasie rzeczywistym podejrzanych osób lub zachowań. W tej materii trwa dyskusja pomiędzy obrońcami prywatności, a zwolennikami zapewniania bezpieczeństwa publicznego niemal za wszelką cenę. Należy odnotować, że pierwszym krajem w Europie, w którym dopuszczono wspomagane przez AI techniki monitoringu jest Francja. W marcu br. została przyjęta stosowana ustawa[14], a 17 maja Trybunał Konstytucyjny potwierdzi jej zgodność z konstytucją.[15] W argumentacji za przyjęciem ustawy szczególnie podkreślano aspekt zabezpieczenia igrzysk olimpijskich w 2024 roku. Co ciekawe, Francja swoją decyzją wyprzedziła pracę nad legislacjami na forum Parlamentu Europejskiego.[16],[17],[18] Decyzję czy jechać do Francji na olimpiadę każdy musi podjąć sam. Monitoring wizyjny w połączeniu z AI może dać rządzącym niespotykane do tej pory możliwości inwigilacji.

Akty prawne regulujące pewne obszary zastosowań metod sztucznej inteligencji z pewnością powinny powstać, ale należy unikać prób nadmiernej ingerencji w rozwój technologii, jednocześnie zapewniając ochronę swobód obywatelskich. Większość ekspertów jest zgodna, że w centrum wszystkich regulacji powinien stać interes każdego człowieka – regulacje powinny być tworzone w duchu humanizmu. Publikacją szczególnie wartą odnotowania jest whitepaper wydany 1 maja br. przez IBM-a.[19] W dokumencie adresowanym do decydentów przedstawiono zwięzłą prezentację potencjału sztucznej inteligencji oraz założenia, którymi wg. IBM-a warto się kierować przy tworzeniu nowych legislacji. Ramy legislacyjne dla systemów sztucznej inteligencji powinny bazować na ocenach ryzyka. W dokumencie przywołano projekty trzech regulacji opracowywanych niezależnie przez UE, Stany Zjednoczone Ameryki Płónocnej (zalecenia NIST) oraz Singapur. W dokumencie nie wymieniono natomiast zaleceń opublikowanych przez brytyjskie ICO.[20]

Przedstawione do tej pory problemy, to tak naprawdę wierzchołek góry lodowej – najgroźniejsze są te zagrożenia, których jeszcze nie zidentyfikowano i o tym należy również pamiętać formułując ramy prawne.

[1] https://openai.com/research/forecasting-misuse

[2] https://openai.com/blog/march-20-chatgpt-outage

[3] https://openai.com/blog/openai-codex

[4] https://github.com/features/copilot/

[5] https://arxiv.org/abs/2211.03622

[6] https://systemweakness.com/using-chatgpt-to-write-exploits-4ac7119977

[7] https://www.wired.com/story/chatgpt-jailbreak-generative-ai-hacking/

[8] https://arxiv.org/abs/2211.15363

[9] https://thehackernews.com/2023/01/new-study-uncovers-text-to-sql-model.html

[10] https://adversarial-learning.princeton.edu/darts/

[11] https://studiadesecuritate.up.krakow.pl/wp-content/uploads/sites/43/2019/10/2-1.pdf

[12]https://www.europol.europa.eu/publications-events/publications/chatgpt-impact-of-large-language-models-law-enforcement

[13] https://www.europol.europa.eu/media-press/newsroom/news/europol-report-finds-deepfake-technology-could-become-staple-tool-for-organised-crime

[14] https://www.reuters.com/technology/france-looks-ai-powered-surveillance-secure-olympics-2023-03-23/

[15] https://www.conseil-constitutionnel.fr/actualites/loi-relative-aux-jeux-olympiques-et-paralympiques-de-2024-et-portant-diverses-autres-dispositions

[16] https://www.europarl.europa.eu/news/pl/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[17] https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

[18] https://artificialintelligenceact.eu/

[19] https://newsroom.ibm.com/Whitepaper-A-Policymakers-Guide-to-Foundation-Models

[20] https://ico.org.uk/for-organisations/guide-to-data-protection/key-dp-themes/guidance-on-ai-and-data-protection/

Maciej Miłostan

Kategorie
#Ludzie: Kartka z kalendarza

Pomysłodawca nazwy POL-34: to był impuls!

Doktor nauk ekonomicznych, inżynier elektronik, specjalista od maszyn cyfrowych – Józef Janyszek przez wiele lat kierował Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej. W 1984 – 1992 dyrektor Ośrodka Obliczeniowego Politechniki Wrocławskiej, następnie zastępca dyrektora CI PW. Współtwórca Międzyuczelnianej Sieci Komputerowej – MSK, Krajowej Akademickiej Sieci Komputerowej – KASK (ich budowa była koordynowana przez Politechnikę Wrocławską). Wieloletni członek Rady Konsorcjum PIONIER, dziś zajmuje miejsce w Klubie PIONIERa, spotyka się z słuchaczami uniwersytetów trzeciego wieku (zdjęcie jest właśnie z jednego z takich spotkań) i wyjaśnia kwestie nowoczesnych technologii.

Magdalena Baranowska-Szczepańska: 1 czerwca 1997roku uruchomiono szerokopasmową sieć naukową POL-34, która połączyła wszystkie MANy. Jest Pan Doktor pomysłodawcą nazwy tej sieci. Skąd pomysł na taką właśnie nazwę? Czy zaprezentowanie jej na forum reprezentantów Jednostek było impulsem czy zostało przez Pana wcześniej przemyślane i przygotowane? Co oznaczały poszczególne litery i liczby w tej nazwie?

Józef Janyszek: – Nie myślałem o tym wcześniej, nie przygotowywałem wariantów, nie robiłem prób, nie pisałem sobie w notatkach propozycji. Faktem jednak jest, że w obiegu funkcjonowała już robocza nazwa TEN-34 i ona bardzo mi – jak to się mówi- weszła do głowy, tkwiła w mojej świadomości. POL-34 to był impuls, w moim zamierzeniu nazwa miała oczywiście nawiązywać do POLSKI, miała mieć międzynarodowy wydźwięk POLAND. Okazało się, że gdy powiedziałem ten nazwę, to natychmiast została ona przyjęta z wielkim entuzjazmem, na sali był aplauz! Wszyscy uznali, że się przyjmie i będzie doskonała. Tak się stało, funkcjonowała przez lata. A ja w ten sposób, może nieco przez przypadek, zostałem ojcem chrzestnym tej nazwy. 

M.B-S.: POL-34 bardzo szybko się rozwinęła. 1 stycznia 2004 roku sieć POL-34/155/622 zakończyła swoje działanie, a jej rolę przejęła sieć PIONIER, która od tamtego czasu, wciąż wzbogacana o nowe usługi i aplikacje służy całemu środowisku naukowemu, łącząc 21 MANów i 5 centrów KDM. Czy w 1997 roku spodziewał się Pan Doktor takiego rozwoju?

J.J.: – Jestem inżynierem, więc rozwój sieci, jej prędkość wcale mnie nie zaskoczyły. Spodziewałem się, że na przestrzeni lat to będzie się intensywnie rozwijało. Zaskoczyły mnie jednak aplikacje, które się pojawiły. Dziś możemy przecież korzystać z rozmaitych komunikatorów, będąc na dwóch różnych końcach świata, można ze sobą się łączyć, rozmawiać, wymieniać informacjami, wysyłać dokumenty, które można podpisywać zdalnie. Szeroki rozwój baz danych oraz istniejące narzędzia do zarządzania tymi bazami, to także coś, co mnie zaskoczyło. Nie przypuszczałem w 1997 roku, że papierowa encyklopedia będzie dziś traktowana w kategorii eksponatów… Te informacje, które tam się znajdują, znaleźć można w kilka minut w przestrzeni internetowej, są uaktualnione i dostępne na wyciągnięcie ręki. Sądzę, że żaden z moich kolegów z tamtych czasów nie spodziewał się takiej sytuacji.  

M.B-S.: Konsorcjum PIONIER, w którym zasiadał Pan prawie od początku jego działalności (a dziś jest członkiem Klubu PIONIERa), świętuje w tym roku jubileusz 20-lecia. Współczesność dostarcza nam wielu niespodziewanych sytuacji i wydarzeń. Minione trzy lata sprawiły, że cały świat funkcjonować musiał w pandemicznych warunkach, a od prawie roku za Wschodnią granicą toczy się wojna… Jakie zatem życzenia ma Pan na kolejne 20 lat dla PIONIERa?

J.J.: – Staram się być na bieżąco z aktualnymi informacjami na temat otaczającego nas świata, czytam “21 lekcji na XXI wiek”. Yuval Noah Harari, słynny izraelski historyk i wizjoner, w swojej książce skupia się nie na przeszłości ani na możliwej przyszłości gatunku ludzkiego, lecz na problemach, w obliczu których stoimy obecnie. I wydaje mi się, że najpoważniejszym są choroby nowotworowe. Dziś leczone są one w sposób bardzo inwazyjny, jak chemioterapia czy radioterapia. Znam wiele osób, które przeszły taki rodzaj leczenia i wiem, jak bardzo jest to trudne dla organizmu. Sądzę zatem, że centra superkomputerowe w niedalekiej przyszłości będzie można zaprzęgnąć do leczenia chorób. W taki sposób, by choroby nowotworowe leczone było na poziomie genetycznym. Trzeba znaleźć sposób, by organizm sam się z nich uwolnił. A do tego potrzebne są olbrzymie moce komputerowe, które będą w stanie przeanalizować, przeliczyć ogromne ilości danych. 

Kategorie
Kontakt

Redakcja PIONIER News

Zapraszamy do kontaktu z redakcją PIONIER News. Wszelkie uwagi, propozycje, rozszerzenia artykułów i informacji zawartych w niniejszym newsletterze można uzyskać bezpośrednio pisząc na adres: news@pionier.net.pl.

Newsletter jest wydawany przez Biuro Konsorcjum PIONIER – Polski Internet Optyczny. Redakcja zastrzega sobie prawo dokonywania skrótów, korekty i edycji nadesłanych materiałów. Kopiowanie i rozpowszechnianie redakcyjnych materiałów bez zgody wydawcy jest zabronione.