Przestępczość cybernetyczna

Krystyna Knypl

Jeden z ważniejszych tematów poruszanych w  książce The Great Narrative. For a Better Future, którego autorami są prof. Klaus Schwab i Thierry Malleret,  są zagrożenia cybernetyczne. Zagrożenia związane z przestępczością cybernetyczną  dotknęły lub dotkną większość z nas (w redakcji GdL wiemy coś o tym!) i miliony firm na całym świecie. Ataki cybernetyczne i oprogramowanie ransomware ( wymuszające okupy) nasilają się na całym świecie, stając się coraz bardziej ukierunkowane i mają charakter "strategiczny".

<a href=

Źródło ilustracji:https://en.wikipedia.org/wiki/Cyberattack

Koszty przestępczości cybernetycznej

Oszacowanie prawdziwego kosztu globalnej przestępczości cybernetycznej jest niemożliwe ze względu na jej rozproszoną i ukrytą naturę, ale niektóre źródła branżowe szacują go na 6 bilionów dolarów w 2021 r., a do 2025 r. wzrośnie on do 10,5 biliona dolarów rocznie.

 Cyberataki, inicjowane przez bezimiennych hakerów ukrytych za swoimi komputerami (lub czasami w niektórych państwach w obiektach wojskowych), mają bardzo realne konsekwencje i mogą powodować bardzo realne szkody. Aby podać tylko jeden konkretny przykład, który ma już prawie pięć lat, północnokoreańscy hakerzy w 2017 roku wykorzystali lukę w systemie operacyjnym Microsoft Windows, która zainfekowała ponad 300 000 systemów komputerowych w 150 krajach złośliwym wirusem o nazwie Wanna Cry. Dotknął on osoby prywatne, firmy i agencje państwowe, w tym brytyjską Narodową Służbę Zdrowia, która musiała odwołać prawie 20 000 wizyt, powodując około 100 milionów dolarów szkód. Eksperci szacują, że całkowity koszt globalnego zakłócenia osiągnął około 4 miliardów dolarów.

Ataki cybernetyczne wymuszające okupy

Ataki typu ransomware (wymuszające okupy), jeszcze kilka lat temu prawie nieznane, są obecnie wszechobecne. Na całym świecie do końca tego roku będzie ich prawdopodobnie ponad 700 milionów, co stanowi wzrost o około 130% w porównaniu z rokiem ubiegłym.

Mogą one wyrządzić ogromne szkody firmie, ale także mieć znacznie szerszy negatywny wpływ na gospodarkę, jak atak w czerwcu 2021 r. na firmę JBS zajmującą się pakowaniem mięsa, który odciął 20% amerykańskich mocy produkcyjnych w zakresie produkcji wołowiny i wieprzowiny, co doprowadziło do tymczasowych niedoborów i wzrostu cen. Analitycy są zgodni co do tego, że cyber przestępczość  będzie się nasilać, ponieważ te niewidoczne ataki bardzo utrudniają odwet. Przez lata decydenci ostrzegali przed możliwością powstania "cybernetycznej Perłowej Przystani", która mogłaby wyrządzić niszczycielskie szkody w krytycznej infrastrukturze cyfrowej danego kraju lub branży. Przestępcy cybernetyczni są obecnie w stanie unieszkodliwić większość firm lub dużych podmiotów, takich jak miasto czy sieć. Gdy cyber-aktywistów wspiera państwo, mogą oni spowodować szkody w skali  całego kraju, który jest przedmiotem ataku.

Niezwykle trudno jest rozszerzyć i stosować normy i zasady, które mogą zapewnić bezpieczeństwo w świecie cyfrowym. W znacznym stopniu prawa międzynarodowe regulują prowadzenie wojny i stosowanie broni jądrowej, ale nie dotyczy to jeszcze cyberprzestrzeni. Obecna niechęć do współpracy na poziomie międzynarodowym, spotęgowana efektem asymetrii (nie zawsze łatwo jest zidentyfikować sprawcę cyber-ataku), sprawia, że w przewidywalnej przyszłości trudno spodziewać się realnego postępu w tej dziedzinie.

 Sztuczna inteligencja i działania wojenne

Cyber przestępczość i cyber ataki odbywają się w sferze cyfrowej, bez wystrzałów i wybuchów bomb. Różni się to zasadniczo od współczesnych działań wojennych. W marcu 2021 r. ONZ poinformowało, że po raz pierwszy w historii na polu bitwy w Libii w marcu 2020 r. pojawiły się autonomiczne drony wojskowe, które mogą samodzielnie dolecieć w określone miejsce, wybrać własny cel i zabić bez pomocy zdalnego operatora. Takie drony mogą być obsługiwane zarówno autonomicznie, jak i ręcznie, a przeciwko swoim celom wykorzystują "uczenie maszynowe" i "przetwarzanie obrazu w czasie rzeczywistym ". Pod koniec września 2020 r. konflikt w Górskim Karabachu był pierwszym dowodem na to, że międzypaństwowa nowoczesna wojna jest częściowo cybernetyczna. Po stronie azerskiej użyto autonomicznych zabójczych dronów zdolnych do użycia śmiercionośnej siły, które zapewniły zwycięstwo nad Ormianami. Nie ulega wątpliwości, że tego typu broń będzie coraz częściej wykorzystywana we współczesnych konfliktach, stwarzając liczne problemy etyczne i dylematy w zakresie międzynarodowego prawa humanitarnego, które reguluje konflikty zbrojne i na które nie ma obecnie odpowiedzi.

Stuart Russell, brytyjski pionier badań nad AI, który spędził ostatnie 10 lat próbując zakazać wykorzystywania AI do lokalizowania i zabijania ludzkich celów, ostrzega, że broń AI rozwija się szybko i w sposób całkowicie nieuregulowany.

 Śmiercionośny quadcopter napędzany przez AI może być tak mały jak opakowanie pasty do butów; około trzech gramów materiału wybuchowego wystarczy, by zabić człowieka z bliska. Regularny kontener może pomieścić milion śmiercionośnych broni i wszystkie mogą być wysłane do wykonania swojej pracy w tym samym czasie, więc nieuniknionym punktem końcowym jest to, że autonomiczna broń stanie się tanią, selektywną bronią masowego rażenia.  Dlatego, w jego świadomej opinii, podobnie jak w opinii wielu innych wybitnych naukowców i etyków w dziedzinie AI, rozprzestrzenianie się broni AI stanowi nieuchronne i egzystencjalne zagrożenie. Aby temu przeciwdziałać, Max Tegmark, profesor MIT, który jest współzałożycielem Future of Life Institute, think tanku pracującego nad ograniczeniem globalnego ryzyka katastroficznego i egzystencjalnego ze strony potężnych technologii, zaproponował wprowadzenie międzynarodowego moratorium na autonomiczną broń śmiercionośną. Naukowcy z innych krajów podążają podobną drogą, jak 400 badaczy sztucznej inteligencji z firmy German, którzy opublikowali list otwarty do rządu niemieckiego z prośbą, by jego siły zbrojne zaprzestały rozwijania takich systemów i zalecają, by taka dehumanizacja podejmowania decyzji dotyczących życia i śmierci przez autonomiczne systemy broni musi zostać zakazana na całym świecie.

Jednak na całym świecie rządy zdolne do rozwijania takiej broni AI są przeciwne zakazowi (który z oczywistych powodów jest wyrażany tylko w krajach, które pozwalają na wolność słowa). Narody powinny rozwijać konsultacje i umowy o kontroli zbrojeń, ale trudno zrozumieć, jak mogłaby wyglądać kontrola zbrojeń dla AI. W przeciwieństwie do broni jądrowej i konwencjonalnej - które są duże, widoczne, nieporęczne i policzalne - roje dronów lub torped napędzanych przez AI są trudniejsze do zweryfikowania, a algorytmy, które nimi kierują, są jeszcze bardziej nieuchwytne – czytamy w omawianej książce. Ryzyko, że śmiercionośna broń AI będzie wszechobecna jak broń palna, jest bardzo realne.

Krystyna Knypl

GdL 2/2022

Inne artykuły poświęcone książce The Great Narrative. For a Better Future

1.Kim są Klaus Schwab i Thierry Malleret, autorzy książki "The Great Narrative. For a Better Future"

https://gazeta-dla-lekarzy.com/index.php/51-artykuly-redaktor-naczelnej/1692-klaus-schwab-i-thierry-malleret-w-nowej-ksiazce-the-great-narrative-for-a-better-future

2. Klaus Schwab i Thierry Malleret w nowej książce "The Great Narrative. For a Better Future" o przyszłości świata

https://gazeta-dla-lekarzy.com/index.php/wazniejsze-nowosci/1684-klaus-schwab-i-thierry-malleret-w-nowej-ksiazce-the-great-narrative-for-a-better-future-o-przyszlosci-swiata

3. Przyszłość świata według tworców World Economic Forum

https://gazeta-dla-lekarzy.com/index.php/ogwiazdkowane/51-artykuly-redaktor-naczelnej/1780-przyszlosc-swiata-wedlug-tworcow-world-economic-forum