Dostawcy systemów bezpieczeństwa IT uznają sztuczną inteligencję za cenne uzupełnienie istniejących systemów, procesów i ludzi. Niestety, podobnie myślą hakerzy.
W ciągu ostatnich dwóch lat niemal cały świat oszalał na punkcie sztucznej inteligencji. Coraz częściej słyszy się nie tylko o jej zaletach, ale również zagrożeniach, jakie ze sobą niesie. Przejście do bardziej zautomatyzowanego świata przyczyni się do wzrostu bezrobocia, boty będą generować fałszywe teksty, zaś perfekcyjne narzędzia pozwolą manipulować treściami multimedialnymi w taki sposób, że nawet najbardziej spostrzegawczy widzowie nie dostrzegą mistyfikacji. Jeśli wierzyć tym pesymistycznym wizjom, nadchodzi czas wielkich żniw dla wszelkiej maści oszustów.
O złej sztucznej inteligencji bardzo często wspomina się w kontekście cyberbezpieczeństwa.
Szczególnie złą sławą, w przeciwieństwie do ChatGPT, cieszą się WormGPT, BadGPT czy FraudGPT - narzędzia powszechnie dostępne w Darknecie. Tak jak wielu pracowników biurowi korzysta z ChatGPT do pisania lepszych e-maili, hakerzy używają złośliwe wersje chatbotów do tworzenia fałszywych stron internetowych, pisania oprogramowania i wiadomości, w których podszywają się pod kierownictwo, czy inne zaufane podmioty. Co gorsza, świat złych chatbotów nie ogranicza się do kilku narzędzi. Naukowcy z Uniwersytetu w Indianie w bieżącym roku wykryli ponad 200 usług hakerskich sprzedawanych w Darknecie. Pierwszy taki program pojawił się na początku ubiegłego roku, a więc kilka miesięcy po publicznym udostępnieniu ChatGPT. Zdaniem naukowców większość szkodliwych programów oferowanych na czarnym rynku wykorzystuje wersje open source Meta Llama 2 lub wprowadza własne „rozszerzenia” do modeli takich dostawców jak OpenAI i Anthropic. Ceny usługi hakerskich AI wahają się od 5 do 199 dolarów miesięcznie.
- Sztuczna inteligencja może być używana zarówno do dobrych, jak i złych celów. Wbrew temu, co mówią entuzjaści tej technologii, jak na razie nie dokonała ona jakiegoś wielkiego przełomu, przynajmniej po złej stronie mocy. Wprawdzie pozwala zwiększyć liczbę incydentów oraz ich szybkość, jednak nie zmienia zasadniczo wektorów ani powierzchni ataków. Choć w nieodległej przyszłości to może się zmienić. Dlatego z dużą uwagą śledzimy postępy napastników w zakresie wykorzystania AI, aby być krok przed nimi - mówi Michał Łabęcki, G DATA Software.
Pewnego rodzaju ciekawostką jest przykład Amazona, opisywany na łamach dziennika The Wall Street Journal, który każdego dnia odnotowuje średnio 750 milionów prób ataków. Jeszcze niespełna rok temu było ich około 100 milionów. Osoby odpowiedzialne za bezpieczeństwo IT w Amazonie uważają, że przyczyną takiego stanu rzeczy jest sztuczna inteligencja, pozwalająca realizować ataki osobom bez wielkiego doświadczenia w zakresie tworzenia złośliwych programów.
Często można odnieść wrażenie, że dostawcy systemów bezpieczeństwo wprowadzili rozwiązania bazujące na sztucznej inteligencji oraz uczeniu maszynowym dopiero po debiucie ChatGPT. Ale jest to jeden z mitów związanych z AI. Brian Dye, ówczesny wiceprezydent firmy Symantec już w 2014 roku wyznał na łamach dziennika The Wall Street Journal, że antywirusy wykrywają tylko 45 procent ataków. Artykuł odbił się szerokim echem w branży cyberbezpieczeństwa, a także zapoczątkował zmiany mające na celu zwiększenie efektywności oprogramowania antywirusowego. Od samego początku bazowało ono na skanowaniu systemów pod kątem wyszukiwania zainfekowanych plików na podstawie sygnatur. Jednak wraz z pojawieniem się nowych rodzajów ataków (bezpikowe, zero-day) znana od lat metoda zaczęła zawodzić. Na rynku pojawiły się produkty wykorzystujące mechanizmy uczenia maszynowego i sztucznej inteligencji, koncentrujące się bardziej na detekcji niż prewencji. Przykładowo G DATA w 2018 roku udostępniła technologię DeepRay, gdzie sieć neuronowa współpracuje z adaptacyjnym algorytmem, który jest na bieżąco udoskonalany przez analityków. Jego działanie polega na kategoryzowaniu różnorodnych plików wykonywalnych w oparciu o szeroką paletę wskaźników – takich jak rozbieżność między rozmiarem pliku a ilością kodu wykonywalnego, wersje stosowanych kompilatorów czy ilość importowanych funkcji systemowych.
- Dostawcy oprogramowania bezpieczeństwa mają kilka lat przewagi nad hakerami, jeśli chodzi o użycie sztucznej inteligencji. Cyberprzestępcy sięgnęli po tę technologię nieco ponad rok temu. Naszym atutem jest także ilość zgromadzonych danych, dzięki którym możemy cały czas rozwijać nasze narzędzia. Jednak jak by nie patrzeć, mamy do czynienia wyścigiem, gdzie nie ma czasu na to, żeby na chwilę przystanąć lub popadać w samozachwyt, bowiem przeciwnik z pewnością wykorzysta każdy najmniejszy błąd - tłumaczy Michał Łabęcki.
Jednym z największych problemów, z jakim boryka się branża cyberbezpieczeństwa, jest brak rąk do pracy. W ubiegłym roku w Polsce na specjalistów ds. cyberbezpieczeństwa czekało 10 tysięcy miejsc pracy.
Przeciążeni pracą specjaliści często popełniają błędy. Jednak istnieje szansa, że wraz automatyzacją narzędzi bezpieczeństwa IT, pracownicy skoncentrują się na kluczowych kwestiach zamiast tracić czas na wykonywanie żmudnych, powtarzalnych czynności. O ile sztuczna inteligencja doskonale sprawdza się w automatyzacji powtarzalnych zadań, analizowaniu ogromnych ilości danych i identyfikowaniu wzorców, o tyle ludzka intuicja i osąd są nadal potrzebne do interpretacji tych spostrzeżeń, podejmowania krytycznych decyzji i dostosowywania strategii do zwalczania ewoluujących zagrożeń.
W najbliższej przyszłości nie należy się spodziewać radykalnego uproszczenia systemów ze względu na to, że cyberbezpieczeństwo jest obszarem o dużej dynamice zmian. Wraz rozwojem technologii pojawiają się zupełnie nowe zagrożenia, którym trzeba stawić czoła.
—------------------------
www.GDATA.pl
oprac, e-mk, ppr.pl