Aktualności

Cyberprzestępcy tworzą coraz więcej własnych modeli AI

Newsy

Cyberprzestępcy tworzą coraz więcej własnych modeli AI

Cyberprzestępcy tworzą coraz więcej własnych modeli AI. Jak wynika z najnowszej analizy Unit 42, jednostki badawczej Palo Alto Networks, cyberprzestępcy trenują własne modele AI.

Szkodliwe środowiska jak startupy AI

Badacze Palo Alto Networks odkryli, że przestępcy tworzą całe środowiska przypominające… legalne startupy AI. Posiadają one własne „marketplace”, usługi abonamentowe i modele aktualizowane tak samo, jak produkty znanych firm technologicznych. Różnica polega na tym, że te modele nie mają żadnych barier. Można nimi generować złośliwy kod, budować kampanie phishingowe dopasowane do konkretnego odbiorcy czy analizować luki w zabezpieczeniach firm.

Według raportu Stanford University w samym 2023 roku wydano 149 foundation models. Czyli ponad dwukrotnie więcej niż rok wcześniej, z czego aż 66% w formie open source. To oznacza, że twórcy coraz częściej udostępniają publicznie zaawansowane modele. Również takie, które można wykorzystane do nadużyć i które są łatwe do modyfikacji. Jednocześnie koszt uzyskania wydajności na poziomie GPT-3.5 spadł 280-krotnie między listopadem 2022 a październikiem 2024. W praktyce obniża to próg wejścia dla wszystkich. Niestety, także dla grup przestępczych, które mogą trenować lub dostosowywać własne modele znacznie taniej niż jeszcze dwa lata temu.

Jak działają złośliwe LLM-y?

Złośliwe LLM-y działają inaczej niż znane, komercyjne modele. Są one trenowane na danych pozyskiwanych z forów przestępczych, wycieków baz danych, kodów malware’u i instrukcji służących do obchodzenia zabezpieczeń. W praktyce oznacza to, że model „uczy się” tego, co w legalnych systemach AI jest celowo blokowane. W tym sposobów na pisanie niebezpiecznego kodu, tworzenie socjotechnicznych scenariuszy czy identyfikowanie podatnych punktów w infrastrukturze. Co więcej, modele te działają w zamkniętych środowiskach uruchamianych na prywatnych serwerach. Dzięki temu trudno je monitorować i jeszcze trudniej blokować ich aktywność.

Mechanizm działania złośliwych LLM-ów polega również na ciągłej adaptacji. Zablokowanie wygenerowanego przez model ataku powoduje, że przestępcy mogą natychmiast poprosić AI o przygotowanie nowej wersji phishingu, innej formy malware’u czy kodu, który wygląda jak niewinna biblioteka open source. Model analizuje, co odrzucone elementy i automatycznie modyfikuje swoje działania, aż do osiągnięcia skutecznej wersji ataku.

Przestępcze modele AI nie tylko obniżają próg wejścia dla nowych cyberprzestępców, ale umożliwiają doświadczonym grupom działanie z niespotykaną dotąd szybkością i skalą. Wiele ataków, które kiedyś wymagały ręcznej pracy, dziś można wygenerować jednym poleceniem. Firmy muszą przestawić sposób myślenia o zagrożeniach. Pojawia się nowa generacja ataków – automatyczna, adaptacyjna i zdolna do nauki. To wymaga zastosowania narzędzi opartych na AI. Tylko one są w stanie działać z podobną szybkością – podsumowuje Wojciech Gołębiowski, wiceprezes i dyrektor zarządzający Palo Alto Networks w Europie Środkowo-Wschodniej.

Źródło: www.crn.pl

W razie dodatkowych pytań zapraszamy do kontaktu.