AI-Hakerzy atakują: Chiny i Korea Północna mają nową broń
Eksperci z Google Security opublikowali raport, który rzuca nowe światło na przyszłość cyfrowego bezpieczeństwa. Po raz pierwszy w historii udokumentowano przypadek wykorzystania AI do stworzenia sprawnego exploita typu Zero-Day, który posłużył hakerom do obejścia krytycznych zabezpieczeń.
Sztuczna inteligencja na usługach hakerów: Pierwszy taki przypadek
To moment, którego branża cyberbezpieczeństwa obawiała się od dawna. Według najnowszego raportu Google, znana grupa hakerska wykorzystała zaawansowane modele językowe do opracowania kodu atakującego lukę w narzędziu do zarządzania webowego. Najbardziej niepokojący jest fakt, że wygenerowany przez AI skrypt w języku Python, pozwolił napastnikom na skuteczne obejście dwuskładnikowego uwierzytelniania (2FA), co do tej pory uchodziło za jedną z najtrudniejszych barier dla zautomatyzowanych ataków.
Chociaż Google nie ujawniło nazwy zaatakowanego oprogramowania ani tożsamości ofiar, potwierdzono, że podjęto natychmiastową współpracę z dostawcą aplikacji, aby załatać dziurę, zanim doszło do ataku na skalę masową. Eksperci nie mają wątpliwości: to dopiero początek nowej ery, w której generatywna sztuczna inteligencja drastycznie skraca czas potrzebny na przejście od znalezienia błędu do jego praktycznego wykorzystania.
Jak rozpoznać kod napisany przez maszynę?
Specjaliści z Mountain View wskazali na specyficzne cechy, które pozwoliły im zidentyfikować „autora” exploita. Kod nie nosił znamion ludzkiego błędu czy niechlujstwa, lecz był napisany w sposób niemal podręcznikowy i niezwykle uporządkowany. Do kluczowych dowodów na udział AI zaliczono:
- Nienaturalnie obszerne komentarze wewnątrz kodu, wyjaśniające każdą funkcję w sposób edukacyjny.
- Zmyśloną punktację CVSS (standard oceny zagrożeń), którą model wygenerował automatycznie, opierając się na prawdopodobnych wzorcach.
- Strukturalną perfekcję, która jest znakiem rozpoznawczym dużych modeli językowych (LLM).
Google zaznaczyło przy tym, że hakerzy nie korzystali z ich autorskiego modelu Gemini. To sugeruje użycie konkurencyjnych narzędzi lub modeli o otwartym kodzie, które zostały zmodyfikowane pod kątem ofensywnym.

Chińskie i północnokoreańskie grupy APT sięgają po AI
Raport szczegółowo opisuje również rosnącą aktywność grup wspieranych przez rządy Chin i Korei Północnej, które zintegrowały AI ze swoimi arsenałami. Chińska grupa UNC2814, znana z ataków na administrację publiczną, stosuje zaawansowane techniki „jailbreaku”. Hakerzy manipulują modelami AI, każąc im wcielać się w rolę „doświadczonych audytorów bezpieczeństwa”. Pozwala to ominąć wbudowane blokady i generować kody do ataków na systemy wbudowane oraz oprogramowanie układowe.
Z kolei północnokoreańska grupa APT45 wykorzystuje sztuczną inteligencję do masowej automatyzacji. Zamiast ręcznie sprawdzać tysiące potencjalnych luk, hakerzy z Pjongjangu używają AI do błyskawicznej weryfikacji i optymalizacji kodów ataku. Google ostrzega, że bez wsparcia algorytmów zarządzanie tak ogromnym „arsenałem” narzędzi hakerskich byłoby fizycznie niemożliwe dla tradycyjnego zespołu ludzkiego.
Czy jesteśmy gotowi na erę AI-Exploitów?
Odkrycie pierwszego Zero-Day’a wygenerowanego przez AI to sygnał alarmowy dla całego świata technologii. Przewaga hakerów polega obecnie na szybkości i automatyzacji, którą daje im sztuczna inteligencja. Aby dotrzymać im kroku, systemy obronne muszą ewoluować w tym samym tempie. Choć Google i inni giganci już teraz wykorzystują AI do łatania dziur, incydent ten pokazuje, że wyścig zbrojeń w cyberprzestrzeni właśnie wszedł w nową, nieprzewidywalną fazę, w której kod pisze kod. Natomiast człowiek, staje się jedynie obserwatorem tej walki.
Technogadżet w liczbach