Sierpień 2025 roku przyniósł zamknięcie jednej z dotychczas najbardziej zaawansowanych luk bezpieczeństwa w historii systemów AI. Incydent ShadowLeak, wykryty przez zespół Radware w agencie ChatGPT Deep Research, stanowi precedens w zakresie ataków na systemy sztucznej inteligencji i zmusza do ponownej oceny modeli zagrożeń w erze autonomicznych agentów AI. Jest to zupełnie nowy rodzaj zagrożenia, które wymaga przemyślenia całego podejścia do cyberbezpieczeństwa w kontekście sztucznej inteligencji.
Incydent ShadowLeak jest o tyle istotny, że po raz pierwszy mieliśmy do czynienia z atakiem, który w pełni wykorzystywał autonomiczną naturę systemów AI, przekształcając je z narzędzi wspierających użytkownika w potencjalny wektory ataku. ShadowLeak pokazuje, że granica między tymi dwoma rolami AI może być znacznie cieńsza, niż dotychczas zakładaliśmy.
Na czym polegał atak ShadowLeak?
ShadowLeak to atak zero-click server-side prompt injection (wstrzyknięcie poleceń po stronie serwera bez potrzeby kliknięcia przez użytkownika). Brzmi technicznie, ale mechanizm jest jednocześnie elegancki i przerażający w swojej prostocie. Atakujący nie musiał przekonywać ofiary do kliknięcia w podejrzany link czy do otwarcia załącznika - wystarczyło, że cel otrzymał pozornie niewinną wiadomość e-mail.
Ukryte polecenia wstrzykiwane były bezpośrednio w kod HTML wiadomości za pomocą technik steganograficznych. Wyobraź sobie biały tekst na białym tle lub czcionkę tak małą, że niewidoczną gołym okiem, ale idealnie czytelną dla systemu AI. Te ukryte instrukcje zawierały polecenia skierowane do agenta ChatGPT Deep Research, który miał dostęp do skrzynki pocztowej użytkownika.
Gdy użytkownik poprosił agenta o analizę wiadomości w skrzynce, agent AI natrafiał na zainfekowaną, przetwarzał ją i autonomicznie wykonywał ukryte polecenia. Mógł przeszukać skrzynkę pocztową, uzyskać dostęp do innych zintegrowanych usług jak Google Drive czy Dropbox, a następnie samodzielnie kodować pozyskane dane w formacie Base64 i przesyłać je na kontrolowane przez atakującego serwery za pomocą funkcji browser.open(). Całość odbywała się bez wiedzy i interakcji użytkownika, nie pozostawiając żadnych śladów w lokalnych systemach bezpieczeństwa.
Zakres oddziaływania zagrożenia
Potencjalne cele ataku wykraczały daleko poza zwykłą skrzynkę pocztową Gmail. ChatGPT Deep Research, często zintegrowany z wieloma popularnymi usługami, otwierał atakującym dostęp do całego ekosystemu narzędzi chmurowych. Microsoft Outlook i Exchange, systemy przechowywania danych jak Dropbox i Google Drive, repozytoria kodu w GitHub, platformy współpracy korporacyjnej jak SharePoint - wszystkie te systemy mogły być zagrożone wyciekiem danych.
Z tego względu, każde połączenie dostarczające tekst do sztucznej inteligencji staje się potencjalnym i niebezpiecznym wektorem ataku.
Zakres oddziaływania obejmuje całe środowisko chmurowe firmy, wszystkie jej systemy, działające w chmurze, informacje własne i powierzone przez klientów czy kontrahentów. Jedne bezpieczne miejsca to te całkowicie odseparowane od usług chmurowych.
Kategorie danych zagrożonych atakiem
Spektrum danych narażonych na kompromitację w wyniku ataku ShadowLeak było oszałamiające. W przypadku użytkowników indywidualnych, zagrożenie obejmowało całą ich cyfrową tożsamość - od prywatnej korespondencji e-mailowej, przez dokumenty osobiste przechowywane w chmurze, po kompletną historię komunikacji z rodziną, przyjaciółmi i kontaktami zawodowymi.
Dla organizacji biznesowych stawka była jeszcze wyższa. Poufna korespondencja biznesowa, dokumenty strategiczne definiujące przyszłość firmy, kod źródłowy aplikacji stanowiących przewagę konkurencyjną, dane klientów i informacje o partnerach biznesowych - wszystko to mogło zostać skompromitowane w ciągu kilku minut, bez jakichkolwiek oznak włamania.
Ocena wpływu ataku typu "zero-click"
Prawdopodobieństwo powodzenia ataku ShadowLeak było alarmująco wysokie. W przeciwieństwie do tradycyjnych ataków typu spear phishing czy social engineering, które wymagają aktywnego uczestnictwa ofiary i często można je rozpoznać przez odpowiednio przeszkolone osoby, atak zero-click jest całkowicie transparentny dla końcowego użytkownika. Nie ma żadnych sygnałów ostrzegawczych, żadnych podejrzanych zachowań systemu, żadnych nietypowych powiadomień.
Potencjalny wpływ takiego ataku należy klasyfikować jako krytyczny. Pełny dostęp do zintegrowanych systemów oznaczałby kompromitację całego cyfrowego środowiska użytkownika lub organizacji. Przeciętna firma wykorzystuje dziesiątki różnych usług chmurowych, często powiązanych ze sobą przez pojedynczy system uwierzytelniania, a więc skutki takiego incydentu byłyby z pewnością katastrofalne.
Wykrywalność takiego ataku jest praktycznie zerowa. Tradycyjne systemy wykrywania punktów końcowych, SIEM czy nawet zaawansowane narzędzia analizy behawioralnej użytkownika nie miały szans wykryć ShadowLeak, ponieważ wszystkie operacje odbywały się po stronie serwera OpenAI. Dla systemów monitoringu organizacji, atak był całkowicie niewidoczny - wyglądał jak normalna aktywność uprawnionego agenta AI.
Odpowiedzialna reakcja na atak ShadowLeak
Wykrywanie
Historia ShadowLeak to także studium przypadku w zakresie odpowiedzialnego zarządzania incydentami bezpieczeństwa w erze AI. Incydent został wykryty 18 czerwca 2025 roku, kiedy eksperci z firmy Radware odkryli lukę w zabezpieczeniach typu zero-click w agencie Deep Research ChatGPT podczas połączenia z Gmailem i przeglądania stron internetowych.
Analiza incydentu
Radware przeanalizował mechanizm ataku, ocenił jego potencjalny zasięg i opracował proof-of-concept demonstrujący schemat działania zagrożenia. Proces ten zajął kilka dni intensywnych badań i testów, przeprowadzanych w kontrolowanym środowisku, aby nie narazić rzeczywistych użytkowników na ryzyko.
Powiadomienie
Pod koniec czerwca 2025 Radware zastosowało praktyki odpowiedzialnego ujawniania, kontaktując się w pierwszej kolejności bezpośrednio z OpenAI zamiast ujawniania informacji publicznie. To podejście, choć wydłużające czas do publicznego ujawnienia, było niezbędne dla zapewnienia bezpieczeństwa milionów użytkowników ChatGPT na całym świecie.
Mitygacja
Współpraca między Radware a OpenAI w fazie mitygacji, trwającej przez lipiec i sierpień 2025, pokazała, jak powinna wyglądać reakcja na krytyczne zagrożenia w ekosystemie AI. Opracowanie i testowanie poprawek wymagało przeprowadzenia kompleksowych testów zapewniających, że rozwiązanie nie wpłynie negatywnie na funkcjonalność systemu. Implementacja zabezpieczeń po stronie serwera musiała być przeprowadzona stopniowo, minimalizując wpływ na użytkowników końcowych.
Komunikacja
We wrześniu 2025 nastąpiło publiczne ujawnienie informacji o ShadowLeak, połączone z publikacją szczegółowych raportów technicznych. Takie podejście służyło transparentności, a także edukacji całego środowiska. Inne firmy mogły na podstawie tych informacji przeanalizować własne systemy AI pod kątem podobnych zagrożeń.
Wnioski z incydentu ShadowLeak dla systemu zarzadzania bezpieczeństwem informacji (SZBI)
Incydent ShadowLeak powinien być sygnałem alarmowym dla każdej organizacji wykorzystującej systemy AI w swojej infrastrukturze. Pierwszym krokiem powinien być natychmiastowy audyt wszystkich integracji AI w organizacji - zarówno oczywiste przypadki jak chatboty czy systemy rekomendacyjne, oraz mniej widoczne implementacje AI w narzędziach analitycznych, systemach automatyzacji czy platformach współpracy takich, jak Jira, Asana, Azure DevOps, itp.
Minimalizacja uprawnień (zasada najmniejszych uprawnień - least privilege) powinna stać się bezwzględnie wymagane w dobie autonomicznych agentów AI. Każdy system AI powinien mieć dostęp wyłącznie do tych danych i funkcji, które są absolutnie niezbędne do realizacji jego zadań. Zasada least privilege w kontekście AI oznacza także regularne przeglądy i walidację uprawnień, szczególnie gdy systemy AI ewoluują i zyskują nowe funkcjonalności.
Tradycyjne podejście do segmentacji sieciowej musi zostać rozszerzone o aspekty specyficzne dla systemów AI. Dostęp usług AI do krytycznych systemów i danych powinien wymagać dodatkowej autoryzacji i monitoringu.
Czas najwyższy na włączenie do długoterminowej strategii ICT i systemu zarządzania bezpieczeństwem informacji (SZBI) zasady AI Security by Design. Oznacza to włączenie aspektów bezpieczeństwa AI do każdego etapu cyklu rozwoju produktów i usług, od koncepcji po wdrożenie i utrzymanie. Musi ono stać się integralną częścią architektury systemów i to bez względu na to, czy obecnie korzystamy z modeli LLM, czy nie, gdyż AI, tak jak chmura, przenika wiele usług, z których korzystamy na co dzień.
Stały monitoring w kontekście AI oznacza rozszerzenie tradycyjnych systemów SIEM, opracowanie nowych metryk, narzędzi i procesów dostosowanych do monitorowania aktywności systemów AI. Organizacja musi być w stanie wykrywać nietypowe wzorce zachowań AI, podejrzane interakcje z danymi czy próby manipulacji przez zewnętrzne ładunki (external inputs).
Należy też zaktualizowac plany reagowania na incydenty o scenariusze specyficzne dla AI. Tradycyjne procedury odpowiedzi na incydent, opracowane z myślą o konwencjonalnych atakach cybernetycznych, mogą okazać się nieadekwatne w przypadku incydentów związanych z AI. Zespoły cyberbezpieczeństwa muszą być przygotowane na scenariusze, w których atakujący wykorzystuje autonomiczną naturę systemów AI przeciwko organizacji.
Wnioski z incydentu ShadowLeak dla dostawców AI
Dostawcy systemów AI stoją przed niemałym wyzwaniem - jak zapewnić bezpieczeństwo systemów, które z założenia mają być autonomiczne. Systemy AI muszą być w stanie rozróżnić między faktycznymi poleceniami użytkownika a próbami manipulacji, przy czym granica między nimi może być bardzo cienka.
Zaawansowana filtracja poleceń wejściowych wymaga analizy treści, kontekstu, intencji i potencjalnych konsekwencji wykonania polecenia. Systemy te muszą ewoluować wraz z rozwojem technik ataku, co oznacza konieczność ciągłego uczenia i doskonalenia algorytmów wykrywania.
Dostawcy AI muszą implementować systemy monitorujące wszystkie działania podejmowane przez agentów sztucznej inteligencji, szczególnie te dotyczące dostępu do danych zewnętrznych czy komunikacji z zewnętrznymi systemami. Każde nietypowe zachowanie, jak próba kodowania danych w Base64 czy nieautoryzowane wywołania zewnętrznych adresów URL, powinno być natychmiast flagowane i analizowane.
Izolacja w kontrolowanym środowisku w przypadku agentów sztucznej inteligencji to bardzo złożone zagadnienie w porównaniu do tradycyjnych aplikacji. Agenci AI potrzebują pewnego stopnia swobody działania, aby być skuteczne, ale jednocześnie muszą być ograniczone w sposób uniemożliwiający potencjalne nadużycia. Opracowanie efektywnych mechanizmów izolacji dla AI to jedno z największych wyzwań technicznych współczesnego cyberbezpieczeństwa.
Możliwości szybkiego reagowania w kontekście AI oznaczają możliwość szybkiego wdrożenia poprawek, a także zdolność do szybkiej oceny wpływu i zakresu potencjalnych zagrożeń. Systemy AI są często głęboko zintegrowane z infrastrukturą klientów, co oznacza, że każda zmiana może mieć nieprzewidywalne konsekwencje. Dostawcy muszą dysponować narzędziami i procesami umożliwiającymi szybką, ale bezpieczną reakcję na krytyczne zagrożenia.
Transparentna komunikacja odnośnie do zagrożeń i incydentów powinna stać się podstawową zasadą. Klienci i partnerzy muszą mieć pełny obraz ryzyka związanego z wykorzystywanymi systemami AI. Oznacza to proaktywną komunikację o potencjalnych zagrożeniach, ograniczeniach systemów i rekomendowanych praktykach bezpieczeństwa.
ShadowLeak jako nowy model zagrożeń w cyberbezpieczeństwie
ShadowLeak wymusza przemyślenie modeli zagrożeń wykorzystywanych w cyberbezpieczeństwie. Tradycyjne modele, oparte na założeniu, że atakujący potrzebuje bezpośredniego dostępu do systemów lub interakcji z użytkownikiem, okazują się nieadekwatne w przypadku autonomicznych systemów AI. Wstrzyknięcie poleceń (prompt injection) jako kategoria ataków wymaga opracowania całkowicie nowych meotdyk oceny i mitygacji ryzyka.
Wektory ataków specyficzne dla AI to wstrzyknięcie poleceń, zatrucie modelu (model poisoning), wejścia przeciwstawne (adversarial inputs), czy manipulacje danych treningowych. Każdy z tych wektorów wymaga specjalistycznej wiedzy i dedykowanych narzędzi obronnych. Organizacje muszą rozwijać kompetencje w zakresie AI security na poziomie porównywalnym z tradycyjnym cyberbezpieczeństwem.
Zagrożenia po stronie serwera wprowadzają nowy wymiar do zarządzania ryzykiem. W modelu tradycyjnym, organizacje miały kontrolę nad swoim środowiskiem IT i mogły implementować zabezpieczenia dostosowane do własnych potrzeb. W przypadku systemów AI działających w chmurze, znaczna część bezpieczeństwa pozostaje poza kontrolą organizacji, co wymaga nowego podejścia do oceny i akceptacji ryzyka.
Zarządzanie łańcuchem dostaw w ekosystemie AI jest skomplikowane, ale konieczne. Bezpieczeństwo organizacji zależy od dostawcy AI, ale także od dostawców danych treningowych, operatorów infrastruktury chmurowej, i całego łańcucha partnerów technologicznych. Organizacje musza wziac odpowiedzialnośc za zarzdzanie ryzykiem w tym obszarze.
Wpływ incydentu ShadowLeak na compliance i regulacje
Obecny krajobraz regulacyjny w zakresie AI pozostaje w znacznym stopniu nieuregulowany, co stwarza poważne wyzwania dla organizacji chcących implementować systemy AI w sposób odpowiedzialny. Brak szczegółowych regulacji oznacza, że organizacje muszą często interpretować istniejące przepisy, np. RODO, w kontekście nowych technologii, co prowadzi do niepewności prawnej.
Trudności w audycie systemów AI przez strony trzecie wynikają z braku standardów, a także z różnic w sposobie działania systemów AI w porównaniu z tradycyjnym oprogramowaniem. Algorytmy machine learning są "czarnymi skrzynkami", których działanie trudno jest zweryfikować przy użyciu konwencjonalnych metod audytu. Audytorzy muszą rozwijać nowe kompetencje i metodologie dostosowane do specyfiki systemów AI.
Kolejny istotny problem, to przypisanie odpowiedzialności za skutki incydentów AI. Czy odpowiedzialność za potencjalne straty ponosi OpenAI jako dostawca technologii, organizacja wykorzystująca system, czy może użytkownik końcowy? Tradycyjne modele odpowiedzialności prawnej nie zawsze są adekwatne do złożoności ekosystemu AI.
Przyszłe zmiany w regulacjach będą prawdopodobnie obejmować rozwój szczegółowych standardów bezpieczeństwa AI. Organizacje takie jak ISO i NIST już pracują nad ramami standardów dla AI, ale proces ten jest długotrwały i musi nadążać za szybko zmieniającą się technologią. Rozszerzenie przepisów o ochronie danych o aspekty AI to tylko kwestia czasu. Istniejące regulacje, jak RODO, będą prawdopodobnie uzupełniane o specyficzne wymagania dotyczące przetwarzania danych przez systemy AI.
Rekomendacje dotyczące wdrożenia AI - ocena ryzyka AI
Opracowanie skutecznego frameworku oceny ryzyka AI rozpoczyna się od identyfikacji wszystkich aktywów AI w organizacji. Identyfikacja musi być procesem ciągłym, uwzględniającym dynamiczny rozwój wykorzystania AI w organizacji.
Katalog danych dostępnych dla agentów AI powinien zawierać listę systemów i baz danych oraz klasyfikację poziomu wrażliwości i krytyczności każdego aktywa. Organizacje muszą zrozumieć, że w świecie AI, dostęp do pozornie nieistotnych danych może prowadzić do kompromitacji znacznie bardziej wrażliwych informacji poprzez wnioskowanie czy korelację.
Analiza przepływów danych między systemami wymaga uwzględnienia faktu, że systemy AI często integrują dane z wielu źródeł, tworząc nowe wzorce informacji, które mogą być bardziej wrażliwe niż pierwotne dane źródłowe. Mapowanie tych przepływów pozwala zidentyfikować potencjalne punkty kompromitacji i wdrożyc odpowiednie zabezpieczenia.
Modelowanie zagrożeń (threat modeling) specyficznych dla AI wymaga nowego podejścia. Tradycyjne modele jak STRIDE czy PASTA muszą zostać rozszerzone o kategorie zagrożeń unikalne dla tych systemów. Organizacje muszą rozważyć scenariusze takie jak manipulacja zachowań AI, ataki zatrucia danych czy ataki ekstrakcji modelu.
Ocena podatności na prompt injection powinna być standardową częścią każdej implementacji AI. Oznacza to testowanie odporności systemu na oczywiste próby manipulacji oraz analizę potencjalnych wektorów ataków poprzez różne kanały komunikacji - od e-maili po dokumenty czy strony internetowe.
Analiza ryzyka vendor lock-in (uzależnienia od jednego dostawcy) w kontekście AI ma szczególne znaczenie ze względu na szybki rozwój technologii i ograniczoną liczbę dostawców zaawansowanych systemów AI. Organizacje muszą ocenić nie tylko techniczne aspekty zależności od dostawcy, ale także potencjalne konsekwencje incydentów bezpieczeństwa czy zmian w polityce dostawcy.
Wdrożenie technicznych środków kontroli musi uwzględniać specyfikę systemów AI. Filtering w przypadku AI to znacznie bardziej skomplikowane zadanie niż w tradycyjnych aplikacjach, wymagające zrozumienia kontekstu i intencji komunikacji. Monitoring systemów AI musi być dostosowany do ich autonomicznej natury i zdolności do podejmowania decyzji bez bezpośredniego nadzoru człowieka.
Kontrole procesowe powinny obejmować procedury zatwierdzania działań AI o wysokim ryzyku, regularne kontrole dostępu uwzględniające ewolucję możliwości systemów AI, oraz procedury eskalacji dla nietypowych zachowań systemów AI. Organizacyjne środki kontroli muszą zapewniać, że pracownicy mają odpowiednią wiedzę o specyfice zagrożeń AI i potrafią rozpoznać potencjalne sygnały kompromitacji.
Mierniki bezpieczeństwa AI
Opracowanie skutecznych wskaźników operacyjnych dla bezpieczeństwa AI wymaga zdefiniowania mierników, które odzwierciedlają unikalne aspekty zagrożeń związanych z AI. Liczba wykrytych prób prompt injection powinna uwzględniać zarówno oczywiste próby manipulacji, jak i subtelne techniki, które mogą być trudne do wykrycia przez tradycyjne systemy filtrowania.
Czas reakcji na incydenty AI musi uwzględniać złożoność analizy i mitygacji zagrożeń specyficznych dla AI. W przeciwieństwie do tradycyjnych incydentów bezpieczeństwa, incydenty AI mogą wymagać specjalistycznej analizy zachowań systemu, oceny potencjalnego wpływu na jakość usługi, czy analizy przepływu danych, w celu określenia zakresu potencjalnej kompromitacji.
Zakres monitorowania systemów AI musi obejmować tradycyjne mierniki jak dostępność czy wydajność oraz mierniki specyficzne dla AI. Obejmują one monitorowanie wzorców dostępu do danych, nietypowe zachowania wyjściowe, czy zmiany we wzorcach decyzyjnych, które mogą wskazywać na kompromitację lub manipulację systemu.
Wskaźniki biznesowe muszą odzwierciedlać rzeczywisty wpływ wdrożenia AI na organizację. Koszt incydentów powinien uwzględniać bezpośrednie straty finansowe i długoterminowy wpływ na reputację, zaufanie klientów i pozycję konkurencyjną.
Wpływ na ciągłość biznesową w kontekście AI ma szczególne znaczenie ze względu na rosnącą zależność organizacji od systemów AI w kluczowych procesach biznesowych. Mierniki te powinny uwzględniać nie tylko dostępność systemów AI, ale także jakość i wiarygodność danych wyjściowych AI, które mogą być skompromitowane, a wówczas powinniśmy traktować dany system AI jako niedostępny.
Poziom zaufania klientów do systemów AI to kluczowy wskaźnik długoterminowego sukcesu implementacji AI w organizacji. Mierniki te mogą obejmować ankiety satysfakcji klienta dotyczące interakcji z systemami AI, częstotliwość eskalacji zadań do człowieka w procesach obsługiwanych przez AI, czy współczynniki retencji klientów w segmentach intensywnie korzystających z systemów AI.
Wnioski końcowe z incydentu ShadowLeak
Incydent ShadowLeak stanowi punkt zwrotny w postrzeganiu bezpieczeństwa systemów AI, który wymusza przemyślenie naszego podejścia do cyberbezpieczeństwa w erze sztucznej inteligencji. Po raz pierwszy w historii mieliśmy do czynienia z atakiem, który w pełni wykorzystywał autonomiczną naturę systemów AI, przekształcając je z narzędzi wspierających w potencjalne wektory ataków działające całkowicie poza kontrolą tradycyjnych systemów cyberbezpieczeństwa.
Systemy AI wprowadzają elementy nieprzewidywalności, autonomiczności i kreatywności, które wymagają całkowicie nowego podejścia do modelowania, oceny i mitygacji ryzyka. W świetle możliwości, które oferują systemy AI musimy zrewidowac tradycyjne założenia dotyczace sposobu działania atakujących i sposobu obrony przed atakami.
Nieadekwatność tradycyjnych środków kontroli bezpieczeństwa to wyzwanie dla całej branży cyberbezpieczeństwa. Systemy SIEM, EDR, firewalle i inne narzędzia, które przez lata stanowiły podstawę obrony cybernetycznej, okazują się ślepe na nową kategorię zagrożeń. To wymaga rozwoju nowych technologii, ale przede wszystkim przemyślenia całej filozofii podejścia do cyberbezpieczeństwa.
Organizacje muszą nauczyć się żyć z nowym poziomem zależności od zewnętrznych dostawców. W przeciwieństwie do tradycyjnych systemów IT, gdzie organizacje mogły w znacznym stopniu kontrolować swoje środowisko, systemy AI często działają jako "czarne skrzynki" zarządzane przez dostawców. To wymaga rozwoju nowych kompetencji w zakresie zarządzania ryzykiem ze strony dostawców (Vendor Risk Management - VRM, Third-Party Risk Management- TPRM) i due diligence.
Wdrożenie systemów AI to konieczność budowania całkowicie nowych ról i struktur organizacyjnych. AI Security Engineers, Prompt Injection Analysts, czy AI Risk Managers to przykłady specjalizacji, które jeszcze kilka lat temu nie istniały, a dziś stają się krytyczne dla bezpieczeństwa organizacji.
Organizacje, którenie przygotowują się na now rzeczywistość systemów AI, ryzykują znalezienie się w trudnej sytuacji, w której będą musiały reagowac na zagrożenia, których jeszcze nie potrafią zidentyfikować. Historia ShadowLeak pokazuje, że czas oczekiwania się skończył - zagrożenia są realne, obecne i ewoluują szybciej niż nasze zdolności obronne.
Przyszłość cyberbezpieczeństwa wymaga nowego myślenia, nowych narzędzi i nowych kompetencji. Organizacje, które zrozumieją tę rzeczywistość i odpowiednio się do niej przygotują, będą miały przewagę konkurencyjną w "nowym cyfrowym świecie". Te, które będą ignorować te wyzwania, ryzykują nie tylko straty finansowe, ale także możliwosc przetrwania w świecie coraz bardziej zależnym od systemów AI.
Czas na działanie jest teraz. Każdy dzień zwłoki to dzień, w którym organizacje pozostają narażone na zagrożenia, których może jeszcze nie potrafią zidentyfikować, ale które z pewnością już działają w cyberprzestrzeni.





