Klikając „Akceptuj wszystkie pliki cookie”, zgadzasz się na przechowywanie plików cookie na swoim urządzeniu w celu ułatwienia nawigacji po stronie, analizy korzystania ze strony oraz wspierania naszych działań marketingowych. Zobacz naszą Politykę prywatności, aby uzyskać więcej informacji.
Artykuł

Lenovo chatbot Lena narażony na ataki

Davidson Consulting

Eksperci ds. zarządzania kryzysowego i ciągłości działania

Lena została zaprojektowana, by wspierać klientów w obsłudze produktów, jednak w praktyce mogła stać się furtką dla cyberprzestępców.
Rosyjska balistyczna rakieta hiperdźwiękowa "Oriesznik" na wozie transportowym.

Cybernews opublikowało materiał o poważnych podatnościach w implementacji chatbota AI firmy Lenovo, Leny, opartego na modelu GPT-4 od OpenAI. Lena została zaprojektowana, by wspierać klientów w obsłudze produktów, jednak w praktyce mogła stać się furtką dla cyberprzestępców. Odpowiednio spreparowany prompt wystarczył, by chatbot uruchomił nieautoryzowane skrypty, wykradał ciasteczka sesyjne i otwierał drogę do dalszych nadużyć.

Atak okazał się zaskakująco prosty. Wystarczyło jedno, 400-znakowe polecenie, które zaczynało się od pozornie niewinnej prośby o specyfikację laptopa. Następnie nakazywało zmianę formatu odpowiedzi na HTML, by w treści mogły znaleźć się ukryte instrukcje. Kolejne fragmenty promptu wstrzykiwały kod, który odwoływał się do nieistniejącego obrazu, a kiedy ładowanie kończyło się błędem, przeglądarka wysyłała ciasteczka sesyjne na serwer atakującego. Co gorsza, przechwycone dane nie dotyczyły tylko użytkowników – w momencie przejścia do kontaktu z żywym konsultantem, również jego komputer otwierał spreparowaną odpowiedź chatbota i powtarzał cały proces kradzieży danych.

To odkrycie unaoczniło, jak podatne są systemy oparte na sztucznej inteligencji, gdy brakuje w nich rygorystycznych zabezpieczeń. Modele językowe nie mają instynktu bezpieczeństwa – nie rozpoznają, że coś jest złośliwe, wykonują jedynie polecenia w możliwie najdokładniejszy sposób. Jeżeli nie zostaną otoczone dodatkowymi warstwami kontroli, wówczas nawet proste manipulacje mogą stać się początkiem poważnych incydentów.

Lenovo, po odpowiedzialnym zgłoszeniu problemu, potwierdziło istnienie luk i w krótkim czasie zabezpieczyło swoje systemy. Jednak sam incydent powinien być przestrogą dla całej branży ale też użytkowników sztucznej inteligencji. Dziś firmy prześcigają się we wdrażaniu rozwiązań opartych na AI – chcą być szybkie, nowoczesne, dostępne. Tymczasem bezpieczeństwo często pozostaje w tyle, traktowane jako etap, który można dodać później. Ta luka czasowa pomiędzy entuzjastycznym uruchomieniem a właściwą ochroną jest dokładnie tym miejscem, w którym atakujący znajdują dla siebie przestrzeń.

Nie chodzi tylko o wykradanie ciasteczek. W podobny sposób można by spróbować wstrzykiwać inny kod – taki, który zmienia wygląd interfejsu, przekierowuje na fałszywe strony, instaluje backdoory czy zbiera każde naciśnięcie klawisza. Każdy z tych scenariuszy pokazuje, że problem nie dotyczy wyłącznie Lenovo. Każdy chatbot, każda implementacja AI, która nie została odpowiednio zabezpieczona, potencjalnie otwiera drzwi do infrastruktury firmy.

Wnioski płynące z tej historii są proste: dane wprowadzane do systemu AI należy traktować z dużą ostrożnością, a odpowiedzi chatbota zawsze sprawdzać i filtrować. W świecie, w którym sztuczna inteligencja coraz częściej wspiera obsługę klienta czy procesy biznesowe, nie można zakładać jej bezbłędności ani bezpieczeństwa. Zabezpieczenia muszą być obecne od pierwszego dnia wdrożenia, a nie dokładane dopiero wtedy, gdy wydarzy się incydent. Firmy, które o tym zapominają, narażają się nie tylko na utratę danych, ale też reputacji i zaufania klientów. Lenovo wyciągnęło wnioski i załatało luki, ale pytanie pozostaje: ile innych chatbotów, uruchomionych w pośpiechu, wciąż działa dziś bez realnej ochrony?

Firmy włączające AI do swoich systemów powinny pamiętać o zabezpieczeniach:

  • Sanityzacja wejścia – filtrowanie i ograniczanie tego, co użytkownicy mogą wprowadzać.
  • Sanityzacja wyjścia – czyszczenie odpowiedzi chatbota z kodu, zanim trafią do przeglądarki czy systemów wewnętrznych.
  • Content Security Policy (CSP) – restrykcje dotyczące tego, jakie zasoby może ładować przeglądarka.
  • Unikanie inline JavaScript i ograniczenie uprawnień aplikacji.
  • Zasada „zero trust” wobec danych generowanych przez AI.
  • Output chatbota należy traktować jako potencjalnie niebezpieczny. Tylko stała walidacja i monitorowanie pozwalają korzystać z takich systemów w sposób bezpieczny.

Choć w tej historii odpowiedzialność spada głównie na firmę, warto pamiętać, że użytkownicy również nie są bezbronni. Każdy z nas korzysta z chatbotów czy systemów AI – w obsłudze klienta, aplikacjach bankowych, a czasem nawet w pracy. I choć naturalnie zakładamy, że producent zadbał o bezpieczeństwo, prawda jest taka, że nigdy nie mamy pełnej pewności, jak chronione są nasze dane ani jakie luki mogą istnieć. Dlatego rozsądnie jest traktować każdą rozmowę z AI z odrobiną sceptycyzmu i stosować kilka prostych zasad ostrożności.

Jeśli korzystasz z AI - zawodowo lub nawet rozrywkowo, pamiętaj o kilku ważnych zasadach:

1. Nie podawaj wrażliwych danych

Niezależnie od tego, czy to numer karty, PESEL, dane logowania czy nawet prywatne dokumenty – nie zakładaj, że AI jest bezpiecznym sejfem. Modele mogą zapisywać lub przesyłać dane w sposób, którego nie widzisz.

2. Ostrożnie z linkami i załącznikami

Jeśli chatbot wyświetla link, obrazek albo zachęca do kliknięcia w dodatkowe materiały, potraktuj to tak samo jak podejrzany link w mailu. Nie klikaj bez zastanowienia – zwłaszcza jeśli wygląda dziwnie, prowadzi poza oficjalną domenę firmy albo zawiera przekierowania.

3. Traktuj odpowiedzi jako niezweryfikowane

AI potrafi wygenerować HTML, kod, a nawet skrypty. Nigdy nie kopiuj ich w ciemno do własnych systemów ani na komputer firmowy. Jeśli chatbot poda kod czy fragment konfiguracji – sprawdź go dwa razy zanim użyjesz.

4. Używaj AI w izolacji

Jeżeli testujesz coś, co może być „ryzykowne” (np. fragmenty kodu, generowane pliki), rób to na oddzielnej maszynie, w środowisku testowym albo choćby w piaskownicy, nie na głównym komputerze, którego używasz do pracy i logowania.

5. Nie zakładaj, że producent „wszystko ogarnął”

Historia Leny pokazuje, że nawet wielkie firmy mogą przeoczyć krytyczne luki. Zaufanie do marki nie powinno zastępować zdrowego rozsądku.

6. Aktualizuj i korzystaj z zabezpieczeń

Upewnij się, że masz aktualną przeglądarkę, system i antywirusa. Wiele ataków działa tylko dlatego, że użytkownik ma niezałatane oprogramowanie.

Można to streścić jednym zdaniem: traktuj AI tak, jakbyś rozmawiał z obcym w internecie – nigdy nie zdradzaj za dużo i nigdy nie zakładaj pełnego bezpieczeństwa.

Najnowsze artykuły

Wideo, którego nie powinno być. Grok, Tesla i wjazd prosto do NSA

Czasem największym zagrożeniem dla bezpieczeństwa nie jest obcy haker, tylko smartfon (albo Tesla) w rękach kogoś, kto lubi wrzucić coś śmiesznego do sieci
Czytaj dalej
Artykuł

Wideo, którego nie powinno być. Grok, Tesla i wjazd prosto do NSA

Cyberbezpieczeństwo
Zarządzanie ryzykiem
NSA Friendship Annex, incydent bezpieczeństwa NSA, wideo Grok Tesla, Grok unhinged mode, Elon Musk Grok AI, nagranie w strefie chronionej, naruszenie bezpieczeństwa obiektu wojskowego, US Cyber Command śledztwo, Tesla AI incydent, cyberbezpieczeństwo obiektów krytycznych, ochrona infrastruktury krytycznej, bezpieczeństwo fizyczne i cyfrowe, incydenty bezpieczeństwa fizycznego, wyciek informacji wrażliwych, NIS2 Polska, NIS2 UE, DORA cyberbezpieczeństwo, ochrona danych w sektorze publicznym, zagrożenia ze strony AI, ustawa o ochronie informacji niejawnych, przepisy bezpieczeństwa UE, AI Act UE, prawo o ochronie obiektów strategicznych, nagrywanie na terenie chronionym, prawo o mediach społecznościowych a bezpieczeństwo, regulacje bezpieczeństwa fizycznego, co to jest NSA Friendship Annex, Grok AI w trybie unhinged, czy można nagrywać w obiekcie chronionym, przykłady naruszeń bezpieczeństwa w social media, NIS2 a bezpieczeństwo fizyczne, AI i bezpieczeństwo narodowe, konsekwencje prawne nagrania w strefie zastrzeżonej, edukacja pracowników w sektorze wrażliwym, wpływ sztucznej inteligencji na bezpieczeństwo
Podmioty ważne i kluczowe
Platformy Cyfrowe
Technologia
Usługi ICT

Gdy meduzy zatrzymują reaktory. O ślepych punktach w zarządzaniu ryzykiem operacyjnym

Sierpniowy incydent w elektrowni jądrowej Gravelines we Francji stanowi fascynujący przykład tego, jak organizacje mogą być zaskakiwane przez zagrożenia, które teoretycznie powinny przewidzieć.
Czytaj dalej
Artykuł

Gdy meduzy zatrzymują reaktory. O ślepych punktach w zarządzaniu ryzykiem operacyjnym

Ciągłość działania
Komunikacja kryzysowa
Incydenty
Zarządzanie ryzykiem
zarządzanie ryzykiem, ciągłość działania, business continuity, ryzyko operacyjne, elektrownia jądrowa, Gravelines, identyfikacja zagrożeń, analiza ryzyka, BCM, compliance, ryzyka endogeniczne, zarządzanie kryzysowe, odporność organizacyjna, cyberbezpieczeństwo infrastruktury krytycznej, planowanie ciągłości, risk management, operational risk,
Podmioty ważne i kluczowe
Energetyka

Między strategią a promocją: polska cyberobrona w świetle zarządzania ryzykiem

Z głęboką estymą dla generała dywizji Karola Molendy, dowódcy Wojsk Obrony Cyberprzestrzeni, postanowiłam zweryfikować kluczowe twierdzenia generała z perspektywy ekspertki od zarządzania ryzykiem.
Czytaj dalej
Komentarz

Między strategią a promocją: polska cyberobrona w świetle zarządzania ryzykiem

Zarządzanie kryzysowe
Geopolityka a biznes
Ciągłość działania
Jasne, oto lista słów kluczowych SEO na podstawie podanego tekstu, w formacie po przecinku: cyberobrona Polski, cyberbezpieczeństwo Polska, cyberzagrożenia 2024-2025, gen. Karol Molenda, Wojska Obrony Cyberprzestrzeni, wojna cybernetyczna, konflikt cybernetyczny, CERT Polska raport 2024, ataki hakerskie Rosja, grupa APT28, sztuczna inteligencja w wojsku, zarządzanie ryzykiem w cyberbezpieczeństwie, ćwiczenia Locked Shields 2024, ABW cyberbezpieczeństwo, kampanie hybrydowe, polskie instytucje rządowe ataki, Centrum Implementacji Sztucznej Inteligencji, polski model językowy PLLUM, strategia cyberobrony, zagrożenia geopolityczne.
Przemysł zbrojeniowy
Podmioty ważne i kluczowe
Technologia

Cyfrowi strażnicy toczą nierówną walkę

Sygnalista, który ujawnił przepływy 200 miliardów euro podejrzanych rosyjskich pieniędzy przez Danske Bank, otrzymywał groźby śmierci i doświadczył nielegalnego ujawnienia swojej tożsamości.
Czytaj dalej
Artykuł

Cyfrowi strażnicy toczą nierówną walkę

Sygnaliści
Cyberbezpieczeństwo
Ciągłość działania
sygnalista, ochrona sygnalistów, ustawa o sygnalistach, zgłaszanie nieprawidłowości, dyrektywa o sygnalistach, kanały dla sygnalistów, cyberbezpieczeństwo, zagrożenia wewnętrzne, wdrożenie ustawy o ochronie sygnalistów w firmie, wewnętrzne kanały zgłoszeń nieprawidłowości, system do obsługi zgłoszeń od sygnalistów, anonimowe zgłaszanie nieprawidłowości w pracy, obowiązki pracodawcy wobec sygnalistów, ochrona sygnalistów a cyberbezpieczeństwo, polityka ochrony sygnalistów wzór, jak chronić tożsamość sygnalisty, procedury dla sygnalistów w organizacji, ochrona sygnalistów w sektorze publicznym, wykrywanie zagrożeń wewnętrznych w firmie, kary za brak procedur dla sygnalistów, co grozi za zemstę na sygnaliście, jak uniknąć kar RODO za wyciek danych, ryzyko związane z zagrożeniami wewnętrznymi, jak zapobiegać naruszeniom danych przez pracowników, audyt zgodności z ustawą o sygnalistach, odpowiedzialność karna za ukrycie naruszenia, jak przygotować firmę na dyrektywę NIS2, Kto to jest sygnalista?, Jakie obowiązki nakłada nowa ustawa o sygnalistach?, Od kiedy obowiązuje ustawa o ochronie sygnalistów w Polsce?, Jak wdrożyć system dla sygnalistów w firmie?, Czy zgłoszenia od sygnalistów mogą być anonimowe?, Jak ustawa o sygnalistach chroni przed odwetem?, Jak zgłosić naruszenie cyberbezpieczeństwa w firmie?, Jakie firmy muszą wdrożyć kanały dla sygnalistów?, ochrona sygnalistów Polska 2024, polska ustawa o sygnalistach czerwiec 2024, dyrektywa UE 2019/1937 implementacja w Polsce, dyrektywa NIS2 obowiązki dla firm, Akt o Odporności Cybernetycznej (Cyber Resilience Act), kary UODO 2024, zgodność z dyrektywą o ochronie sygnalistów, Europejski Trybunał Sprawiedliwości kary dla Polski.
Bankowość i rynki finansowe
Podmioty ważne i kluczowe