Klikając „Akceptuj wszystkie pliki cookie”, zgadzasz się na przechowywanie plików cookie na swoim urządzeniu w celu ułatwienia nawigacji po stronie, analizy korzystania ze strony oraz wspierania naszych działań marketingowych. Zobacz naszą Politykę prywatności, aby uzyskać więcej informacji.
Artykuł

Lenovo chatbot Lena narażony na ataki

Davidson Consulting

Eksperci ds. zarządzania kryzysowego i ciągłości działania

Lena została zaprojektowana, by wspierać klientów w obsłudze produktów, jednak w praktyce mogła stać się furtką dla cyberprzestępców.

Cybernews opublikowało materiał o poważnych podatnościach w implementacji chatbota AI firmy Lenovo, Leny, opartego na modelu GPT-4 od OpenAI. Lena została zaprojektowana, by wspierać klientów w obsłudze produktów, jednak w praktyce mogła stać się furtką dla cyberprzestępców. Odpowiednio spreparowany prompt wystarczył, by chatbot uruchomił nieautoryzowane skrypty, wykradał ciasteczka sesyjne i otwierał drogę do dalszych nadużyć.

Atak okazał się zaskakująco prosty. Wystarczyło jedno, 400-znakowe polecenie, które zaczynało się od pozornie niewinnej prośby o specyfikację laptopa. Następnie nakazywało zmianę formatu odpowiedzi na HTML, by w treści mogły znaleźć się ukryte instrukcje. Kolejne fragmenty promptu wstrzykiwały kod, który odwoływał się do nieistniejącego obrazu, a kiedy ładowanie kończyło się błędem, przeglądarka wysyłała ciasteczka sesyjne na serwer atakującego. Co gorsza, przechwycone dane nie dotyczyły tylko użytkowników – w momencie przejścia do kontaktu z żywym konsultantem, również jego komputer otwierał spreparowaną odpowiedź chatbota i powtarzał cały proces kradzieży danych.

To odkrycie unaoczniło, jak podatne są systemy oparte na sztucznej inteligencji, gdy brakuje w nich rygorystycznych zabezpieczeń. Modele językowe nie mają instynktu bezpieczeństwa – nie rozpoznają, że coś jest złośliwe, wykonują jedynie polecenia w możliwie najdokładniejszy sposób. Jeżeli nie zostaną otoczone dodatkowymi warstwami kontroli, wówczas nawet proste manipulacje mogą stać się początkiem poważnych incydentów.

Lenovo, po odpowiedzialnym zgłoszeniu problemu, potwierdziło istnienie luk i w krótkim czasie zabezpieczyło swoje systemy. Jednak sam incydent powinien być przestrogą dla całej branży ale też użytkowników sztucznej inteligencji. Dziś firmy prześcigają się we wdrażaniu rozwiązań opartych na AI – chcą być szybkie, nowoczesne, dostępne. Tymczasem bezpieczeństwo często pozostaje w tyle, traktowane jako etap, który można dodać później. Ta luka czasowa pomiędzy entuzjastycznym uruchomieniem a właściwą ochroną jest dokładnie tym miejscem, w którym atakujący znajdują dla siebie przestrzeń.

Nie chodzi tylko o wykradanie ciasteczek. W podobny sposób można by spróbować wstrzykiwać inny kod – taki, który zmienia wygląd interfejsu, przekierowuje na fałszywe strony, instaluje backdoory czy zbiera każde naciśnięcie klawisza. Każdy z tych scenariuszy pokazuje, że problem nie dotyczy wyłącznie Lenovo. Każdy chatbot, każda implementacja AI, która nie została odpowiednio zabezpieczona, potencjalnie otwiera drzwi do infrastruktury firmy.

Wnioski płynące z tej historii są proste: dane wprowadzane do systemu AI należy traktować z dużą ostrożnością, a odpowiedzi chatbota zawsze sprawdzać i filtrować. W świecie, w którym sztuczna inteligencja coraz częściej wspiera obsługę klienta czy procesy biznesowe, nie można zakładać jej bezbłędności ani bezpieczeństwa. Zabezpieczenia muszą być obecne od pierwszego dnia wdrożenia, a nie dokładane dopiero wtedy, gdy wydarzy się incydent. Firmy, które o tym zapominają, narażają się nie tylko na utratę danych, ale też reputacji i zaufania klientów. Lenovo wyciągnęło wnioski i załatało luki, ale pytanie pozostaje: ile innych chatbotów, uruchomionych w pośpiechu, wciąż działa dziś bez realnej ochrony?

Firmy włączające AI do swoich systemów powinny pamiętać o zabezpieczeniach:

  • Sanityzacja wejścia – filtrowanie i ograniczanie tego, co użytkownicy mogą wprowadzać.
  • Sanityzacja wyjścia – czyszczenie odpowiedzi chatbota z kodu, zanim trafią do przeglądarki czy systemów wewnętrznych.
  • Content Security Policy (CSP) – restrykcje dotyczące tego, jakie zasoby może ładować przeglądarka.
  • Unikanie inline JavaScript i ograniczenie uprawnień aplikacji.
  • Zasada „zero trust” wobec danych generowanych przez AI.
  • Output chatbota należy traktować jako potencjalnie niebezpieczny. Tylko stała walidacja i monitorowanie pozwalają korzystać z takich systemów w sposób bezpieczny.

Choć w tej historii odpowiedzialność spada głównie na firmę, warto pamiętać, że użytkownicy również nie są bezbronni. Każdy z nas korzysta z chatbotów czy systemów AI – w obsłudze klienta, aplikacjach bankowych, a czasem nawet w pracy. I choć naturalnie zakładamy, że producent zadbał o bezpieczeństwo, prawda jest taka, że nigdy nie mamy pełnej pewności, jak chronione są nasze dane ani jakie luki mogą istnieć. Dlatego rozsądnie jest traktować każdą rozmowę z AI z odrobiną sceptycyzmu i stosować kilka prostych zasad ostrożności.

Jeśli korzystasz z AI - zawodowo lub nawet rozrywkowo, pamiętaj o kilku ważnych zasadach:

1. Nie podawaj wrażliwych danych

Niezależnie od tego, czy to numer karty, PESEL, dane logowania czy nawet prywatne dokumenty – nie zakładaj, że AI jest bezpiecznym sejfem. Modele mogą zapisywać lub przesyłać dane w sposób, którego nie widzisz.

2. Ostrożnie z linkami i załącznikami

Jeśli chatbot wyświetla link, obrazek albo zachęca do kliknięcia w dodatkowe materiały, potraktuj to tak samo jak podejrzany link w mailu. Nie klikaj bez zastanowienia – zwłaszcza jeśli wygląda dziwnie, prowadzi poza oficjalną domenę firmy albo zawiera przekierowania.

3. Traktuj odpowiedzi jako niezweryfikowane

AI potrafi wygenerować HTML, kod, a nawet skrypty. Nigdy nie kopiuj ich w ciemno do własnych systemów ani na komputer firmowy. Jeśli chatbot poda kod czy fragment konfiguracji – sprawdź go dwa razy zanim użyjesz.

4. Używaj AI w izolacji

Jeżeli testujesz coś, co może być „ryzykowne” (np. fragmenty kodu, generowane pliki), rób to na oddzielnej maszynie, w środowisku testowym albo choćby w piaskownicy, nie na głównym komputerze, którego używasz do pracy i logowania.

5. Nie zakładaj, że producent „wszystko ogarnął”

Historia Leny pokazuje, że nawet wielkie firmy mogą przeoczyć krytyczne luki. Zaufanie do marki nie powinno zastępować zdrowego rozsądku.

6. Aktualizuj i korzystaj z zabezpieczeń

Upewnij się, że masz aktualną przeglądarkę, system i antywirusa. Wiele ataków działa tylko dlatego, że użytkownik ma niezałatane oprogramowanie.

Można to streścić jednym zdaniem: traktuj AI tak, jakbyś rozmawiał z obcym w internecie – nigdy nie zdradzaj za dużo i nigdy nie zakładaj pełnego bezpieczeństwa.

Zapisz się już teraz! 

Subskrybując newsletter Davidson Consulting, otrzymujesz merytoryczne analizy z zakresu zarządzania ryzykiem, ciągłości działania, cyberbezpieczeństwa i compliance (m.in. DORA, NIS2), a także informacje o naszych usługach i produktach, które pomogą Ci skutecznie wdrożyć prezentowane strategie.  

Pamiętaj, Twoja subskrypcja jest w pełni dobrowolna i możesz ją anulować w każdej chwili jednym kliknięciem.
* - Pole obowiązkowe
Dziękujemy za zapisanie się do Forum Ekspertów Odporności Operacyjnej.
Ups! Coś poszło nie tak podczas uzupełnienia formy. Spróbuj ponownie lub skontaktuj się bezpośrednio.

Najnowsze artykuły

Akty sabotażu na infrastrukturze krytycznej w Polsce

To już nie są amatorskie podpalenia. Czy jesteśmy gotowi na wojnę hybrydową nowej generacji?
Czytaj dalej
Raport

Akty sabotażu na infrastrukturze krytycznej w Polsce

Ciągłość działania
Zarządzanie kryzysowe
Bezpieczeństwo łańcucha dostaw
Podmioty ważne i kluczowe

ENISA 2025: wyzwania i zalecenia dla UE

Europejska Agencja ds. Cyberbezpieczeństwa (ENISA) opublikowała raport Threat Landscape 2025, przedstawiający przegląd ekosystemu cyberzagrożeń w Europie wokresie od lipca 2024 do czerwca 2025 roku.
Czytaj dalej
Raport

ENISA 2025: wyzwania i zalecenia dla UE

Cyberbezpieczeństwo
Geopolityka a biznes
Bezpieczeństwo łańcucha dostaw
ENISA, raport, cyberbezpieczeństwo, threats
Administracja publiczna
IT i technologia

Globalna awaria Azure Front Door

Analiza incydentu i wnioski dla sektora finansowego (i nie tylko)
Czytaj dalej
Case Study

Globalna awaria Azure Front Door

Cyberbezpieczeństwo
Zarządzanie kryzysowe
Bezpieczeństwo łańcucha dostaw
Incydenty
awaria Microsoft Azure, awaria Azure Front Door, globalna awaria Microsoft, Azure Front Door outage, Microsoft Azure outage, awaria usług Microsoft, niedostępność usług Microsoft, Azure AD, Entra ID, App Service, Azure SQL Database, Azure Portal, Xbox, Minecraft, chmura Microsoft, awaria chmury, błąd konfiguracji Azure, konfiguracja tenant, software defect, wada oprogramowania, błąd ludzki Microsoft, human error Azure, efekt kaskadowy, przeciążenie węzłów Azure, awaria DNS, Azure DNS outage, rollback Azure, last known good configuration, LKGC, Site Reliability Engineering, SRE, defense in depth, automatyzacja wdrożeń, błąd walidacji konfiguracji, błędna konfiguracja, kontrola konfiguracji Azure, edge case Azure, control plane, data plane, failure in validation, awaria globalna, Microsoft incident report, Post Incident Report, PIR Microsoft, YKYN-BWZ, resilience Azure, cloud resilience, odporność operacyjna, operational resilience, DORA, Digital Operational Resilience Act, regulacje DORA, zgodność z DORA, compliance DORA, KNF, Komisja Nadzoru Finansowego, nadzór finansowy, ryzyko koncentracji, third party risk, ryzyko dostawcy chmury, cloud risk management, vendor lock-in, multicloud, multi-cloud, multi-region, geodywersyfikacja, architektura odporna, cloud architecture, disaster recovery, DRP, business continuity, BCP, cloud outage analysis, audyt chmurowy, cloud audit, SOC 2, cloud governance, SLA, RTO, RPO, czas odtworzenia Azure, Microsoft downtime, outage recovery, chaos engineering, testy negatywne, automatyczny rollback, Canary Deployment, phased deployment, failover Azure, critical third party provider, CCP, ESAs, EBA, EIOPA, ESMA, nadzór nad dostawcami chmury, resilience banking, odporność banków, ryzyko chmurowe w sektorze finansowym, ryzyko technologiczne, ciągłość działania, cloud compliance, architektura wielochmurowa, cloud diversification, multivendor strategy, strategia multicloud, optymalizacja kosztów chmury, cloud cost optimization, cloud latency, Azure performance, globalna infrastruktura Microsoft, awarie AWS, porównanie Azure AWS, cloud dependency, single point of failure, SPOF, cloud reliability, cloud security, błędy operacyjne Microsoft, analiza incydentu Azure, raport Microsoft Azure, zarządzanie ryzykiem ICT, cloud risk, infrastruktura krytyczna, cloud incident response, audyt poawaryjny, analiza PIR, Microsoft transparency report, cloud service disruption, krytyczne usługi ICT, chmura publiczna, odporność regulacyjna, zgodność z regulacjami UE, dyrektywa DORA, bezpieczeństwo chmury, cloud compliance EU, KNF DORA wytyczne, architektura bankowa, infrastruktura finansowa, cloud resilience strategy, zarządzanie ciągłością działania, ryzyko operacyjne, ryzyko ICT, cyberbezpieczeństwo sektora finansowego.
IT i technologia
Bankowość i rynki finansowe
Firmy w Polsce

Ataki na bankomaty Santander w Poznaniu

Analiza odpowiedzialności, zwrotu środków i wyzwań bezpieczeństwa.
Czytaj dalej
Case Study

Ataki na bankomaty Santander w Poznaniu

Incydenty
Zgodność
atak Santander, Santander bankomaty, zwrot środków po nieautoryzowanej transakcji, odpowiedzialność banku za straty klientów, skimming bankomatowy, zabezpieczenia bankomatów Santander, skradzione pieniądze Santander bank, umowy między bankiem a operatorem bankomatów, dyrektywa PSD2 w ochronie konsumentów, silne uwierzytelnianie klienta (SCA), monitoring bankomatów i wykrywanie oszustw, postępowanie prokuratorskie w sprawie skimmingu, odzyskiwanie pieniędzy przez bank, procedury bezpieczeństwa banku Santander, edukacja klientów w zakresie cyberbezpieczeństwa, System Bezpieczeństwa Danych Przemysłu Kart Płatniczych (PCI DSS), skimmery i kamery na bankomatach, operatorzy bankomatów Euronet i ITCARD, ryzyko prawne banku przy atakach na bankomaty, audyty i testy penetracyjne w sektorze bankowym, współpraca banku z organami ścigania w sprawach cyberprzestępczości.
Bankowość i rynki finansowe