Cel i perspektywa: po co w ogóle zajmować się shadow AI
Większość firm nie startuje z pytaniem: „czy w ogóle używać AI?”, tylko z dużo bardziej przyziemnym dylematem: „jak to ogarnąć, skoro ludzie i tak już korzystają z chatbotów?”. Celem nie jest całkowite zablokowanie narzędzi generatywnych, ale ujarzmienie spontanicznego korzystania z chatbotów tak, aby nie skończyło się to wyciekiem danych, konfliktem z RODO albo naruszeniem umów z klientami.
Intencją menedżerów, prawników i osób od bezpieczeństwa jest zwykle jedno: pozwolić pracownikom realnie korzystać z AI, ale w kontrolowanych, legalnych i sensownych ramach. To wymaga zarówno zrozumienia, jakie są ryzyka, jak i zaprojektowania praktycznych procedur – takich, które da się stosować w codziennej pracy, a nie tylko w prezentacjach.
Czym jest shadow AI i dlaczego stała się realnym problemem
Definicja shadow AI: ukryta warstwa narzędzi i automatyzacji
Shadow AI to każde użycie chatbotów i innych narzędzi sztucznej inteligencji w organizacji, które odbywa się poza formalną wiedzą, kontrolą i zgodą firmy. Chodzi nie tylko o ChatGPT, ale też:
- darmowe chatboty w przeglądarkach,
- wtyczki AI do pakietu biurowego lub przeglądarek,
- aplikacje mobilne na prywatnych telefonach używane do pracy,
- mini-boty wbudowane w inne systemy (CRM, helpdesk, narzędzia HR).
Shadow AI nie oznacza automatycznie złej woli pracowników. Najczęściej to oddolna innowacja: ktoś chce szybciej napisać maila, poprawić ofertę, przetłumaczyć dokument czy zrozumieć umowę. Problem pojawia się wtedy, gdy takie działania wchodzą w konflikt z ochroną danych, tajemnicą przedsiębiorstwa albo obowiązkami wobec klientów i regulatorów.
Shadow AI a shadow IT – podobieństwa i nowe ryzyka
Shadow AI bywa porównywane do shadow IT, czyli nieautoryzowanych systemów, serwerów czy aplikacji wykorzystywanych w firmie bez zgody działu IT. To porównanie częściowo działa, ale pomija kluczową różnicę.
W klasycznym shadow IT ryzyko skupia się na:
- braku patchy i aktualizacji (luki bezpieczeństwa),
- niekontrolowanym dostępie (np. nieautoryzowane konta),
- niezgodnym z procedurami przechowywaniu danych (np. na prywatnym Dropboxie).
W przypadku shadow AI pojawia się dodatkowy, jakościowo inny problem: dane wprowadzane do systemu AI mogą być wykorzystywane do dalszego trenowania modeli, przechowywane w logach i analizowane w sposób, którego organizacja nie kontroluje. Chatboty uczą się na podstawie interakcji, a pracownik zwykle nie ma wpływu na to, co dzieje się z podanymi informacjami po kliknięciu „Wyślij”.
Mit: „chatbot to tylko wyszukiwarka w innym wydaniu”. Rzeczywistość: wyszukiwarka indeksuje strony, a chatbot często aktywnie przetwarza i uogólnia to, co wprowadzisz, tworząc nowe dane i czasem utrwalając je w systemach dostawcy.
Jak shadow AI wygląda w praktyce w różnych działach
Shadow AI w firmie nie jest abstrakcyjną koncepcją. W praktyce wygląda to bardzo „przyziemnie”. Kilka typowych scenariuszy:
- HR – rekruterzy proszą chatbota o „streszczenie CV kandydata” lub „napisanie feedbacku po rozmowie rekrutacyjnej”, wklejając dane osobowe i szczegółowe informacje o przebiegu spotkania.
- Marketing – specjaliści wklejają robocze wersje strategii, harmonogramy kampanii lub wyniki badań fokusowych, aby „ubrać je w lepsze słowa”, zapominając, że to często informacje o wysokiej wartości biznesowej.
- Sprzedaż – handlowiec prosi AI o dopracowanie oferty, wklejając szczegóły rabatów, indywidualnych warunków i dane o wolumenie zakupów konkretnego klienta.
- IT i developerzy – programiści wysyłają fragmenty kodu systemów wewnętrznych do zewnętrznego chatbota, żeby znaleźć błąd lub przyspieszyć development.
W każdej z tych sytuacji użytkownicy mają dobrą intencję: chcą coś zrobić szybciej i lepiej. Problemem jest brak świadomości skutków prawnych i bezpieczeństwa: ani HR, ani marketing nie analizują, czy dany chatbot jest procesorem danych, jak długo przechowuje informacje i w jakim kraju je przetwarza.
Mit: „u nas nikt z tego nie korzysta” kontra codzienność biura
W wielu organizacjach początkowa reakcja zarządu czy działu IT brzmi: „Przecież nie mamy wdrożonego ChatGPT, więc problemu nie ma”. To klasyczny mit. Rzeczywistość jest zwykle inna:
- Pracownicy korzystają z prywatnych kont na ChatGPT lub innych platformach – logują się przez przeglądarkę lub aplikację mobilną na służbowym laptopie.
- Niektórzy używają wtyczek AI w przeglądarce, które w tle wysyłają część odwiedzanych treści do zewnętrznej analizy.
- Coraz częściej stosowane są AI wbudowane w narzędzia SaaS: systemy CRM, marketing automation, platformy rekrutacyjne mają swoje „asystenty AI”, które działają na danych klientów i kandydatów.
Realny test: jeśli w organizacji pracują osoby z otoczenia marketingu, HR, sprzedaży lub IT, szansa, że nikt nie korzysta z AI, jest niewielka. Pierwszym sygnałem bywa nagła zmiana stylu maili, powtarzalne „chatbotowe” sformułowania, szybki wzrost jakości prezentacji czy nietypowe pytania do działu prawnego lub bezpieczeństwa: „A czy mogę wkleić do ChatGPT ten dokument?”
Wczesne sygnały obecności shadow AI w firmie
Istnieje kilka charakterystycznych symptomów, które sugerują, że shadow AI już działa:
- Teksty wewnętrzne i zewnętrzne zaczynają mieć podobny, wygładzony styl, często z nadmierną ogólnikowością, która jest typowa dla generatywnej AI.
- Pracownicy zadają specyficzne pytania: „Czy mamy jakąś politykę AI?”, „Czy wolno mi używać ChatGPT z tymi danymi?” – co sugeruje, że już eksperymentują.
- Dział IT zauważa zwiększony ruch do określonych domen (np. chat.openai.com, bard, różne aplikacje AI) lub instalację nietypowych rozszerzeń przeglądarki.
- Pojawiają się zaskakująco szybkie efekty pracy: obszerne analizy, scenariusze kampanii, długie maile – przygotowane „w rekordowym tempie”.
Ignorowanie tych sygnałów nie sprawia, że problem znika. Sprawia jedynie, że shadow AI rozwija się poza jakąkolwiek kontrolą, a organizacja dowiaduje się o nim dopiero, gdy dojdzie do incydentu.

Główne ryzyka prawne i biznesowe związane z niekontrolowanym użyciem chatbotów
Wyciek informacji poufnych i tajemnicy przedsiębiorstwa
Najbardziej oczywiste, a jednocześnie najpoważniejsze ryzyko to niezamierzony wyciek informacji poufnych. W praktyce dzieje się to często bardzo niewinnie:
- ktoś prosi chatbota o „ładniejsze sformułowanie” oferty, wklejając warunki handlowe,
- ktoś inny wkleja fragmenty wewnętrznej prezentacji strategicznej, żeby „usunąć literówki”,
- ktoś wysyła do AI treść umowy z kluczowym partnerem w celu jej „streślenia dla zarządu”.
Jeśli chatbot działa jako zewnętrzna usługa w chmurze, te dane opuszczają infrastrukturę organizacji. Stają się dostępne dla dostawcy, a czasem także partnerów technologicznych. Nawet jeśli dostawca deklaruje, że nie używa danych do trenowania modelu, pozostaje ryzyko:
- dostępu pracowników dostawcy,
- włamania do systemu,
- przetwarzania w jurysdykcjach o innym poziomie ochrony prawnej.
Dodatkowo w wielu krajach (w tym w Polsce) tajemnica przedsiębiorstwa jest chroniona prawnie tylko wtedy, gdy firma podejmuje rozsądne działania w celu jej zabezpieczenia. Pozwalanie na masowe wklejanie poufnych informacji do darmowych chatbotów trudno uznać za takie działanie.
Prawo pracy, NDA, zakazy konkurencji i obowiązki sektorowe
Nieautoryzowane użycie chatbotów może też wejść w konflikt z szeregiem regulacji, które nie są kojarzone z AI, ale realnie ją dotykają.
Prawo pracy – jeśli pracownik wykorzystuje chatbota w sposób, który naraża pracodawcę na szkodę (np. ujawnia dane klientów, narusza tajemnicę przedsiębiorstwa), pracodawca może ponieść konsekwencje wobec osób trzecich, a następnie rozliczyć to wewnętrznie. Problem w tym, że bez polityk i szkoleń trudniej wykazać, że pracownik działał wbrew jasnym wytycznym.
Umowy o zachowaniu poufności (NDA) – wiele NDA z klientami czy partnerami zawiera klauzule zakazujące przekazywania informacji poufnych osobom trzecim lub przetwarzania tych danych poza określonym terytorium. Wklejenie poufnego dokumentu do chatbota hostowanego w innej jurysdykcji może być bezpośrednim naruszeniem NDA, z konsekwencjami finansowymi.
Regulacje sektorowe – w branżach regulowanych (finanse, medycyna, ubezpieczenia, telekomunikacja) istnieją dodatkowe wymogi dotyczące:
- lokalizacji danych,
- dokumentowania procesów przetwarzania,
- testowania i walidacji systemów automatyzujących decyzje.
Jeśli pracownik banku lub ubezpieczyciel wkleja dane klienta do ogólnodostępnego chatbota, może dojść nie tylko do naruszenia RODO, ale też specjalistycznych regulacji nadzorcy (np. KNF), co bywa znacznie bardziej bolesne.
RODO a generatywna AI: kiedy prompt staje się przetwarzaniem danych osobowych
Mit: „Jak nie podam imienia i nazwiska, to nie są to dane osobowe, więc RODO mnie nie dotyczy”. Rzeczywistość jest dużo mniej wygodna. Zgodnie z RODO danymi osobowymi są wszelkie informacje o zidentyfikowanej lub możliwej do zidentyfikowania osobie fizycznej. Nie trzeba więc podawać pełnego imienia i nazwiska; wystarczy kombinacja informacji, która pozwala rozpoznać osobę w danym kontekście.
Przykłady promptów, które mogą być przetwarzaniem danych osobowych:
- „Przygotuj feedback po rozmowie rekrutacyjnej z kandydatem, który ma 7 lat doświadczenia w firmie X, aplikował na stanowisko Y, ma przerwę w zatrudnieniu z powodu choroby nowotworowej…”
- „Stwórz maila do klienta, który ma 3 dzieci, ostatnio rozwiódł się i ma problemy z terminowym regulowaniem rat…”
- „Podsumuj przebieg wizyty pacjenta: mężczyzna 45 lat, pracuje w konkretnym zakładzie, mieszka w małej miejscowości, ma określoną rzadką chorobę…”
W takich sytuacjach organizacja jest administratorem danych osobowych, a dostawca chatbota – co najmniej procesorem (podmiotem przetwarzającym) lub nawet odrębnym administratorem. To oznacza obowiązki:
- ustalenia podstawy prawnej przetwarzania (art. 6 RODO),
- informowania osób, których dane dotyczą, o tym przetwarzaniu (art. 13–14),
- zawarcia umowy powierzenia z dostawcą (art. 28),
- należytej staranności przy wyborze dostawcy (transfery poza EOG, środki bezpieczeństwa).
Jeśli pracownicy robią to wszystko „na dziko”, bez wiedzy organizacji, formalnie odpowiedzialność i tak spada na organizację. Tłumaczenie „to pracownik sam wpadł na pomysł” nie zadziała przed organem nadzorczym.
Odpowiedzialność za decyzje oparte na podpowiedziach chatbota
Nie mniej ważne jest ryzyko wynikające z podejmowania decyzji na podstawie rekomendacji chatbotów. Generatywne AI potrafi przekonująco „halucynować” – tworzyć treści wyglądające na wiarygodne, ale niezgodne z rzeczywistością.
Scenariusze problemowe:
- dział HR tworzy regulamin lub procedurę dyscyplinarną, opierając się na podpowiedziach chatbota dotyczących Kodeksu pracy, a potem okazuje się, że są sprzeczne z aktualnym prawem,
- specjalista ds. compliance prosi chatbota o interpretację przepisów AML i na tej podstawie kształtuje praktykę w firmie,
- dział sprzedaży używa AI do segmentacji klientów w sposób, który ma efekt dyskryminujący (np. wobec określonych grup wiekowych).
W takich sytuacjach organizacja nadal ponosi odpowiedzialność za własne decyzje. Chatbot nie jest „zewnętrznym doradcą”, który przejmuje ryzyko. To jedynie narzędzie, a jego błędy nie zwalniają z odpowiedzialności wobec klientów, pracowników czy regulatora.
Mit anonimowości chatbotów a logowanie i analiza danych
Mit anonimowości a realne logi dostawców
Domowe przekonanie wielu użytkowników brzmi: „to tylko prompt, nikt tego nie zobaczy”. Tymczasem większość komercyjnych chatbotów loguje treści zapytań, dane techniczne użytkownika oraz sposób korzystania z usługi. Część dostawców ma do tych logów dostęp w ramach wsparcia technicznego, monitoringu nadużyć, poprawy jakości modeli.
Jeżeli pracownik korzysta z chatbota na koncie osobistym, ale z firmowego laptopa, z sieci organizacji, z charakterystycznymi danymi wejściowymi (np. opisem konkretnych projektów), to „anonimowość” szybko staje się iluzją. Dostawca może co prawda nie znać nazwiska, ale z perspektywy organizacji da się taką osobę łatwo zidentyfikować choćby po czasie, rodzaju zadań czy treści promptów.
Mit polega na tym, że brak bezpośredniego pola „imię i nazwisko” rzekomo wyłącza przepisy ochrony danych czy obowiązki umowne. W rzeczywistości liczy się kontekst i możliwość identyfikacji. Jeśli z treści promptu da się wywnioskować, o jaką osobę, kontrakt czy klienta chodzi, organizacja odpowiada za to przetwarzanie tak samo, jak w przypadku klasycznego systemu CRM.
Ramy prawne w UE i w Polsce: co już obowiązuje, a co dopiero nadchodzi
Obowiązujące przepisy „ogólne”, które już obejmują AI
Choć prawo o AI wydaje się świeżym tematem, większość zagadnień związanych z shadow AI podpada pod istniejące regulacje. W praktyce najczęściej pojawiają się:
- RODO (GDPR) – dotyczy zarówno danych wrzucanych do chatbota, jak i danych generowanych, jeśli można z nich wywnioskować informacje o osobach fizycznych.
- Prawo pracy – obejmuje m.in. monitorowanie pracowników, ocenę efektywności, profilowanie kandydatów z użyciem AI.
- Prawo własności intelektualnej – treści wklejane do chatbota mogą być chronione prawem autorskim lub tajemnicą przedsiębiorstwa; podobnie treści generowane mogą naruszać cudze prawa.
- Prawo telekomunikacyjne i cyberbezpieczeństwo – w kontekście wykorzystywania zasobów sieciowych, bezpieczeństwa transmisji danych i incydentów.
- Regulacje sektorowe (bankowość, ubezpieczenia, medycyna, energetyka) – wprowadzają dodatkowe wymogi co do miejsca i sposobu przetwarzania danych.
Mit: „Dopóki nie ma specjalnej ustawy o AI, jesteśmy w szarej strefie”. Rzeczywistość: regulatorzy stosują stare narzędzia do nowych technologii. Brak dedykowanej ustawy nie oznacza braku odpowiedzialności – oznacza jedynie, że interpretacja przepisów bywa bardziej nieprzewidywalna.
Akt o sztucznej inteligencji (AI Act) – co zmieni w praktyce
Na poziomie UE kluczowym aktem jest AI Act, który wchodzi etapami i będzie obowiązywał bezpośrednio we wszystkich państwach członkowskich. Jego istotą jest podejście oparte na ryzyku – inne obowiązki dla systemów niskiego ryzyka, inne dla krytycznych.
W kontekście shadow AI najważniejsze elementy to:
- definicja systemu AI – obejmuje nie tylko rozbudowane platformy, ale też mniejsze komponenty, w tym generatywne modele wykorzystywane jako „asystenci” w gotowych aplikacjach,
- kategorie ryzyka – od zakazanych zastosowań (np. manipulacje behawioralne na dużą skalę) przez systemy wysokiego ryzyka (m.in. w rekrutacji, ocenie kredytowej, dostępie do usług publicznych) po systemy o ograniczonym ryzyku,
- wymogi dla systemów generatywnych – w szczególności obowiązek informowania użytkowników, że mają do czynienia z AI, oznaczanie treści syntetycznych oraz wdrożenie rozwiązań ograniczających generowanie nielegalnych treści.
Dla organizacji oznacza to konieczność odpowiedzi na kilka podstawowych pytań: jakiego typu system AI jest używany (lub „doklejony” do używanych narzędzi), w jakich procesach, oraz czy któryś z tych procesów zahacza o obszary wysokiego ryzyka według AI Act.
Polski kontekst: krajowe regulacje i wytyczne organów
W Polsce szczególne znaczenie mają:
- ustawa o ochronie danych osobowych i działalność UODO – w praktyce to interpretacje i decyzje organu nadzorczego kształtują standardy użycia AI z danymi osobowymi,
- kodeks pracy – w tym regulacje dotyczące monitoringu, oceny pracowników i kandydatów,
- rekomendacje KNF oraz wytyczne branżowe – dla sektora finansowego i ubezpieczeniowego, gdzie automatyzacja decyzji kredytowych, ubezpieczeniowych czy AML za pomocą AI będzie szczegółowo analizowana,
- ustawy sektorowe (np. o działalności leczniczej, o systemie informacji w ochronie zdrowia) – zawierają konkretne wymogi co do przetwarzania danych wrażliwych, które trudno pogodzić z „wrzucaniem” ich do zewnętrznych chatbotów.
Coraz częściej pojawiają się też miękkie regulacje: stanowiska, rekomendacje, zaktualizowane kodeksy dobrych praktyk. Formalnie nie są prawem, ale po incydencie stają się punktem odniesienia do oceny, czy organizacja działała „z należytą starannością”. Ignorowanie ich pod hasłem „to tylko opinia” jest ryzykowne, szczególnie w sektorach nadzorowanych.

Identyfikacja shadow AI w organizacji: jak zmapować realne użycie chatbotów
Podejście: od „polowania na czarownice” do inwentaryzacji
Najgorsza strategia to ogłoszenie „zakazu ChatGPT” i rozpoczęcie polowania na winnych. Taki ruch zwykle kończy się tym, że pracownicy korzystają z AI poza oficjalnymi kanałami, na prywatnych urządzeniach, bez jakiegokolwiek nadzoru. Lepszą drogą jest otwarta inwentaryzacja faktycznych zastosowań.
Dobrym startem jest krótka, celowana ankieta wśród pracowników z pytaniami o:
- narzędzia AI, z których korzystają (w pracy i prywatnie) do celów zawodowych,
- rodzaje zadań, przy których korzystają z chatbotów (np. tłumaczenia, podsumowania, kod),
- przykładowe dane, które wklejają (anonimowo opisane),
- odczuwane korzyści i bariery.
Kluczowe jest zakomunikowanie, że celem nie jest karanie, tylko zrozumienie skali zjawiska i zaprojektowanie sensownych zasad. Bez takiego zaufania ankieta będzie fikcją, a shadow AI po prostu zejdzie głębiej do podziemia.
Analiza ruchu sieciowego i logów systemowych
Drugim filarem identyfikacji mogą być dane techniczne. Dział IT lub bezpieczeństwa jest w stanie wykryć:
- najczęściej odwiedzane domeny związane z generatywną AI,
- użycie rozszerzeń przeglądarki, które komunikują się z usługami AI,
- nietypowe transfery danych (np. duże ilości kopiowane z systemów firmowych do zewnętrznych stron).
Oczywiście taka analiza musi odbywać się w granicach prawa pracy i przepisów o ochronie prywatności pracowników. Chodzi o wzorce korzystania, a nie pełny wgląd w treść każdego promptu. Dobrą praktyką jest opisanie zakresu monitoringu w politykach wewnętrznych i poinformowanie pracowników, co jest analizowane, a co nie.
Mapowanie procesów biznesowych z potencjalnym użyciem AI
Kolejny krok to spojrzenie nie na narzędzia, lecz na procesy. W jakich obszarach pracownicy najchętniej sięgają po „inteligentnych asystentów”?
Najczęściej są to:
- tworzenie treści (maile, oferty, prezentacje, opisy produktów),
- analiza dokumentów (streszczenia umów, raportów, procedur),
- programowanie i testowanie kodu,
- przygotowywanie analiz rynkowych, benchmarków, propozycji strategii,
- obsługa klienta – szkice odpowiedzi, skrypty rozmów, propozycje rozwiązań problemów.
Przy mapowaniu warto oznaczyć trzy elementy: rodzaj danych (anonimowe, biznesowe, osobowe, wrażliwe), cel użycia AI (pomocniczy vs decyzyjny) oraz skalę (sporadyczne użycie, masowa automatyzacja). To będzie później podstawą do klasyfikacji ryzyka.
Rozmowy z „power userami” i liderami zespołów
W każdej firmie są osoby, które najwcześniej i najintensywniej korzystają z nowych narzędzi. Zidentyfikowanie ich (czasem na podstawie ankiety, czasem z rekomendacji menedżerów) i przeprowadzenie z nimi krótkich wywiadów przynosi często więcej wiedzy niż formalne dokumenty.
Warto zapytać:
- do jakich zadań używają chatbotów na co dzień,
- jakie dane wklejają, a których unikają,
- jak oceniają ryzyka i co ich najbardziej niepokoi,
- jakie „obejścia” stosują, gdy oficjalne systemy im nie wystarczają.
Takie rozmowy pomagają wyłapać nieoczywiste zastosowania – np. wprowadzanie danych z systemów finansowych do darmowych narzędzi lub wykorzystywanie AI do podejmowania decyzji w sporach z klientami.
Klasyfikacja ryzyka: jakie użycia chatbotów są dopuszczalne, a które nie
Prosty model poziomów ryzyka
Zamiast jednej, ogólnej etykiety „AI = ryzyko”, sprawdza się podział na kilka poziomów z prostymi kryteriami. Przykładowy model:
- Niskie ryzyko – brak danych osobowych, brak informacji poufnych, użycie wyłącznie pomocnicze (np. generowanie ogólnych pomysłów, struktury prezentacji, szkiców tekstów niepowiązanych z konkretnymi klientami).
- Średnie ryzyko – dane biznesowe bez wysokiej wrażliwości, lekkie konteksty personalne, ale brak danych wrażliwych; decyzje zawsze weryfikowane przez człowieka.
- Wysokie ryzyko – dane osobowe, zwłaszcza wrażliwe lub objęte tajemnicą, procesy o dużym wpływie na prawa i obowiązki ludzi (np. rekrutacja, oceny, odmowy świadczeń); decyzje podejmowane pod istotnym wpływem AI.
Na tej podstawie łatwiej określić, które zastosowania można dopuścić w zewnętrznych chatbotach, które wyłącznie w kontrolowanych rozwiązaniach on-premise lub z dedykowaną infrastrukturą, a które powinny być całkowicie zakazane.
Kryteria oceny: jakie pytania zadać przed dopuszczeniem użycia
Przed zaakceptowaniem konkretnego scenariusza użycia chatbota warto przejść przez krótką check-listę:
- Jakie dane trafiają do AI? Czy zawierają dane osobowe, dane wrażliwe, tajemnicę przedsiębiorstwa, informacje klienta objęte NDA?
- Jaki jest wpływ na ludzi? Czy wynik z chatbota wpływa na decyzje dotyczące zatrudnienia, wynagrodzeń, dostępu do usług, warunków umowy?
- Jaka jest rola człowieka? Czy człowiek realnie weryfikuje wynik, czy tylko „przyklepuje” rekomendację AI?
- Jak wygląda łańcuch dostawcy? Gdzie są serwery, kto ma dostęp do danych, z kim dostawca dzieli się informacjami?
- Czy mamy umowę powierzenia i jasne postanowienia licencyjne? Czy dostawca może używać naszych danych do trenowania modelu?
Mit: „Jak zapłacimy za wersję Pro, to możemy wszystko”. Rzeczywistość: model subskrypcyjny nie znosi RODO, NDA ani zakazów z umów. Płatny plan zwykle poprawia parametry techniczne i pewne gwarancje, ale nie zastąpi oceny ryzyka i dokumentacji decyzji.
Przykłady dopuszczalnych i niedopuszczalnych scenariuszy
Dla wielu zespołów najbardziej pomocne są konkretne wzorce.
Przykłady potencjalnie dopuszczalnych zastosowań (przy odpowiednich narzędziach i warunkach):
- tworzenie ogólnych artykułów blogowych bez danych klientów i bez wklejania wewnętrznych dokumentów,
- przygotowanie szkicu prezentacji o trendach rynkowych na podstawie publicznych źródeł,
- wspomaganie programisty przy generowaniu fragmentów kodu, pod warunkiem że nie wkleja on dużych bloków zastrzeżonego kodu źródłowego,
- tłumaczenie materiałów marketingowych po wcześniejszym usunięciu danych identyfikujących konkretne osoby czy transakcje.
Przykłady zastosowań, które zwykle powinny być zakazane lub ściśle ograniczone:
- wklejanie umów z klientami lub kontraktów z dostawcami do publicznych chatbotów w celu „streszczenia”,
- analiza CV kandydatów lub ocen okresowych pracowników za pomocą zewnętrznego chatbota bez odpowiedniego porozumienia i kontroli,
Sytuacje graniczne i „szare strefy” użycia
Najtrudniejsze są scenariusze, które na pierwszy rzut oka wyglądają niewinnie, ale po dłuższej analizie lądują w kategorii podwyższonego ryzyka. Typowe przykłady:
- „podrasowanie” maila z reklamacją klienta – tekst zawiera dane osobowe i opis konkretnej sprawy,
- użycie chatbota do analizy korespondencji sprzedażowej, by „podpowiedział, co zadziałało najlepiej”,
- wrzucanie fragmentów logów systemowych z identyfikatorami użytkowników lub adresami IP.
Mit: dopóki nie ma imienia i nazwiska, to nie są dane osobowe. Rzeczywistość: kombinacja numeru klienta, daty transakcji i szczegółowego opisu zdarzenia już może pozwolić na identyfikację, zwłaszcza w kontekście konkretnej organizacji.
Dlatego w politykach potrzebne są nie tylko kategorie „wolno / nie wolno”, lecz także obszar szary – użycia dozwolone pod warunkiem konsultacji z właścicielem procesu, prawnikiem lub zespołem ds. bezpieczeństwa. W praktyce oznacza to prostą zasadę: jeśli pracownik ma wątpliwości, czy dane są „wystarczająco odanonimizowane”, nie powinien sam podejmować decyzji.
Różnicowanie wymogów w zależności od typu narzędzia
Klasyfikacja ryzyka nie może być oderwana od tego, jakiego rodzaju chatbot jest używany. Inaczej ocenia się:
- publiczne chatboty konsumenckie (np. dostępne przez przeglądarkę, bez umowy B2B),
- rozwiązania chmurowe z umową i funkcją wyłączenia trenowania na danych klienta,
- model zainstalowany lokalnie lub w wyizolowanym środowisku (on-prem / prywatna chmura),
- chatboty wbudowane w inne systemy (CRM, pakiety biurowe, systemy HR).
Publiczny chatbot w wersji „dla każdego” w połączeniu z danymi osobowymi praktycznie zawsze oznacza wysokie ryzyko. Z kolei model wdrożony on-premise, bez połączenia z internetem, może być akceptowalny nawet przy danych wrażliwych – ale dopiero po spełnieniu wymogów bezpieczeństwa, audytu i odpowiedniej konfiguracji.
Częsty błąd: ocena ryzyka „per marka”. Nazwa znanego dostawcy wcale nie zwalnia z analizy konkretnego produktu, planu subskrypcyjnego i ustawień prywatności. Ten sam vendor może oferować zarówno rozwiązanie klasy enterprise, jak i otwarty, konsumencki chatbot – z zupełnie innymi ryzykami.
Mechanizmy egzekwowania zasad bez paraliżu pracy
Polityka klasyfikacji ryzyka ma sens tylko wtedy, gdy da się ją wdrożyć w praktyce. Zbyt restrykcyjne podejście prowadzi do powrotu shadow AI – pracownicy znajdą „domowe” obejścia. Lepszy kierunek to połączenie kilku mechanizmów:
- whitelist / blacklist narzędzi – jasno określone, które chatboty są dopuszczone (np. z wersją biznesową, odpowiednimi umowami i ustawieniami), a które są blokowane w sieci firmowej,
- proste ścieżki wyjątków – gdy zespół naprawdę potrzebuje narzędzia spoza listy, ma możliwość zgłoszenia i szybkiej oceny ryzyka zamiast „partyzantki”,
- szablony zgód i ocen – krótkie formularze, które pomagają uporządkować myślenie: jakie dane, jaki cel, jaki wpływ na ludzi, jaka infrastruktura,
- kontrola post factum – okresowe przeglądy rzeczywistego użycia (logi, ankiety, wywiady), by wyłapać nowe wzorce i aktualizować klasyfikację.
Istotne, by mechanizmy kontroli nie zamieniały się w „polowanie na błędy”. Jeśli jedyną konsekwencją ujawnienia nieoptymalnego użycia jest kara, ludzie przestają zgłaszać problemy i pomysły. Organizacja traci wówczas najcenniejsze źródło informacji do poprawiania polityki.
Projektowanie polityki korzystania z chatbotów: zasady, które naprawdę działają
Minimum treści, maksimum jasności
Polityka korzystania z AI, która ma szansę zadziałać, musi być krótsza niż typowa procedura bezpieczeństwa IT. Pracownik nie będzie wertował 40 stron, żeby sprawdzić, czy może skorzystać z chatbota do napisania maila. Sprawdza się podejście „rdzeń + załączniki”:
- kilkustronicowy dokument główny, opisujący zasady ogólne i poziomy ryzyka,
- załączniki z przykładami dla konkretnych działów (sprzedaż, HR, IT, obsługa klienta),
- krótkie „ściągawki” – infografika, plakat, kafel w intranecie – z zasadami typu „5 rzeczy, których nie robimy z chatbotem”.
Mit: polityka musi być wyczerpująca i przewidzieć każdy przypadek. Rzeczywistość: przy tempie rozwoju narzędzi generatywnych dokument totalny starzeje się po kilku miesiącach. Lepiej zbudować ramy, procedurę aktualizacji i kanały zgłaszania nowych zastosowań niż próbować spisać wszystko raz na zawsze.
Kluczowe zasady, które powinny znaleźć się w polityce
Treść polityki zależy od branży i apetytu na ryzyko, ale pewne „filary” powtarzają się w większości organizacji. W praktyce sprawdzają się szczególnie następujące reguły:
- Zakaz wprowadzania określonych kategorii danych do publicznych chatbotów – np. danych wrażliwych, danych pracowników, informacji objętych tajemnicą przedsiębiorstwa, danych klientów objętych NDA.
- Zasada „człowieka w pętli” – żadna decyzja o istotnym wpływie na prawa i obowiązki osób nie może być podjęta wyłącznie na podstawie wyniku z chatbota.
- Obowiązek oznaczania treści wspieranych przez AI w określonych procesach – np. przy tworzeniu ofert, raportów czy materiałów zewnętrznych (choćby prostą notatką w metadanych lub systemie obiegu dokumentów).
- Wymóg anonimizacji lub pseudonimizacji danych wprowadzanych do narzędzi – z przykładową listą, jak usuwać identyfikatory, nazwy firm, szczegóły transakcji.
- Zakaz kopiowania i wklejania całych systemów wiedzy (np. bazy umów, repozytoriów kodu, pełnych regulaminów wewnętrznych) do zewnętrznych chatbotów.
- Zasada odpowiedzialności merytorycznej – autor treści (np. prawnik, lekarz, inżynier) pozostaje odpowiedzialny za prawidłowość i kompletność materiału, nawet jeśli posłużył się AI.
Te ogólne zasady można następnie „przetłumaczyć” na język poszczególnych zespołów. Dla HR będzie to np. bezwzględny zakaz analizy kandydatów w publicznych chatbotach; dla marketingu – jasne reguły używania AI przy tworzeniu kampanii; dla IT – limity dotyczące zakresu kodu wklejanego do zewnętrznych narzędzi.
Rola właścicieli procesów i „sponsorów” AI
Polityka AI nie może być wyłącznie projektem działu prawnego czy bezpieczeństwa. Jeśli ma być żywa, potrzebuje właścicieli po stronie biznesu. Praktyczny model to połączenie trzech ról:
- właściciel procesu – zna realia pracy danego działu, potrafi ocenić, gdzie AI faktycznie pomaga i gdzie stwarza ryzyko,
- „sponsor” AI w zarządzie lub kadrze kierowniczej – daje polityce mandat i nadaje jej priorytet,
- zespół wsparcia (prawny, bezpieczeństwo, IT) – tłumaczy wymagania regulacyjne i dobiera narzędzia.
Taka konstrukcja pozwala uniknąć dwóch skrajności: bardzo restrykcyjnej, „papierowej” polityki, która nie przystaje do praktyki, albo chaotycznych inicjatyw oddolnych, gdzie każdy dział sam sobie ustala zasady i negocjuje osobno z dostawcami.
Przejrzyste zasady odpowiedzialności i eskalacji
W dojrzałych politykach klarownie widać, kto za co odpowiada. Kilka elementów szczególnie ułatwia życie:
- matryca odpowiedzialności (np. RACI) dla głównych kroków: wybór narzędzia, ocena ryzyka, nadzór nad użyciem, szkolenia, reagowanie na incydenty,
- ścieżki eskalacji – kogo powiadomić, jeśli pracownik omyłkowo wprowadził do chatbota dane, których nie powinien; co robić, gdy chatbot wygeneruje treść potencjalnie bezprawną,
- progi zgłaszania – drobne wpadki (np. wklejenie nieanonimizowanego fragmentu maila) wymagają innego postępowania niż wyciek bazy klientów.
Mit: incydenty AI to wyłącznie temat dla IT. Rzeczywistość: wiele usterek dotyczy treści (np. nieprawdziwe informacje, dyskryminujące rekomendacje) i wpływu na ludzi, więc w proces reagowania trzeba włączyć HR, compliance, a czasem PR.
Szkolenia i „higiena promptowania”
Najlepsza polityka nie zadziała, jeśli użytkownicy nie rozumieją jak rozmawiać z chatbotem. Szkolenia z AI nie powinny kończyć się na pokazie funkcji – potrzebna jest praktyka z elementarną „higieną promptowania”:
- jak formułować zapytania tak, by nie ujawniać zbędnych szczegółów identyfikujących osobę lub firmę,
- jak dzielić treść na fragmenty i pseudonimizować ją przed wklejeniem,
- jak zadawać pytania w sposób minimalizujący ryzyko błędnych, „halucynacyjnych” odpowiedzi (np. żądanie źródeł, ograniczanie zakresu),
- jak rozpoznać, że odpowiedź może być prawniczo, etycznie lub faktograficznie problematyczna.
Dobrze działają scenariusze z życia: „klient X”, „umowa Y”, „rekrutacja na stanowisko Z”. Uczestnicy widzą wtedy, gdzie kończy się wygoda, a zaczyna ryzyko. Nie chodzi o to, by wyłącznie straszyć, lecz pokazać bezpieczne schematy korzystania z narzędzi.
Monitorowanie, przeglądy i aktualizacje polityki
Polityka AI nie jest dokumentem „napisz i zapomnij”. Powinna mieć z góry określony cykl przeglądów – np. raz na rok lub częściej, jeśli zachodzą istotne zmiany regulacyjne (wejście w życie nowych przepisów) albo technologiczne (wprowadzenie nowej platformy chatbotowej w firmie).
Przy przeglądach warto zestawić trzy źródła danych:
- mapę procesów i rejestr dopuszczonych zastosowań,
- dane z monitoringu technicznego (logi, statystyki narzędzi),
- informacje jakościowe z ankiet i wywiadów z użytkownikami.
Dzięki temu można wykryć rozjazd między tym, co na papierze, a tym, co dzieje się w praktyce. Jeśli większość zespołów i tak używa AI do wstępnych tłumaczeń korespondencji z klientami, to są tylko dwie sensowne drogi: albo realne ograniczenie tej praktyki poprzez dostarczenie alternatywy, albo aktualizacja polityki po ocenie i zabezpieczeniu ryzyk.
Integracja polityki AI z innymi regulacjami wewnętrznymi
Użycie chatbotów nie dzieje się w próżni. Żeby uniknąć chaosu i sprzecznych komunikatów, politykę AI trzeba zsynchronizować z istniejącymi dokumentami:
- polityką bezpieczeństwa informacji (klasyfikacja informacji, zasady szyfrowania, dostępu, korzystania z chmury),
- regulaminem pracy i polityką BYOD (użycie prywatnych urządzeń do celów służbowych i odwrotnie),
- procedurami RODO (rejestry czynności przetwarzania, oceny skutków DPIA, klauzule informacyjne),
- kodeksem etyki i zasadami przeciwdziałania dyskryminacji (szczególnie w procesach HR i obsługi klienta),
- polityką zakupową (zasady wyboru i audytu dostawców technologicznych).
Bez tej integracji można dojść do absurdalnych sytuacji: polityka AI zabrania wprowadzania określonych danych do zewnętrznych systemów, a jednocześnie proces zakupowy dopuszcza podpisanie umowy z dostawcą chatbota bez jakiejkolwiek analizy przetwarzania danych. Spójność dokumentów jest tu równie istotna, jak ich treść.
Włączanie pracowników w współtworzenie zasad
Polityka „napisana w wieży z kości słoniowej” ma niskie szanse powodzenia. Znacznie lepiej działa model, w którym użytkownicy końcowi współprojektują zasady. Nie chodzi o referendum w każdej sprawie, lecz o kilka konkretnych mechanizmów:
- pilotaże polityki w wybranych działach i zbieranie uwag przed jej formalnym przyjęciem,
- kanał zgłoszeń pomysłów na nowe zastosowania AI (np. w intranecie),
- regularne sesje feedbackowe z „power userami” po wdrożeniu polityki.
W praktyce pozwala to wyłapać subtelne problemy, których nie widać z poziomu zarządu – np. że zapis „zakaz wprowadzania informacji o klientach” jest rozumiany różnie w sprzedaży B2B i B2C, albo że obawa przed naruszeniem polityki powoduje, iż pracownicy wolą przepisywać dane ręcznie niż korzystać z dopuszczonych automatyzacji.
Najczęściej zadawane pytania (FAQ)
Czym dokładnie jest shadow AI w firmie?
Shadow AI to korzystanie z chatbotów i innych narzędzi sztucznej inteligencji w organizacji poza wiedzą i kontrolą firmy. Chodzi zarówno o prywatne konta w ChatGPT, darmowe chatboty w przeglądarce, wtyczki AI do pakietu biurowego, jak i „ukryte” asystenty AI w narzędziach typu CRM, helpdesk czy systemy HR.
Mit: „shadow AI to tylko sprawa działu IT”. Rzeczywistość: najczęściej zaczyna się w HR, marketingu, sprzedaży i u developerów, którzy po prostu chcą szybciej pisać maile, oferty czy kod. Problem zaczyna się wtedy, gdy do chatbotów trafiają dane klientów, tajemnice przedsiębiorstwa albo informacje chronione umowami i przepisami.
Jak rozpoznać, że w mojej organizacji już działa shadow AI?
Najprostszy test to spojrzeć na codzienną pracę, a nie na oficjalne wdrożenia. Charakterystyczne sygnały to m.in. nagła zmiana stylu maili i prezentacji na „chatbotowy”, powtarzalny język, nietypowo szybkie powstawanie długich analiz czy materiałów marketingowych oraz pytania w stylu: „Czy mamy jakąś politykę korzystania z ChatGPT?”.
Dział IT często widzi to po rosnącym ruchu do domen chatbotów lub po instalacji dziwnych rozszerzeń przeglądarki. Mit: „u nas nikt nie używa AI, bo niczego nie wdrażaliśmy”. Rzeczywistość: jeśli w firmie są ludzie z marketingu, HR, sprzedaży lub IT, prawdopodobieństwo, że nikt nie eksperymentuje z AI, jest znikome.
Jakie są główne ryzyka prawne związane z shadow AI?
Najpoważniejsze ryzyko to wyciek informacji poufnych – dana opuszcza infrastrukturę firmy i trafia do zewnętrznej chmury, często poza UE. Jeśli pracownik wkleja do chatbota treść umowy, strategię, ofertę czy dane klientów, organizacja traci nad tym kontrolę. Może to uderzać w ochronę tajemnicy przedsiębiorstwa, RODO oraz zobowiązania wobec klientów i partnerów.
Dochodzi do tego ryzyko naruszenia prawa pracy, NDA, klauzul poufności i zakazów konkurencji, a w sektorach regulowanych – także przepisów branżowych. Mit: „jak chatbot obiecuje, że nie trenuje modelu na moich danych, to jestem bezpieczny”. Rzeczywistość: dane i tak są przetwarzane, logowane, mogą być dostępne dla dostawcy i jego podwykonawców oraz objęte obcym porządkiem prawnym.
Czy da się legalnie korzystać z chatbotów w firmie, nie blokując wszystkiego?
Tak, ale wymaga to świadomego podejścia. Kluczowe elementy to: jasna polityka użycia AI (co wolno, czego nie wolno wklejać), wybór narzędzi z odpowiednimi umowami i konfiguracją prywatności, ograniczenie rodzajów danych przekazywanych do zewnętrznych modeli oraz przeszkolenie pracowników, jak korzystać z AI bez łamania przepisów i umów.
Zamiast całkowitego zakazu lepiej jest wskazać „zielone strefy” (np. generowanie ogólnych tekstów, pomysły, szkice) oraz „czerwone strefy” (np. dane osobowe kandydatów, szczegóły umów, poufne informacje o klientach). Firmy, które tak podchodzą do tematu, realnie korzystają z AI, a jednocześnie mają argumenty w razie kontroli lub incydentu.
Jakie dane absolutnie nie powinny trafiać do publicznych chatbotów typu ChatGPT?
Bezpieczna zasada brzmi: do publicznego chatbota nie powinny trafiać żadne dane, których nie opublikowałbyś na otwartej stronie firmowej. W praktyce oznacza to, że należy unikać wklejania: danych osobowych klientów, kandydatów i pracowników, treści umów, ofert z indywidualnymi warunkami, dokumentów strategicznych i wszelkich informacji objętych NDA lub wewnętrzną klauzulą „poufne”.
Mit: „wystarczy zanonimizować imię i nazwisko i już jest OK”. Rzeczywistość: często z treści dokumentu i tak można zrekonstruować osobę lub klienta (tzw. dane pseudonimizowane). Nawet jeśli chatbot nie wskaże jej innym użytkownikom, dane wciąż mogą być przechowywane i przetwarzane poza kontrolą organizacji.
Jak ułożyć politykę korzystania z AI w organizacji, żeby ograniczyć shadow AI?
Skuteczna polityka AI powinna łączyć trzy elementy: jasne zasady (co jest dozwolone, czego nie wolno), konkretne narzędzia zaakceptowane przez firmę oraz realne wsparcie – szkolenia, krótkie instrukcje, możliwość zadawania pytań działowi prawnemu lub bezpieczeństwa. Sam dokument w intranecie nie wystarczy, jeśli pracownicy nie wiedzą, jak stosować go w codziennych zadaniach.
Dobrym podejściem jest start od mapy ryzyk: zidentyfikowanie, w których działach AI jest już używane i z jakimi danymi się styka (HR, marketing, sprzedaż, IT). Na tej podstawie można stworzyć proste wytyczne z przykładami typu „to możesz spokojnie robić z chatbotem” oraz „z tym przyjdź do przełożonego lub prawnika”. Dzięki temu shadow AI stopniowo zastępuje się kontrolowanym, legalnym użyciem AI.
Czy firmie grożą kary za to, że pracownicy używają chatbotów na własną rękę?
Odpowiedzialność zależy od konkretnej sytuacji, ale co do zasady to pracodawca odpowiada za to, jak przetwarza dane i chroni tajemnice przedsiębiorstwa. Jeśli dojdzie do wycieku poprzez chatbota, organ nadzorczy lub sąd będzie patrzył m.in. na to, czy firma miała rozsądne procedury, szkolenia i zabezpieczenia oraz czy reagowała na pierwsze sygnały shadow AI.
Mit: „jak pracownik zrobił to na własną rękę, to jego sprawa”. Rzeczywistość: brak polityki, brak szkoleń i brak reakcji na oczywiste symptomy pokazują, że organizacja nie zapanowała nad ryzykiem. To może oznaczać konsekwencje finansowe, wizerunkowe i prawne nie tylko dla konkretnej osoby, ale i dla całej firmy.







Bardzo ciekawy artykuł dotyczący kontrolowania użycia chatbotów w organizacji. Warto podkreślić, że autor pokazuje tutaj istotne kwestie związane z bezpieczeństwem danych oraz odpowiedzialnością za działanie sztucznej inteligencji. Dużym plusem jest również omówienie aspektów prawnych związanych z użytkowaniem chatbotów, co może być niezwykle pomocne dla przedsiębiorców chcących wprowadzić takie rozwiązania do swojej firmy.
Jednak moim zdaniem brakuje w artykule głębszej analizy potencjalnych korzyści wynikających z wykorzystania chatbotów w organizacji, a także konkretnych przykładów dobrych praktyk w tej dziedzinie. Byłoby warto również poruszyć temat szkoleń dla pracowników dotyczących korzystania z chatbotów oraz sposobów monitorowania ich efektywności. Wartość artykułu mogłaby być zwiększona poprzez dodanie takich praktycznych wskazówek.
Tylko zalogowani mają tu głos w komentarzach.