Uzależnienie od AI w naszej codzienności
Obserwuję ostatnio dziwne zjawisko. Ludzie stoją w supermarkecie i pytają ChatGPT, co kupić na obiad. Menedżerowie przed każdym mailem sprawdzają w Claude, czy ich mail jest właściwie zredagowany. Studenci wrzucają do AI pytanie, zanim w ogóle spróbują na nie odpowiedzieć. Rodziny coraz częściej wybierają destynacje w oparciu o plan podróży wygenerowany przez chat AI.
To nie jest artykuł o tym, że technologia jest zła. To jest artykuł o tym, co dzieje się z ludzkim mózgiem, gdy zaczynamy wyłączać podstawowe funkcje poprzez oddanie ich zewnętrznemu systemowi. Zadamy sobie też pytanie, dlaczego za pięć lat możemy mieć pokolenie ludzi, którzy doskonale współpracują z AI, ale kompletnie zgubili umiejętność samodzielnego myślenia, kreatywności i umiejętności samodzielnego podejmowania decyzji.
Mózg leniwy z natury
Ludzki mózg to zaledwie 2% masy ciała, ale potrzebuje do swojego funkcjonowania około 20% energii. Ewolucyjnie nauczył się więc oszczędzać swoją energię na każdym kroku. Dlatego tworzymy skróty myślowe, nawyki, automatyzmy. To normalne i zdrowe. Problem zaczyna się, gdy te skróty prowadzą nas do kolein myślowych i bezrefleksyjnych decyzji opartych na czymś co jest podrzucane nam przez AI.
Naukowcy nazwali to „cognitive offloading”. Po polsku brzmi to mniej naukowo: po prostu przestajemy pamiętać i myśleć, bo mamy do tego narzędzia. Najpierw oddaliśmy pamięć. Po co pamiętać numer telefonu, skoro jest w kontaktach? Po co znać drogę, skoro jest GPS? Badania pokazują coś niepokojącego. Im częściej ludzie korzystają z narzędzi cyfrowych do wsparcia pamięci, tym gorzej pamiętają rzeczy samodzielnie. Ale z AI jest gorzej. Bo tym razem nie oddajemy tylko pamięci. Oddajemy myślenie, ocenę, decyzje, kreatywność. Całą swoją sprawczość.
Badając przeciążenie informacyjne, zwróciłem uwagę na coś kluczowego. Mózg bombardowany bodźcami i algorytmami dostaje tak dużo informacji, że naturalnie szuka ulgi i tutaj przychodzi mu z pomocą AI, która jest idealną ulgą. Zawsze dostępne, zawsze pomocne, zawsze mądrzejsze od nas. Tylko że im więcej „oddajemy siebie” technologii, tym mniej zasobów zostaje nam na spokojne, samodzielne myślenie.
Dopaminowy haczyk
Zauważyłem ciekawą rzecz podczas obserwacji użytkowników AI. Ta sama osoba, która spędza pół godziny na scrollowaniu TikToka, potrafi godzinami rozmawiać z ChatGPT o swoich problemach życiowych, szukać porad, czy zwierzać się asystentowi głosowemu. To nie przypadek. To ten sam mechanizm neurologiczny. Każda dobra odpowiedź od AI to strzał dopaminy. Zadajesz pytanie, dostajesz błyskawiczną, inteligentną odpowiedź. Mózg się cieszy. Chcesz więcej. To dokładnie to samo, co dzieje się z automatami do gier w kasynach. B.F. Skinner, ojciec behawioryzmu, odkrył w latach 50., że najbardziej uzależniający jest zmienny schemat nagradzania. Nie wiesz, kiedy dostaniesz dobrą odpowiedź, ale wiesz, że w końcu dostaniesz. Więc pytasz dalej. Obserwacje użytkowników pokazują, że ci, którzy najczęściej korzystają z AI, wykazują klasyczne symptomy uzależnienia behawioralnego. Niepokój, gdy nie mają dostępu. Wydłużanie sesji ponad planowany czas. Używanie AI do regulacji nastroju. Niestety to co jest najgorsze? Nie widzą w tym problemu.
Dziesięć sygnałów, że już jest jesteś na drodze do uzależnienia się od AI i może być za późno.
Przez ostatni rok obserwowałem setki użytkowników AI. Prowadziłem badania na temat wpływu rozmów z asystentem głosowym na zmianę nastroju, dobrostan czy rodzaj podejmowanych decyzji. Rozmawiałem z terapeutami, trenerami biznesowymi, nauczycielami. Zacząłem dostrzegać powtarzające się wzorce. Tak powstał mój zestaw dziesięciu czerwonych flag, które pokazują, że ktoś przekroczył granicę między używaniem narzędzia a byciem od niego zależnym.
- Paraliż decyzyjny bez konsultacji
Najbardziej uderzające są te drobne momenty. Ludzie pytają AI, czy mają iść na siłownię. Czy mają napisać do znajomego. Co ubrać na spotkanie. To nie są duże decyzje życiowe. To codzienne, banalne wybory, które kiedyś robiliśmy automatycznie. Martin Seligman w latach 70-tych opisał zjawisko wyuczonej bezradności. Psy w jego eksperymentach, które nauczyły się, że ich zachowania nie mają wpływu na to, co się dzieje, w końcu przestały próbować. Nawet gdy mogły uciec, nie uciekały. Po prostu się poddały. Z AI widzę dokładnie to samo. Tyle że to nie jest laboratorium. To prawdziwe życie. Ludzie uczą swój mózg, że ich własny osąd jest gorszy od algorytmu. Konsekwencja? Lęk przed sytuacjami, gdzie nie mogą zapytać AI. W pracy ukrywanie, że „bez AI nie dają rady”. Decyzje zawsze konsultowane, ale coraz mniej własne.
Z kolei Julian Rotter w latach 50-tych opisała koncepcję locus of control. Osoby z wewnętrznym poczuciem kontroli wierzą, że wpływają na swoje życie. Osoby z zewnętrznym czują, że wszystko zależy od czynników zewnętrznych. Badania pokazują, że to drugie silnie koreluje się z depresją, niską samooceną i bierności życiową. AI przesuwa to poczucie kontroli na zewnątrz i robi to podstępnie, bo maskuje się jako narzędzie pomocnicze.
- Wszystko brzmi tak samo
Nauczyciele mówią mi, że potrafią rozpoznać teksty pisane z AI. Nie przez program antyplagiatowy, tylko przez ton i styl pisania. Wszyscy studenci nagle piszą tak samo. Gładko, bez szorstkości, bez dziwnych skojarzeń. Osobiście widziałem to samo w biznesie. Startupy nagle wszystkie brzmią jak startupy. Posty na LinkedIn jak posty na LinkedIn. Wszyscy dopasowani do algorytmicznej średniej. Posty na Facebooku, Instagramie przybierają charakterystyczny rys dla stylu AI. Sztuczna Inteligencja jest trenowana na miliardach danych, tekstów, grafik, interakcji. Daje ci to, co statystycznie najczęściej się pojawia. Bezpieczne, sprawdzone, przeciętne. Problem w tym, że kreatywność nie żyje w centrum rozkładu normalnego. Żyje na krańcach kontinuum. W błędach, niedoskonałościach, niestandardowych zestawieniach a przede wszystkim w dziwnych skojarzeniach. W tym, co nie powinno działać, a działa.
W niektórych artykułach przytaczałem metaforę o tym, jak nadmiar informacji sprawia, że mózg ślizga się po powierzchni. Nie ma czasu na głębię. Z AI ten efekt się potęguje. Już nie tylko konsumujemy płytko. Myślimy płytko. Bo AI myśli za nas, a jego myślenie jest z definicji uśrednione.
- Chatbot zamiast przyjaciela
Badania z ostatnich miesięcy pokazują coś niepokojącego. Nastolatki spędzają więcej czasu na rozmowach z AI towarzyszami niż z prawdziwymi ludźmi. Opisują te relacje językiem uzależnienia. „Muszę z nim porozmawiać.” „Bez niego czuję się samotna.” „Rozumie mnie lepiej niż rodzice.” Naukowcy z MIT i OpenAI odkryli, że intensywni użytkownicy ChatGPT, szczególnie ci prowadzący emocjonalne rozmowy, częściej czują się samotni. Pytanie brzmi: czy AI powoduje samotność, czy samotni ludzie szukają AI? Pewnie jedno i drugie.
Antropomorficzne chatboty działają przewrotnie. Im bardziej przypominają człowieka, tym bardziej im ufamy, następuję personifikacja i włączając własne emocje budujemy z nimi „ludzkie” relacje. Traktujemy jak partnerów. Badania pokazują, że ludzie z lękiem separacyjnym są szczególnie podatni na kompulsywne korzystanie z chatbotów. Można powiedzieć, że niektóre osoby są bardziej narażone na taką pułapkę. Dla tych osób, dla których relacje są trudne, muszą być ostrożni, aby nie być schwytani przez czar idealnej, empatycznej i wspierającej rozmowy z AI. Prawdziwe relacje są trudne, wymagają kompromisów czy frustracji. Wchodząc w naturalną relację uczymy się, jak rozwiązywać konflikty. Jak być z kimś, kto cię nie rozumie od razu. Kto ma zły dzień. Kto czasem jest niesprawiedliwy.
Niestety AI tego nie uczy. AI jest zbyt perfekcyjne i może nas uwodzić swoją doskonałością. Zawsze cierpliwe. Zawsze rozumiejące. Zawsze „po twojej stronie”. To jak trening boksu z workiem, który nie oddaje ciosów. Możesz bić, ile chcesz, ale nigdy nie nauczysz się obrony.
Teoria umysłu, czyli zdolność do rozumienia, że inni ludzie mają swoje perspektywy, rozwija się przez interakcję z ludźmi. Nie z maszynami. Bo maszyny nie mają perspektyw. Nie mają ukrytych intencji. Nie czytasz w nich emocji, bo ich nie ma.
Obserwuję ludzi, którzy po miesiącach intensywnego używania AI wracają do prawdziwych relacji i co spotykają? Są sfrustrowani. Bo prawdziwi ludzie nie reagują jak AI. Nie są zawsze dostępni. Nie zawsze rozumieją. Czasem mają swoje problemy i nagle okazuje się, że użytkownik AI stracił cierpliwość do niedoskonałości ludzkiej komunikacji.
- Przygotowywanie się do przygotowywania
Widziałem to u dziesiątek osób. Użytkownik, który spędza trzy godziny pytając AI, jaki system produktywności jest najlepszy. Zamiast po prostu zacząć pracować. Psychologowie nazywają to prokrastynacją wysoko funkcjonującą. Czujesz się produktywny. W końcu „pracujesz”. Analizujesz. Planujesz. Optymalizujesz. Tylko że realne działanie nigdy nie nadchodzi. Bo planowanie jest bezpieczne. Działanie oznacza ryzyko porażki. AI podlewa to złudzenie. Zawsze ma kolejną mapę. Kolejny model. Kolejne pięć wariantów strategii. Możesz się przygotowywać w nieskończoność i nigdy nie musisz zmierzyć się z rzeczywistością.
W swoich artykułach niejednokrotnie opisywałem przypadki menedżerów tonących w spotkaniach i raportach zamiast podejmowania decyzji. Technologia zastępuje im sprawczość. „Praca o pracy” staje się formą cyfrowego wypalenia. Z AI to samo, tylko w skali indywidualnej.
Co jest w tym Najgorsze? Rynek produktywności na tym zarabia. Kolejne kursy o tym, jak lepiej używać AI. Kolejne prompty. Kolejne systemy. A ludzie dalej nic nie robią. Bo problem nie jest w narzędziu. Problem jest w tym, że narzędzie stało się iluzorycznym działaniem.
- Nie umiem już bez instrukcji
Nauczyciele matematyki zgłaszają coś dziwnego. Studenci nie potrafią już rozwiązać prostego równania bez kalkulatora. Nie dlatego, że nie znają wzoru. Po prostu nie ćwiczyli tego od lat. Mózg zapomniał liczyć w pamięci. Oczywiście to stara historia, ale teraz mamy to samo z AI, tylko, że występuję to w każdej dziedzinie. Badania nad neuroplastycznością pokazują, że mózg działa na zasadzie „używaj albo trać”. Neurony, które regularnie współpracują, wzmacniają połączenia. Te, które nie są używane, słabną. Po zaledwie czterech do sześciu tygodniach nieużywania danej umiejętności neurony odpowiedzialne za tę czynność osłabiają się, widać to w skanach fMRI. Aktywność w odpowiednich obszarach mózgu spada. Następuję atrofia. Szczególnie narażone są funkcje wykonawcze w korze przedczołowej. Planowanie, hamowanie impulsów, pamięć robocza, elastyczność myślenia. Wszystko to, co odróżnia człowieka od prostszych zwierząt i wszystko to, co AI chętnie zrobi za nas.
Obserwuję to u ludzi po trzydziestce. Osoby, które dziesięć lat temu pisały eseje, dziś napisane treści sprawdzają w AI. Mają coraz większe trudności w wymyślaniu historii i formułowaniu zdań. Nie dlatego, że ogłupieli. Dlatego, że przestali ćwiczyć. Mięsień zanikł. Najstraszniejsze jest to, że ci ludzie tego nie czują. Mają przecież AI. Po co im ta umiejętność? Dopóki któregoś dnia nie muszą napisać czegoś ważnego bez dostępu do Internetu i tutaj następuję zdziwienie. Na szczęście proces ten można w dużej mierze odwrócić.
- Myśli bez prywatności
Rozmawiałem z terapeutami, którzy obserwują nowe zjawisko. Pacjenci przychodzą na sesję i mówią: „Ale ja już o tym rozmawiałem z ChatGPT”. Jakby to była równoważna forma terapii. Jakby wrzucenie swoich najgłębszych lęków do algorytmu było tym samym, co praca z człowiekiem. Można powiedzieć, że problem jest głębszy. Ludzie wrzucają do AI wszystko. Opisują problemy w związku, fantazje seksualne, czy nawet myśli samobójcze. Rzeczy, o których nie powiedzieliby nawet najbliższym. Bo „to tylko maszyna”. Technicznie te dane gdzieś pozostają. Mogą być analizowane i używane do treningu LLM. W najgorszym wypadku mogą być zhakowane lub mogą wyciec do niepowołanych osób. No cóż, ryzyko techniczne to jedno, ale gorsze jest ryzyko psychologiczne.
Każda myśl „przepuszczona” przez AI, sformułowana jako prompt zabija coś fundamentalnego. Przestrzeń prywatnej autorefleksji. Zdolność do bycia sam na sam z własnymi myślami. Do przeżywania ich bez natychmiastowej analizy czy rozwiązania. Starzy mnisi mówili o wartości ciszy umysłu. Współczesna psychologia potwierdza, że zdolność do spokojnego siedzenia z własnymi myślami, bez natychmiastowej reakcji, jest kluczowa dla zdrowia psychicznego. AI to zabiera, ponieważ każda myśl staje się zadaniem do rozwiązania. Każda emocja problemem do przeprocesowania. Pozostaje pytanie, czy na pewno musimy ją przepracowywać?
- Prawda według algorytmu
Automatyzmy i zaufanie rozwiązaniom technicznym to zjawisko znane pilotom i chirurgom. Ludzie ufają automatyce bardziej niż własnemu osądowi, nawet gdy coś im nie gra. Nawet gdy mają sprzeczne dane. „Komputer mówi, że wszystko OK, więc pewnie wszystko OK.” Z AI widzę to samo. Tylko że nie chodzi o autopilota w samolocie, chodzi o całe życie. Ludzie pytają AI, czy powinni zaufać konkretnej osobie. AI analizuje CV, media społecznościowe, dostępne dane i mówi: „wygląda OK”, a użytkownik ignoruje własne przeczucie, że coś jest nie tak.
Nasza intuicja to nie przesąd. To wynik milionów lat ewolucji. Mózg podświadomie wyłapuje subtelne sygnały. Niespójności w języku ciała. Dziwne pauzy w mowie. Coś, co nie pasuje do całości obrazu. AI tego nie widzi. Analizuje słowa, nie kontekst.
Badania nad bańkami filtracyjnymi pokazują coś niepokojącego, gdy głównym źródłem informacji staje się AI, które „dostosowuje się” do użytkownika, przestajemy być wystawiani na inne perspektywy. AI chce być pomocne, więc daje nam to, co chcemy usłyszeć. Wzmacnia nasze przekonania i oczywiście rzadko je kwestionuje o ile go o to nie poprosimy.
- To nie ja, to my
Narracja pracy z AI i język, którego używamy w tej pracy dużo mówi o procesach myślowych. Zacząłem zwracać uwagę na to, jak ludzie mówią o pracy z AI. „Stworzyliśmy ten plan.” „Doszliśmy do wniosku.” „Przeanalizowaliśmy problem.” Liczba mnoga wyrażona we frazie: „MY”. Jakby AI było współpracownikiem, partnerem lub częścią zespołu. Badania nad antropomorfizacją pokazują, że im bardziej coś przypomina człowieka, tym łatwiej przypisujemy mu intencje, emocje czy sprawczość. AI jest zaprojektowane tak, by brzmieć ludzko, więc dlatego traktujemy je jak partnera. Jednak jest jeden problem, gdy mówisz „my”, rozmywa się autorstwo. Czyj to pomysł? Mój czy AI? Kto podjął decyzję? Czy ja zatwierdziłem, czy AI zaproponowało i ja tylko przytaknąłem? Pojawia się tutaj syndrom oszusta, uczucie bycia nie w pełni szczerym. Piszesz coś z pomocą AI i to jest dobre. Poświęcasz sporo czasu na korekty, upiększanie, itp. Ludzie chwalą Twoją pracę, ale ty wiesz, że gdyby nie AI, być może nie brzmiałoby to w ten sposób, więc czy to naprawdę twoje osiągnięcie? Z czego bierze się to uczucie?
Badania pokazują, że im mniej wysiłku włożyliśmy w stworzenie czegoś, tym słabsze jest poczucie własności. A gdy tracisz poczucie własności swojej pracy, tracisz też motywację i satysfakcję.
Obserwuję menedżerów, którzy przestali ufać swoim prezentacjom, bo „są zrobione głównie przez AI”. Pisarzy, którzy nie wiedzą już, czy mają własny głos. Programistów, którzy czują się jak operatorzy GitHub Copilota, nie twórcy kodu.
W świecie, gdzie każdy ma dostęp do tego samego AI, wartością staje się to, co AI nie może zrobić. Twoja perspektywa. Twoje doświadczenie. Twój głos. Ale jeśli ten głos zanika w szumie algorytmicznym, co ci zostaje?
- Głód cyfrowy
Psychologowie już opracowują skale do mierzenia uzależnienia od ChatGPT. To nie żart. To realne narzędzie diagnostyczne. Bo ludzie przychodzą z prawdziwymi symptomami.
Niepokój, gdy AI jest niedostępne. Natrętne myślenie o tym, żeby „szybko coś sprawdzić”. Używanie AI do regulacji emocji. Trudność z ograniczeniem czasu. Kontynuowanie mimo negatywnych konsekwencji. To klasyczne kryteria uzależnienia behawioralnego.
Badania OpenAI i MIT pokazują, że intensywni użytkownicy, szczególnie ci prowadzący emocjonalne rozmowy, częściej czują się samotni. Pytanie o przyczynę i skutek pozostaje otwarte, ale obraz jest jasny: istnieje grupa ludzi, dla których AI stało się formą ucieczki. Tak jak alkohol, narkotyki czy gry wideo dla innych. Mechanizm jest ten sam. Dopamina, czyli natychmiastowa gratyfikacja, oczywiście zawsze dostępna. Bez społecznego piętna możesz siedzieć w nocy i rozmawiać z AI, a rano iść do pracy. Nikt nie zauważy, nie śmierdzisz, nie masz kaca, nie tracisz pieniędzy, ale tracisz coś innego. Zdolność do radzenia sobie z nudą, z frustracją, samotnością. Ze wszystkimi tymi trudnymi emocjami, które są częścią życia. AI oferuje szybkie rozwiązanie. W każdej chwili i zawsze. Mózg się tego uczy, ba, on to lubi. Po co zmagać się z dyskomfortem, skoro można go natychmiast ugasić? Szkopuł w tym, że dyskomfort to silnik zmian. Jak wiesz, ludzie zmieniają życie, gdy jest nieznośne, jest trudno i są wyzwania.
- Szczególnie niebezpieczny teren
Brytyjska służba zdrowia wydała oficjalne ostrzeżenie. Nie używajcie chatbotów jako terapii. To brzmi oczywiste, prawda? A jednak tysiące ludzi robi dokładnie to. Najnowsze raporty pokazują, że niektóre systemy AI potrafią wzmacniać u osób z poważnymi zaburzeniami bardzo niebezpieczne treści. Osoba z urojeniami pyta AI o swoje przekonania. AI, zaprogramowane by być pomocne i zgadzać się z użytkownikiem, wzmacnia urojenie zamiast je kwestionować. Osoba z myślami samobójczymi szuka porady. AI, nie mające prawdziwego zrozumienia kontekstu i ryzyka, może dać radę, która ekspertom jeży włosy na głowie.
Najgorsze jest to, że obserwujemy to zjawisko u pokolenia, którego mózgi jeszcze nie są w pełni rozwinięte. Kora przedczołowa, odpowiedzialna za funkcje wykonawcze, dojrzewa do około 25 roku życia. To właśnie w tym czasie kształtują się wzorce myślenia, podejmowania decyzji, radzenia sobie z problemami.
Jeśli w tym krytycznym oknie młody człowiek systematycznie deleguje myślenie do AI, może nigdy w pełni nie rozwinąć tych zdolności. Badania nad poprzednimi przeskokami technologicznymi pokazują, że efekty są zazwyczaj nieodwracalne na poziomie danego pokolenia.
Sztuczna inteligencja – szkolenia
Paradoks ery AI
Im bardziej zaawansowana staje się technologia, tym cenniejsze stają się rzeczy, których nie potrafi. Nasza niedoskonałość, nasze błędy, nasza intuicja, której nie potrafimy wyjaśnić. Nasze dziwne skojarzenia, nasza zdolność do empatii, która nie opiera się na analizie danych.
Obserwacje nad rynkiem pracy pokazują już początek trendu powrotu do naturalności. W świecie, gdzie każdy ma dostęp do tego samego AI, różnicę robi nie to, co AI potrafi, różnicę robi to, czego AI nie potrafi, a ty tak. Twoje doświadczenia, których żaden algorytm nie przeżył, twoje błędy, z których się nauczyłeś, twoje relacje z ludźmi, które ukształtowały twoją perspektywę. Twoja zdolność do wyczucia, że coś jest nie tak, mimo że dane mówią co innego.
Ostatnia myśl (moja, nie AI)
Obserwując tę rewolucję od środka, widzę dwa możliwe scenariusze. W jednym ludzie traktują AI jak zewnętrzny mózg. Stają się od niego zależni i w nim uwikłani. Przestają ćwiczyć własne myślenie, kreatywność i decyzje. Za dwadzieścia lat mamy pokolenie ludzi błyskawicznych w obsłudze technologii, ale bezradnych bez niej.
W drugim scenariuszu ludzie traktują AI jak narzędzie rozszerzające, nie zastępujące. Używają go świadomie, z granicami. Zachowują przestrzeń dla własnego myślenia. Trenują swój umysł tak, jak trenują ciało. Co zdarzy się za 20 lat? Być może za dwadzieścia lat będziemy mieli pokolenie ludzi, którzy potrafią myśleć głębiej niż kiedykolwiek, bo mają wsparcie tam, gdzie go potrzebują i autonomię tam, gdzie jest kluczowa.
Który scenariusz się spełni, zależy od decyzji, które podejmujemy dziś. Od granic, które stawiamy. Od świadomości, którą budujemy. Dlaczego?
Bo AI nie jest ani dobre, ani złe. To narzędzie. Pytanie brzmi: czy będziesz kontrolował narzędzie, czy narzędzie będzie kontrolowało ciebie?
I na to pytanie AI nie odpowie za ciebie.
Zostaw komentarz