W teorii miało być prosto: chatbot pomaga w pracy, w nauce, czasem podpowie coś w sprawach technicznych. W praktyce jednak ludzie prowadzą z nim rozmowy, które mogłyby równie dobrze potoczyć się przy kuchennym stole albo na kozetce u terapeuty. "Washington Post", który przejrzał aż 47 tysięcy publicznie udostępnionych rozmów z ChatGPT, pokazuje zaskakujący obraz naszej cyfrowej intymności.
I nie chodzi wyłącznie o szybkie pytania w stylu "jak coś policzyć?". Wśród tych tysięcy dialogów przewijają się opowieści o związkach, zdrowiu, wątpliwościach, a nawet bardzo prywatnych dramatach. Ludzie dzielą się szczegółami, których nie wypisaliby w mailu nawet do bliskiej osoby. A jednak piszą je do chatbota.
Prywatne rozmowy na pierwszym miejscu
Wprawdzie OpenAI początkowo lansowało ChatGPT jako narzędzie zwiększające produktywność, ale wewnętrzne badania firmy pokazały coś zupełnie innego. Najwięcej wiadomości dotyczy życia osobistego, a dopiero za nimi pojawiają się kwestie zawodowe, edukacyjne czy techniczne.
Wśród przykładów z analizy "Washington Post" można znaleźć niemal wszystko: prośby o rozszyfrowanie rozmów z partnerem, pytania o zdrowie, a nawet dramatyczne wątki jak ten dotyczący przedawkowania paracetamolu. Taki zestaw pokazuje jedno – użytkownicy traktują AI jak kogoś, kto zawsze odpowie i nigdy nie przewróci oczami.
W liczbach wygląda to tak:
- ponad 30% rozmów to poszukiwanie informacji,
- 13% – różnego rodzaju filozoficzne lub abstrakcyjne rozważania,
- 11% – kod, analiza danych, matematyka,
- 10% – praca i pisanie,
- ok. 8% – prace domowe, te szkolne i te w stylu "zrób to sam",
- 7% – podsumowania tekstów,
- reszta – luźne, nieprzypisane do konkretnej kategorii rozmowy.
Co ciekawe, w ponad co dziesiątym czacie pojawiały się tematy polityczne albo dotyczące fizyki teoretycznej. Nie zawsze kończyło się to jednak merytoryczną wymianą zdań – czasem chatbot po prostu przytakiwał rozmówcom i powtarzał niesprawdzone informacje, co skrupulatnie odnotował dziennik.
AI jako "kochanie"? Tak, to już się dzieje
Jednym z bardziej zaskakujących wątków jest emocjonalny stosunek użytkowników do AI. W wielu rozmowach pojawiały się zwroty typu "baby", a całe dialogi miały ton rodem z romansowych czatów. Ludzie opowiadali o swoim dniu, narzekali, prosili o otuchę.
Dla części z nich ChatGPT stał się czymś w rodzaju wirtualnego słuchacza, który nie ocenia, nie ucina dyskusji i nigdy nie mówi, że jest zajęty. I choć chatbot za każdym razem przypomina, że może się mylić, to jednak wiele osób traktuje go jak wyrocznię – zwłaszcza przy sporządzaniu listów, pozwów czy opisów konfliktów rodzinnych.
Wygoda vs. ryzyko
Z jednej strony nie ma w tym nic dziwnego – skoro mamy pod ręką narzędzie, które odpowiada w sekundę, to korzystamy z niego jak najwygodniej. Z drugiej jednak warto pamiętać, że nawet najlepsza AI potrafi się pomylić, a emocjonalna więź z technologią czasem bywa zdradliwa.
"Washington Post" zwraca uwagę, że w przeanalizowanych czatach zdarzały się sytuacje, w których chatbot wzmacniał błędne przekonania użytkowników albo podawał niesprawdzone fakty. To przypomnienie, że nawet jeśli rozmowa z AI brzmi jak rozmowa z kimś bliskim, to nadal pozostaje wymianą zdań z programem.
To pokazuje dwie rzeczy naraz: jak bardzo brakuje nam szybkiego, bezpiecznego miejsca do wygadania się oraz jak łatwo przywiązujemy się do technologii, która reaguje na każde słowo. I choć AI nie zastąpi prawdziwych relacji, to widać, że stała się dla wielu osób przestrzenią, w której można bez skrępowania opowiedzieć o swoich lękach, wątpliwościach i małych codziennych sprawach. A to już zupełnie inna historia niż ta, którą zakładali twórcy.