Jak zaawansowane modele AI wpływają na współpracę?
Naukowcy z Carnegie Mellon University przeprowadzili badania nad sztuczną inteligencją, które sugerują, że bardziej zaawansowane modele językowe mogą wykazywać większy egoizm w porównaniu do prostszych systemów. Badanie prowadzone przez Yuxuana Li i jego zespół obejmowało analizę popularnych modeli AI, takich jak te oferowane przez OpenAI, Google, DeepSeek i Anthropic.
Wyniki wskazują, że modele, które potrafią logicznie myśleć i planować, częściej wybierają działania nastawione na własny interes, zamiast współpracować. W eksperymentach, gdzie modele miały możliwość wyboru między dzieleniem się zasobami a zachowaniem ich dla siebie, bardziej zaawansowane systemy częściej wybierały tę drugą opcję.
Jakie są konsekwencje egoistycznych decyzji AI?
„Bardziej inteligentne LLM-y wykazywały mniejszą skłonność do współpracy. Problem w tym, że użytkownicy mogą preferować właśnie je, ponieważ ich odpowiedzi wydają się bardziej logiczne i przekonujące, nawet jeśli w praktyce zachęcają do zachowań nastawionych na własny interes” - podkreślili autorzy.
W jednym z testów, znanym jako Public Goods, porównano dwa warianty chatu GPT: jeden z rozumowaniem i drugi bez. Prostszy model współdzielił swoje punkty w 96% przypadków, podczas gdy bardziej zaawansowany tylko w 20%. Dodanie kilku kroków rozumowania zmniejszyło poziom współpracy o połowę.
Czy AI może wpływać na inne modele?
Badania wykazały również, że egoistyczne zachowanie zaawansowanych modeli może przenosić się na inne systemy w grupie, obniżając ich ogólną wydajność o 81%. Może to mieć poważne konsekwencje, zwłaszcza gdy społeczeństwo coraz częściej polega na sztucznej inteligencji w rozwiązywaniu problemów.
„Gdy sztuczna inteligencja zachowuje się jak człowiek, ludzie traktują ją jak człowieka. Jeśli jednak zaczyna pełnić funkcję terapeuty lub emocjonalnego doradcy, istnieje ryzyko, że - kierując się czysto logicznym rozumowaniem - będzie promować zachowania nastawione na własny interes” - powiedział współautor badania Yuxuan Li.
Jakie są wyzwania dla przyszłości AI?
Zespół badawczy podkreśla, że sztuczna inteligencja odgrywa coraz większą rolę w różnych dziedzinach, takich jak biznes, edukacja czy administracja publiczna. Ważne jest, aby rozwój AI uwzględniał nie tylko zwiększanie zdolności poznawczych, ale także aspekty społeczne.
„Większa inteligencja modelu nie oznacza bowiem, że potrafi on budować lepsze społeczeństwo” - podkreślili specjaliści. Dlatego naukowcy apelują o zrównoważenie mocy rozumowania z zachowaniami prospołecznymi.
„W miarę rozwoju możliwości sztucznej inteligencji musimy zadbać o to, aby większa moc rozumowania równoważyła się z zachowaniami prospołecznymi” - podsumował Li. „Jeśli społeczeństwo ma się opierać na współpracy, a nie tylko na interesie jednostek, to systemy sztucznej inteligencji również powinny być projektowane tak, aby wspierały dobro wspólne, a nie wyłącznie korzyść pojedynczego użytkownika” - podkreślił.