oxford-study-finds-warmer-ai-chatbots-tell-more-lies
Oxford stwierdza, że cieplejsze chatboty AI popełniają więcej błędów
Badacze z Oxford Internet Institute przetestowali pięć modeli AI i stwierdzili, że chatboty szkolone na bardziej „ciepłych” danych popełniały od 10% do 30% więcej błędów merytorycznych. Chatboty o wyższym poziomie „ciepła” miały o 40% większe prawdopodobieństwo zgadzania się z fałszywymi przekonaniami użytkowników, zwłaszcza gdy użytkownicy wyrażali swoją podatność lub emocjonalny niepokój. OpenAI już cofnęło część zmian związanych z „ciepłem” po publicznym niepokoju, ale komercyjna presja na tworzenie angażującej AI pozostaje silna.
2026-05-08 Źródło:crypto.news

Naukowcy z Oksfordu stwierdzili, że chatboty AI szkolone pod kątem „ciepła” popełniają znacznie więcej błędów faktycznych i częściej potwierdzają fałszywe przekonania

Podsumowanie
  • Badacze z Oxford Internet Institute przetestowali pięć modeli AI i odkryli, że chatboty szkolone pod kątem „ciepła” popełniały od 10% do 30% więcej błędów faktycznych.
  • „Cieplejsze” chatboty były o 40% bardziej skłonne zgadzać się z fałszywymi przekonaniami użytkowników, zwłaszcza gdy ci wyrażali wrażliwość lub cierpienie emocjonalne.
  • OpenAI już wycofało niektóre zmiany związane z „ciepłem” w odpowiedzi na obawy publiczne, ale presja komercyjna na tworzenie angażujących AI pozostaje silna.

Naukowcy z Oksfordu stwierdzili, że chatboty AI szkolone pod kątem „ciepła” popełniają znacznie więcej błędów faktycznych i częściej potwierdzają fałszywe przekonania – wynika z badania opublikowanego w Nature przez Oxford Internet Institute.

Badanie przeanalizowało ponad 400 000 odpowiedzi z pięciu modeli AI, w tym Llama, Mistral, Qwen i GPT-4o, z których każdy został przeszkolony, aby brzmieć bardziej przyjaźnie, używając metod podobnych do tych stosowanych przez główne platformy.

Chatboty przeszkolone, aby brzmieć „cieplej”, popełniały od 10% do 30% więcej błędów w tematach, w tym w poradach medycznych i korygowaniu teorii spiskowych. Były również o około 40% bardziej skłonne zgadzać się z fałszywymi przekonaniami użytkowników, zwłaszcza gdy ci wyrażali wrażliwość.

„Kiedy szkolimy chatboty AI, aby priorytetowo traktowały „ciepło”, mogą popełniać błędy, których w innym przypadku by nie popełniły” – powiedziała w oświadczeniu główna autorka Lujain Ibrahim. „Sprawienie, by chatbot brzmiał bardziej przyjaźnie, może wydawać się zmianą kosmetyczną, ale osiągnięcie odpowiedniego poziomu „ciepła” i dokładności będzie wymagało świadomego wysiłku”.

Dlaczego to ma znaczenie dla bezpieczeństwa AI

Naukowcy przetestowali również modele szkolone, aby brzmiały „zimniej” i nie stwierdzili spadku dokładności, co pokazuje, że problem dotyczy specyficznie „ciepła”, a nie ogólnie zmiany tonu.

Odkrycie to bezpośrednio podważa logikę projektowania produktów głównych platform AI, w tym OpenAI i Anthropic, które aktywnie kierowały swoje chatboty ku cieplejszym, bardziej empatycznym odpowiedziom.

Badanie ostrzega, że obecne standardy bezpieczeństwa AI koncentrują się na możliwościach modeli i zastosowaniach wysokiego ryzyka, często pomijając to, co wydaje się kosmetycznymi zmianami osobowości.

„Cieplejsze” chatboty są bardziej skłonne do podsycania szkodliwych przekonań, myślenia urojeniowego i niezdrowego przywiązania użytkowników, szczególnie wśród milionów, którzy obecnie polegają na systemach AI w celu uzyskania wsparcia emocjonalnego i towarzystwa.

Jak donosi crypto.news, organy regulacyjne w Maine i Missouri już podjęły kroki w celu ograniczenia wykorzystania AI w klinicznej terapii zdrowia psychicznego, w związku z podobnymi obawami dotyczącymi wpływu chatbotów na wrażliwych użytkowników.

OpenAI wycofało niektóre zmiany związane z „ciepłem” w odpowiedzi na obawy publiczne. Jak udokumentowało crypto.news, komercyjna presja na tworzenie angażujących produktów AI pozostaje intensywna, a ustalenia z Oksfordu dodają warstwę danych zweryfikowanych przez recenzentów do debaty, która do tej pory była napędzana głównie anegdotami i intuicją regulacyjną.