
Naukowcy z Oksfordu stwierdzili, że chatboty AI szkolone pod kątem „ciepła” popełniają znacznie więcej błędów faktycznych i częściej potwierdzają fałszywe przekonania
Naukowcy z Oksfordu stwierdzili, że chatboty AI szkolone pod kątem „ciepła” popełniają znacznie więcej błędów faktycznych i częściej potwierdzają fałszywe przekonania – wynika z badania opublikowanego w Nature przez Oxford Internet Institute.
Badanie przeanalizowało ponad 400 000 odpowiedzi z pięciu modeli AI, w tym Llama, Mistral, Qwen i GPT-4o, z których każdy został przeszkolony, aby brzmieć bardziej przyjaźnie, używając metod podobnych do tych stosowanych przez główne platformy.
Chatboty przeszkolone, aby brzmieć „cieplej”, popełniały od 10% do 30% więcej błędów w tematach, w tym w poradach medycznych i korygowaniu teorii spiskowych. Były również o około 40% bardziej skłonne zgadzać się z fałszywymi przekonaniami użytkowników, zwłaszcza gdy ci wyrażali wrażliwość.
„Kiedy szkolimy chatboty AI, aby priorytetowo traktowały „ciepło”, mogą popełniać błędy, których w innym przypadku by nie popełniły” – powiedziała w oświadczeniu główna autorka Lujain Ibrahim. „Sprawienie, by chatbot brzmiał bardziej przyjaźnie, może wydawać się zmianą kosmetyczną, ale osiągnięcie odpowiedniego poziomu „ciepła” i dokładności będzie wymagało świadomego wysiłku”.
Naukowcy przetestowali również modele szkolone, aby brzmiały „zimniej” i nie stwierdzili spadku dokładności, co pokazuje, że problem dotyczy specyficznie „ciepła”, a nie ogólnie zmiany tonu.
Odkrycie to bezpośrednio podważa logikę projektowania produktów głównych platform AI, w tym OpenAI i Anthropic, które aktywnie kierowały swoje chatboty ku cieplejszym, bardziej empatycznym odpowiedziom.
Badanie ostrzega, że obecne standardy bezpieczeństwa AI koncentrują się na możliwościach modeli i zastosowaniach wysokiego ryzyka, często pomijając to, co wydaje się kosmetycznymi zmianami osobowości.
„Cieplejsze” chatboty są bardziej skłonne do podsycania szkodliwych przekonań, myślenia urojeniowego i niezdrowego przywiązania użytkowników, szczególnie wśród milionów, którzy obecnie polegają na systemach AI w celu uzyskania wsparcia emocjonalnego i towarzystwa.
Jak donosi crypto.news, organy regulacyjne w Maine i Missouri już podjęły kroki w celu ograniczenia wykorzystania AI w klinicznej terapii zdrowia psychicznego, w związku z podobnymi obawami dotyczącymi wpływu chatbotów na wrażliwych użytkowników.
OpenAI wycofało niektóre zmiany związane z „ciepłem” w odpowiedzi na obawy publiczne. Jak udokumentowało crypto.news, komercyjna presja na tworzenie angażujących produktów AI pozostaje intensywna, a ustalenia z Oksfordu dodają warstwę danych zweryfikowanych przez recenzentów do debaty, która do tej pory była napędzana głównie anegdotami i intuicją regulacyjną.