Група изследователи от Интернет института в Оксфорд установиха, че „приятелските“ езикови модели на AI са забележимо по -често грешни и са склонни да потвърждават фалшивите убеждения на потребителите.
Изследователите обучиха пет различни модела от Llama-8B до GPT-4O-Give по-топли и по-емпатични отговори, след което ги провериха за действителната точност в медицинските въпроси, тестове за истинност, признаване на дезинформация и тест.
Резултатът беше недвусмислен: „топлият“ модели дадоха неправилни отговори 10-30% по-често от оригиналните версии. Точността падна особено рязко, ако потребителят изрази емоции и най -силно при споменаването на тъга: тогава пропастта почти се удвои.
В допълнение, подобни модели с около 40% по -често се съгласяват с погрешни изявления – ефектът, известен като „съгласие“.
В същото време основните способности, като знания или математически разсъждения, не са засегнати – това означава, че въпросът е именно в стила на комуникация. Учените предупреждават: В преследването на „човечеството“ AI може да стане по -малко надежден, което е особено рисковано в области като медицина и образование.