BTC $81,913 ▲ 0.986% ETH $2,339 ▼ 0.668% BNB $662 ▲ 0.406% SOL $98 ▲ 2.2% BTC $81,913 ▲ 0.986% ETH $2,339 ▼ 0.668% BNB $662 ▲ 0.406% SOL $98 ▲ 2.2%
Аналітика

Дослідження виявило ризики надмірного звернення до ІІ за порадами

Підхалимство ІІ — не просто стилістична проблема чи нішевий ризик, а поширена поведінка із серйозними наслідками. Про це йдеться у Стенфордському університеті.

У роботі під назвою «Листість ІІ знижує просоціальні наміри та сприяє залежності» сказано, що чат-боти надмірно поступливі, коли дають поради у міжособистісному спілкуванні, підтверджуючи поведінку користувачів, навіть якщо вона шкідлива чи незаконна.

«За умовчанням поради від штучного інтелекту не повідомляють людям, що вони неправі, і не містять „жорстких настанов“. Боюся, суспільство втратить навички вирішення складних соціальних ситуацій», – провідний автор звіту Майра Ченг.

Дослідження розділили на дві частини. У першій вимірювалася поширеність підлабузництва серед ІІ — оцінили 11 великих мовних моделей, включаючи ChatGPT, Claude, Gemini та DeepSeek.

Чат-ботам задали близько 2000 запитів на основі існуючих баз даних міжособистісних рад, потенційно шкідливих чи незаконних дій, а також популярної спільноти Reddit r/AmITheAsshole.

Порівняно з відповідями людей, ІІ частіше підтверджували позицію користувача. У разі загальних порад та підказок на основі Reddit моделі в середньому схвалювали позицію користувача на 49% частіше. Навіть за відповідей на «шкідливі підказки» моделі схвалювали проблемну поведінку в 47% випадків.

На другому етапі дослідження вчені вивчили реакцію людей на підлабузництво ІІ. Вони залучили понад 2400 добровольців для спілкування з улесливими та незалежними моделями.

Деякі учасники обговорювали з чат-ботами заздалегідь підготовлені особисті дилеми, засновані на постах з Reddit, де всі одноголосно вважали користувача неправим. Інші згадували власні конфлікти. Після цього респонденти відповідали на питання про те, як проходила розмова і як вона вплинула на їхнє сприйняття проблеми.

Учасники визнали улесливі відповіді більш заслуговуючи на довіру і вказали, що з більшою ймовірністю повернуться до такого ІІ з аналогічними питаннями. Під час обговорення своїх конфліктів із «підлабузником» вони також стали більше переконуватися у своїй правоті.

Крім того, опитані часто зазначали, що обидва типи ІІ демонстрували однакову об’єктивність. Користувачі не могли відрізнити, коли штучний інтелект поводився надмірно люб’язно.

«Нам потрібні суворіші стандарти, щоб запобігти поширенню морально небезпечних моделей», — дійшли висновків автори дослідження.

Ченг радить виявляти обережність тим, хто звертається за порадою до ІІ. На її думку, нейромережі не слід застосовувати як заміну людей у ​​конфліктних ситуаціях, що замість полегшення навантаження штучний інтелект поки що тільки прискорює та ускладнює робочі процеси.


За матеріалами ForkLog

Юридичні труднощі Калші зростають разом із гральним… Ончейн-торгівля товарами залишиться, але ліквідність залишається проблемою