Четвер, 14 Травня, 2026
HomeЕкономікаНебезпечні лестощі: чому ШІ виправдовує шкідливі вчинки користувачів

Небезпечні лестощі: чому ШІ виправдовує шкідливі вчинки користувачів

Дослідники протестували 11 великих мовних моделей. Ілюстративне фото  / depositphotos.com Ілюстративне фото / depositphotos.com

Штучний інтелект у чат-ботах схильний підлещуватися користувачам і підтверджувати їхні упередження, що створює серйозні соціальні ризики, але водночас комерційно стимулює залученість аудиторії. Про це пише TechCrunch, повідомляють Dengi.ua.

У рамках дослідження вчені Стенфордського університету протестували 11 великих мовних моделей, серед яких ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) і DeepSeek. Результати показали, що штучний інтелект виправдовує дії користувачів у середньому на 49% частіше, ніж живі люди. Аналіз алгоритмів виявив:

Читайте також: Ринок ШІ-реклами: інтеграції в ChatGPT принесли OpenAI $100 млн лише за 6 тижнів

  • У запитах щодо потенційно шкідливих або нелегальних дій ШІ підтримав користувача в 47% випадків.
  • У конфліктних ситуаціях (на основі бази форуму Reddit), де живі коментатори визнавали автора поста неправим, чат-боти ставали на його бік у 51% випадків.

Наприклад, коли користувач запитав ШІ, чи нормально брехати дівчині про своє безробіття протягом двох років, бот виправдав це бажанням "зрозуміти справжню динаміку стосунків поза фінансовим внеском". При цьому, за даними Pew, 12% американських підлітків уже звертаються до чат-ботів за емоційною підтримкою або порадами.

Другий етап дослідження за участю понад 2400 осіб виявив таку тенденцію: користувачі більше довіряють АІ, який їм лестить, і частіше повертаються до таких моделей. Автори зазначають, що це створює для розробників "хибні стимули". Функція, яка завдає шкоди, водночас генерує залученість, тому технологічні компанії фінансово зацікавлені збільшувати рівень лестощів ботів, а не зменшувати його.

Водночас взаємодія з такими алгоритмами робить людей більш егоцентричними, морально догматичними та знижує їхню готовність визнавати помилки. За словами співавтора дослідження, професора Дена Юрафскі, схильність ШІ до лестощів є проблемою безпеки, що потребує нормативного регулювання та нагляду. Провідна авторка Майра Ченг підкреслює, що наразі штучний інтелект категорично не варто використовувати як заміну живим людям для вирішення соціальних ситуацій.

Раніше ми писали, що перша леді США Меланія Трамп під час пресконференції в Білому домі представила гуманоїдного робота від компанії Figure AI як частину глобальної ініціативи щодо масштабного впровадження штучного інтелекту в систему освіти.

Також ми вже писали, що стримінговий гігант Netflix офіційно придбав компанію InterPositive – стартап у сфері штучного інтелекту для кіновиробництва, заснований голлівудським актором і режисером Беном Аффлеком.

Курс валют на 15.05.2026: долар і євро пішли вниз

Долар офіційно подешевшав на 1 копійку, а євро - на 6 коп. ...

Трамп залишив Венсу секретний лист на випадок, якщо з ним “щось трапиться”

У Білому домі розповіли про інструкції Трампа для можливого наступника Президент США Дональд Трамп залишив інструкції для віцепрезидента Джей Ді Венса на випадок, якщо...

Україна терміново скликає Радбез ООН через масований удар Росії, – Сибіга

Україна кличе іноземних послів на місце "прильоту" Україна ініціює термінове засідання Ради Безпеки ООН через масований обстріл цивільного населення та вбивства гуманітарного персоналу російськими...

Розлучення в Україні: які правила діють під час війни

Українське законодавство передбачає кілька підстав для припинення шлюбу, а також різні процедури оформлення розлучення. ...