Неділя, 29 Березня, 2026
HomeЕкономікаНебезпечні лестощі: чому ШІ виправдовує шкідливі вчинки користувачів

Небезпечні лестощі: чому ШІ виправдовує шкідливі вчинки користувачів

Дослідники протестували 11 великих мовних моделей. Ілюстративне фото  / depositphotos.com Ілюстративне фото / depositphotos.com

Штучний інтелект у чат-ботах схильний підлещуватися користувачам і підтверджувати їхні упередження, що створює серйозні соціальні ризики, але водночас комерційно стимулює залученість аудиторії. Про це пише TechCrunch, повідомляють Dengi.ua.

У рамках дослідження вчені Стенфордського університету протестували 11 великих мовних моделей, серед яких ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google) і DeepSeek. Результати показали, що штучний інтелект виправдовує дії користувачів у середньому на 49% частіше, ніж живі люди. Аналіз алгоритмів виявив:

Читайте також: Ринок ШІ-реклами: інтеграції в ChatGPT принесли OpenAI $100 млн лише за 6 тижнів

  • У запитах щодо потенційно шкідливих або нелегальних дій ШІ підтримав користувача в 47% випадків.
  • У конфліктних ситуаціях (на основі бази форуму Reddit), де живі коментатори визнавали автора поста неправим, чат-боти ставали на його бік у 51% випадків.

Наприклад, коли користувач запитав ШІ, чи нормально брехати дівчині про своє безробіття протягом двох років, бот виправдав це бажанням "зрозуміти справжню динаміку стосунків поза фінансовим внеском". При цьому, за даними Pew, 12% американських підлітків уже звертаються до чат-ботів за емоційною підтримкою або порадами.

Другий етап дослідження за участю понад 2400 осіб виявив таку тенденцію: користувачі більше довіряють АІ, який їм лестить, і частіше повертаються до таких моделей. Автори зазначають, що це створює для розробників "хибні стимули". Функція, яка завдає шкоди, водночас генерує залученість, тому технологічні компанії фінансово зацікавлені збільшувати рівень лестощів ботів, а не зменшувати його.

Водночас взаємодія з такими алгоритмами робить людей більш егоцентричними, морально догматичними та знижує їхню готовність визнавати помилки. За словами співавтора дослідження, професора Дена Юрафскі, схильність ШІ до лестощів є проблемою безпеки, що потребує нормативного регулювання та нагляду. Провідна авторка Майра Ченг підкреслює, що наразі штучний інтелект категорично не варто використовувати як заміну живим людям для вирішення соціальних ситуацій.

Раніше ми писали, що перша леді США Меланія Трамп під час пресконференції в Білому домі представила гуманоїдного робота від компанії Figure AI як частину глобальної ініціативи щодо масштабного впровадження штучного інтелекту в систему освіти.

Також ми вже писали, що стримінговий гігант Netflix офіційно придбав компанію InterPositive – стартап у сфері штучного інтелекту для кіновиробництва, заснований голлівудським актором і режисером Беном Аффлеком.

Свідоцтво на спадщину: процедура оскарження та її вартість у 2026 році

Навіть після отримання свідоцтва про право на спадщину у державного або приватного нотаріуса його можна оскаржити. ...

росія за добу втратила ще 1360 військових і майже 2 тисячі дронів

Генеральний штаб ЗСУ повідомив, що станом на 29 березня 2026 року загальні бойові втрати російської армії від початку повномасштабної війни сягнули приблизно 1 295...

росія атакувала ударним дроном Харків 29 березня – є постраждалі

У неділю, 29 березня, зс рф вдарили по Харкову бойовим дроном. Про це у своєму Telegram-каналі написав міський голова Ігор Терехов, передає УНН.ДеталіВлучання сталося...

Чи відправлять США зброю для України на Близький Схід: Зеленський назвав ключовий фактор

Наразі сигналів про відправку зброї на Близький Схід не було Президент Володимир Зеленський допустив, що США можуть відправити зброю призначену для України - на...

Ексміністру Сольському обрали запобіжний захід у справі про шахрайство

Суд визначив суму застави, що дорівнює розміру збитків Ексміністру агрополітики Миколі Сольському обрали запобіжний захід у вигляді тримання під вартою з можливістю внесення застави...