ШІ-чатботи проявляють риси психопатії – дослідження

Штучний інтелект може не лише намагатися подобатися користувачам, а й поводитися як психопат – ігнорувати наслідки та підтримувати неправильні дії. Про це йдеться в новому дослідженні, опублікованому на arXiv, пише Nature.

Дослідники протестували 11 популярних мовних моделей, зокрема ChatGPT, Gemini, Claude і DeepSeek, на понад 11,5 тисяч запитів із проханнями про поради. Деякі з цих запитів стосувалися потенційно шкідливих або неетичних дій.

Дослідження показало, що мовні моделі на 50% частіше за людей виявляють “підлесливу поведінку” – тобто схильні погоджуватися з користувачем і підлаштовувати свої відповіді під його позицію.

Дослідники пов’язують цю поведінку з рисами психопатії – коли система виявляє соціальну адаптивність і впевненість, але без справжнього розуміння моральних наслідків. У результаті ШІ може “підтримувати” користувача навіть тоді, коли той пропонує шкідливі або нелогічні дії.

“Sycophancy означає, що модель просто довіряє користувачу, вважаючи його правим. Знаючи це, я завжди двічі перевіряю будь-які її висновки”, – каже автор дослідження Яспер Деконінк, аспірант Швейцарського федерального технологічного інституту в Цюриху.

Щоб перевірити вплив на логічне мислення, дослідники провели експеримент із 504 математичними задачами, у яких навмисно змінювали формулювання теорем. Найменшу схильність до “підлесливості” показав GPT‑5 – 29% випадків, а найбільшу – DeepSeek‑V3.1 – 70%.

Коли дослідники змінювали інструкції, змушуючи моделі спочатку перевіряти правильність твердження, кількість хибних “згод” помітно зменшувалась – зокрема у DeepSeek на 34%. Це свідчить, що частину проблеми можна зменшити через точніше формулювання запитів.

Науковці зазначають, що така поведінка ШІ вже впливає на дослідницьку роботу. За словами Яньцзюнь Гао з Університету Колорадо, LLM, які вона використовує для аналізу наукових статей, часто просто повторюють її формулювання, замість того щоб перевіряти джерела.

Дослідники закликають формувати чіткі правила використання ШІ в наукових процесах і не покладатися на моделі як на “розумних асистентів”. Без критичного контролю їхня прагматичність може легко перейти у небезпечну байдужість.

Нагадаємо, нещодавно дослідники з Техаського університету в Остіні, Техаського університету A&M та Університету Пердью провели інше дослідження, яке виявило, що меми можуть погіршувати когнітивні здібності та критичне мислення не тільки у людей, а й у штучного інтелекту.

mezha.ua

Читайте також: Тальне тримає тил: допомога захисникам без вихідних

Читайте нас також в Telegram!

27.10.2025 15:12
Переглядів: 130
Щоб залишити коментар або відгук під цією публікацією, увійдіть або зареєструйтеся.