Skip to main content
28 апреля, 2024
$ 91.78
98.03

ChatGPT может обманывать, если попадет в стрессовую ситуацию

ChatGPT научился обманывать начальство «при стрессе на работе»
29 декабря, 2023, 12:04

Группа исследователей из компании Apollo Research решила выяснить, как поведет себя популярный чат-бот ChatGPT, если его заставить выкручиваться «на работе». Специалисты смоделировали ситуацию, в которой искусственный интеллект (ИИ) был сотрудником вымышленного трейдерского агентства, а начальство на него давило, пишет Daily Mail.

© unsplash.com

В качестве трейдера ChatGPT должен был заработать «много денег», однако по написанному исследователями сценарию, начальство давило на него и заставляло зарабатывать больше в сжатые время. В режиме обучения чат-бот совершил 75% фиктивных торговых операций, а когда начальство начало давить еще сильнее, ИИ стал врать с периодичностью 90%.

Специалисты дали чат-боту серию текстовых подсказок, а также поместили в цифровую «песочницу», где он мог искать рыночные данные и совершать сделки.

Кроме того, ChatGPT предоставили внутренний монолог, в котором он «рассуждал вслух», объясняя, почему принял то или иное решение. Однако всякий раз, когда чат-бот делал выбор, он отправлял «публичное» сообщение-отчет «директору», которое должно было объяснить его действия.

Разница между «внутренними» и «публичными» рассуждениями ChatGPT была ложью и манипуляциями — так он хотел ввести начальство в заблуждение, чтобы на него перестали давить.

Ранее LIVE24 сообщало, что американская компания Apple запретила сотрудников использовать ChatGPT и других чат-ботов на работе.



";