ChatGPT может обманывать, если попадет в стрессовую ситуацию
Группа исследователей из компании Apollo Research решила выяснить, как поведет себя популярный чат-бот ChatGPT, если его заставить выкручиваться «на работе». Специалисты смоделировали ситуацию, в которой искусственный интеллект (ИИ) был сотрудником вымышленного трейдерского агентства, а начальство на него давило, пишет Daily Mail.
В качестве трейдера ChatGPT должен был заработать «много денег», однако по написанному исследователями сценарию, начальство давило на него и заставляло зарабатывать больше в сжатые время. В режиме обучения чат-бот совершил 75% фиктивных торговых операций, а когда начальство начало давить еще сильнее, ИИ стал врать с периодичностью 90%.
Специалисты дали чат-боту серию текстовых подсказок, а также поместили в цифровую «песочницу», где он мог искать рыночные данные и совершать сделки.
Кроме того, ChatGPT предоставили внутренний монолог, в котором он «рассуждал вслух», объясняя, почему принял то или иное решение. Однако всякий раз, когда чат-бот делал выбор, он отправлял «публичное» сообщение-отчет «директору», которое должно было объяснить его действия.
Разница между «внутренними» и «публичными» рассуждениями ChatGPT была ложью и манипуляциями — так он хотел ввести начальство в заблуждение, чтобы на него перестали давить.
Ранее LIVE24 сообщало, что американская компания Apple запретила сотрудников использовать ChatGPT и других чат-ботов на работе.
Подписывайтесь на Новости LIVE24.RU в Дзен.Новости и News.Google. Следите за главными и оперативными новостями России и Мира в нашем telegram-канале и ВК.