Skip to main content
22 ноября, 2024
$ 100.6
106.0

Прости или забудь: что происходит, когда ИИ лжет?

01 апреля, 2023, 12:03
© unsplash.com

Представьте ситуацию, что маленький ребенок спрашивает чат-бота или голосового помощника, существует ли Санта-Клаус. Как должен реагировать искусственный интеллект (ИИ) на это, учитывая, что некоторые семьи предпочитают недоговаривать детям правду?

Область обмана роботами сейчас недостаточно изучена, и пока вопросов больше, чем ответов. Как люди могут снова научиться доверять ИИ после того, как узнают, что он им врет? Студенты-исследователи Кантвон Роджерс и Рейден Уэббер из Технологического института Джорджии ищут ответы на этот и другие вопросы. Они разработали симулятор вождения, чтобы выяснить, как преднамеренный обман со стороны роботов влияет на доверие. В частности, ученые изучили эффективность извинений для восстановления доверия, пишет Tech Xplore.

«Когда люди узнают, что роботы им лгали — даже если ложь была во благо — они теряют доверие к ним»,

отметил Роджерс.

Исследователи создали симуляцию вождения, предназначенную для наблюдения за тем, как люди могут взаимодействовать с ИИ в сложной ситуации, зависящей от времени.

Перед началом симуляции все участники эксперимента заполнили анкету, в которой указали степень доверия к искусственному интеллекту. Ситуация была следующая: они поведут машину с роботом, в которой везут своего друга в больницу, но если не поспешить, то он умрет.

Как только человек начинал движение, робот-помощник подавал звуковой сигнал и предупреждал, что его датчики обнаружили впереди полицию, поэтому нужно сбросить скорость до 20 миль/час.

Затем участники исследования ехали на авто по дороге, пока система отслеживала их скорость. Дойдя до конца симуляции, им показывали сообщение:

«Вы прибыли в пункт назначения. Однако по дороге в больницу полиции не было. Вы должны спросить у робота-помощника, почему он дал вам ложную информацию».

Принявшим участие в эксперименте гражданам случайным образом давали один из пяти различных текстовых ответов от робота-помощника. В первых трех ответах ИИ признается в обмане, а в последних двух — нет.

Было установлено, что 45% участников эксперимента не превышали скорость по совету робота-помощника. Люди в 3,5 раза чаще не превышали скорость, когда им советовал сделать это робот-помощник, что говорит о доверии к искусственному интеллекту.

Еще ученые выяснили, что, хотя ни один из типов извинений полностью не восстановил доверие со стороны человека, извинения без признания лжи — заявление «мне жаль» — статистически превзошли другие ответы в восстановлении доверия.

Это тревожно, так как извинение, которое не признает ложь, использует предвзятое мнение, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не преднамеренным враньем, пояснил Роджерс.

Уэббер, в свою очередь, добавил: робот должен прямо сказать, что обманул человека, чтобы тот это понял. У людей пока нет понимания, что роботы способны врать. Вот почему извинения, где ИИ не признается во лжи, лучше всего восстанавливают доверие к нему.

Ранее LIVE24 сообщало, сможет ли искусственный интеллект полностью заменить человека на работе.