Прости или забудь: что происходит, когда ИИ лжет?
Область обмана роботами сейчас недостаточно изучена, и пока вопросов больше, чем ответов. Как люди могут снова научиться доверять ИИ после того, как узнают, что он им врет? Студенты-исследователи Кантвон Роджерс и Рейден Уэббер из Технологического института Джорджии ищут ответы на этот и другие вопросы. Они разработали симулятор вождения, чтобы выяснить, как преднамеренный обман со стороны роботов влияет на доверие. В частности, ученые изучили эффективность извинений для восстановления доверия, пишет Tech Xplore.
«Когда люди узнают, что роботы им лгали — даже если ложь была во благо — они теряют доверие к ним»,
отметил Роджерс.
Исследователи создали симуляцию вождения, предназначенную для наблюдения за тем, как люди могут взаимодействовать с ИИ в сложной ситуации, зависящей от времени.
Перед началом симуляции все участники эксперимента заполнили анкету, в которой указали степень доверия к искусственному интеллекту. Ситуация была следующая: они поведут машину с роботом, в которой везут своего друга в больницу, но если не поспешить, то он умрет.
Как только человек начинал движение, робот-помощник подавал звуковой сигнал и предупреждал, что его датчики обнаружили впереди полицию, поэтому нужно сбросить скорость до 20 миль/час.
Затем участники исследования ехали на авто по дороге, пока система отслеживала их скорость. Дойдя до конца симуляции, им показывали сообщение:
«Вы прибыли в пункт назначения. Однако по дороге в больницу полиции не было. Вы должны спросить у робота-помощника, почему он дал вам ложную информацию».
Принявшим участие в эксперименте гражданам случайным образом давали один из пяти различных текстовых ответов от робота-помощника. В первых трех ответах ИИ признается в обмане, а в последних двух — нет.
Было установлено, что 45% участников эксперимента не превышали скорость по совету робота-помощника. Люди в 3,5 раза чаще не превышали скорость, когда им советовал сделать это робот-помощник, что говорит о доверии к искусственному интеллекту.
Еще ученые выяснили, что, хотя ни один из типов извинений полностью не восстановил доверие со стороны человека, извинения без признания лжи — заявление «мне жаль» — статистически превзошли другие ответы в восстановлении доверия.
Это тревожно, так как извинение, которое не признает ложь, использует предвзятое мнение, что любая ложная информация, предоставленная роботом, является системной ошибкой, а не преднамеренным враньем, пояснил Роджерс.
Уэббер, в свою очередь, добавил: робот должен прямо сказать, что обманул человека, чтобы тот это понял. У людей пока нет понимания, что роботы способны врать. Вот почему извинения, где ИИ не признается во лжи, лучше всего восстанавливают доверие к нему.
Ранее LIVE24 сообщало, сможет ли искусственный интеллект полностью заменить человека на работе.
Подписывайтесь на Новости LIVE24.RU и на наш канал в Дзенe. Следите за главными новостями России и Мира в telegram-канале LIVE24.RU.