Бесчеловечная сила мысли: ученые определили, что ИИ не по зубам человеку
Автор Дэвид Нилд со ссылкой на исследование ученых, опубликованное в издании Journal of Artificial Intelligence Research , снова коснулся темы того, будет ли нам хорошо от ИИ или будет так себе.
Об искусственном интеллекте, который в итоге свергнет человечество, говорили десятилетиями, а такие программы, как ChatGPT, только сообщили этим разговорам дополнительный жар.
Автор же все равно заскучал, от того и поставил вопрос ребром – так сможем ли мы управлять компьютерным сверхразумом? Если этот сверхразум будет действительно умнее человека?
И тут же сам себе отвечает. Не без помощи сердобольных ученых:
– Они еще в 2021 году подсчитали цифры, и заявили, что – нет! – пишет Нилд. – Мы не сможем контролировать по-настоящему умный ИИ.
Загвоздка в том, что управления сверхразумом, находящимся на голову выше самого человека, потребуется еще одна симуляция этого сверхразума, которую уже сможет изучить человек.
Тут Нилд предсказуемо сталкивается с диалектическим тупиком, зато делает наглядным расхожий механизм человеческого блуждания в трех существительных:
– Если мы не в состоянии понять ИИ, то не сможет и создать такую симуляцию! – озаряет его.
Далее он касается этической стороны киберповестки.
– Такие правила, как «не причинять вреда людям», не могут быть заданы, если мы не понимаем, какие сценарии может придумать ИИ в принципе! Как только компьютерная система заработает на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения.
Далее он снова цитирует исследователей, переживающих аж с 2021 года: «Сверхразум ставит принципиально иную проблему, чем те, которые обычно изучаются под лозунгом «этики роботов»….Все потому, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения целей, которые потенциально непостижимы для людей, не говоря уже о том, что ими можно управлять».
Потом он проливает свет на источник подобных настроений ученых. Часть их рассуждений берет корни из проблемы остановки, выдвинутой Аланом Тьюрингом в 1936 году. Проблема заключается в том, чтобы знать, придет ли компьютерная программа к выводу и ответу (поэтому она останавливается) или просто будет вечно зацикливаться, пытаясь его найти.
Как математически доказал Тьюринг, для некоторых конкретных программ логически невозможно найти способ, который дал бы нам точно знать нечто подобное для каждой потенциальной программы.
– Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно хранить в своей памяти все возможные компьютерные программы, – продолжает рассуждать он. – Например, любая программа, написанная для того, чтобы ИИ не причинил вреда людям и не разрушил мир, может прийти к какому–то выводу (и остановиться) или нет – в любом случае математически невозможно быть абсолютно уверенным, что это невозможно сдержать.
А если нельзя быть уверенным, значит то и означает. Что сдержать – невозможно.
– По сути, это делает алгоритм сдерживания непригодным, – подтвердил специалист по информатике Института человеческого развития Макса Планка в Германии Ияд Раван.
Альтернативой обучению ИИ некоторой этике и приказу ему не разрушать мир – в чем, по словам исследователей, ни один алгоритм не может быть абсолютно уверен, – является ограничение возможностей сверхразума. Например, он может быть отрезан от части Интернета или от определенных сетей.
Но исследование 2021 года отвергло и эту идею. Ученые предположили, что это ограничит возможности искусственного интеллекта – аргумент заключается в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем его вообще создавать?
Быть обычными мы и сами можем.
– Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится неподконтрольный нам сверхразум – вот настолько он непостижим! – пишут исследователи. – Это означает, что нам нужно уже начать задаваться некоторыми серьезными вопросами о направлениях, в которых мы движемся.
Только ленивый не вспоминал о том, что в этом году технологические гиганты, включая Илона Маска и сооснователя Apple Стива Возняка, подписали открытое письмо с просьбой к человечеству приостановить работу над искусственным интеллектом как минимум на 6 месяцев, чтобы можно было изучить его безопасность. Вспомнил об этом и автор.
– Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезные риски для общества и человечества, – говорится в открытом письме, озаглавленном «Приостановить гигантские эксперименты с ИИ». – Мощные системы ИИ следует разрабатывать только тогда, когда мы будем уверены, что их эффект будет положительным, а риски управляемыми.
Ранее LIVE24 сообщало о том, что искусственный интеллект готовится заменить врачей.
Подписывайтесь на Новости LIVE24.RU и на наш канал в Дзенe. Следите за главными новостями России и Мира в telegram-канале LIVE24.RU.