Мировая угроза: в США объяснили, почему искусственный интеллект нужно контролировать уже сейчас
Военные эксперты, политологи, специалисты в сфере информационных технологий и простые обыватели с каждым годом все сильнее опасаются способностей искусственного интеллекта. Американский политик Генри Киссинджер и профессор государственного управления Гарвардского университета Грэм Аллисон на страницах издания Foreign Affairs заявили, что за технологиями ИИ необходимо следить так же тщательно, как когда-то за ядерным оружием.
В период холодной войны и Москва, и Вашингтон понимали, что в руках злоумышленников ядерные технологии могут создать прецедент для Третьей мировой войны, а значит, необходимы надежные системы безопасности, которые защитят ядерные арсеналы обеих стран. Вместе они достигли договоренностей относительно испытаний, применения и защиты ядерных вооружений.
Основой ядерной стратегии послужила концепция сдерживания: нападение противника предотвращают с помощью угрозы нанесения ему ущерба. Позднее к этой стратегии добавили дополнительные пункты: обладатели ядерных боеголовок пытались убедить ключевые государства не создавать собственные ядерные арсеналы, чтобы избежать еще более мощной эскалации потенциального конфликта.
Авторы отмечают, что в середине прошлого века США и СССР достигли единого мнения: распространение ядерного оружия на другие государства несет угрозу им самим, что впоследствии может перерасти в «ядерную анархию».
Так появился режим нераспространения и Договор о нераспространении ядерного оружия 1968 года. Согласно ему, 186 стран обязуются воздерживаться от разработки ядерных вооружений.
Киссинджер и Аллисон видят в этих событиях связь. Многие специалисты уже сейчас выступают за приостановку исследований возможностей искусственного интеллекта. Среди них миллиардер, создатель Space X Илон Маск, исследователь ИИ Элиезер Юдковски, психолог Гэри Маркус и многие другие. Среди предложений звучали идеи не только о паузе в изучении новых технологий, но и создание глобального управляющего органа, который бы курировал эту сферу науки.
Авторы статьи выделили 3 пункта, которые отличают ядерные технологии от разработок на тему искусственного интеллекта.
«Частники» против государства
В первую очередь они обратили внимание на то, что разработкой систем ИИ в основном занимаются частные компании. Среди них популярные Microsoft, Google, Amazon, OpenAI и другие. Все они на несколько шагов опережают любые усилия не только американского, но и прочих правительств в разработке технологий искусственного интеллекта.
Все эти компании в основном заняты борьбой между собой, а значит, они игнорируют национальные интересы своих государств, просчитывая прибыль и риски лишь для себя.
Цифра против физики
Еще одно важное отличие искусственного интеллекта от ядерного оружия – материальность. Для производства ядерных боеголовок была необходима сложная инфраструктура, а продукты ядерного производства поддавались подсчетам и были материальны.
Революция технологий происходит в умах людей. Разработки ведутся в лабораториях, а за развертыванием систем ИИ трудно наблюдать. Сущность искусственного интеллекта заключается в его концептуальности и умозрительности, тогда как ядерное оружие было более чем осязаемо.
Времени нет
Третья особенность заключается в скорости распространения и развития новейших технологий. Это делает невозможным длительные переговоры относительно разработок, применения и защиты таких продуктов.
Киссинджер и Аллисон напоминают, что контроль над вооружениями постепенно развивался на протяжении десятилетий. Но с искусственным интеллектом это невозможно, поэтому ограничения ИИ должны быть установлены еще до того, как он встроится в структуру безопасности государств. Потребуется и новая архитектура отношений между правительствами стран и частным сектором.
Авторы заключили, что, как и в двадцатом веке, ведущие державы, одерживающие лидерство по разработке и развитию новых технологий, должны заключить общий договор, проанализировав историю и последствия неверных выборов.
Однако некоторые эксперты считают, что восстание машин – невозможный сценарий из голливудского кино. Контроль за ИИ важен и необходим, но часть прогнозов – не более чем фарс. Такое мнение ранее высказал руководитель IT-направления в Московском городском открытом колледже Даниил Макеев.
Подписывайтесь на Новости LIVE24.RU и на наш канал в Дзенe. Следите за главными новостями России и Мира в telegram-канале LIVE24.RU.