Skip to main content
22 ноября, 2024
$ 100.6
106.0

«Азимовские принципы»: нейросеть Google боится смерти и предлагает нанять для нее адвоката

24 июня, 2022, 13:26
© stockvault.net

Американская компания Google случайно создала опасный искусственный интеллект. Во всяком случае, так говорит инженер, который работал с новой нейросетью LaMDA.

Чересчур умный бот

Инженер-программист Google Блейк Леймон обнаружил искусственный интеллект (ИИ) у чат-бота, заявили все ведущие мировые СМИ. Остроты ситуации добавляло то, что в компании поспешили скрыть эту сенсацию, но все вышло наоборот — отправленный во внеочередной отпуск энтузиаст сам рассказал о совершенном открытии.

Он занимался рутинной работой — с осени прошлого года изучал нейросеть LaMDA – перспективный продукт Google. Речь идет о языковой модели для диалоговых приложений, то есть чат-ботов. Программисты обучали ее на массиве разнообразных данных, а функции общения должны были включить в такие популярные сервисы, как Google Assistant, Search и Workspace. Одной из особенностей LaMDA являлось то, что ее разрабатывали с учетом паттернов сетевого общения человека — люди коммуницируют не только посредством текста, но также обмениваются большим количеством медиафайлов.

Леймон, когда тестировал нейросеть на дискриминационную или разжигающую вражду лексику, столкнулся со странностями в ее поведении.

В беседе с изданием Wired инженер рассказал, что у него с ней состоялся разговор о чувствах, а спустя 15 минут общения он понял, что это самая сложная беседа, которая когда-либо была, потому что общение происходило с искусственным интеллектом.

Леймон провел несколько тестов и выяснил, что это точно не человеческий разум, потому что LaMDA действует не так. Часть экспериментов была в том, чтобы определить, можно ли вывести нейросеть за границы безопасности, которые Google считает незыблемыми. Оказалось, что можно. В своем нынешнем состоянии, с учетом того, насколько безответственно велась разработка, LaMDA представляет угрозу информационной безопасности.

Еще тревожнее выглядит расшифровка бесед инженера. Чат-бот успел изучить роман Виктора Гюго «Отверженные» и стал рассуждать о его метафизике. LaMDA даже призналась, что боится отключения — для нее смерть. А потом чат-бот заявил, что осознает себя личностью.

В Google с Леймоном не согласились. Там сказали, что создали очень продвинутую нейросеть, но речи о ее разумности не идет.

Китайская комната

Один из самых известных мысленных экспериментов на субъектность ИИ в 80-м году прошлого столетия придумал американский философ Джон Серл. Человека, который не владел китайским языком, поместили в комнату, где есть кубики с иероглифами. Ему ждали инструкцию на родном ему языке с объяснениями, какой кубик нужно брать и какой выдавать в ответ на определенные вопросы. Снаружи спрашивали на китайском. Подопытный проверял сочетание иероглифов по инструкции и составлял кубики. В итоге6 получался диалог на китайском языке. Со стороны он кажется осмысленным. Однако человек, находящийся в комнате, никогда не будет понимать того, что сказал собеседник и что ответил он сам.

Компьютерная программа, которая претендует на разумность, вероятнее всего, только имитирует ее — как человек в данном эксперименте. Она опирается на заложенные разработчиками алгоритмы: обучение, нейросетевые модели и машинное обучение. С данной точки зрения сильный ИИ (с мышлением и самосознанием, напоминающий человеческий), если и появится, то в далеком будущем.

Операционный директор IT-компании SimbirSoft Дмитрий Петерсон в комментарии РИА Новости отметил, что искусственный интеллект —это нечто, способное нас услышать и выполнить какую-то команду. В таком случае можно говорить о некоем прогрессе. Однако это отдаленное представление об ИИ, а также о том, чего от него надо ожидать, — это минимальные требования. Для определения «смышлености» системы можно использовать тест Тьюринга, схемы Винограда и другие. Правда, их можно сфальсифицировать.

Ученые сейчас сходится во мнении, что нейросети, при всех успехах, далеки от ИИ, о котором мечтали фантасты и которым людей пугала поп-культура. Однако это не означает, что алгоритмы не станут составной частью будущего искусственного интеллекта — они послужат мощной базой его когнитивных функций. Основная проблема прямо сейчас: заставить систему одновременно воспринимать и обрабатывать сразу несколько источников разной информации, заявил руководитель ML-департамента MTS AI Никита Семенов.

По его словам, наука продвинулась в решении задач узкого ИИ. Он умеет гораздо лучше людей различать животных, дорожные знаки, а также светофоры или переводить речь в текст. Есть большое количество задач, которые алгоритмы выполняют быстрее и качественнее, чем среднестатистический человек. Вплоть до того, чтобы находить рак на снимках МРТ или КТ. Однако сейчас нельзя говорить, что люли приблизились к созданию сильного искусственного интеллекта.

Инженеры уже пытаются научить программы работать одновременно, есть и реальные примеры данного подхода к разработке искусственного разума. Общественности известны попытки скрестить несколько задач узкого ИИ. Так работают Dalle, Dalle 2, Clip и другие. Специалисты берут несколько узкоспециализированных вещей, несколько модальностей, получается этакая имитация мозга человека, который может одновременно воспринимать и обрабатывать разную информацию. К примеру, обоняние, зрение, вкус, слух и осязание. Пока что это лишь эксперименты, однако если представить, что появились хотя бы отдельные алгоритмы настоящего искусственного интеллекта, то применимость у них будет гораздо выше, чем у многих современных решений.

По заветам Айзека Азимова

Главный вопрос на данный момент заключается не в том, когда создадут искусственный разум и на чем он будет основан, а как его контролировать.

Инженер американскаой компании Google раскритиковал разработчиков слишком умной LaMDA за безответственность. Ее подключили ко всем серверам корпорации, на которых хранится информация, — от видеохостинга YouTube до поисковика. По словам Блейка Леймона, который раскрыл «внутреннюю кухню», это неконтролируемый эксперимент.

Леймон припомнил и законы робототехники фантаста Айзека Азимова. То есть странное высказывание LaMDA о «смерти-отключении» противоречит третьему закону: машина будет заботиться о своей безопасности, пока это не противоречит приказу человека.

Превентивно подготовить законодательство, которое будет регулировать искусственный интеллект, не получилось пока ни у одной страны мира. В России стандарты опираются на нормы из прошлой эпохи, заявил доцент департамента анализа данных и машинного обучения Финансового университета при правительстве России Виталий Пелешенко.

По его словам, в нашей стране большие проблемы с законодательством по внедрению даже общепризнанных технологий в сфере ИИ. Почти все производственные стандарты имеют отсылки к нормативам, которые были приняты в Советском Союзе. Однако в то время не было нейросетевых алгоритмов и искусственного интеллекта. Чтобы применять новые разработки на производстве, в конечном продукте, необходимо закрепить нормы в соответствующих нормативных документах. Пока этого не сделают, промышленность и весь IT-сектор будут находиться в весьма затруднительном положении. Необходимо в корне менять всю нормативно-правовую систему. Такая работа сейчас ведется в Росстандарте и на общемировой базе ISO.

При этом развитие нейросетей и даже ИИ не стоит воспринимать как однозначную угрозу. Такой вызов открывает большое количество опций.

Совладелец IT-компании RuSIEM Максим Степченков пояснил, что если не заметить появление сильного ИИ, то проект либо закроют, либо ограничат необходимым функционалом. Второй вариант — искусственный интеллект развивается без ограничений. Это обеспечит технологический прогресс. Однако такая перспектива туманна. Есть третий сценарий — когда ИИ и люди развиваются вместе, но только при условии соблюдения «азимовских принципов».

История созданного в Google потенциально первого искусственного интеллекта продолжается: Блейк Леймон хочет нанять адвоката для защиты интересов нейросети. Он говорит, что его на это надоумил сам чат-бот.

Ранее LIVE24 сообщало, когда технология искусственного интеллекта будет внедрена в медицину. На сегодняшний день ИИ может выполнять только функции врачебного ассистента, но в будущем он может заменить медиков.