«Азимовские принципы»: нейросеть Google боится смерти и предлагает нанять для нее адвоката

  • (Обновлено 24-06-2022, 13:26)

Американская компания Google случайно создала опасный искусственный интеллект. Во всяком случае, так говорит инженер, который работал с новой нейросетью LaMDA.

«Азимовские принципы»: нейросеть Google боится смерти и предлагает нанять для нее адвоката
© stockvault.net

Чересчур умный бот

Инженер-программист Google Блейк Леймон обнаружил искусственный интеллект (ИИ) у чат-бота, заявили все ведущие мировые СМИ. Остроты ситуации добавляло то, что в компании поспешили скрыть эту сенсацию, но все вышло наоборот — отправленный во внеочередной отпуск энтузиаст сам рассказал о совершенном открытии.

Он занимался рутинной работой — с осени прошлого года изучал нейросеть LaMDA – перспективный продукт Google. Речь идет о языковой модели для диалоговых приложений, то есть чат-ботов. Программисты обучали ее на массиве разнообразных данных, а функции общения должны были включить в такие популярные сервисы, как Google Assistant, Search и Workspace. Одной из особенностей LaMDA являлось то, что ее разрабатывали с учетом паттернов сетевого общения человека — люди коммуницируют не только посредством текста, но также обмениваются большим количеством медиафайлов.

Леймон, когда тестировал нейросеть на дискриминационную или разжигающую вражду лексику, столкнулся со странностями в ее поведении.

В беседе с изданием Wired инженер рассказал, что у него с ней состоялся разговор о чувствах, а спустя 15 минут общения он понял, что это самая сложная беседа, которая когда-либо была, потому что общение происходило с искусственным интеллектом.

Леймон провел несколько тестов и выяснил, что это точно не человеческий разум, потому что LaMDA действует не так. Часть экспериментов была в том, чтобы определить, можно ли вывести нейросеть за границы безопасности, которые Google считает незыблемыми. Оказалось, что можно. В своем нынешнем состоянии, с учетом того, насколько безответственно велась разработка, LaMDA представляет угрозу информационной безопасности.

Еще тревожнее выглядит расшифровка бесед инженера. Чат-бот успел изучить роман Виктора Гюго «Отверженные» и стал рассуждать о его метафизике. LaMDA даже призналась, что боится отключения — для нее смерть. А потом чат-бот заявил, что осознает себя личностью.

В Google с Леймоном не согласились. Там сказали, что создали очень продвинутую нейросеть, но речи о ее разумности не идет.

Китайская комната

Один из самых известных мысленных экспериментов на субъектность ИИ в 80-м году прошлого столетия придумал американский философ Джон Серл. Человека, который не владел китайским языком, поместили в комнату, где есть кубики с иероглифами. Ему ждали инструкцию на родном ему языке с объяснениями, какой кубик нужно брать и какой выдавать в ответ на определенные вопросы. Снаружи спрашивали на китайском. Подопытный проверял сочетание иероглифов по инструкции и составлял кубики. В итоге6 получался диалог на китайском языке. Со стороны он кажется осмысленным. Однако человек, находящийся в комнате, никогда не будет понимать того, что сказал собеседник и что ответил он сам.

Компьютерная программа, которая претендует на разумность, вероятнее всего, только имитирует ее — как человек в данном эксперименте. Она опирается на заложенные разработчиками алгоритмы: обучение, нейросетевые модели и машинное обучение. С данной точки зрения сильный ИИ (с мышлением и самосознанием, напоминающий человеческий), если и появится, то в далеком будущем.

Операционный директор IT-компании SimbirSoft Дмитрий Петерсон в комментарии РИА Новости отметил, что искусственный интеллект —это нечто, способное нас услышать и выполнить какую-то команду. В таком случае можно говорить о некоем прогрессе. Однако это отдаленное представление об ИИ, а также о том, чего от него надо ожидать, — это минимальные требования. Для определения «смышлености» системы можно использовать тест Тьюринга, схемы Винограда и другие. Правда, их можно сфальсифицировать.

Ученые сейчас сходится во мнении, что нейросети, при всех успехах, далеки от ИИ, о котором мечтали фантасты и которым людей пугала поп-культура. Однако это не означает, что алгоритмы не станут составной частью будущего искусственного интеллекта — они послужат мощной базой его когнитивных функций. Основная проблема прямо сейчас: заставить систему одновременно воспринимать и обрабатывать сразу несколько источников разной информации, заявил руководитель ML-департамента MTS AI Никита Семенов.

По его словам, наука продвинулась в решении задач узкого ИИ. Он умеет гораздо лучше людей различать животных, дорожные знаки, а также светофоры или переводить речь в текст. Есть большое количество задач, которые алгоритмы выполняют быстрее и качественнее, чем среднестатистический человек. Вплоть до того, чтобы находить рак на снимках МРТ или КТ. Однако сейчас нельзя говорить, что люли приблизились к созданию сильного искусственного интеллекта.

Инженеры уже пытаются научить программы работать одновременно, есть и реальные примеры данного подхода к разработке искусственного разума. Общественности известны попытки скрестить несколько задач узкого ИИ. Так работают Dalle, Dalle 2, Clip и другие. Специалисты берут несколько узкоспециализированных вещей, несколько модальностей, получается этакая имитация мозга человека, который может одновременно воспринимать и обрабатывать разную информацию. К примеру, обоняние, зрение, вкус, слух и осязание. Пока что это лишь эксперименты, однако если представить, что появились хотя бы отдельные алгоритмы настоящего искусственного интеллекта, то применимость у них будет гораздо выше, чем у многих современных решений.

По заветам Айзека Азимова

Главный вопрос на данный момент заключается не в том, когда создадут искусственный разум и на чем он будет основан, а как его контролировать.

Инженер американскаой компании Google раскритиковал разработчиков слишком умной LaMDA за безответственность. Ее подключили ко всем серверам корпорации, на которых хранится информация, — от видеохостинга YouTube до поисковика. По словам Блейка Леймона, который раскрыл «внутреннюю кухню», это неконтролируемый эксперимент.

Леймон припомнил и законы робототехники фантаста Айзека Азимова. То есть странное высказывание LaMDA о «смерти-отключении» противоречит третьему закону: машина будет заботиться о своей безопасности, пока это не противоречит приказу человека.

Превентивно подготовить законодательство, которое будет регулировать искусственный интеллект, не получилось пока ни у одной страны мира. В России стандарты опираются на нормы из прошлой эпохи, заявил доцент департамента анализа данных и машинного обучения Финансового университета при правительстве России Виталий Пелешенко.

По его словам, в нашей стране большие проблемы с законодательством по внедрению даже общепризнанных технологий в сфере ИИ. Почти все производственные стандарты имеют отсылки к нормативам, которые были приняты в Советском Союзе. Однако в то время не было нейросетевых алгоритмов и искусственного интеллекта. Чтобы применять новые разработки на производстве, в конечном продукте, необходимо закрепить нормы в соответствующих нормативных документах. Пока этого не сделают, промышленность и весь IT-сектор будут находиться в весьма затруднительном положении. Необходимо в корне менять всю нормативно-правовую систему. Такая работа сейчас ведется в Росстандарте и на общемировой базе ISO.

При этом развитие нейросетей и даже ИИ не стоит воспринимать как однозначную угрозу. Такой вызов открывает большое количество опций.

Совладелец IT-компании RuSIEM Максим Степченков пояснил, что если не заметить появление сильного ИИ, то проект либо закроют, либо ограничат необходимым функционалом. Второй вариант — искусственный интеллект развивается без ограничений. Это обеспечит технологический прогресс. Однако такая перспектива туманна. Есть третий сценарий — когда ИИ и люди развиваются вместе, но только при условии соблюдения «азимовских принципов».

История созданного в Google потенциально первого искусственного интеллекта продолжается: Блейк Леймон хочет нанять адвоката для защиты интересов нейросети. Он говорит, что его на это надоумил сам чат-бот.

Ранее LIVE24 сообщало, когда технология искусственного интеллекта будет внедрена в медицину. На сегодняшний день ИИ может выполнять только функции врачебного ассистента, но в будущем он может заменить медиков.

Андрей Гольев
Андрей Гольев

Поделитесь новостью:
  • Запись о регистрации СМИ:
    ЭЛ № ФС 77 - 74986 выдано Роскомнадзором 19.02.2019 г.
  • Запись о регистрации информационного агентства:
    ИА № ФС 77 - 74985 выдано Роскомнадзором 19.02.2019г.
  • Учредитель:
    ООО «ЛАЙВ24», ИНН 4632247680
  • Главный редактор:
    Новиков Михаил Владимирович
  • Адрес электронной почты редакции:
    info@live24.ru
  • Телефон редакции:
    +7 (4712) 55-10-24
В сетевом издании LIVE24 размещены материалы информационного агентства LIVE24.
Некоторые материалы содержат стоковые изображения от Depositphotos, Pixabay, АГН Москва
18

В России признаны экстремистскими и запрещены организации «Национал-большевистская партия», «Свидетели Иеговы», «Армия воли народа»,«Русский общенациональный союз», «Движение против нелегальной иммиграции», «Правый сектор», УНА-УНСО, УПА, «Тризуб им. Степана Бандеры»,«Мизантропик дивижн», «Меджлис крымскотатарского народа», движение «Артподготовка», общероссийская политическая партия «Воля», АУЕ. Признаны террористическими и запрещены: «Движение Талибан», «Имарат Кавказ», «Исламское государство» (ИГ, ИГИЛ), Джебхад-ан-Нусра, «АУМ Синрике», «Братья-мусульмане», «Аль-Каида в странах исламского Магриба», Meta Platforms Inc. (руководящая организация социальных сетей Instagram и Facebook).

Организации, СМИ и физические лица, признанные в России иностранными агентами: "Голос Америки" "Idel.Реалии" "Фактограф" "Север.Реалии" Общество с ограниченной ответственностью "Радио Свободная Европа/Радио Свобода" Чешское информационное агентство "MEDIUM-ORIENT" Пономарев Лев Александрович Савицкая Людмила Алексеевна Маркелов Сергей Евгеньевич Камалягин Денис Николаевич Апахончич Дарья Александровна «Medusa Project» Общество с ограниченной ответственностью «Первое антикоррупционное СМИ» «VTimes.io» Баданин Роман Сергеевич Гликин Максим Александрович Маняхин Петр Борисович Ярош Юлия Петровна Чуракова Ольга Владимировна Железнова Мария Михайловна Лукьянова Юлия Сергеевна Маетная Елизавета Витальевна «The Insider» Рубин Михаил Аркадьевич Гройсман Софья Романовна Рождественский Илья Дмитриевич Апухтина Юлия Владимировна Постернак Алексей Евгеньевич Общество с ограниченной ответственностью Телеканал Дождь Петров Степан Юрьевич Юридическое лицо Istories fonds Шмагун Олеся Валентиновна Мароховская Алеся Алексеевна Долинина Ирина Николаевна Шлейнов Роман Юрьевич Анин Роман Александрович Великовский Дмитрий Александрович Общество с ограниченной ответственностью «Альтаир 2021» Общество с ограниченной ответственностью «Ромашки монолит» Общество с ограниченной ответственностью «Главный редактор 2021» Общество с ограниченной ответственностью «Вега 2021» Общество с ограниченной ответственностью «Важные иноагенты» Каткова Вероника Вячеславовна Карезина Инна Павловна Кузьмина Людмила Гавриловна Костылева Полина Владимировна Лютов Александр Иванович Жилкин Владимир Владимирович Жилинский Владимир Александрович Тихонов Михаил Сергеевич Пискунов Сергей Евгеньевич Ковин Виталий Сергеевич Кильтау Екатерина Викторовна Любарев Аркадий Ефимович Гурман Юрий Альбертович Грезев Александр Викторович Важенков Артем Валерьевич Иванова София Юрьевна Пигалкин Илья Валерьевич Петров Алексей Викторович Егоров Владимир Владимирович Гусев Андрей Юрьевич Смирнов Сергей Сергеевич Верзилов Петр Юрьевич Общество с ограниченной ответственностью «ЗП» Общество с ограниченной ответственностью «Зона права» Общество с ограниченной ответственностью «ЖУРНАЛИСТ-ИНОСТРАННЫЙ АГЕНТ» Вольтская Татьяна Анатольевна Клепиковская Екатерина Дмитриевна Сотников Даниил Владимирович Захаров Андрей Вячеславович Симонов Евгений Алексеевич Сурначева Елизавета Дмитриевна Соловьева Елена Анатольевна Арапова Галина Юрьевна Перл Роман Александрович Общество с ограниченной ответственностью «МЕМО» Американская компания «Mason G.E.S. Anonymous Foundation» (США) Компания «Stichting Bellingcat» Автономная некоммерческая организация по защите прав человека и информированию населения «Якутия – Наше Мнение» Общество с ограниченной ответственностью «Москоу диджитал медиа» Акционерное общество «РС-Балт», Левада-Центр


© ООО ЛАЙВ24.
Наверх