Войти в почту

«Декларация Блетчли»: подписана почти всемирная декларация о «катастрофических» рисках ИИ

Документ о безопасности искусственного интеллекта, подписанный на саммите в Британии делегациями сразу трех сверхдержав и массы региональных игроков, получил название «декларация Блетчли» — по месту проведения мероприятия, особняку Блетчли-парк, где 70 лет назад Алан Тьюринг взламывал шифр «Энигмы».

«Декларация Блетчли»: подписана почти всемирная декларация о «катастрофических» рисках ИИ
© BFM.RU

Текст пестрит громкими заявлениями: ИИ открывает «невероятные возможности» по укреплению мира и благополучия, но сопутствующие его развитию риски, в особенности в сферах кибербезопасности и биотехнологий, должны быть немедленно учтены, а продвинутый интеллект «представляет особую угрозу» для человечества и «обладает потенциалом нанесения катастрофического ущерба, будь то намеренно или случайно». Участники обязуются выявлять соответствующие риски и сотрудничать в их нейтрализации в рамках «многосторонней, несколькосторонней и двусторонней кооперации». Благие намерения оценивает гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» Роман Душкин:

Роман Душкин гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт» «Каждый раз, когда я читаю подобные декларации, у меня возникает стойкое ощущение, что именно эти декларации генерировал ChatGPT. Вот он потоком начинает выдавать тезисы и принципы, но очень поверхностные и пустые, как и вот эти декларации. Ну, да, есть определенные риски, и эти риски надо выявлять, классифицировать, прорабатывать. Но самому по себе ИИ уже 70 лет с лишним, лично я не считаю эту технологию такой, которая несет в себе экзистенциальную угрозу. Пока он не станет воплощенным в виде роботов-андроидов, которые будут автономно действовать в нашей реальности, такого не будет, что система сама себя осознает и поймет, что человечество представляет угрозу, начнет воевать с ним. То, что политики бьют какую-то там тревогу, ну, у них работа такая. Правильно делают, что бьют и какие-то рамки применения пытаются ввести. Самое главное, чтобы не вводили рамки в исследования, потому что это будет больше похоже на неолуддизм (критика влияния научно-технического прогресса на человека и общество).

Привлекает внимание, что в документе о необходимости контроля за ИИ отсутствуют даже намеки на правила такого регулирования. Стороны подписались под довольно обтекаемыми словами, сделали несколько красивых заявлений — например, миллиардер Илон Маск на полях саммита предупредил о появлении сущностей, которые будут «куда умнее умнейших из людей» и которых «неясно, как контролировать», — и договорились встретиться через полгода. О значении мероприятия рассуждает председатель совета Фонда развития цифровой экономики Герман Клименко:

Герман Клименко председатель совета Фонда развития цифровой экономики «Я думаю, что сейчас это очень напоминает ядерную гонку вооружений. С одной стороны, государства говорят о том, что ядерное оружие — это плохо. Тем не менее каждый заботится о том, чтобы у него оно появилось. Как представитель индустрии я все-таки смотрю на информационный фон как на существенно раздутый. Гонка за бюджетами, гонка за выбивание из бедных чиновников решения о выделении каких-то затрат на какое-то развитие. Но это не значит, что самого факта нет. Можно использовать не только ИИ, можно использовать и кухонные ножи. Поэтому мне кажется, что все не так страшно. Вообще, вся история с ИИ напоминает историю с блокчейном, биткоином, криптовалютами. Если по аналогии вспомнить: «Весь мир — блокчейн, нотариусов не будет, денег не будет, доллар падет вместе с рублем». Обратите внимание, за этой историей мы уже наблюдаем лет десять, и ничего катастрофичного не произошло».

Тем не менее само количество желающих хотя бы подписаться за весь хороший искусственный интеллект и против всего плохого не может не впечатлять. Подписанты — от США, Китая и Евросоюза до Японии, Индии, Турции, Бразилии и Арабских Эмиратов — представляют 60% мирового населения и почти 90% мирового ВВП.

Следующий саммит по безопасности ИИ — наверное, без «Трех законов робототехники» Азимова, но, быть может, хоть с каким-то реальным регулированием — пройдет весной будущего года в Южной Корее, затем еще через полгода во Франции. Если, конечно, к тому времени странами еще не будут управлять наши новые электрические оверлорды.