Главным итогом завершившегося на прошлой неделе в Великобритании саммита по безопасности искусственного интеллекта (AI Safety Summit) стало подписание «Декларации Блетчли» — первого международного соглашения о признании рисков, связанных с развитием ИИ, и способах их снижения. Документ подписали представители 28 государств и Евросоюза, но они видят проблему и свою роль в ее решении по-разному.
Свое название декларация получила по месту проведения саммита — он прошел в поместье Блетчли-парк в 80 километрах к северо-западу от Лондона. Место символическое — во время Второй мировой войны здесь располагалась Правительственная школа кодов и шифров, в которой под руководством Алана Тьюринга велась дешифровка сообщений военно-морского флота Германии.
Обращаясь к участникам саммита, среди которых были главы министерств и правительств, а также крупнейшие отраслевые бизнесмены, британский король Чарльз III отметил, что символизм в выборе места не случаен — мир вновь столкнулся с экзистенциальными угрозами.
«Есть ясная необходимость — сделать так, чтобы эта быстро развивающаяся технология оставалась безопасной. А поскольку искусственный интеллект пренебрегает границами, эта задача требует международной координации и сотрудничества», — сказал монарх в видеообращении.
Общие слова
Декларация представляет собой сравнительно небольшой текст, в котором в десяти абзацах описываются обширные возможности современных ИИ-технологий и связанные с ними риски. Отдельно подчеркиваются угрозы в сфере кибербезопасности, биотехнологий и дезинформации, определяются способы их снижения, в том числе международные научные исследования и инклюзивный глобальный диалог. Авторы документа также напоминают об ответственности компаний, разрабатывающих передовые мощные модели ИИ, призывают их обеспечить «прозрачность и подотчетность».
Ни в самой декларации, ни в прилагающемся к ней правительственном коммюнике нет подробностей о том, как именно страны и компании-разработчики будут сотрудничать по этим вопросам.
Однако в сопроводительных документах уточняется, что следующим шагом после подписания декларации станет подготовка отчета о текущем состоянии искусственного интеллекта, написать который поручено международной рабочей группе под руководством канадского математика, лауреата премии Тьюринга Йошуа Бенджио, одного из пионеров в сфере ИИ. Доклад должен способствовать «общему научно обоснованному пониманию рисков и возможностей, связанных с передовым ИИ».
Участники саммита приняли обязательство проводить государственные испытания моделей ИИ следующих поколений перед их выходом на рынок. Великобритания и США уже объявили о создании в своих странах специальных институтов, которые будут решать эту задачу. Также стороны договорились встретиться на следующих саммитах, которые пройдут в наступающем году в Южной Корее и Франции.
Кто здесь главный
Для британского премьер-министра Риши Сунака, возглавившего кабинет год назад после краткосрочного пребывания у власти Лиз Трасс и вынужденного ради экономической стабилизации существенно повышать налоги, саммит в Блетчли стал безусловным внешнеполитическим и имиджевым успехом.
Премьер-министр Великобритании Риши Сунак выступает на пресс-конференции во время второго дня Саммита по безопасности ИИ 2023 в Блетчли-парке, 02 ноября 2023 года. Фото: Chris J. Ratcliffe / Pool / EPA
«Представленную вчера первую в истории международную декларацию о природе этих рисков [связанных с использованием ИИ], подписали все присутствующие на саммите страны, включая США и Китай. Кто-то говорил, нам не стоило приглашать Китай, другие утверждали, что мы с ними никогда не договоримся. Ошибались и те и другие», — не без гордости отчитался Риши Сунак на финальной пресс-конференции 2 ноября.
Однако в тот же день госсекретарь США Камала Харрис прозрачно намекнула, что не позволит британцам уж слишком перетягивать одеяло на себя в столь чувствительной сфере. Вместо того чтобы составить компанию Сунаку, она собрала отдельную пресс-конференцию в посольстве США, куда пригласила не только прессу, но и некоторых экспертов, которым в результате пришлось покинуть форум раньше.
В своей речи Харрис много говорила об опасностях для отдельных людей и западной политической системы в целом в случае неконтролируемого развития ИИ, «масштабами превосходящих всё, что мы видели ранее». При этом собственно о саммите госсекретарь сказала лишь единожды и вскользь.
Также осталось неясным, примут ли американские ученые в рабочую группу Йошуа Бенджио.
Представитель КНР, замминистра науки и технологий Ву Чжаохуэй принял участие в мероприятиях первого дня, заявив на пресс-конференции, что его страна «стремится к духу открытости и призывает к глобальному сотрудничеству для обмена знаниями и обеспечения доступности технологий ИИ». Однако на проходившей во второй день встрече министров стран-участниц журналисты его не обнаружили. Когда Риши Сунака спросили об этом на финальной пресс-конференции, он ушел от ответа, сказав лишь, что добился от Китая желаемого результата. При этом его заместитель Оливер Дауден, выступая днем ранее на Bloomberg TV, отметил, что, возможно, Китаю «не стоило бы посещать сессии, в которых сообща работают страны-единомышленники».
Чиновники Евросоюза выказывали озабоченность сложившейся ситуацией, когда большинство передовых компаний, разрабатывающих модели ИИ, базируются в США.
«Наличие только одной страны со всеми технологиями, всеми частными компаниями, всеми устройствами и навыками будет провалом для всех нас», — заявил министр экономики и финансов Франции Бруно Ле Мэр.
Основатель и научный директор Института искусственного интеллекта и профессор факультета компьютерных наук Монреальского университета Йошуа Бенджио. Фото: Alex Wong / Getty Images
Особенности национального регулирования
Как отметил Йошуа Бенджио, «Декларация Блетчли» — не более чем соглашение о базовых принципах безопасности, реализовывать которые в правовом поле страны могут по-своему, делая акцент на важных для себя аспектах.
В юридическом преломлении участники форума действительно видят борьбу с потенциальными угрозами ИИ по-разному. Опубликованная в марте политика британского правительства в сфере регулирования искусственного интеллекта предполагает использование для этого уже существующих норм и правил, устанавливая для регулирующих органов лишь общие принципы: защищенность, прозрачность, подотчетность. Как отмечают эксперты лондонской юридической фирмы Osborne Clarke, такой подход позволит избежать нежелательных для бизнеса проволочек, неизбежных при создании единой правовой базы, но может привести к неразберихе, когда разные госорганы будут конкурировать за полномочия.
Принципиально иной подход содержится в выпущенных еще два года назад предложениях Еврокомиссии. Разработанные Брюсселем регуляторные нормы, которые, вероятно, будут приняты в виде закона в следующем году, предполагают жесткий контроль за разработчиками ИИ, включающий регистрацию, сертификацию и полный запрет потенциально опасных, по мнению контролеров, приложений.
«Я приехала сюда, чтобы настоять на нашем варианте закона об искусственном интеллекте», — заявила на саммите в Блетчли Вера Йоурова, вице-президент Еврокомиссии по ценностям и прозрачности, добавив, что «если демократический мир не будет устанавливать правила, а мы не станем их соблюдать, битва будет проиграна».
В недемократической КНР действительно исповедуют иной подход, существенно более жесткий. Во «Временных мерах по управлению сервисами генеративного искусственного интеллекта», опубликованных в июле Госканцелярией интернет-информации Китая, говорится, что действующие на китайском рынке игроки в сфере ИИ обязаны не только получать лицензию и проходить государственную оценку безопасности своего продукта, но также быть приверженными ценностям социализма, защищать национальное единство страны и не допускать использования своих моделей для антигосударственной деятельности. Несмотря на жесткое регулирование, Китай остается одним из мировых лидеров в сфере ИИ. По данным Стэнфордского университета, в 2021 году на КНР пришлась пятая часть всех мировых инвестиций в этой сфере — 17 млрд долларов США.
Другой претендент на звание мирового ИИ-лидера, США в конце октября приняли исполнительный указ, вовлекающий в регулирование отрасли большую часть государственных ведомств, а разработчиков систем ИИ обязывающий делиться с государством результатами тестов на безопасность своих моделей.
Риши Сунак и Илон Маск во время беседы в центре Лондона, 02 ноября 2023 года. Фото: Tolga Akmen / Pool / EPA
Мощнее оружие — строже правила
Стремление государств зарегулировать сферу ИИ, отразившееся как в «Декларации Блетчли», так и в национальных законодательных актах, неизбежно вызывает вопросы у бизнеса и экспертного сообщества.
«Я согласен, что нам нужно сделать шаг назад и подумать о проблемах и последствиях быстрого внедрения искусственного интеллекта, однако я не согласен с ролью правительств, заявленной на этом саммите. Правительства доказали, что они решают подобные проблемы не лучшим образом», — пишет Вернон Будингер, владелец консалтинговой компании Neural Profit Engines, использующей в своей работе инструменты ИИ. По его мнению, самим компаниям — участникам ИИ-индустрии следует создать независимые структуры для тестирования передовых моделей искусственного интеллекта.
Илон Маск, стоявший у истоков Open AI, одной из ключевых компаний отрасли, и на протяжении всего саммита раздававший интервью об исходящей от ИИ экзистенциальной угрозе, придерживается противоположного мнения.
«Когда мы говорим о цифровом суперинтеллекте, представляющем угрозу обществу, в игру должно вступать государство, как оно это делает в автомобильной или авиаиндустрии», — сказал Маск в интервью Риши Сунаку. Бизнесмен подчеркнул, что ему часто приходится иметь дело с регуляторами в разных странах и с большей частью регуляторных норм и ограничений он согласен.
В пользу госрегулирования высказался и Йошуа Бенджио.
«Я ученый, и хочу, чтобы знаниями делились. Но не всеми знаниями. Если они опасны, они становятся чем-то вроде оружия. Мы же не даем пользоваться оружием всем подряд, наоборот, чем оно мощнее, тем строже правила», — заявил он на форуме.
Делайте «Новую» вместе с нами!
В России введена военная цензура. Независимая журналистика под запретом. В этих условиях делать расследования из России и о России становится не просто сложнее, но и опаснее. Но мы продолжаем работу, потому что знаем, что наши читатели остаются свободными людьми. «Новая газета Европа» отчитывается только перед вами и зависит только от вас. Помогите нам оставаться антидотом от диктатуры — поддержите нас деньгами.
Нажимая кнопку «Поддержать», вы соглашаетесь с правилами обработки персональных данных.
Если вы захотите отписаться от регулярного пожертвования, напишите нам на почту: [email protected]
Если вы находитесь в России или имеете российское гражданство и собираетесь посещать страну, законы запрещают вам делать пожертвования «Новой-Европа».