OpenAI представила новую версию ChatGPT-4 Omni, которая выглядит прорывом в возможностях современных нейросетей по обработке информации. Ключевое отличие ChatGPT-4o заключается в возможности одновременной работы с текстом, изображениями и звуком, что позволяет создавать новые пользовательские сценарии. Опубликованы первые демонстрационные видео, в которых нейросеть поддерживает общение на естественном языке, распознает эмоции человека, описывает увиденное через камеру телефона, переводит беседу людей или помогает в решении математических задач. Пользователи отмечают, что возможности новой платформы вплотную приблизились к уровню голосового помощника, показанного в фантастическом фильме «Она» (2013).
Нейросети, работающие с большими языковыми моделями (LLM, Large Language Models), в считанные годы стали ключевой технологической инновацией в современном мире, и радикально меняют сценарии работы людей с информацией. Судя по возможностям ChatGPT-4o, сейчас эта революция только набирает ход.
Обозреватель «Новой-Европа» Сергей Голубицкий рассказывает о том, как разворачивается борьба за контроль над технологией: как правительства, корпорации и гражданское общество стремятся воспользоваться возможностями LLM и обезопасить себя от рисков.
Сюжет минувшей осени — об изгнании Роберта Альтмана с поста руководителя OpenAI («Сэм Альтман и кликуши апокалипсиса») — завершился хэппи-эндом, приправленным фактурной конспирологией. Провидца, мол, сместили исключительно потому, что правление компании накануне получило важный «сигнал». Группа озабоченных сотрудников сигнализировала об изобретении в недрах компании новой модели LLM, способной самостоятельно находить информацию, отсутствующую в исходных данных нейросети.
Иными словами, движок ChatGPT, мол, вышел на уровень Сверхинтеллекта, и Правление, обремененное моральной ответственностью перед человечеством, отодвинуло гендира от корпоративного штурвала, дабы не допустить монетизации в частный карман столь опасного оружия.
Единственная толика логики и правды в этом конспирологическом бреде — слово «монетизация». Потому что и безо всякого Сверхинтеллекта (который, разумеется, никем нигде еще не создан) речь идет об умопомрачительных цифрах: по самым скромным оценкам, в 2032 г. объем мирового рынка искусственного интеллекта (ИИ) достигнет $2 трлн 575 млрд.
Очевидно, что мимо таких сумм не в состоянии пройти ни одна живая душа, ни одно правление, ни одно государство. Неудавшийся корпоративный переворот в OpenAI отодвинул поиски Сверхинтеллекта на второй план (по крайней мере — в публичном поле), а на первый вывел борьбу за власть и контроль. Борьбу, которая одновременно ведется с трех сторон: корпораций, государственных ведомств и гражданского общества.
Исход борьбы неизвестен, но несомненна одна истина: кто будет контролировать развитие моделей LLM в мире, тот будет контролировать весь мир. В этой статье я постараюсь представить читателям расклад сил, сложившийся сегодня на поле битвы за интеллектуальное будущее планеты.
Сэм Альтман, исполнительный директор OpenAI на пленарном заседании Всемирного экономического форума в Давосе, Швейцария, 18 января 2024 года. Фото: Gian Ehrenzeller / EPA-EFE
Кто охотится на LLM
Начну с ключевого парадокса. Структуры, ответственные за львиную долю научных разработок и практических реализаций в сфере LLM: корпорации OpenAI, Google, Microsoft, Anthropic, Meta, Amazon, Cerebras, xAI (все из США), Huawei и Baidu (Китай), DeepMind (Великобритания; с 2014-го принадлежит Google), Mistral AI (Франция), Yandex (РФ), — сегодня оказались в роли добычи, за которую сражаются два охотника.
Охотник по имени Голиаф — это Государство (в лице национальных государственных структур); охотник по имени Давид — гражданское общество, которое в меру ограниченных сил и возможностей также пытается застолбить себе хоть какое-то независимое место под солнцем.
Несмотря на неравенство сил и возможностей, охотников объединяет именно что объект охоты — те самые корпорации, из которых правдами и неправдами вырываются и выгрызаются самые сочные куски know-how и готовой продукции.
Да не подумает читатель, что я спятил и добровольно стал под знамя Айн Рэнд в роли общественного защитника обиженного класса дерзких предпринимателей и загнобленного laissez-faire капитализма! Боже упаси. Я лишь констатирую очевидное:
история последней четверти века с неоспоримой однозначностью демонстрирует неспособность корпоративного мира противостоять как государственному контролю, так и экспроприации знаний и информации гражданским обществом.
Характерно, что в обозначенном сценарии нет геополитических исключений. Полагаю, дополнительные комментарии излишни в контексте стран т. н. Глобального Юга, в которых частные корпорации обладают правом голоса сугубо в вопросах тактического развития самого бизнеса. Все стратегические решения, а также контроль за услугами и продуктами, затрагивающими интересы государства, давно делегированы этому самому государству. Причем это делегирование оформляется давно уже не косвенно, а в лоб — через назначение чиновников на руководящие посты в Правлениях корпораций.
Если кто-то питает сомнения, предлагаю вспомнить о судьбе создателя Alibaba Group Ма Юня (известного более как Джек Ма), который держался на своих постах ровно до момента, пока не осмелился беззубо покритиковать госрегулирование отрасли и банковскую систему. После пресс-конференции он исчез с публичных радаров на три месяца (с октября 2020-го по январь 2021-го). Затем объявился, однако уже в сугубо частном статусе — на благотворительных лекциях перед сельскими учителями и на площадках для гольфа.
В странах Глобального Севера государственный контроль над корпорациями, очевидно, завуалирован в общественном сознании словесным флером про «неотъемлемые права и свободы» и «неприкосновенность собственности». Однако на практике это оборачивается нескончаемыми патчами, заплатками и алгоритмами проприетарного шифрования, которыми государственные ведомства, отвечающие за «национальную безопасность», награждают программный код мессенджеров, почтовых программ и операционных систем, создаваемых корпоративными разработчиками.
Всё это делается под благостным предлогом борьбы с «мировым терроризмом» или «обходом санкций» (во втором ряду стоит набившая оскомину демагогия про педофилов, наркоторговцев и налоговых уклонистов).
Охота гражданского общества на корпоративных зайцев хоть и проявляется не столь кровожадно, как охота государства, однако также наносит ощутимый урон птенцам гнезда Джона Голта (мистический персонаж «Атланта, расправившего плечи» Айн Рэнд, который символизирует неугомонную природу корпоративного гения капитализма. — Прим. авт.). Достаточно сказать, что за 30 лет изучения софтостроения я не встретил ни одного программного продукта, который бы не был, как бы это мягче сказать, «творчески позаимствован» народными массами, свято верящими, что знание обязано быть свободным. Тотальное поражение партии копирайта во всех сферах энтертейнмента — от аудио и видео до книжной и визуальной продукции — еще одно подтверждение того, что продукт, созданный корпоративно оформленными авторами, рано или поздно, но всегда безвозмездно попадает в руки обывателя, не желающего платить за красоту.
Ниже я покажу, как гражданское общество пытается сохранить для себя хоть какой-то оазис, свободный от государственного контроля, с помощью децентрализованного искусственного интеллекта, который, однако, на 80% состоит из продукции, созданной корпоративным (читай: «централизованным» бизнесом). Прям дарвинизм в хрестоматийном формате.
Государство против корпоративных нейросетей
Посмотрим теперь, как моя метафора жертвенного заклания главного двигателя LLM — корпоративного бизнеса — реализуется сегодня на практике.
Начнем с грубого — государства. Фоном для неудавшегося корпоративного переворота в OpenAI послужил Исполнительный Указ №14110 (Executive Order 14110), подписанный президентом США Джо Байденом 30 октября 2023. Этот плод чиновничьего гения стал кульминацией неудачных попыток государства мирно договориться с американскими корпорациями, разработки которых лежат в основе исследований в области AGI (Artificial General Intelligence, Систем универсального интеллекта).
Президент США Джо Байден во время подготовки к подписанию указа о регулировании искусственного интеллекта, Вашингтон, США, 30 октября 2023 года. Фото: Chris Kleponis / CNP / Startraksphot / Scanpix
Мы помним («Матрешки зла»), как в начале 2023-го государство руками кукольного юрлица Future of Life Institute предложило корпоративным разработчикам LLM «добровольно заморозить» исследования в области AGI. Не нужно строить иллюзий: чиновник — существо хоть и недалекое, но с уникальным чутьем конъюнктуры, поэтому под «заморозкой» подразумевалось, конечно, не прекращение исследований, а их «упорядочивание». Разумеется, под эгидой самой ответственной части человечества, т. е. чиновничества.
Все корпоративные руководители (от Альтмана до Сундара Пичаи и Сатьи Наделлы) уважительно покивали, однако продолжили исследования «размораживать». По понятной причине: если остановить хотя бы на один день изыскания в области AGI, отрыв от конкурентов, инкорпорированных за пределами США, станет критическим.
Второй демарш государства в 2023-м мы также разбирали («Дипфейк на оба ваши дома»): на майском совещании в Белом доме и на слушаниях в Конгрессе претензии к корпоративным исследованиям AI расширили на сферу этики. Госслужащие и конгрессмены-сенаторы предположили, что «дипфейки» обернутся визитной карточкой президентских выборов-2024.
Наконец, в октябре 2023-го президентский исполнительный указ №14110 о «Безопасной, надежной и вызывающей доверие разработке и использовании искусственного интеллекта» (Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence) формализовал интенции государства в сфере LLM в восьми принципах.
1. ИИ должен быть безопасным и надежным. Для этого государство должно разработать эффективные механизмы маркировки происхождения контента, по которым американцы смогут определять, когда контент создается с использованием ИИ, а когда нет.
2. Государство должно содействовать ответственным инновациям, конкуренции и сотрудничеству. Для этого администрация будет поддерживать программы по предоставлению американцам навыков, необходимых им в эпоху ИИ. А также привлекать таланты в области ИИ со всего мира — не только для учебы, но и для постоянного проживания, чтобы компании и технологии будущего создавались в Америке.
3. Ответственная разработка и использование ИИ требуют поддержки американских рабочих.
4. Политика в области ИИ должна соответствовать стремлению администрации продвигать равенство и гражданские права.
5. Использование новых технологий, таких как ИИ, не освобождает компании от их юридических обязательств. С трудом завоеванные принципы защиты потребителей особенно важны в моменты технологических перемен.
6. Неприкосновенность частной жизни и гражданские свободы американцев должны быть защищены, поскольку ИИ упрощает извлечение, идентификацию и связывание конфиденциальной информации о личности с ее местоположением, привычками и желаниями. Возможности ИИ в этих областях увеличивают риск того, что личные данные могут быть использованы и раскрыты. Для борьбы с этим риском федеральное правительство обеспечит законность и безопасность сбора, использования и хранения данных, и снизит риски неприкосновенности частной жизни и конфиденциальности. (Сразу хочу обратить внимание читателей на одну пикантность пункта 6: до появления ИИ вся приватная клиентская информация благополучно находилась в эксклюзивном пользовании корпораций: Google, Apple, Facebook, Microsoft, Amazon и т. п. Теперь же ИИ лишил их монополии и предоставил доступ к частной информации всем желающим. Из этого вопиющего беспредела администрация Байдена делает «логичный вывод»: контроль необходимо вернуть обратно, но только не корпорациям, а государству. — Прим. авт.)
7. Рисками, связанными с использованием ИИ, важно управлять самим федеральным правительством. Важно повышать его внутренний потенциал по регулированию, управлению и поддержке ответственного использования ИИ для достижения оптимальных результатов для американцев.
8. Федеральное правительство должно проложить путь к глобальному социальному, экономическому и технологическому прогрессу, как это делали Соединенные Штаты в предыдущие эпохи прорывных инноваций и перемен.
Воплощать президентский указ №14110 поручили ведомству, которое не оставляло сомнений в истинной сути государственного демарша, — Департаменту внутренней безопасности (Department of Homeland Security, DHS).
Ключевой документ для понимания происходящего — регулярный доклад «Оценка угроз для отечества на 2024 год» (Homeland Threat Assessment 2024), подготовленный Управлением разведки и анализа (Office of intelligence and analysis) при DHS.
В докладе называются прямым текстом главные враги отечества, которым необходимо активно противодействовать в сфере ИИ: Китай, Россия и Иран. Главная проблема — возросшее качество движков генеративного ИИ, которые уже позволяют создавать предельно достоверную текстовую, изобразительную и видео-продукцию, практически не отличимую от той, что создается человеком.
Генеральный директор NVIDIA Дженсен Хуанг прибывает на заседание сената США по искусственному интеллекту в Вашингтоне, США, 13 сентября 2023 года. Фото: Shawn Thew / EPA-EFE
Если раньше китайские, русские и иранские веб-сайты писались на корявом английском языке, то сегодня законспирированный китайский портал безупречным слогом Шекспира рассказывает наивному и доверчивому американскому обывателю о том, как «Соединенные Штаты управляют лабораторией в Казахстане по созданию биологического оружия против Китая».
Другой пример из доклада: «RT (ранее Russia Today) запускает в социальные сети дипфейковое видео, созданное с помощью искусственного интеллекта и унижающее президента США и других западных лидеров».
На фоне такого ИИ-беспредела, по мысли DHS и правительства, нужно интенсифицировать противоборство. Особенно в год президентских выборов, когда «Россия, скорее всего, продолжит использовать традиционные средства массовой информации, подставные веб-сайты, социальные сети, онлайн-боты, троллей и частных лиц для распространения прокремлевских нарративов и проведения мероприятий по оказанию влияния внутри Соединенных Штатов».
Кроме того: «После вторжения в Украину российские сообщения были сосредоточены на оправдании своей агрессии, стремлении уменьшить внутреннюю поддержку Киева со стороны США и поощрении разногласия среди разнообразных глобальных партнеров, которые помогают Украине».
Очевидно, что перед лицом угроз, исходящих от стратегических врагов, необходимо срочно обеспечить единый фронт борьбы внутри самих Соединенных Штатов.
Вот только как можно эффективно бороться на фронтах ИИ, если эти ИИ находятся в руках частного бизнеса? Разве может частный бизнес дать скоординированный достойный отпор врагу? Вопрос, разумеется, риторический…
Если бы речь шла про какое-то государство Глобального Юга, то проблема органично решалась бы еще до того, как ее артикулировали. В нужные офисы пришли бы уполномоченные товарищи, на пальцах всё объяснили и встретили экстатичное понимание с одобрением. После чего отношения «корпорация–государство» свелись бы к скучным резолюциям, спускаемым сами-знаете-от-кого и исполняемым с сами-знаете-какой результативностью.
Речь, однако, идет о государстве Глобального Севера. Поэтому прийти вот таким залихватским матросом железняком в офис Пичаи-Маска-Альтмана-Наделлы не то чтобы совсем не получится, но как-то уж очень радикально будет противоречить правилам игры, утвержденным без малого 300 лет тому назад.
Министерство нейросетей
Для того чтобы читатель мог оценить элегантность методов, с помощью которых государство предпочитает контролировать корпоративный бизнес в странах победившего капитализма, достаточно рассмотреть первый шаг DHS, направленный на получение этого самого контроля.
26 апреля 2024 года «Департамент внутренней безопасности объявил о создании Совета по безопасности искусственного интеллекта (Artificial Intelligence Safety and Security Board). Совет будет консультировать главу департамента, представителей критической инфраструктуры, другие заинтересованные стороны из частного сектора и широкую общественность по вопросам безопасной и надежной разработки и внедрения технологий искусственного интеллекта в критической инфраструктуре нашей страны. Совет разработает рекомендации, которые помогут заинтересованным сторонам критически важной инфраструктуры, таким как поставщики транспортных услуг, операторы трубопроводов и электросетей, а также интернет-провайдеры, более ответственно использовать технологии ИИ. Он также разработает рекомендации по предотвращению и подготовке к сбоям в работе критически важных услуг, связанных с искусственным интеллектом, которые влияют на национальную или экономическую безопасность, общественное здравоохранение или безопасность».
В Совет по безопасности ИИ при DHS пригласили 22 видных деятеля, которые дружно заявили о том, какая это для них честь и ответственность.
Десять членов Совета — руководители корпораций, создающих ключевые продукты LLM и выпускающих всё необходимое для ИИ оборудование:
- Дженсен Хуанг (Jensen Huang), президент и CEO NVIDIA;
- Сэм Альтман (Sam Altman), гендиректор OpenAI;
- Дарио Амодей (Dario Amodei), гендиректор Anthropic;
- Арвинд Кришна (Arvind Krishna), председатель правления и CEO IBM;
- Сатья Наделла (Satya Nadella), председатель правления и CEO Microsoft;
- Шантану Нарайен (Shantanu Narayen), председатель правления и CEO Adobe;
- Сундар Пичаи (Sundar Pichai), гендиректор Alphabet (Google);
- Чак Роббинс (Chuck Robbins), председатель совета директоров и CEO Cisco;
- Адам Селипский (Adam Selipsky), CEO Amazon Web Services;
- Лиза Су (Lisa Su), президент и гендиректор Advanced Micro Devices (AMD).
Остальные участники Совета — меланж из чиновников и научных работников.
Есть также два руководителя корпораций из системообразующих отраслей: Эд Бастиан (Ed Bastian), CEO Delta Air Lines, и Вики Холлуб (Vicki Hollub), президент и гендиректор Occidental Petroleum.
Что же мы получаем в сухом остатке? Руководители всех ключевых корпораций американского ИИ в тесной связке с чиновниками и учеными мужами под эгидой DHS (называя вещи своими именами: министерства госбезопасности) будут воплощать в жизнь политику государства в области ИИ под лозунгом противостояния экзистенциальным врагам. Если это не попытка государства взять под контроль развитие всей отрасли, то я не знаю, как иначе можно решить поставленную задачу в стране Глобального Севера (без того, чтобы она не превратилась в страну Глобального Юга).
Саммит по безопасности искусственного интеллекта, Великобритания, 2 ноября 2023 года. Фото: Tolga Akmen / EPA-EF
DAI: децентрализованный искусственный интеллект и гражданское общество
Рассмотрим теперь третьего игрока в борьбе за контроль над ИИ — гражданское общество. На старте этот бедолага оказался в самом невыгодном положении. На протяжении четверти века вся информация, касающаяся частной жизни граждан, находилась в эксклюзивном владении корпораций IT.
Справедливости ради нужно отметить, что гражданское общество добровольно повторило «подвиг» Исава и обменяло свое первородство (корпус приватных данных — самый ценный капитал эпохи цифровых технологий) на чечевичную похлебку, сваренную из лайков и «15 минут публичной славы для маленького человечка», которую корпорации IT любезно предоставили в формате Web2 — социальных сетей и мессенджеров.
В текущих обстоятельствах гражданское общество попало уже под двойной удар. Мало того, что практически все научные разработки в сфере LLM, все готовые продукты (модели вроде ChatGPT), всё оборудование, необходимое для обучения нейросетей, и вся инфраструктура коммуникаций (облачные сервисы вроде AWS) создаются и полностью контролируются частными корпорациями, так теперь еще и государство вознамерилось эти корпорации себе подчинить под благовидным предлогом «Отечество в опасности!»
Перед гражданским обществом остро встал вопрос: «Как обеспечить независимость развития моделей ИИ и избавить их от любого контроля?»
Общество никогда не получит своего места под солнцем ИИ, если попытается по отдельности противоборствовать корпоративному контролю и контролю государственному.
Нет ни малейшего шанса. Благо, у гражданского общества есть полное понимание ситуации, поэтому был выбран единственный верный вектор приложения усилий — создание DAI, Decentralized Artificial Intelligence, систем децентрализованного искусственного интеллекта.
И здесь на горизонте возникают сложности (назовем их трудностями Web3), которые напрочь затмевают прежние «договоры с дьяволом» (Web2). Это только навскидку кажется, что децентрализация ИИ — лишь вопрос открытого кода, открытой сети (криптосети) и открытого учета данных (блокчейна). Эти три кита, разумеется, обеспечивают необходимые условия формата, в котором может состояться децентрализация. Формат, однако, это еще не содержательное наполнение.
Начнем с определения. DAI, или децентрализованный искусственный интеллект «относится к системам искусственного интеллекта (ИИ), которые используют технологию блокчейна для распределения, обработки и хранения данных в сети узлов. В децентрализованной системе искусственного интеллекта пользователи могут применять предварительно обученные модели ИИ на своих локальных устройствах, что позволяет им извлекать выгоду из результатов, полученных с помощью ИИ, не передавая контроль над своими данными централизованному органу. Этот подход позволяет пользователям применять готовые модели ИИ для обработки данных локально на своих устройствах и делиться только результатами с третьими сторонами. Он сохраняет конфиденциальность, избегая передачи основных личных данных».
Пока всё замечательно, потому что речь идет о форматах. В самом деле, технология блокчейна, смарт-контракты, федеративное обучение, гомоморфное шифрование, состязательная нейронная криптография и безопасные многосторонние вычисления теоретически способны обеспечить процесс обучения нейросетевой модели. Не более, однако, чем теоретически.
Искусственный интеллект как явление представляет собой стек технологий и алгоритмов. Во-первых, нужна серверная сеть, способная вбирать в себя колоссальные массивы информации, поступающей из внешнего мира (через интернет) в реальном времени. Во-вторых, нужно оборудование с предельно высокой процессорной вычислительной мощностью для обработки поступающей извне информации и для подачи ее на входные узлы обучаемой нейросетевой модели. В-третьих, нужно оборудование с колоссальной графической мощностью непосредственно для обучения нейросетевой модели. В-четвертых, нужны математические алгоритмы, воплощенные в надежный компьютерный код, помноженные на, опять-таки, высокопроизводительное оборудование для того, чтобы произвести точную настройку данных на выходных узлах нейросети, а также для обеспечения вывода.
Только после всей этой гигантской работы пользователю является его величество поле промпта, в которое он волен вписать любую глупость, чтобы запросить ответ нейросетевой модели ИИ.
Фото: Jaap Arriens / Sipa USA / Vida Press
Очевидно, что за моими суперлативами про колоссальные мощности и оборудование скрывается неумолимая истина: технологии ИИ предельно заточены на централизацию и концентрацию вычислительных возможностей. Иными словами, решать вопросы, связанные со всеми этапами содержательного наполнения LLM, под силу не просто корпорациям, а исключительно гигантским централизованным корпорациям. Тем, что обладают неограниченными денежными ресурсами и техническими возможностями для мобилизации усилий в нужном направлении на любом этапе жизни моделей ИИ: от сбора информации до финальной доводки промпта.
Экономлю читателям уйму времени и предлагаю взять на веру следующее утверждение: у гражданского общества в обозримые многолетия даже отдаленно нет технических возможностей и материальных ресурсов для создания конкурентоспособных LLM, способных противопоставить лучшим корпоративным моделям что-то, кроме осознания собственного нравственного превосходства.
Как следствие, все существующие сегодня не то что практические реализации, но даже концептуальные решения для DAI (децентрализованных систем ИИ) являются гибридными. И не остаточно гибридными, а предельно гибридными, потому что большая часть этапов построения LLM реализуется с помощью централизованных корпоративных решений.
В создании современных DAI ключевую роль играют маршрутизаторы компании CISCO, серверы IBM, облачная инфраструктура AWS, не говоря уже про бесчисленные софтверные решения, которые «творчески заимствуются», опять-таки, из корпоративных централизованных источников. Без этого, увы, никуда.
Но даже перечисленное не передает всей сложности задач, поставленных децентрализацией ИИ. За рамками обсуждения я оставил весь аспект координации усилий по сведению воедино всех блоков и модулей LLM.
Всякий, кто хоть раз в жизни пытался заставить толпу конченых индивидуалистов выполнить сообща мало-мальски простую групповую задачу, поймет, о каких невообразимых сложностях идет речь.
В сухом остатке мы получаем область, в которой децентрализованный ИИ преуспевает больше всего, — заключительный этап построения LLM, то есть «вывод». На сегодня именно работа над выводом и промптом, их тонкая доводка представляет собой наиболее практичный и реалистичный сценарий для развития децентрализованного генеративного ИИ. Тем более, что это и единственно возможный сценарий на текущем уровне развития технологий, доступных за пределами корпоративного и государственного контроля.
Отдадим должное реалистичности оценок, которые разделяет большинство активистов движения за децентрализацию ИИ. Сегодня ключевым инструментом такой децентрализации выступает публичный маркетплейс (Public Marketplace) — площадки, на которых в свободном открытом и инклюзивном доступе находятся бесчисленные библиотеки исходных данных (Datasets), ИИ движки и модели.
Формат маркетплейса (читай: рынка) авантажен еще и потому, что решает ключевую для успеха всякой инициативы задачу — мотивации и поощрения, без которых совсем уж несерьезно говорить о перспективах развития DAI. На чистом энтузиазме и красивых лозунгах долго не протянет ни одна общественно-бескорыстная инициатива.
Приведу несколько примеров уже реализованных на практике успешных решений, которые в первом приближении стараются обеспечить будущую конкурентоспособность моделей DAI.
Сеть Render вознаграждает (раздачей собственного ревордного токена) участников за предоставление свободных вычислительных мощностей сетевым художникам, которым требуется рендеринг изображений, но у которых нет вычислительных ресурсов для достижения своих целей. Решения такого типа координируют работу людей в рамках ИИ с помощью финансовых стимулов, а технология блокчейн делает их возможными.
Другой успешный опыт по децентрализации LLM — маркетплейс Hugging Face, который содержит почти 650 тысяч готовых моделей искусственного интеллекта с открытым исходным кодом, включая большие языковые модели, генераторы изображений и многое другое. Там же выложено 143 тысячи готовых датасетов, которые можно использовать для тонкой настройки не только узлов вывода нейросети, но и самого процесса ее обучения.
SingularityNET позволяет агентам ИИ интегрироваться с сетью для взаимодействия со сторонними приложениями или другими агентами.
Bittensor создает одноранговый рынок машинного интеллекта, в котором децентрализованные независимые модели ИИ могут объединять свой «интеллект», создавая, по сути, «цифровой коллективный разум».
***
Подведем итог. Объективная реальность такова, что в обозримой временной перспективе нас ожидает лишь борьба за контроль между крупнейшими корпорациями и государственными структурами. Борьба с почти гарантированной победой государства и, как следствие, перманентной склонностью моделей LLM генерировать контент, содержательно соответствующий геополитическим установками того государства, который данную модель LLM контролирует.
Перевожу сказанное на язык прагматики: если при корпоративном контроле движки ИИ подозрительно часто выдавали рекомендации, тексты и изображения, которые тяготели к монетизации тех или иных слабостей, предпочтений и интересов кверента (человека, вводящего запрос модели ИИ), то при государственном контроле можно не сомневаться, что нас ждут сугубо идеологические изнасилования разума и психики. Вместо денег будет формирование «правильных» (= нужных государству) взглядов и оценок.
Что касается DAI, децентрализованной альтернативы ИИ, то она, опять-таки, в обозримом будущем будет оставаться привилегией очень узкой, интеллектуально и технологически продвинутой прослойки общества. Той части общества, что и в прошлые времена не спешила повторять «подвиг» Исава.
Делайте «Новую» вместе с нами!
В России введена военная цензура. Независимая журналистика под запретом. В этих условиях делать расследования из России и о России становится не просто сложнее, но и опаснее. Но мы продолжаем работу, потому что знаем, что наши читатели остаются свободными людьми. «Новая газета Европа» отчитывается только перед вами и зависит только от вас. Помогите нам оставаться антидотом от диктатуры — поддержите нас деньгами.
Нажимая кнопку «Поддержать», вы соглашаетесь с правилами обработки персональных данных.
Если вы захотите отписаться от регулярного пожертвования, напишите нам на почту: [email protected]
Если вы находитесь в России или имеете российское гражданство и собираетесь посещать страну, законы запрещают вам делать пожертвования «Новой-Европа».