В ответ на многие призывы к паузе или, по крайней мере, к замедлению разработок все более мощных моделей ИИ основатель немецкой некоммерческой организации AI LAION (компании, ответственной за создание набора данных для одной из самых известных генеративных моделей StableDiffusion) Кристоф Шуманн говорит, что нам нужен суперкомпьютер, который будет финансироваться и строиться мировыми правительствами.
По мнению Шуманна, законодательство о замедлении — это проигранная битва, потому что модели в любом случае станут более мощными. Вместо этого он предлагает уменьшать риски. А риски есть! И причем, немалые. Какпризнает сам IT—разработчик, ИИ может стать «кукловодом» двуногих роботов, таких как «Tesla Bot» или Atlas от Boston Dynamics, и, хотя это звучит как научная фантастика, человечество в состоянии прийти к таким технологическим результатам в течение десяти лет.
Шуман не одинок в своем призыве к созданию моделей искусственного интеллекта, финансируемых государством. Советник правительства Великобритании по искусственному интеллекту Мэтт Клиффорд недавно заявил, что страны уже рассматривают возможности владения ИИ, а не просто доступ к технологиям. По оценке Шумана, чтобы повысить устойчивость общества к такого рода рискам, мировым правительствам потребуется инвестировать от 1 до 5 миллиардов долларов в суперкомпьютер, оптимизированный для ИИ, и действовать необходимо быстро. «Хотя эти цифры могут показаться большими, учтите, что оборонный бюджет США составляет более 800 миллиардов долларов, и одна только Бавария недавно объявила о выделении 300 миллионов евро на квантовые технологии», — отмечает он.
Беспокойство Шумана по поводу ИИ связано не столько с риском «прорыва» технологий, сколько с нарушениями, вызванными широким использованием ИИ. Более того, он предупреждает о серьезном неравенстве, которое возникнет, если крупные компании будут доминировать над мощным ИИ. «Как мы можем быть уверены, что не создадим гигантские монополии? Как мы можем убедиться, что крупные технологические компании могут продолжать вести бизнес, в то же время позволяя малым предприятиям извлекать выгоду из этих технологий, не становясь при этом полностью зависимыми?» — говорит он. Как противовес предлагается управление ИИ «хорошо подобранным советом директоров», в который входят профессора ИИ, исследователи открытого исходного кода и представители бизнес-сообщества «среднего масштаба».
Эта группа будет отвечать за принятие быстрых решений о том, кто должен получить доступ к вычислительной мощности для проведения своих исследований, если они проходят «базовые проверки безопасности». По его словам, этот вариант предпочтительнее, чем правительства, просто пытающиеся законодательно затормозить разработку ИИ и обеспечить контроль исследований. При этом Шуманн подчеркивает: «Что бы ни решили политики, такие компании, как OpenAI, будут продолжать исследования, даже если они не могут публично опубликовать их как «новую модель». По его словам, политики должны серьезно подумать о цене отказа от создания более мощного ИИ: «Если у вас есть ИИ, который может вылечить рак в течение пяти лет, и вы решаете не выпускать его, потому что есть вероятность 0,001% вызвать катастрофу, тогда возникает вопрос: как вы взвешиваете риски и потенциальные выгоды?»