Власти Калифорнии рассматривают законопроект, который позволит им отключать любую ИИ-модель по своему усмотрению. Он также предусматривает жесткие ограничения для всех компаний, разрабатывающих передовые модели ИИ. Эксперты предупреждают, что в случае принятия новый закон позволит сосредоточить контроль над индустрией в руках технологических гигантов и затормозит инновации, а при худшем сценарии развития событий — уничтожит всю отрасль в штате. В Европе тем временем уже принят закон, регулирующий применение ИИ. «Медуза» рассказывает, как власти в США и ЕС пытаются получить контроль над искусственным интеллектом.
Новый документ получил название «Закон о безопасном развитии передовых моделей искусственного интеллекта». В конце мая его одобрил Сенат штата, сейчас он находится на рассмотрении Ассамблеи — нижней палаты легислатуры Калифорнии. Законопроект предусматривает ограничения для разработчиков моделей искусственного интеллекта, которые подпадают под определенные критерии. В частности, вычислительная мощность, затраченная на их обучение, должна превышать 10^26 операций в секунду с целыми числами или плавающей запятой. При этом расходы разработчиков на обучение таких моделей должны превышать 100 миллионов долларов. Для оценки будут использоваться среднерыночные цены на облачные вычисления.
Очевидно, что под действие закона попадут все современные ИИ-модели, например GPT от OpenAI и Gemini от Google, но какие именно их версии, пока неясно.
Текст законопроекта довольно пространный, в нем не хватает четких определений и формулировок, и в него продолжают вносить правки. Однако уже можно выделить несколько основных ограничений, которые в нем упомянуты.
- Перед началом обучения ИИ-модели, подпадающей под действие закона, разработчики должны внедрить в нее возможность отключения.
- Разработчики должны использовать определенные протоколы безопасности.
- Запрещено создавать и использовать модель для коммерческого или публичного использования, если существует обоснованный риск того, что она может причинить критический вред.
- Создатели ИИ-систем, соответствующих требованиям закона, должны проходить ежегодную сертификацию и отчитываться об этом перед контролирующими органами.
Законопроект предусматривает создание сразу нескольких новых контролирующих структур. В частности, появится Совет по вопросам передовых моделей (Board of Frontier Models), а также Департамент передовых моделей (Frontier Model Division). Последний будет отвечать за все процессы, связанные с ИИ и взаимодействием с разработчиками.
В частности, это ведомство будет проверять отчеты о ежегодной сертификации, а также следить за тем, чтобы компании выполняли все необходимые требования по тестированию моделей на соответствие требованиям безопасности. Также департамент должен ежегодно, начиная с 1 января 2027 года, выпускать документы, которые будут определять (или обновлять) параметры моделей, подпадающих под действие нового закона.
Несмотря на то что законопроект пока рассматривается только на уровне одного штата, он может отразиться на всей индустрии искусственного интеллекта. Штаб-квартиры крупнейших разработчиков, в том числе OpenAI, Google, Meta и Apple, которая недавно вступила в ИИ-гонку, находятся именно в Калифорнии. Кроме того, не исключено, что в будущем аналогичные законы будут использоваться и в других штатах.
Эксперты опасаются, что закон вытеснит с рынка стартапы и навредит экономике штата
Предприниматель и инвестор Джеймс Томасон, который более 25 лет занимается развитием стартапов в Кремниевой долине, в материале для VentureBeat выделяет сразу несколько проблем, которые повлечет за собой законопроект. Прежде всего он отмечает расплывчатые формулировки, которые дают новому департаменту почти безграничный контроль над развитием искусственного интеллекта.
Томасон предполагает, что законопроект существенно усложнит жизнь небольшим компаниям, занимающимся разработкой ИИ-проектов, а часть из них и вовсе не сможет справиться с бюрократией и прекратит существование. Со временем на рынке могут остаться только технологические гиганты, обладающие необходимыми финансовыми и юридическими ресурсами для соблюдения всех требований.
Одно из важнейших требований к разработчикам — реализовать возможность отключения любой ИИ-системы по требованию властей. Это не только делает бизнес заложником государства, но также может привести к злоупотреблениям, считает Томасон. Кроме того, работа над ИИ теперь будет рискованной с финансовой точки зрения, так как в любой момент компанию могут заставить отказаться от разработки.
Ученый Ян Лекун, который отвечает за исследования в области ИИ в корпорации Meta, также раскритиковал новый законопроект. «Регуляторы должны регулировать приложения, а не технологии. Регулирование базовых технологий положит конец инновациям», — написал он в соцсети X. Лекун также подчеркнул, что некоторые положения закона могут просто остановить развитие технологий.
Среди представителей стартапов многих возмутило то, что фактически на создателей ИИ-систем пытаются наложить ответственность за тех, кто злоупотребляет их разработками. Майк Кнуп, соучредитель компании Zapier, согласен со словами Лекуна. Он считает, что в первую очередь регуляторы должны обратить внимание на тех, кто использует ИИ, чтобы навредить другим, а не на создателей исходной технологии.
Документ также предусматривает обязательное внедрение нечетко сформулированных «протоколов безопасности», предоставление правительству доступа к конфиденциальной информации и ежегодную сертификацию. Томасон отмечает, что в случае принятия законопроекта, местные власти смогут под угрозой штрафов запрещать отдельные возможности ИИ, если сочтут их опасными.
При этом он сомневается в компетентности регулирующих органов. Томасон убежден, что фактический контроль над искусственным интеллектом получат люди, «действующие из лучших побуждений», но при этом не обладающие достаточными техническими знаниями, чтобы отличить потенциально опасную разработку от инновационного проекта. Все это угрожает не только ИИ-индустрии, но и экономике Калифорнии в целом — не только потому, что затормозит развитие технологий, но и, например, из-за возможного сокращения рабочих мест.
Эксперт резюмирует, что из-за неблагоприятного делового климата ряд крупных технологических компаний, среди которых Oracle, Hewlett Packard Enterprise и Tesla (их штаб-квартиры сейчас расположены в Техасе), уже покинули Калифорнию. Принятие нового закона лишь увеличит их количество, а штат рискует утратить лидерство в одной из наиболее перспективных областей разработки.
Наконец, непонятно, какую выгоду получат пользователи. В тексте законопроекта есть размытые формулировки, например «общественная безопасность», но никаких конкретных предложений нет. Томасон считает, что большую пользу принес бы закон, защищающий конфиденциальные данные пользователей и права создателей контента, на чьих работах компании сейчас безвозмездно обучают различные ИИ-модели.
Журналистка Vox Келси Пайпер не разделяет опасений коллег и экспертов в области ИИ. В своем тексте она признала, что соблюдение всех требований может занять непропорционально много времени, затормозив разработчиков. Однако Пайпер напоминает, что до сих пор в индустрии нет однозначного мнения по поводу безопасности искусственного интеллекта. Поэтому разумные меры предосторожности, который подразумевает калифорнийский законопроект, не выглядят избыточными.
В Европе уже приняли первый в мире закон, регулирующий использование ИИ. Он больше сфокусирован на соблюдении прав граждан ЕС
В мае 2024 года Совет Европейского союза одобрил так называемый AI Act, или «Закон об ИИ». Это первый в мире документ, регулирующий применение искусственного интеллекта в различных отраслях. Закон является экстерриториальным, то есть он затрагивает всех разработчиков ИИ-систем, в том числе и тех, чьи штаб-квартиры не находятся в ЕС. В отличие от калифорнийского законопроекта, он больше сфокусирован на последствиях использования ИИ и предотвращении вреда для пользователей.
Несмотря на это, его также критиковали еще до принятия. В частности, президент Франции Эммануэль Макрон говорил, что чрезмерное регулирование сферы может привести к тому, что европейские разработчики отстанут в области создания ИИ-систем не только от США и Китая, но и от Великобритании. Глава европейского отделения CCIA Даниэль Фридлендер отметил, что многочисленные ограничения для разработчиков будут препятствовать инновациям и могут иметь «катастрофические последствия для европейской экономики».
Европейский закон классифицирует ИИ по нескольким категориям риска. Изначально выделяли системы с «неприемлемым», «высоким», «ограниченным» и «минимальным» уровнями. Позже в закон также добавили еще одну категорию — «ИИ общего назначения». Системы с неприемлемым уровнем риска будут полностью запрещены, а с высоким — тщательно проверяться.
К первым относятся разработки для определения так называемого «социального рейтинга», то есть определяющие благонадежность граждан на основе их действий, как в Китае. Также неприемлемым считается использование ИИ, который может причинить физический или психологический вред, манипулируя поведением человека или используя уязвимости отдельных категорий людей. Правоохранительным органам запрещена удаленная биометрическая идентификация в режиме реального времени в общедоступных местах, за исключением определенных сценариев, ограниченных по времени.
К искусственному интеллекту с высокой степенью риска относят специализированные системы, используемые в отдельных областях, например в здравоохранении, образовании, правосудии, трудоустройстве. Они могут нести угрозу здоровью, безопасности и соблюдению основных прав граждан ЕС, поэтому их будут внимательно оценивать перед выпуском на рынок.
В 2023 году в классификацию добавили так называемые «ИИ общего назначения», к которым, например, относится чат-бот ChatGPT. Такие системы не считаются опасными, но обязаны соблюдать определенные требования прозрачности и соблюдать закон ЕС об авторском праве. Например, они должны раскрывать информацию о том, что контент был создан искусственным интеллектом, не генерировать нелегальный контент и не публиковать резюме данных, защищенных авторским правом, если таковые были использованы для обучения.
В категорию «ИИ общего назначения» попадают системы, на обучение которых была потрачена вычислительная мощность более 10^25 операций с плавающей запятой в секунду (то есть меньше, чем в законопроекте Калифорнии). По оценкам журналистов, это ограничение затрагивает все модели мощнее GPT-3.5. При этом европейский закон не касается ИИ, используемого для военных целей или в сфере национальной безопасности. Также ограничения не затрагивают системы, задействованные в научных исследованиях.
Новые требования для искусственного интеллекта будут вводиться постепенно. Например, для «ИИ общего назначения» первые ограничения появятся через 12 месяцев после вступления закона в силу. Однако даже в этом случае разработчики генеративных ИИ-систем смогут воспользоваться переходным периодом в 36 месяцев, чтобы привести технологии в соответствие с законом.
Легислатура
Законодательный орган штата.
А как в оригинале?
Safe and Secure Innovation for Frontier Artificial Intelligence Models Act.
Сколько стоит обучить ИИ-модель?
Обычно разработчики не раскрывают точные данные по затратам на обучение своих моделей. По примерным оценкам исследователей, на данный момент на обучение большинства моделей тратится меньше 100 миллионов долларов. Исключение составляют GPT-4 от OpenAI и Gemini 1.0 Ultra от Google. Их обучение могло приблизиться к отметке, указанной в законе, или даже превысить ее. При этом это не самые совершенные ИИ-модели на текущий момент. Например, в мае 2024 года была выпущена более мощная GPT-4o. А подразделение Google DeepMind в ближайшее время планирует выпустить ИИ-ассистента Project Astra, который будет работать на усовершенствованной версии Gemini Ultra.
Какая вычислительная мощность нужна для обучения современных ИИ-моделей?
Согласно исследованию, опубликованному в апреле 2024 года, несколько моделей уже превышают показатель 10^25 FLOPS (FLoating-point OPerations per Second, то есть количество операций с плавающей запятой в секунду). Среди них GPT-4, Gemini Ultra, Inflection-2 и французская Mistral Large. По оценкам экспертов, уже в текущем году топовые ИИ-модели превысят показатель 10^26 FLOPS.
CCIA
Ассоциация компьютерной и коммуникационной промышленности (Computer & Communications Industry Association) — международная некоммерческая организация, защищающая интересы технологических компаний.
Среди них есть известные?
Французская компания Mistral AI является одним из самых успешных европейских стартапов, занимающихся искусственным интеллектом.