Калифорния запретила "autonomous AI defense": с 2026 разработчики и пользователи ИИ не могут ссылаться на автономность системы в исках

С 1 января 2026 года в Калифорнии вступил в силу Assembly Bill 316 (AB 316, автор — Assemblymember Maggy Krell), подписанный губернатором Гэвином Ньюсомом 13 октября 2025 года и кодифицированный как раздел 1714.46 Гражданского кодекса Калифорнии. Закон запрещает использовать так называемую "autonomous AI defense" (защиту автономностью ИИ) в гражданских исках, где вред причинен искусственным интеллектом.
Определение ИИ по закону (подраздел a): «искусственный интеллект» — это инженерная или машинная система, которая варьируется по уровню автономности и может, для явных или неявных целей, на основе входных данных выводить выводы и генерировать результаты, влияющие на физическую или виртуальную среду.
Ключевой запрет (подраздел b): В любом гражданском иске против ответчика, который разработал, модифицировал или использовал ИИ, и этот ИИ якобы причинил вред истцу, нельзя ссылаться на то, что вред причинен автономно ИИ. Ответчик не вправе утверждать такую защиту — вред приписывается не "самостоятельному" решению машины, а действиям (или бездействию) человека/компании.
Важные оговорки (подраздел c): Закон не отменяет другие защиты — causation (причинно-следственная связь), foreseeability (предвидимость), comparative fault (сравнительная вина), contributory negligence или доказательства, что ответчик действовал с должной осмотрительностью. Ответчики все еще могут доказывать, что вред не их вина, или что ИИ не был причиной.

Контекст и цели закона:

  • Рост автономных ИИ-систем (медицинская диагностика, автономное вождение, контент-генерация, кредитные скоринги) привел к попыткам разработчиков/пользователей перекладывать ответственность на "черный ящик" ИИ.
  • AB 316 закрывает эту лазейку, подчеркивая: если ИИ не может нести ответственность, то отвечают люди и организации за его разработку, модификацию и применение.
  • Поддержан адвокатскими группами защиты потребителей, профсоюзами, организациями по безопасности — чтобы стимулировать тщательное тестирование и валидацию ИИ перед выпуском.
  • Примеры потенциальных исков: неверная медицинская диагностика ИИ, дефамация от генеративного ИИ, аварии с автономными системами, дискриминация в алгоритмах найма/кредитования.

Влияние на индустрию (2026):

  • Разработчики и deployers ИИ (OpenAI, Google, Anthropic, автопроизводители, медтех-компании) теперь рискуют выше в negligence/strict liability делах — нельзя просто сказать "ИИ сам решил".
  • Поощряет transparency, risk assessments, human oversight и страхование ответственности.
  • Это часть пакета калифорнийских AI-законов 2026 (вместе с SB 53 по frontier AI, AB 621 по deepfake porn и др.), где штат лидирует в регулировании.
Закон не распространяется на уголовные дела или федеральные иски — только гражданские в Калифорнии.
Также вам может быть интересно