PRoAtom
proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Подписка
Подписку остановить невозможно! Подробнее...
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

Разместить комментарий

Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от на 22/07/2024

Калифорнийский законопроект об искусственном интеллекте становится громоотводом — как для сторонников безопасности, так и для разработчиков

Автор Оуэн Дж. Дэниелс | 17 июня 2024 г.


В прошлом месяце Сенат штата Калифорния принял законопроект, регулирующий разработку и обучение передовых моделей искусственного интеллекта, направленный на то, чтобы гарантировать, что они не могут быть использованы злоумышленниками в неблаговидных целях. Принятие Закона о безопасных инновациях для передовых моделей искусственного интеллекта вызывает возмущение среди разработчиков, многие из которых ведут свою деятельность за пределами штата, утверждая, что это может критически затормозить инновации. Сторонники законопроекта, однако, считают, что быстро развивающиеся технологии требуют ограждений, а законодательство является разумным— хотя и ограниченным и несовершенным, первым шагом к законодательному закреплению передовых методов обеспечения безопасности.Сенатор штата Скотт Вайнер внес SB 1047 в Сенат Калифорнии в феврале, и в настоящее время в законопроект вносятся поправки в Ассамблее. Июньские поправки к законопроекту разъяснили несколько положений, которые привели к путанице в определениях, но также ввели формулировку, которая, по сути, гарантировала, что закон в первую очередь будет применяться к крупнейшим разработчикам моделей искусственного интеллекта, включая Anthropic, Google Deepmind, OpenAI и Meta, среди прочих. В августе законопроект будет вынесен на голосование Ассамблеи, чтобы определить, будет ли он принят в качестве закона.По своей сути SB 1047 направлен на то, чтобы привлечь разработчиков крупномасштабных моделей искусственного интеллекта к юридической ответственности за предоставление разумных гарантий того, что их модели не обладают опасными возможностями, которые могли бы нанести критический вред. Определение критического вреда в законопроекте включает создание химического, биологического, радиологического или ядерного оружия, которое может привести к массовым жертвам; кибератаки на критически важную инфраструктуру, которые наносят ущерб на сумму не менее 500 000 000 долларов; или действия автономной модели искусственного интеллекта, которые наносят ущерб такого же уровня, причиняют вред людям или приводят к краже, материальному ущербу или другим угрозам общественной безопасности. Чтобы избежать подобного вреда, разработчики должны иметь возможность полностью отключать свои модели, эффективно встраивая аварийные выключатели.
Предлагаемое законодательство применяется к моделям искусственного интеллекта, “обученным с использованием количества вычислительной мощности, превышающего 10 ^ 26 операций с целыми числами или операциями с плавающей запятой [FLOPS], и стоимость такого количества вычислительной мощности превысила бы сто миллионов долларов (100 000 000 долларов США)”. Другими словами, законопроект в первую очередь нацелен на крупнейшие будущие модели искусственного интеллекта (вероятно, больше, чем большинство даже современных продвинутых моделей), созданные компаниями, которые могут позволить себе самое дорогостоящее обучение моделям. В нем используется тот же показатель для обучения вычислительной мощности (10 ^ 26 ФЛОПОВ), который упоминается в Распоряжение администрации Байдена об искусственном интеллекте об определении моделей, охватываемых законопроектом. Согласно закону, если модель не получит исключения, ее разработчикам необходимо будет ежегодно представлять сертификат соответствия модели и сообщать об инцидентах, связанных с безопасностью искусственного интеллекта, связанных с их моделями, во вновь созданное подразделение Frontier Model в Технологическом департаменте Калифорнии.
Дебаты вокруг сенатского законопроекта 1047 подчеркивают важный момент: регулирующим органам необходимо будет пройти тонкую грань, чтобы создать законодательство, которое одновременно защищает от будущих рисков, связанных с передовыми моделями, которые в общих чертах определяются как искусственный интеллект общего назначения на переднем крае развития, без негативного влияния на инновации. То, как завершится разработка и потенциальное принятие законопроекта, может предвещать более широкие дебаты по вопросам регулирования.
Плюсы и минусы.

SB 1047 всегда подвергался критике за попытки регулировать мировых лидеров в области искусственного интеллекта на их родной территории, и регулирование Калифорнии может повлиять на политику других штатов или федерального уровня в течение года, когда, по сообщениям, в Соединенных Штатах рассматривается более 600 законопроектов об искусственном интеллекте. Тем не менее, с точки зрения политики, SB 1047 не обязательно воспринимается как противоречивая попытка обуздать большие технологии в ущерб развитию искусственного интеллекта. Он требует от разработчиков предпринимать разумные шаги, чтобы их модели не наносили ущерба обществу, такие как базовые испытания на безопасность и другие (зарождающийся) передовой опыт отрасли. Он не предусматривает строгой ответственности разработчиков, что означает, что разработчики несут юридическую ответственность за ущерб, причиненный их моделями, только в том случае, если они не принимают мер предосторожности или если они лжесвидетельствуют, сообщая о возможностях модели или инцидентах с искусственным интеллектом. Разработчики не будут наказаны за несчастные случаи с оформлением документов. Они также не будут наказаны, если модель повредит, если разработчик приложил добросовестные усилия, чтобы сообщить о своих рисках в подразделение Frontier Model Division.
Видные деятели сообщества по безопасности искусственного интеллекта предложили поддержку, но другие утверждают, что законопроект недостаточно эффективен для защиты населения от рисков, связанных с искусственным интеллектом, и что это всего лишь базовый первый шаг к снижению крупномасштабных рисков путем обеспечения соблюдения согласованных методов безопасности крупными разработчиками искусственного интеллекта, которые в настоящее время предоставлены самим себе. Компании, занимающиеся искусственным интеллектом, не должны считаться уникальными по сравнению с другими отраслями, требующими регулирования, настаивают сторонники безопасности искусственного интеллекта.
Разработчики, однако, обеспокоены тем, что законопроект может задушить инновации, ограничив разработку и доводку модели open Foundation (хотя немногие из сегодняшних открытых моделей, если таковые вообще есть, могут быть затронуты законопроектом). Базовые модели - это крупномасштабные модели общего назначения, обученные на огромных наборах данных, которые могут выполнять различные задачи (например, генеративный ИИ), в то время как открытые модели - это те, веса (алгоритмические параметры) которых могут быть скорректированы любыми пользователями, обладающими опытом и ресурсами, для получения различных результатов моделирования. Подходы с открытой моделью разработки используют вклад нескольких пользователей для повышения производительности и выявления недостатков в системе безопасности.
Сторонники открытых моделей опасаются, что разработчики могут быть привлечены к юридической ответственности за корректировки веса их моделей третьими сторонами, которые приводят к причинению вреда, и утверждают, что законопроект поставит под угрозу полезную экосистему открытой модели. Хотя это действительно может быть справедливо для закрытых систем искусственного интеллекта в соответствии с предлагаемым законодательством, учитывая размер и возможности задействованных базовых моделей и уровни вреда, указанные в законопроекте, осторожность при взвешивании открытых моделей, вероятно, оправдана. Важно ограничить возможности злоумышленников, включая государственные структуры, пытаться манипулировать мощными моделями политически деструктивными или социально вредными способами. Другие опасения включают опасения по поводу того, что разработчики не могут разумно предвидеть или предоставить гарантии от всех вредных злоупотреблений их моделями, и что ожидать от них этого неразумно. Некоторые также утверждают, что нормативные акты штата могут вступить в противоречие с возможной обязательной федеральной нормативно-правовой базой и создать технологическую нагрузку для компаний, занимающихся искусственным интеллектом.
Возможно, неудивительно, что противниками SB 1047 являются TechNet, сеть технологических компаний, в которую входят Anthropic, Apple, Google, Meta и OpenAI, среди прочих, а также Калифорнийская торговая палата, Ассоциация гражданского правосудия Калифорнии и Калифорнийские производители и технологии. Тем не менее, число компаний, которые могут пострадать от законодательства в краткосрочной перспективе, невелико, а его краткосрочное сдерживающее воздействие на инновации представляется ограниченным. Большая часть беспокойства по поводу законопроекта со стороны частного сектора ориентирована на будущее и связана с потенциальным нормативным бременем, которое однажды могут понести небольшие компании (поскольку в настоящее время небольшие компании вряд ли имеют доступ к финансированию обучения или вычислениям, указанным в законопроекте).
Задача создания гибкой политики.

Недостаточно обсуждаемым аспектом дебатов вокруг законопроекта являются потенциальные последствия перехода от добровольного саморегулирования к обязательному подходу к моделированию безопасности для технологических компаний. На федеральном уровне регулирование искусственного интеллекта на сегодняшний день опирается на комбинацию так называемых механизмов мягкого права, которые влекут за собой добровольное соблюдение компаниями юридически необязательных политик, а также руководящих принципов агентства по использованию искусственного интеллекта. Таким образом, когда речь заходит об общих вопросах, связанных с безопасностью искусственного интеллекта, добровольное соблюдение и добросовестные обязательства по ответственной практике со стороны разработчиков искусственного интеллекта в значительной степени были названием игры в Соединенных Штатах. Смотрите, например, саммит президента Байдена с руководителями технических служб в Белом доме или общедоступную и добровольную систему управления рисками искусственного интеллекта Национального института стандартов и технологий.
Механизмы мягкого права могут быть разумным подходом, когда возможности правительства в таких областях, как обеспечение ресурсами, человеческий капитал или экспертиза, являются ограничивающими факторами. Конгрессмены и их сотрудники сталкиваются с постоянной проблемой: нормативные и этические рамки часто с трудом успевают за достижениями в новых технологиях из-за сложности и требований к технической экспертизе; кроме того, искусственный интеллект часто может наносить удары по политически чувствительным и социально сложным вопросам. Представители США, конгрессмены признали, что им и их коллегам может не хватать понимания искусственного интеллекта, и они изо всех сил пытались достичь консенсуса по наиболее актуальным типам рисков, которые необходимо устранить, что привело к замедлению внедрения инициатив по регулированию искусственного интеллекта. Федеральные агентства вводят рекомендации по ИИ или указывают, как существующие политики могут охватывать приложения в конкретных секторах; преимущество этого подхода заключается в том, что не нужно полностью исключать новые правила для ИИ, но, вообще говоря, это более узкий нормативный подход.
Поскольку SB 1047 представляет собой переход от мягкого закона к подходу, предусматривающему юридическую ответственность, оппозиционная реакция отрасли может предвещать аналогичные проблемы при таком переходе на федеральном уровне. Крупные разработчики искусственного интеллекта уже начали в той или иной степени внедрять методы обеспечения безопасности и отчетность при разработке моделей и, похоже, в значительной степени намерены избежать серьезных рисков, связанных с искусственным интеллектом, но все еще выступают против законодательства Калифорнии. Возможно, что технологические фирмы поддержали бы регулирование безопасности в иной форме, и что они сочли конкретный подход этого законопроекта неблагоприятным. Тем не менее, политикам по-прежнему трудно балансировать на грани между мягкой и жесткой политикой регулирования искусственного интеллекта, особенно учитывая сопротивление частного сектора.
В этом эпизоде также подчеркивается сложность создания гибкого, ориентированного на перспективу законодательства. SB 1047 пытается предотвратить увеличение разрыва между развитием технологий, их принятием общественностью и политикой, используя более свободные определения, которые не ограничивают риски, применяя чрезмерно директивный подход к снижению рисков. Однако неопределенность в определениях позволила противникам законопроекта строить предположения, иногда неверные, о том, что законопроект ужесточается в ущерб бизнесу. Возможно, в результате в последнем раунде поправок был удален пункт в законопроекте, который первоначально охватывал более эффективные будущие модели, которые работают так же хорошо, как модели, обученные на 10 ^ 26 сбоях в 2024 году. Это существенно снижает вероятность того, что требования законопроекта по безопасности будут применимы к малому бизнесу, стартапам или академическим исследователям, которые в конечном итоге могут разрабатывать и обучать мощные модели с меньшими вычислительными затратами и при меньших затратах на обучение, чем крупные компании, из-за будущих улучшений алгоритмической эффективности.
В конечном счете, SB 1047, вероятно, останется громоотводом как для некоторых сторонников безопасности искусственного интеллекта, так и для отраслевых разработчиков, поскольку он работает по законодательным каналам. Несмотря на принятие законодательного подхода, направленного на предотвращение устаревания законопроекта, законопроект вызвал противодействие, которое привело к изменениям, которые могут снизить его долговечность. Поскольку на федеральном уровне и по всей территории Соединенных Штатов ведутся более широкие разговоры о регулировании, потенциальные регулирующие органы должны принять это к сведению.


Ваше имя: [ Новый пользователь ]

Тема:


Комментарий:

Для вставки HTML кода используйте редактор


наберите код, который вы видите здесь
(сделано против роботов-спамеров):

Секретный код







Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.15 секунды
Рейтинг@Mail.ru