proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Подписка
Подписку остановить невозможно! Подробнее...
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

[20/12/2024]     Искусственный интеллект - опасности и проблемы

Академик Олег Фиговский (Израиль)

Некоторые ученые беспокоятся, что искусственный интеллект не поможет победить гендерное неравенство и сделает бедных еще беднее. Кроме того, они опасаются последствий, таких же катастрофических, как после аварии на атомной станции "Фукусима". Применение технологий искусственного интеллекта (ИИ) может привести к росту бедности, подтолкнет финансовый кризис, или станет причиной экологических проблем или появления биологического оружия.



С другой стороны, они же помогут отыскать лекарства против тяжелых болезней, изобрести новейшие батареи и отказаться от ископаемого топлива. Об угрозах ИИ, а также о его положительных сторонах, поговорили ученые, политики и активисты на AI for Science Forum в Лондоне. О выводах и предположениях, которые там прозвучали, рассказали на портале The Guardian. 

Искусственный интеллект — какие опасности и проблемы

Исследователь рака из Колумбийского университета Сиддхартха Мукерджи ожидает опасных последствий применения технологий искусственного интеллекта и сравнил их с событиями на японской ядерной станции "Фукусима", на которой произошел радиоактивный выброс после цунами.

"Я считаю, что почти неизбежно, по крайней мере при моей жизни, будет какая-то версия Фукусимы искусственного интеллекта", — заявил ученый.

Между тем другие ученые уточнили, почему следует пока остерегаться ИИ.

Во-первых, для людей выводы искусственного интеллекта — это "черные ящики", поскольку не ясно, каким образом программа получает тот или иной вывод. Впрочем, ближайшие пять лет, есть надежда, с этой проблемой справятся и будет понятен "ход мыслей".

"Я думаю, что за следующие пять лет мы выйдем из эпохи черных ящиков, в которой сейчас находимся", — отметил Демис Хассабис, исполнительный директор Google DeepMind.

Во-вторых, работа компьютеров, на которых работает ИИ, требует огромных объемов электроэнергии. Например, обучение речевой модели ChatGPT от OpenAI требует 10 ГВт-ч — этого бы хватило на год тысячи домов в США. С другой стороны, технологии могут сделать открытия и решить часть проблем, которые сами же породили: например, создать новые или усовершенствовать существующие батареи, сверхпроводники, ядерный синтез.

В-третьих, использование ИИ не направлено на достижение целей устойчивого развития (бедность, голод, благополучие, образование, гендерное равенство и т.д.), зато сосредоточено на новых источниках энергии, хотя это не главное, отметила Асмерет Асефо Берхе из Управления науки Министерства энергетики США.

"Компании искусственного интеллекта, которые работают в этом пространстве, много инвестируют в возобновляемые источники энергии, и, надеюсь, это ускорит отход от ископаемого топлива. Но достаточно ли этого?" — сказала она.

Положительные направления применения ИИ

Впрочем, на конференции были исследователи, которые показали полезные направления применения ИИ:

·программа, которая предусматривает структуры и взаимодействия белков и используется для разработки лекарств — на это уйдут месяцы и недели, а не годы;

·инструмент редактирования генов Crispr;

·создание безметановой коровы путем редактирования микробов в кишечнике животного.

Отметим, издание New Atlas рассказало о различных путях, которыми начинают двигаться ИИ и человек. Как выяснилось, до недавнего времени модели искусственного интеллекта учились на имеющейся информации и получали от ученых обратную связь. Однако новая модель OpenAI o1 теперь имеет специальное время "на размышления" и может генерировать выводы без влияния извне.

Одна из проблем, связанных с прогнозированием контроля над конкретными применениями военного ИИ, заключается в неясности того, как ИИ в конечном итоге будет использоваться на поле боя. Поэтому сейчас сложно накладывать какие-либо ограничения. Фокус перевел первую часть детального анализа о контроле за технологиями, как видом вооружения.

По мере развития искусственного интеллекта некоторые высказывают опасения по поводу систем вооружения с использованием ИИ. В связи с этим возникает вопрос о том, насколько реально контролировать военное использование ИИ. Меган Ламберт и Пол Шарре рассматривают ряд особенностей, затрудняющих контроль над ИИ, и предлагают конкретные шаги, которые можно предпринять уже сегодня, чтобы повысить вероятность успеха будущих режимов контроля над вооружениями с использованием ИИ.

Фокус перевел первую часть статьи Мегана Ламберта и Пола Шарре о том, какие существуют виды контроля над вооружениями, целесообразности его существования и уроках, которые дает ИИ.

Вооруженные силы по всему миру работают над разработкой, интеграцией и использованием ИИ в своих системах вооружений. Хотя многие из этих систем еще не реализованы, прорывы в области ИИ могут со временем оказать значительное влияние на функционирование вооруженных сил. Беспокойство по поводу военных систем ИИ заставила некоторых активистов призывать к запрету или регулированию систем вооружения с использованием ИИ.

Тем не менее, ИИ обладает рядом характеристик, которые затрудняют контроль над ним. Будучи технологией общего назначения, ИИ подобен электричеству или двигателю внутреннего сгорания и имеет бесчисленное множество невоенных и оборонных применений. Он отличается от некоторых военных технологий тем, что разрабатывается преимущественно в гражданском секторе инженерами в частной промышленности или в исследовательских организациях. Хотя широкое распространение ИИ делает маловероятным полный запрет на все военные применения ИИ, у международного сообщества может быть возможность совместной работы по регулированию или запрету определенных видов использования военного ИИ.

На протяжении всей истории человечества государства добивались ограничений или запретов на определенные виды оружия или его применения. Мотивы контроля над вооружениями могут быть разными, как и его успех. Анализ исторических примеров контроля над вооружениями показывает, что конкретные шаги, предпринятые сегодня, могут повысить шансы на успешный контроль над вооружениями ИИ в будущем. Политики могут работать над тем, как технологии ИИ используются военными. Страны также способны наладить регулярный диалог с союзниками и конкурентами об использовании ИИ в военных действиях и принятии мер для снижения взаимных рисков.

Повсеместная и демократизированная природа ИИ делает контроль над вооружениями трудным, но не невозможным. Хотя полный запрет на военное использование ИИ не представляется возможным, государства могут запретить некоторые виды применения ИИ при условии четкого определения запретов и взаимного контроля над ними. Взаимная проверка, хотя и сложна для любого военного потенциала на основе программного обеспечения, может быть достигнута с помощью различных методов: введение режима инспекций на местах; регулирование внешних наблюдаемых физических характеристик систем с ИИ (например, размер, вес, полезная нагрузка) или автономного поведения; или ограничение вычислительной инфраструктуры (т.е. аппаратного обеспечения). Любой контроль над вооружениями ИИ будет сложной задачей, но при правильных условиях в некоторых случаях он вполне осуществим. Действия, предпринятые сегодня, могут заложить основу для успеха в будущем.

Виды контроля над вооружениями

Контроль над вооружениями охватывает целый ряд действий и может происходить на любом этапе разработки или применения оружия. В этой статье мы определяем контроль над вооружениями как "соглашения, которые государства заключают для контроля над исследованиями, разработкой, производством, применением или использованием определенных видов оружия, характеристик оружия, применения оружия или систем доставки оружия".

Договоры о нераспространении, такие как Договор о нераспространении ядерного оружия, нацелены на этап разработки технологий и направлены на предотвращение доступа к технологиям, лежащим в основе определенного оружия. Другие меры контроля над вооружениями запрещают разработку, производство и накопление оружия, но разрешают доступ к базовой технологии. Сюда относятся запреты на противопехотные мины и кассетные боеприпасы. Договоры об ограничении вооружений, такие как новый Договор СНВ, разрешают производство определенных видов оружия, но пытаются ограничить количество, которым могут обладать страны. Другие меры регулируют использование оружия в войне, а в некоторых случаях полностью запрещают его использование.

Хотя некоторые меры по контролю над вооружениями осуществляются посредством юридически обязывающих соглашений, в истории существует множество примеров успешного заключения не имеющих обязательной юридической силы соглашений или даже негласного сотрудничества без официальных соглашений. Со временем давняя практика государств также может превратиться в обычное международное право, или "общую практику, принятую в качестве закона".

Контроль над вооружениями является скорее исключением, чем правилом, когда страны конкурируют между собой в разработке и производстве оружия. Такой контроль требует координации и доверия между государствами — это достаточно трудная задача в мирное время и еще более трудная во время конфликта. Государства довольно неохотно соглашаются на меры по мониторингу и проверке, которые могли бы повысить взаимную прозрачность и позволить проверять соблюдение обязательств другими странами. Как объясняют Эндрю Коу и Джейн Вейнман, "важным препятствием для контроля над вооружениями является компромисс, связанный с мониторингом: прозрачность необходима, чтобы убедить одну сторону в соблюдении другой стороной ограничений на вооружения, но прозрачность также может выявить уязвимости, которые могут быть использованы первой стороной в гонке вооружений или войне". Несмотря на многочисленные препятствия для контроля над вооружениями, в некоторых обстоятельствах государства смогли успешно ограничить разработку и применение оружия, даже во время войны. Уроки прошлых исторических успехов и неудач дают ценную информацию для попыток сдержать использование ИИ военными.

Почему контроль над вооружениями удается или терпит неудачу

Успех или неудача контроля над вооружениями зависит как от целесообразности контроля над вооружениями, так и от его осуществимости. Целесообразность контроля над вооружениями основывается на том, что страна рассчитывает предполагаемую военную ценность оружия в сравнении с его предполагаемым вредом, таким как бесчеловечное воздействие на комбатантов, неизбирательный характер или дестабилизирующее влияние на международный или политический порядок. Осуществимость контроля над вооружениями зависит от нескольких факторов: способности стран достичь ясности в отношении уровня желаемого сдерживания; способности стран как соблюдать соглашение, так и проверять его соблюдение другими государствами; и количества стран, необходимого для того, чтобы соглашение работало. Вероятность того, что усилия по контролю над вооружениями будут успешными, возрастает по мере повышения целесообразности и осуществимости.

Успех в контроле над вооружениями существует в определенном спектре. Он подразумевает ограничение поведения государства в области исследований, разработки, производства, развертывания или применения оружия. Меры, которые не могут сдержать или регулировать поведение, считаются неуспешными. Большинство соглашений находятся где-то посередине. Даже самые эффективные соглашения, такие как Конвенция о химическом оружии, имеют исключения и нарушителей. Другие соглашения могут быть успешными в течение определенного периода времени, но технологии или изменение политической динамики делают их неактуальными. Возьмем, к примеру, Договор о противоракетной обороне и Договор о ядерном оружии средней дальности. Тем не менее, даже частично успешные соглашения по контролю над вооружениями могут быть эффективными для улучшения стабильности, минимизации ущерба гражданскому населению и уменьшения страданий комбатантов.

Целесообразность контроля над вооружениями

Государства будут сопротивляться регулированию оружия с высокой военной ценностью — такого, которое эффективно, предоставляет уникальный доступ или обеспечивает решающее преимущество на поле боя, — даже если это оружие способно причинить существенный вред. Военная ценность оружия кладется на разные чаши весов с его теоретическим вредом, имеющим место, если оружие воспринимается как бесчеловечное, неизбирательное, дестабилизирующее или разрушающее политический или социальный порядок.

Иногда государства пытаются ограничить оружие или военные системы, которые приносят ненужные страдания или лишние травмы. Например, пули, оставляющие в теле осколки стекла, имеют более высокую степень вреда — они наносят чрезмерные травмы, а осколки стекла невозможно обнаружить с помощью рентгеновских лучей, — и не представляют уникальной ценности для военных. На восприятие вреда от оружия может также влиять механизм поражения. Например, ослепляющие навсегда лазеры воспринимаются как причиняющие ненужные страдания, что повышает желательность контроля над ними.

Государства пытались контролировать менее избирательное оружие или военные системы – те, которые не могут отличить гражданское лицо от комбатанта. Сюда относятся ранние ограничения на воздушные бомбардировки. Эти виды регулирования наиболее успешны, когда оружие или вид поведения на поле боя полностью запрещены. Попытки регулировать использование оружия неизбирательного действия путем ограничения его применения по военным целям и недопущения его в гражданские районы не увенчались успехом на практике в военное время.

Государства могут также желать контроля в отношении оружия, которое воспринимается как разрушительное или дестабилизирующее. Политические лидеры могут стремиться запретить оружие, которое угрожает их власти, как, например, папские запреты на арбалет или ранние постановления об огнестрельном оружии. Оружие, которое рассматривается как дестабилизирующее, например, системы противоракетной обороны или ядерное оружие космического базирования, может иметь более высокую степень желательности для контроля, поскольку оно может спровоцировать дорогостоящую гонку вооружений или создать стимулы для первого удара.

Прежде чем ратифицировать Женевский газовый протокол 1925 года, Великобритания, Франция и Советский Союз заявили, что соглашение перестанет быть обязательным, если хоть одна страна не будет его соблюдать. На начальных этапах Второй мировой войны Гитлер воздерживался от отдачи приказов о бомбардировках британских городов не из-за действующих международно-правовых запретов на это, а из страха, что Британия нанесет ответный удар. Взаимная сдержанность достигается либо внутренними нормами целесообразности, либо страхом перед тем, что противник может нанести ответный удар. В ходе всестороннего исследования нарушений военного права в 48 межгосударственных войнах с 1900 по 1991 год Джеймс Д. Морроу обнаружил, что ключевым фактором соблюдения норм является взаимность. Договоры часто были полезным координационным механизмом, позволяющим государствам договориться о том, следует ли и как сдерживать свои военные операции, но нарушения с одной стороны почти всегда приводили к ответным нарушениям. В демократических странах внутренние институты могут создать определенную "сцепляемость", которая повышает вероятность продолжения соблюдения договоров, даже если оппонент их нарушает. Несмотря на это давление, Морроу заключил: "Односторонняя сдержанность встречается редко".

Лучшей иллюстрацией динамики желательности контроля над вооружениями является реакция международного сообщества на ядерное оружие в сравнении с химическим. Вред ядерного оружия намного превосходит страдания, причиняемые химическим оружием, однако глобальное ядерное разоружение остается недосягаемым. Химическое оружие, с другой стороны, широко осуждается международным сообществом. Изредка его применяют государства-изгои. Ключевое различие заключается в военной ценности каждого вида оружия — ядерное оружие обладает уникальной политической эффективностью. Результатом этой динамики является то, что контроль над вооружениями чаще всего оказывается успешным в отношении оружия, которое не представляет особой ценности.

Осуществимость контроля над вооружениями

В то время как желательность контроля над вооружениями связана с факторами, которые мотивируют или отвращают страны от контроля над вооружениями, осуществимость подразумевает, достижимо ли взаимное сдерживание. Осуществимость контроля над вооружениями зависит от нескольких факторов: ясность правил; способность государств соблюдать условия соглашения; способность государств проверять соблюдение другими государствами; количество стран, необходимое для успешного выполнения соглашения.

Для достижения контроля над вооружениями государства должны договориться о том, какое оружие или виды применения оружия подлежат регулированию и как они должны регулироваться. Простота является основным преимуществом при разработке правил. Полный запрет на оружие, как правило, лучше соблюдается во время войны, чем правила, разрешающие его применение в некоторых обстоятельствах. Простота помогает противникам координировать действия по сдерживанию и способствует нормативной ценности стигматизации оружия. Абсолютные запреты, например, на противопехотные мины, кассетные боеприпасы, химическое и биологическое оружие, были успешными отчасти потому, что такое оружие запрещено при любых обстоятельствах, а не только в определенных случаях. Положения, ограничивающие применение в одних случаях, но не в других, такие как оружие воздушного базирования и подводная война, исторически имели меньше шансов на успех.

И все же простота не всегда необходима. Соединенные Штаты и Советский Союз (Россия) заключили множество двусторонних соглашений о контроле над вооружениями, которые содержали сложные правила в отношении того, какое оружие разрешено создавать каждому государству, включая Договор о ядерном оружии средней дальности, Договор о противоракетной обороне, SALT I, SALT II, SORT, START и новый START. Однако эти договоры имели и другие ограничения, например, требовали достижения соглашения только от двух сторон и ограничивали разработку и производство оружия только в мирное время, а не в военное. Чем более распространено оружие, тем труднее его контролировать, поскольку за столом переговоров потребуется присутствие большего количества стран.

На осуществимость контроля над вооружениями также влияет количество стран, необходимых для успешного заключения соглашения. Чем меньше стран необходимо, тем лучше. Например, во время холодной войны биполярная структура международной системы облегчала контроль над вооружениями, поскольку для этого необходимо было согласие только двух сверхдержав. Даже в случае многосторонних соглашений Америка и Советский Союз могли играть ведущую роль в разработке соглашения, что облегчает его выполнение другими странами. Соединенные Штаты и Советский Союз заключили множество соглашений о контроле над вооружениями, некоторые двусторонние, а некоторые многосторонние. Эти соглашения включали Договор о морском дне, Договор о космическом пространстве, Договор о противоракетной обороне и другие. Чем более распространено оружие, тем труднее его контролировать, поскольку за столом переговоров потребуется больше стран.

Способность государства проверить, соблюдают ли другие государства соглашение, является важным фактором успеха контроля над вооружениями. В некоторых случаях используются формальные режимы проверки, особенно в отношении оружия, которое может быть разработано в тайне, например, ядерное или химическое оружие. Конвенция о химическом оружии и Договор о нераспространении ядерного оружия предусматривают инспекционные меры для проверки соблюдения подписавшими их сторонами. Договор о космосе предусматривает, что государства должны разрешить другим наблюдать за космическими запусками и посещать любые объекты на Луне. Однако не все успешные договоры имеют формальные режимы проверки. Запреты на кассетные боеприпасы и противопехотные мины не требуют формальных инспекций, но заставляют государства быть прозрачными в отношении ликвидации своих запасов. В некоторых случаях государства полагаются на собственные методы сбора разведданных для проверки соблюдения, как это было в случае с договорами SALT I, SALT II и по противоракетной обороне.

Юридический статус соглашения о контроле над вооружениями, по-видимому, мало влияет на его конечный успех. На протяжении истории страны нарушали юридически обязывающие договоры, особенно во время войны. Так было с применением отравляющего газа во время Первой мировой войны. Неформальные, не имеющие обязательной юридической силы соглашения тоже имели успех в прошлом. Возьмем, к примеру, режим контроля ракетных технологий, который ограничивает экспорт определенных классов ракет. Есть даже некоторые примеры негласного взаимопонимания, когда не существует официального соглашения, ограничивающего применение оружия — например, сдержанность, проявленная Америкой и Советским Союзом при развертывании противоспутникового оружия или нейтронных бомб во время холодной войны, или односторонний отзыв Германией штыка-пилы во время Первой мировой войны. Не столько правовой статус договора, сколько взаимность является движущим фактором, побуждающим государства соблюдать его. Когда государства сдерживают разработку, производство или применение оружия, это обычно происходит из страха, что противники соответствующим образом ответят на нарушения. Однако официальные соглашения могут быть полезны для координации поведения государств и прояснения ожиданий.

Контроль над вооружениями также зависит от методов: регулирование часто основывается на предыдущих успехах в регулировании смежных технологий. Древние запреты на яд, например, помогли привести к современным запретам на химическое и биологическое оружие. Американо-советские соглашения о контроле над стратегическими вооружениями со временем привели к заключению дополнительных соглашений. Успех гуманитарной кампании по запрещению противопехотных мин, вероятно, сделал возможным гуманитарный запрет на кассетные боеприпасы.

Регулирование развивающихся технологий

Государства часто пытались регулировать новые или быстро развивающиеся технологии, которые представляют собой уникальные проблемы, особенно актуальные, когда речь идет об ИИ. Государства могут быть не уверены в военной пользе и вреде новых технологий, сделав выбор в пользу сохранения возможности их использования. Когда государства стремятся к сдержанности, они могут неправильно предсказать путь развития технологии, способы ее применения и контрмеры, в результате чего разрабатывают правила, которые не являются практичными или не могут полностью ограничить вредное использование.

В конце 19-го и начале 20-го веков государства заключили множество соглашений о контроле над вооружениями, пытаясь контролировать оружие индустриальной эпохи. В 1868, 1899, 1907, 1922, 1930 и 1936 годах европейские державы подписывали соглашения, регулирующие взрывчатые или разрывные пули, отравляющий газ, оружие воздушного базирования, подводные лодки и военные корабли. Ни один из этих договоров не пытался остановить распространение основополагающей науки и технологии, такой как химия или двигатель внутреннего сгорания. Скорее, они ограничивали типы оружия, которые могли создавать военные, или, в случае с самолетами и подводными лодками, способы применения этого оружия в войне. Хотя европейские лидеры правильно предполагали, что многие из этих видов оружия, такие как самолеты или ядовитый газ, могут причинить большие страдания во время войны, они не смогли предугадать важные детали развития этих технологий, что в некоторых случаях препятствовало соблюдению требований.

Ядовитый газ был объявлен вне закона до Первой мировой войны, но только в том случае, если он выпускался из снарядов. Первое крупномасштабное применение хлора Германией во время Второй битвы при Ипре было технически разрешено, поскольку газ выпускался из канистр. Достижение сдержанности при использовании газа осложнялось еще и тем, что его относительные военные преимущества и недостатки не были известны до Первой мировой войны. Германия впервые применила газ в поисках оружия, которое могло бы переломить ход событий на фронте, возможно, частично мотивированная французскими экспериментами с гранатами со слезоточивым газом в начале войны.

Попытки регулирования подводных лодок и самолетов также основывались на неверных предположениях о том, как будут развиваться эти технологии. Гаагская конвенция 1907 года запрещала воздушные бомбардировки "необороняемых" городов, не предвидя слабости противовоздушной обороны против бомбардировочных налетов. И наоборот, морское право требовало, чтобы подводные лодки всплывали, предупреждали и брали на борт экипаж, прежде чем топить торговые суда. Соблюдение этих правил, что Германия вначале пыталась сделать в Первой мировой войне, делало подводные лодки уязвимыми даже для легковооруженных торговых судов.

В других случаях некоторые виды оружия оказались не столь проблематичными, как первоначально предполагали государства. Расширяющиеся пули были запрещены Гаагской конвенцией 1899 года, но сегодня они широко используются в правоохранительных органах и для гражданской самообороны. (Такие пули с меньшей вероятностью пройдут сквозь человека и заденут посторонних).

Совсем недавно, в случае с запретом на ослепляющие лазеры, государства попытались обойти проблему прогнозирования развития, приняв запрет на предполагаемое использование технологии. Протокол IV Конвенции о конкретных видах конвенционального оружия гласит: "Запрещается применять лазерное оружие, специально предназначенное, в качестве единственной боевой функции или одной из боевых функций, для того, чтобы вызывать постоянную слепоту". Запрет, в частности, не запрещает конкретные технические характеристики лазера, такие как его мощность, а вместо этого фокусируется на его предполагаемом использовании. На сегодняшний день запрет на ослепляющие лазеры оказался успешным.

Хотя превентивный запрет новых технологий во многом сложен, государствам удалось ввести превентивные правила в отношении ослепляющих лазеров, биологического оружия, использования окружающей среды в качестве оружия, размещения ядерного оружия на морском дне или в космосе, а также создания военных баз в Антарктиде или на Луне. В пользу упреждающего регулирования говорит тот факт, что в некоторых случаях может быть проще запретить оружие, которое военные еще не включили в свой арсенал и поэтому не полагаются на него для защиты.

Уроки для искусственного интеллекта

ИИ будет трудно контролировать по трем основным причинам: это технология общего назначения; это развивающаяся технология; проверка соблюдения любого соглашения, связанного с ИИ, будет представлять собой уникальную проблему. Однако это не означает, что ИИ не поддается контролю. Несмотря на значительные препятствия, контроль для некоторых военных применений ИИ вполне возможен. Даже странам, стремящимся получить преимущества в военном ИИ, следует искать пути снижения рисков конкуренции в этой сфере, в том числе с помощью контроля над вооружениями.

Технология общего назначения

Будучи технологией общего назначения, ИИ больше похож на электричество, чем на отдельные технологии, такие как подводные лодки или ослепляющие лазеры, что создает препятствия для инициатив по контролю над вооружениями. ИИ — это технология двойного назначения, имеющая как гражданское, так и военное применение, и, скорее всего, она будет широко доступна. Распространенный характер ИИ делает маловероятным успех режима нераспространения — такого, который предлагал бы "запереть" ИИ и сократить его распространение. Кроме того, поскольку ИИ настолько широко распространен, для успеха любого регулирования потребуется согласие многих субъектов.

Нечеткое определение "ИИ" также может осложнить достижение ясности в любом соглашении. Определение того, что представляет собой "ИИ", неоднозначно и открыто для интерпретации. Просто заявив: "Никакого ИИ", мы ничего не добъемся, как и в случае прямого запрета на использование газа, поскольку неясно, квалифицируется ли та или иная технология как "ИИ". Кроме того, область применения ИИ настолько обширна, что запрет всего ИИ был бы аналогичен тому, как если бы государства 19 века объявили "Нет индустриализации". Государства действительно пытались контролировать технологии индустриальной эпохи, включая подводные лодки, самолеты, воздушные шары, ядовитый газ и разрывные или расширяющиеся пули. Но договориться о том, чтобы вообще не использовать в войне технологии индустриальной эпохи, было бы непрактично. Учитывая двойное назначение гражданской промышленной инфраструктуры, неясно, как можно было бы провести границы между гражданской и военной индустриализацией, даже если бы государства пожелали этого. Какие виды использования ИИ в военных целях являются приемлемыми или неприемлемыми – вопрос неоднозначный, и для успеха любых усилий по контролю над вооружениями странам потребуется ясность и четко определенные границы.

Исторические примеры контроля над вооружениями во время промышленной революции служат полезным уроком, поскольку государства с разной степенью успеха регулировали конкретные применения промышленных технологий общего назначения, включая двигатель внутреннего сгорания (подводные лодки и самолеты) и химию (разрывные пули и отравляющий газ). Эти усилия иногда терпели неудачу, но не потому, что государства не могли определить, что такое подводная лодка или самолет, и не потому, что невозможно было ограничить их гражданское использование. Скорее, эти меры потерпели неудачу из-за конкретного применения этого оружия в военных действиях. Если бы баланс нападения и обороны между бомбардировщиками и ПВО или подводными лодками и торговыми судами развивался по-другому, это оружие можно было бы контролировать более эффективно.

Хотя полный запрет на все военные приложения ИИ, скорее всего, недостижим, история показывает, что страны могут быть готовы к некоторым ограничениям на конкретные применения. Проблема заключается в том, чтобы определить, для каких конкретных применений ИИ контроль над вооружениями наиболее желателен и возможен. Существуют ли определенные виды применения, которые воспринимаются как особенно опасные, дестабилизирующие или вредные? Ученые уже начали рассматривать влияние ИИ на ядерную стабильность, автономное оружие и кибербезопасность, но наверняка найдутся и другие области, заслуживающие серьезного рассмотрения. В конечном итоге желательность и осуществимость контроля над вооружениями для любого конкретного военного применения ИИ может зависеть от способа применения технологии. Соглашение о контроле над вооружениями можно составить таким образом, чтобы оно было направлено на конкретные случаи применения технологии ИИ, которые считаются особенно проблематичными, подобно тому, как страны ограничивают применение пуль, взрывающихся внутри тела, вместо того, чтобы вообще ограничивать взрывающиеся снаряды.

Развивающаяся технология

Одна из проблем, связанных с прогнозированием контроля над конкретными применениями военного ИИ, заключается в неясности того, как ИИ в конечном итоге будет использоваться на поле боя. Это классическая проблема для новых технологий – от исторических случаев, таких как самолеты и танки, до современных разработок, таких как кибернетические инструменты и оружие направленной энергии. В конце 19-го и начале 20-го веков страны боролись за контроль над такими быстро прогрессирующими технологиями индустриальной эпохи, как ядовитый газ и подводные лодки. Fullscreen Тот факт, что ИИ воспринимается многими военными как "меняющая правила игры" технология, может стать препятствием для сдерживания. Военные по всему миру инвестируют в ИИ и могут не захотеть ограничивать его применение. Риторика вокруг ИИ, большая часть которой может не соответствовать реальным инвестициям военных в ИИ, сама по себе препятствует потенциальным усилиям по контролю над вооружениями.

Кроме того, представления о технологии ИИ как об источнике сверхчеловеческих возможностей, точности, надежности или эффективности, ослабляют веру в то, что некоторые виды применения ИИ могут быть дестабилизирующими или опасными. Такие представления, даже если они беспочвенны, могут повлиять на готовность страны к контролю над вооружениями ИИ. По мере разработки и внедрения странами реальных военных приложений ИИ восприятие, вероятно, будет меняться и больше соответствовать реальности. Однако регулирование будущих военных приложений ИИ может оказаться более сложным, если они уже интегрированы в вооруженные силы страны или используются на поле боя.

Готовность российских компаний к внедрению искусственного интеллекта (ИИ) в 2024 году сократилась на 0,2 балла и составила 3,5 из 10 возможных, говорится в докладе Национального центра развития ИИ при правительстве. Эксперты связывают это с нехваткой данных, кадров и ограниченным финансированием, особенно в бюджетных отраслях.

Мониторинг охватывал 19 отраслей экономики и социальной сферы, а оценка проводилась по 11 критериям, включая инфраструктуру, научное сопровождение и производство продуктов с применением ИИ. Наихудшие показатели зафиксированы в сферах культуры, образования, социальной политики и физической культуры. Готовность этих отраслей к ИИ не превышает 2,1 балла. В лидерах остаются сектор финансовых услуг и информационно-коммуникационных технологий (ИКТ), набравшие более 4,1 балла, а также топливно-энергетический комплекс и высшее образование.

Отсутствие финансирования остаётся одной из главных преград на пути внедрения ИИ: на него указали 27% респондентов. Проблема особенно актуальна для бюджетных отраслей, где развитие технологий во многом зависит от государственной поддержки. Однако эксперты подчеркивают, что финансирование напрямую связано с отсутствием единых критериев оценки эффективности ИИ и возврата инвестиций. В то же время число организаций, ощутивших эффект от использования ИИ, выросло до 36% в 2024 году против 29% годом ранее. Применение технологий искусственного интеллекта способствует повышению качества продукции и услуг. Однако основное положительное влияние фиксируется в крупных компаниях, обладающих ресурсами для внедрения ИИ-решений.

Эксперты также отметили неравномерность внедрения ИИ по отраслям. Например, в транспортной сфере число компаний с достаточным количеством ИИ-специалистов снизилось на 15 процентных пунктов, что привело к падению индекса готовности на 0,5 балла. Напротив, в ТЭК число организаций, обеспеченных ИИ-кадрами, увеличилось на 10 пунктов, а стратегий по развитию технологий — на 35%, что позволило отрасли нарастить цифровую зрелость на 1,1 балла. Несмотря на трудности, рынок ИИ в России продолжает расти. В октябре сообщалось о повышении спроса на ИИ-серверы со стороны государственных компаний, а в декабре стало известно об увеличении инвестиций в оборудование для искусственного интеллекта

 

 
Связанные ссылки
· Больше про Нормы и право
· Новость от Proatom


Самая читаемая статья: Нормы и право:
Про САПР и не только

Рейтинг статьи
Средняя оценка работы автора: 1
Ответов: 4


Проголосуйте, пожалуйста, за работу автора:

Отлично
Очень хорошо
Хорошо
Нормально
Плохо

опции

 Напечатать текущую страницу Напечатать текущую страницу

"Авторизация" | Создать Акаунт | 22 Комментарии | Поиск в дискуссии
Спасибо за проявленный интерес

Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Человечество стало основным источником опасности на планете. Все, что увеличивает его возможности, является дополнительной угрозой. 


[ Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Как предисловие... Анекдот:
-Профессор, а как вы определяете способности студента?
-Я задаю вопрос - и мне сразу все становится ясно.
-Профессор, а если студент отвечает на первый вопрос?
-Тогда я задаю второй вопрос - и мне все становится ясно!


[ Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Введение: Вчера смотрю - внеплановое видео от Солонина. Про "боевой лазер укров, могущий сбивать цельные самолеты". Ничего особенного в видео нет. Оно просто как толчок, посмотреть, что реальный воин ВСУ прокомментирует.

https://vadymukraine.livejournal.com/183651.html
Спасибо Сухаревскому Почти из каждого кислючего лимона можно сделать сладкий лимонад. После первой волны фейспалма от клоунады с рассказами про "боевой лазер Украины" ничем особо не отличающейся от традиционных путинских сказочек про его аналоговнеты я понял что из этого позорища можно извлечь серьезную пользу.
  Это индикатор, лакмусовая бумажка - если кто либо именующий себя "военным экспертом" присоединился к этому хору и начал развивать эти бурные фантазии  - значит надо банить навсегда и не засорять свой мозг прослушиванием или чтением таких дебилов.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Вот, простой старший сержант - а выразил истину:

ИИ - это индикатор, лакмусовая бумажка, тот вопрос - после которого профессору все становится ясно. Если кто-либо присоединяется к хору "ИИ Ко-ко-ко, ИИ Ко-ко-ко" и начает развивать эти бурные фантазии  - значит надо банить навсегда и не засорять свой мозг прослушиванием или чтением таких дебилов.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Ну и напоследок литературная пауза:

Весной поросята ходили гулять.
Счастливей не знал я семьи.
"Хрю-хрю", - говорила довольная мать.
А детки визжали: "ИИ!"


Но самый визгливый из всех поросят
Сказал им: "О, братья мои!
Все взрослые свиньи "хрю-хрю" говорят,
Довольно визжать вам"ИИ"!


Послушайте, братья, как я говорю.
Чем хуже я взрослой свиньи?"
Бедняжка! Он думал. что скажет "хрю-хрю",
Но жалобно взвизгнул: "ИИ!"


С тех пор перестали малютки играть,
Не рылись в грязи и пыли.
И все оттого, что не смели визжать,
А хрюкать они не могли!


Мой мальчик! Тебе эту песню дарю.
Рассчитывай силы свои.
И, если сказать не умеешь "хрю-хрю", -
Визжи, не стесняясь: "ИИ!"


С.Маршак


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
  Искусственный интеллект - опасности и проблемы
Прочитал и понял, что я это много раз читал в разных статейках про ИИ, которых плодят с помощью GPT.   У GPT есть уже способность самому создавать нечто читабельное, главное - дать ему задание и тему. Задание и тема уже могут быть не примитивными.  Например, можете попробовать нечто типа :" ..GPT свяжи тему
"..Земля тряслась - как наши груди,Смешались в кучу кони, люди,И залпы тысячи орудийСлились в протяжный вой... и тему контроля над вооружением, чтобы такого ужаса не было!".Получится гораздо интересней этого опуса академика!Начинающий ИИшник (не путать с яишником)!


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
Смена технологического уклада, а мир вступил в цифровую экономику, всегда сопровождалась социальными потрясениями и войнами. Т.н. циклы Кондратьева. 


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 20/12/2024
А что такое "цифровая экономика"? Экономика всегда была с цифрами и числами, даже до эпохи персоналок) Не помогут клептократам и идиотам цифры, даже если из них слепить экономику.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 21/12/2024
А что такое "цифровая экономика"?  ===========


Это роботизация большинства технологий. Например, вождение машины, секретарская работа, да много что. Поэтому освобождается огромное количество людей.


И что их кормить? Нет, капиталисты их утилизируют в революциях и войнах.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 21/12/2024
Высвобожденные люди могли бы строить дома. Но строят среднеазиаты. На крайняк ложки из липы делать или лапти плести. Тоже технологии=) Но русские люди не хотят работать, а хотят быть бюрократами и руководить. Их во всяких социально-гуманитарных университетах этому учили. "Не царское дело..."


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 21/12/2024
Высвобожденные люди могли бы строить дома. Но строят среднеазиаты. На крайняк ложки из липы делать или лапти плести. Тоже технологии=) Но русские люди не хотят работать, а хотят быть бюрократами и руководить. Их во всяких социально-гуманитарных университетах этому учили. "Не царское дело..."


------------------------------------------------


Челик,  не надо на РУССКИХ напраслину наводить !

Не завозили бы ваши  кабаевы, хуснулины и пр. шакирджановичи среднеазиатов, так и строили бы русские люди.
При Советах я ни на одной серьёзной стройке среднеазиатов не видел.   
Только если среди стройбатовцев были.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 21/12/2024
Этот Фиговский  родственник Двойникова что ли?
Что он его херню тут  постоянно размещает?


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 22/12/2024
Хрюкать академику уже не научиться, поэтому радостно визжит: ИИ


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 22/12/2024
Когда-то я предположил, что так называемые big data будут замусорены ИИ. Об этом нынче пишут, как о свершившемся факте.


[ Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 23/12/2024
 ИИ - это не та тема, чтобы здесь пердеть. Самая важная тема - это дефицит энергии, в том числе и для разных вариантов ИИ. Раньше такого понятия не существовало. Академик Глушко развивал такое понятие, как кибернетика, которую сичтал системой управления. А так как в фашистском обществе слово управление запрещено, то придумали ИИ. 

ИИ не сможет обеспечить контроль за военной деятельностью государств. Если только фашист Гаврила Попов не подсобит.

Что касается неп*рдёжных коров, то, скорее всего, их выведут. Только неизвестно, будут ли они давать молоко. Скорее всего, не будут. Будут выс*рать вакцину для лечения п*рдежа. Когда с кровами фашисты разберутся, они приступят к выведению новой породы людей, которые перестанут портить воздух. Думаю, что это будет достойная цель для ИИ. На большее ИИ не годится. Так как разработчики ПО ещё не разработали необходимые критерии контроля над ним. А ИИ без систем контроля окажется хуже любой Фукусимы, Чернобыля и сотни Потопов.

Относительно увеличения производства энергии. Во всех тепловых, в том числе АЭС, электростанциях следует установить вместо градирен специальные центрифуги по МИхайловскому, в которых можно будет конденсировать перегретый пар после выхода его из турбины для последующего перевода её (воды) в топку. Это позволит поднять КПД электростанций по выработке электроэнергии до 70%. И тем самым увеличить производство электроэнергии в 2 раза. А заодно в два раза уменьшить тепловое загрязнение атмосферы.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 23/12/2024
"конденсировать перегретый пар после выхода его из турбины"

Ты откуда сюда забрел?


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 23/12/2024
---------------Ты откуда сюда забрел?-------------------
А ты с какого буфера спрыгнул, безграмотный чувак в трусах?


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 23/12/2024
Ну, давай, грамотей, расскажи нам на сколько перегрет пар на выходе из турбины.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 25/12/2024
Грамотный чувак без трусов, ты выяснил какой пар выходит из турбины?


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 25/12/2024
Не важно какой температуры выходит пар из турбины. Главное, что он конденсируется не в градирне, а центрифуге. Что позволяет поднять КПД электростанции по электроэнергии до 70%.

Так что не стройте из себя грамотеев, коли ваши АЭС переводят энергию атома в тепло на уровне 70%. АЭС греют атмосферу, а винят в этом безобидный углекислый газ. Так что АЭС является самой опасной электростанцией, Все АЭС следует закрыть.


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 26/12/2024
Мрак и жуть. Ну, ладно, цикл Ренкина, но про цикл Карно мог бы и почитать, чтобы не гнать херню. Или центрифуга в башке не дает?


[
Ответить на это ]


Re: Искусственный интеллект - опасности и проблемы (Всего: 0)
от Гость на 27/12/2024
Твоя башка не моя башка. Моя думать нада. А твоя учебники читать.


[
Ответить на это ]






Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.14 секунды
Рейтинг@Mail.ru