proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2021 год
  Агентство  ПРоАтом. 24 года с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Обсудим?!
Способствует ли безопасности атомной отрасли закрытость (усиление режима)?
Да
Нет
Сильнее влияют другие факторы

Результаты
Другие опросы
Подписка
Подписку остановить невозможно! Подробнее...
Задать вопрос
Наши партнеры
PRo-движение
АНОНС
Вышло в свет второе издание двухтомника Б.И.Нигматулина. Подробнее
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия» и сайта proatom.ru. Информация: (812) 438-32-77, E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

[10/02/2021]     Определимся с искусственным интеллектом

Олег Фиговский, Олег Пенский, Департамент науки, технологий и образования АНМ, Израиль

Российское государство направит 7,3 млрд руб. на изучение искусственного интеллекта (ИИ). В 2021 году в России создадут шесть исследовательских центров на базе вузов и научных организаций и до 2024 года каждый год будут создавать еще по шесть таких центров. Исследованиями "предвзятости" и других проблем, возникающих при использовании ИИ, занимаются и такие техгиганты, как IBM и Google.



В настоящее время все развитые государства мира устремились в безудержную и беспрецедентную в истории гонку за искусственным интеллектом, его внедрением, а, порой, жестким проталкиванием в жизнь общества.

Однако до сих пор, насколько известно авторам настоящей статьи, нет единого определения искусственного интеллекта (ИИ), а поэтому до конца не понятно:

– Что же именно внедряют в социум политики и бизнесмены?

Приведем наш взгляд, наиболее удачную типизацию ИИ, сводящую, по сути, единое определение к нескольким определениям, исходя из задач этого искусственного интеллекта [3].

В 2018 году в Праге на площадке Чешского Технического Университета одновременно прошли конференции, посвященные искусственному интеллекту человеческого уровня, общему искусственному интеллекту, биологически-вдохновленным когнитивным архитектурам, а также нейро-символьным технологиям. На конференциях были представлены доклады ведущих специалистов компаний и учреждений, лидирующих в сфере исследовательских разработок в области искусственного интеллекта (ИИ): Microsoft, Facebook, DARPA, MIT, Good AI. В этих докладах были обозначены как текущее состояние разработок в области ИИ, так и стоящие перед обществом нерешенные проблемы, а также угрозы, возникающие в ходе дальнейшего развития этой технологии. В этом обзоре я постараюсь кратко обозначить основные проблемы и угрозы, а также возможные пути противостояния этим угрозам.

Однако, прежде всего, необходимо уточнить значение некоторых терминов, которые обычно употребляются совместно с ИИ в различных контекстах: слабый или специализированный ИИ, автономный ИИ (Autonomous AI), адаптивный ИИ (Adaptive AI), общий ИИ (Artificial General Intelligence, AGI), сильный ИИ (Strong AI), ИИ человеческого уровня (Human-Level AI), ИИ сверхчеловеческого уровня (Super-human AI).

Слабый или специализированный ИИ представлен всеми без исключения существующими решениями и предполагает способность автоматизации решения одной конкретной задачи, будь то игра в Go или распознавание лиц на видеокамерах. При этом отсутствует возможность самостоятельного обучения другим задачам без перепрограммирования человеком.

Автономный ИИ предполагает возможность системы функционировать долгое время без участия оператора. Например, он позволяет дрону, оборудованному солнечными батареями, совершить многодневное путешествие с Елисейских полей на Красную площадь или в обратном направлении, самостоятельно выбирая как маршрут, так и места для промежуточных посадок для подзарядки аккумуляторов, избегая при этом всевозможные препятствия.

Адаптивный ИИ предполагает способность системы адаптироваться к новым условиям, приобретая знания, не закладываемые при создании. Например, позволить системе поддержания диалогов на русском языке самостоятельно осваивать новые языки и применять их знание в разговоре, попадая в новую языковую среду или на основе изучения учебных материалов для этих языков.

Общий ИИ предполагает настолько высокую адаптивность, что обладающая им система может быть использована в самых различных видах деятельности при соответствующем обучении. Обучение может быть как самостоятельным, так и направленным (с помощью инструктора). В этом же смысле в противопоставление слабому или специализированному ИИ также часто употребляется сильный ИИ.

ИИ человеческого уровня предполагает уровень адаптивности сравнимый с человеческим, то есть система способна осваивать те же самые навыки, что и человек в сопоставимые сроки обучения.

ИИ сверхчеловеческого уровня предполагает еще более высокую адаптивность и скорость обучения. Таким образом, система может обучиться тем знаниям и способностям, которые человеку в принципе не под силу.

Несмотря на множество современных достижений в нейробиологии, на сегодняшний день пока никто точно не знает, как устроен естественный интеллект. Соответственно, точно так же никто не знает, как именно создать искусственный интеллект. Существует ряд известных проблем, требующих решения для его создания и разные мнения по поводу приоритетности достижения тех или иных решений. Например, руководитель международных проектов по созданию искусственного интеллекта с открытым кодом OpenCog и SingularityNET Бен Герцель считает, что все необходимые технологии для создания общего ИИ в принципе уже разработаны, необходимо только соединить их некоторым правильным образом для получения такой синергии, результатом которой станет возникновение общего ИИ [1]. Другие эксперты настроены более скептично, полагая, что необходимо принципиальное решение многих проблем, которые будут перечислены ниже. Также сильно варьируются экспертные оценки срока возникновения сильного ИИ — от десятка до нескольких десятков лет.

Вместе с тем возникновение сильного искусственного интеллекта вполне закономерно в рамках общего эволюционного процесса, как закономерно и возникновение молекул из атомов, клеток из молекул, организмов из клеток, выделение специализированных клеток в центральную нервную систему, возникновение социальных структур, развитие речи, письменности и в конечном итоге — информационных технологий. Закономерность нарастающей сложности информационных структур и способов организации в процессе эволюции хорошо показана Валентином Турчиным [2]. Если не произойдет гибель человеческой цивилизации, то такая эволюция будет неизбежной, и в самой долгосрочной перспективе это будет спасением человечества, постольку только не биологические формы существования информации смогут пережить неизбежную со временем гибель Солнечной системы и смогу сохранить во Вселенной информационный код нашей цивилизации.

При этом важно осознавать, что для того чтобы построить сильный искусственный интеллект, не обязательно понимать, как устроен естественный, так как необязательно понимать, как летает птица, чтобы сделать ракету. Очевидно, это будет сделано рано или поздно тем или иным способом или, возможно, несколькими способами.

В качестве принципиальных проблем [3], решение которых еще предстоит для создания общего или сильного ИИ, большинство экспертов выделяют следующие:

· Быстрое обучение (few-shot learning) — необходимость построения систем, обучающихся на небольшом объеме материала в отличие от существующих систем глубокого обучения, требующих большие объемы специально подготовленного обучающего материала.

· Сильная генерализация (strong generalisation) — создание технологий распознавания ситуаций, в которых распознаваемые объекты встречаются в условиях, отличных от тех, в которых они встречались в использованном для обучения материале.

· Генеративные или генерирующие модели обучения (generative models) — разработка технологий обучения, когда объектом запоминания являются не признаки объекта распознавания, а принципы его формирования, что может позволить отражать более глубокие сущности распознаваемых объектов и осуществлять более быстрое обучение и более сильную генерализацию.

· Структурированное обучение и предсказание (structured prediction and learning) — развитие технологий обучения на основе представления объектов обучения в виде многослойных иерархических структур, где более низкоуровневые элементы определяют более высокоуровневые, что может оказаться альтернативным решением проблем быстрого обучения и сильной генерализации.

· Решение проблемы катастрофического забывания (catastrophic forgetting) — присущего большинству существующих систем, которые, будучи изначально обучены на одном классе объектов и затем до-обучены распознаванию на новом классе объектов, теряют способность распознавать объекты первого класса.

· Достижение возможности инкрементального обучения (incremental learning), предполагающего способность системы накапливать знания и совершенствовать свои возможности постепенно, не теряя при этом полученные ранее знания, но приобретая новые знания применительно к системам диалогового общения на естественном языке. Идеальным является прохождение «младенческого теста Тьюринга» (Baby Turing Test), в случае которого система должна продемонстрировать возможность постепенного освоения языка от уровня младенца до уровня взрослого человека.

· Решение проблемы сознания (consciousness) — предполагает формирование проверенной рабочей модели сознательного поведения, обеспечивающего эффективное прогнозирование и целенаправленное поведение за счет формирования «внутренней картины мира» в рамках которой возможен поиск оптимальных стратегий поведения по достижению поставленных целей без фактического взаимодействия с реальным миром, что существенно повышает безопасность, проверки гипотез, а также повышает скорость и энергетическую эффективность этой проверки, тем самым создавая возможность самообучения живой или искусственной системы в «виртуальном мире» собственного сознания. С прикладной точки зрения проблема сознания имеет две стороны. С одной — создание систем ИИ, обладающих сознанием, позволит резко повысить их эффективность. С другой — появление сознания у таких систем вызывает как дополнительные риски, так и вопросы этического плана, поскольку такие системы в какой-то момент смогут быть по уровню самосознания приравнены к самому человеку с вытекающими из этого последствиями в правовом поле.

Потенциальные угрозы ИИ

https://russiancouncil.ru/upload/images/dangerai3.jpg

Яков Ионин:
Военный ИИ в США — с бюджетом, но без компромисса с Кремниевой долиной

Возникновение систем даже просто автономного или адаптивного, а тем более общего или сильного ИИ связывается с несколькими угрозами разного масштаба, актуальными уже сегодня.

Во-первых, угрозу для человека может представлять интеллект не обязательно сильный, общий, человеческого или сверх-человеческого уровня, так как достаточно иметь автономную систему, оперирующую большими объемами информации с большими скоростями. На её основе могут быть созданы так называемые «автономные системы смертоносных вооружений» — Lethal Autonomous Weapons Systems (LAWS), простейший пример которых — дроны для заказных убийств, печатаемые на 3D-принтерах как в массовых масштабах, так и небольшими партиями в кустарных условиях.

Во-вторых, угрозу для государства может представлять ситуация, когда другое государство (потенциальный противник) получает вооружения с более адаптивным, автономным и общим искусственным интеллектом с повышенной скоростью реакции и предсказательной способностью.

В-третьих, угрозу для всего мира представляет вытекающая из предыдущей угрозы ситуация, когда государства вступают в новый виток гонки вооружений, совершенствуя уровни интеллекта автономных средств поражения и уничтожения — как это было предсказано Станиславом Лемом несколько десятков лет назад [4].

В-четвертых, угрозу для любой стороны представляет любая, не обязательно боевая, но и промышленная или бытовая интеллектуальная система с определенной степенью автономности и адаптивности, способная не только к целенаправленному действию, но и к сознательному целеполаганию, при том что автономная постановка целей системы может привести к постановке целей, противоречащих целям человека и людей, а возможностей достижения этих целей у системы будет намного больше, в силу её более высокого быстродействия, большего объема обрабатываемой информации и большей предсказательной способности. К сожалению, масштабы именно этой угрозы сообществом не вполне изучены и осознаны.

В-пятых, угрозу для общества представляет переход к новому уровню развития производственных отношений в капиталистическом (либо тоталитарном) обществе, когда более малочисленная часть населения получает возможность контролировать материальное производство, исключая из него подавляющую часть населения за счет еще большей автоматизации, что может приводить к еще большему социальному расслоению, снижению эффективности «социальных лифтов» и увеличению массы «лишних людей» с соответствующими социальными последствиями.

Наконец, угрозу для человечества в целом может представлять автономизация глобальных вычислительных систем обработки данных, распространения информации и принятия решений на основе глобальных сетей, поскольку скорость распространения информации в таких системах и масштаб воздействия может приводить к непредсказуемым с позиций имеющегося опыта и существующих моделей управления социальным явлениям. Например, внедряемая система социального кредита в современном Китае является уникальным экспериментом цивилизационного масштаба с непонятными на сегодняшний день последствиями.

Сложность контроля за системами искусственного интеллекта на сегодняшний день обусловлена, в частности, «закрытостью» существующих прикладных решений на основе «глубоких нейронных сетей», которые не позволяют не только верифицировать правильность принятия решений перед их исполнением, но даже по факту проводить анализ решения, которое было принято машиной. Решению этой проблемы сейчас посвящено как новое направление «объяснимый искусственный интеллект» (Explainable Artificial Intelligence,EAI), так и новый интерес к интеграции ассоциативного (нейро-сетевого) и символьного (основанного на логике) подходов к проблеме.

Представляется безусловно необходимым принятие следующих мер для предотвращения катастрофических сценариев развития технологий ИИ и их применения.

· Международный запрет «автономных систем смертоносных вооружений» (LAWS) и разработка и внедрение мер международного контроля за его исполнением.

· Государственная поддержка работ, направленных на решение обозначенных проблем, в особенности «объяснимого искусственного интеллекта» и интеграции различных подходов, а также изучения принципов работы создания механизмов целеполагания с целью получения эффективных средств программирования и контроля интеллектуальных систем, когда средством программирования будут не правила, а ценности, а контролироваться должны не действия, а цели.

· Демократизация доступа к технологиям и методам ИИ, например, за счет реинвестирования доходов от внедрения интеллектуальных систем в массовое обучение вычислительным и когнитивным технологиям, а также создание решений ИИ с открытым кодом и разработка мер стимулирования открытия кодов существующими «закрытыми» системами ИИ. Например, проект Aigents направлен на создание персональных агентов ИИ для массовых пользователей, работающих автономно и не подверженных централизованным манипуляциям.

· Регламентирование на межгосударственном уровне открытости алгоритмов ИИ, протоколов работы распределенных систем обработки данных и принятия решений на их основе с возможностью независимого аудита как международными и государственными органами, так и частными лицами. Одной из инициатив в этом направлении является создание платформы и экосистемы приложений ИИ с открытым кодом SingularityNET.

Источники

1. Ben Goertzel, Cassio Pennachin, Nil Geisweller, Engineering General Intelligence, Part 1: A Path to Advanced AGI via Embodied Learning and Cognitive Synergy (Atlantis Thinking Machines), Atlantis Press, 2014th Edition.

2. В. Ф Турчин, Феномен науки: Кибернетический подход к эволюции. Изд. 2-е – М.: ЭТС. — 2000. — 368 с.

3. M. Iklé, A. Franz, R. Rzepka, B. Goertzel, B. (Eds.), Artificial General Intelligence, 11th International Conference, AGI 2018, Prague, Czech Republic, August 22-25, 2018.

4. Станислав Лем, Мир на Земле, антология Операция «Вечность» 1988, М.: Мир, 1988 г.

 

 
Связанные ссылки
· Больше про Физики и Мироздание
· Новость от Proatom


Самая читаемая статья: Физики и Мироздание:
Падают ли тела на Землю с одинаковым ускорением?

Рейтинг статьи
Средняя оценка работы автора: 0
Ответов: 0

Проголосуйте, пожалуйста, за работу автора:

Отлично
Очень хорошо
Хорошо
Нормально
Плохо

опции

 Напечатать текущую страницу Напечатать текущую страницу

"Авторизация" | Создать Акаунт | 4 Комментарии | Поиск в дискуссии
Спасибо за проявленный интерес

Re: Определимся с искусственным интеллектом (Всего: 0)
от Гость на 10/02/2021
запрет "автономных систем смертоносных вооружений" - это и системы "Мертвая рука", что ли? 


[ Ответить на это ]


Re: Определимся с искусственным интеллектом (Всего: 0)
от Гость на 10/02/2021
Дело происходило в те времена, когда мир постепенно оправился после двух тяжелых экономических кризисов. Первый из них был вызван созданием картеля ОПЕК и резким подорожанием нефти, второй — распадом картеля и резким снижением цен на нефть. Правда, появились уже первые термоядерные электростанции, но в качестве привода наземных или воздушных транспортных средств они не годились. Поэтому крупногабаритное оружие — бронетранспортеры, орудия, ракеты, тягачи, танки, наземные и подводные, и прочее новейшее, то есть появившееся в конце XX века тяжелое вооружение, — все еще дорожало, хотя бронетранспортерам уже некого было перевозить, а вскоре оказалось к тому же, что артиллерии не в кого будет стрелять. Эта последняя стадия военной бронегигантомании исчерпала себя в середине столетия; наступила эпоха ускоренной микроминиатюризации под знаком искусственного НЕИНТЕЛЛЕКТА.Трудно поверить, но лишь около 2040 года информатики, специалисты по цифровой технике и прочие эксперты стали задаваться вопросом, почему, собственно, их предшественники так долго оставались слепыми настолько, что per fas et nefas (Правдами и неправдами (лат.).) и при помощи brute force (Грубой силы (англ.).) пытались создать искусственный интеллект. Ведь для огромного большинства задач, которые выполняют люди, интеллект вообще не нужен. Это справедливо для 97,8 % рабочих мест как в сфере физического, так и умственного труда.Что же нужно? Хорошая ориентация, навыки, ловкость, сноровка и сметливость. Всеми этими качествами обладают насекомые. Оса вида сфекс находит полевого сверчка, впрыскивает в его нервные узлы (ганглии) яд, который парализует, но не убивает его, потом выкапывает в песке нужных размеров норку, кладет рядом с ней свою жертву, заползает в норку, чтобы исследовать, хорошо ли она приготовлена, нет ли в ней сырости или муравьев, втаскивает сверчка внутрь, откладывает в нем свое яичко и улетает, чтобы продолжить эту процедуру, благодаря которой развившаяся из яичка личинка осы может до своего превращения в куколку питаться свежим мясом сверчка. Тем самым оса демонстрирует превосходную ориентацию при выборе жертвы, а также при выполнении наркологическо-хирургической процедуры, которой подвергается жертва; навык в сооружении помещения для сверчка; сноровку при проверке того, обеспечены ли условия для развития личинки, а также сметливость, без которой вся последовательность этих действий не могла бы осуществиться. Оса, быть может, имеет достаточно нервных клеток, чтобы с неменьшим успехом водить, например, грузовик по длинной трассе, ведущей из порта в город, или управлять межконтинентальной ракетой, только биологическая эволюция запрограммировала ее нервные узлы для совершенно иных целей.Понапрасну теряя время на попытки воспроизвести в компьютерах функции человеческого мозга, все новые поколения информатиков, а также профессоров-компьютероведов (professors of computer science), с упорством, достойным лучшего применения, не желали замечать устройств, которые были в миллион раз проще мозга, чрезвычайно малы и чрезвычайно надежны. Не ARTIFICIAL INTELLIGENCE, но ARTIFICIAL INSTINCT (Не искусственный интеллект, но искусственный инстинкт (англ.).) следовало воспроизводить и программировать в первую очередь, потому что инстинкты возникли почти за миллиард лет до интеллекта — очевидное свидетельство того, что их сконструировать легче. Взявшись за изучение нейрологии и нейроанатомии совершенно безмозглых насекомых, специалисты середины XXI века довольно скоро получили блестящие результаты. Их предшественники были и вправду слепы, если не задумались даже над тем, что, например, пчелы, создания, казалось бы, донельзя примитивные, обладают, однако ж, собственным, и притом наследуемым, языком. С его помощью рабочие пчелы сообщают друг другу о новых местах добывания корма; мало того, на своем языке сигналов, жестов и пантомимы они показывают направление полета, его продолжительность и даже приблизительное количество найденной пищи. Речь, разумеется, шла не о том, чтобы строить из неживых элементов типа CHIPS или CORN

Прочитать остальные комментарии...


[ Ответить на это ]


Re: Определимся с искусственным интеллектом (Всего: 0)
от Гость на 12/02/2021
50 лет назад мы на семинарах обсуждали возможность создания искусственного интеллекта. С тех пор я много лет наблюдаю обсуждения данного вопроса, особенно с развитием вычислительной техники.  Иногда я преподаю на различных курсах для освоения персональных компъютеров . Постоянно посмеиваясь , подшучивая своим курсантам говорю - вот ваш ПК и есть ИИ. Каждый раз включаю его его и не знаешь чегго от него ожидать. Примерно то же самое происходит и в наших мозгах.  Мы приобретаем информацию от личного общения, прессы, ТВ, радио. А наши ПК приобретают такую информацию из сети. А в принципе все зависит от создателей ПК и программистов. Т.е.  как мы запрограммируем ИИ, так он и будет работать. А самое лучшее изображение и обсуждение данной проблемы у Станислава Лема. Читайте Солярис.


[
Ответить на это ]


Re: Определимся с искусственным интеллектом (Всего: 0)
от Гость на 09/03/2021
старые маразматике вообще не в курсе...


[
Ответить на это ]






Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, webmaster@proatom.ru. Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.88 секунды
Рейтинг@Mail.ru