proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Подписка
Подписку остановить невозможно! Подробнее...
PRo Выставки
Энергетика, Электротехника и Энергетическое машиностроение
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

[08/07/2024]     Искусственный интеллект: оптом и в розницу. Окончание

Н. Н. Григорьев, проф. кафедры технических средств судовождения им. проф. Е.Л.Смирнова, Государственный университет морского и речного флота им. адм. С.О.Макарова

А. Н. Григорьев, инженер-механик судовых ядерных энергетических установок, директор по развитию ООО «РТС» 

На 2014 г. самой мощной атомной электростанций была японская Kashiwazaki-Kariwa, с чистой мощностью около 7 965 МВт, занимающая площадь 4,2 кв. км. На втором месте канадская АЭС, чистая мощность которой 6 384 МВт, а занимаемая ею площадь около 9,32 кв. км.



Далее следуют: южнокорейские АЭС Кори мощностью 6040 МВт, Uljin чистая мощность: 5 928 МВт, Ханбит (ранее известная как АЭС Йонгван) мощностью 5 875 МВт. На шестом месте Запорожская электростанция в Украине, чистая мощность: 5700 МВт. На седьмом месте АЭС Гравелин (Франция), чистая мощность: 5460 МВт.Завершает список Топ-15 - китайская АЭС Ниндэ с чистой мощностью: 4072 МВт [12]. 

Японский компьютер «Фугаку» на сегодняшний день признан самым мощным и самым дорогим компьютером. По предположительным данным затраты, выделенные на разработку «Фугаку» составляют около $1 млрд. Компьютер состоит из почти 159 тысяч вычислительных узлов, в каждом из которых используется ARM-чип Fujitsu A64FX. Компьютер «Фугаку» потребляет мощность 29,899 МВт.

Программа, примененная в «Фугаку» в 2021 г., позволила точно смоделировать тепловую конвекцию и магнитное поле в недрах Солнца, которые воспроизвели его дифференциальное вращение. При этом было достигнуто моделирование с беспрецедентно высоким разрешением. В симуляции использовались 5,4 млрд точек, удалось воспроизвести дифференциальное вращение Солнца с быстрым экватором и медленными полюсами. Это позволило пересмотреть вопросы взаимоотношений энергии магнитных полей и энергию турбулентности.

Была решена грандиозная задача, но именно та, которая была предусмотрена программой, и которая требовала помимо высокой точности еще и высокого быстродействия: «На основе предыдущих расчетов предполагалось, что в зоне конвекции магнитная энергия меньше турбулентной и играет второстепенную роль. Однако теперь взгляд на недра Солнца изменился – модель показала сильные магнитные поля, энергия которых более чем в два раза превышает энергию турбулентности. Кроме этого, ученые выяснили, что магнитное поле играет важную роль в создании и поддержании дифференциального вращения Солнца» [https://weekend.rambler.ru].

 

Некоторые ценовые соотношения 

Рассматривая вопросы использования ИИ на судах, нелишне привести стоимость самых современных судов (без наличия на борту ИИ), так как установка ИИ потребует дополнительных сопоставимых затрат.

«Строительство третьего и четвертого серийных атомных ледоколов типа «Арктика» обойдется в 100 млрд руб., следует из материалов на портале госзакупок. Предельная стоимость первого атомного ледокола «Лидер» без НДС и дополнительных расходов планируется в 98,6 млрд руб.».[ kommersant.ruБизнес].

Для сравнения: 

Суперкомпьютер Spiking Neural Network Architecture способен выполнять более 22 млн действий в секунду. Каждый его мультипроцессорный чип оснащен 100 млн транзисторов. Создателям машины понадобилось 20 лет на разработку концепции, 10 лет на сборку 1,5 млн фунтов стерлингов.


Мозг и разум. Границы сознания

Сравнение ИИ с интеллектом человека явно преждевременное. Человек обладает еще и сознанием, что ИИ несвойственно. Поэтому ИИ находится в самом начале большого пути к интеллекту человека. 

Термин «сознание» - это емкое понятие, которое в естественной среде не имеет границ. По мнению Со Ёсона: «Сознание – это субъективная сущность».  В более приземленном варианте: «Человеческое сознание есть специфическая форма сознания, создающая модель мира и затем моделирующая его поведение во времени, оценивая прошлое и моделируя на его базе будущее.  Это требует усреднения и оценки множества обратных связей с целью принятия решения и достижения цели» [13].

Что же такое сознание? У науки нет ответ на этот вопрос. Известно, что сознание – это интегрированная совокупность работы нескольких частей мозга, а не какой-то его отдельной области. Вероятно, что в процессе мышления происходит некая перегруппировка между частями мозга, со сменой доминантной области. Поэтому важно понять, какая именно часть мозга за что отвечает, и как работают триггерные схемы управления нервной системой. Не менее важным является то, как за счет интеграции и обработки большого количества информации, а также фокусировки на нужное и блокирования ненужного, мы реагируем на сенсорные входящие потоки, что позволяет различать, что реально, а что – нет. Очевидно, что ИИ предстоит сложный путь к обретению сознания, конечно же, искусственного. Для этого потребуется научиться прогнозировать поведение человека как детерминированного, в рамках замкнутых систем, так и спонтанного (эвристического) в разомкнутых системах. 

По мнению Стивена Хокинга: «Однажды поведение человека также можно будет прогнозировать и в рамках исследований головного мозга. Однако все еще невозможно подробно описать все добавляемые переменные, комбинации или взаимодействия нейронов, формирующие начальные условия поведения человека». Такую способность ИИ прогнозировать поведение человека он называл «эффективной теорий», но при этом, физические теории в данном контексте С. Хокинг считает ограниченными.

Квантовая механика, в области которой происходят процессы, включающие в работу сознание, признавая многогранность реальности, не отрицает свободу воли человека. Наличие воли выводит человеческое поведение на новый непредсказуемый уровень и тем самым ограничивает возможности ИИ.

Итак, камнем преткновения при создании ИИ становится преодоление барьера, отделяющего тело от сознания. Собственно об этом пишет Стивен Хокинг в своей «эффективной теории», где признает ограниченность физических теорий: «Первоначально всеобъемлющая модель, также называемая эффективной теорией, конечно, может использоваться, но она подробно не описывает всех явлений. Это обусловлено тем, что тело состоит из атомов и молекул, но уравнения и отношения между ними не могут быть полностью воспроизведены» [14].

Идея создания ИИ носит рекуррентный характер, поскольку вновь вернулись к обсуждению возможности того, что человеческое сознание и его умственную деятельность можно представить в виде физической теории. Эту точку зрения отстаивали Лаплас и Декарт. С их точки зрения «люди похожи на механизмы». Прогресс будущего представляется в образах виртуальной реальности.  Однако детерминистическая природа классической физики отрицается научной философией: «Суть жизни не может быть объяснена ни вскрытием и изучением внутренних органов тела, ни существующими физическими или химическими законами», поскольку сознание присуще только человеческому организму. «Несмотря на то, что ИИ постоянно развивается, достоверной информации о том, будут ли роботы когда-либо самостоятельными личностями, нет». 

 

Проблемы ИИ в мореплавании

Одним из основополагающих Международных правил предупреждения столкновений судов в море (МППСС-72) является Правило 5 МППСС-72 «Наблюдение». Согласно квантовой механике, сам акт сознательного наблюдения объекта исследования представляет собой и рассматривается на том же уровне, что и наблюдаемый объект, а такое сознание заключает в себя субъективную смысловую связь.

 

Сознательный акт наблюдения (а он, несомненно, сознательный) с позиций вахтенного помощника капитана (ВПКМ) базируется на субъективной смысловой связи. А иначе и быть не может. Субъективная смысловая часть зарождается на способностях восприятия, которое частью базируется на генетических особенностях личности, а частью на приобретенных навыках и опыте.     

А, реальность, созданная посредством осмысления семантических связей в рамках имеющихся вероятностей, представляет собой органический синтез, на основании которого и принимается управленческое решение. Сами же предпосылки принимаемого решения зависят от корреляции с другими факторами, включенными в ситуационную зависимость, которая определяется прежним опытом, интерференцией навыков, усталостью и другими состояниями психики человека, которые более известны под общим названием – человеческий фактор.

Реальность, созданная посредством осмысления ситуации, всегда будет носить вероятностный характер, поскольку целостной картины не будет вследствие фильтрации поступающей информации от внешних объектов. Сознание должно выбрать ту информацию, которая является наиболее важной в сложившейся ситуации.

Важно понимать, а что же такое сознание? Определенного ответа на этом вопрос нет. Можно только предполагать, ссылаясь на научные авторитеты, что ответ находится в области квантовой физики. Неопределенность порождает вероятность, которая характеризует двойственность состояния электрона, который может предстать частицей или волной, и что зависит от наблюдателя. Наблюдая за развивающейся ситуацией, ВПКМ должен быть сконцентрирован, чтобы воспринимать ее в динамике. Воспринимая ситуацию адекватно и принимая адекватные управленческие решения, ситуация «не перерастет» в аварийную. Восприятие ситуации строится на основе органического синтеза. А, как справедливо отмечает Со Ёсон, применительно к ИИ: «Природа указанного выше органического синтеза понимается в его отношении к целому, и, тем не менее, пока все еще до конца нельзя определить, что представляет собой органический синтез, и из-за того, что это – сущность вероятности, его взаимосвязи с другими объектами и его положение в рамках целого тесно связаны.

Если считать, будто поведение людей действительно подчиняется законам природы, то кажется разумным следующий вывод: результат определяется столь сложно и со столь многими вариациями, что делать какие-либо прогнозы относительно поведения людей практически невозможно».

Как отмечают специалисты по созданию виртуальных тренажеров для военно-морских сил США, прогнозировать поведение человека можно только в пределах замкнутого пространства и не белее чем на несколько секунд упреждения. [15].

При построении ИИ, важно, чтобы  он (ИИ) был способен воспринимать картину в целом (органический синтез), а затем отфильтровал наиболее значимую часть информации, что сделать весьма непросто, особенно в условиях интенсивной качки, которой подвергается судно в штормовых условиях. 

Другой проблемой является выполнение Правила 14 МППСС-72 «Ситуация сближения судов, идущих прямо друг на друга». Примером неопределенности может служить ситуация, когда суда оказываются на встречных или почти встречных курсах.

На основании проведенного тестирования, слушатели курсов повышения квалификации при выполнении Правила-14 МППСС-72 по-разному отреагировали на ситуацию, когда линия относительного движения (ЛОД) находилась справа от курса.  В то же самое время, если ЛОД проходит слева, то действия вполне предсказуемые [16].     

Неопределенность порождается тем, что вероятность адекватной ответной реакции со стороны ВПКМ, находящегося на встречном судне, непредсказуема. При этом фильтрацией информации занимаются личности разного уровня подготовки, менталитета, с различными психотипами.   

По мнению С. Хокинга: «Для полновесного компьютерного прогнозирования поведения человека в экстремальной ситуации нужно знать начальное состояние каждой из тысячи триллионов молекул человека и решить такое же количество уравнений. Это займет не один миллиард лет, и предпринимаемые действия запоздают».

Поэтому: «Несмотря на то, что психические процессы в мозге исследуются с помощью физических механизмов, а деятельность разума рассматривается как объект этих исследований, как утверждается в рамках квантовой теории, Вселенная расширяется неравномерно, а в нашей разумной деятельности еще и наблюдаются субъективные свойства, все это вместе делает невозможным познание Вселенной». А мозг человека – это непознанная и непознаваемая Вселенная.

«На планете Земля, появившейся в результате Большого взрыва появляется, идея жизненной силы. Что-то еще происходит во время перехода от материи к живому организму, именно оно вливает в нее силы, которые не объясняются химией или физикой (курсив авторов). В частности, деятельность и строение головного мозга контролируются генами. Кроме того, современные генетики считают, что мозг следует указаниям генов, что он развился из более примитивных органов тела, интерпретирующих информацию. Гены влияют на поведение и предопределяют определенные склонности или черты человека, независимо от внешних раздражителей. Когда активируется ген миндалины, который хранит память, даже если попытаться проследить этот процесс через ФМРТ (функциональная магнитно-резонансная томография), трудно четко разобрать, как происходит данный процесс [14].

В настоящее время создатели ИИ, несмотря на употребление таких терминов как «нейронные сети», по-прежнему осваивают лишь уровни классической физики, которые не отражают глубины человеческого мировоззрения. Классическая физика объясняет следствия многих явлений вполне успешно, но при этом не может объяснить их причины, например, природу магнетизма или гравитации. Многое стало доступным на уровне квантовой физики, «которая прекрасно справляется с «подробностями», но не может объяснить мир целого».   

Неоспоримым фактом является то, что при принятии управленческого решения принимают участие эмоции человека, чего лишен ИИ. Безусловно, что эмоции могут способствовать принятию, как успешного решения, так и неадекватного. При этом важную роль играет активность нейронов, а для регулирования активности нейронов необходимо участие эмоций, без которых фильтрация поступающей информации становится бессмысленной. Принять адекватное управленческое решение на основе всей совокупности поступающей информации не представляется возможным, так как при отсутствии фильтрации вся информация приобретает нивелированный характер. И, следовательно, наиболее значимая ее часть растворяется в целом.  

Негативное влияние современных технологий

Вопросы негативного влияния современных технологий на интеллектуальную деятельность человека – не праздные рассуждения. Бруно Беттельгейм в книге «Просвещенное сердце» пишет о влиянии современных технологий на интеллектуальные способности человека, передоверяя свои функции автомату, человек утрачивает когнитивные способности. При этом, в экстремальных ситуациях он не способен воспроизвести те же самые функции на более низком техническом уровне, которые ранее им же были хорошо освоены в процессе приобретения навыков управления, например, морским судном. В случаях возникновения острой необходимости, даже для тех, кто уверенно владел набором навыков, столь резкий переход из сферы высоких технологий (в аварийных ситуациях) к «примитивным» классическим приемам дается уже с трудом. А, учитывая степень проникновения в сознание современного человека всесилия и отстраненности от понимания принципов работы современных средств навигации, само возникновение экстремальной ситуации – уже катастрофа, прежде всего нравственная. Человек, не совладавший с аварийной ситуацией, терпит нравственное крушение в оценке своих когнитивных способностей. Уповая на информацию, полученную от приборов, и не умея ее анализировать, человек «расписывается» в своей некомпетентности. Это происходит уже сейчас, задолго до появления ИИ, хоть сколько-нибудь приближенного к природному интеллекту человека. Одно дело - повторяемость обычных действий, другое - невозможность предугадать последствия действий, совершаемых в постоянно меняющемся контексте.

Сближение интеллекта и ИИ – это реальность, но перерастание ИИ в интеллект – невозможно. ИИ не преодолеть барьер, отделяющий его от интеллекта человека, так как этот барьер представляет собой скачек из области классической физики в область квантовой физики - к сознанию, которым никогда не будет наделен ИИ. Сам термин «сознание» не применим к ИИ.

Вряд ли когда-либо ИИ будет способен подняться до уровня, позволяющего ему оперировать на уровне сознания, тем более подсознания, в котором находиться большая часть информации и навыков ее восприятия. То, что понятия восприятия интеллекта и ИИ весьма далеки друг от друга, наглядно демонстрируют тренажеры виртуальной реальности, в которых упрощения сведены к минимуму информации для создания ситуации, отобранной создателями тренажеров. При этом сами создатели тренажеров не всегда являются профессионалами в области, для которой тренажер создается. Они консультируются у профессионалов, которые часто владеют скрытыми знаниями, но при этом не способны эти знания донести до компьютерщиков, создающих программы, а те, в свою очередь, не понимают глубины процесса, который требуется для полноты картины, позволяющей достичь сопричастности ИИ с интеллектом. На стыке двух интеллектов находится сознание, которое вряд ли когда-либо зародится у ИИ, учитывая, что сам термин «сознание» не имеет этимологических границ, поскольку даже предпосылок к этому нет. Так на стыке двух интеллектов (ИИ и интеллекта человека) возникает непреодолимый барьер. 

С определенного момента Хокинг в своих публичных выступлениях стал сравнивать компьютерные вирусы с живыми организмами [17]. Это вызвало беспокойство в научном сообществе, и ученый получил свою долю критики. Тем не менее от убеждений не отступился. "Я боюсь, что искусственный интеллект способен заменить людей", — говорил физик в недавнем интервью журналу Wired. Благодаря компьютерным вирусам можно создать программы, которые будут себя воспроизводить и станут умнее человека».

Было бы опрометчивым сбрасывать возможности ИИ влиять на человека. Риски применения ИИ велики. «Десятки известных ученых, предпринимателей и инвесторов, чья деятельность связана с ИИ, подписали открытое письмо с призывом уделять более пристальное внимание безопасности и общественной полезности разработок в области ИИ. Среди них основатель компаний SpaceX и Tesla Илон Маск и астрофизик Стивен Хокинг.

Письмо и сопроводительный документ, составленный общественной организацией «Институт будущего жизни» (Future of Life Institute, FLI), появились в обстановке растущей обеспокоенности по поводу влияния ИИ на рынок труда и даже на долгосрочную перспективу выживания человечества в условиях безудержного роста возможностей машин.

«Потенциал ИИ огромен, поэтому очень важно исследовать возможности его оптимального использования и того, как избежать сопутствующих ловушек, - говорится в письме FLI. - Нужно, чтобы наши системы ИИ делали ровно то, чего мы хотим от них». По мнению И. Маска, неконтролируемое развитие ИИ «потенциально гораздо опаснее ядерного оружия».

Успехи современных компьютеров. Тьюринг – Музыка – Шахматы

Робота, которого за то, что он повернул «кочан головы» и произнес трафаретные фразы, сегодня называют искусственным интеллектом. И тут начинается самое интересное. Всё от самого примитивного до самых продвинутых компьютерных программ валят в общую кучу. Правомерно ли это? Если рассматривать вопрос создания искусственного интеллекта с обывательских позиций, то существенной разницы нет. В шахматы ИИ играет и даже вполне успешно. Ведь победила компьютерная программа Deep Blue чемпиона мира Г. Каспарова. А тут внимание (!!!), после окончания турнира репортеры брали интервью вопреки сложившейся практике не у победителя - Deep Blue, а у побежденного Г. Каспарова. Deep Blue «заточена» под одну задачу - путем перебора множества вариантов и при высоком быстродействии выбрать наиболее оптимальный вариант.

Да, скорость современного компьютера во много раз превосходит скорость мышления человека, но человеческое мышление отличается от машинного тем, что человек улавливает ситуацию целостно [18]. Так, например, шахматисты видят ситуацию на шахматной доске. Примечательно, что если фигуры на доске расставлены в произвольном порядке, а не появились в результате игры, то шахматистам не представляется возможным ее запомнить. 

При нынешнем состоянии развития технологий следует рассматривать ИИ ни как замену интеллекта, а как продолжение способностей человека. Как это уже давно и происходит. Чтобы рассмотреть что-то очень мелкое, используем микроскоп, а пытаясь рассмотреть далекое – телескоп.

Попытки подменить интеллект ИИ первым предпринял Ален Тьюринг. В 1950 г. он опубликовал статью «Computing Machinery and Intelligence» («Вычислительные машины и разум»), где применил новый термин – Artificial Intelligence (искусственный интеллект). При создании «умной машины», Тьюринг составил программу для компьютера MADAM, запрограммированную на написание любовных писем. В результате компьютер выдал стихи вполне разумного содержания.

Он же создал тест, названный его именем, суть которого заключается в том, что ИИ должен убедить экспертов, что с ними общается живой человек, в то время как они общаются с компьютером. До сих пор тест компьютером не пройден. Причина в том, что ИИ способен имитировать только уже существующее, но не создавать новое.

Были и другие попытки заменить человека компьютером. Например, искусственный интеллект закончил симфонию №10, которую Густав Малер не успел закончить при жизни, базируясь на основе музыкального стиля автора. Используя современные методы компьютерных технологий, ученые попытались «воскресить» дух умершего композитора. Была создана нейросеть, которая, проанализировав первые шесть минут десятой симфонии Малера, выдвигала свои варианты ее продолжения. Компьютер предлагал четыре варианта, которые состояли из десяти нот, а человек выбирал из них самый лучший. ИИ снова анализировал музыку и предлагал свою последовательность нот. Так, используя рекуррентный метод, музыкальное произведение было завершено. Опрос слушателей показал, что многие из них заметили, когда закончилось оригинальное произведение, и началась часть, сгенерированная искусственным интеллектом. По их мнению, «в произведении перестала чувствоваться эмоциональная глубина». Создатели программы признают, «что хоть программа и проанализировала достаточный массив данных, ей не удается воссоздать типичные черты композитора, и слушатели могут легко заметить подвох».

«Работая над этой технологией, ученые задались вопросом, может ли быть ИИ настолько умным, чтобы самостоятельно создавать целые музыкальные произведения с нуля или же это прерогатива только человека? Пока таких программ не создано, ИИ до сих пор нуждается в человеческом контроле, чтобы «сочинить» что-то действительно стоящее. Создатели сравнивают такую функцию ИИ с написанием картин с помощью программного обеспечения: даже с появлением специальных программ картины хороших художников не теряют популярности».

«Компьютер можно назвать мыслящим, если ему удастся обмануть человека, заставив его поверить, что он не компьютер, а человек» [19].

Попасть в семейство ИИ сегодня просто, чему активно, и очень охотно способствуют СМИ. В действительности же вопросы ИИ гораздо глубже. Картезианские упрощения здесь неуместны.

Человеческая мысль «рассыпается» через синапсы подобно ртути, разливающейся из разбитой колбы, и последствия этих перемещений непредсказуемы. Из всего множества реакций мозг выбирает путем фильтрации те, которые неким образом связаны с деятельностью или интересами человека. При этом, если человек контролирует ход своих мыслей, некоторые из них, испугавшись, он отбросит как «крамольные». Если бы так поступали поэты, то вряд ли бы родились есенинские строки: «Выткался над озером белый свет зари». Поток сознания в процессе творчества – это и есть подсознание, или даже сверхсознание. Только таким путем смогли мистики Индии прийти к глубинам понимания строения материи, к которым материалисты-физики пришли в ХХ веке, и обнаружили, что все это, но только в иных терминах уже давно известно. Заслуга Гейзенберга и Бора заключается не только в том, что пришли к идеям квантовой физики, но и в том, что они усмотрели связь с Ведами Древней Индии. Переход от физики Ньютона к квантовой физике ознаменовал переход грани между материальными и духовными знаниями. Этот переход показал, что детерминированные процессы физического мира зарождаются в условиях хаоса, а накопление информации служит этому переходу. ИИ из «завалов информации», которые еще следует разместить внутри него, предстоит выстроить порядок, приемлемый для принятия адекватного решения. Здесь важную роль будут играть интеллектуальные возможности Архитектора ИИ, именно Архитектора, а не его Создателя, поскольку при всех талантах его разум (разум Архитектора) ограничен рамками все тех же познаний, которые он сумел накопить.

А теперь представим, что задачи по обеспечению безопасности мореплавания решают два и более ИИ, от разных Архитекторов, каждый из которых усмотрел своё видение проблемы. А иначе и невозможно, ведь полученные сигналы (информация) пройдут через фильтры, которые применил Архитектор (хорошо, если он имеет морское образование и опыт работы на судах). На почве «непонимания» возникнут проблемы восприятия информации. В качестве примера может служить текст МППСС-72. Прошли десятилетия, но единого мнения по применению Правил нет, да и не будет. Вопросы правомерности применения Правил решают эксперты в суде, отталкиваясь от субъективных мнений, которые зародились в хаосе подсознания.

Важно понять, что способности робота были и останутся продолжением способностей человека. Чтобы рассмотреть микромир изобрели микроскоп, но ведь это не искусственный глаз. Чтобы изучать глубины космоса, изобрели телескопы.

 

Границы ответственности искусственного интеллекта

С внедрением беспилотного судоходства на морском флоте неизбежно встанет вопрос ответственности за аварии, которые неизбежны. Уже есть примеры аварий с беспилотными автомобилями. Аварии неизбежны в любой отрасли – это плата за прогресс.  

«Вопрос ответственности за наносимый ИИ вред в настоящее время никак не регулируется: можно уйти от ответственности, и кто угодно может быть наказан Поэтому законодательство необходимо менять, так как оно не позволят сегодня применять ИИ, например, в медицине из-за работы с персональными данными» (А. Семенов, исп. Директор отраслевого союза «Нейро нет», РИА Новости)

Реалии применения заключаются в том, что ИИ способен выполнять только те задачи, на которые его запрограммировали. Компьютер Deep Blue после одержанной победы над Каспаровым разобрали. В проведении матча-реванша Каспарову было отказано. Это породило сомнения в реальности победы компьютера над человеком. Каспаров еще неоднократно играл с компьютерами разных производителей, и свел игры вничью.   

Заключение

«Удобство» современных технологий – меч обоюдоострый. Помогая и высвобождая человека от рутинных занятий, они одновременно ограничивают его когнитивные и мыслительные способности. Виртуальная реальность вытесняет настоящую реальность. Люди уподобляются крысам, следующим за музыкантом, повинуясь его мелодии, которую он исполняет на волшебной флейте. «Убаюкивание» ведет к росту «цифровых наркоманов», которые отдают реальный мир на откуп виртуальному, при этом физические и умственные способности утрачиваются. Критическое мышление заменяется слепым доверием, а реальность подменяется иллюзией.     

Овации в адрес ИИ преждевременны. Сегодня речь может и должна идти об автоматизированных системах управления, которые являются продолжением способностей человека заглянуть за горизонт, не теряя при этом способность обозревать сам горизонт.

Бесспорно, что сумма частей никогда не будет равна целому, а целое – это и есть интеллект. А как он поведет себя, и каковы будут последствия этого поведения, зависит от сознания, сформированого социумом.    

Полностью передоверять функции человека компьютеру опасно потому, что поддавшись внушению о своей беспомощности, человек становится по-настоящему беспомощным.

А исходя из реального состояния вопросов применения современных технологий на морском флоте, об использовании ИИ не может быть и речи. Правильно и уместно вместо термина «искусственный интеллект» применять иную терминологию – «автоматизированные системы управления» того или иного уровня. Стоит вспомнить высказывание Ф. Тютчева: «Мысль изреченная есть ложь», а ложь имеет глубокие последствия для умов незрелых и поверивших в нее. 

И в качестве предупреждения, уместно напомнить: «Загипнотизированные современной научной обстановкой, в которой мы родились и от которой, кажется, никуда не уйти, мы думаем, что единственная наша надежда – это все большее распространение машин, которые будут лучше нас видеть, лучше нас слышать, лучше нас считать, лучше, чем мы, лечить, – и, наверное, в конечном счете, жить лучше, чем мы живем. На самом же деле нам следует для начала осознать то, что мы можем действовать лучше, чем наша техника, и что чудовищной Машине, которая душит нас, суждено рассыпаться так же быстро, как она и возникла, – при условии, что мы завладеем рычагом истинной силы и низойдем в свое сердце методично и строго, подобно исследователю с ясным умом» [20].

 

Источники

1.    Капица С.П., Курдюмов С.П., Малинецкий Г.Г. «Синергетика и прогнозы будущего», Москва: УРСС, 2003

2.    Гегель Г.В.Ф. Энциклопедия философских наук. т. 1. М., 1974, с.240.

3.    Бхагаван Шри Раджниш (Ошо). Путь мистика СПб.: ИГ «Весь», 2013.

4.    Клизовский А.И. Основы миропонимания новой эпохи Изд.: Амрита, 2019 г.

5.    . А. Камю Шведские речи Электронная библиотека RoyalLib.com 

6.    David Jary, Julia Jury. Collins Dictionary of Sociology. Vol. 1

7.     Пригожин И., Стенгерс И. Порядок из хаоса: Новый диалог человека с природой М.: Прогресс, 1986

8.      Речкин А. «Троицкий вариант - Наука» № 11(330), 1.06. 2021 г.

9.    Perry London «The Modes and Morals of Psychotherapy»

10.  В. Франкл. Человек в поисках смысла Москва, Прогресс, 1990 г.

11. Тео Компернолле Мозг освобожденный. Как предотвратить перегрузки и использовать свой потенциал на полную мощь. Москва: Альпина Паблишер, 2015

12.  New-Science.ru https://new-science.ru/15-krupnejshih-atomnyh-elektrostancij-v-mire/

13.  Митио Каку «Будущее разума» М.: Альпина нон-фикшн, 2022. 

14. Со Ёсон. Мозг и разум в эпоху виртуальной реальности. Изд. АСТ 2021 г.

15.  А. Гинес. «Протез любви» (О фильме Стивена Спилбеpга 'Искyсственный интеллект') Электронная библиотека RoyalLib.com

16.  Григорьев Н., Наконечный М. «Правила МППСС-72: неопределенность при принятии решения» - Морской флот. - №05 2016,

17. Стивен Хокинг «Искусственный интеллект оживет» https://ria.ru/20180314/1516354149.html 

18. Говард Гарднер. Структура разума. Теория множественности интеллекта Москва [и др.]: Вильямс, 2007

19. Сатпрем. Шри Ауробиндо, или Путешествие сознания. Изд. Институт эволюционных исследований "савитри"

 

 
Связанные ссылки
· Больше про Этика
· Новость от Proatom


Самая читаемая статья: Этика:
ЕР - партия воров и коррупционеров или честных, принципиальных патриотов?

Рейтинг статьи
Средняя оценка работы автора: 0
Ответов: 0

Проголосуйте, пожалуйста, за работу автора:

Отлично
Очень хорошо
Хорошо
Нормально
Плохо

опции

 Напечатать текущую страницу Напечатать текущую страницу

"Авторизация" | Создать Акаунт | 17 Комментарии | Поиск в дискуссии
Спасибо за проявленный интерес

Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 09/07/2024
  • ИИ вместо Бога? ИИ вместо собственных мозгов? ИИ вместо человеческого отношения к близким? ИИ вместо оружия? Всё может заменить ИИ?
  • В первую очередь ИИ будет использован в оружии. Это правило относится ко всем новым технологиям. Без исключений. 
  • Как выглядит это оружие большинство и не поймут. Ведь это может быть проповедь (оружие слова), питание, питьё, одежда, транспорт, жильё, не говоря уже о болезнях тела и мозга. Или ядерно-радиационная мина в виде АЭС и их ОЯТ.
  • Но оружие ИИ легко может сталь летальным. Если нет или будет  потерян ЕИ. 
  • Дементий Башкиров


[ Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 09/07/2024
Человек обладает еще и сознанием, что ИИ несвойственно
Чтобы человек стал обладать ИИ, его надо напоить "до потери сознания"!


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 09/07/2024
Дементий Башкиров похоже, выгорел, иссяк, плавно перешел на божественные комменты и скоро начнет полемизировать с Никольским и иже с ним. А жаль! По его статьям и комментариям на Проатоме на профессиональную тему училось чуть ли не поколение атомщиков. Его блестящие материалы по энергетике, радиохимии, ядерным технологиям, экономике, металлургии, организации домохозяйства... пользовались неизменным спросом и обсуждались на всех уровнях в атомной тусовке. Не хотелось бы расставаться с таким автором. Администрация проатом, воздействуйте.  


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 09/07/2024
Дементий Башкиров похоже, выгорел, иссяк, плавно перешел на божественные комменты и скоро начнет полемизировать с Никольским и иже с ним. А жаль! По его статьям и комментариям на Проатоме на профессиональную тему училось чуть ли не поколение атомщиков. Его блестящие материалы по энергетике, радиохимии, ядерным технологиям, экономике, металлургии, организации домохозяйства... пользовались неизменным спросом и обсуждались на всех уровнях в атомной тусовке. Не хотелось бы расставаться с таким автором. Администрация проатом, воздействуйте.
-------------------------------------------
Дементий дело толкует, и тебе ли, умишком ущемлённому, давать ему оценки?


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 10/07/2024
Дементий Башкиров похоже, выгорел, иссяк, плавно перешел на божественные комменты и скоро начнет полемизировать с Никольским и иже с ним. А жаль! По его статьям и комментариям на Проатоме на профессиональную тему училось чуть ли не поколение атомщиков. Его блестящие материалы по энергетике, радиохимии, ядерным технологиям, экономике, металлургии, организации домохозяйства... пользовались неизменным спросом и обсуждались на всех уровнях в атомной тусовке. Не хотелось бы расставаться с таким автором. Администрация проатом, воздействуйте.  




Иоанн Златоуст (~347−407)
Ст. 1−4  Не судите, да не судимы будете, ибо каким судом судите, таким будете судимы; и какою мерою мерите, такою и вам будут мерить.


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 10/07/2024
Двое из "Туда-Сюдавождения, взялись обсуждать проблемы, в которых ни уха, ни рыла! Если бы они попользовали ChatGPT или GoogleBARD и то толковый текст получился бы.  В прилагаемом списке литературы авторы так же не замечены.   Так что Дементий Башкиров прав ссылаясь на бога, поскольку в статье пусто, как до сотворения Мира!


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 10/07/2024
А естественный интеллект в России теряется очень быстро. И основное это не низкие зарплаты в высшей школе, а тотальное ограничение гражданских прав и свобод. Надо пробовать шарашки опять.


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 15/07/2024
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ОБОСНОВАНИЕ ЯДЕРНОЙ БЕЗОПАСНОСТИ

Какова роль ИИ в атомной отрасли? В одном из примеров Palantir изучает возможность использования своего искусственного интеллекта, чтобы помочь операторам атомной отрасли быстрее и надежнее писать обоснования безопасности. Джанет Вуд поговорила с Ником Преттджоном из компании.

3 июля 2024 г.

Искусственный интеллект (ИИ) — это широко распространенная в настоящее время идея, которую одновременно обсуждают как решение многих текущих проблем и принижают как рискованную технологию, которая может вывести контроль из рук пользователей-людей. Николас Преттеджон, руководитель отдела искусственного интеллекта в Великобритании и странах Северной Европы компании Palantir, резюмирует его как «программное обеспечение, которое помогает компаниям решать их наиболее важные проблемы».
Преттеджон объясняет, что искусственный интеллект не предназначен для более быстрого выполнения простых задач, как это часто является обоснованием типов автоматизации, будь то аппаратное или программное обеспечение. Вместо этого речь идет о том, чтобы дать людям возможность делать сложные вещи.
Он приводит простой пример задачи, которая более сложна, чем кажется: задавать вопросы неструктурированным языком о согласии в международной компании, где документы составлены на разных языках и относятся к разным режимам разрешений. Он говорит: «Это те вещи, которые наиболее полезны. Гражданское общество будет говорить о том, что ИИ не будет использоваться в критических обстоятельствах – но именно в этом вся польза. Нам нужно найти способ думать о рисках и их смягчении».
Действительно, существует риск того, что ИИ даст «неправильный» ответ на неожиданный вопрос. Проблема ИИ, на которую часто обращают внимание, — это риск так называемых «галлюцинаций». Преттеджон сравнивает это с опытом работы с младшими сотрудниками. По его словам, они также могут выявить отклонения, «но вы можете справиться с этим внутри организации. У вас есть надзор, система сдержек и противовесов, и люди проверяют работу друг друга. Конечно, есть некоторые риски, которые невозможно полностью устранить, и именно здесь компании используют страхование».
Преттеджон говорит, что у большинства людей есть прокси-серверы для ИИ – имея в виду диспетчерские на атомных электростанциях, которые за десятилетия превратились из проводных сигналов тревоги «красного света» в экраны, предоставляющие как подробную информацию, которую можно запросить, так и рекомендуемые действия. Но он предполагает, что ИИ — скорее коллега. Он объясняет: «Если бы у каждого был помощник, вы бы могли постоянно обсуждать идеи, особенно если бы у них была ваша собственная база знаний и опыт работы – это было бы сотрудничество. Основная цель некоторых из наших наиболее успешных развертываний заключалась в том, чтобы конечный пользователь увидел интересную перспективу, о которой он даже не думал».
«С помощью искусственного интеллекта языковая модель также может получить доступ к корпоративным знаниям и, возможно, исследовать что-то из хранилища данных, что пользователь не оценил». Потому что ИИ обладает полной суммой всех знаний. «Вы действительно возвышаете своих операторов», — говорит он.
Преттеджон рассказывает об опыте Palantir по использованию искусственного интеллекта в сфере здравоохранения. Он подчеркивает, что первой целью должно быть улучшение качества, поскольку это получает поддержку со стороны пользователей. Он говорит: «Мы всегда думаем об ИИ с точки зрения повышения эффективности, но на примере больниц мы узнали, что с помощью ИИ невозможно повысить эффективность. Люди заботятся о своей работе, и они никогда не примут технологию, которая сделает их быстрее, если она не обеспечит лучший уход. Никогда." Сосредоточение внимания на улучшении качества медицинской помощи может включать, например, составление более четких и точных клинических

Прочитать остальные комментарии...


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 16/07/2024
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ОБОСНОВАНИЕ ЯДЕРНОЙ БЕЗОПАСНОСТИ
Смешиваются понятия обоснования безопасности (ОБ) и экспертизы безопасности (ЭБ). 
ОБ - комплексная научно-техническая проблема экспериментального и расчетного обоснования различных аспектов безопасности (не только ядерной). ОБ постоянно совершенствуется применяя все новые методы и приемы исследований.  ИИ здесь мало чем может помочь, т.к. обобщение данных из интернет-помойки дает просто противоречивые "умозаключения" ИИ, я это проверял. Еще долго, нудно и целенаправленно надо обучать нейросети ИИ, чтобы получить вразумительный результат, экспериментальные обоснования пока остаются строго под ЕИ!

ЭБ - другая сторона обоснования безопасности. Здесь главную роль играют нормативные документы регуляторов, которые ИИ уже хорошо "знает". В части "нормативки" ИИ вполне способен проанализировать ее на предмет полноты и непротиворечивости, "причесать" терминологию и семантику, исключить повторы и неоднозначность. 
Анализ с помощью ИИ имеющейся базы экспертных заключений вполне достижим уже в настоящее время. Обобщение этого опыта даст не только дополнительные знания и приемы экспертизы, но и вскроет различные махинации с ЭЗ, практикующиеся в достаточном количестве в Ростехнадзоре под "мудрым" руководством Ферапонтова А.В.  
Совершенно очевидно, что  именно Ферапонтов и есть и будет главным оппонентом внедрения ИИ в РТН.

С уважением к ПроАтому, 
  Катковский Е.А.


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 16/07/2024
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ОБОСНОВАНИЕ ЯДЕРНОЙ БЕЗОПАСНОСТИ
Смешиваются понятия обоснования безопасности (ОБ) и экспертизы безопасности (ЭБ). 
ОБ - комплексная научно-техническая проблема экспериментального и расчетного обоснования различных аспектов безопасности (не только ядерной). ОБ постоянно совершенствуется применяя все новые методы и приемы исследований.  ИИ здесь мало чем может помочь, т.к. обобщение данных из интернет-помойки дает просто противоречивые "умозаключения" ИИ, я это проверял. Еще долго, нудно и целенаправленно надо обучать нейросети ИИ, чтобы получить вразумительный результат, экспериментальные обоснования пока остаются строго под ЕИ!

ЭБ - другая сторона обоснования безопасности. Здесь главную роль играют нормативные документы регуляторов, которые ИИ уже хорошо "знает". В части "нормативки" ИИ вполне способен проанализировать ее на предмет полноты и непротиворечивости, "причесать" терминологию и семантику, исключить повторы и неоднозначность. 
Анализ с помощью ИИ имеющейся базы экспертных заключений вполне достижим уже в настоящее время. Обобщение этого опыта даст не только дополнительные знания и приемы экспертизы, но и вскроет различные махинации с ЭЗ, практикующиеся в достаточном количестве в Ростехнадзоре под "мудрым" руководством Ферапонтова А.В.  
Совершенно очевидно, что  именно Ферапонтов и есть и будет главным оппонентом внедрения ИИ в РТН.

С уважением к ПроАтому, 
  Катковский Е.А.




============================


PALANTIR - контора  серьёзная, вряд ли там ошибочно смешали
понятия обоснования безопасности (ОБ) и экспертизы безопасности (ЭБ).

Методология другая?


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 20/07/2024
PALANTIR - контора  серьёзная...


======================

Palantir ххлам ВСУ активно помогает, в т.ч. с ИИ...


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 16/07/2024
"вскроет различные махинации с ЭЗ" - а что это такое ЭЗ?


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 17/07/2024
ЭЗ - Экспертное Заключение (сокр).


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 19/07/2024
Замечательная кафедра тех. средств судовожденияб где трудится первый из авторов - профессорами являются люди с ученым званием доцента, а доцентами - люди вообще без званий и степеней. 


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 19/07/2024
Авторы от туда-сюда вождения ввели новую классификацию АЭС - АЭС с чистой мощностью:На 2014 г. самой мощной атомной электростанций была японская Kashiwazaki-Kariwa, с чистой мощностью около 7 965 МВт, занимающая площадь 4,2 кв. км. На втором месте канадская АЭС, чистая мощность которой 6 384 МВт, а занимаемая ею площадь около 9,32 кв. км.
Еще Ной брал на свой ковчег семь пар чистых и семь пар нечистых! 
На самом деле горе-авторы могли бы написать какую мощность реально блоки выдают в сеть, ведь есть еще и затраты на собственные нужды каждого блока! Но это уже высший пилотаж ИИ!


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 22/07/2024
Калифорнийский законопроект об искусственном интеллекте становится громоотводом — как для сторонников безопасности, так и для разработчиков

Автор Оуэн Дж. Дэниелс | 17 июня 2024 г.


В прошлом месяце Сенат штата Калифорния принял законопроект, регулирующий разработку и обучение передовых моделей искусственного интеллекта, направленный на то, чтобы гарантировать, что они не могут быть использованы злоумышленниками в неблаговидных целях. Принятие Закона о безопасных инновациях для передовых моделей искусственного интеллекта вызывает возмущение среди разработчиков, многие из которых ведут свою деятельность за пределами штата, утверждая, что это может критически затормозить инновации. Сторонники законопроекта, однако, считают, что быстро развивающиеся технологии требуют ограждений, а законодательство является разумным— хотя и ограниченным и несовершенным, первым шагом к законодательному закреплению передовых методов обеспечения безопасности.Сенатор штата Скотт Вайнер внес SB 1047 в Сенат Калифорнии в феврале, и в настоящее время в законопроект вносятся поправки в Ассамблее. Июньские поправки к законопроекту разъяснили несколько положений, которые привели к путанице в определениях, но также ввели формулировку, которая, по сути, гарантировала, что закон в первую очередь будет применяться к крупнейшим разработчикам моделей искусственного интеллекта, включая Anthropic, Google Deepmind, OpenAI и Meta, среди прочих. В августе законопроект будет вынесен на голосование Ассамблеи, чтобы определить, будет ли он принят в качестве закона.По своей сути SB 1047 направлен на то, чтобы привлечь разработчиков крупномасштабных моделей искусственного интеллекта к юридической ответственности за предоставление разумных гарантий того, что их модели не обладают опасными возможностями, которые могли бы нанести критический вред. Определение критического вреда в законопроекте включает создание химического, биологического, радиологического или ядерного оружия, которое может привести к массовым жертвам; кибератаки на критически важную инфраструктуру, которые наносят ущерб на сумму не менее 500 000 000 долларов; или действия автономной модели искусственного интеллекта, которые наносят ущерб такого же уровня, причиняют вред людям или приводят к краже, материальному ущербу или другим угрозам общественной безопасности. Чтобы избежать подобного вреда, разработчики должны иметь возможность полностью отключать свои модели, эффективно встраивая аварийные выключатели.
Предлагаемое законодательство применяется к моделям искусственного интеллекта, “обученным с использованием количества вычислительной мощности, превышающего 10 ^ 26 операций с целыми числами или операциями с плавающей запятой [FLOPS], и стоимость такого количества вычислительной мощности превысила бы сто миллионов долларов (100 000 000 долларов США)”. Другими словами, законопроект в первую очередь нацелен на крупнейшие будущие модели искусственного интеллекта (вероятно, больше, чем большинство даже современных продвинутых моделей), созданные компаниями, которые могут позволить себе самое дорогостоящее обучение моделям. В нем используется тот же показатель для обучения вычислительной мощности (10 ^ 26 ФЛОПОВ), который упоминается в Распоряжение администрации Байдена об искусственном интеллекте об определении моделей, охватываемых законопроектом. Согласно закону, если модель не получит исключения, ее разработчикам необходимо будет ежегодно представлять сертификат соответствия модели и сообщать об инцидентах, связанных с безопасностью искусственного интеллекта, связанных с их моделями, во вновь созданное подразделение Frontier Model в Технологическом департаменте Калифорнии.
Дебаты вокруг сенатского законопроекта 1047 подчеркивают важный момент: регулирующим органам необходимо будет пройти тонкую грань, чтобы создать законодательство, которое одновременно защищает от будущих рисков, связанных с передовыми моделями, которые в общих чертах определяются как искусственный интеллект общего назначения на переднем крае развития, без нега

Прочитать остальные комментарии...


[
Ответить на это ]


Re: Искусственный интеллект: оптом и в розницу. Окончание (Всего: 0)
от Гость на 22/07/2024
SB 1047 всегда подвергался критике за попытки регулировать мировых лидеров в области искусственного интеллекта на их родной территории
Любимая стратегия Запада - ограничивать развитие технологий в странах, не подчиняющихся его диктату!


[
Ответить на это ]






Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.11 секунды
Рейтинг@Mail.ru