proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





PRo IT
Подписка
Подписку остановить невозможно! Подробнее...
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

[14/05/2024]     Почему российские академики опасаются ИИ?

Нейросети — новый атомный проект, эпоха постправды уже наступила, а без чипов можно обойтись

«Чем более доверенный интеллект создают, тем это опаснее для общества, потому что мы сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений. Это грандиозное изменение человеческой сущности», — бьют тревогу российские академики. В числе рисков — дипфейки, попытки заменить человеческий мозг, сохранность персональных данных и многое другое. О том, какую альтернативу мощным суперкомпьютерам без высокой микроэлектроники сможет создать Россия, почему ИИ — новый атомный проект, а в казанской декларации БРИКС отразят вопросы искусственного интеллекта, — в материале «БИЗНЕС Online».



«ИИ регулярно превосходит человеческие возможности»

«10 лет назад лучшие системы искусственного интеллекта в мире не могли классифицировать объекты на человеческом уровне. <…> Сегодня они по стандартным критериям регулярно превосходят человеческие возможности», — открывал накануне заседание дискуссионного клуба Ecumene его программный директор Сергей Рыбаков. Для разговора о будущем стремительно развивающейся технологии он собрал ведущих российских академиков, представителей бизнеса и власти. И на фоне новостей о колоссальных инвестициях в ИИ, которые почти ежедневно поступают от мировых гигантов, тезисы, озвученные спикерами, обрисовали расклад сил довольно отрезвляюще. 

Тон задал замглавы минцифры РФ, президент Академии криптографии РФ Александр Шойтов. По его словам, если в течение пяти лет в России не внедрить большинство технологий вроде интернета вещей, сетей 5G и 6G, искусственный интеллект и прочее, то страна сильно отстанет в мировом масштабе. Но сделать это не так-то просто. Первая сложность — санкции, которые отрезали страну от поставок и взаимодействия с научным сообществом. Вторая — отсутствие собственной электронной компонентной базы. «К сожалению, этого у нас нет, и создавать подобное крайне сложно и в России, и в кооперации с нашими дружественными странами», — признал он.

А в случае с искусственным интеллектом есть еще один нюанс — это вопросы доверия (надежно ли функционирует ИИ) и информационной безопасности. Шойтов убежден, что конкретные риски должны быть определены по стандартной схеме в кибербезе, но по самой сложной модели. Например, если ИИ управляет ядерным реактором, с помощью которого обрабатываются данные, содержащие гостайну, и в этом реакторе есть внутренний нарушитель, а сами атаки осуществляют иностранные спецслужбы.

«В Кодексе этики искусственного интеллекта прямо прописано: мы будем обеспечивать информационную безопасность самыми современными средствами. И в то же время есть пять видов известных атак на искусственный интеллект! Никто из тех, кто присоединился к [кодексу], к сожалению, не реализовал методы противодействия этим атакам. Я не знаю ни одного», — констатировал замглавы минцифры РФ.

ИИ — новый атомный проект, а кумир создателя Сhat GPT — Оппенгеймер

Научный руководитель национального центра физики и математики, академик РАН Александр Сергеев пошел еще дальше и попытался объяснить, как через благо, которое несет научно-технический прогресс, автоматически появляется зло. По его словам, развитие искусственного интеллекта похоже по своему объему влияния и последствиям на атомный проект. «Здесь очень интересно привести пример Сэма Альтмана, создателя и директора Open AI, который считает Роберта Оппенгеймера, руководителя Манхэттенского проекта, своим идеалом, кумиром. Что интересно, они родились в один и тот же день — 22 апреля. В тот же день родился Владимир Ильич Ленин. Вот такой очень интересный день есть у нас в году», — рассказал Сергеев.

Одно из основных применений искусственного интеллекта — цифровые двойники, которые должны отличаться предиктивностью, считает ученый. И даже в этом вопросе пример снова нашли из атомной отрасли. «Одна из важнейших задач атомной отрасли — сделать цифровой двойник атомной станции. То есть не просто систему, которая описывает, что сейчас происходит с подсистемами, теплопередачей, генератором электричества, а [работает] предиктивно. Другими словами, алгоритм подсказывает оператору атомной станции, как дальше будет вести себя система, и помогает ему в случае возникновения сложных ситуаций быстро их купировать. Если подобное будет сделано в атомной отрасли, это [станет] грандиознейшим прогрессом. И это одна из задач, над которой сейчас работает „Росатом“. Если нам удастся смоделировать управление атомными станциями, то в других гораздо более простых ситуациях, конечно, мы с этим справимся».

Чем более доверенным становится искусственный интеллект, тем больше люди опираются на него в плане принятия решений, опасается Сергеев. «Если он начинает за нас принимать решения, точнее и лучше, чем мы сами, мы говорим: „Ну супер, пускай он принимает решения“. А мы передадим ему все наши персональные данные, потому что он дает нам великолепные советы. <.> К сожалению, человеческая натура такова, что большинство с этим согласится. Передача принятия решений искусственному интеллекту — это грандиозное изменение человеческой сущности, устройства человеческого общества. И чем более доверенный интеллект создают, тем это опаснее для общества, потому что мы сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений», — считает он.

Еще академика беспокоит развитие общества постправды, к которому ведет ИИ, и сохранность персональных данных. «Это три основные угрозы, которые несет неизбежное развитие искусственного интеллекта и к решению которых нам надо быть готовыми, ведь общество через 10–15 лет будет совсем другим», — резюмировал он.

Российский ответ суперкомпьютерам

Языковая модель ChatGPT включает в себя более 170 млрд варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих текстов, напомнил сопредседатель научных направлений национального центра физики и математики, академик РАН Игорь Каляев: «Для сравнения: все произведения Шекспира весят всего 5,5 мегабайта. И если вы будете читать по одной странице текста в минуту, 24 часа в сутки, для того чтобы повысить свой уровень до ChatGPT, вам нужно 400 лет», — привел наглядный пример он.

«Наши попытки создания ИИ, который заменил бы наш мозг с помощью стандартных компьютерных технологий, с моей точки зрения, это путь в никуда», — продолжил академик. Кроме того, обеспечить эффективное использование больших суперкомпьютеров крайне сложно, по его словам, человеческий мозг «уже с этим не справляется». А вот искусственный интеллект помочь может.

В качестве отечественной альтернативы в НЦФМ развивают в том числе нейроморфные вычислительные системы — они функционируют по принципам, присущим мозгу человека. Работают они на базе мемристоров — нового типа проводников с эффектом памяти, сопротивление которого меняется в зависимости от того, какое действие с ним проводили до этого. «Чем больше вы через него пропускаете электрического заряда, тем у него более меняется его сопротивление. И это свойство напоминает свойство нейронов человека, в частности синапсов», — объяснял Каляев, подчеркивая, что эти системы не требуют высоких микроэлектронных технологий. «Не нужно [достигать топологии чипов] 7 или 10 нанометров. Те микроэлектронные технологии, которые есть у нас в стране, позволяют нам такую элементную базу создавать», — рассказал ученый.

«…и к 2030 году все поймут, что мы великая айтишная держава»

Кроме технологической составляющей, есть и гуманитарная, указал директор Института системного программирования им. Иванникова, академик РАН Арутюн Аветисян. В качестве иллюстрации он привел историю с одним гонконгским банкиром, которого в феврале этого года вызвали на «встречу в формате ВКС с головным офисом». Но видео псевдо-ВКС было сгенерировано искусственным интеллектом, и в результате банкир перевел мошенникам $25 миллионов.

Это только одна из причин, по которой многие страны стремятся зарегулировать работу ИИ. Например, в США было подписано соглашение, в рамках которого американские техногиганты разработают и внедрят систему водяных знаков для визуального и аудиоконтента. Фактически это означает криминализацию ИИ, указал он. В России помочь обеспечить безопасность может помочь репозиторий проверенного искусственного интеллекта.

«Мы не стремимся в ближайшие сроки создать технологии, как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием доверенных решений, в которых аккумулируются знания ученых из дружественных стран. Все будет хорошо. И к 2030 году все поймут, что мы великая айтишная держава», — психотерапевтически заверил академик Аветисян.

Под занавес внезапно всплыла новость, касающаяся Татарстана. В декларации, которую страны БРИКС примут по итогам 16-го саммита в Казани, собираются отразить вопросы, связанные с искусственным интеллектом, сообщил Рыбаков.

«Я бы хотел сказать спасибо МГИМО, что поддержали нас в рамках декларации казанского [саммита] БРИКС, подготовили и вопросы, связанные с искусственным интеллектом, которые уже можно было включить в эту декларацию. Потому что, к нашему удивлению, в рамках предыдущей декларации стран БРИКС слова „искусственный интеллект“ не были упомянуты ни разу. И мы надеемся, что сейчас в рамках казанской декларации это определение наконец туда войдет», — заключил он. 

Татьяна Леонтьева, «БИЗНЕС Online», 14.05.2024

Аватар заимствован здесь 

 


 

 
Связанные ссылки
· Больше про Вопросник
· Новость от Proatom


Самая читаемая статья: Вопросник:
Система пошла вразнос

Рейтинг статьи
Средняя оценка работы автора: 1
Ответов: 2


Проголосуйте, пожалуйста, за работу автора:

Отлично
Очень хорошо
Хорошо
Нормально
Плохо

опции

 Напечатать текущую страницу Напечатать текущую страницу

"Авторизация" | Создать Акаунт | 10 Комментарии | Поиск в дискуссии
Спасибо за проявленный интерес

Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 15/05/2024
А что скажет начальник транспортного цеха? Катковский Е.А.! Наш суперэксперт, Вы где?


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 15/05/2024
Тон задал замглавы минцифры РФ, президент Академии криптографии РФ Александр Шойтов. По его словам, если в течение пяти лет в России не внедрить большинство технологий вроде интернета вещей, сетей 5G и 6G, искусственный интеллект и прочее, то страна сильно отстанет в мировом масштабе.//////////////Оказывается есть такая Академия??? Вот клоуны!


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 15/05/2024
Бюрократы от искуственного интеллекта в действии. Конференции, симпозиумы, заседания, круглые столы, банкеты...


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 14/05/2024
Пообщался я тут чат-ботом насчет холодного синтеза. Ну, что сказать, слабенько он от моих вопросов отбивался. А в конце и вовсе ответил, что хватит типа вопросы неудобные задавать. 


ИИ это двоечник с огромной такой шпаргалкой ;)


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 14/05/2024
Пообщался я тут чат-ботом насчет холодного синтеза.
ИИ черпает инфу для ответа в сети. Если 90% инфы с сети говорит, что Луна -  зелёная, то с гарантией, ответ на вопрос к ИИ о цвете Луны однозначен!
Я приводил на Проатоме примеры такого рода ответов от ИИ. Например насчет самого вредного и распространенного парникового газа.   Только настырность и цифры процентного содержания ПГ в атмосфере "прижали его к стенке", и он признал самым вредным и распространенным Н2О (водяной пар) а не СО2, но и тут пытался вывернуться, мол пар в разных местах имеет разную концентрацию и СО2 там может больше вредить. Это показатель не глупости ИИ, а захламленности интернета непроверенной, научно не обоснованной информацией, или даже просто дезинформацией, фейками.  Или еще хуже - политической ангажированностью.Создатели ИИ сами еще не понимают, как научить ИИ отделять дезу от инфы в процессе обучения. Особенно это важно, если мы стремимся к технологической сингулярности в применении ИИ.
Соответственно напрашивается простой вывод относительно ХУЯС - больше фактов, теоретических разработок и меньше фантазий и хотелок.  Тогда ИИ будет иметь базу для обобщения данных.
С уважением к Проатому,  Катковский Е.А.


[
Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 15/05/2024
17 марта 2023 13:20 Юлия Рудый
Убить за 90 секунд: ИИ впервые победил человека в воздушном бою

https://www.vesti.ru/nauka/article/3254455


--------------------



Дмитрий Скрипач 15.02.2023 Рейтинг: +845 Посты: 1548 ИИ впервые самостоятельно управлял новым самолетом Lockheed Martin более 17 часов

https://naked-science.ru/community/549518


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 14/05/2024
ИИ это новый способ порабощения и, в конечном счете, уничтожения людей, чтобы сделать "золотой миллиард".А по существу это блеф ради глобального превосходства капитала. Кибернетика, это совсем другое дело. Конечно от недалекого ума в СССР её гоняли из ВУЗов.


[ Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 14/05/2024
Значит ИИ не имеет отношения к кибернетике?


[
Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 14/05/2024
14 мая 2024Выпущена Gemini 1.5 Pro — умнейшая нейросеть от Google«Убийца» ChatGPT будет встроена в Gmail, Google Фото и даже в поисковик Google.


[
Ответить на это ]


Re: Почему российские академики опасаются ИИ? (Всего: 0)
от Гость на 15/05/2024
Чтоб академики не опасались они теперь будут за свою академичность получать ежемесячно: 200 тыр - член-коры, 400 тыр - академики


[
Ответить на это ]






Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.09 секунды
Рейтинг@Mail.ru