«10 лет назад лучшие системы искусственного интеллекта в
мире не могли классифицировать объекты на человеческом уровне. <…>
Сегодня они по стандартным критериям регулярно превосходят человеческие
возможности», — открывал накануне заседание дискуссионного клуба Ecumene его
программный директор
Сергей Рыбаков. Для разговора о будущем
стремительно развивающейся технологии он собрал ведущих российских академиков,
представителей бизнеса и власти. И на фоне новостей о колоссальных инвестициях
в ИИ, которые почти ежедневно поступают от мировых гигантов, тезисы, озвученные
спикерами, обрисовали расклад сил довольно отрезвляюще.
Тон задал замглавы минцифры РФ, президент Академии
криптографии РФ Александр Шойтов. По его словам, если в течение
пяти лет в России не внедрить большинство технологий вроде интернета вещей,
сетей 5G и 6G, искусственный интеллект и прочее, то страна сильно отстанет в
мировом масштабе. Но сделать это не так-то просто. Первая сложность — санкции,
которые отрезали страну от поставок и взаимодействия с научным сообществом.
Вторая — отсутствие собственной электронной компонентной базы. «К сожалению,
этого у нас нет, и создавать подобное крайне сложно и в России, и в кооперации
с нашими дружественными странами», — признал он.
А в случае с искусственным интеллектом есть еще один
нюанс — это вопросы доверия (надежно ли функционирует ИИ) и информационной
безопасности. Шойтов убежден, что конкретные риски должны быть определены по
стандартной схеме в кибербезе, но по самой сложной модели. Например, если ИИ
управляет ядерным реактором, с помощью которого обрабатываются данные,
содержащие гостайну, и в этом реакторе есть внутренний нарушитель, а сами атаки
осуществляют иностранные спецслужбы.
«В Кодексе этики искусственного интеллекта прямо
прописано: мы будем обеспечивать информационную безопасность самыми
современными средствами. И в то же время есть пять видов известных атак на
искусственный интеллект! Никто из тех, кто присоединился к [кодексу], к
сожалению, не реализовал методы противодействия этим атакам. Я не знаю ни
одного», — констатировал замглавы минцифры РФ.
ИИ — новый атомный проект, а кумир создателя Сhat GPT
— Оппенгеймер
Научный руководитель национального центра физики и математики,
академик РАН Александр Сергеев пошел еще дальше и попытался
объяснить, как через благо, которое несет научно-технический прогресс,
автоматически появляется зло. По его словам, развитие искусственного интеллекта
похоже по своему объему влияния и последствиям на атомный проект. «Здесь очень
интересно привести пример Сэма Альтмана, создателя и директора Open
AI, который считает Роберта Оппенгеймера, руководителя Манхэттенского проекта,
своим идеалом, кумиром. Что интересно, они родились в один и тот же день — 22
апреля. В тот же день родился Владимир Ильич Ленин. Вот такой очень интересный
день есть у нас в году», — рассказал Сергеев.
Одно из основных применений искусственного интеллекта —
цифровые двойники, которые должны отличаться предиктивностью, считает ученый. И
даже в этом вопросе пример снова нашли из атомной отрасли. «Одна из важнейших
задач атомной отрасли — сделать цифровой двойник атомной станции. То есть не
просто систему, которая описывает, что сейчас происходит с подсистемами,
теплопередачей, генератором электричества, а [работает] предиктивно. Другими
словами, алгоритм подсказывает оператору атомной станции, как дальше будет
вести себя система, и помогает ему в случае возникновения сложных ситуаций
быстро их купировать. Если подобное будет сделано в атомной отрасли, это
[станет] грандиознейшим прогрессом. И это одна из задач, над которой сейчас
работает „Росатом“. Если нам удастся смоделировать управление атомными
станциями, то в других гораздо более простых ситуациях, конечно, мы с этим справимся».
Чем более доверенным становится искусственный интеллект,
тем больше люди опираются на него в плане принятия решений, опасается Сергеев.
«Если он начинает за нас принимать решения, точнее и лучше, чем мы сами, мы
говорим: „Ну супер, пускай он принимает решения“. А мы передадим ему все наши
персональные данные, потому что он дает нам великолепные советы. <.> К
сожалению, человеческая натура такова, что большинство с этим согласится.
Передача принятия решений искусственному интеллекту — это грандиозное изменение
человеческой сущности, устройства человеческого общества. И чем более
доверенный интеллект создают, тем это опаснее для общества, потому что мы
сознательно, с огромным удовольствием отдаем в руки ИИ принятие решений», —
считает он.
Еще академика беспокоит развитие общества постправды, к
которому ведет ИИ, и сохранность персональных данных. «Это три основные угрозы,
которые несет неизбежное развитие искусственного интеллекта и к решению которых
нам надо быть готовыми, ведь общество через 10–15 лет будет совсем другим», —
резюмировал он.
Российский ответ суперкомпьютерам
Языковая модель ChatGPT включает в себя более 170 млрд
варьируемых параметров и была обучена на более чем 400 гигабайтов обучающих
текстов, напомнил сопредседатель научных направлений национального центра
физики и математики, академик РАН Игорь Каляев: «Для сравнения: все
произведения Шекспира весят всего 5,5 мегабайта. И если вы будете читать по
одной странице текста в минуту, 24 часа в сутки, для того чтобы повысить свой
уровень до ChatGPT, вам нужно 400 лет», — привел наглядный пример он.
«Наши попытки создания ИИ, который заменил бы наш мозг с
помощью стандартных компьютерных технологий, с моей точки зрения, это путь в
никуда», — продолжил академик. Кроме того, обеспечить эффективное использование
больших суперкомпьютеров крайне сложно, по его словам, человеческий мозг «уже с
этим не справляется». А вот искусственный интеллект помочь может.
В качестве отечественной альтернативы в НЦФМ развивают в
том числе нейроморфные вычислительные системы — они функционируют по принципам,
присущим мозгу человека. Работают они на базе мемристоров — нового типа
проводников с эффектом памяти, сопротивление которого меняется в зависимости от
того, какое действие с ним проводили до этого. «Чем больше вы через него
пропускаете электрического заряда, тем у него более меняется его сопротивление.
И это свойство напоминает свойство нейронов человека, в частности синапсов», —
объяснял Каляев, подчеркивая, что эти системы не требуют высоких микроэлектронных
технологий. «Не нужно [достигать топологии чипов] 7 или 10 нанометров. Те
микроэлектронные технологии, которые есть у нас в стране, позволяют нам такую
элементную базу создавать», — рассказал ученый.
«…и к 2030 году все поймут, что мы великая айтишная
держава»
Кроме технологической составляющей, есть и гуманитарная,
указал директор Института системного программирования им. Иванникова, академик
РАН Арутюн Аветисян. В качестве иллюстрации он привел историю с
одним гонконгским банкиром, которого в феврале этого года вызвали на «встречу в
формате ВКС с головным офисом». Но видео псевдо-ВКС было сгенерировано
искусственным интеллектом, и в результате банкир перевел мошенникам $25
миллионов.
Это только одна из причин, по которой многие страны
стремятся зарегулировать работу ИИ. Например, в США было подписано соглашение,
в рамках которого американские техногиганты разработают и внедрят систему
водяных знаков для визуального и аудиоконтента. Фактически это означает
криминализацию ИИ, указал он. В России помочь обеспечить безопасность может
помочь репозиторий проверенного искусственного интеллекта.
«Мы не стремимся в ближайшие сроки создать технологии,
как у NVIDIA, нам важнее обеспечить безопасность данных с репозиторием
доверенных решений, в которых аккумулируются знания ученых из дружественных
стран. Все будет хорошо. И к 2030 году все поймут, что мы великая айтишная
держава», — психотерапевтически заверил академик Аветисян.
Под занавес внезапно всплыла новость, касающаяся
Татарстана. В декларации, которую страны БРИКС примут по итогам 16-го саммита в
Казани, собираются отразить вопросы, связанные с искусственным интеллектом,
сообщил Рыбаков.
«Я бы хотел сказать спасибо МГИМО, что поддержали нас в
рамках декларации казанского [саммита] БРИКС, подготовили и вопросы, связанные
с искусственным интеллектом, которые уже можно было включить в эту декларацию.
Потому что, к нашему удивлению, в рамках предыдущей декларации стран БРИКС
слова „искусственный интеллект“ не были упомянуты ни разу. И мы надеемся, что
сейчас в рамках казанской декларации это определение наконец туда войдет», —
заключил он.
Татьяна
Леонтьева, «БИЗНЕС
Online», 14.05.2024
Аватар заимствован здесь