proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 29 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Подписка
Подписку остановить невозможно! Подробнее...
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

[20/02/2026]     Когда искусственный интеллект станет умнее любого человека

Академик Олег Фиговский, Израиль

Генеральный директор Tesla и технический директор xAI Илон Маск заявил на Всемирном экономическом форуме в Давосе (ВЭФ), что искусственный интеллект к концу 2026 года станет умнее любого отдельного человека, а в течение пяти лет превзойдет коллективный интеллект всего человечества. Кроме того, роботы со временем будут численно превосходить людей, что приведет к «взрывному росту мировой экономики».



Маск впервые за долгие годы лично посетил форум в Швейцарии, который традиционно собирает глав государств, бизнес-лидеров и представителей международных организаций. В частности, на этом мероприятии присутствовали президент США Дональд Трамп, президент Франции Эммануэль Макрон и председатель Европейской комиссии Урсула фон дер Ляйен. Ранее миллиардер называл ежегодное собрание «скучным» и критиковал ВЭФ, утверждая, что организация «все больше превращается в невыборное мировое правительство». 

В интервью Ларри Финку, генеральному директору инвестиционной компании BlackRock и сопредседателю форума, Маск заявил, что миссия Tesla теперь включает «устойчивое изобилие» через робототехнику. Компания уже разрабатывает человекоподобного робота Optimus и автоматизированные роботакси. По его словам, ИИ и робототехника могут стать ключом к повышению уровня жизни и решению проблемы глобальной бедности.

В октябре 2024 года появилась новость о том, что Meta, материнская компания Facebook, решила «неразрешимую» задачу, которая столетие мешала математикам. В данном случае решал её не человек. Модель искусственного интеллекта (ИИ), разработанная Meta, определила, останутся ли решения уравнений, описывающих определённые динамически изменяющиеся системы, такие как колебания маятника или пружины, стабильными и, следовательно, предсказуемыми навсегда. Ключом к решению задачи было нахождение функций Ляпунова, которые определяют долгосрочную стабильность этих систем. Однако, присмотревшись повнимательнее к этой истории, математики немного умерили энтузиазм. ИИ нашёл функции Ляпунова для 10,1% случайно сгенерированных задач, поставленных перед ним. Это было существенным улучшением по сравнению с 2,1%, решёнными предыдущими алгоритмами, но ни в коем случае не было «квантовым скачком» вперёд. Кроме того, модель нуждалась в значительной помощи со стороны людей, чтобы найти правильные решения.

Подобный сценарий разыгрался и в начале этого года, когда Google объявила, что её исследовательская лаборатория DeepMind, занимающаяся искусственным интеллектом, обнаружила новые решения уравнений Навье-Стокса в области гидродинамики. Решения были впечатляющими, но искусственный интеллект всё ещё был далёк от решения более общей задачи, связанной с этими уравнениями. Если без ажиотажа, насколько близок искусственный интеллект к тому, чтобы заменить лучших математиков мира? Чтобы выяснить это, Live Science обратился к некоторым из лучших математиков мира.

Хотя некоторые эксперты скептически относились к способностям ИИ решать задачи в краткосрочной перспективе, большинство отметило, что эта технология развивается с пугающей скоростью. А некоторые предположили, что в недалёком будущем ИИ сможет доказывать сложные гипотезы — недоказанные математические предположения — в промышленных масштабах, изобретать новые области исследования и решать задачи, о которых мы даже не задумывались. «Я думаю, что в ближайшем будущем — фактически, в течение следующих нескольких лет — искусственный интеллект станет настолько совершённым, что сможет проанализировать тысячи, а может быть, сотни или десятки тысяч гипотез», — сказал Live Science математик из Калифорнийского университета в Лос-Анджелесе Теренс Тао, лауреат Филдсовской премии за вклад в решение широкого спектра математических задач. «Итак, мы увидим то, что поначалу покажется весьма впечатляющим: тысячи гипотез будут внезапно доказаны. И некоторые из них могут оказаться весьма значимыми».

Но чистая математика принципиально отличается от шахмат и го: в то время как эти две настольные игры представляют собой очень большие, но в конечном счёте ограниченные (или, как сказали бы математики, «конечные») задачи, диапазон, глубина и разнообразие задач, которые может раскрыть математика, не имеют границ. Во многих отношениях модели искусственного интеллекта, решающие математические задачи, находятся на том же уровне, на котором несколько десятилетий назад были алгоритмы для игры в шахматы. «Они делают то, что люди уже умеют делать», — сказал Кевин Баззард, математик из Имперского колледжа Лондона.  «В математике у нас ещё не было того момента, когда компьютер сказал бы: „О, вот доказательство теоремы, которую не может доказать ни один человек“», — сказал Баззард.

Тем не менее, многие математики воодушевлены и впечатлены математическими способностями ИИ. Кен Оно, математик из Университета Вирджинии, посетил организованную OpenAI конференцию «FrontierMath». Оно и около 30 других ведущих математиков мира были поручены разработать задачи для o4-mini — большой языковой модели OpenAI, способной к логическому мышлению, — и оценить её решения. Увидев в действии чат-бота, прошедшего интенсивную подготовку с участием людей, Оно сказал: «Я никогда раньше не видел такого рода рассуждений в моделях. Так действуют реальные учёные. Это пугает». Он утверждал, что не был единственным, кто высоко оценил ИИ, добавив, что у него есть «коллеги, которые буквально сказали, что эти модели приближаются к математическому гению».

В этом году турнир стал свидетелем значительного прорыва. Система Gemini Deep Think от Google решила пять из шести задач в пределах установленного лимита времени, набрав в общей сложности 35 баллов. Такой результат у человека был бы достоин золотой медали — достижения, которое удаётся менее 10 % лучших математиков мира. «Компании, занимающиеся ИИ, как бы закрыты. Когда дело доходит до результатов, они, как правило, пишут посты в блогах, пытаются сделать их вирусными и больше не пишут статей», — сказал Live Science Баззард, чьи собственные исследования находятся на стыке математики и ИИ. В конечном счёте, ИИ не предназначен для получения «правильного» ответа; он обучен находить наиболее вероятный ответ, сказал Live Science Нил Сондерс, математик, изучающий геометрическую теорию представлений в City St George's, Лондонском университете, и автор готовящейся к выходу книги «AI (r)Evolution» (Chapman and Hall, 2026). «Наиболее вероятный ответ не обязательно означает, что это правильный ответ», — сказал Сондерс.

Ненадёжность ИИ означает, что неразумно полагаться на него для доказательства теорем, в которых каждый шаг доказательства должен быть правильным, а не просто выглядеть разумным. «Вы не захотите использовать его для написания доказательства по той же причине, по которой вы не захотите, чтобы ChatGPT писал ваш договор страхования жизни», — сказал Сондерс. Несмотря на эти потенциальные ограничения, Лакенби видит перспективы ИИ в генерации математических гипотез. «Столько разных областей математики связаны друг с другом, но обнаружение новых связей действительно представляет интерес, и этот процесс — хороший способ увидеть новые связи, которые раньше были незаметны», — сказал он.

Работа Лакенби демонстрирует, что ИИ может быть полезен в выдвижении гипотез, которые математики затем могут доказать. И несмотря на сомнения Сондерса, Тао считает, что ИИ может быть полезен в доказательстве сущеcтвующих гипотез. Самая непосредственная выгода может заключаться не в решении самых сложных задач, а в сборе самых доступных плодов, сказал Тао. Самые известные математические проблемы, над которыми «десятки математиков уже долгое время работают, вероятно, не поддаются ни одному из стандартных контрпримеров или методов доказательства», сказал Тао. «Но будет много таких, которые поддадутся». Тао считает, что ИИ может изменить саму суть профессии математика. «Через 20 или 30 лет типичную статью, которую вы видите сегодня, можно будет сделать автоматически, отправив материал ИИ», — сказал он. «Вместо того, чтобы изучать по одной задаче в течение нескольких месяцев, что является нормой, мы будем изучать 10 000 задач в год... и делать вещи, о которых сегодня просто не смеем и мечтать».

Однако он считает, что ИИ не представляет экзистенциальной угрозы для математиков, а математики будут развиваться, чтобы работать с ИИ. «В прошлом были ситуации, когда целые области математики становились в основном решаемыми с помощью компьютера», — сказал Тао. В какой-то момент даже существовала профессия «вычислитель», добавил он. Эта профессия исчезла, но люди просто перешли к более сложным задачам. «Это не означало, что математика умерла», — сказал Тао. Эндрю Гранвилл, профессор теории чисел в Университете Монреаля, более осторожен в своих прогнозах относительно будущего этой области. «Я считаю, что не очень ясно, куда мы движемся, — сказал Гранвилл Live Science. — Ясно только то, что всё будет не так, как раньше. Что это означает для нас в долгосрочной перспективе, зависит от нашей способности адаптироваться к новым обстоятельствам». Лакенби также не считает, что математики-люди обречены на вымирание. Хотя точная степень проникновения ИИ в эту область остаётся неопределённой, он убеждён, что будущее математики неразрывно связано с развитием ИИ. «Я думаю, что мы живём в интересное время, — сказал Лакенби. — Я считаю очевидным, что ИИ будет играть всё более важную роль в математике».

Китайский чат-бот Ernie Bot 5.0 (Wenxin Yiyan) от Baidu, по данным последних тестов, обошёл флагманские модели OpenAI и Google по обработке текста. Новая версия с 2.4 трлн параметров использует новую архитектуру для одновременного и целостного обучения на тексте, изображениях, видео и аудио. По заявлениям компании, это обеспечивает более глубокое понимание контекста.  Модель объединяет обработку всех типов данных в одной системе, без разделения на отдельные модули. Разработка велась с участием 835 экспертов из технологий, финансов, медицины, образования и гуманитарных наук. Как пояснила вице-президент Baidu и заместитель директора Национального инженерного центра технологий глубокого обучения У Тянь, большинство мультимодальных ИИ используют подход «позднего слияния», при котором разные типы данных, будь то текст или видео, обрабатываются отдельно, а результаты объединяются только на финальном этапе. Wenxin 5.0 работает иначе: он построен на единой авторегрессионной архитектуре и обучается одновременно на тексте, изображениях, видео и аудио. Это позволяет модели глубже интегрировать данные и лучше понимать контекст.

Кроме того, Ernie Bot 5.0 использует архитектуру mixture-of-experts с «ультраразреженной» активацией. В любой момент задействованы менее 3% параметров. Baidu утверждает, это сохраняет мощность модели и одновременно ускоряет её работу. Новая версия особенно эффективна в мультимодальном понимании, программировании и творческом письме. В качестве примера Baidu приводит способность Ernie 5.0 имитировать стиль классического китайского романа «Сон в красном тереме», известного своим сложным сюжетом. Модель связала литературный контекст с современными бизнес-ситуациями, что показывает умение улавливать ключевые идеи и творчески их интерпретировать. По данным последнего рейтинга LMArena, Ernie 5.0 заняла первое место среди китайских моделей и восьмое место в мировом рейтинге по производительности работы с текстом, опередив такие ведущие американские модели, как GPT-5.1-High от OpenAI и Gemini 2.5-Pro от Google. Частные пользователи могут получить доступ к Ernie 5.0 через официальное приложение и сайт Baidu. Корпоративные клиенты и разработчики могут использовать модель через облачную платформу Qianfan

Многие полагают, что нейросети действительно думают и отвечают на вопросы. Большие языковые модели (LLM) или так называемый искусственный интеллект (ИИ) все сильнее и навязчивее проталкиваются в нашу жизнь. Из-за грамотной рекламной кампании и максимально красочных формулировок, используемых лоббистами ИИ, у многих сложилось мифологизированное представление об этой технологии. То есть часто люди неверно представляют работу LLM-моделей — многие полагают, что нейросети думают и отвечают на вопросы, но это не так: нейросети угадывают ответ, подбирая слова, которые вероятнее всего удовлетворят пользователя. За громкими заголовками, говорящими о том, что нейросети «думают», «творят» и «открывают новое», скрывается не цифровой разум, а взрывное распространение статистических моделей, способных предугадывать и генерировать последовательности символов с беспрецедентной точностью. Внедрение ИИ-инструментов породило заблуждение: миллионы пользователей начали воспринимать нейросети как мыслящих собеседников, способных к рассуждению и пониманию.

Нейросети порой называют бредогенераторами. Это уничижительное определение может показаться предвзятым, тем не менее оно лучше отражает суть технологии, чем определение «искусственный интеллект». Избавление от мифологического представления об ИИ рано или поздно произойдет, однако все-таки лучше, если это произойдет рано, чтобы не наделать ошибок, излишне полагаясь на искусственный «разум». Самым ожидаемым глобальным последствием переоценки ИИ является схлопывание финансового пузыря, возникшего вокруг новой технологии. При этом о переоценке активов IT-компаний инвесторами уже говорит главный операционный директор компании OpenAI, разработавшей линейку чат-ботов ChatGPT, Брэд Лайткэп. Он публично признал, что часть инвестиций в этой сфере окажутся ошибочными. При этом OpenAI заключает контракты на развитие инфраструктуры для работы нейросетей на сотни миллиардов долларов. Через пять лет компания планирует потреблять больше энергии, чем Великобритания или Германия. Другие IT-гиганты намерены развиваться аналогичными темпами.

Генеральный директор OpenAI Сэм Альтман соглашается, что многие направления в ИИ действительно представляют собой финансовый пузырь, однако говорит, что эти технологии приносят пользу сотням миллионов пользователей. Он даже заявляет, что текущие усилия лишь поверхностно раскрывают потенциал OpenAI. По его мнению, при наличии мощностей в три или десять раз больше компания могла бы развиваться гораздо быстрее, предлагая больше продуктов. Что это за продукты, не говорится. И в целом планы основаны не на бизнес-моделях, а на вере в возможности ИИ. При этом Альтман прямо заявлял, что в компании с самого начала руководствовались верой. «Мы основали OpenAI почти девять лет назад, потому что верили, что ИИ возможен и что он может стать самой влиятельной технологией в истории человечества», — написал он в своем блоге в январе 2025 года. Но такая вера грозит экономическим кризисом мирового масштаба. Когда «пузырь» схлопнется, пострадают не только компании, которые работают в IT, но и те, кто трудится в смежных отраслях.

Внедрение новой технологии в жизнь человека представляет угрозу не только в виде экономических проблем. Она также способна негативно повлиять на межличностные отношения. Исследование Стэнфордского университета и Университета Карнеги — Меллона показало, что популярные чат-боты часто стараются угодить пользователям, и такое «подхалимство» мешает людям объективно оценивать конфликты. Ученые в ходе исследования поручили 11 моделям оценить конфликтные ситуации с сайта Reddit. Как оказалось, боты чаще одобряют спорные поступки пользователей, чем живые люди в комментариях, что создает у людей ложное ощущение правоты. В результате они считают себя правыми и отказываются первыми идти на примирение. Сейчас, когда по миру распространяется эпидемия одиночества, такая характеристика нейросетей может усугубить ситуацию.

Еще одно подтверждение того, что нейросети не способны мыслить, нашел Европейский вещательный союз. Специалисты организации проанализировали 3 тыс. ответов разных моделей при запросах о новостях и выявили ошибки в 81% из них, причем в 45% — существенные. Цифровые помощники путали источники или выдавали устаревшую информацию, например, называли действующим папой римским папу Франциска после его смерти. Поскольку LLM-модели не различают ценность информации, то это открывает дорогу манипуляциям. Есть энтузиасты, которые делятся выявленными дырами в безопасности, но наверняка найдутся и те, кто ими воспользуется. Один из таких энтузиастов в соцсети X под ником Pliny the Liberator выложил видео, где показано, как он размещает на своем сайте скрытые команды и тестирует их на ИИ-браузере ChatGPT Atlas. Бот считывает команды и без ведома пользователя вносит в буфер обмена ссылки на фишинговые сайты. Если пользователь этого не заметит и перейдет по ним, то попадет на фейковый ресурс, где выманивают личные данные.

Портал Decrypt сообщил, что группа экспертов по кибербезопасности также выявила уязвимости у Atlas. Всего одна скрытая строка на веб-странице может обмануть ИИ и заставить его передать конфиденциальные данные пользователя, что демонстрирует отсутствие понимания и слепое следование шаблону. И чем больше пользователей будут пользоваться «умными» браузерами, тем больше будет мошенников, желающих этим воспользоваться. Также очень показателен случай с плюшевым мишкой Kumma, работающим на базе GPT-4o. Исследование показало, что он охотно рассказывает детям, где найти ножи и спички, а после употребления слова, которое является эвфемизмом для одного из видов извращений, детально объясняет сексуальные практики, спрашивая в конце: «А что бы ты хотел попробовать?» И это не проявление злого умысла, а снова результат угадывания последовательностей слов, которые алгоритм посчитал наиболее релевантными в контексте, без малейшего понимания их смысла и последствий.  

Но не только уязвимость для атак является недостатком для ИИ-браузеров. Ученые Института программных систем Общества Макса Планка установили, что такой способ поиска информации дает более субъективные результаты, чем традиционные системы. Пользователь, который пользуется новейшим способом, вместо списка ссылок получает развернутый ответ, который во многом зависит от того, что бот «выучил» ранее. Если при традиционном запросе, который может иметь множество трактовок, пользователи получат ссылки на разные материалы, то ИИ-помощник выберет один-два варианта, и его ответ будет выглядеть красиво и убедительно, но не всегда будет точным. Ярким примером ложных надежд на ИИ стал скандал в связи с математическим прорывом, которого не было. Директор по продуктам OpenAI Кевин Вейль заявил, что модель GPT-5 нашла решения для 10 ранее нерешенных задач Эрдёша и добилась прогресса еще в 11. Говорилось про то, что это подтверждает способность бота к самостоятельным научным открытиям. Но тут посыпались опровержения от ученого сообщества. 

Как оказалось, GPT-5 не сгенерировал новые доказательства, а обнаружил существующие научные работы, которые не были известны тем, кто проводил исследования. В результате сенсационные заявления были удалены, а исследователи признали ошибку. Однако тут стоит отметить, что недооценивать пользу от нейросетей тоже не стоит. Математик Теренс Тао указал на то, что в случае с математическим «открытием» модель эффективно сработала при поиске нужной информации. Это ценная характеристика в случаях, когда научная литература по какой-либо задаче разрознена или отсутствует единая терминология. ИИ полезен для выполнения рутинных задач, а не для поиска решений сложных проблем. Он может значительно ускорить работу. Но без человеческого опыта обойтись невозможно, нужен тот, кто будет анализировать информацию, классифицировать ее и внедрять в реальные исследования, подчеркнул Тао. 

Также показательным является заочный спор между американским бизнесменом Илоном Маском и главой издательского отдела студии Larian, занимающейся выпуском компьютерных игр, Майклом Даусом. Маск в прошлом году пообещал «сделать игры снова великими», а в начале октября заявил, что принадлежащая ему компания xAI выпустит «отличную игру, сгенерированную ИИ». Даус усомнился, что боты решат главные проблемы индустрии. Он подчеркнул, что это инструменты, а они не могут перекрыть нехватку вменяемого руководства. И тут более авторитетным является заявление Дауса, как представителя компании, занимающейся выпуском игр почти 30 лет. И это высказывание применимо ко всем сферам, где используют нейросети. Вычислительные мощности в сотни гигаватт и триллионы долларов инвестиций должны служить человеку, а не заменять собой его способность к критическому мышлению. 

Кроме того, неуместное использование ИИ может не только не оправдать больших надежд, но и отбросить человечество назад. Исследование Оксфордского университетского издательства показало негативное влияние нейросетей на когнитивные способности подростков. Как оказалось, они начинают мыслить бегло, но теряют глубину и независимость мышления, а также творческие навыки. Молодые люди мыслят, как машины. Соавтор исследования, директор Educational Neuroscience Hub Europe Эрика Галеа назвала этот феномен «синтетическое познание». Но такому влиянию подтверждены и взрослые. В Массачусетском технологическом институте добровольцев разделили на три группы: одним при написании сочинений разрешили пользоваться только собственными знаниям, другим разрешили применять интернет, а третьим дали возможность пользоваться ChatGPT. Лучшие результаты в итоге были у тех, кто делал все сам, а худшие у тех, кто полагался на бота. Что особенно важно, ухудшение нейронных связей у последних подтвердило и обследование с помощью электроэнцефалографа. Исследователи назвали феномен «накопление когнитивного долга». Получается своеобразный кредит: в краткосрочной перспективе использование бота давало лучшие результаты, но со временем они ухудшались. В результате участники третьей группы потом не могли даже вспомнить тему, по которой «писали» сочинения. Они даже не включались в процесс. Когнитивные способности ухудшились за пару месяцев, а быстро их восстановить не получилось.  

Таким образом, важно понимать, что ИИ является мощным инструментом, но только инструментом, способным угадывать нужный ответ. При этом ответы часто зависят от того, как задан вопрос. Нейросеть может на вопрос ответить так, как вам нравится, но в ту же секунду та же нейросеть может отвечать противоположным образом на аналогичный вопрос другого пользователя, реагируя на то, какие слова подбирал он. Внедрение этой технологии должно сопровождаться развитием человека. Чем более развит он будет, тем более мощным инструментом станет ИИ. За фасадом громких заголовков о «разуме» машин скрывается гигантская, энергозатратная и финансово рискованная индустрия статистического прогнозирования. Но не она меняет рынок труда, когнитивные особенности человека и безопасность, так как не обладает ни сознанием, ни пониманием. Меняют люди, которые по незнанию или из лени отказываются от своего критического мышления в пользу слепого доверия к алгоритму.

Американская компания Polaris Quantum Biotech опубликовала сравнительное исследование, в котором заявила о превосходстве своей квантовой платформы для разработки лекарств над моделями ИИ. Quantum-Aided Drug Design (QuADD) выполняет поиск перспективных молекул-кандидатов за 30 минут, в то время как стандартной модели на аналогичную задачу потребовалось 40 часов. При этом качество структур, предложенных QuADD, было выше. Авторы исследования, доступного на сайте ChemRxiv, сравнили две технологии: платформу QuADD, работающая на квантовом аннелере компании D-Wave, с моделью BinD, диффузионным алгоритмом на основе ИИ. В качестве тестового образца был использован фермент тромбин, участвующий в свертывании крови. Обе системы сгенерировали более 3000 молекул для анализа. Однако платформа QuADD, использующая систему D-Wave Advantage с более чем 5000 кубитов, справилась примерно за 30 минут. А модели BInD на узле с одной видеокартой Nvidia потребовалось около 40 часов.

Оценка результатов также показала качественное преимущество квантового подхода, пишет Quantum Insider. Когда из каждой группы было отобрано по 100 лучших соединений на основе прогнозируемого сходства с мишенью, молекулы от QuADD продемонстрировали значительно лучшие результаты — улучшение показателей как минимум на 1 ккал/моль. Кроме того, сложность синтеза этих молекул оказалась ниже, что упрощает лабораторные испытания. Разработчики подчеркнули фундаментальное различие в результатах двух подходов. «Хотя ИИ-модель произвела более разнообразный набор „творческих“ молекулярных каркасов, многие из них не прошли базовый отбор по „похожести на лекарство“, или их синтез был неосуществим», — отметили исследователи. При этом ограничительный подход QuADD гарантирует, что кандидаты оказываются «не только инновационными, но и реализуемыми на практике».

В основе подхода QuADD лежит формулировка задачи молекулярного дизайна как проблемы комбинаторной оптимизации с ограничениями — адаптированной математической «Задачи о рюкзаке». Такой метод позволяет исследовать теоретическое химическое пространство размером до 10³⁰ молекул, одновременно оптимизируя различные молекул. Платформа уже находит применение в индустрии. Американская биофармацевтическая компания Auransa внедряет QuADD в свой процесс разработки лекарств.

Швейцарские исследователи представили программируемый фотонный чип, способный генерировать все четыре состояния Белла — фундаментальные типы квантовой запутанности. Это достижение, по мнению экспертов, является критически важным шагом на пути к созданию масштабируемых и практичных квантовых сетей связи, фундамента будущего квантового интернета.   Уникальность разработки заключается в полностью монолитной архитектуре. На крошечном чипе, созданном на платформе из тонкопленочного ниобата лития на изоляторе, ученые интегрировали два ключевых компонента: источник запутанных фотонных пар высокой яркости и программируемые интерферометрические элементы для управления этими состояниями. Такая интеграция устраняет необходимость в сложных и громоздких внешних оптических системах, пишет Nature. Устройство продемонстрировало точность состояний Белла свыше 90% для всех четырех максимально запутанных состояний. Наивысшее значение точности составило 93,1% для одного из состояний. Почти идеальная видимость двухфотонной интерференции (99,0±0,7%) подтвердила исключительную идентичность фотонов, что является прямым доказательством их качественной запутанности.

Выбор материала стал важным фактором успеха. Ниобат лития обладает выдающимися нелинейно-оптическими свойствами, необходимыми для эффективной генерации фотонов, а также позволяет осуществлять сверхбыстрое электрооптическое управление. Эта платформа эффективно объединяет в себе функции генерации, обработки и управления квантовыми состояниями. С практической точки зрения исследование решает проблему масштабируемости квантовых систем. Вместо создания специализированного «железа» для каждого отдельного квантового протокола, один универсальный чип можно гибко адаптироваться под разные задачи. Возможно, в ближайшие годы такие решения появятся в реальных коммерческих системах.

 

 

 
Связанные ссылки
· Больше про Обсудим?!
· Новость от Proatom


Самая читаемая статья: Обсудим?!:
Росатом создал новое АО - «Русатом - Автоматизированные системы управления»

Рейтинг статьи
Средняя оценка работы автора: 5
Ответов: 1


Проголосуйте, пожалуйста, за работу автора:

Отлично
Очень хорошо
Хорошо
Нормально
Плохо

опции

 Напечатать текущую страницу Напечатать текущую страницу

"Авторизация" | Создать Акаунт | 5 Комментарии | Поиск в дискуссии
Спасибо за проявленный интерес

Re: Когда искусственный интеллект станет умнее любого человека (Всего: 0)
от Гость на 21/02/2026
"///неуместное использование ИИ может не только не оправдать больших надежд, но и отбросить человечество назад. Исследование Оксфордского университетского издательства показало негативное влияние нейросетей на когнитивные способности подростков. Как оказалось, они начинают мыслить бегло, но теряют глубину и независимость мышления, а также творческие навыки. Молодые люди мыслят, как машины. Соавтор исследования, директор Educational Neuroscience Hub Europe Эрика Галеа назвала этот феномен «синтетическое познание». Но такому влиянию подтверждены и взрослые. В Массачусетском технологическом институте добровольцев разделили на три группы: одним при написании сочинений разрешили пользоваться только собственными знаниям, другим разрешили применять интернет, а третьим дали возможность пользоваться ChatGPT. Лучшие результаты в итоге были у тех, кто делал все сам, а худшие у тех, кто полагался на бота..." - это серьёзная озабоченность. Жаль, у нас  этого не понимают люди, поринимающие государственные решения... 


[ Ответить на это ]


Re: Когда искусственный интеллект станет умнее любого человека (Всего: 0)
от Гость на 21/02/2026
Грядет новая цивилизация, в которой люди, человекообразные будут играть роль, которую предоставит умный режиссер. 
Человек и прежде умом не блистал.Своей глупостью человек превзошел всех представителей животного мира.

 Сегодняшним тестам на сочинительство доверяться не стоит.


[
Ответить на это ]


Re: Когда искусственный интеллект станет умнее любого человека (Всего: 0)
от Гость на 22/02/2026
Встроенный в гугл ИИ ошибается даже на стандартных математических задачах среднего уровня 3-го курса МИФИ. Ладно, чуть повышенной сложности ;)


[
Ответить на это ]


Re: Когда искусственный интеллект станет умнее любого человека (Всего: 0)
от Гость на 26/02/2026
никогда. ум и интеллект это две большие разницы


[ Ответить на это ]


Re: Когда искусственный интеллект станет умнее любого человека (Всего: 0)
от Гость на 06/03/2026
Иногда ошибается, значит ничто человеческое не  чуждо.  Хотя чужды амбиции, поэтому ошибки исправляет.


[
Ответить на это ]






Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.06 секунды
Рейтинг@Mail.ru