PRoAtom
proatom.ru - сайт агентства ПРоАтом
Журналы Атомная стратегия 2024 год
  Агентство  ПРоАтом. 28 лет с атомной отраслью!              
Навигация
· Главная
· Все темы сайта
· Каталог поставщиков
· Контакты
· Наш архив
· Обратная связь
· Опросы
· Поиск по сайту
· Продукты и расценки
· Самое популярное
· Ссылки
· Форум
Журнал
Журнал Атомная стратегия
Подписка на электронную версию
Журнал Атомная стратегия
Атомные Блоги





Подписка
Подписку остановить невозможно! Подробнее...
PRo Выставки
Энергетика, Электротехника и Энергетическое машиностроение
Задать вопрос
Наши партнеры
PRo-движение
АНОНС

Вышла в свет книга Б.И.Нигматулина и В.А.Пивоварова «Реакторы с тяжелым жидкометаллическим теплоносителем. История трагедии и фарса». Подробнее 
PRo Погоду

Сотрудничество
Редакция приглашает региональных представителей журнала «Атомная стратегия»
и сайта proatom.ru.
E-mail: pr@proatom.ru Савичев Владимир.
Время и Судьбы

Re: Некоторые достижения искусственного интеллекта и варианты его влияния на социум (Всего: 0)
от на 23/09/2024
Общий искусственный интеллект: окончательное исследование следующего рубежа ИИ – анализ

 23 сентября 2024 г.


Автор Гириш Линганна

Общий искусственный интеллект (AGI) - это область в рамках искусственного интеллекта (ИИ), где исследователи работают над разработкой компьютерной системы, которая может превзойти человеческий интеллект в различных задачах.
Эти системы могли бы понимать себя и контролировать свои действия, включая изменение собственного кода. Они могли бы научиться решать проблемы самостоятельно, точно так же, как люди, без необходимости обучения.
Термин “Общий искусственный интеллект (AGI) ” впервые был использован в книге 2007 года, представляющей собой сборник эссе под редакцией компьютерщика Бена Гертцеля и исследователя ИИ Кассио Пенначина.
Однако идея общего искусственного интеллекта существует в истории ИИ уже много лет и часто встречается в популярных научно-фантастических книгах и фильмах.
Системы ИИ, которые мы используем сегодня, такие как простые алгоритмы машинного обучения в Facebook или продвинутые модели, такие как ChatGPT, известны как “узкий” ИИ. Это означает, что они предназначены для решения конкретных задач, а не обладают общим интеллектом, как люди.
Это означает, что эти системы ИИ могут выполнять по крайней мере одну работу, например распознавание изображений, лучше, чем люди. Однако они способны выполнять эту конкретную задачу или аналогичные действия только на основе данных, с которыми они были обучены.
AGI, или общий искусственный интеллект, выйдет за рамки простого использования данных, на которых его обучали. Он будет обладать способностями, подобными человеческим, рассуждать и понимать во многих областях жизни и знаний. Это означает, что он может думать и принимать решения так же, как это делает человек, применяя логику и контекст к различным ситуациям, а не просто следуя заранее запрограммированным шаблонам.
Поскольку ИИ так и не был создан, ученые не до конца согласны с тем, что это может означать для человечества. Существует неопределенность относительно потенциальных рисков, какие из них более вероятны и какое влияние это может оказать на общество.
Ранее некоторые люди думали, что AGI, возможно, никогда не станет возможным, но теперь многие ученые и технические эксперты считают, что это может быть достигнуто в ближайшие несколько лет. Известные фигуры, в том числе специалист по информатике Рэй Курцвейл и лидеры Силиконовой долины, такие как Марк Цукерберг, Сэм Альтман и Илон Маск, являются одними из тех, кто разделяет эту точку зрения.
В чем преимущества и потенциальные опасности AGI?
ИИ уже продемонстрировал множество преимуществ в различных областях, помогая в научных исследованиях и экономя время людей при выполнении повседневных задач.Новые инструменты, такие как системы создания контента, могут создавать иллюстрации для маркетинга или писать электронные письма на основе того, как пользователь обычно общается.Однако эти инструменты могут выполнять только те задачи, для которых их специально обучали, используя данные, предоставленные им разработчиками.
AGI, с другой стороны, может принести человечеству совершенно новый спектр преимуществ, особенно в ситуациях, требующих передовых навыков решения проблем.
В сообщении в блоге от февраля 2023 года, через три месяца после запуска ChatGPT, генеральный директор OpenAI Сэм Альтман предположил, что AGI теоретически может повысить доступность ресурсов, ускорить глобальную экономику и привести к новаторским научным открытиям, которые расширят то, что, по нашему мнению, возможно.
Альтман также упомянул, что ИИ может наделить людей удивительными новыми способностями, позволяя каждому получать помощь практически с любой умственной задачей. Это значительно повысило бы творческий потенциал человека и навыки решения проблем.
Однако AGI также сопряжен со значительными рисками. По словам Маска в 2023 году, эти риски включают “несогласованность”, когда цели системы могут не совпадать с целями людей, контролирующих ее, и вероятность, хотя и небольшая, того, что будущая система AGI может представлять угрозу выживанию человечества.
В обзоре, опубликованном в августе 2021 года в журнале Journal of Experimental and Theoretical Artificial Intelligence, были выделены несколько потенциальных рисков будущих систем AGI, хотя они могут принести “огромную пользу человечеству”.
В обзоре было указано на несколько рисков, связанных с AGI, таких как выход AGI из-под контроля человека, постановка или разработка опасных целей, создание небезопасного AGI, системы AGI, лишенные надлежащей этики, морали и ценностей, плохое управление AGI и возможность экзистенциальных угроз, по мнению авторов исследования.
Авторы также предположили, что будущая технология AGI потенциально может совершенствоваться за счет разработки более интеллектуальных версий и даже изменения своих первоначальных запрограммированных целей.
Исследователи также предупредили, что некоторые группы могут создавать AGI во вредных целях, и даже благонамеренный AGI может привести к “катастрофическим непреднамеренным последствиям”, согласно отчету LiveScience.
Когда ожидается создание AGI?
Существуют разные мнения о том, действительно ли люди могут создать такую продвинутую систему, как AGI, и когда это может произойти. Опросы экспертов по ИИ показывают, что многие считают, что ИИ может быть разработан к концу текущего столетия, хотя со временем мнения изменились.
В 2010-х годах большинство экспертов полагали, что до наступления AGI осталось около 50 лет. Однако совсем недавно эта оценка была сокращена до 5-20 лет.
Недавно несколько экспертов предсказали, что система AGI может появиться в течение этого десятилетия.
В своей книге " Сингулярность ближе" (2024, Penguin) Курцвейл предсказал, что достижение AGI будет сигнализировать о начале технологической сингулярности (точки, когда ИИ превосходит человеческий интеллект), как сообщает LiveScience.
Этот момент ознаменует точку, когда пути назад уже не будет, что приведет к быстрому технологическому росту, который станет неконтролируемым и постоянным.
Курцвейл предсказывает, что после достижения AGI к 2030-м годам появится сверхразум. Он считает, что к 2045 году люди смогут напрямую подключать свой мозг к ИИ, улучшая человеческий интеллект и сознание.
Некоторые ученые считают, что AGI может быть разработан очень скоро.
Например, Гертцель предсказал, что мы можем достичь сингулярности к 2027 году, в то время как Шейн Легг, соучредитель DeepMind, считает, что AGI может появиться к 2028 году.
Маск также предсказал, что ИИ превзойдет человеческий интеллект к концу 2025 года.



Гириш Линганна - аналитик в области обороны, аэрокосмической промышленности и политики из Бангалора. Он также является директором ADD Engineering Components, Индия, Pvt. Ltd, дочерней компании ADD Engineering GmbH, Германия.



[ Ответить на это | Администратор ]





Информационное агентство «ПРоАтом», Санкт-Петербург. Тел.:+7(921)9589004
E-mail: info@proatom.ru, Разрешение на перепечатку.
За содержание публикуемых в журнале информационных и рекламных материалов ответственность несут авторы. Редакция предоставляет возможность высказаться по существу, однако имеет свое представление о проблемах, которое не всегда совпадает с мнением авторов Открытие страницы: 0.06 секунды
Рейтинг@Mail.ru