"Да,
мы уступим. Но у меня несколько ответов на этот вопрос. Дело в том, что мы не
знаем, каким путем будет эволюционировать искусственный интеллект. Даже сами
разработчики этих программ, а я говорила с несколькими из Кремниевой долины,
уверяют, что они уже перестали понимать, что делает ИИ. Никто не знает его
планов. И здесь я должна себя остановить, потому что вы могли бы спросить:
"Вы хотите сказать, что у него есть планы?" На что я отвечу:
"Сейчас - нет, но, возможно, через год". Раньше говорили: 30
лет, 50 лет, сейчас говорят - это происходит уже сейчас. Мы не знаем, пойдёт ли
ИИ по пути: "Я хочу быть как человек", или по совершенно иной линии,
которую мы пока даже не можем осознать", - сказала она. Глава
OpenAI Сэм Альтман покидает внутреннюю комиссию, сформированную в мае
этого года для надзора за безопасностью моделей искусственного интеллекта,
которые разрабатывает компания. Новый комитет полностью составлен
из действующих членов совета директоров OpenAI и имеет право
приостановить релиз продукта, если увидит в нем какую-либо
опасность.
Уход
Альтмана из Комитета по безопасности и защите произошел после
того, как пять сенаторов заинтересовались внутренней кухней OpenAI
и направили Альтману письмо. К тому времени в компании сложилась
кризисная ситуация — почти половина сотрудников, отвечавших
за долгосрочные риски, уволилась, многие из тех, кто занимал
руководящие посты, обвиняли Альтмана в противодействии «реальным» мерам
по регулированию ИИ, которые мешали достижению корпоративных
целей. Возглавил новый Комитет по безопасности и защите
профессор Университета Карнеги-Меллон Цико Колтер, а вошли в него
глава Quora Адам Д’Анжело, генерал в отставке Пол Накасоне,
экс-вице-президент Sony Николь Селигмен. Все они являются действующими членами
совета директоров OpenAI.
«В рамках
своих обязанностей Комитет по безопасности и защите продолжит
получать регулярные отчеты по технической оценке текущих и будущих
моделей, а также отчеты по наблюдению за продуктом после
релиза, — говорится в объявлении OpenAI. — В создании
интегрированной структуры безопасности и защиты мы опираемся
на процессы и практики своих моделей с четко прописанными
критериями успеха для запуска моделей».Комиссия уже провела анализ безопасности
модели o1, новейшего продукта компании, после выхода из ее состава
Альтмана.Однако, даже после ухода Альтмана мало что указывает на то, что
Комитет станет принимать невыгодные для компании решения, пишет TechCrunch.
Еще в мае OpenAI заявила, что задачей этого органа является реакция
на «обоснованную критику».
Новый
амбициозный проект Альтмана
предполагает создание уникальной инфраструктуры для
ИИ на территории США. Основные цели включают строительство новых
ЦОД, повышение энергоемкости и улучшение систем передачи энергии,
а также создание производственных мощностей для полупроводников.
Финансирование обеспечат инвесторы из Канады, Южной Кореи, Японии
и Объединенных Арабских Эмиратов.
Модели OpenAI серии o1 — это новые большие языковые модели,
обученные с помощью подкрепления для выполнения сложных рассуждений. Модели
o1 думают, прежде чем ответить, и могут создавать длинную
внутреннюю цепочку рассуждений, прежде чем ответить пользователю. Модели o1
отлично справляются с научными рассуждениями, занимая 89-е место в процентах
при решении конкурсных вопросов по программированию (Codeforces), входя в число
500 лучших студентов США в отборочном туре математической олимпиады США (AIME)
и превышая точность человека на уровне доктора наук при решении задач по
физике, биологии и химии (GPQA).В API доступны две модели, умеющие рассуждать:
·
o1-preview: ранняя
предварительная версия нашей модели o1, разработанная для рассуждений о сложных
проблемах с использованием общих знаний о мире.
·
o1-mini: более
быстрая и дешевая версия o1, особенно эффективная в задачах кодирования,
математики и науки, где не требуются обширные общие знания.
Модели
o1 показывают значительный прогресс в рассуждениях, но они не
предназначены для замены GPT-4o во всех случаях использования.
VK
объявила о запуске AutoML — новой платформы для создания и настройки моделей
машинного обучения без необходимости программирования. Сервис поможет компаниям
прогнозировать продажи, анализировать данные и работать с ИИ в различных
бизнес-задачах. Платформа AutoML, разработанная VK, поможет бизнесу
эффективно работать с машинным обучением без необходимости программирования.
Сервис ориентирован на бизнес-аналитиков, которым требуется решать задачи
прогнозирования, сегментации клиентов и персонализации маркетинга. AutoML
предлагает модели для ранжирования и кластеризации данных, что позволяет
прогнозировать продажи и анализировать клиентское поведение.
Важная
особенность платформы — поддержка федеративного обучения, которое дает
возможность компаниям совместно обучать модели, сохраняя конфиденциальность
данных. VK планирует расширить функционал, добавив поддержку генеративных
моделей. Платформа предоставляет возможности для обработки
данных с минимальными знаниями программирования, автоматизируя процессы и
помогая компаниям быстрее достигать результатов.
Технология
AutoML позволяет прогнозировать показатели, сегментировать пользователей и
выстраивать стратегии для оптимизации работы компании. Например, отделу продаж
можно спрогнозировать отток клиентов, загрузив на платформу набор данных с
метками обращения клиентов, времени, предыдущего опыта взаимодействия и других
важных параметров. VK подчеркивает, что технология федеративного обучения
позволяет обучать модели совместно с партнерами без прямого обмена исходными
данными. Этот подход особенно востребован в отраслях, где защита
конфиденциальности информации имеет ключевое значение, таких как финтех или
интернет-торговля. Примером может служить партнерство компаний, которые хотят
спрогнозировать рост продаж, не раскрывая при этом друг другу свои данные.
Тренд
на ИИ вернул производство микрочипов в авангард компьютерных
технологий. Все значительные прорывы в вычислительной технике — от
персональных компьютеров и интернета до смартфонов и искусственного интеллекта
(ИИ) — можно связать с уменьшением размеров транзисторов, их ускорением и
удешевлением. Развитие технологии транзисторов стало двигателем технологического
прогресса. Все значительные прорывы в вычислительной технике — от
персональных компьютеров и интернета до искусственного интеллекта (ИИ) —
можно связать с уменьшением размеров транзисторов, их ускорением и
удешевлением. Развитие технологии транзисторов стало двигателем
технологического прогресса. Некоторое время технологическое значение кремниевых
чипов отражалось в важности компаний, которые их производили.
В
1970-х годах IBM, производившая как чипы, так и компьютеры и программное
обеспечение для них, была непревзойдённым гигантом. В 1980-х Microsoft
доказала, что компания, продающая только программное обеспечение, может быть
ещё более успешной. Но Intel, производившая чипы, на которых работало
программное обеспечение Microsoft, была также огромной силой. До кризиса
доткомов в 2000 году Intel занимала шестое место в мире по рыночной
капитализации. В 2021 году, на пике пандемии COVID-19, острый
дефицит таких чипов привёл к сбоям в производстве в различных отраслях, включая
производство электроники и автомобили. Индустрия, стремясь к эффективности,
глобализировалась: проектирование чипов в Америке; оборудование для их
производства — в Европе и Японии; заводы, на которых это оборудование
используется, — в Тайване и Южной Корее; упаковка чипов и их сборка в устройства
— в Китае и Малайзии. Когда пандемия нарушила эти цепочки поставок,
правительства стран обратили на это внимание.
В
августе 2022 года правительство США предложило пакет субсидий и налоговых льгот
на сумму 50 миллиардов долларов, чтобы вернуть производство микросхем на
территорию Штатов. Другие регионы последовали этому примеру: Евросоюз, Япония и
Южная Корея обещают почти 94 миллиарда долларов в виде субсидий. Ситуация
осложнилась из-за попыток США ограничить доступ Китая к передовым чипам и технологиям,
с помощью которых они создаются, посредством экспортных запретов. Китай ответил
на эти запреты, ограничив экспорт двух материалов, жизненно важных для
производства микросхем. Но главные проблемы производителей чипов кроются
не в промышленной политике или национальных соперничествах, а в технологиях.
На
протяжении пяти десятилетий уменьшение размеров транзисторов улучшало
производительность чипов без увеличения энергопотребления. Сейчас, когда число
транзисторов на единицу площади увеличивается, а модели ИИ становятся более
объёмными — энергопотребление стремительно растёт. Чтобы поддерживать
экспоненциальный рост производительности, нужны новые идеи. Некоторые из них:
например, более тесная интеграция аппаратного и программного обеспечения, носят
постепенный характер. Другие более радикальны: пересмотр использования кремния
или отказ от цифровой обработки данных в пользу других методов.
Одно
только обучение ИИ может стоить организации больше сотни миллионов долларов,
как это было с GPT-4. При этом многие расходы, с которыми сталкиваются
инвестирующие в машинное обучение компании, не учитываются. Однако они могут
быть настолько высоки, что образуют огромный разрыв между расходами и прибылью
от ИИ. Разберемся, сколько корпорации тратят на ИИ на самом деле, оправдываются
ли эти расходы и почему ИИ настолько дорогой, что на рынке со временем может
образоваться монополия. Первое приобретение ИИ-стартапа было в 1998
году — Microsoft купил Firefly Network всего за 40 млн долларов. Основной
продукт компании использовался для анонимного
сбора пользовательских предпочтений, рекомендаций контента и
расслкиы рекламы. За 20 последующих лет различные корпорации потратили на такие
приобретения почти 8,6 млрд долларов. Но покупки и слияния — лишь малая доля
инвестиций в ИИ. Еще в 2010-х годах, когда не было такого «хайпа» вокруг
ИИ и компании инвестировали в стартапы этой области разумно, самые крупные
инвестиции и сделки часто оправдывались и приводили к возникновению целых
подразделений в нынешних IT-гигантах и лидерах ИИ-отрасли.
Google в 2014 году приобрел еще один
значимый стартап — Deep Mind за 400 млн долларов. Изначально эта компания
разрабатывала искусственный интеллект, побеждающий человека в шахматах и других
играх. В 2016 году компания научила нейросеть играть в 3D-игры. Именно их
продукт смог обыграть чемпионов в го — эта игра в отличие от шахмат не имеет
классических комбинаций и повторяющихся партий. Позже фирма занялась
разработкой ИИ для генерации изображений и ИИ для медицинских целей.
Компания существует до сих пор в формате Google DeepMind. В то время это были
беспрецедентно крупные сделки. Когда ИИ стал набирать популярность в
информационном поле, корпорации сильно увеличили свои вложения.
Один
только Microsoft инвестировал больше 10 млрд долларов. В сфере финансирования
стартапов изменения тоже заметны. В 2023 году один только Anthropic привлек 6 млрд долларов. Подход к инвестициям в
ИИ сильно изменился и компании делают действительно высокие ставки на
технологии. Grand View Research оценили
мировой рынок ИИ 2023 года на 196,63 млрд долларов. Они предполагают, что
эта сфера будет расти темпами в 37,3% с 2023 по 2030 год. Очень сильно от
роста рынка ИИ и инвестиций компаний в эту область выигрывает Nvidia, так как
данная корпорация выпускает чипы для искусственного интеллекта. Так, согласно
отчету за 9 месяцев 2023 года, из 18,12 миллиарда долларов выручки 14,51
миллиарда долларов заработало подразделение центров обработки данных.
Человеческое
мышление и языковые модели, такие как Large Language Models (LLMs), имеют
несколько принципиальных отличий, несмотря на то, что обе системы могут
обрабатывать и генерировать текстовую информацию.
Человеческое
мышление:
Люди обладают сознанием и самосознанием. Это означает, что они могут размышлять
о собственных мыслях, осознавать себя как отдельные сущности, и переживать
субъективный опыт.
LLMs: Языковые модели
работают на основе вероятностных оценок словосочетаний и паттернов в больших
наборах данных, но не обладают истинным пониманием контекста или смысла текста,
который они обрабатывают.
Человеческое
мышление:
Люди могут учиться не только из данных, но и из опыта, ошибок и интеракций с
окружающим миром. Обучение людей многофакторное и включает эмоциональные,
социальные и практические аспекты.
LLMs: Языковые модели
обучаются на фиксированных наборах данных и не могут самостоятельно обновляться
или адаптироваться к новым данным без дополнительных процессов тренировок и
доработок.
Человеческое
мышление:
Личное творчество и способность к инновациям - это важные аспекты человеческого
мышления. Люди могут создавать новые идеи, концепции и решения, которые выходят
за рамки обучающих данных.
LLMs: Языковые модели
могут генерировать текст, который кажется творческим, но это основано на
комбинациях и паттернах, найденных в обучающих данных. Модель не создаёт
принципиально новые идеи. Эти различия демонстрируют, что несмотря на
мощные возможности языковых моделей в области обработки текста и генерации
языка, они остаются инструментами, не обладающими многими основополагающими
характеристиками человеческого мышления.
В заключение привожу мнения ведущих мировых учёных по тематике ИИ:
·
Ричард
Столлман: ИИ не должен называться «искусственным интеллектом» или
«интеллектом», так как это может привести к неправильному восприятию.
·
Дуглас
Крокфорд: ИИ вызывает опасения из-за неправильного применения и сложности
вынесения правильных суждений о них.
·
Тецуо
Хара: ИИ может создавать изображения, которые трудно отличить от человеческих,
и это может привести к проблемам в будущем.