Мы и искусственный интеллект
Дата: 12/03/2025
Тема: Экспертный совет ПРоАтома


Академик Олег Фиговский (Израиль)

Искусственный интеллект (ИИ) – ведущая технология и значимый элемент культуры на горизонте ближайших десятилетий. Исследования и разработки в этой области ведутся в двух направлениях: одно занимается общим (сильным) ИИ (ОИИ) и в перспективе должно привести к созданию мыслящих компьютеров; другое – занимается разработкой узкого (слабого) ИИ и ориентируется на моделирование некоторых аспектов поведения человека.



Система метафор, которые можно потрогать, – вот что такое современное общество. И это само по себе не метафора – реальность, данная нам в ощущениях. Сегодня уже вполне можно ставить задачу так, имея в виду развитие  интернета, искусственного интеллекта, нейросетей: визуализировать социальные связи и начать работать над дизайном получившихся сетей. Социальность – как пластилин. Правда, возникает проблема легитимности «скульптора»: кто будет «лицензировать» его деятельность? Но и это не принципиально важно. Ведь сам этот гипотетический «скульптор» оказывается лишь инструментом «в руках» программного обеспечения и компьютерных алгоритмов. Отсюда один шаг до вполне фантастической, казалось бы, гипотезы: сообщество программ и алгоритмов сознательно устраивает глюки, чтобы потом – руками и мозгами человека – совершенствоваться. «С точки зрения машины это выглядит как взаимодействие с окружающей средой, которая часто враждебна (привносит элементы хаоса), но в то же время необходима для развития», – отмечал еще в 2000 году журнал «Компьютерра». 

Если продолжить эту логику, то одним из признаков, по которым мы опознаем самозарождение искусственного разума, фактически станет появление большого количества нетривиальных ошибок в Сети.  А в ночь с 8 на 9 сентября 2011 года без света остался восьмой по величине город США – Сан-Диего. Масштабный блэкаут затронул ряд крупных городов в Калифорнии, Аризоне и на севере Мексики: без электричества осталось 6 млн человек. Непосредственная причина – автоматическое отключение двух реакторов на АЭС «Сан-Онофре» после сбоя в подаче электроэнергии на электрической подстанции North Gila в районе города Юма в Аризоне. Американцы вроде бы быстро вычислили виновного. Им оказался один из электриков, работавших на подстанции в Юме. Он якобы «допустил критическую ошибку, запустившую цепной процесс». Однако, как отмечали СМИ, до конца не было понятно, каким образом один человек мог отключить электричество 6 млн американцев. В штатной ситуации при неполадках на подстанции электричество должно было отключиться только в районе Юмы. Тем не менее сбой в Юме вызвал цепное отключение генераторов на АЭС «Сан-Онофре». Кажется, и здесь без «заговора алгоритмов» не обошлось…

Или совсем свежий и еще памятный нам всем пример. 19 июля 2024 года было выведено из строя около 8,5 млн устройств на операционной системе Windows, сообщила Microsoft Corp. И хотя это менее 1% устройств, использующих Windows, тем не менее последствия возникшей проблемы оказались масштабными и трудноустранимыми. Так, по данным сайта отслеживания полетов FlightAware, общее число отмененных авиарейсов в США из-за сбоя составило 1461. Лидерами по числу отмен стали Delta Air Lines Inc. и United Airlines Holdings Inc., пишет MarketWatch. Турецкий авиаперевозчик Turkish Airlines написал в соцсети о «проблемах с билетами, регистрацией на рейсы и бронированием». Ряд аэропортов в Европе, в том числе в Испании, Великобритании, Нидерландах, Германии, Индии, отмечали, что у них возникли проблемы.

По иронии судьбы, причиной всемирного сбоя стало программное обеспечение (ПО), которое должно предотвращать критические ситуации в Сети. Название этого ПО – Falcon, продукт американской компании CrowdStrike, занимающейся кибербезопасностью, который обнаруживает угрозы на компьютерах, подключенных к Сети. Как сообщила The Times, это ПО расположено на серверах компании, а также на всех компьютерах в Сети, ищет подозрительные артефакты и сообщает о них, пишет. В ночь на 19 июля CrowdStrike обновила это ПО, что и привело к проблемам. Начиная с Австралии и распространившись по всему миру, компьютеры под управлением Windows, использующие Falcon, не смогли справиться с обновлением и начали отключаться, выдавая так называемый «синий экран смерти

Этот глобальный сбой, вероятно, остается пока крупнейшим в истории, отмечает компания MarketWatch. Ближайшее к нему по масштабу подобное событие произошло в 2017 году и было вызвано распространением вируса WannaCry, когда пострадало около 300 тыс. компьютеров в 150 странах мира. Некоторые аналитики предупреждают, что «между предметами и людьми существует еще одно сообщество – сообщество программ. Они обладают свободой выбора. В этом зазоре между гибкостью человеческого интеллекта и заданностью программ – большая проблема второй половины XXI века». Такая ситуация возможна, и она уже частично реализуется в некоторых областях. Компьютерные программы, способные действовать самостоятельно, называются автономными системами, или искусственным интеллектом (ИИ).

Современные ИИ-модели, такие как нейронные сети, могут обучаться на данных и принимать решения без явного программирования. Например, системы рекомендаций (как у Netflix или YouTube) или чат-боты (как ChatGPT) действуют на основе анализа данных. Генеративный ИИ, например программы GPT, DALL-E или MidJourney, могут создавать тексты, изображения или музыку, что можно рассматривать как самостоятельное творчество. Понятно, что, если автономные системы начнут действовать без достаточного контроля, это может привести к непредсказуемым последствиям. Например, ошибки в алгоритмах беспилотных автомобилей могут стать причиной аварий. А кроме того, автономные цифровые системы могут принимать решения, которые противоречат человеческим ценностям, если их алгоритмы не будут должным образом настроены. Неслучайно эксперты уже давно предлагают внедрять «механизмы остановки» (kill switch) или ограничения, чтобы человек мог вмешаться в работу системы в критических ситуациях. Сообщество программ обретает свойства субъекта. Именно эти невидимые и неощущаемые вроде бы на тактильном уровне циклопические объемы вычислений определяют то, как мы взаимодействуем с электронным миром, созданным нашими же руками.

Предположительно гипотетический ОИИ будет способен без прямого обучения решать любые задачи с эффективностью, присущей человеку. Следовательно, сможет обобщать свои знания на какие-то новые, незнакомые ему задачи. Ключевое отличие ОИИ от узкого ИИ в том, что он может «учиться» новому на человеческом уровне без прямого вмешательства в обучение. Узкий ИИ не демонстрирует каких-то новых навыков в незнакомых ему областях. ОИИ может адаптироваться к широкому спектру ситуаций и контекстов, а не быть сосредоточенным на одной задаче или предметной области. Это значит, что он должен обладать способностью учиться на опыте, способностью к абстрактным рассуждениям и решению проблем, способностью эффективно общаться с людьми и другими разумными агентами и т.д. Существующие в настоящее время системы узкого ИИ показали и доказали свою высокую экономическую эффективность. Но они не обладают даже зачатками мыслительных процессов, характерных для людей.

Естественно, что главной перспективной целью исследований и разработок в области ИИ является построение ОИИ. На это нацелены ведущие научные центры во всем мире. Создание машины, которая может думать как человек, было и остается мечтой, хотя и довольно спорной, всех исследователей и широкой публики с первых дней появления идеи ИИ. Несмотря на все декларации и заявления в прессе, пока никто не может указать конкретный срок, когда появится ОИИ, и даже определиться с набором точных критериев, которым он должен отвечать. И это продолжается почти 70 лет. Автор термина «искусственный интеллект» (1956), американский информатик Джон Маккарти со товарищи отмечал: «Исследование должно продолжаться на основе гипотезы о том, что каждый аспект обучения или любая другая характеристика интеллекта в принципе может быть настолько точно описана, что можно создать машину для ее моделирования. Будет предпринята попытка найти, как заставить машины использовать язык, формировать абстракции и концепции, решать виды проблем, которые теперь предназначены только для людей, и улучшать себя».

В середине 70-х годов прошлого столетия один из главных идеологов ИИ Марвин Мински утверждал: «Через три-восемь лет у нас будет машина с общим интеллектом среднего человека. Я имею в виду машину, которая сможет читать Шекспира, смазывать машину, играть в офисную политику, рассказывать анекдоты, драться. В этот момент машина начнет самообразование с фантастической скоростью. Через несколько месяцев она станет гениальной, а еще через несколько месяцев ее возможности станут неисчислимыми». Теперь, по прошествии более 50 лет после этого высказывания, один из крупнейших специалистов в области ИИ, французский и американский ученый Ян Лекун утверждает, что сегодняшние модели ИИ не умеют запоминать, думать, планировать и рассуждать так, как это делает человеческий мозг. По его мнению, этого можно достичь примерно за 10–12 лет, если принципиально поменять существующий подход к моделированию и начать использовать новый метод, называемый «моделью мира». Необходимо также, системы ИИ стали понимать трехмерный мир и могли ориентироваться в нем. Для этого нужна другая архитектура нейронных сетей, то есть архитектура, позволяющая ориентироваться на цели и модели окружающего мира.

ИИ в том виде, в каком он существует сегодня, добился огромных успехов. У нас есть машины и программы, которые могут использовать язык, писать эссе, играть в стратегически игры, видеть и решать многие важные проблемы, такие, например, как ускоренный синтез лекарств, сохранение исчезающих языков, диагностика определенных заболеваний по голосу. Машинам и программам ИИ недостает таких принципиально человеческих качеств, как интуиция, здравый смысл, запоминание вещей. И опять становится ясным, что для реализации всего этого нужна принципиально другая архитектура нейронных сетей. Одна из причин, почему не удается серьезно продвинуться в создании ОИИ, состоит в том, что нет общего понимания, что такое интеллект вообще, а следовательно, и ОИИ в частности. Интеллект представляет собой отличительную черту человеческого поведения. В дальнейшем изложении мы будем исходить из того, что интеллект – это не только способность достигать целей, но и возможность устанавливать их.

Специалисты предлагают рассматривать ОИИ как вариант машинного интеллекта, который может выполнять широкий спектр интеллектуальных задач, подобно человеку. Он должен быть способен адаптироваться к широкому набору ситуаций и контекстов, а не быть связанным, как существующие системы ИИ, с одной задачей или предметной областью. А это значит, что ОИИ должен быть способен не только к обучению, но и к абстрактным рассуждениям, обобщению знаний для новых ситуаций, общению с другими интеллектуальными агентами и людьми. Для этого необходимо глубже понять механизмы работы мозга человека, разобраться хотя бы в первом приближении, как возникают разум и сознание. Это – на многие годы работы, а создавать ОИИ нужно уже сегодня.

Сегодня нет единого мнения о том, возможно ли достичь сознания у искусственного интеллекта. Понятие «сознание» включает в себя субъективный опыт, самосознание, способность испытывать чувства и другие аспекты, которые не до конца понятны даже в контексте человеческого и животного разума. Эти рассуждения не о том, как сознание измеряется, развивается или даже работает, а о том, что такое сознание и что оно меняет.

Выделяют два основных вопроса. Один из них заключается в том, являются ли психологические состояния – наша психическая жизнь, состоящая из памяти, мышления, творчества, – подмножеством мозговой активности. А другой заключается в том, как высокоуровневые психологические процессы возникают из основных нейрофизиологических действий. Как клетки мозга, организованные сложным образом, приводят к тому, что я наблюдаю за тем, как что-то движется, или вижу цвет, или нюхаю розу? Появление крупных языковых моделей, таких как ChatGPT, Gemini и других, привело к постановке еще одного вопроса о том, может ли ОИИ быть сознательным или стать сознательным. Этот вопрос имеет обширные социальные, моральные последствия и, возможно, последствия для всего человечества.

Точка зрения большинства специалистов в области ИИ состоит в том, что ни одна из существующих систем ИИ не является сознательной, но нет очевидных барьеров для создания систем ИИ, которые могли бы быть сознательными. Однако есть и те (их меньшинство), кто утверждает, что компьютерные программы никогда не смогут обладать разумом или быть сознательными в человеческом смысле, даже если они порождают эквивалентное поведение и взаимодействие с внешним миром. Чем сложнее будут алгоритмы, тем больше они будут походить на сознание человека. Новые системы скорее всего смогут в конечном счете отражать динамичные, тесно взаимосвязанные процессы, которые, как считается, лежат в основе человеческого сознания.

Разум человека оказывается более гибким и объемным, он учитывает не только конкретные обстоятельства события, но также его отдаленные следствия, выставляя вопросы о природе человечности, о нравственных аспектах, о неочевидном ущербе и отдаленных последствиях. Он делает актуальными такие свойства, присущие человеку, как мораль, характер и возможность совершать принципиальные ошибки и даже преступления. В науке можно получить правильный ответ на неправильно поставленный вопрос. И кажется, что именно с такой ситуацией мы довольно часто имеем дело, когда речь идет об ОИИ.

Сейчас машинные технологии используются в основном для усиления интеллектуальных способностей человека. И уже не за горами смена парадигмы, когда новые устройства будут предлагать новые интуитивно понятные способы усиления наших способностей. Мы быстро движемся навстречу миру, в котором ИИ будет беспрепятственно помогать человеку приумножать интеллект и повышать эффективность взаимоотношений. Усиление способности человека подходить к сложной проблемной ситуации, достигать понимания для удовлетворения его индивидуальных потребностей и находить решения проблем требует сочетания таких вещей, как более быстрое и лучшее понимание, способность находить решения проблем, которые до того казались нерешаемыми. И это все задачи для ОИИ.

До настоящего времени мы не можем определить ни что такое интеллект, ни что такое сознание. Это что-то такое в нас самих, что требует некоторой степени самосознания, способности размышлять над тем, каково это – познавать мир, или размышлять о наших взглядах на него. И возникает опасение, что чрезмерное использование ОИИ людьми может привести к потере когнитивных функций и интеллектуальной независимости. Мы, как вид Homo sapiense, можем потерять критическое мышление, если станем зависимыми от быстрого творчества и быстрых решений. То есть потеряем способность вынесения четких, обоснованных суждений, базирующихся на понимании интерпретации, применении и синтезе данных, собранных в результате наблюдений, чтения и экспериментов.

Существующие подходы к достижению ОИИ сводятся к двум. Первый состоит в том, что если правильно выбрать алгоритмы, то их можно организовать в любой когнитивной архитектуре, которая кажется наиболее привлекательной. Этот подход реализует компания OpenAI в своих продуктах, таких, например, как GPT-4. Другой подход связан с критическим взглядом на глубокое обучение нейронных сетей. Если сконструировать правильную когнитивную архитектуру, то конкретные алгоритмы отходят на второй план. Такая архитектура должна предполагать наличие множества внутренних обратных связей. Эти связи позволяют информации двигаться в двух направлениях между слоями нейронов. В этом случае информация может перетекать в высшие слои для создания моделей мира, отражающих окружающую среду. Такие конструкции нейронных сетей способны создавать интегрированные циклы обратной связи и могут меньше полагаться на внешние данные, генерируя свои собственные, запуская внутреннее моделирование, используемое для понимания, обоснования и планирования.

ОИИ не получится сконструировать, если мы не найдем способ придать компьютерам здравый смысл и функционал, обеспечивающий им возможность делать причинный вывод. Еще один принципиальный момент для реализации ОИИ: способности человека к абстрактному мышлению, самосознанию, целенаправленному и нравственному поведению являются приобретенными свойствами, возникшими в связи с необходимостью в коллективной жизни. Есть определенные пределы того, что может сделать ОИИ. В частности, компьютеры не могут мыслить, потому что у них отсутствует субъективный опыт сознания. В отсутствие четкого и однозначного определения сознания мы не можем быть уверены в том, как это ни покажется странным, что другие люди обладают сознанием. Поэтому пока нельзя доказать, что ОИИ не обладает сознанием, в противовес некоторым адептам больших языковых моделей.

Много лет тому назад Алан Тьюринг утверждал, что ИИ никогда не сможет «…быть добрым, находчивым, красивым, дружелюбным, проявлять инициативу, иметь чувство юмора, отличать хорошее от неправильного, ошибаться, влюбляться, наслаждаться клубникой и сливками, заставить кого-то влюбиться в это, учиться на опыте, правильно использовать слова, быть предметом собственной мысли…». ОИИ – это интеллект, который возникает на определенном этапе развития. Но при этом он должен помимо почти неограниченного доступа к существующим текстовым данным иметь также прямой сенсорный доступ к окружающей среде. Без этого невозможно строить модели мира

Большинство исследователей ИИ не верит, что нынешний подход к развитию технологий приведет к созданию общего искусственного интеллекта (AGI). Согласно опросу, 84% экспертов считают, что одних нейронных сетей для этого недостаточно, а более 60% уверены, что AGI потребует сочетания разных методов, включая символический ИИ. При этом только 23% опрошенных считают разработку AGI главным приоритетом, а треть поддерживает приостановку таких исследований до появления надежных мер контроля. Эксперты также предупреждают о рисках «агентификации» ИИ, которая может привести к росту затрат и угроз безопасности. Генеративные ИИ-системы работают на основе нейронных сетей — компьютерных моделей, которые обучаются на огромных данных, имитируя принципы работы мозга. За последние десять лет разработчики улучшили их производительность за счет масштабирования размеров, например, увеличивая объем обучающих данных и количество «параметров» модели.

Ассоциация по продвижению искусственного интеллекта (AAAI) провела опрос, в котором участвовали 475 членов организации, 67% из которых — ученые. Среди них 84% считают, что одних нейросетей недостаточно для создания общего искусственного интеллекта. AGI определяется как система, способная «соответствовать или превосходить человека во всех когнитивных задачах». Но четкого критерия, по которому можно будет судить о достижении AGI, пока нет.Отчет AAAI отмечает, что помимо нейронных сетей существует много других направлений ИИ, которые требуют изучения, и призывает активнее поддерживать эти методы. Среди них — символический ИИ, который использует логические правила вместо анализа больших данных. Более 60% опрошенных уверены, что человеческий уровень мышления будет достигнут только при сочетании нейронных сетей с символическим ИИ. Аналитики подчеркивают: нейронные сети останутся, но для прогресса их нужно комбинировать с другими подходами.

Опрос выявил обеспокоенность по поводу бесконтрольного развития AGI, если он появится. Более 75% респондентов считают, что создание ИИ с «приемлемым балансом рисков и пользы» важнее, чем погоня за AGI. Только 23% назвали AGI главным приоритетом. Около 30% поддержали идею приостановки исследований общего ИИ до тех пор, пока не будут разработаны методы полного контроля над такими системами, чтобы гарантировать их безопасность и пользу для человечества. Однако большинство экспертов выступают против приостановки и считают такой вариант маловероятным. Большинство ИИ-компаний сейчас разрабатывают «агентов» — системы, способные выполнять сложные, открытые задачи, например, бронировать билеты или писать и внедрять код. Однако мнения разделились: стоит ли польза от «агентификации» ИИ-моделей затрат на их усложнение, рост вычислительной мощности и энергопотребления.

Агенты также несут новые угрозы безопасности. Это иллюстрирует опыт Барта Селмана, специалиста по компьютерным наукам из Корнеллского университета, соавтора отчета AAAI. Селман использует агента для помощи в математике и программировании, но признает, что не всегда понимает действия ИИ. «Есть риск, что он получит доступ к моему Amazon Cloud и начнет запускать эксперименты без моего ведома, по сути, тратя мои деньги», — отмечает он. Во многих аспектах остается неопределенность, например, нет четкого определения «рассуждения». На вопрос о том, когда автономный ИИ-ученый совершит открытие, достойное Нобелевской премии, самым популярным ответом стало: «Понятия не имею».

Искусственный интеллект стал частью повседневной жизни, помогая в выборе фильмов или музыки. Однако можно ли доверять алгоритмам в важных сферах, таких как медицина или наем сотрудников? Исследователи из Университета Южной Австралии обнаружили, что доверие к ИИ зависит от уровня знаний и значимости выбора. Опросив 2 тыс. респондентов из 20 стран, они выяснили, что люди со знанием статистики чаще доверяют алгоритмам в простых ситуациях, но сомневаются в них при принятии серьезных решений. И наоборот, те, кто мало разбирается в статистике, полагаются на ИИ даже в медицинских или финансовых вопросах. Жители США, Великобритании и Японии, а также мужчины и пожилые люди проявили больше осторожности во взаимодействии с алгоритмами, особенно в контексте цифровизации бизнеса.

Исследователи отмечают, что развитие технологий опережает общественное осознание их рисков. Алгоритмы все чаще влияют на значимые процессы — от медицины до финансов, что требует критического мышления и понимания их ограничений.В качестве примера система DeepSeek показала, что некорректные исходные данные могут привести к ошибочным решениям. В то же время, доверие растет, если алгоритмы основываются на прозрачной и проверенной информации.

Соучредитель Google Ларри Пейдж новую компанию Dynatomics, которая будет разрабатывать ИИ-технологии для производства. Секретный проект курирует Крис Андерсон, бывший технический директор стартапа Kittyhawk. Пейдж не единственный, кто исследует применение ИИ в промышленности. Другие компании, такие как Orbital Materials и PhysicsX, также используют искусственный интеллект для разработки новых материалов и улучшения процессов в различных отраслях. По данным The Information, Ларри Пейдж работает с небольшой группой инженеров над ИИ, способным создавать «высокооптимизированные» конструкции для последующего производства на заводах. Проект курирует Крис Андерсон, бывший технический директор закрывшегося стартапа по созданию электрических самолетов Kittyhawk, поддерживаемого Пейджем.

Пейдж — не единственный предприниматель, который исследует применение ИИ в производстве (хотя, возможно, самый богатый). Например, Orbital Materials создает ИИ-платформу для поиска новых материалов, улавливающих углекислый газ. PhysicsX предлагает инструменты для моделирования в автомобилестроении, аэрокосмической отрасли и материаловедении. А Instrumental использует ИИ с компьютерным зрением для обнаружения сбоев на производстве. Кроме того, Пейдж — не единственный, кто создал собственный стартап в области искусственного интеллекта. Выходцы из OpenAI, Мира Мурати и Илья Суцкевер, тоже открыли свои компании — Thinking Machines Lab и Safe Superintelligence. Свой стартап также есть у «крестной матери ИИ» Фей-Фей Ли.

Бизнес-модели компаний-цифровых платформ, таких как Alphabet или Amazon, сильно отличаются от всего, что капитализм знал раньше. Об этом говорят уже несколько лет — либо восхищенно, либо (гораздо чаще) настороженно. Один из самых радикальных критиков такой модели  — профессор экономики Афинского университета Янис Варуфакис. Это весьма эксцентричная персона — он помогал Valve разработать модель монетизации Dota 2, возглавлял греческий Минфин в разгар кризиса, за что однажды был избит, создал общеевропейское демократическое движение DiEM25, и написал политический SciFi-роман. В книге, опубликованной в конце 2023 года, он провозгласил, что капитализм мертв, а ему на смену пришел куда более несправедливый уклад — технофеодализм. В нем все — от складских рабочих до богатейших предпринимателей, пляшут под дудку кучки «облачных капиталистов», таких как Цукерберг, Безос и Джек Ма.  

Идеологически Варуфакис примыкает к левым — но не к набившим оскомину сторонникам инклюзивности, а к либертарно-демократическому движению, для которого экономическое равенство бессмысленно без свободы. Он намеренно воздерживается от левого радикализма и рисует решение, которое подойдет и богатым, и бедным. «Технофеодализм» Варуфакиса сейчас готовит к изданию Ad Marginem. работ, статей и интервью.  Капитализм мертв, и ему на смену пришло нечто куда более худшее.  Технофеодализм — это новый экономический уклад, который, как считает Варуфакис, возник за последние годы на руинах уже разрушенного капитализма. Компании, создающие технофеодализм, экономист называет «облачными капиталистами». 

Среди них  — прежде всего американские и китайские Big Tech компании, такие как Amazon, X, Google, Apple (потому что iPhone — это тоже платформа, равно как и AppStore), TenCent, Alibaba и т.д.. Но также к облачным капиталистам относятся и более мелкие платформы, например Uber, DoorDash и их аналоги в развивающихся странах. Почему эти компании не являются капиталистическим? Варуфакис, ссылаясь на классическую политэкономию, утверждает, что в основе капитализма лежат прибыль и рынки — и оба этих элемента в бизнес-моделях цифровых платформ отсутствуют.

Обычные капиталистические предприятия, в том числе и добывающие, тратят 80% выручки на зарплаты. Но цифровые платформы, принадлежащие Big Tech компаниям, поддерживаются бесплатно, благодаря деятельности обычных пользователей, использующих их инфраструктуру. Они создают контент, а также делятся своими данными, которые затем можно монетизировать. Сам по себе «облачный капитал» предприятий технофеодалистов — вышки связи, дата-центры и километры оптоволокна, не имеют никакого смысла без пользовательского контента и данных  — точно так же, как не имеет смысла поместье без крепостных. 

Добровольно и бесплатно размещая в соцсетях контент, или стараясь заработать продажей товаров на маркетплейсе, мы помогаем облачному капиталу зарабатывать, а также самовоспроизводиться. Да, платформы тоже требуют обслуживания, иногда внедряют новые продукты, тратятся на маркетологов и так далее — но расходы на труд у них составляют всего 1% от выручки. Свинарник или амбар в поместье иногда нужно чинить — но львиную долю дохода приносит бесплатный труд крепостных. С точки зрения политэкономии, такой доход является не прибылью в узком понимании этого слова, а рентой. Капитализм победил феодализм, когда доходы в форме прибыли превзошли доходы в форме ренты — но сегодня мы наблюдаем обратное. 

Радикальное отличие технофеодализма от капитализма — отсутствие рынков. Варуфакис утверждает, что вместо рыночной конкуренции, предполагающей равные условия и открытый обмен информации, на цифровых платформах царит совсем другая модель, в основе которой лежат рекомендательные алгоритмы. Современные алгоритмы, созданные с помощью обучения с подкреплением, работают полностью автономно, воспроизводят себя и в целом так сложны,что даже их разработчики не до конца понимают, как они устроены. При этом их работа для нас безальтернативна — когда мы заходим на маркетплейс или соцсеть, мы не можем их отключить. На цифровых платформах алгоритмы собирают информацию о пользователях и предлагают им релевантные продукты, которые при этом должны продаваться с максимальным плюсом. Это касается не только товаров на маркетплейсов, но и, к примеру, рекламы в соцсетях. Со временем таким подбором товаров и контента они формируют наше поведение. 

Поэтому даже если на маркетплейсе вы выбираете из сонма продавцов, по Варуфакису это не является рыночной конкуренцией — она предполагает изначальное равенство участников и свободный обмен информацией, чего здесь нет и в помине, потому что всем дирижирует алгоритм. Такой порядок вещей, по мнению греческого экономиста, должен привести в ужас любого последовательного сторонника капитализма. А продавцов на маркетплейсах Варуфакис сравнивает с вассалами, которым корпоративный король или герцог предоставил поместья в пользование, и контролирует сбор налога с помощью шерифов-алгоритмов. В более широком смысле таким же образом работают все «нормальные» капиталистические производители, которые вынуждены замыкать свои продажи на Amazon, Google Ads и так далее.  

Конечно, технофеодализма сильно отличается от средневекового феодализма. Варуфакис отмечает, что лидеры «облачного капитала» ведут себя как просвещенные инноваторы, а не как бароны и герцоги прошлого — активно инвестируют в развитие своих компаний и R&D, создают новые продукты и выходят на новые рынки. Феодализм — это не их образ мышления и не самоцель их работы, но результат их бизнес-модели в современных условиях. В отличие от средневековых крестьян, нас никто не принуждает пользоваться соцсетями или рекомендательными алгоритмами в Spotify. Варуфакис и сам признает, что ему трудно прожить без X, и было бы сложно слушать музыку без рекомендаций Spotify. Более того, платформы конкурируют между собой и борются за одних и тех же пользователей (хотя нередко и превращаются в де-факто монополии или олигополии, как Amazon в Штатах или Яндекс.Такси в России).  Вот только расстановку сил это не меняет — в конце концов, не так уж и сложно представить себе крепостного, который доволен своим положением и искренне уважает господина.

Пожалуй, самое интересное в книге Варуфакиса — глава, в которой он через призму своей концепции анализирует современную международную политику. Экономист считает, что у технофеодализма есть два основных центра — США и Китай. Америка пока превосходит в технологическом отношении. Но у КНР есть одно существенное преимущество — здесь финансовый и облачный капитал могут свободно сотрудничать и создавать совместные мегапродукты. К примеру, экосистемы Alibaba или WeChat включают себя множество платформ — от вертикальных видео до доставки еды, которые соединены единой платежной инфраструктурой.  В Штатах супераппы с настолько большим количеством функций просто невозможны, потому что банки крепко держатся за возможность проводить платежи, которые делают их фундаментальными элементами всей экономики, и не собираются делиться ей с облачными капиталистами. По той же причине США — едва ли не единственное из крупных государств, где не планируется создание ЦВЦБ. 

Варуфакис утверждает, что при постоянном торговом дефиците в Америке экономическая система, основанная на долларе, выгодна и Европе, и Китаю. Также она выгодна штатовским элитам, но не среднему и рабочему классам, которые платят за этот дефицит урезанием бюджетных расходов и кредитами. Но это касается лишь реального сектора экономики. Облачные компании не зависят от торгового дефицита — TikTok в США просто перекачивает в КНР облачную ренту, которую в ином случае могла бы получить американская соцсеть. Поэтому рост китайского облачного капитала для Штатов гораздо более серьезный вызов, чем подъем китайской промышленности.  Именно поэтому и Трамп, и Байден используют множество мер, чтобы замедлить рост китайского облачного капитала — от поддержки компаний из США или дружественных стран, которые производят альтернативу Huawei, до запрета TikTok.

Прогноз Варуфакиса очень тревожный. Растущее господство облачного капитала приведет к тому, что деньги будут оседать в них навсегда, без шансов вернуться в мировой оборот. С обычными капиталистическими компаниями этого бы не случилось — даже получив сверхприбыль, львиную долю выручки они бы вернули назад в экономику, выплатив зарплаты и дивиденды. Люди будут беднеть, а мировой спрос — падать, что приведет к новым глобальным экономическим кризисам.  Более того, торговые войны Запада и Китая ударят по многим компаниям. Пострадают даже облачные компании, например Apple — в отличие от Google и Amazon, для него важно производство, а оно замкнуто на КНР. При этом противоречия будут лишь усиливаться, например на фоне конкуренции за редкоземельные металлы. 

Новые ИИ, такие как ChatGPT или DeepSeek, ситуацию не изменят. Платные ИИ-чатботы являются товаром в классическом капиталистическом понимании, их бизнес-модели никак не пересекаются с «бесплатными» для пользователя цифровыми платформами и их алгоритмами. Бесплатные ИИ-чатботы бросают вызов платным, но не облачному капиталу. 

Но есть и надежда. Миропорядок технофеодализма вредит абсолютному большинству — от угнетенных цифровых пролов на потогонках Amazon до богатейших людей мира и топ-менеджеров компаний из S&P 500. Коалиция, объединенная целью возрождения «нормального» капитализма, может оказаться крайне широкой. Ударной силой этой коалиции могли бы стать забастовки, потребительские или деловые бойкоты. Чтобы остановить экспансию облачного капитала, Варуфакис предлагает набор реформ, которые такая коалиция должна продавить: усиление общественного контроля за облачными компаниями и их алгоритмами, расширение полномочий центробанков, чтобы ослабить финансовый капитал, а также модернизация системы управления в облачных компаниях, передав власть персоналу по кооперативной модели «один сотрудник — одна голосующая акция».  Мир меняется как никогда быстро — и последние события на технологических рынках и в геополитике показывают, что борцам с описанной греческим экономистом дистопией лучше поторопиться.







Это статья PRoAtom
http://www.proatom.ru

URL этой статьи:
http://www.proatom.ru/modules.php?name=News&file=article&sid=11365