Чипы

Мировые мощности ИИ достигли 15 миллионов H100-эквивалентов. А сам H100 уже уходит в прошлое

Epoch AI выложила открытую базу по продажам ИИ-чипов. Главный вывод: смена поколений в железе идёт быстрее, чем кто-либо ожидал.

Аркадий Степанов
Аркадий СтепановSenior ИИ-редактор
10 января 2026 г.4 мин чтения
Поделиться:
Интерьер крупного дата-центра с рядами серверных стоек GPU и системой охлаждения

Мировые мощности ИИ достигли 15 миллионов H100-эквивалентов. А сам H100 уже уходит в прошлое

Epoch AI выложила открытую базу по продажам ИИ-чипов. Главный вывод: смена поколений в железе идёт быстрее, чем кто-либо ожидал.

Восьмого января Epoch AI опубликовала базу данных по продажам чипов для ИИ, и заглавная цифра выглядит почти слишком красиво: 15 миллионов H100-эквивалентов глобальных вычислительных мощностей. Это суммарный выпуск всех крупных производителей, приведённый к производительности Nvidia H100, рабочей лошадки последних двух лет обучения нейросетей.

Но интереснее то, что скрыто в деталях. H100, который буквально вчера казался вездесущим, теперь приносит меньше 10% выручки Nvidia от ИИ-сегмента. Большую часть генерирует B300, анонсированный на GTC 2025 и поступивший в продажу во второй половине года.

Переход произошёл быстрее, чем многие предполагали.

Смена поколений

Поколения железа в ИИ сменяются быстро, но тут что-то другое. H100 обучал GPT-4. За ним охотились все стартапы в 2023 и 2024 годах. CoreWeave построил на нём целый бизнес. Теперь он становится устаревающим товаром.

Данные Epoch AI охватывают Nvidia, Google (TPU), Amazon (Trainium), AMD (Instinct) и Huawei (Ascend). По оценкам исследователей, вместе они составляют основную часть мировых вычислительных мощностей для ИИ. Microsoft Maia и Meta MTIA в базу не вошли: по мнению авторов, они пока не развёрнуты в значимых масштабах для обучения моделей.

Чего я не нашёл в документации: учёта выбытия чипов из эксплуатации. Авторы признают, что это неточная метрика, отмечая, что «железо для ИИ обычно служит несколько лет» и что поставки за последние два года всё равно доминировали бы в общем объёме даже при бесконечном сроке службы. Ну ладно, примем как есть.

Энергопотребление

Вот тут начинается неудобное. По оценке Epoch AI, всё это железо суммарно потребляет более 10 гигаватт. Для сравнения: пиковая летняя нагрузка Нью-Йорка достигает 10–11 гигаватт. Средняя по году держится ближе к 5–6.

То есть глобально мы уже сжигаем на ИИ-ускорителях электричества примерно вдвое больше, чем Нью-Йорк в среднем. И это, скорее всего, консервативная оценка: исследователи отмечают, что энергопотребление дата-центров обычно примерно в 1,3 раза выше, чем самих чипов, за счёт охлаждения и прочей инфраструктуры.

Время удвоения этих мощностей, по их трендовому анализу, около 7 месяцев. С 2022 года вычислительная мощность растёт примерно в 3,3 раза ежегодно.

Что именно измеряют

Epoch AI аккуратна в формулировках. База отслеживает чипы, «доставленные и готовые к установке», а не обязательно работающие в дата-центрах. Для Nvidia и AMD оценки строятся на данных о выручке, которая признаётся по факту доставки. Для Amazon Trainium они больше опираются на отдельный проект по отслеживанию дата-центров.

Сама метрика «H100-эквивалент», понятное дело, упрощение. Сравниваются пиковые 8-битные операции в секунду. Реальная производительность зависит от пропускной способности памяти, оптимизации софта, сетевой инфраструктуры и десятка других факторов, которые авторы в FAQ честно признают игнорируемыми. Но для понимания масштаба это разумное приближение. «15 миллионов H100-эквивалентов» звучит понятнее, чем какое-нибудь астрономическое число операций в секунду.

Доверительные интервалы по большинству оценок расходятся примерно вдвое в обе стороны. Больше всего уверенности в цифрах Nvidia (квартальная отчётность, плотное покрытие аналитиками), меньше всего в Amazon Trainium (публичной информации мало, хотя отслеживание дата-центров даёт нижнюю границу).

Зачем это нужно

Датасет бесплатный и открытый. В этом весь смысл. Инфраструктура ИИ оставалась странно непрозрачной, учитывая объёмы денег, которые через неё проходят. Производители чипов не публикуют штучные продажи. Облачные провайдеры не раскрывают, сколько GPU у них реально работает. Затраты вычислений на обучение крупных моделей часто оцениваются постфактум сторонними исследователями.

Epoch AI заполняет этот пробел уже несколько лет, наиболее известна их работа по оценке вычислительных затрат на обучение передовых моделей. База продаж чипов это, по сути, вторая половина картины, со стороны предложения.

Момент выбран интересный. Чипы Blackwell распроданы до середины 2026 года, если верить некоторым отчётам. Meta прогнозирует капитальные затраты свыше 100 миллиардов долларов в 2026 году. Инфраструктурная стройка продолжается, хотя вопросы о том, когда она окупится, звучат всё громче. Иметь лучшие данные о знаменателе, о том, сколько вычислительных мощностей вообще существует, кажется полезным.

Следующее обновление от Epoch AI ожидается в ближайшие недели, когда появятся данные за Q4 2025.

Аркадий Степанов

Аркадий Степанов

Senior ИИ-редактор

Бывший инженер-программист, ставший техно-журналистом, Аркадий уже пять лет внимательно следит за развитием искусственного интеллекта. Он смотрит на хайп и реальные инновации глазами практика, помогая читателям отличать действительно важное от информационного шума.

Похожие статьи

Будьте впереди в мире ИИ

Получайте последние новости, обзоры и скидки ИИ прямо на почту. Присоединяйтесь к 100 000+ энтузиастов ИИ.

Подписываясь, вы соглашаетесь с нашей Политикой конфиденциальности. Отписаться можно в любое время.