AGI

Sequoia объявила о приходе AGI. Аргументы больше похожи на питч для инвесторов, чем на технический прорыв.

Венчурный фонд переопределил AGI под удобный бенчмарк, а потом агрессивно экстраполировал данные.

Ирина Андреева
Ирина АндрееваКорреспондент по ИИ и Инновациям
22 января 2026 г.5 мин чтения
Поделиться:
Иллюстрация: фигура передвигает ворота с надписью AGI ближе к застывшему роботу, на фоне экспоненциальная кривая

На прошлой неделе партнёры Sequoia Capital Пэт Грейди и Соня Хуан опубликовали эссе под названием «2026: This is AGI». По их версии, искусственный общий интеллект уже наступил. Доказательство: кодинг-агенты вроде Claude Code могут автономно работать около 30 минут, не разваливаясь на части.

Вот такая планка. Полчаса полурелевантного выполнения задач.

Жонглирование определениями

Эссе открывается знакомой сценой: исследователи уклоняются от вопроса про AGI фразой «узнаем, когда увидим». Грейди и Хуан позиционируют себя как взрослые в комнате и предлагают функциональное определение вместо технического. AGI, пишут они, это просто «способность разбираться в вещах».

Ход умный. Если определить AGI как автономное решение проблем, а не интеллект человеческого уровня, можно объявить победу. Ворота не передвинули, они просто всегда стояли не там, где вы думали.

Их фреймворк разбивает интеллект на три компонента: базовые знания из предобучения (момент ChatGPT в 2022-м), рассуждения через вычисления во время инференса (o1 от OpenAI в конце 2024-го), итерации через долгосрочных агентов (Claude Code и аналогичные инструменты за последние недели). Сложите это вместе и получите нечто, что может «разбираться в вещах». Это, видимо, и есть AGI.

Самое показательное признание спрятано в сноске: «Мы понимаем, что такое неточное определение не разрешит никаких философских дебатов». Ещё бы.

Экстраполяция от METR

Количественный хребет аргументации Sequoia взят у METR, исследовательской организации, которая отслеживает способности ИИ-агентов через временные горизонты выполнения задач. Метрика измеряет, сколько времени задача занимает у экспертов-людей, а затем отслеживает, задачи какой продолжительности ИИ-агенты выполняют с 50% надёжностью.

Тренд и правда впечатляет: удвоение примерно каждые семь месяцев за последние шесть лет. В мартовской статье 2025 года METR обнаружили, что у Claude 3.7 Sonnet временной горизонт около часа. То есть модель справляется с 50% задач, на которые программистам-людям требуется час.

Sequoia берёт эту экспоненту и несётся с ней вперёд. Если тренд продолжится, пишут они, «агенты должны надёжно выполнять задачи, занимающие у экспертов полный рабочий день, к 2028-му, полный год к 2034-му и целый век к 2037-му».

Век. К 2037 году.

Тут оптимизм инвесторов начинает проглядывать. Сами исследователи METR куда осторожнее. Они отмечают, что производительность значительно падает на «грязных» задачах, которые напоминают реальную работу. Корреляция между успехом ИИ и логарифмом человеческого времени сильная (R² ≈ 0.83) на их бенчмарках, но эти бенчмарки состоят в основном из хорошо структурированных задач по разработке ПО. Сохранится ли тренд для неоднозначной, контекстно-зависимой работы, пока вопрос открытый.

Исследователи METR также оговариваются, что их экстраполяции «не учитывают будущие изменения тренда или проблемы внешней валидности, которые отвечают за большую часть нашей неопределённости». В эссе Sequoia ни одной из этих оговорок нет.

Демонстрация с рекрутингом

Чтобы проиллюстрировать «разбирание в вещах», Sequoia описывает агента, который выполняет рекрутинговую задачу за 31 минуту. Основатель просит найти руководителя по работе с разработчиками. Агент ищет в LinkedIn, переключается на конференционные выступления на YouTube, сверяет активность в Twitter, находит человека, который, похоже, потерял интерес к текущей работе, и готовит черновик письма.

Звучит убедительно. И при этом гипотетически. Нет ни ссылки, ни названия продукта, ни указания на то, что это реально произошло. Эссе подаёт это как иллюстрацию, а не документированный факт. Для мысленного эксперимента нормально, для доказательства AGI маловато.

Вопрос интереснее: как часто это работает? В эссе признаётся, что «агенты всё ещё ошибаются. Они галлюцинируют, теряют контекст и иногда уверенно несутся в совершенно неправильном направлении». Но как часто? При надёжности 50% рекрутингового агента придётся запускать в среднем дважды, чтобы получить годный результат. При более низкой надёжности вы генерируете правдоподобную ерунду, которую всё равно кто-то должен проверить.

Техническая реальность

Эссе приписывает два подхода появлению долгосрочных агентов: обучение с подкреплением (тренировка моделей на удержание фокуса в течение длительных задач) и агентные обвязки (внешние леса для памяти, передачи контроля и ограждений).

Claude Code, который Anthropic выпустила как инструмент командной строки в конце 2024-го и расширила до веб-интерфейса в октябре 2025-го, воплощает подход с обвязкой. Инструмент даёт Claude доступ к терминалу, файловой системе и bash-командам, позволяя итеративно работать над кодом, как это делал бы разработчик-человек. На прошлой неделе Anthropic добавила поиск по инструментам, чтобы снизить нагрузку на контекст.

Базовые возможности реальны. Claude Sonnet 4.5, по данным Anthropic, удерживает фокус более 30 часов на сложных задачах. Бенчмарки по программированию вроде SWE-bench Verified показывают устойчивый рост, топовые агенты решают 50-70% реальных GitHub-issues. Factory's Droids, Manus и похожие инструменты набирают популярность среди разработчиков.

Но между «кодинг-агенты полезны» и «AGI настал» есть пропасть. Первое доказуемо верно. Второе требует принять определенческую манипуляцию Sequoia.

Бизнес-логика

Уберите фрейминг про AGI, и эссе Sequoia читается как питч-дек для стартапа. Они перечисляют ИИ-приложения, которые «функционируют как» специалисты: OpenEvidence для медицины, Harvey для юриспруденции, XBOW для тестирования на проникновение, Day AI для продаж. Сигнал для портфельных компаний понятен: технология готова, стройте.

Эссе также сигнализирует инвестиционный тезис Sequoia. Фонд вкладывается и в Anthropic (по слухам, идут переговоры о раунде на $25 млрд), и в OpenAI. Если AGI настал, каждая ИИ-компания становится потенциальным победителем, что оправдывает ставки на конкурирующие подходы одновременно.

В том, что венчурные капиталисты настроены оптимистично, нет ничего плохого. Это их работа. Но риторическая стратегия эссе заслуживает внимания: переопределение AGI под текущие возможности смешивает «агенты, которые могут автономно выполнять структурированные задачи» и «искусственный общий интеллект». Два утверждения с очень разными импликациями.

Что реально нового

Настоящая новость в эссе Sequoia не в объявлении AGI. Это срез того, где возможности агентов находятся в начале 2026-го.

Долгосрочные агенты перешли порог практической применимости для определённых рабочих процессов. Помощь в программировании сдвинулась от автодополнения к автономному выполнению задач. Разработчики обнаруживают, что Claude Code на удивление хорошо справляется с непрограммистской работой, что побудило Anthropic выпустить Cowork, версию для обычных пользователей, на этой неделе.

Бенчмарк METR, несмотря на ограничения, даёт полезную рамку для отслеживания прогресса. Если экспонента удержится, агенты, способные автономно работать целый день, появятся в ближайшую пару лет. За этим стоит следить.

В чём Sequoia ошиблась, так это во фрейминге. Называть текущих агентов «функциональным AGI» не проясняет технологию, а мутит дискуссию. Когда всё становится AGI, термин теряет смысл.

Следующий дедлайн FTC по комментариям к регулированию ИИ закрывается в марте. Считаются ли агенты, работающие 30 минут, общим интеллектом, менее важно, чем можно ли их безопасно разворачивать. Этот разговор эссе Sequoia, похоже, вести не заинтересовано.

Ирина Андреева

Ирина Андреева

Корреспондент по ИИ и Инновациям

Ирина освещает стремительно развивающийся мир искусственного интеллекта, от прорывов в исследовательских лабораториях до практических решений, которые меняют целые отрасли. Имея опыт в компьютерных науках и журналистике, она превращает сложные технические разработки в понятные и доступные инсайты для любознательных читателей.

Похожие статьи

Будьте впереди в мире ИИ

Получайте последние новости, обзоры и скидки ИИ прямо на почту. Присоединяйтесь к 100 000+ энтузиастов ИИ.

Подписываясь, вы соглашаетесь с нашей Политикой конфиденциальности. Отписаться можно в любое время.