К 2028 году ИИ-системы могут самореализоваться без человеческого участия: прогноз сооснователя Anthropic
Мы можем увидеть будущее, где ИИ-системы разработают и обучают собственных преемников без помощи человека Такой прогноз сделал сооснователь компании Anthropic Джек Кларк 🚀 ⚡
«Это очень важно, и я не знаю, как осознать это
Я прихожу к этому выводу с неохотой, потому что последствия настолько велики, что я чувствую себя подавленным ими, и я не уверен, что общество готово к тем изменениям, которые подразумевает автоматизированная ИИ-разработка», — отметил он.
Кларк описал сценарий полной автоматизации ИИ-исследований — модель сама:
ставит исследовательские задачи;
проектирует эксперименты;
улучшает архитектуру следующей версии ИИ.
Эксперт назвал это «рубиконом в почти непредсказуемое будущее» и оценил вероятность такого сценария в 60% в ближайшие два года 📊 💰
На чем основана оценка Вывод Кларка строится на динамике нескольких бенчмарков:
SWE-Bench — тест на решение реальных инженерных задач по репозиторию GitHub В конце 2023 года лучшие модели справлялись примерно с 2% кейсов; к весне 2026 показатель достиг 94%;
CORE-Bench — воспроизведение результатов научных ИИ-статей с установкой окружения, запуском кода и анализом выводов
По словам Кларка, бенчмарк фактически «закрыт»: современные агенты показывают около 95,5%;
MLE-Bench — выполнение ML -задач уровня Kaggle Лучшие агентные системы уже достигают 64-65%.
По словам сооснователя Antropic, все три метрики демонстрируют одно: ИИ от точечного написания кода к полноценному выполнению инженерных и исследовательских задач 📊 💻
Рост автономности Еще один аргумент — увеличение продолжительности задач, которые ИИ-модели способны выполнять без вмешательства человека.
По данным METR, в 2022 году системы справлялись с заданиями, занимавшими у человека десятки секунд
В 2024 показатель вырос примерно до 40 минут, в 2025 году — до шести часов Сейчас передовые модели способны вести инженерную работу около 12 часов подряд 🕒️ 💪
Кларк связал это с распространением
Чем дольше модель удерживает цель, проверяет промежуточные результаты и исправляет ошибки, тем больше этапов исследовательского цикла можно ей делегировать 💻 📊
Почему это важно для разработки ИИ Современный цикл разработки ИИ устроен по одной схеме: изучить материалы, воспроизвести результат, собрать эксперимент, обучить или дообучить модель, проверить метрики, найти узкие места и повторить Рост на SWE-Bench, CORE-Bench и MLE-Bench показывает, что модели уже справляются с целыми фрагментами такого цикла 💻 📊
Кларк отдельно указал на прогресс в более специализированных задачах
Например, ИИ начинают применять для дизайна GPU -ядер — кода, который определяет эффективность обучения и инференса моделей на конкретном железе 🤖 💻
Еще одно направление — дообучение моделей В бенчмарке PostTrainBench ИИ-системы улучшают небольшие LLM с открытым исходным кодом 📊 💻
По состоянию на весну 2026 года лучшие нейросети достигают 25-28% от целевого прироста (у человеческих команд — 51%)
Кларк считает результат значимым: ориентир задают реальные инструктивные модели, созданные опытными исследователями 📊 💻
Anthropic замеряла, как ее модели оптимизируют обучение LLM на CPU За год ускорение выросло с 2,9 раза (Claude Opus 4) до 52
Человеку на аналогичную задачу обычно требуется четыре-восемь часов 🕒️ 💻
ИИ уже учится управлять ИИ Кларк отметил, что современные системы начинают Такой подход уже используется в продуктах вроде Claude Code или OpenCode: один ассистент распределяет задачи между несколькими подассистентами, контролирует их и собирает результаты 🤖 💻
Для ИИ-разработок это важно: они редко представляют собой одну линейную задачу — обычно это десятки параллельных процессов, включая написание кода и настройку окружения
Если модель начнет управлять такими контурами самостоятельно, степень человеческого участия резко сократится 📊 💻
Нужна ли нейросетям креативность По мнению сооснователя Anthropic, один из ключевых вопросов— на что больше похожа разработка ИИ: на открытие общей теории относительности или на сборку Lego 🤔 🎉
Кларк признал, что современные LLM пока не способны генерировать принципиально новые научные идеи Однако для автоматизации значительной части AI R&D это может быть не обязательно 📊 💻
«В основном ИИ движется вперед через методичное выполнение людьми некоторого цикла: взять хорошо работающую систему, масштабировать какой-то ее аспект, посмотреть на ошибки при масштабировании и исправить их
Для этого требуется очень мало нестандартных идей, и большая часть подобного процесса похожа на неприглядную черновую инженерную работу», — отметил эксперт 📊 💻
Первые признаки научного вклада Кларк считает, что у ИИ-моделей уже начинают появляться ранние Он привел несколько примеров из математики и информатики 📊 🤓
Если текущий темп сохранится, индустрия перейдет к фазе полной автоматизации ИИ-разработок, спрогнозировал эксперт
На первый план также выйдут фундаментальные вопросы безопасности, распределения капитала, роли человеческого труда и контроля над системами, которые начинают развиваться быстрее своих создателей 🚨 💻
«Если бы вы заставили меня назвать вероятность для 2027 года, я бы сказал 30% Если мы не увидим этого к концу 2028 года, то, думаю, мы обнаружим какой-то недостаток в текущей технологической парадигме, и для движения вперед потребуется человеческое изобретение», — заключил Кларк 🤔 📊
скорое появление AGI и сокращения рабочих мест 🚨 📊
За матеріалами ForkLog