Как Phi-4-Reasoning переопределяет ИИ-рассуждения, опровергая миф о том, что ‘больше значит лучше’

Изображение, показывающее сравнительный график эффективности моделей ИИ с различным числом параметров. На переднем плане модель Microsoft Phi-4-Reasoning с 14 миллиардами параметров, в то время как модели с сотнями миллиардов параметров показаны на заднем плане.

В мире развития искусственного интеллекта давно утвердилось мнение, что для сложных задач рассуждения требуются огромные языковые модели с сотнями миллиардов параметров. Однако недавний прорыв Microsoft ставит под сомнение эту устоявшуюся парадигму. Новая модель Phi-4-reasoning с всего 14 миллиардами параметров демонстрирует возможности, сравнимые с гораздо более крупными системами. Этот прорыв меняет основной подход к созданию ИИ, способного к рассуждениям, смещая фокус с размера модели на качество данных, используемых для обучения.

Традиционная парадигма рассуждений в ИИ

С момента появления метода “цепочки размышлений” (chain-of-thought reasoning) эта техника стала стандартом для решения сложных задач в искусственном интеллекте. Метод позволяет языковым моделям выполнять пошаговое рассуждение, разбивая сложные проблемы на более мелкие и решаемые этапы. Эта методика имитирует человеческое мышление, заставляя модели “думать вслух” на естественном языке перед предоставлением ответа.

Однако исследователи неизменно обнаруживали, что данный подход эффективно работает только с очень большими языковыми моделями. Способность к рассуждению казалась напрямую связанной с размером модели — чем больше модель, тем лучше она справлялась со сложными задачами. Это привело к гонке по созданию всё более масштабных моделей, где компании сосредотачивались на превращении своих крупных языковых моделей в мощные “механизмы рассуждений”.

Подход, ориентированный на данные

Развитие ИИ с ориентацией на данные бросает вызов менталитету “чем больше, тем лучше”. Этот подход смещает фокус с архитектуры модели на тщательную инженерию данных, используемых для обучения систем ИИ. Вместо того чтобы рассматривать данные как фиксированный входной материал, методология, ориентированная на данные, воспринимает их как материал, который можно совершенствовать и оптимизировать для повышения производительности ИИ.

Этот подход задает принципиально другой вопрос: “Как мы можем улучшить наши данные?” вместо “Как мы можем сделать модель больше?”. Это означает создание более качественных обучающих наборов данных, улучшение их качества и разработку систематического инжиниринга данных. В ИИ, ориентированном на данные, основное внимание уделяется пониманию того, что делает данные эффективными для конкретных задач, а не просто их накоплению.

Если вы хотите глубже понять, как создаются и работают современные AI агенты, существуют специализированные курсы, которые помогут разобраться в этой увлекательной области.

Прорывная стратегия Phi-4-reasoning

Модель Phi-4-reasoning демонстрирует, как подход, ориентированный на данные, может использоваться для обучения небольших моделей рассуждению. Модель была построена путем контролируемой доработки базовой модели Phi-4 на тщательно отобранных “обучаемых” запросах и примерах рассуждений, сгенерированных с помощью OpenAI’s o3-mini. Акцент был сделан на качестве и специфичности, а не на размере набора данных.

Модель обучалась примерно на 1,4 миллиона высококачественных запросов вместо миллиардов общих примеров. Исследователи отфильтровали примеры, охватывающие различные уровни сложности и типы рассуждений, обеспечивая разнообразие. Эта тщательная подборка сделала каждый обучающий пример целенаправленным, обучая модель конкретным паттернам рассуждений, а не просто увеличивая объем данных.

Для дальнейшего улучшения способностей модели к рассуждению она была дополнительно усовершенствована с помощью обучения с подкреплением на примерно 6000 высококачественных математических задач с проверенными решениями. Это показывает, что даже небольшие объемы целенаправленного обучения с подкреплением могут значительно улучшить способность к рассуждению при применении к хорошо подобранным данным.

Результаты превосходящие ожидания

Результаты доказывают, что подход, ориентированный на данные, работает. Phi-4-reasoning превосходит гораздо более крупные модели с открытым весом, такие как DeepSeek-R1-Distill-Llama-70B, и почти соответствует полной версии DeepSeek-R1, несмотря на значительно меньший размер. На тесте AIME 2025 (квалификационный тур математической олимпиады США) Phi-4-reasoning превосходит DeepSeek-R1, у которой 671 миллиард параметров.

Эти улучшения распространяются не только на математику, но и на решение научных проблем, программирование, алгоритмы, планирование и пространственные задачи. Улучшения от тщательной подборки данных хорошо переносятся на общие тесты, что свидетельствует о том, что этот метод действительно формирует фундаментальные навыки рассуждения, а не просто трюки для решения конкретных задач.

Последствия для развития ИИ

Успех Phi-4-reasoning сигнализирует о смене подхода к построению моделей ИИ для рассуждений. Вместо того чтобы сосредотачиваться в основном на увеличении размера модели, команды могут получить лучшие результаты, инвестируя в качество данных и их подборку. Это делает продвинутые возможности рассуждения более доступными для организаций без огромных вычислительных бюджетов.

Метод, ориентированный на данные, также открывает новые пути для исследований. Будущая работа может сосредоточиться на поиске лучших обучающих запросов, создании более богатых рассуждений и понимании того, какие данные лучше всего способствуют развитию рассуждений. Эти направления могут оказаться более продуктивными, чем просто создание более крупных моделей.

В более широком смысле, это может помочь демократизировать ИИ. Если меньшие модели, обученные на тщательно подобранных данных, могут соответствовать большим моделям, передовые технологии ИИ становятся доступными для большего числа разработчиков и организаций. Это также может ускорить внедрение ИИ и инновации в областях, где использование очень больших моделей непрактично.

Будущее моделей рассуждения

Phi-4-reasoning устанавливает новый стандарт для разработки моделей рассуждения. Будущие системы ИИ, вероятно, будут балансировать между тщательной подборкой данных и архитектурными улучшениями. Этот подход признает важность как качества данных, так и дизайна модели, но улучшение данных может дать более быстрые и экономически эффективные результаты.

Это также позволяет создавать специализированные модели рассуждения, обученные на данных для конкретных областей. Вместо гигантов общего назначения, команды могут создавать ориентированные модели, превосходящие в конкретных областях благодаря целевому подбору данных. Это создаст более эффективный ИИ для конкретных применений.

Заключение

Phi-4-reasoning от Microsoft меняет распространенное убеждение, что для продвинутого ИИ, способного к рассуждениям, необходимы очень большие модели. Вместо того чтобы полагаться на больший размер, эта модель использует подход, ориентированный на данные, с высококачественными и тщательно подобранными обучающими данными. Phi-4-reasoning имеет всего 14 миллиардов параметров, но работает так же хорошо, как и гораздо более крупные модели при решении сложных задач рассуждения.

Этот новый метод обучения делает продвинутый ИИ, способный к рассуждениям, более эффективным и доступным для организаций, не обладающих большими вычислительными ресурсами. Успех Phi-4-reasoning указывает на новое направление в разработке ИИ, которое фокусируется на повышении качества данных, умном обучении и тщательной инженерии, а не только на увеличении размера моделей.