Беспрецедентная плотность релизов больших языковых моделей (LLM)На протяжении всего 2024 года был за

Беспрецедентная плотность релизов больших языковых моделей (LLM)

На протяжении всего 2024 года был застой до релизов осенью 2024, но с начала 2025 года, как с цепи сорвались. Концентрация релизов запредельно высока, причем это не промежуточные улучшения в рамках точечного улучшения функционала, а полноценное развертывание новых LLM с глубокой модернизацией архитектуры.

Их уже стало настолько много, что можно «обмазаться» этими LLMs и с трудом находить отличия.

Помните, как все начиналось в конце января, когда 27 января рынки рухнули за счет технологических компаний из-за опасений, что прорывной метод обучения китайских LLM снизит потребность в вычислительных ресурсах? Тогда DeepSeek R1 совершил фурор, выходя в лидеры в ТОПе лучших мировых LLM.

Практически сразу после феерического старта китайцев, OpenAI 31 января выпускает o3-mini в публичный доступ, получивший значительные улучшения и стабильность в сравнении с o1 (прежде всего мультимодальность и доступ в сеть).

В попытке удержаться за лидерами Google 6 февраля выпускает Gemini 2.0 PRO, которая разочаровала слишком слабым ростом производительности в сравнении с Gemini 2.0 Flash.

Далее (18 февраля) последовал релиз прорывного Grok, который вновь сломал всех (в контексте борьбы за лидерство), выводя качество генерации на новые недостижимые высоты с заметным преимуществом.

24 февраля Anthropic представляет Claude 3.7 Sonnet, который не стал лидером, но частично закрыл проблемные зоны Claude 3.5 и получил существенное преимущество в кодинге.

Менее, чем через месяц после релиза o3-mini OpenAI
открывает доступ к GPT-4.5 (Orion) – самой противоречивой модели – невероятно дорогой (кратно дороже конкурентов) с практически отсутствием значимых нововведений и улучшением производительности.

Что произошло за последние 1.5 месяц. Целый зоопарк моделей от OpenAI с дурацкими названиями.

🔘В середине марта крупное обновление GPT-4o, которая становится в группе лидеров среди нерассуждающих моделей на уровне Grok3 и Claude 3.7 Sonnet.

🔘Внедрение революционного инструмента генерации изображений с глубоким редактированием с мощным рывком по качеству генерации изображений, выходя в группу лидеров. Здесь нужен отдельный обзор.

🔘14 апреля – релиз семейства GPT-4.1 (GPT-4.1, GPT-4.1 mini, GPT-4.1 nano) с расширением контекстного окна в 8 раз до 1 млн токенов, с ростом стабильности в условиях широкого контекстного окна, улучшением мультимодальности, с ростом качества генерации и производительности.

🔘16 апреля – внедрение новых моделей o3 и o4-mini. На данный момент самые мощные модели на рынке (подробности в отдельном обзоре).

Однако, перед тем, как OpenAI расширила зоопарк LLMs, от Google были очень сильные релизы.

25 марта Google неожиданно представляет Gemini 2.5 Pro (релиз ожидался не ранее июня), которая сразу вырывается в лидеры по совокупности факторов с очень широким контекстным окном в 1 млн токенов и значительными улучшениями в мультимодальности (текст, аудио, изображения, видео, код).

Буквально пару дней назад (17 апреля) Google внедряет Gemini 2.5 Flash, являющиеся облегченной версией 2.5 Pro, но со значительными преимуществами – скорость генерации и цена, делая эту модель самой выгодной среди всех LLM.

Две недели назад (5 апреля) Meta представила новое поколение Llama 4 с доступными версиями Llama 4 Maverick (продвинутая) и Llama 4 Scout (облегченная), но у Scout при интегрально слабой производительности есть важное преимущество – рекордное контекстное окно в 10 млн токенов!

Скорость инновации пугающе высокая. Буквально за три месяца сменилось пять лидеров среди лучших LLMs, а средний период «простоя» сократился до рекордно низких двух недель, т.е. в среднем два раза в месяц крупные релизы от ведущих разработчиков ГИИ.

Это я еще не затрагивал модели генерации видео и изображений, где также скорость инноваций запредельно высокая.

Интригующе, пугающе, но невероятно интересно.

Моя стратегия (пароль: INFO) как анализировать российский рынок с помощью анализа объемов и фундаментального анализа.

Добавить комментарий