Ищете крутые кейсы в digital? Посмотрите на номинантов Workspace Digital Awards 2026!
Назад

Как мы уходили от GPT к Deepsick и вернулись обратно…

1863 
 

Всем привет! Это снова Ангелина. Недавно у нас в офисе был полный переполох. Мы решили отойти от Gpt и попробовать что-то новенькое. Да-да, именно GPT. Выбрали Deepsick.
А что у нас из этого вышло – читайте далее. Спойлер уже в названии.

Давайте начнем с простого, к GPT мы все привыкли, о нем кричат на каждом углу, казалось бы, зачем? Ответ простой, захотелось чего-то другого, нового, возможно какого-то роста. А тут DeepSeek – амбициозная разработка китайских инженеров, которая стремится конкурировать с GPT-моделями по качеству генерации текста, коду, переводу и другим задачам. Но в чем же разница?

Архитектура

DeepSeek строится на модифицированной архитектуре LLaMA (Large Language Model Meta AI) — модели с открытым кодом от Meta, которая послужила базой для многих современных open-source ИИ. В частности, DeepSeek использует:

  • DeepSeek-V2 — 236B параметров в «full-scale» версии, более масштабная, чем GPT-3.5.
  • Использует Mixture of Experts (MoE) — приём, при котором не все блоки модели активируются одновременно, а только часть из них (2 из 64, например). Это позволяет значительно сократить вычислительные ресурсы без потери качества.
  • Преимущество MoE — высокая масштабируемость и экономия GPU при inference.

В сравнении:

  • GPT-4 — архитектура до сих пор не раскрыта официально, но, по слухам, это смесь моделей с примерно 1,8 трлн параметров (в MoE-режиме), что делает её гигантом среди коммерческих LLM.
  • GPT-3.5 — классическая архитектура трансформеров без MoE.

Вывод: архитектурно DeepSeek идёт в ногу с современными трендами — экономичен, масштабируем, но пока проигрывает в зрелости и оптимизации.

Обучение и данные

DeepSeek обучен на 2 триллионах токенов, включая:

  • Китайские и английские тексты,
  • Исходный код,
  • Техническую документацию,
  • Диалоги и JSON-данные.

В модели присутствует явный фокус на двуязычность (особенно китайско-английскую) и code generation.

GPT, в свою очередь:

  • Обучен на приватных датасетах OpenAI с широким охватом языков и контекстов,
  • Дополнительно дообучен на реальных пользовательских запросах через Reinforcement Learning from Human Feedback (RLHF),
  • Обладает лучшей способностью к «контекстной адаптации» и пониманию нюансов языка.

Вывод: GPT выигрывает за счёт богатой RLHF-финетки и большего числа живых диалогов, но DeepSeek явно силён в коде и техническом тексте.

Качество ответов: кто умнее?

1. Диалоги и эмоции

  • GPT-4: Очень высокое качество, естественные и эмоциональные ответы.
  • DeepSeek-V2: Формально, суховато (меньше адаптивности под тон разговора).

2. Генерация кода

  • GPT-4: Отличная (особенно GPT-4 Turbo).
  • DeepSeek-V2: Очень сильная, особенно в Python.

3. Логика / рассуждения

  • GPT-4: Лидер рынка, лучше справляется с комплексными задачами.
  • DeepSeek-V2: Хорошо, но уступает GPT-4 в сложных умозаключениях.

4. Китайский язык

  • GPT-4: Хороший, но не идеальный.
  • DeepSeek-V2: Родной и идеальный (разработан в Китае, оптимизирован под китайский).

5. Английский язык

  • GPT-4: Естественный и точный.
  • DeepSeek-V2: Иногда грубоват (может быть менее плавным).

6. Многозадачность (MMLU)

  • GPT-4: 86+% (лучшая общая эрудиция).
  • DeepSeek-V2: ~80% (немного слабее в широких знаниях).

Да, иногда вы можете дать запрос Deepsick, однако в ответ получите тишину.

Как мы уходили от GPT к Deepsick и вернулись обратно…

Разместите
тендер бесплатно

Наша система сама подберет вам исполнителей на услуги, связанные с разработкой сайта или приложения, поисковой оптимизацией, контекстной рекламой, маркетингом, SMM и PR.

Заполнить заявку 13227 тендеров
проведено за восемь лет работы нашего сайта.


7. Скорость генерации

  • GPT-4: Умеренная (зависит от версии).
  • DeepSeek-V2: Быстрее благодаря архитектуре MoE (Mixture of Experts).

Вывод: GPT выигрывает в языке и логике, DeepSeek — в скорости, двуязычии и генерации кода. Но разница в user experience пока заметна не в его пользу. Использование и API

  • GPT (ChatGPT): доступен через web, API, плагинную экосистему, интеграцию с Microsoft (Copilot).
  • DeepSeek: доступен через Hugging Face, Colab и API (в Китае) — для open-source проектов и локальных запусков.

Плюс DeepSeek можно развернуть локально — как и многие open-source модели, в отличие от GPT-4, который полностью закрыт.

Тест: генерация кода

Запрос: Напиши функцию на Python, которая определяет, является ли строка палиндромом.

GPT-4 ответ:

Как мы уходили от GPT к Deepsick и вернулись обратно…

DeepSeek ответ:

Как мы уходили от GPT к Deepsick и вернулись обратно…

Вывод: оба справляются, DeepSeek даже аккуратнее типизирует. Но GPT обычно лучше поясняет логику кода и предлагает варианты тестов.

Еще одно очень важное уточнение, Deepsick не генерирует изображения, в то время как GPT может не только создать по описанию что-либо, но и исправить существующее, а также позволяет менять что-либо в том, что сам и создал.

Кстати, кому очень важен этот пункт, и кроме GPT хочется чего-то еще, открыла для себя Imagen 4 Ultra. Да, он не может видоизменять готовое изображение, однако, хорошо справляется с генерацией нового контента, даже быстрее чем GPT, который иногда может думать весьма долго. Привожу пример, далее судите сами.

Промт был такой:

Создай изображение женщины, с темными волосами, которая идет под деревьями с розовыми лепестками, в весеннем цветочном платье, волосы в небрежной косе, улыбается, подлинный вид.

Imagen 4 Ultra:

Как мы уходили от GPT к Deepsick и вернулись обратно…

GPT:

Как мы уходили от GPT к Deepsick и вернулись обратно…

На мой взгляд, хоть GPT и сделал изображение более детальным и качественным, Imagen 4 Ultra cделал его более естественным. Возвращаясь к нашей основной теме, хоть Deepsick и оказался отнюдь неплохим решением, однако с нашими задачами он не совсем справлялся. Когда это начало влиять на качество работы, а именно замедлять и усложнять те вещи, которые раньше решались на раз-два, мы решили вернуться обратно. Однако, Deepsick остался моим вторым помощником в решении различных вопросов. Как говорят, одна голова –хорошо, а две – лучше.

Надеюсь, вам было интересно, до встречи в следующей статье.

Лучшее
Выскажите мнение
Авторизуйтесь, чтобы добавить свой комментарий.
Дмитрий Конченко
Дмитрий Конченко
28 июня
А Я использую для работы DeepSeek и Qwen. Очень доволен.




1863

Лучшие статьи

Поделиться: 0 0 0
Проектный менеджер в  PARSINGSITE , Москва
 0  1  1