Для BMS, BUS, промышленного, приборного кабеля.

Весенний фестиваль подходит к концу, но волнение вокруг DeepSeek остается сильным. Недавние праздники подчеркнули значительное чувство конкуренции в технологической отрасли, и многие обсуждали и анализировали этого «сома». Кремниевая долина переживает беспрецедентное чувство кризиса: сторонники открытого исходного кода снова высказывают свое мнение, и даже OpenAI пересматривает, была ли ее стратегия закрытого исходного кода лучшим выбором. Новая парадигма более низких вычислительных затрат вызвала цепную реакцию среди таких гигантов чипов, как Nvidia, что привело к рекордным однодневным потерям рыночной стоимости в истории фондового рынка США, в то время как государственные органы расследуют соответствие чипов, используемых DeepSeek. На фоне неоднозначных отзывов о DeepSeek за рубежом, внутри страны он переживает необычайный рост. После запуска модели R1 связанное приложение увидело всплеск трафика, что указывает на то, что рост в прикладных секторах будет продвигать вперед всю экосистему ИИ. Положительным аспектом является то, что DeepSeek расширит возможности приложений, предполагая, что в будущем полагаться на ChatGPT не будет так дорого. Этот сдвиг нашел отражение в недавних действиях OpenAI, включая предоставление модели рассуждений под названием o3-mini для бесплатных пользователей в ответ на DeepSeek R1, а также последующие обновления, которые сделали цепочку мыслей o3-mini общедоступной. Многие зарубежные пользователи выразили благодарность DeepSeek за эти разработки, хотя эта цепочка мыслей служит лишь резюме.
Оптимистично, очевидно, что DeepSeek объединяет отечественных игроков. С его фокусом на снижении затрат на обучение, различные производители микросхем верхнего уровня, промежуточные поставщики облачных услуг и многочисленные стартапы активно присоединяются к экосистеме, повышая экономическую эффективность использования модели DeepSeek. Согласно документам DeepSeek, полное обучение модели V3 требует всего 2,788 миллиона часов работы графического процессора H800, а процесс обучения отличается высокой стабильностью. Архитектура MoE (Mixture of Experts) имеет решающее значение для снижения затрат на предварительное обучение в десять раз по сравнению с Llama 3 с 405 миллиардами параметров. В настоящее время V3 является первой публично признанной моделью, демонстрирующей такую высокую разреженность в MoE. Кроме того, MLA (Multi Layer Attention) работает синергетически, особенно в аспектах рассуждения. «Чем разрежённее MoE, тем больший размер пакета необходим во время рассуждений для полного использования вычислительной мощности, при этом размер KVCache является ключевым ограничивающим фактором; MLA значительно уменьшает размер KVCache», — отметил исследователь из Chuanjing Technology в анализе для AI Technology Review. В целом, успех DeepSeek заключается в сочетании различных технологий, а не только одной. Инсайдеры отрасли хвалят инженерные возможности команды DeepSeek, отмечая их превосходство в параллельном обучении и оптимизации операторов, достигая новаторских результатов за счет уточнения каждой детали. Открытый исходный подход DeepSeek дополнительно подпитывает общую разработку больших моделей, и ожидается, что если подобные модели будут расширяться до изображений, видео и многого другого, это значительно стимулирует спрос во всей отрасли.
Возможности для сторонних служб обоснования
Данные показывают, что с момента своего выпуска DeepSeek привлек 22,15 миллиона активных пользователей в день (DAU) всего за 21 день, достигнув 41,6% пользовательской базы ChatGPT и превзойдя 16,95 миллионов активных пользователей в день Doubao, таким образом став самым быстрорастущим приложением в мире, возглавив Apple App Store в 157 странах/регионах. Однако, пока пользователи стекались толпами, киберхакеры неустанно атаковали приложение DeepSeek, вызывая значительную нагрузку на его серверы. Аналитики отрасли полагают, что это частично связано с тем, что DeepSeek развертывает карты для обучения, не имея достаточной вычислительной мощности для рассуждений. Инсайдер отрасли сообщил AI Technology Review: «Частые проблемы с сервером можно легко решить, взимая плату или финансируя покупку большего количества машин; в конечном итоге это зависит от решений DeepSeek». Это представляет собой компромисс между фокусировкой на технологии и выпуском продукции. DeepSeek в значительной степени полагался на квантовое квантование для самообеспечения, получив небольшое внешнее финансирование, что привело к относительно низкому давлению на денежный поток и более чистой технологической среде. В настоящее время, в свете вышеупомянутых проблем, некоторые пользователи призывают DeepSeek в социальных сетях повысить пороги использования или ввести платные функции для повышения удобства пользователей. Кроме того, разработчики начали использовать официальный API или сторонние API для оптимизации. Однако открытая платформа DeepSeek недавно объявила: «Текущие ресурсы сервера ограничены, и пополнения сервиса API были приостановлены».
Это, несомненно, открывает больше возможностей для сторонних поставщиков в секторе инфраструктуры ИИ. Недавно многочисленные отечественные и международные гиганты облачных вычислений запустили API-интерфейсы модели DeepSeek — зарубежные гиганты Microsoft и Amazon присоединились к ним в конце января одними из первых. Отечественный лидер Huawei Cloud сделал первый шаг, выпустив сервисы рассуждений DeepSeek R1 и V3 в сотрудничестве с Flow на основе Silicon 1 февраля. Отчеты AI Technology Review указывают на то, что сервисы Flow на основе Silicon увидели приток пользователей, что фактически «обрушило» платформу. Три крупнейших технологических компании — BAT (Baidu, Alibaba, Tencent) и ByteDance — также выпустили недорогие ограниченные по времени предложения, начиная с 3 февраля, что напоминает прошлогодние ценовые войны поставщиков облачных вычислений, разгоревшиеся после запуска модели V2 DeepSeek, где DeepSeek стали называть «мясником цен». Неистовые действия поставщиков облачных услуг напоминают о более ранних прочных связях между Microsoft Azure и OpenAI, когда в 2019 году Microsoft сделала существенные инвестиции в OpenAI в размере 1 миллиарда долларов и получила выгоду после запуска ChatGPT в 2023 году. Однако эти тесные отношения начали рушиться после того, как Meta открыла исходный код Llama, что позволило другим поставщикам за пределами экосистемы Microsoft Azure конкурировать со своими большими моделями. В этом случае DeepSeek не только превзошел ChatGPT с точки зрения накала интереса к продукту, но и представил модели с открытым исходным кодом после выпуска o1, аналогично ажиотажу вокруг возрождения Llama GPT-3.
В действительности поставщики облачных услуг также позиционируют себя как шлюзы трафика для приложений ИИ, что означает, что углубление связей с разработчиками приводит к упреждающим преимуществам. Отчеты показывают, что у Baidu Smart Cloud было более 15 000 клиентов, использующих модель DeepSeek через платформу Qianfan в день запуска модели. Кроме того, несколько более мелких фирм предлагают решения, включая Silicon-based Flow, Luchen Technology, Chuanjing Technology и различных поставщиков ИИ-инфраструктуры, которые запустили поддержку моделей DeepSeek. AI Technology Review узнал, что текущие возможности оптимизации для локализованных развертываний DeepSeek в основном существуют в двух областях: одна из них — оптимизация характеристик разреженности модели MoE с использованием подхода смешанного рассуждения для локального развертывания модели MoE с 671 миллиардом параметров при использовании гибридного вывода GPU/CPU. Кроме того, оптимизация MLA имеет жизненно важное значение. Однако две модели DeepSeek по-прежнему сталкиваются с некоторыми проблемами при оптимизации развертывания. «Из-за размера модели и многочисленных параметров оптимизация действительно сложна, особенно для локальных развертываний, где достижение оптимального баланса между производительностью и стоимостью будет сложной задачей», — заявил исследователь из Chuanjing Technology. Наиболее существенным препятствием является преодоление ограничений емкости памяти. «Мы применяем гетерогенный подход к сотрудничеству для полного использования ЦП и других вычислительных ресурсов, помещая только неразделяемые части разреженной матрицы MoE на ЦП/DRAM для обработки с использованием высокопроизводительных операторов ЦП, в то время как плотные части остаются на ГП», — пояснил он далее. Отчеты показывают, что фреймворк с открытым исходным кодом KTransformers от Chuanjing в первую очередь внедряет различные стратегии и операторы в исходную реализацию Transformers через шаблон, значительно повышая скорость вывода с помощью таких методов, как CUDAGraph. DeepSeek создал возможности для этих стартапов, поскольку преимущества роста становятся очевидными; многие фирмы сообщили о заметном росте числа клиентов после запуска API DeepSeek, получив запросы от предыдущих клиентов, ищущих оптимизации. Инсайдеры отрасли отметили: «В прошлом несколько устоявшиеся клиентские группы часто были заперты в стандартизированных сервисах крупных компаний, тесно связанные своими ценовыми преимуществами из-за масштаба. Однако после завершения развертывания DeepSeek-R1/V3 перед Весенним фестивалем мы внезапно получили запросы на сотрудничество от нескольких известных клиентов, и даже ранее бездействующие клиенты инициировали контакт, чтобы представить наши сервисы DeepSeek». В настоящее время, похоже, DeepSeek делает производительность вывода модели все более критичной, и с более широким принятием больших моделей это продолжит существенно влиять на развитие отрасли AI Infra. Если бы модель уровня DeepSeek могла быть развернута локально по низкой цене, это значительно помогло бы усилиям правительства и предприятий по цифровой трансформации. Однако проблемы сохраняются, поскольку некоторые клиенты могут иметь высокие ожидания в отношении возможностей больших моделей, что делает более очевидным, что баланс производительности и стоимости становится жизненно важным при практическом развертывании.
Чтобы оценить, лучше ли DeepSeek, чем ChatGPT, важно понять их ключевые различия, сильные стороны и варианты использования. Вот всестороннее сравнение:
Особенность/Аспект | DeepSeek | ЧатGPT |
---|---|---|
Право собственности | Разработано китайской компанией | Разработано OpenAI |
Исходная модель | С открытым исходным кодом | Запатентованный |
Расходы | Бесплатное использование; более дешевые варианты доступа к API | Подписка или оплата по факту использования |
Настройка | Широкие возможности настройки, позволяющие пользователям настраивать и дорабатывать его | Доступны ограниченные возможности настройки |
Эффективность выполнения конкретных задач | Преуспевает в определенных областях, таких как анализ данных и поиск информации. | Универсален, демонстрирует высокие результаты в творческом письме и разговорных заданиях |
Поддержка языков | Особое внимание уделяется китайскому языку и культуре | Широкая языковая поддержка, но ориентирован на США |
Стоимость обучения | Снижение затрат на обучение, оптимизация эффективности | Более высокие затраты на обучение, требующие значительных вычислительных ресурсов |
Вариация ответа | Могут предлагать разные ответы, возможно, под влиянием геополитического контекста | Последовательные ответы, основанные на обучающих данных |
Целевая аудитория | Предназначено для разработчиков и исследователей, которым нужна гибкость | Предназначено для обычных пользователей, которым нужны возможности для общения. |
Варианты использования | Более эффективно для генерации кода и быстрых задач | Идеально подходит для создания текста, ответов на вопросы и участия в диалоге. |
Критический взгляд на «подрывную деятельность Nvidia»
В настоящее время, помимо Huawei, несколько отечественных производителей чипов, таких как Moore Threads, Muxi, Biran Technology и Tianxu Zhixin, также адаптируются к двум моделям DeepSeek. Производитель чипов сообщил AI Technology Review: «Структура DeepSeek демонстрирует инновации, но при этом остается LLM. Наша адаптация к DeepSeek в первую очередь сосредоточена на приложениях с логическими рассуждениями, что делает техническую реализацию довольно простой и быстрой». Однако подход MoE предъявляет более высокие требования к хранению и распределению в сочетании с обеспечением совместимости при развертывании с отечественными чипами, что создает многочисленные инженерные проблемы, которые необходимо решить в ходе адаптации. «В настоящее время отечественная вычислительная мощность не может сравниться с Nvidia по удобству использования и стабильности, требуя участия изначального завода для настройки программной среды, устранения неполадок и базовой оптимизации производительности», — сказал отраслевой специалист на основе практического опыта. В то же время, «из-за большого масштаба параметров DeepSeek R1, внутренние вычислительные мощности требуют больше узлов для распараллеливания. Кроме того, внутренние аппаратные спецификации все еще несколько отстают; например, Huawei 910B в настоящее время не может поддерживать вывод FP8, введенный DeepSeek». Одним из основных моментов модели DeepSeek V3 является введение смешанной точной тренировочной среды FP8, которая была эффективно проверена на чрезвычайно большой модели, что является значительным достижением. Ранее такие крупные игроки, как Microsoft и Nvidia, предлагали связанную работу, но в отрасли сохраняются сомнения относительно осуществимости. Понятно, что по сравнению с INT8, основное преимущество FP8 заключается в том, что квантование после обучения может достигать почти без потерь точности, при этом значительно увеличивая скорость вывода. По сравнению с FP16, FP8 может реализовать до двухкратного ускорения на H20 от Nvidia и более чем 1,5-кратное ускорение на H100. Примечательно, что по мере того, как обсуждения вокруг тенденции внутренних вычислительных мощностей плюс внутренние модели набирают обороты, спекуляции о том, может ли Nvidia быть нарушена, и можно ли обойти ров CUDA, становятся все более распространенными. Один неоспоримый факт заключается в том, что DeepSeek действительно вызвал существенное падение рыночной стоимости Nvidia, но этот сдвиг поднимает вопросы относительно целостности вычислительной мощности Nvidia на высоком уровне. Ранее принятые нарративы относительно накопления вычислений, обусловленного капиталом, подвергаются сомнению, однако Nvidia по-прежнему сложно полностью заменить в сценариях обучения. Анализ глубокого использования CUDA DeepSeek показывает, что гибкость — например, использование SM для связи или непосредственное управление сетевыми картами — невыполнима для обычных графических процессоров. Отраслевые точки зрения подчеркивают, что ров Nvidia охватывает всю экосистему CUDA, а не только саму CUDA, и инструкции PTX (Parallel Thread Execution), которые использует DeepSeek, по-прежнему являются частью экосистемы CUDA. «В краткосрочной перспективе вычислительную мощность Nvidia невозможно обойти — это особенно очевидно при обучении; однако развертывание отечественных карт для рассуждений будет относительно проще, поэтому прогресс, вероятно, будет быстрее. Адаптация отечественных карт в первую очередь фокусируется на выводе; никому еще не удавалось обучить модель производительности DeepSeek на отечественных картах в масштабе», — заметил аналитик отрасли в AI Technology Review. В целом, с точки зрения вывода, обстоятельства обнадеживают отечественные чипы больших моделей. Возможности для отечественных производителей чипов в области вывода более очевидны из-за чрезмерно высоких требований к обучению, которые затрудняют вход. Аналитики утверждают, что достаточно простого использования отечественных карт вывода; при необходимости приобретение дополнительной машины осуществимо, в то время как модели обучения создают уникальные проблемы — управление большим количеством машин может стать обременительным, а более высокие показатели ошибок могут отрицательно повлиять на результаты обучения. Обучение также имеет определенные требования к масштабу кластера, в то время как требования к кластерам для вывода не столь строги, что снижает требования к графическому процессору. В настоящее время производительность одной карты Nvidia H20 не превосходит производительность Huawei или Cambrian; ее сила заключается в кластеризации. Основываясь на общем влиянии на рынок вычислительной мощности, основатель Luchen Technology Ю Ян отметил в интервью AI Technology Review: «DeepSeek может временно подорвать создание и аренду сверхбольших учебных вычислительных кластеров. В долгосрочной перспективе, значительно сократив затраты, связанные с обучением, рассуждениями и приложениями больших моделей, рыночный спрос, вероятно, резко возрастет. Последующие итерации ИИ на основе этого будут, таким образом, постоянно стимулировать устойчивый спрос на рынке вычислительной мощности». Кроме того, «повышенный спрос DeepSeek на услуги рассуждений и тонкой настройки больше совместим с внутренним вычислительным ландшафтом, где локальные мощности относительно слабы, что помогает сократить отходы от бездействующих ресурсов после создания кластера; это создает жизнеспособные возможности для производителей на разных уровнях внутренней вычислительной экосистемы». Luchen Technology сотрудничает с Huawei Cloud для запуска API-интерфейсов рассуждений серии DeepSeek R1 и облачных сервисов визуализации на основе внутренней вычислительной мощности. Ю Ян выразил оптимизм относительно будущего: «DeepSeek вселяет уверенность в отечественные решения, поощряя еще больший энтузиазм и инвестиции в отечественные вычислительные мощности в будущем».

Заключение
Является ли DeepSeek «лучше» ChatGPT, зависит от конкретных потребностей и целей пользователя. Для задач, требующих гибкости, низкой стоимости и настройки, DeepSeek может быть лучше. Для творческого письма, общих запросов и удобных для пользователя разговорных интерфейсов ChatGPT может занять лидирующее положение. Каждый инструмент служит разным целям, поэтому выбор будет во многом зависеть от контекста, в котором они используются.
Кабели управления
Структурированная кабельная система
Сеть и данные, оптоволоконный кабель, коммутационный шнур, модули, лицевая панель
16-18 апреля 2024 г. Middle-East-Energy в Дубае
16-18 апреля 2024 г. Securika в Москве
9 мая 2024 г. МЕРОПРИЯТИЕ ПО ЗАПУСКУ НОВЫХ ПРОДУКТОВ И ТЕХНОЛОГИЙ в Шанхае
22-25 октября 2024 г. SECURITY CHINA в Пекине
19-20 ноября 2024 г. CONNECTED WORLD KSA
Время публикации: 10 февр. 2025 г.