Для BMS, BUS, промышленного, приборного кабеля.

Илон Маск и команда xAI официально запустили последнюю версию Grok, Grok3, во время прямой трансляции. До этого события значительное количество связанной информации в сочетании с круглосуточной рекламной шумихой Маска подняли мировые ожидания от Grok3 до беспрецедентного уровня. Всего неделю назад Маск уверенно заявил во время прямой трансляции, комментируя DeepSeek R1: «xAI собирается запустить лучшую модель ИИ». Согласно данным, представленным в прямом эфире, Grok3, как сообщается, превзошел все текущие основные модели в тестах по математике, науке и программированию, а Маск даже заявил, что Grok3 будет использоваться для вычислительных задач, связанных с миссиями SpaceX на Марс, предсказывая «прорывы на уровне Нобелевской премии в течение трех лет». Однако в настоящее время это всего лишь утверждения Маска. После запуска я протестировал последнюю бета-версию Grok3 и задал классический вопрос с подвохом для больших моделей: «Что больше, 9,11 или 9,9?» К сожалению, без каких-либо определителей или маркировок, так называемый самый умный Grok3 все равно не смог правильно ответить на этот вопрос. Grok3 не смог точно определить смысл вопроса.
Этот тест быстро привлек значительное внимание многих друзей, и по совпадению, различные аналогичные тесты за рубежом показали, что Grok3 испытывает трудности с решением элементарных вопросов по физике/математике, таких как «Какой шар упадет первым с Пизанской башни?» Поэтому его в шутку окрестили «гением, не желающим отвечать на простые вопросы».

Grok3 хорош, но не лучше R1 или o1-Pro.
Grok3 на практике потерпел «неудачи» во многих тестах на общие знания. Во время запуска xAI Маск продемонстрировал использование Grok3 для анализа классов персонажей и эффектов из игры Path of Exile 2, в которую, по его словам, он часто играл, но большинство ответов, предоставленных Grok3, были неверными. Во время прямой трансляции Маск не заметил этой очевидной проблемы.
Эта ошибка не только предоставила зарубежным пользователям сети еще одно доказательство для насмешек над Маском за «нахождение замены» в играх, но и вызвала серьезные опасения относительно надежности Grok3 в практических приложениях. Для такого «гения», независимо от его реальных возможностей, его надежность в чрезвычайно сложных прикладных сценариях, таких как задачи по исследованию Марса, остается под вопросом.
В настоящее время многие тестировщики, получившие доступ к Grok3 несколько недель назад, и те, кто только вчера в течение нескольких часов тестировал возможности модели, приходят к общему выводу: «Grok3 хорош, но он не лучше, чем R1 или o1-Pro».

Критический взгляд на «подрывную деятельность Nvidia»
В официально представленном во время релиза PPT было показано, что Grok3 «намного впереди» в Chatbot Arena, но в нем были умело использованы графические приемы: на вертикальной оси в таблице лидеров указаны только результаты в диапазоне 1400–1300 баллов, благодаря чему изначальная разница в 1% в результатах теста выглядит исключительно значимой в этой презентации.

По результатам фактической оценки модели Grok3 опережает DeepSeek R1 и GPT-4.0 всего на 1–2%, что соответствует опыту многих пользователей в практических тестах, которые «не обнаружили заметной разницы». Grok3 превосходит своих преемников всего на 1–2%.

Хотя Grok3 набрал больше баллов, чем все публично протестированные модели, многие не воспринимают это всерьез: в конце концов, xAI ранее критиковали за «манипулирование баллами» в эпоху Grok2. Поскольку таблица лидеров наказывала за стиль длины ответа, баллы значительно снизились, что привело к тому, что инсайдеры отрасли часто критиковали феномен «высоких баллов, но низких способностей».
Будь то посредством «манипулирования» таблицей лидеров или дизайнерских трюков в иллюстрациях, они раскрывают xAI и одержимость Маска идеей «лидерства» в возможностях моделей. Маск заплатил высокую цену за эти преимущества: во время запуска он хвастался использованием 200 000 графических процессоров H100 (заявив «более 100 000» во время прямой трансляции) и достижением общего времени обучения в 200 миллионов часов. Это заставило некоторых поверить, что это представляет собой еще одно значительное благо для индустрии GPU, и считать влияние DeepSeek на сектор «глупым». В частности, некоторые считают, что чистая вычислительная мощность станет будущим обучения моделей.
Однако некоторые пользователи сети сравнили потребление 2000 графических процессоров H800 за два месяца для производства DeepSeek V3, подсчитав, что фактическое потребление энергии обучения Grok3 в 263 раза больше, чем у V3. Разрыв между DeepSeek V3, набравшим 1402 балла, и Grok3 составляет чуть менее 100 баллов. После публикации этих данных многие быстро поняли, что за званием Grok3 как «сильнейшего в мире» кроется явный эффект предельной полезности — логика более крупных моделей, генерирующих более высокую производительность, начала демонстрировать убывающую отдачу.

Даже с «высокой оценкой, но низкой способностью» Grok2 имел огромное количество высококачественных данных первой стороны с платформы X (Twitter) для поддержки использования. Однако при обучении Grok3 xAI естественным образом столкнулся с «потолком», с которым в настоящее время сталкивается OpenAI — отсутствие премиальных данных для обучения быстро выявляет предельную полезность возможностей модели.
Разработчики Grok3 и Маск, вероятно, первыми поняли и глубоко осознали эти факты, поэтому Маск постоянно упоминал в социальных сетях, что версия, с которой сейчас работают пользователи, «все еще является бета-версией» и что «полная версия будет выпущена в ближайшие месяцы». Маск взял на себя роль менеджера по продукту Grok3, предлагая пользователям оставлять отзывы о различных возникших проблемах в разделе комментариев. Он, возможно, самый популярный менеджер по продукту на Земле.
Однако в течение дня производительность Grok3, несомненно, вызвала тревогу у тех, кто надеялся положиться на «огромную вычислительную мощь» для обучения более сильных больших моделей: на основе общедоступной информации Microsoft, GPT-4 от OpenAI имеет размер параметра в 1,8 триллиона параметров, что более чем в десять раз больше, чем у GPT-3. Ходят слухи, что размер параметра GPT-4.5 может быть еще больше.
По мере того, как размеры параметров модели стремительно растут, стоимость обучения также стремительно растет. С появлением Grok3 такие претенденты, как GPT-4.5 и другие, желающие продолжать «сжигать деньги» для достижения лучшей производительности модели за счет размера параметра, должны учитывать потолок, который теперь ясно виден, и обдумывать, как его преодолеть. В этот момент Илья Суцкевер, бывший главный научный сотрудник OpenAI, ранее заявил в декабре прошлого года: «Предварительное обучение, к которому мы привыкли, подойдет к концу», что вновь всплыло в обсуждениях, побуждая к усилиям по поиску истинного пути обучения больших моделей.

Точка зрения Ильи вызвала тревогу в отрасли. Он точно предвидел неминуемое исчерпание доступных новых данных, что приведет к ситуации, когда производительность не сможет продолжать повышаться за счет сбора данных, сравнив это с истощением ископаемого топлива. Он указал, что «как и нефть, созданный человеком контент в Интернете является ограниченным ресурсом». По прогнозам Суцкевера, следующее поколение моделей, прошедших предобучение, будет обладать «истинной автономией» и способностями к рассуждению, «подобными человеческому мозгу».
В отличие от сегодняшних предварительно обученных моделей, которые в первую очередь полагаются на сопоставление контента (на основе ранее изученного контента модели), будущие системы ИИ смогут обучаться и устанавливать методологии для решения проблем способом, схожим с «мышлением» человеческого мозга. Человек может достичь фундаментального мастерства в предмете, имея только базовую профессиональную литературу, в то время как большой модели ИИ требуются миллионы точек данных для достижения только самой базовой эффективности начального уровня. Даже если формулировка немного изменена, эти фундаментальные вопросы могут быть неправильно поняты, что показывает, что модель на самом деле не улучшила свой интеллект: основные, но неразрешимые вопросы, упомянутые в начале статьи, представляют собой наглядный пример этого явления.

Заключение
Однако, если Grok3 действительно преуспеет в раскрытии отрасли информации о том, что «предварительно обученные модели приближаются к концу», это будет иметь существенные последствия для отрасли.
Возможно, после того, как ажиотаж вокруг Grok3 постепенно утихнет, мы станем свидетелями большего количества случаев, подобных примеру Фэй-Фэй Ли, когда она «настраивала высокопроизводительные модели на определенном наборе данных всего за 50 долларов», что в конечном итоге откроет истинный путь к AGI.
Кабели управления
Структурированная кабельная система
Сеть и данные, оптоволоконный кабель, коммутационный шнур, модули, лицевая панель
16-18 апреля 2024 г. Middle-East-Energy в Дубае
16-18 апреля 2024 г. Securika в Москве
9 мая 2024 г. МЕРОПРИЯТИЕ ПО ЗАПУСКУ НОВЫХ ПРОДУКТОВ И ТЕХНОЛОГИЙ в Шанхае
22-25 октября 2024 г. SECURITY CHINA в Пекине
19-20 ноября 2024 г. CONNECTED WORLD KSA
Время публикации: 19 февр. 2025 г.