Для BMS, автобуса, промышленного кабеля.

Элон Маск и команда XAI официально выпустили последнюю версию Grok, Grok3 во время прямой трансляции. До этого события значительный объем связанной информации в сочетании с 24/7 рекламной ажиотажей Musk повысил глобальные ожидания Grok3 до беспрецедентных уровней. Всего неделю назад Маск уверенно заявил во время прямой трансляции, комментируя Deepseek R1, «Xai собирается запустить лучшую модель ИИ». Из представленных данных в прямом эфире Grok3, как сообщается, превзошел все текущие основные модели в критериях по математике, науке и программированию, причем Маск даже утверждал, что GROK3 будет использоваться для вычислительных задач, связанных с миссиями SpaceX MARS, прогнозируя «прорывы на уровне Нобелевского премии в течение трех лет». Однако в настоящее время это просто утверждения Маск. После запуска я протестировал последнюю бета -версию Grok3 и задал классический вопрос для больших моделей: «Что больше, 9.11 или 9,9?» К сожалению, без каких-либо квалификаторов или маркировки, так называемый самый умный Grok3 по-прежнему не мог ответить на этот вопрос правильно. Grok3 не смог точно определить значение вопроса.
Этот тест быстро привлек много внимания со стороны многих друзей, и, по совпадению, различные подобные тесты за рубежом показали, что Grok3 борется с основными вопросами физики/математики, такими как «Какой мяч падает первым из башни Pisa?» Таким образом, он был с юмором назван «гением, не желающим отвечать на простые вопросы».

Grok3 хорош, но он не лучше, чем R1 или O1-Pro.
Grok3 испытал «неудачи» на многих общих тестах на знания на практике. Во время запуска XAI Маск продемонстрировал, что использует Grok3 для анализа классов персонажей и эффектов с игрового пути изгнания 2, который, как он утверждал, часто играет, но большинство ответов, предоставленных Grok3, были неверными. Мускус во время прямой трансляции не заметил этой очевидной проблемы.
Эта ошибка не только предоставила дополнительные доказательства для зарубежных сети по издеванию мускуса за «поиск замены» в играх, но и вызвала значительную обеспокоенность в отношении надежности Grok3 в практических приложениях. Для такого «гения», независимо от его фактических возможностей, его надежность в чрезвычайно сложных сценариях применения, таких как задачи по исследованию Марса, остается под сомнением.
В настоящее время многие тестеры, которые получили доступ к Grok3 недели назад, и те, кто только что проверил модельные возможности вчера вчера, все указывают на общий вывод: «Grok3 хорош, но это не лучше R1 или O1-Pro».

Критическая перспектива «разрушения nvidia»
В официально представленном PPT во время выпуска, было показано, что GROK3 был «далеко вперед» на арене чат-ботов, но эти умно использовались графические методы: вертикальная ось в списке лидеров, указанных только в результатах в диапазоне 1400-1300 баллов, что делает первоначальную разницу в 1% в результатах испытаний в результате теста исключительно значимой в этом представлении.

В фактических результатах оценки модели Grok3 всего на 1-2% опережает DeepSeek R1 и GPT-4.0, что соответствует опыту многих пользователей в практических тестах, которые обнаружили «не заметную разницу». Grok3 превышает своих преемников только на 1%-2%.

Хотя GROK3 набрал более высокий уровень, чем все в настоящее время общедоступные модели, многие не относятся к этому серьезно: в конце концов, XAI ранее подвергался критике за «манипуляции с партитурой» в эпоху Грока. Поскольку в стиле длины лидеров оштрафовал стиль длины ответа, результаты значительно снижались, ведущие инсайдеры отрасли часто критикуют явление «высокой оценки, но низкой способности».
Будь то с помощью «манипуляций» или дизайнерских трюков на иллюстрациях, они показывают одержимость Xai и Musk представлением о том, как «лидировать пакет» в модельных возможностях. Маск заплатил высокую цену за эти маржи: во время запуска он хвастался за использование 200 000 графических процессоров H100 (претендуя на «более 100 000» во время прямой трансляции) и достигнув общего времени обучения в 200 миллионов часов. Это заставило некоторых поверить, что это представляет собой еще один значительный благо для индустрии графических процессоров и рассматривать влияние DeepSeek на этот сектор как «глупый». Примечательно, что некоторые считают, что чистая вычислительная сила станет будущим модельного обучения.
Тем не менее, некоторые пользователи сети сравнивали потребление 2000 графических процессоров H800 в течение двух месяцев для производства DeepSeek V3, подсчитывая, что фактическое использование мощности Grok3 в 263 раза больше, чем у V3. Разрыв между Deepseek V3, который набрал 1402 очка, и Grok3 составляет чуть менее 100 очков. После выпуска этих данных многие быстро поняли, что за названием Grok3 как «самый сильный» в мире »лежит четкий маргинальный эффект полезности - логика более крупных моделей, генерирующих более высокие показатели, начала демонстрировать снижение доходности.

Даже с «высокой оценкой, но низкой способностью» у Grok2 было огромное количество высококачественных первых данных с платформы X (Twitter) для поддержки использования. Однако при обучении Grok3 Xai естественным образом столкнулся с «потолком», с которым в настоящее время сталкивается OpenAI - отсутствие премиальных учебных данных, быстро выявляет предельную полезность возможностей модели.
Разработчики Grok3 и Musk, вероятно, первыми, кто глубоко понимает и глубоко идентифицирует эти факты, поэтому Musk постоянно упоминается в социальных сетях, что сейчас испытывают пользователи версий «все еще просто бета» и что «полная версия будет выпущена в ближайшие месяцы». Маск взял на себя роль менеджера по продуктам Grok3, предлагая пользователям предоставлять отзывы о различных вопросах, возникающих в разделе комментариев.
Тем не менее, в течение дня производительность Grok3, несомненно, подняла тревоги для тех, кто надеется полагаться на «массивную вычислительную мышцу» для обучения более сильных больших моделей: на основе общедоступной информации Microsoft, GPT-4 Openai имеет размер параметров 1,8 триллиона параметров, что в десять раз больше, чем GPT-3. Слухи предполагают, что размер параметров GPT-4.5 может быть еще больше.
По мере того, как размеры параметров модели взлетают, затраты на обучение также стремительно растут. При наличии Grok3 претенденты, такие как GPT-4.5 и другие, которые хотят продолжить «сжигание денег», чтобы достичь лучшей производительности модели с помощью размера параметров, должны учитывать потолок, который теперь явно виден и рассматривать, как его преодолеть. В этот момент Илья Саускевер, бывший главный ученый в Openai, ранее заявляла в декабре прошлого года: «Предварительное обучение, с которым мы знакомы, придет к концу», который вспыхивал в дискуссиях, что привело к поиску истинного пути для обучения крупных моделей.

Точка зрения Ильи озвучивала тревогу в отрасли. Он точно предвидел неизбежное истощение доступных новых данных, что приводит к ситуации, когда производительность не может продолжаться благодаря получению данных, сравнивая их с истощением ископаемого топлива. Он указал, что «как нефть, сгенерированный человеком контент в Интернете является ограниченным ресурсом». В предсказаниях Sutskever, следующее поколение моделей, после тренировки, обладает «истинной автономией» и рассуждениями «аналогично человеческому мозгу».
В отличие от сегодняшних предварительно обученных моделей, которые в первую очередь полагаются на сопоставление контента (на основе ранее изученного контента модели), будущие системы ИИ смогут изучать и устанавливать методологии для решения проблем, сродни «мышлению» человеческого мозга. Человек может достичь фундаментального мастерства в предмете с просто основной профессиональной литературой, в то время как крупная модель ИИ требует миллионов точек данных для достижения лишь самой основной эффективности начального уровня. Даже когда формулировка слегка изменяется, эти фундаментальные вопросы могут быть неправильно поняты, иллюстрируя, что модель не улучшилась в интеллекте: основные, но неразрешимые вопросы, упомянутые в начале статьи, представляют собой явный пример этого явления.

Заключение
Однако помимо грубой силы, если Grok3 действительно удастся раскрыть отрасли, что «предварительно обученные модели приближаются к их концу», это будет иметь значительные последствия для этой области.
Возможно, после того, как безумие, окружающее GROK3, постепенно освоится, мы станем свидетелями большего количества случаев, таких как пример Fei-Fei Li «настройка высокопроизводительных моделей на определенном наборе данных всего за 50 долларов», в конечном итоге обнаружив истинный путь к AGI.
Управляющие кабели
Структурированная система кабеля
Сеть и данные, волоконно-оптический кабель, шнур для патча, модули, лицевая панель
16 апреля 18-18 гг. 2024 года в Дубае в Дубае
16 апреля 18-18 гг. 2024 г. Securika в Москве
9 мая, 2024 г. Новые продукты и технологии.
22-й октября-25, 2024 г. Безопасность Китай в Пекине
19-20 ноября, 2024 г. Connected World KSA
Время публикации: 19 февраля2025 года