Pour BMS, bus, industriel, câble d'instrumentation.

Elon Musk et l'équipe XAI ont officiellement lancé la dernière version de Grok, Grok3, lors d'une diffusion en direct. Avant cet événement, une quantité importante d'informations connexes, associées au battage médiatique promotionnel 24/7 de Musk, a soulevé les attentes mondiales pour Grok3 à des niveaux sans précédent. Il y a à peine une semaine, a déclaré Musk en toute confiance lors d'un livestream tout en commentant Deepseek R1, "Xai est sur le point de lancer un meilleur modèle d'IA." À partir des données présentées en direct, Grok3 aurait dépassé tous les modèles traditionnels actuels dans les références pour les mathématiques, les sciences et la programmation, avec Musk affirmant même que Grok3 sera utilisé pour les tâches de calcul liées aux missions de Mars de SpaceX, prédisant les «percées au niveau du prix Nobel dans trois ans. Cependant, ce ne sont actuellement que les affirmations de Musk. Après le lancement, j'ai testé la dernière version bêta de Grok3 et posé la question classique Trick pour les grands modèles: "qui est plus grand, 9.11 ou 9.9?" Malheureusement, sans aucun qualification ni marquage, le soi-disant Grok3 le plus intelligent ne pouvait toujours pas répondre correctement à cette question. Grok3 n'a pas réussi à identifier avec précision le sens de la question.
Ce test a rapidement attiré une attention considérable de nombreux amis, et par coïncidence, divers tests similaires à l'étranger ont montré Grok3 aux prises avec des questions de base en physique / mathématiques comme "Quelle balle tombe en premier de la tour penchée de Pise?" Ainsi, il a été étiqueté avec humour comme "un génie peu disposé à répondre à des questions simples".

Grok3 est bon, mais ce n'est pas mieux que R1 ou O1-Pro.
Grok3 a connu des «échecs» sur de nombreux tests de connaissance communs dans la pratique. Au cours de l'événement de lancement de XAI, Musk a démontré à l'aide de Grok3 pour analyser les classes de personnages et les effets de la trajectoire de jeu de l'exil 2, qu'il prétendait jouer souvent, mais la plupart des réponses fournies par Grok3 étaient incorrectes. Musk pendant le livestream n'a pas remarqué ce problème évident.
Cette erreur a non seulement fourni des preuves supplémentaires sur les internautes à l'étranger pour se moquer de Musk pour "trouver un substitut" dans les jeux, mais a également soulevé des préoccupations importantes concernant la fiabilité de Grok3 dans les applications pratiques. Pour un tel «génie», quelles que soient ses capacités réelles, sa fiabilité dans les scénarios d'application extrêmement complexes, telles que les tâches d'exploration de Mars, reste dans le doute.
Actuellement, de nombreux testeurs qui ont eu accès à Grok il y a 3 semaines, et ceux qui viennent de tester les capacités du modèle pendant quelques heures hier, tous indiquent une conclusion commune: "Grok3 est bon, mais ce n'est pas mieux que R1 ou O1-Pro."

Une perspective critique sur "perturber les nvidia"
Dans le PPT officiellement présenté au cours de la version, Grok3 s'est avéré être «bien en avance» dans l'arène du chatbot, mais ces techniques graphiques intelligemment utilisées: l'axe vertical sur le classement uniquement répertorié dans la plage de score de 1400-1300, ce qui fait que la différence d'origine de 1% dans les résultats des tests semble exceptionnellement significative dans cette présentation.

Dans les résultats de la notation du modèle réel, Grok3 n'est que de 1 à 2% devant Deepseek R1 et GPT-4.0, ce qui correspond aux expériences de nombreux utilisateurs dans des tests pratiques qui ne trouvaient "aucune différence notable". Grok3 ne dépasse que ses successeurs de 1% à 2%.

Bien que Grok3 ait obtenu un score plus élevé que tous les modèles actuellement testés publiquement, beaucoup ne prennent pas cela au sérieux: après tout, Xai a déjà été critiqué pour "la manipulation de score" à l'ère Grok2. Alors que le classement a pénalisé le style de la longueur des réponses, les scores ont considérablement diminué, ce qui a conduit les initiés de l'industrie à critiquer souvent le phénomène de «score élevé mais faible».
Que ce soit à travers des astuces de «manipulation» ou de conception de classement dans les illustrations, ils révèlent l'obsession de Xai et Musk pour la notion de «diriger le pack» dans les capacités du modèle. Musk a payé un prix élevé pour ces marges: lors du lancement, il s'est vanté d'utiliser 200 000 GPU H100 (réclamer "plus de 100 000" pendant la diffusion en direct) et d'obtenir un temps de formation total de 200 millions d'heures. Cela a conduit certains à croire qu'il représente une autre aubaine importante pour l'industrie du GPU et à considérer l'impact de Deepseek sur le secteur comme «stupide». Notamment, certains croient que la puissance de calcul pure sera l'avenir de la formation des modèles.
Cependant, certains internautes ont comparé la consommation de 2000 GPU H800 sur deux mois pour produire du V3 Deepseek, calculant la consommation réelle de formation de l'entraînement de Grok3 est de 263 fois celle de V3. L'écart entre Deepseek V3, qui a marqué 1402 points, et Grok3 est un peu moins de 100 points. Après la publication de ces données, beaucoup ont rapidement réalisé que derrière le titre de Grok3 en tant que "le plus fort du monde" se trouve un effet utilitaire marginal clair - la logique de modèles plus larges générant des performances plus fortes a commencé à montrer des rendements décroissants.

Même avec "une score élevé mais une faible capacité", Grok2 avait de grandes quantités de données de haute qualité de la plate-forme X (Twitter) pour soutenir l'utilisation. Cependant, dans la formation de Grok3, Xai a naturellement rencontré le "plafond" à laquelle OpenAI est actuellement confronté - le manque de données de formation premium expose rapidement l'utilité marginale des capacités du modèle.
Les développeurs de Grok3 et Musk sont probablement les premiers à comprendre et à identifier profondément ces faits, c'est pourquoi Musk a continuellement mentionné sur les réseaux sociaux que la version que les utilisateurs vivent maintenant est "toujours juste la version bêta" et que "la version complète sera publiée dans les mois à venir". Musk a joué le rôle du chef de produit de Grok3, suggérant que les utilisateurs fournissent des commentaires sur divers problèmes rencontrés dans la section des commentaires.
Pourtant, dans une journée, les performances de Grok3 ont sans aucun doute soulevé des alarmes pour ceux qui espèrent s'appuyer sur des "muscles de calcul massifs" pour former des modèles plus forts: basé sur des informations Microsoft accessibles au public, le GPT-4 d'OpenAI a une taille de paramètre de 1,8 milliard de paramètres, plus de dix fois celle de GPT-3. Les rumeurs suggèrent que la taille des paramètres de GPT-4.5 pourrait être encore plus grande.
Au fur et à mesure que les tailles de paramètres du modèle montent en flèche, les coûts de formation montent également en flèche. Avec la présence de Grok3, des prétendants comme GPT-4.5 et d'autres qui souhaitent continuer à «brûler de l'argent» pour obtenir de meilleures performances de modèle grâce à la taille des paramètres doivent considérer le plafond qui est maintenant clairement en vue et envisager comment le surmonter. En ce moment, Ilya Sutskever, ancien scientifique en chef d'Openai, avait précédemment déclaré en décembre dernier, "la pré-formation que nous connaissons prendra fin", qui a refait surface dans les discussions, ce qui a incité les efforts pour trouver le véritable chemin pour la formation de modèles importants.

Le point de vue d'Ilya a sonné l'alarme dans l'industrie. Il prévoyait avec précision l'épuisement imminent de nouvelles données accessibles, conduisant à une situation où les performances ne peuvent pas continuer à être améliorées grâce à l'acquisition de données, en le comparant à l'épuisement des combustibles fossiles. Il a indiqué que "comme le pétrole, le contenu généré par l'homme sur Internet est une ressource limitée". Dans les prédictions de Sutskever, la prochaine génération de modèles, post-entraînement, possédera une «véritable autonomie» et des capacités de raisonnement «similaires au cerveau humain».
Contrairement aux modèles pré-formés d'aujourd'hui qui reposent principalement sur la correspondance du contenu (basé sur le contenu du modèle précédemment appris), les futurs systèmes d'IA pourront apprendre et établir des méthodologies pour résoudre des problèmes d'une manière semblable à la "pensée" du cerveau humain. Un humain peut atteindre une maîtrise fondamentale dans un sujet avec une littérature professionnelle de base, tandis qu'un modèle IA grande nécessite des millions de points de données pour obtenir uniquement l'efficacité d'entrée de gamme la plus élémentaire. Même lorsque le libellé est légèrement modifié, ces questions fondamentales peuvent ne pas être correctement comprises, illustrant que le modèle ne s'est pas vraiment amélioré dans l'intelligence: les questions fondamentales mais insolubles mentionnées au début de l'article représentent un exemple clair de ce phénomène.

Conclusion
Cependant, au-delà de la force brute, si Grok3 réussit effectivement à révéler à l'industrie que "les modèles pré-formés approchent de leur fin", cela porterait des implications importantes pour le domaine.
Peut-être qu'après la frénésie entourant Grok3, nous allons être assistés à plus de cas comme l'exemple de Fei-Fei Li de "régler les modèles haute performance sur un ensemble de données spécifique pour seulement 50 $", découvrant finalement le véritable chemin vers AGI.
Câbles de contrôle
Système de câblage structuré
Réseau et données, câble à fibre optique, cordon de patch, modules, plaque de face
16 avril-18e, 2024 Moyen-Orient à Dubaï
16 avril au 18, 2024 Securika à Moscou
9 mai 2024 Nouveaux produits et technologies Lance Event à Shanghai
22 octobre au 25 octobre, 2024 Sécurité Chine à Pékin
19-20 novembre 2024 Connected World KSA
Heure du poste: 11 février-2025