Pour BMS, bus, industriel, câble d'instrumentation.

Alors que le festival du printemps touche à sa fin, l'excitation entourant Deepseek reste forte. Les récents vacances ont mis en évidence un sentiment important de concurrence au sein de l'industrie technologique, beaucoup discutant et analysant ce «poisson-chat». La Silicon Valley éprouve un sentiment de crise sans précédent: les défenseurs de la source ouverte expriment à nouveau leurs opinions, et même Openai réévalue si sa stratégie de source fermée était le meilleur choix. Le nouveau paradigme de la baisse des coûts de calcul a déclenché une réaction en chaîne parmi les géants des puces comme NVIDIA, conduisant à des pertes de valeur marchande record d'une journée dans l'histoire boursière américaine, tandis que les agences gouvernementales étudient la conformité des puces utilisées par Deepseek. Au milieu des critiques mitigées de Deepseek à l'étranger, au niveau national, il connaît une croissance extraordinaire. Après le lancement du modèle R1, l'application associée a connu une augmentation du trafic, ce qui indique que la croissance des secteurs d'application fera avancer l'écosystème de l'IA global. L'aspect positif est que Deepseek élargira les possibilités d'application, ce qui suggère que le fait de s'appuyer sur Chatgpt ne sera pas aussi coûteux à l'avenir. Ce changement s'est reflété dans les activités récentes d'OpenAI, notamment la fourniture d'un modèle de raisonnement appelé O3-MinI aux utilisateurs libres en réponse à Deepseek R1, ainsi que des mises à niveau ultérieures qui ont rendu la chaîne de réflexion du public O3-Mini. De nombreux utilisateurs à l'étranger ont exprimé leur gratitude à Deepseek pour ces développements, bien que cette chaîne de réflexion sert de résumé.
De manière optimiste, il est évident que Deepseek unifie les joueurs domestiques. En se concentrant sur la réduction des coûts de formation, divers fabricants de puces en amont, des fournisseurs de cloud intermédiaires et de nombreuses startups rejoignent activement l'écosystème, améliorant la rentabilité pour l'utilisation du modèle Deepseek. Selon les articles de Deepseek, la formation complète du modèle V3 ne nécessite que 2,788 millions d'heures de GPU H800, et le processus de formation est très stable. L'architecture MOE (mélange d'experts) est cruciale pour réduire les coûts pré-formation d'un facteur de dix par rapport à Llama 3 avec 405 milliards de paramètres. Actuellement, V3 est le premier modèle reconnu en public démontrant une telle rareté à MOE. De plus, le MLA (Multi-couche Atteenture) fonctionne en synergie, en particulier dans les aspects du raisonnement. "Plus le MOE est plus claire, plus la taille du lot est grande pendant le raisonnement pour utiliser pleinement la puissance de calcul, la taille du KVCache étant le facteur limitant clé; le MLA réduit considérablement la taille de KVCACH", a noté un chercheur de la technologie de Chuanjing dans une analyse de l'examen de la technologie AI. Dans l'ensemble, le succès de Deepseek réside dans la combinaison de diverses technologies, pas seulement une seule. Les initiés de l'industrie louent les capacités d'ingénierie de l'équipe Deepseek, notant leur excellence dans la formation parallèle et l'optimisation des opérateurs, obtenant des résultats révolutionnaires en affinant chaque détail. L'approche open source de Deepseek alimente davantage le développement global de grands modèles, et il est prévu que si des modèles similaires se développent en images, vidéos, etc., cela stimulera considérablement la demande dans l'industrie.
Opportunités pour les services de raisonnement tiers
Les données indiquent que depuis sa sortie, Deepseek a accumulé 22,15 millions d'utilisateurs actifs quotidiens (DAU) en seulement 21 jours, atteignant 41,6% de la base d'utilisateurs de Chatgpt et dépassant 16,95 millions d'utilisateurs actifs quotidiens de Doubao, devenant ainsi l'application à la croissance la plus rapide à l'échelle mondiale, en tête de l'Apple App Store dans 157 pays / régions. Cependant, alors que les utilisateurs affluent en masse, les cyber-pirates ont attaqué sans relâche l'application Deepseek, provoquant une pression significative sur ses serveurs. Les analystes de l'industrie estiment que cela est en partie dû aux cartes de déploiement Deepseek pour la formation tout en manquant de pouvoir informatique suffisant pour le raisonnement. Un initié de l'industrie a informé l'examen de la technologie de l'IA: "Les problèmes fréquents du serveur peuvent être facilement résolus en facturant des frais ou en financement pour acheter plus de machines; en fin de compte, cela dépend des décisions de Deepseek." Cela présente un compromis en se concentrant sur la technologie par rapport à la productibation. Deepseek s'est largement appuyé sur la quantification quantique pour l'auto-soumission, ayant reçu peu de financement externe, entraînant une pression de flux de trésorerie relativement faible et un environnement technologique plus pur. Actuellement, à la lumière des problèmes susmentionnés, certains utilisateurs exhortent profondément sur les réseaux sociaux à élever les seuils d'utilisation ou à introduire des fonctionnalités payantes pour améliorer le confort de l'utilisateur. De plus, les développeurs ont commencé à utiliser l'API officielle ou les API tiers pour l'optimisation. Cependant, la plate-forme ouverte de Deepseek a récemment annoncé que "les ressources du serveur actuelles sont rares et les recharges de services API ont été suspendus."
Cela ouvre sans aucun doute plus d'opportunités aux fournisseurs tiers du secteur des infrastructures de l'IA. Récemment, de nombreux géants nationaux et internationaux du cloud ont lancé les API modèles de Deepseek - les géants des Overs Microsoft et Amazon ont été parmi les premiers à se joindre à la fin de janvier. Le leader domestique, Huawei Cloud, a fait le premier pas, publiant des services de raisonnement Deepseek R1 et V3 en collaboration avec le flux basé sur le silicium le 1er février. Les rapports de l'IA Technology Review indiquent que les services de Flow basés sur le silicium ont vu un afflux d'utilisateurs, "s'écrasant" la plate-forme. Les trois grandes sociétés technologiques - Bat (Baidu, Alibaba, Tencent) et Bytedance - ont également émis des offres à durée limitée à faible coût à partir du 3 février. Les actions effrénées des fournisseurs de cloud font écho aux liens solides antérieurs entre Microsoft Azure et Openai, où en 2019, Microsoft a fait un investissement substantiel de 1 milliard de dollars dans OpenAI et a récolté les avantages après le lancement de Chatgpt en 2023. Cependant, cette relation étroite a commencé à s'effrayer après la méta-ouverte de Meta Open-Sourced Llama, permettant à d'autres fournisseurs en dehors de Microsoft Azure Ecosystem à contenir avec leurs grands modèles. Dans ce cas, Deepseek a non seulement dépassé Chatgpt en termes de chaleur du produit, mais a également introduit des modèles open source après la version O1, similaire à l'excitation entourant le renouveau de Llama de GPT-3.
En réalité, les fournisseurs de cloud se positionnent également comme des passerelles de circulation pour les applications d'IA, ce qui signifie que l'approfondissement des liens avec les développeurs se traduit par des avantages préventifs. Les rapports indiquent que Baidu Smart Cloud comptait plus de 15 000 clients utilisant le modèle Deepseek via la plate-forme Qianfan le jour de lancement du modèle. De plus, plusieurs petites entreprises proposent des solutions, notamment le flux basé sur le silicium, la technologie Luchen, la technologie Chuanjing et divers fournisseurs d'infra d'IA qui ont lancé le support pour les modèles Deepseek. La revue de la technologie de l'IA a appris que les opportunités d'optimisation actuelles pour les déploiements localisés de Deepseek existent principalement dans deux domaines: l'une optimise les caractéristiques de la rareté du modèle MOE en utilisant une approche de raisonnement mixte pour déployer le modèle MOE de 671 milliards de paramètres tout en utilisant l'inférence Hybrid GPU / CPU. De plus, l'optimisation de MLA est vitale. Cependant, les deux modèles de Deepseek sont toujours confrontés à certains défis dans l'optimisation du déploiement. "En raison de la taille du modèle et de nombreux paramètres, l'optimisation est en effet complexe, en particulier pour les déploiements locaux où la réalisation d'un équilibre optimal entre la performance et le coût sera difficile", a déclaré un chercheur de Chuanjing Technology. L'obstacle le plus important réside dans la surmonter les limites de capacité de mémoire. "Nous adoptons une approche de collaboration hétérogène pour utiliser pleinement les processeurs et autres ressources de calcul, ne plaçant que les parties non partagées de la matrice MOE clairsemée sur CPU / DRAM pour le traitement à l'aide d'opérateurs de processeur haute performance, tandis que les parties denses restent sur le GPU", a-t-il expliqué en outre. Les rapports indiquent que les ktransformateurs de cadre open source de Chuanjing injectent principalement diverses stratégies et opérateurs dans l'implémentation d'origine des transformateurs via un modèle, améliorant considérablement la vitesse d'inférence à l'aide de méthodes comme Cudagraph. Deepseek a créé des opportunités pour ces startups, à mesure que les avantages de la croissance deviennent apparents; De nombreuses entreprises ont signalé une croissance notable des clients après avoir lancé l'API Deepseek, recevant des demandes de renseignements de clients précédents à la recherche d'optimisations. Les initiés de l'industrie ont noté: "Dans le passé, les groupes de clients quelque peu établis étaient souvent enfermés dans les services standardisés de grandes entreprises, étroitement liées par leurs avantages de coût dus à l'échelle. Cependant, après avoir terminé le déploiement de Deepseek-R1 / V3 avant le Festival du printemps, nous avons soudainement reçu nos demandes de coopération de plusieurs clients bien connus, et même les clients dormants auparavant pour introduire nos services profonds." Actuellement, il apparaît que Deepseek fait des performances d'inférence de modèle de plus en plus critiques, et avec une adoption plus large de grands modèles, cela continuera d'influencer considérablement le développement dans l'industrie de l'IA infra. Si un modèle de niveau Deepseek pouvait être déployé localement à faible coût, cela aiderait grandement les efforts de transformation numérique du gouvernement et de l'entreprise. Cependant, les défis persistent, car certains clients peuvent avoir des attentes élevées concernant les grandes capacités du modèle, ce qui rend plus évident que l'équilibre des performances et des coûts devient vital dans le déploiement pratique.
Pour évaluer si Deepseek est meilleur que Chatgpt, il est essentiel de comprendre leurs principales différences, leurs forces et leurs cas d'utilisation. Voici une comparaison complète:
Fonctionnalité / aspect | En profondeur | Chatte |
---|---|---|
Possession | Développé par une entreprise chinoise | Développé par openai |
Modèle source | Open source | Propriétaire |
Coût | Gratuit à utiliser; Options d'accès API moins chères | Abonnement ou tarification à la rémunération |
Personnalisation | Hautement personnalisable, permettant aux utilisateurs de modifier et de s'appuyer sur lui | Personnalisation limitée disponible |
Performance dans des tâches spécifiques | Excelle dans certains domaines comme l'analyse des données et la récupération d'informations | Polyvalent avec de fortes performances dans l'écriture créative et les tâches conversationnelles |
Support linguistique | Focus sur la langue et la culture chinoises | Support linguistique large mais centré sur les États-Unis |
Coût de formation | Coûts de formation plus bas, optimisé pour l'efficacité | Coûts de formation plus élevés, nécessitant des ressources de calcul substantielles |
Variation de réponse | Peut offrir des réponses différentes, éventuellement influencées par le contexte géopolitique | Réponses cohérentes en fonction des données de formation |
Public cible | Destiné aux développeurs et aux chercheurs qui souhaitent une flexibilité | Destiné aux utilisateurs généraux à la recherche de capacités de conversation |
Cas d'utilisation | Plus efficace pour la génération de code et les tâches rapides | Idéal pour générer du texte, répondre aux requêtes et s'engager dans le dialogue |
Une perspective critique sur "perturber les nvidia"
À l'heure actuelle, à part Huawei, plusieurs fabricants de puces nationaux comme Moore Threads, Muxi, Biran Technology et Tianxu Zhixin s'adaptent également aux deux modèles de Deepseek. Un fabricant de puces a déclaré à AI Technology Review: "La structure de Deepseek démontre l'innovation, mais elle reste une LLM. Notre adaptation à Deepseek est principalement axée sur les applications de raisonnement, ce qui rend la mise en œuvre technique assez simple et rapide." Cependant, l'approche MOE nécessite des exigences plus élevées en termes de stockage et de distribution, associées à une compatibilité lors du déploiement avec des puces domestiques, présentant de nombreux défis d'ingénierie qui nécessitent une résolution pendant l'adaptation. "Actuellement, la puissance de calcul intérieure ne correspond pas à NVIDIA en matière d'utilisabilité et de stabilité, nécessitant une participation originale d'usine pour la configuration, le dépannage et l'optimisation des performances fondamentales des logiciels", a déclaré un praticien de l'industrie en fonction de l'expérience pratique. Simultanément, "En raison de la grande échelle de paramètres de Deepseek R1, la puissance de calcul domestique nécessite plus de nœuds pour la parallélisation. L'un des moments forts du modèle V3 Deepseek est l'introduction d'un cadre de formation de précision mixte FP8, qui a été validé efficacement sur un modèle extrêmement important, marquant une réalisation significative. Auparavant, les principaux acteurs comme Microsoft et Nvidia ont suggéré des travaux connexes, mais des doutes persistent dans l'industrie en ce qui concerne la faisabilité. Il est entendu que par rapport à INT8, le principal avantage de FP8 est que la quantification post-entraînement peut atteindre une précision presque sans perte tout en améliorant considérablement la vitesse d'inférence. En comparaison avec FP16, FP8 peut réaliser jusqu'à deux fois l'accélération sur H20 de NVIDIA et plus de 1,5 fois l'accélération sur le H100. Notamment, comme les discussions entourant la tendance du pouvoir de calcul domestique et les modèles domestiques prennent de l'élan, la spéculation sur la question de savoir si Nvidia pourrait être perturbée et si le fossé Cuda pourrait être contourné, devient de plus en plus répandu. Un fait indéniable est que Deepseek a en effet provoqué une baisse substantielle de la valeur marchande de Nvidia, mais ce changement soulève des questions concernant l'intégrité de la puissance de calcul haut de gamme de NVIDIA. Des récits précédemment acceptés concernant l'accumulation de calcul axée sur les capitaux sont en cours de conteste, mais il reste difficile pour Nvidia d'être pleinement remplacé dans les scénarios de formation. L'analyse de l'utilisation profonde de Deepseek de CUDA montre que la flexibilité - telle que l'utilisation de SM pour la communication ou la manipulation directe des cartes réseau - n'est pas possible pour les GPU ordinaires pour s'adapter. Les points de vue de l'industrie soulignent que les douves de Nvidia englobent l'ensemble de l'écosystème Cuda plutôt que de Cuda lui-même, et les instructions PTX (exécution parallèle du fil parallèle) que Deepseek utilise font toujours partie de l'écosystème CUDA. "À court terme, le pouvoir de calcul de Nvidia ne peut pas être contourné - c'est particulièrement clair dans la formation; cependant, le déploiement de cartes domestiques pour le raisonnement sera relativement plus facile, donc les progrès ne seront probablement plus rapides. L'adaptation des cartes domestiques se concentre principalement sur l'inférence; personne n'a encore réussi à former un modèle de performance de Deepseek sur les cartes domestiques à l'échelle," une analyse industrielle a remarqué à une revue de la technologie. Dans l'ensemble, du point de vue de l'inférence, les circonstances sont encourageantes pour les grandes puces de modèles domestiques. Les opportunités pour les fabricants de puces nationales dans le domaine de l'inférence sont plus évidentes en raison des exigences excessivement élevées de la formation, qui entravent l'entrée. Les analystes soutiennent que le simple fait d'exploiter les cartes d'inférence domestiques suffit; Si nécessaire, l'acquisition d'une machine supplémentaire est réalisable, tandis que les modèles de formation pose des défis uniques, la gestion d'un nombre accru de machines peut devenir contraignante et des taux d'erreur plus élevés peuvent avoir un impact négatif sur les résultats de formation. La formation a également des exigences spécifiques de l'échelle des grappes, tandis que les demandes de grappes d'inférence ne sont pas aussi strictes, assouplissant ainsi les exigences du GPU. Actuellement, la performance de la carte H20 unique de Nvidia ne dépasse pas celle de Huawei ou Cambrian; Sa force réside dans le regroupement. Sur la base de l'impact global sur le marché des puissances de calcul, le fondateur de Luchen Technology, You Yang, noté dans une interview de l'IA Technology Review, "Deepseek peut temporairement saper la création et la location de la formation ultra-large des groupes de calcul. Demande sur le marché des puissances informatiques. " De plus, "la demande accrue de Deepseek pour les services de raisonnement et de réglage fin est plus compatible avec le paysage informatique domestique, où les capacités locales sont relativement faibles, aidant à atténuer les déchets à partir de ressources inactives après l'établissement de cluster; Luchen Technology a collaboré avec Huawei Cloud pour lancer les API de raisonnement de la série R1 Deepseek et les services d'imagerie cloud basés sur la puissance de calcul intérieure. Vous Yang a exprimé son optimisme à propos de l'avenir: "Deepseek instille la confiance dans les solutions produites au niveau national, encourageant un plus grand enthousiasme et l'investissement dans les capacités de calcul intérieures à l'avenir."

Conclusion
La question de savoir si Deepseek est «meilleur» que Chatgpt dépend des besoins et des objectifs spécifiques de l'utilisateur. Pour les tâches nécessitant une flexibilité, un faible coût et une personnalisation, Deepseek peut être supérieur. Pour l'écriture créative, la demande générale et les interfaces conversationnelles conviviales, le chatppt peut prendre les devants. Chaque outil sert des objectifs différents, donc le choix dépendra considérablement du contexte dans lequel ils sont utilisés.
Câbles de contrôle
Système de câblage structuré
Réseau et données, câble à fibre optique, cordon de patch, modules, plaque de face
16 avril-18e, 2024 Moyen-Orient à Dubaï
16 avril au 18, 2024 Securika à Moscou
9 mai 2024 Nouveaux produits et technologies Lance Event à Shanghai
22 octobre au 25 octobre, 2024 Sécurité Chine à Pékin
19-20 novembre 2024 Connected World KSA
Heure du poste: février-10-2025