Lancé une plate-forme de formation hybride à puces hétérogènes à l’échelle d’un kilocard, Wuwen Core Dome vise à créer l’infrastructure d’IA la plus rentable
Quel rôle jouent les infrastructures à l’ère de l’IA ? Certains disent que c'est comme l'électricité, d'autres disent que c'est comme l'eau.
Wuwen Xinqiong estime qu'une excellente infrastructure est une sorte de « magie » qui peut réduire efficacement le coût des grands modèles et permettre à davantage de personnes d'adopter les nouvelles technologies.
Le 4 juillet, Xia Lixue, co-fondateur et PDG de Wuwen Core Dome, a lancé la première plate-forme d'entraînement hybride à puce hétérogène en kilocalories au monde. L'utilisation de la puissance de calcul du cluster d'entraînement hybride hétérogène en kilocalories a atteint un maximum de 97,6 %.
Il y a quatre mois, la plate-forme cloud de développement et de services de grands modèles Infini-AI de Wuwen Core Dome a annoncé sa première version bêta publique. Les clients de grandes sociétés modèles telles que Zhipu AI, Dark Side of the Moon et Shengshu Technology utilisent de manière stable Infini-AI. En termes de puissance de calcul, il existe plus de 20 startups d'applications AI Native qui continuent d'appeler diverses API de modèles prédéfinis sur Infini-AI et d'utiliser la chaîne d'outils fournie par Wuwen Core Dome pour développer leurs propres modèles commerciaux.
Construire une infrastructure AI Native à l'ère des grands modèles peut non seulement fournir aux développeurs d'IA un environnement de R&D plus polyvalent, plus efficace et plus pratique, mais constitue également une pierre angulaire essentielle pour parvenir à une intégration efficace des ressources informatiques et soutenir le développement durable de l'IA. industrie. Comparées au modèle « relativement concentré » de couches de modèles et de couches de puces dans le monde, les couches de modèles et les couches de puces de la Chine sont plus diversifiées.
Cependant, la diversité signifie aussi des défis. Un grand nombre de puces hétérogènes ont également formé des « silos écologiques ». Différents écosystèmes matériels sont fermés et incompatibles les uns avec les autres, ce qui pose une série de défis techniques aux utilisateurs de puissance de calcul. C'est la plus grande difficulté dans la construction d'une infrastructure AI Native, et c'est également une raison importante pour laquelle la grande industrie actuelle du modèle est confrontée à une « pénurie de puissance de calcul ».
Wuwen Core Qiong possède des capacités d'optimisation informatique de l'IA et des capacités de solution de puissance de calcul de premier ordre, ainsi qu'un jugement prospectif sur les modèles industriels des « types M de modèles » et des « types N de puces », et a pris les devants dans la construction d'un Modèle écologique de couche intermédiaire « MxN » pour réaliser un déploiement efficace et unifié de plusieurs algorithmes de grand modèle sur plusieurs puces.
Jusqu'à présent, Infini-AI a pris en charge plus de 30 modèles tels que les séries Qwen2, GLM4, Llama3, Gemma, Yi, Baichuan2, ChatGLM3, etc., ainsi que AMD, Huawei Shengteng, Biren, Cambrian, Suiyuan, Haiguang, Tianshu. Il existe plus de 10 types de cartes informatiques, dont Zhixin, Muxi, Moore Thread et NVIDIA.
"Il n'y a pas de contradiction entre repousser le plafond technique et la diffusion de la technologie, et cela dépend de la manière dont nous sommes déterminés à traiter cette technologie, a déclaré Xia Lixue : "Quand nous utiliserons diverses applications d'IA à l'avenir, nous ne le saurons pas." quels modèles de base il appelle et quels modèles sont utilisés. Quel type de carte accélératrice a la puissance de calcul – c'est la meilleure infrastructure AI Native.
# Bienvenue pour suivre le compte public officiel WeChat d'aifaner : aifaner (ID WeChat : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.
Ai Faner | Lien original · Voir les commentaires · Sina Weibo