Pourquoi devez-vous attendre si longtemps pour demander ChatGPT et de nouveaux comptes Bing ?

La semaine dernière, les changements AIGC ont rendu le monde fou, se réveiller chaque jour peut être un "nouveau monde".

Mais d'un autre point de vue, peu importe à quel point l'AIGC est intelligent et perturbateur, nous sommes toujours dans le "vieux monde", ou pour être précis, cela devrait être le monde "alternatif".

Non seulement les nouveaux plug-ins Bing, Github Copilot X, ChatGPT, Midjourney V5, Firefly d'Adobe et même Wenxin Yiyan de Baidu, vous devez vous inscrire à la liste d'attente pour attendre une place avant d'en faire l'expérience. Ce processus est très similaire au système de rationnement de l'économie planifiée.

Avec de plus en plus de services AIGC, y compris la mise à niveau du GPT-4 d'origine et du Midjourney V5, le temps de la liste d'attente semble être allongé.

▲ Mi-journée V5

À ce jour, de nombreuses personnes figurent encore sur la nouvelle liste d'attente Bing, sans parler d'autres expériences d'IA génératives plus récentes.

Peut-être s'agissait-il d'une résistance silencieuse aux règles tacites de Waitlist.Quelqu'un a créé un site Web qui "met toutes les files d'attente en un seul clic".

Mais l'ironie est que la fonction "rejoindre en un clic" n'est pas encore terminée, vous devez d'abord rejoindre la liste d'attente, et le suffixe du nom de domaine du site Web est wtf, ce qui est plein de ressentiment.

Derrière la liste d'attente se cache un service plus stable

Lorsque j'ai posé cette question à Bing, Bing a trouvé quatre raisons parmi les trois pages du site officiel d'OpenAI.

  • Limitez le nombre d'utilisateurs pour assurer la qualité et la stabilité du service.
  • Recueillez les commentaires des utilisateurs pour améliorer les fonctions et l'expérience du service.
  • Augmentez les attentes des utilisateurs et le sentiment de participation, et améliorez la popularité et la réputation du service.
  • Éliminez les utilisateurs qui correspondent au groupe cible, améliorez le taux de conversion des services et le taux de rétention.

Et cela ressemble plus à certains mots officiels d'OpenAI, Microsoft, Google et d'autres grandes entreprises pour une attente indéfinie.

Relativement parlant, ChatGPT, qui a été le premier à entrer dans le public, a connu de nombreuses fluctuations dans le service de ChatGPT avec la mise à niveau du modèle et la réduction substantielle des prix.

Problèmes de stabilité tels que l'avalement des enregistrements de questions-réponses, les temps d'arrêt et la confusion dans la liste des questions-réponses.

Le nouveau Bing basé sur OpenAI a également une rhétorique excessive.Jusqu'à présent, Microsoft limitait également le nombre et la durée des conversations dans le nouveau Bing.

Vous pourriez dire que limiter le nombre de personnes utilisant ChatGPT et le nouveau Bing offre une réponse et une génération de contenu plus stables et plus rapides.

Mais il faut savoir que ces fonctions et services ont déjà consommé des ressources considérables, occupant près de la moitié de la puissance de calcul de Microsoft Azure.

À l'heure actuelle, l'AIGC n'a pas encore introduit de super applications et est toujours dans un processus d'itération rapide, et on peut même dire qu'il s'agit toujours d'une version de test bêta.

Interagir avec l'IA via des boîtes de dialogue traditionnelles ne correspond pas tout à fait à la situation où tout le monde aura un smartphone en 2023.

AIGC ne peut être considéré que comme une fonction maintenant, et les prochains Copilot, Firefly, etc. ressemblent davantage à des produits.

▲ Fonction copilote d'Office 365

Mais ils ne sont toujours pas ouverts au public, se trouvant dans la liste d'attente un par un.

D'un certain point de vue, Microsoft, Google et Adobe sont encore en train de « peaufiner » leurs propres produits, mais d'un autre point de vue, s'ils veulent ouvrir la porte à tout le monde, ou dire que l'IA devient le copilote de tout le monde, ils besoin de briser un "goulot d'étranglement".

L'AIGC en plein essor pourrait commencer à toucher le goulot d'étranglement

Le "goulot d'étranglement" ici n'est pas la manifestation externe, l'éthique, les lois et réglementations rencontrées par l'IA générative, ou la précision de sa réponse.

Au lieu de cela, c'est le matériel derrière l'IA qui fournit la puissance de calcul, ainsi que diverses puissances de cloud computing pour la formation.

Microsoft continue d'investir massivement dans OpenAI, investissant des milliards de dollars successivement, et faisant progressivement émerger de nouveaux bing basés sur GPT-4, et un nouvel Office qui est toujours sur la liste d'attente.

Dans le même temps, afin de garantir que le nouveau bing et le nouvel Office avec la fonction Copilot qui en découle puissent réagir de manière stable et rapide.

Microsoft fournit et réserve également la moitié de la puissance de calcul et de la capacité de calcul de son service cloud Azure.

Cela a également conduit à la tension des ressources informatiques Azure internes de Microsoft. L'information a interrogé des employés internes de Microsoft.Pour les ressources informatiques matérielles limitées, Microsoft met en place un système interne de liste d'attente matérielle.

D'autres équipes et départements de Microsoft qui développent des modèles d'apprentissage automatique veulent appeler les services cloud d'IA d'Azure, ils doivent être approuvés et signalés étape par étape, et finalement décidés par un vice-président.

Tout comme nous faisons la queue pour découvrir de nouveaux services d'IA générative, en plus des nouveaux services Bing et Office et OpenAI, d'autres départements de Microsoft attendent également une puissance de cloud computing Azure excédentaire.

Cependant, avec la stratégie All in OpenAI de Microsoft, la puissance de calcul et la capacité du cloud Azure sont également très limitées.

En plus des appels internes, Azure fournit également divers produits et services, notamment l'IA, l'informatique, les conteneurs, le cloud hybride, l'Internet des objets, etc.

En tant que fournisseur de services cloud, Azure s'est étendu à plus de 60 régions du monde, et ses produits de serveur externe et ses revenus de services cloud représentent 36 % du chiffre d'affaires total de Microsoft.

Cependant, à l'instar de l'équipe interne de Microsoft, les clients qui achètent Azure sont également affectés par la puissance de calcul limitée, surtout s'ils veulent appeler Azure OpenAI, ils doivent toujours rejoindre la liste d'attente.

À partir de fin 2022 environ, Microsoft prévoit d'ajouter plus de matériel (GPU ou TPU) pour augmenter la puissance de calcul.

Et a également conclu un accord avec Nvidia pour ajouter des dizaines de milliers de cartes informatiques GPU H100 à Azure afin de fournir une formation à l'IA et une efficacité de raisonnement plus élevées pour l'OpenAI ultérieur.

Cependant, actuellement, Microsoft et Nvidia n'ont pas divulgué le déploiement de H100 dans Azure, et seul un petit nombre d'équipes au sein de Microsoft ont accès à H100 (très probablement de nouveaux Bing et Office), et la plupart des départements sont toujours exclus.

Le prix approximatif d'un morceau de H100 peut être d'environ 240 000 yuans. Si cela est utilisé comme référence, Microsoft devra investir des centaines de millions de dollars pour étendre la capacité d'Azure.

Non seulement Microsoft, mais les fournisseurs de services cloud tels que Google et Oracle investissent également massivement dans du matériel tel que les GPU pour étendre leurs services cloud, se préparant à la puissance de calcul avant que l'AIGC n'éclate complètement.

▲ Le PDG de Nvidia, Huang Renxun, et le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever

Cependant, de la sortie de GTC 2022 à nos jours, Nvidia n'a pas annoncé l'offre et les ventes de H100, et on ne sait pas si le plan d'expansion de Microsoft pour Azure sera efficace.

Dans le GTC 2023 de cette année, Nvidia n'a pas apporté de progrès sur le matériel H100 et A100, mais a mis l'accent sur les avantages de Nvidia dans le matériel de cloud computing.

Et son directeur de la technologie a également commencé à souligner que "la crypto-monnaie n'apporte aucune contribution bénéfique à la société", et a également commencé à souligner de côté que le domaine AIGC sera le domaine sur lequel Nvidia se concentrera au cours des 30 prochaines années.

Avec l'itération continue du champ AIGC, à partir d'octobre 2022 environ, le stock de Nvidia augmentera également, balayant la baisse d'activité précédente causée par la récession de la crypto-monnaie.

À l'heure actuelle, la valeur marchande de Nvidia a atteint un point culminant, presque égal à la somme de la valeur marchande d'Intel, d'AMD et d'ARM.

Cependant, une valeur de marché aussi élevée ne semble pas améliorer l'offre de matériel. Au contraire, comme de grandes entreprises telles que Google et Microsoft investissent dans du matériel informatique en nuage, quels que soient les coûts et les ressources, selon la situation d'approvisionnement antérieure de Nvidia, il est très probable qu'il y aura une autre situation de panique dans les cartes graphiques industrielles.

Non seulement l'état de l'alimentation matérielle, mais aussi la matrice de calcul composée de ces GPU hautes performances ont une puissance élevée.La puissance d'une seule carte de calcul H100 avec interface SXM atteint 700W.

La consommation d'énergie des centres de calcul pour la formation de modèles d'IA et le traitement de données volumineuses est en fait assez stupéfiante.

En 2021, David Patterson et Joseph Gonzalez de l'Université de Californie ont montré que l'entraînement GPT-3 consommera environ 1,287 gigawattheures d'électricité, ce qui équivaut à la consommation électrique annuelle de 120 foyers américains.

Dans le même temps, le document a également révélé que la formation GPT-3 produirait 502 tonnes d'émissions de carbone, ce qui équivaut aux émissions annuelles de 110 voitures.

Ils ont également souligné qu'il ne s'agit que du coût de formation d'un modèle et que, comme il inonde le marché, il consommera également plus de ressources, ce qui peut être supérieur au coût de formation.

Le GPT-3 d'OpenAI utilise 175 milliards de paramètres ou variables, tandis que les paramètres du GPT-4 sont estimés entre 175 milliards et 280 milliards. Pour la consommation d'énergie, la demande de cloud computing ne fera qu'augmenter.

À cette fin, le PDG d'OpenAI, Sam Altman, a déclaré dans une interview avec The Verge qu'OpenAI cherchait des moyens efficaces d'améliorer les performances et la sécurité du modèle.

En d'autres termes, OpenAI essaie également d'économiser des ressources matérielles et énergétiques pour la formation et l'exécution de modèles grâce à des algorithmes plus efficaces.

Le mécanisme de liste d'attente, d'un point de vue superficiel, garantit l'expérience AIGC actuelle et la rapidité de réponse des services associés.

Mais à un niveau plus profond, c'est aussi une lutte pour les ressources, une compétition entre la puissance de calcul et la capacité des centres de cloud computing avec des GPU et des TPU comme cœur, et une compétition avec des investissements élevés et une consommation d'énergie élevée au niveau macro.

Jusqu'à présent, l'AIGC est encore dans une phase de "boîte aveugle", et la demande et l'occupation des ressources ne sont toujours pas claires.

Cependant, se tenir dans la file d'attente de divers services d'IA est en effet très similaire à celui des films de science-fiction où les gens font constamment la queue pour entrer dans l'usine contrôlée par l'IA afin de fournir les ressources nécessaires à son fonctionnement.

La liste d'attente est la liste d'attente dans le monde virtuel, et il peut également s'agir d'une file d'attente servant l'IA dans le monde réel à l'avenir.

#Bienvenue pour prêter attention au compte public WeChat officiel d'Aifaner : Aifaner (WeChat ID : ifanr), un contenu plus excitant vous sera présenté dès que possible.

Ai Faner | Lien d'origine · Voir les commentaires · Sina Weibo