Pourquoi Llama 3 change tout dans le monde de l’IA
Dans le monde de l’IA, vous avez sans doute entendu parler de ce que font OpenAI et Google. Et maintenant, Llama LLM (grand modèle de langage) de Meta devient un acteur de plus en plus important dans le jeu, notamment avec sa nature open source. Meta a récemment fait sensation avec le lancement de son modèle Llama 3 AI, et il a radicalement bouleversé le secteur.
Les raisons en sont multiples et variées. Son utilisation est gratuite, il a une large base d'utilisateurs et oui, il est open source, pour n'en nommer que quelques-uns. Voici pourquoi Llama 3 prend d'assaut l'industrie de l'IA et pourrait façonner son avenir pendant un certain temps encore.
Lama 3 est vraiment bien
Nous pouvons débattre jusqu'à ce que les vaches rentrent à la maison sur l'utilité des IA comme ChatGPT et Llama 3 dans le monde réel – elles ne sont pas mauvaises pour vous enseigner les règles des jeux de société – mais les quelques points de référence dont nous disposons sur la capacité de ces IA donnent à Llama 3 un avantage évident.
Certains développeurs de Llama 3 ont partagé des tests comparant les derniers modèles à certaines des principales alternatives et, dans de nombreux cas, Llama 3 arrive en tête. Ces critères couvrent les mathématiques, le traitement du langage naturel, les capacités de codage, ainsi que les connaissances et la compréhension générales.
C'est ici! Découvrez Llama 3, notre dernière génération de modèles qui établit une nouvelle norme en matière de performances et d'efficacité de pointe pour les LLM librement disponibles.
Points saillants
• Paramètres 8B et 70B, modèles pré-entraînés et affinés librement disponibles.
• Formé sur plus… pic.twitter.com/iaOBYaOli5— Ahmad Al-Dahle (@Ahmad_Al_Dahle) 18 avril 2024
Ne les croyez pas sur parole, cependant. Vous pouvez tester Llama 3 contre lui-même et contre une gamme d'autres modèles d'IA dans l'AI Arena .
Une base d’utilisateurs existante massive
Lorsque OpenAI a lancé ChatGPT, certains premiers intéressés ont été intéressés, mais il a dû accroître son audience de manière organique. Il l’a fait incroyablement rapidement, enregistrant des dizaines de millions d’utilisateurs suite au succès de ses modèles GPT 3 et GPT 4. Mais Llama 3 de Meta est déjà intégré à sa Meta AI, qui peut être utilisée sur Facebook, Instagram, WhatsApp et Messenger, ainsi que sur les versions d'applications Web de tous ces services.
Cela ne représente pas des millions d'utilisateurs existants. Cela fait des milliards. Tout ce que Meta doit faire pour obtenir plus de données sur la façon dont Llama 3 est utilisé, ou sur la manière de l'améliorer pour les utilisateurs quotidiens, est d'inciter ces milliards d'utilisateurs à l'essayer. Il s’agit d’un public captif avec lequel peu d’autres entreprises technologiques peuvent rivaliser.
C'est entièrement gratuit
Si l'échec de l'initiative Horizons VR du PDG de Meta, Mark Zuckerburg, nous a montré quelque chose, c'est que Meta n'a aucun problème à investir des dizaines de milliards de dollars dans des projets qui ne mènent vraiment nulle part. Mais ce manque de monétisation nécessaire est une force incroyable pour une entreprise qui investit dans un domaine aussi avant-gardiste, car là où d'autres développeurs d'IA peuvent avoir besoin d'un retour sur investissement relativement rapide, Meta n'en a vraiment pas besoin.
Grâce à sa gigantesque infrastructure de centre de données et aux flux de revenus fondamentaux provenant de ses différents services, Meta est en mesure de proposer Llama 3 à 0 $ précisément pour tout le monde. Il peut se permettre de dépenser des milliards de dollars en puissance de calcul dans le but de développer davantage Llama 3 et les futurs LLM. Cela rend Llama 3 plus facilement accessible à ses milliards d’utilisateurs que toute autre IA de premier plan.
C'est open source
Là où le prix compte pour les utilisateurs, la transparence du code compte pour les développeurs. Contrairement aux IA de plateforme propriétaire, comme ChatGPT et ses différents modèles de langage, Llama 3 est open source. Cela signifie que les développeurs peuvent examiner son fonctionnement et y apporter des modifications. Ils peuvent itérer dessus et mener le projet dans leurs propres directions intrigantes. Cela encourage une adoption plus poussée, puisque davantage de développeurs pourront intégrer le modèle Llama 3 dans leurs propres projets, et cela encourage un meilleur code, puisque davantage de personnes peuvent avoir un impact sur son développement.
Cela a le potentiel de faire de Llama 3 un standard, le consolidant dans un avenir prévisible.
Il peut fonctionner localement
L'un des plus gros inconvénients des grands modèles d'IA de langage comme Gemini de Google, ChatGPT ou les itérations précédentes de Meta's Llama est qu'ils nécessitent une quantité excessive de puissance de calcul, non seulement en formation, mais en fonctionnement réel. C'est pourquoi il faut payer pour avoir le privilège d'utiliser des IA plus exigeantes, et pourquoi la réponse est parfois lente lorsque le service est occupé.
Mais Llama 3 peut fonctionner localement sur du matériel portable grand public. Cela nécessite un peu de franchissement d'obstacles et vous aurez besoin de beaucoup de mémoire pour le faire fonctionner efficacement (l'ordinateur portable utilisé dans l'exemple ci-dessous est le MacBook Pro M1 Max avec 64 Go de mémoire RAM), mais ce n'est pas vraiment un obstacle. pour l'entrée.
Exécutez Llama 3 localement avec Open-WebUI
Cette vidéo n'est PAS accélérée. Le modèle téléchargé depuis @ollama (llama3:instruct), fonctionnant avec @OpenWebUI , sur un Macbook Pro M1 Max 64G.
Vous pouvez l'exécuter dès maintenant sur votre propre machine (Windows, Linux, Mac) en 1 clic. https://t.co/sDpI4TEiwa pic.twitter.com/qe5PIv3hQm
— cacahuète cocktail (@cocktailpeanut) 18 avril 2024
Or, cet exemple n'est pas le meilleur modèle Llama 3 : il a été formé sur 70 milliards de jetons (mots ou points de données qui constituent sa compréhension), plutôt que sur les 15 000 milliards du modèle haut de gamme. Llama 3 est également loin d'être le premier LLM à être exécuté localement, mais il est le plus performant à ce jour et suggère que nous pourrions voir ce type d'IA fonctionner dans les smartphones, les lunettes intelligentes, les casques VR et d'autres appareils dans un avenir proche.
Et ce n'est que le début
Llama 3 est incroyable, mais il ne peut pas encore faire beaucoup de choses. Il est actuellement entièrement basé sur du texte, ce qui signifie qu'il ne s'agit pas de l'IA multimodale que nous avons vue avec ChatGPT et des services similaires. Il ne peut pas traiter la vidéo, l'audio ou les images. Il ne peut pas répondre aux commandes vocales ni vous répondre. Actuellement, il ne fonctionne également qu'avec la langue anglaise.
Mais il sera bientôt capable de faire toutes ces choses – et probablement bien plus encore. Llama 3 est un coup d’avertissement lancé à de nombreux développeurs d’IA, signalant que le temps des petites startups qui volaient la vedette dans le développement de l’IA est peut-être révolu. Sans le soutien financier, technologique et infrastructurel majeur d’une entreprise comme Meta, il pourrait en effet être très difficile de rivaliser directement.