Xiaohongshu lance une fonction de traduction, que l’on peut appeler une encyclopédie des mèmes

Les gens du monde entier l'attendaient avec impatience, et enfin le week-end dernier, la fonction de traduction de Xiaohongshu a été publiée !

Certaines méthodes et instructions d'ouverture sont les suivantes :  :

– Mise à niveau vers la dernière version

– Essayez de modifier vos propres paramètres de langue, y compris les paramètres Xiaohongshu et les paramètres du système de téléphonie mobile.

– Actuellement, ne prend en charge que la traduction dans une seule langue. S'il s'agit d'un mélange de chinois et d'anglais, ou s'il contient des émoticônes, il ne peut pas être déclenché avec succès.

– S'il n'y a toujours pas de réponse, certains internautes ont proposé une « méthode pour tuer l'arrière-plan » : publiez n'importe quelle phrase en anglais dans la zone de commentaire, puis quittez l'arrière-plan, puis rouvrez Xiaohongshu, et la fonction de traduction apparaîtra

▲ La capture d'écran de cet article provient d'un utilisateur de Xiaohongshu. Le nom d'utilisateur est celui indiqué dans l'image ci-dessous.

C'est trop rapide. Xiaohongshu, vous avez des programmeurs avec des mains si rapides qui entrent dans l'entreprise. Les utilisateurs ont dit qu'ils n'avaient jamais vu une mise à jour aussi rapide. Est-ce la vitesse chinoise légendaire ?

Les gens du monde entier sont heureux sauf Youdao.

Bien qu'il ait été lancé en seulement une semaine, les performances de traduction ont été étonnamment bonnes et c'était comme un miracle de surfer à travers les pays.

U1s1, yyds, cpdd, toutes ces abréviations basées sur le pinyin peuvent être comprises et marquées avec précision.

Il était une fois, ma collègue d'à côté a dit qu'elle ne savait même pas ce que signifiait cpdd – une autre preuve irréfutable que les humains sont inférieurs au GPT.

Xiaohongshu, faites-vous de la traduction ou créez-vous une encyclopédie de mèmes ?

Un autre effet de cette vague est que les dialectes sont également traduits.

Même s'il y a des erreurs dans le texte original, non seulement cela n'affectera pas la traduction, mais Xiaohongshu l'annotera également de manière réfléchie.

Vous envisagez vraiment d'apprendre l'anglais pour moi, les larmes aux yeux.

De toute évidence, cette fois, la fonction de traduction de Xiaohongshu est prise en charge par un grand modèle linguistique , et les internautes ont hâte de commencer à taquiner le modèle qui se cache derrière.

Par exemple, faites d’abord une brève traduction, puis écrivez quelques lignes de poésie.

Après que Qianqian ait traduit, je résumerai les nouvelles d'aujourd'hui.

Il y a même des gens qui tapent une chaîne de code Morse et la font traduire – il s'agit du Petit Livre Rouge, pas de "Le Bruit du Vent".

Annonce unilatérale : le logiciel de traduction multifonctionnel le plus puissant est désormais Xiaohongshu.

Bien que le grand modèle linguistique soit déjà très efficace pour gérer les tâches de traduction, de nombreux défis subsistent lorsqu'il s'agit d'une plateforme sociale au contenu extrêmement riche comme Xiaohongshu.

La diversité des langues est le plus grand défi. Certains termes, expressions ou métaphores spécifiques à une culture, tels que les expressions idiomatiques et l’argot, sont difficiles à traduire avec précision.

Il existe également certains noms et surnoms, et le modèle peut ne pas être en mesure de bien distinguer quels mots doivent être traduits et quels mots doivent être conservés.

Par exemple, « l’homme orange » est ici directement traduit par « l’homme orange », mais il fait en réalité référence à Trump.

Outre la précision, ce qui est plus difficile à percevoir pour les utilisateurs ordinaires, ce sont les ressources informatiques nécessaires à la traduction.

Sur une plateforme riche en contenu comme Xiaohongshu, les utilisateurs peuvent publier des notes contenant seulement quelques lettres ou des centaines de mots. En revanche, la traduction de contenus longs occupera plus de ressources et augmentera la charge du système.

Dans le même temps, une fois les utilisateurs de différents pays stationnés, les fuseaux horaires sont largement répartis, ce qui entraîne un temps de chargement presque nul pour le système.

Lorsque les deux parties se réveillent, le nombre de demandes de traduction peut augmenter instantanément dans un court chevauchement de fuseaux horaires. Le système doit gérer un grand nombre de demandes simultanées sur une courte période, ce qui constitue un excellent test pour les capacités de traitement simultané.

Prédisant l'avenir, la vague de Xiaohongshu est dans l'atmosphère

Il n’existe pas encore d’informations précises sur le modèle appelé derrière la nouvelle fonction de traduction. Sous le « questionnement forcé » de certains internautes, il semble que ce soit du GPT.

Certains internautes se sont « forcés à demander » et ont découvert s'il s'agissait d'un spectre de sagesse.

Mais vu la question du coût, c’est vraiment difficile à dire. GPT possède un grand nombre de paramètres et un coût de calcul élevé, ce qui le rend impropre au déploiement dans des environnements aux ressources limitées.

Une possibilité plus réalisable consiste à sélectionner un modèle étudiant et à distiller GPT en tant que modèle enseignant. Les modèles d'étudiant ont généralement moins de paramètres et une inférence plus rapide, mais essaient de conserver les capacités du modèle d'enseignant.

Dans le même temps, cet itinéraire pourrait être plus fiable pour Xiaohongshu.

L’exploration par Xiaohongshu des technologies d’IA telles que les grands modèles de langage et la multimodalité a commencé depuis longtemps, mais elle s’est toujours concentrée sur l’optimisation des algorithmes. Nous avons également créé quelques petites fonctions d’IA, et nous en avons déjà écrit beaucoup.

Ce que peu de gens savent, c’est qu’à l’AAAI en 2024, l’équipe d’algorithmes de recherche de Xiaohongshu a proposé une nouvelle idée de distillation sur grand modèle.

L'équipe d'algorithmes de recherche de Xiaohongshu a proposé un cadre innovant qui utilise pleinement les connaissances des échantillons négatifs dans le processus de distillation des capacités de raisonnement des grands modèles .

« Échantillon négatif » est un concept très intéressant. La distillation traditionnelle se concentre généralement uniquement sur des échantillons positifs, ce qui n'est pas difficile à comprendre : lorsque les enseignants enseignent aux élèves, ils doivent enseigner la manière correcte de résoudre les problèmes afin que les élèves puissent comprendre et imiter.

Cependant, tout le monde doit avoir fait une « mauvaise collection de questions » lorsqu'il était à l'école, en enregistrant les erreurs qu'il a commises et les domaines dans lesquels il n'était pas assez fort. Ces mauvaises questions sont des « échantillons négatifs » . Dans la zone de commentaires de Xiaohongshu, les traductions qui ne sont pas assez précises sont des échantillons négatifs.

Par exemple, le « juste point » ci-dessous était avant le lancement de la fonction de traduction, et la traduction était trop faite automatiquement. Dans cette zone de commentaire, il est plus approprié de le traduire par « raisonnable ».

Tout comme les « mauvaises questions » contiennent également des informations importantes, les « échantillons négatifs » peuvent aider le modèle de l'étudiant à identifier les prédictions qui sont incorrectes, à améliorer sa capacité de discrimination, à améliorer le traitement des échantillons difficiles et en même temps à être capable d'exprimer dans un langage complexe , maintenir la cohérence.

Par exemple, si vous souhaitez maintenant vous connecter avec des amis étrangers dans la zone de commentaires – ah non, vérifiez – certains mots liés à la gestion financière peuvent apparaître.

Par exemple, le mot banque peut apparaître fréquemment, mais il a aussi une autre signification : « lit de rivière », et il peut également être utilisé comme verbe.

Grâce à l'apprentissage d'échantillons négatifs, nous entraînons le modèle à reconnaître les expressions polysémiques, à corriger la logique de traduction et à générer un contenu plus naturel.

L’avantage des échantillons négatifs se reflète également dans la prise en charge des petites langues. Vous savez, cette fois, il ne s’agit pas seulement d’utilisateurs américains, mais aussi d’utilisateurs du monde entier : Serbie, Pérou et aborigènes dans certaines régions d’Australie.

En exploitant des exemples négatifs, notamment des modèles courants d'erreurs de traduction, les modèles d'étudiants sont capables d'identifier et d'éviter les erreurs à haute fréquence, améliorant ainsi les capacités de traduction dans les langues à faibles ressources.

Ce cadre proposé par l'équipe Xiaohongshu est une application innovante de distillation . Il visait à extraire des capacités de raisonnement complexes à partir de grands modèles de langage et à les migrer vers de petits modèles spécialisés. À l'époque, il n'était pas clair quelles tâches spécifiques pouvaient être accomplies. Au moins, il semblait que la traduction n'était pas l'objectif principal.

À cette époque, personne ne savait peut-être que ce cadre aiderait Xiaohongshu à devenir un an plus tard un pont pour les échanges internationaux.

Comme le dit le vieil adage : les opportunités arrivent toujours à ceux qui sont préparés.

# Bienvenue pour suivre le compte public officiel WeChat d'Aifaner : Aifaner (ID WeChat : ifanr). Un contenu plus passionnant vous sera fourni dès que possible.

Ai Faner | Lien original · Voir les commentaires · Sina Weibo