TikTok commence à marquer les vidéos autonomes comme dangereuses

Oui, les hashtags «auto-conduite» et «sans conducteur» existent sur TikTok, et ils contiennent exactement ce que vous pourriez penser: des vidéos de personnes utilisant la fonction de conduite autonome de leur Tesla tout en faisant autre chose que se concentrer sur la route.

Pour dissuader les autres utilisateurs d'abuser de la fonction de conduite autonome, TikTok a décidé de mettre une étiquette d'avertissement sur ces types de vidéos.

TikTok tente de tuer la tendance à l'auto-conduite

Dans un Tweet repéré pour la première fois par The Next Web , un utilisateur a remarqué une nouvelle étiquette sous une vidéo autonome sur TikTok. L'étiquette indique: "Les actions de cette vidéo pourraient entraîner des blessures graves ou des effets néfastes sur la santé."

Malgré cela, il existe encore des tonnes de vidéos dangereuses de conduite autonome sur TikTok qui ne portent pas cette étiquette. Cela comprend des vidéos de personnes utilisant le pilote automatique sur la banquette arrière de leur Teslas, ainsi que des vidéos de personnes mangeant leur déjeuner en «conduisant». TikTok peut être incapable de capturer toutes les vidéos dangereuses, mais il faudra probablement des mesures encore plus strictes pour contrer cette tendance.

Le règlement de la communauté de TikTok indique clairement que la plate-forme n'autorise pas les utilisateurs à «partager du contenu les décrivant en train de participer ou en encourageant d'autres personnes à participer à des activités dangereuses pouvant entraîner des blessures graves ou la mort». Dans cet esprit, une simple étiquette suffit-elle vraiment pour empêcher les utilisateurs de publier des vidéos dangereuses de conduite autonome?

Sur la page d'assistance de Tesla , la société déclare que les propriétaires de Tesla doivent toujours «faire attention» lorsqu'ils utilisent la fonction de conduite autonome. Les conducteurs doivent également accepter de garder les mains sur le volant et de garder le contrôle de la voiture avant d'activer le pilote automatique.

En relation: Les propriétaires de Tesla découvrent une manière enfantine d'ouvrir le port de charge

Des avertissements comme ceux-ci ne peuvent malheureusement pas faire grand-chose, car les gens tenteront inévitablement encore d'abuser de la fonction de pilote automatique. Le 5 mai 2021, un homme a été tué dans un accident en utilisant la fonction de pilote automatique de Tesla. Selon un rapport de Reuters , le conducteur a fréquemment publié des vidéos de «conduite entièrement autonome» sur TikTok.

Si TikTok continue de permettre aux utilisateurs de publier des vidéos "amusantes" d'eux en utilisant la fonction de pilote automatique tout en étant distraits, plus de gens voudront probablement faire de même, ce qui entraînera plus de morts et de blessures inutiles.

TikTok et Tesla doivent tous deux condamner les abus de pilote automatique

En fin de compte, il incombe à Tesla et TikTok de condamner la conduite autonome distraite. Cela signifie que Tesla doit rendre plus difficile l'utilisation de la fonction de pilote automatique en étant distrait, et TikTok devrait supprimer complètement les vidéos de conduite autonome dangereuses. D'ici là, nous verrons probablement encore plus de blessures et de décès liés à l'utilisation abusive de la fonction de pilote automatique.