Oh non ! Je suis devenu agent !
![]()
En tant qu'utilisateur de téléphone Pixel depuis six ans et demi, j'ai regardé la conférence Made by Google hier matin avec un froncement de sourcils sur mon visage.

#MortÀL'Intérieur
En tant que produit de dixième génération de la gamme de produits, le Pixel 10 ne nous a pas apporté de transformation de la forme du produit à la forme d'utilisation comme le précédent iPhone X. Au lieu de cela, il a joué une approche conservatrice à un moment où même l'iPhone se préparait à apporter des changements de conception majeurs.
D'un point de vue matériel uniquement, les quatre nouveaux téléphones Pixel de cette année – 10, 10 Pro, Pro XL et Pro Fold – n'ont aucun point fort autre que le processeur TSMC, et leurs capacités d'imagerie ont connu à la fois des progrès et des revers.
Nous avions autrefois un nom plus approprié pour cette mise à niveau : Pixel 9s.
![]()
Étant donné que le produit lui-même est déjà moyen, la conférence Made by Google elle-même est encore plus difficile à décrire.
D'un point de vue normal, l'objectif d'un lancement de produit devrait être de présenter et de présenter clairement le produit, de souligner ses avantages dans la mesure du possible, puis d'indiquer à tout le monde le prix.

Mais Google semble avoir des idées différentes concernant le lancement.
Cette année, l'événement « Made by Google » ressemblait davantage à une réunion annuelle de Google hautement commercialisée qu'à une conférence de presse. Même Jimmy Fallon n'a pas réussi à reconstituer les différentes scènes fragmentées pour répondre à la question la plus importante :
Quelles améliorations ont été apportées au Pixel de cette année ?
Le véritable matériel d'IA ne nécessite que la forme la plus simple
Il faut l'admettre : Google, avec ses Gemini, Veo 3, Flow, Genie 3 et autres outils, est sans aucun doute l'un des modèles d'IA les plus puissants de la planète, et il n'en a même pas besoin.

Genie 3 peut générer des « environnements de simulation interactifs » en temps réel, en 720p et 24 images, plutôt qu'en vidéo. YouTube @Fireship
Google est naturellement conscient de la valeur de la déclaration d'Alan Kay selon laquelle « les personnes qui s'intéressent vraiment aux logiciels devraient concevoir leur propre matériel ». En témoigne le fait qu'il y a dix ans, Google a abandonné la série de téléphones mobiles Nexus, fabriquée en usine, pour adopter un processus de développement entièrement interne pour les Pixel.
Le problème est qu’au fil du temps, la définition du « logiciel » change :
- La première génération de Pixel en 2016 représentait un matériel standardisé pour le système Android.
- Le Pixel 2 en 2017 représentait un matériel standardisé pour la photographie informatique.
- Le Pixel 6 2021 revient au matériel standardisé pour la conception Material You dirigée par Android 12.
Quant au Pixel 10 de cette année, après avoir examiné l'intégralité de la conférence de presse, la rédaction d'iFan estime que les intentions de Google sont déjà claires :
La série Pixel 10 est un ensemble de matériel d'IA entièrement conçu pour Gemini. Qu'il s'agisse du Rabbit R1, du Humane AI Pin ou de l'accessoire d'IA développé par OpenAI et Jony Ive, ils ne sont pas assez purs par rapport au Pixel 10.
Si nous utilisons la formule d'Alan Kay pour le décrire, Google est en fait progressivement passé de « être suffisamment sérieux à propos du système Android » à « être suffisamment sérieux à propos de l'IA » – le téléphone Pixel en tant que forme matérielle ne nécessite aucun changement.
![]()
Photo|PhoneArena
En d’autres termes, la série Pixel 10 de cette année n’est en fait pas si importante pour Android 16 ou la photographie informatique de Google.
Au contraire, le Pixel 10 est une extension réelle du Gemini, un portail vers l'IA à 799 $ qui peut également passer des appels et prendre des photos en parallèle.
Mais ce n’est pas le matériel d’IA que nous voulons.
Bien sûr, il n'y a rien de mal à ce que Google fasse du Pixel un portail matériel exclusif à Gemini. Après tout, quelle que soit l'amélioration apportée à la forme du téléphone, elle est bien plus pratique que l'apparence délibérément différenciée du Rabbit R1 et du Humane AI Pin.

Image : CNET
Cependant, même si le Pixel actuel peut être considéré comme du matériel d'IA, il ne résout toujours pas un problème très important :
Sa logique de fonctionnement est différente du matériel d’IA auquel nous nous attendions.
Que ce soit dans la science-fiction ou dans des représentations conceptuelles, nous donnons souvent à l'IA une forme concrète avec une fonction, qu'il s'agisse d'un Terminator T-1000 en métal liquide ou des yeux rouges de HAL 9000 et MOSS :

Image|Wiki de la Terre errante
Puisque nous acceptons l'installation de MOSS dans le châssis, il n'y a aucun problème avec l'installation de Gemini sur le téléphone Pixel. Cependant, la façon dont les utilisateurs utilisent Gemini est très différente de celle dont Liu Peiqiang imaginait l'utilisation de MOSS.
Tout au long de cette conférence de presse, les deux nouvelles fonctionnalités d'IA que Google a principalement démontrées, Camera Coach et Magic Cue, ainsi que l'édition de photos Gemini dans l'album, sont toutes dispersées dans diverses fonctions du système, et certaines n'apparaîtront que pendant l'utilisation .
Cela est totalement incompatible avec l’idée que les gens se font de l’IA au cours des dernières décennies.
Je n'ai pas besoin que Magic Cue affiche les informations pertinentes de la conversation à l'écran uniquement après un appel. Je veux que l'IA vérifie automatiquement mon itinéraire et mon e-mail de réservation, et qu'en cas d'anomalie, elle appelle intelligemment la compagnie aérienne pour me rembourser le billet.

Je n'ai pas besoin que Google Photos m'oblige à cliquer sur le bouton « Modifier » avant que la boîte de dialogue Gemini n'apparaisse. Je dois activer Gemini directement : aidez-moi à supprimer les photos floues des 200 bars que je viens de prendre, ajustez la luminosité et la couleur, puis sélectionnez 9 photos de cocktails différentes à publier sur WeChat Moments .

Dans les œuvres de science-fiction et les concepts d'IA de la dernière décennie, la logique de fonctionnement de l'IA devrait être que les utilisateurs humains émettent des instructions, l'IA comprend automatiquement les instructions et combine activement toutes les ressources environnantes pour effectuer automatiquement des tâches , plutôt que d'utiliser un fauteuil roulant pour envoyer l'IA à l'avant de la table, lui donner un stylo, de l'encre, du papier et de la pierre à encre, puis elle commence à peindre.

Image : 36 Ko
Autrement dit, les fonctionnalités d'IA du Pixel sont désormais réparties dans tout le système . Il faut d'abord démarrer une tâche avant de pouvoir bénéficier de l'aide de l'IA. Cela inclut de nombreuses fonctions qui auraient pu être facilement connectées et gérées par l'IA à notre place, comme la publication de photos sur un réseau social.

Il y a sept ans, Bixiby pouvait utiliser l'adaptation active pour implémenter des fonctions d'application similaires, mais le Pixel, avec sa plus forte intégration matérielle et logicielle, ne peut pas le faire. | YouTube @爱否科技
Ce qui est encore plus difficile à appréhender, c'est l'assistant de composition Camera Coach intégré à l'appareil photo. Lors de la première démonstration, nous pensions qu'il pouvait lire le contenu de l'écran en temps réel et générer des suggestions de composition via l'interface du système.
Cependant, la réalité est que vous devez activer manuellement la fonction, et Gemini prendra tranquillement une photo et recommandera différentes méthodes de composition en fonction de celle-ci – si la perspective ne correspond pas, il fera même directement appel à l'IA pour vous aider à la dessiner grossièrement – puis vous ajustez la position petit à petit en fonction des conseils de l'IA jusqu'à ce que vous appuyiez sur l'obturateur :

Photo | YouTube @9to5Google
Sans parler de la façon dont l'opération même d'interruption du flux consistant à lever délibérément la main pour cliquer a été imaginée, toute la fonction Camera Coach semble être quelque chose que Google a forcé afin de trouver un moyen d'intégrer les KPI fonctionnels du département Gemini et du département Pixel.
L'intention initiale de l'assistance à la composition devrait être de vous aider à prendre des photos, mais après une telle opération, même avec la puissance de calcul du Tensor G5 prenant en charge le petit modèle final, la vitesse d'inférence actuelle et les résultats de suggestion ne sont pas si satisfaisants.
En attendant les opérations de l'IA, des amis efficaces ont déjà changé plusieurs postures, se déplaçant vers l'avant et vers l'arrière, vers la gauche et vers la droite, vers le haut et vers le bas pour prendre une série de photos, et peuvent mieux jouer les performances du FAI amélioré du Tensor G5.
Cette inversion de contrôle, comme d’autres fonctionnalités de Gemini AI dans Android 16 qui vous obligent à effectuer certaines actions avant qu’elles n’interviennent, subvertit complètement nos attentes antérieures en matière d’IA.
Comment suis-je devenu un agent qui transporte des données et fournit des informations à Gemini ?

Ironiquement, utiliser Gemini pour générer
Voyez les choses sous un autre angle. Le Pixel 10 n'est pas un téléphone IA pour les utilisateurs, mais plutôt un téléphone IA pour Gemini. Toutes les nouvelles fonctionnalités sont utilisées par les utilisateurs qui fournissent des informations à Gemini, qui sont ensuite intégrées par l'IA.
Si ce type d'IA dispersée dans les processus fonctionnels empêche objectivement une implication excessive, il peut aussi donner l'impression que l'expérience utilisateur est prise en charge par l'IA. Gemini est comme un parent qui construit un château de sable avec son enfant. Il attend que l'enfant ramasse le sable et formule une demande avant de commencer à façonner le château.
De plus, il faut se méfier d’une chose : le Pixel 10 peut facilement devenir un mauvais exemple pour les autres fabricants de téléphones portables – un mauvais exemple qui ne s’appuie que sur les progrès de l’IA et ignore les fondations matérielles.
![]()
Image : Android Central
Si Google continue à utiliser les mêmes tactiques à l’avenir, un très mauvais résultat se produira : le Pixel que les utilisateurs de Pixel veulent disparaîtra, et le véritable téléphone IA que les utilisateurs IA veulent ne sera pas du tout comme celui-ci .
Cette forme de produit futur est probablement quelque chose que ni Google ni les consommateurs ne veulent voir.
#Bienvenue pour suivre le compte public officiel WeChat d'iFaner : iFaner (ID WeChat : ifanr), où du contenu plus passionnant vous sera présenté dès que possible.
