
Apple a confirmé en janvier que le modèle IA Gemini de Google alimentera les nouvelles fonctionnalités de Siri. Cette décision fait économiser à Apple le temps nécessaire au développement de ses propres modèles d’IA, et nous donne un aperçu des innovations à venir.
Le modèle Gemini Personal Intelligence a déjà offert un avant-goût des capacités que pourrait intégrer le nouveau Siri. Un événement Google a également évoqué plusieurs fonctionnalités supplémentaires susceptibles d’apparaître.
Auparavant, il semblait qu’Apple prévoyait d’utiliser ses propres modèles d’IA pour son nouvel assistant, ce qui soulevait des questions sur ses performances et sa date de lancement. Des rumeurs ont circulé concernant un partenariat avec Google pour accorder l’accès aux modèles de Gemini, confirmé par l’entreprise en début d’année.
« Après une évaluation approfondie, nous avons déterminé que la technologie de Google constitue la base la plus compétente pour les modèles fondamentaux d’Apple et nous sommes impatients des nouvelles expériences innovantes qu’elle assurera à nos utilisateurs, » a déclaré Apple.
Cela semble offrir le meilleur des deux mondes : des modèles d’IA de pointe alliés aux protections de la vie privée d’Apple.
Une version bêta de Gemini Personal Intelligence a présenté un aperçu attractif des capacités à venir. Celui-ci peut extraire des détails spécifiques à partir de textes, photos ou vidéos dans les applications Google pour personnaliser les réponses de Gemini. Cela inclut Google Workspace (Gmail, Calendrier, Drive, etc.), Google Photos, l’historique de visionnage YouTube, ainsi que tous les services de recherche Google que vous avez utilisés.
Dans sa version pour Apple, il est évident que des informations seront également tirées des applications comme Mail, Calendrier, Photos et Notes.
Lors d’une récente présentation, d’autres fonctionnalités Gemini ont été révélées et sont vraisemblablement destinées à intégrer le nouveau Siri. Par exemple, l’automatisation des tâches pourrait fonctionner dans davantage d’applications et supporter le contexte d’écran/image. Imaginez : « vous avez une longue liste de courses dans votre application Notes. Il suffit de maintenir le bouton d’alimentation sur cette liste et de demander à Gemini de créer un panier de livraison avec tous les articles. » De plus, l’autocomplétion avec Google bénéficiera d’une Intelligence Personnelle Gemini pour supporter plus de types de formulaires.
Des améliorations de Gboard Rambler vont aussi permettre une saisie vocale plus fluide, grâce à des modèles Gemini capables de filtrer les mots de remplissage, les pauses, les répétitions et les corrections automatiques.
Reste à voir si une version équivalente aux nouvelles interfaces de personnalisation sur Android sera disponible sur iOS 27, mais cela serait un ajout fort apprécié.
Quelle fonctionnalité attendez-vous le plus de ce nouveau Siri ? Partagez vos souhaits dans les commentaires.