
Cette semaine, Bloomberg a rapporté qu’Apple allait « accélérer » le développement de trois nouveaux dispositifs portables AI : des lunettes intelligentes, un pendentif et des AirPods équipés de caméras. Tous ces produits visent à intégrer encore plus Siri dans notre quotidien, et je vais me concentrer sur les lunettes.
Apple a toujours eu l’ambition de créer des lunettes. L’idée de lunettes AR d’Apple a alimenté les rumeurs pendant des années. Pour l’instant, ce projet est en pause et le Vision Pro est là pour nous satisfaire. En attendant, la société travaille sur des lunettes AI, similaires aux Ray-Bans de Meta.
Les Ray-Bans de Meta ont connu un grand succès depuis leur lancement fin 2023. Malgré la réputation de Meta concernant la vie privée, beaucoup de personnes ont été enthousiasmées par ces lunettes équipées de caméras. Leur essence réside dans la présence de caméras, de microphones et de haut-parleurs, permettant ainsi aux utilisateurs de discuter avec l’IA de Meta, d’écouter de la musique ou de prendre des photos et vidéos.
Depuis l’année dernière, des informations ont circulé sur le fait qu’Apple développait son propre modèle de Ray-Bans. Les avancées dans le domaine du développement sont désormais significatives.
Apple aurait intégré deux objectifs : un pour la vision par ordinateur et un autre pour la capture de photos et de vidéos. La société a également trouvé comment incorporer tous les composants dans la monture, contrairement à ses premières intentions, qui consistaient à opter pour une batterie externe.
Lorsque l’on parle de produits qui reposent sur la voix pour la communication, il est évident qu’il n’est pas toujours pratique de s’exprimer à voix haute. Cela a toujours été l’une des raisons pour lesquelles je n’utilise pas largement les fonctionnalités d’assistant vocal de mes Ray-Bans de Meta.
Récemment, Apple a acquis une nouvelle start-up pour 2 milliards de dollars : Q.ai. Bien que nous ne sachions pas beaucoup de choses sur cette entreprise, il est clair qu’elle est spécialisée dans les systèmes d’apprentissage automatique pour interpréter les entrées vocales silencieuses.
Actuellement, pour interagir avec un assistant vocal, il faut que la voix soit clairement audible. Même les chuchotements peuvent poser problème pour certains modèles vocaux, surtout en dehors d’un environnement totalement silencieux. Cette nouvelle acquisition pourrait résoudre ce souci.
Q.ai a également exploré des systèmes capables d’interpréter des mouvements faciaux microscopiques, permettant ainsi de comprendre la parole sans qu’elle soit audible. Si tout cela parvient à s’assembler correctement, je pense que les lunettes d’Apple séduiront de nombreuses personnes et pourraient inciter à prendre les assistants vocaux plus au sérieux.