
Dans les récentes bêtas développeurs d’iOS 26, Apple introduit des fonctionnalités de transcription vocale qui pourraient surpasser les applications existantes. Lors d’un test, il a été révélé que ces nouveaux frameworks de transcription égalent l’exactitude des modèles performants d’OpenAI, tout en affichant une vitesse de traitement plus de deux fois supérieure.
Les utilisateurs familiers avec les capacités de dictée intégrées de leurs appareils Apple savent que celles-ci reposent sur le cadre de discours de la marque. Dans les nouvelles bêtas, des versions bêta de SpeechAnalyzer et SpeechTranscriber sont désormais accessibles aux développeurs pour intégrer le traitement audio dans leurs propres applications.
John Voorhees de MacStories a demandé à son fils de créer un outil en ligne de commande pour tester ces nouvelles fonctionnalités et a été impressionné par les résultats. Utilisant une vidéo de 34 minutes pour comparer les performances des modules d’Apple avec celles de MacWhisper et VidCap, il a constaté que le framework d’Apple offrait une précision comparable tout en étant largement plus rapide que l’application la plus performante, MacWhisper, qui utilise le modèle Large V3 Turbo.
Voici les temps de transcription pour chaque outil :
- Yap (framework d’Apple) : 0:45
- MacWhisper (Large V3 Turbo) : 1:41
- VidCap : 1:55
- MacWhisper (Large V2) : 3:55
Ces résultats pourraient sembler mineurs pour des tâches ponctuelles, mais la différence de vitesse se révèlera significative lors de transcriptions en lot ou pour ceux qui doivent régulièrement traiter des fichiers, comme les étudiants qui prennent des notes de cours.
Pour les développeurs intéressés, le framework est déjà disponible dans la bêta de macOS Tahoe, offrant ainsi une opportunité de tester cette nouvelle technologie.