Alors que les rumeurs sur un iPhone pliable s’intensifient, Apple se concentre sur une transformation plus profonde : apprendre à l’iPhone à comprendre le monde à travers son objectif. Ce n’est pas un simple gadget, mais un tremplin vers une nouvelle génération d’appareils.
iPhone 18 Pro : Avancées en photographie et nouvelles fonctionnalités
D’ici septembre 2026, Apple devrait dévoiler les modèles Pro de la série iPhone 18, ainsi que son premier appareil pliable, déjà surnommé par certains l’iPhone Ultra. Ceux qui recherchent le modèle standard devront patienter jusqu’au début de 2027. Les fuites mentionnent des variantes de couleur, mais rien de concret pour l’instant. Du côté matériel, une avancée significative est attendue dans le domaine de la photographie. Selon Mark Gurman de Bloomberg, des progrès sont en cours sans détails définitifs. On parle d’un capteur principal de 200 mégapixels et d’un nouveau téléobjectif avec une ouverture plus large et potentiellement variable.
iOS 27 : Siri et l’intelligence artificielle au cœur de la caméra
En parallèle, le socle logiciel prend forme. Lors de la WWDC du 8 juin 2026, Apple présentera iOS 27. L’intérêt réside dans la manière dont Siri sera intégré en profondeur dans l’application caméra. Un mode de prise de vue dédié – situé aux côtés des modes photo et vidéo – permettra une vision directe par intelligence artificielle. En appuyant sur le déclencheur dans ce mode, aucune photo n’est prise ; au lieu de cela, l’intelligence visuelle est activée. L’icône Apple-Intelligence sur le déclencheur indique que le mode IA est actif.
L’objectif d’Apple est clair : faire de la caméra le principal accès à l’intelligence artificielle, plutôt que de cacher cette fonction derrière un bouton configurable. Cela ne se fait pas sans raison. Des fonctionnalités comme le scan des tableaux nutritionnels qui enregistrent automatiquement les calories et macronutriments dans l’application Santé nécessitent une disponibilité permanente. Il en va de même pour les cartes de visite et documents dont les données sont directement enregistrées dans les contacts ou les billets physiques transférés dans le portefeuille numérique. Des fonctionnalités connues – reconnaissance des plantes, entrées de calendrier et redirection optionnelle vers ChatGPT ou Google – restent disponibles.
L’emplacement du traitement des données est crucial. Apple déplace une part croissante du calcul sur l’appareil lui-même, préservant ainsi la confidentialité et réduisant les latences. Cette IA caméra sert également de banc d’essai pour quelque chose de plus grand : des lunettes AR qui pourraient un jour interpréter l’environnement sans intervention de l’utilisateur. Ce qui commence avec l’utilisation intentionnelle de la caméra sur l’iPhone pourrait devenir une analyse en temps réel sur le nez avec Apple Glass, qui ne pourrait exister sans cette préparation préalable.
