Lors de la Dimensity Developer Conference (MDDC 2026), MediaTek et Phison Electronics ont annoncé une avancée mondiale : faire fonctionner un modèle linguistique de 20 milliards de paramètres directement sur un smartphone équipé du Dimensity 9500, sans connexion au cloud ni puissance de calcul externe.
Réduction des besoins en RAM grâce à aiDAPTIV
Jusqu’à présent, exécuter de tels modèles sur un mobile nécessitait au moins 16 Go de RAM, excluant ainsi la plupart des smartphones. La solution développée par Phison, nommée aiDAPTIV Hybrid UFS, combine aiDAPTIV Cache Memory et aiDAPTIV Middleware. Cette technologie transfère dynamiquement une partie des poids du modèle AI de la RAM vers le stockage UFS, réduisant ainsi la dépendance à la DRAM.
Le résultat est impressionnant : un modèle nécessitant normalement plus de 16 Go de RAM fonctionne désormais avec seulement 12 Go de DRAM. Cette avancée supprime l’un des principaux obstacles à l’adoption généralisée des grands modèles linguistiques sur les appareils mobiles.
Le Dimensity 9500 et ses applications pratiques
L’exploit a été réalisé avec le Dimensity 9500, le SoC phare de MediaTek lancé en 2025 avec une architecture 3nm de troisième génération. Ce processeur a été adopté par plusieurs smartphones Android haut de gamme, comme le vivo X300 et le Redmi K90 Max. MediaTek a profité du MDDC 2026 pour présenter également le moteur Dimensity AI Agent Engine 2.0 et le kit de développement Dimensity AI Development Kit 3.0, visant à transformer les smartphones et voitures en agents AI autonomes.
L’impact sur les modèles MoE et l’expérience utilisateur
L’innovation concerne particulièrement les modèles MoE (Mixture of Experts), utilisés par certains des modèles AI les plus performants, tels que Mixtral. L’architecture MoE active uniquement un sous-ensemble des paramètres à chaque fois, ce qui la rend idéale pour le déchargement vers le stockage. La solution aiDAPTIV exploite cette caractéristique en déchargeant dynamiquement les poids non utilisés vers l’UFS, tout en conservant dans la RAM uniquement ce qui est nécessaire à l’instant T.
Si cette technologie atteint les appareils commerciaux, l’expérience IA sur mobile pourrait être transformée radicalement, sans nécessiter une mise à niveau vers des modèles avec plus de RAM. Pour les utilisateurs souhaitant des fonctionnalités AI riches directement sur leur appareil sans dépendre d’internet, c’est une avancée cruciale. La question reste de savoir quand et sur quels appareils cette technologie sera disponible en dehors des laboratoires.
