Build 2025 : Edge entre à son tour dans la boucle de l'IA locale
Après Google dans Chrome, Microsoft commence à expérimenter, dans Edge, des API donnant aux web apps et aux extensions un accès à des modèles d'IA locaux.

Au croisement de l'IA locale et du développement web, il y a... Edge.
Microsoft a fait passer le message au premier jour de sa conférence Build, en lançant quatre API expérimentales. Elles sont accessibles dans la dernière version du navigateur, sur les canaux Canary et Dev.
D'un côté, une API d'invite (Prompt). De l'autre, des API d'assistance à l'écriture (Summarizer, Writer, Rewriter). Elles permettent aux web apps et aux extensions d'utiliser un SLM local : Phi-4 mini, que Microsoft a publié en février.
Le modèle est téléchargé à la première utilisation d'une de ces API. Il nécessite au moins 5,5 Go de VRAM et 20 Go d'espace disponible sur le volume qui contient le profil Edge. Seuls Windows (10 et 11) et macOS (version 13.3 et ultérieures) sont pour le moment pris en charge.
Grands travaux au W3C
Ces API ne sont pas le fruit d'un effort isolé. Elles font l'objet de travaux sous l'aile du W3C, au sein du groupe de travail Web Machine Learning, qui porte aussi l'initiative WebNN (Web Neural Network).
L'API d'invite est principalement destinée au prototypage. Elle suppose effectivement, de la part des développeurs, un exercice de prompt engineering, même si une forme de cadrage existe avec les outputs structurés (réponses contraintes par schémas JSON ou expressions régulières).
Les API d'aide à l'écriture exposent des fonctionnalités plus spécifiques. Elles s'inscrivent davantage dans l'esprit du projet, qui vise à les abstraire le plus possible des modèles sous-jacents. Et, par là même, à favoriser l'interopérabilité, tout en permettant d'encapsuler des "techniques avancées" capables de tirer parti de modèles affinés.
L'ensemble est censé limiter les barrières à l'entrée par rapport aux implémentations locales basées sur WebNN, WebGPU et WebAssembly. Notamment en réduisant les exigences de maintenance (le navigateur garde les modèles à jour tout en gérant stockage et mémoire) et en permettant de mutualiser des LLM.
L'ouverture à des modèles fournis par l'OS n'est pas exclue, mais elle exigera une approche de sécurité spécifique. Même chose pour l'exposition aux workers, non intégrée en l'état car incompatible avec la volonté d'empêcher par défaut l'accès depuis les iframes cross-origin.
Lire aussi : Avec l'IA, un Google Search à deux vitesses
Chrome, au même régime depuis quelques mois
Google expérimente aussi dans Chrome, depuis fin 2024, sous différentes formes (versions bêta du navigateur, essais à durée limitée, accès dans le cadre du programme Early Preview). Ce sur un périmètre un peu plus large que Microsoft (API de détection de langue et de traduction). Sous le capot, Gemini Nano, qui requiert 4 Go de VRAM et 22 Go d'espace de stockage. La prise en charge se limite aussi à Windows 10/11 et à macOS 13+.
La phase expérimentale s'est ouverte sur un hackathon. Une dizaine d'applications et d'extensions ont été primées. Au menu, entre autres :
- Adaptation du contenu web aux utilisateurs qui ont des troubles de la lecture
- Assistance à la rédaction pour WordPress
- Analyse d'évaluations d'internautes
- Génération de diagrammes à partir de texte
- Conversion de vidéos YouTube éducatives en PDF enrichis
- Création d'un graphe de connaissances sur la base de l'historique
- Jeu d'aventure où le scénario évolue en temps réel
Illustration générée par IA
Sur le même thème
Voir tous les articles Data & IA