Recherche

Build 2025 : Edge entre à son tour dans la boucle de l'IA locale

Après Google dans Chrome, Microsoft commence à expérimenter, dans Edge, des API donnant aux web apps et aux extensions un accès à des modèles d'IA locaux.

Publié par Clément Bohic le | mis à jour à
Lecture
3 min
  • Imprimer
Build 2025 : Edge entre à son tour dans la boucle de l'IA locale
© généré par IA

Au croisement de l'IA locale et du développement web, il y a... Edge.

Microsoft a fait passer le message au premier jour de sa conférence Build, en lançant quatre API expérimentales. Elles sont accessibles dans la dernière version du navigateur, sur les canaux Canary et Dev.

D'un côté, une API d'invite (Prompt). De l'autre, des API d'assistance à l'écriture (Summarizer, Writer, Rewriter). Elles permettent aux web apps et aux extensions d'utiliser un SLM local : Phi-4 mini, que Microsoft a publié en février.

Le modèle est téléchargé à la première utilisation d'une de ces API. Il nécessite au moins 5,5 Go de VRAM et 20 Go d'espace disponible sur le volume qui contient le profil Edge. Seuls Windows (10 et 11) et macOS (version 13.3 et ultérieures) sont pour le moment pris en charge.

Grands travaux au W3C

Ces API ne sont pas le fruit d'un effort isolé. Elles font l'objet de travaux sous l'aile du W3C, au sein du groupe de travail Web Machine Learning, qui porte aussi l'initiative WebNN (Web Neural Network).

L'API d'invite est principalement destinée au prototypage. Elle suppose effectivement, de la part des développeurs, un exercice de prompt engineering, même si une forme de cadrage existe avec les outputs structurés (réponses contraintes par schémas JSON ou expressions régulières).

Les API d'aide à l'écriture exposent des fonctionnalités plus spécifiques. Elles s'inscrivent davantage dans l'esprit du projet, qui vise à les abstraire le plus possible des modèles sous-jacents. Et, par là même, à favoriser l'interopérabilité, tout en permettant d'encapsuler des "techniques avancées" capables de tirer parti de modèles affinés.

L'ensemble est censé limiter les barrières à l'entrée par rapport aux implémentations locales basées sur WebNN, WebGPU et WebAssembly. Notamment en réduisant les exigences de maintenance (le navigateur garde les modèles à jour tout en gérant stockage et mémoire) et en permettant de mutualiser des LLM.

L'ouverture à des modèles fournis par l'OS n'est pas exclue, mais elle exigera une approche de sécurité spécifique. Même chose pour l'exposition aux workers, non intégrée en l'état car incompatible avec la volonté d'empêcher par défaut l'accès depuis les iframes cross-origin.

Chrome, au même régime depuis quelques mois

Google expérimente aussi dans Chrome, depuis fin 2024, sous différentes formes (versions bêta du navigateur, essais à durée limitée, accès dans le cadre du programme Early Preview). Ce sur un périmètre un peu plus large que Microsoft (API de détection de langue et de traduction). Sous le capot, Gemini Nano, qui requiert 4 Go de VRAM et 22 Go d'espace de stockage. La prise en charge se limite aussi à Windows 10/11 et à macOS 13+.

La phase expérimentale s'est ouverte sur un hackathon. Une dizaine d'applications et d'extensions ont été primées. Au menu, entre autres :

  • Adaptation du contenu web aux utilisateurs qui ont des troubles de la lecture
  • Assistance à la rédaction pour WordPress
  • Analyse d'évaluations d'internautes
  • Génération de diagrammes à partir de texte
  • Conversion de vidéos YouTube éducatives en PDF enrichis
  • Création d'un graphe de connaissances sur la base de l'historique
  • Jeu d'aventure où le scénario évolue en temps réel

Illustration générée par IA

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page