OpenAI : GPT-5.5 et la fenêtre à 1 million de tokens
C'est l'annonce qui va faire le plus de bruit cette semaine. GPT-5.5 débarque sur la plateforme avec une fenêtre contextuelle d'un million de tokens. Oui, un million. Pour vous donner une idée, on parle d'environ 1500 pages de texte qu'on peut envoyer en une seule requête.
Gemini était seul sur ce créneau depuis un moment, OpenAI rattrape enfin son retard sur ce point précis.
Concrètement, qu'est-ce que ça change pour vous ? Si vous bossiez avec du RAG pour contourner les limites de contexte, vous pouvez commencer à reconsidérer votre architecture. Balancer une base de code entière, un livre complet ou des mois de logs dans un seul prompt devient envisageable.
Attention quand même, qui dit gros contexte dit grosse facture, et la qualité de l'attention sur des contextes très longs reste un sujet. On a tous vu des modèles annoncer 200k tokens et oublier ce qu'il y avait au milieu.
Le modèle apporte aussi l'entrée d'images, les sorties structurées (très pratique pour forcer un JSON propre sans bricoler avec un parser maison), l'appel de fonctions et la recherche web intégrée. Bref, la panoplie complète qu'on attendait. Pour l'activer, c'est le nom de modèle gpt-5.5 dans vos appels API classiques.
DeployCo : OpenAI veut faire le sale boulot de l'intégration
OpenAI annonce le lancement de DeployCo, une entité dédiée à aider les entreprises à mettre l'IA en production. Le pitch officiel : transformer l'IA en "impact commercial mesurable". Le pitch traduit : il y a beaucoup d'entreprises qui ont signé des contrats ChatGPT Enterprise et qui ne savent pas quoi en faire.
C'est intéressant à plusieurs niveaux. D'abord parce que ça reconnaît un truc que tous les CTO francophones savent déjà : le gap entre "on a accès à GPT-4" et "on a déployé un assistant interne qui marche vraiment" est énorme.
Ensuite parce que ça met OpenAI en concurrence frontale avec les Accenture, Capgemini et autres cabinets qui se sont positionnés sur ce créneau. À surveiller, surtout si vous êtes prestataire et que votre business model repose sur l'intégration GenAI.
Le ménage chez OpenAI : DALL·E et Realtime Beta dégagent
En parallèle de ces annonces, OpenAI fait du tri. Les snapshots du modèle DALL·E sont retirés, et l'API Realtime Beta a été coupée depuis le 12 mai. Si vous utilisiez encore realtime-beta dans vos appels, vous l'avez probablement remarqué de façon assez brutale.
La migration est simple sur le papier : passer à l'API Realtime stable. En pratique, vérifiez bien vos noms d'endpoints et les schémas de payload, ça a légèrement bougé entre la beta et la version publiée.
Pour DALL·E, c'est plus ennuyeux si vous aviez pinné un snapshot précis pour des raisons de reproductibilité. Il va falloir basculer sur gpt-image-1 ou ses successeurs, avec les variations de style que ça implique.
C'est le rythme habituel chez OpenAI maintenant : ils sortent des betas vite, et ils les tuent vite. Si vous mettez du code en prod basé sur une API beta, mettez-vous une alarme tous les six mois pour vérifier que ça tourne encore.
Anthropic : Claude Code continue de mûrir
La version 2.1.139 de Claude Code introduit quelques ajouts sympathiques. Le plus notable, c'est la vue agent qui permet de suivre les sessions Claude Code en cours. Si vous lancez plusieurs agents en parallèle (chose que beaucoup font maintenant), vous avez enfin une interface pour voir qui fait quoi sans jongler entre les terminaux.
Côté commandes, deux nouvelles arrivent :
/goal— pour définir explicitement l'objectif d'une session. Au lieu de laisser Claude deviner ce que vous voulez, vous lui dites "l'objectif c'est de migrer cette codebase de Vue 2 à Vue 3" et il garde ça en tête tout au long./scroll-speed— pour ajuster la vitesse de défilement de l'output. Mineur, mais bienvenue quand Claude génère des pages entières de code et que vous voulez avoir le temps de lire au vol.
La gestion des plugins est aussi améliorée, et les estimations de tokens sont plus précises. Vous pouvez consulter le CHANGELOG complet sur GitHub. Rien de révolutionnaire dans cette version, mais c'est exactement ce qu'on attend d'un outil mature : des itérations régulières qui rendent l'usage quotidien plus agréable.
Google Finance arrive en Europe avec son IA
Google déploie sa version Google Finance dopée à l'IA en Europe, avec le support des langues locales. C'est moins technique que les autres news de la semaine, mais c'est intéressant pour deux raisons.
Un, ça montre que Google continue d'intégrer Gemini dans tous ses produits verticaux, brique par brique. Deux, le support multilingue complet dès le lancement européen est un changement notable par rapport aux déploiements US-first qu'on a connus pendant des années.
Si vous bossez dans la fintech ou que vous faites du scraping de données financières, jetez un œil pour voir comment Google présente désormais les données de marché. Ça donne des idées sur ce que les utilisateurs vont attendre de vos propres interfaces.
Ce qu'on retient
La tendance lourde de la semaine, c'est la course aux contextes longs qui s'accélère, et la professionnalisation du déploiement de l'IA en entreprise.
Le million de tokens n'est plus un argument marketing exotique, c'est en train de devenir le standard chez les gros acteurs. Et avec DeployCo, OpenAI assume publiquement que vendre une API ne suffit plus, il faut accompagner. Reste à voir si les boîtes vont préférer DeployCo aux intégrateurs traditionnels, ou si chacun trouvera sa place.