Un récit se dessine dans l’infrastructure de l’intelligence artificielle – et la plupart des gens cherchent encore au mauvais endroit. Tout le monde se concentre sur les unités de traitement graphique. Plus de calcul. Des clusters plus gros. Des jetons plus rapides. C'est là que se trouvent les gros titres.
Mais la véritable contrainte dans les usines d’IA n’est pas le calcul. C'est du mouvement.
Dans tout système d’IA moderne, les données sont constamment en mouvement : entre les GPU, entre les racks et entre les clusters. Et à l’heure actuelle, ce mouvement se heurte à un mur. Non pas parce que la bande passante manque sur le papier, mais parce que l’architecture qui déplace ces données est fondamentalement défaillante.
C'est là que Resolight.ai Ltd. entre en scène. La startup furtive vise à s’attaquer au goulot d’étranglement caché dans l’infrastructure de l’IA, en promettant de réécrire les équations physiques et économiques des usines d’IA. Les acteurs actuels tels que Nvidia Corp., Broadcom Inc., Marvell Technology Inc., Cisco Systems Inc. et Advanced Micro Devices Inc. travaillent tous avec des fournisseurs de produits optiques co-packagés tels que Ayer Labs et Celestial AI – récemment acquis par Marvell pour un montant pouvant atteindre 3,25 milliards de dollars – pour résoudre les défis d'interconnexion. Resolight affirme que son processeur photonique peut surpasser ces approches de plusieurs ordres de grandeur.
J'ai rencontré le co-fondateur et directeur général Ofer Shapiro au studio CUBE à Palo Alto pour une discussion exclusive sur la sortie de la furtivité. Ce qu'il a décrit n'est pas une amélioration progressive, mais une réarchitecture des réseaux d'IA qui pourrait modifier l'économie de la prochaine génération d'usines d'IA.
Le cœur du problème : la lumière qui s’arrête à l’électricité
L’industrie de l’IA a déjà opéré un changement clé : passer du cuivre à l’optique. Les optiques co-packagées, ou CPO, et les optiques linéaires enfichables, ou LPO, sont désormais la norme pour déplacer d'énormes quantités de données entre les clusters d'IA.
Mais même une fois que les données se sont déplacées sous forme de lumière, elles sont reconverties en signaux électriques pour le traitement et le routage. Cette conversion est le goulot d’étranglement.
« Vous construisez une autoroute optique à grande vitesse… puis installez un feu rouge au milieu », a expliqué Shapiro. Ce feu rouge est l'interrupteur électrique, qui limite le débit, ajoute de la latence et consomme de l'énergie.
Le grand saut : le traitement photonique
La réponse de Resolight est ce que Shapiro appelle traitement photonique: conserver les données dans le domaine optique sur tout le réseau, éliminant ainsi le besoin de conversions optique-électrique-optique.
Plutôt que de traiter électroniquement des bits individuels, le système manipule les données en masse, directement sous forme légère. Selon Shapiro, cette approche permet :
- Bande passante 10 fois plus élevée
- ~90 % de réduction de la puissance du réseau
- 10 fois moins de commutateurs requis
- Latence de l'ordre de la microseconde
- Moins d'émetteurs-récepteurs et de points de défaillance
Il ne s'agit pas simplement d'un changement plus rapide. C'est la suppression totale du paradigme de commutation traditionnel.
Pourquoi c'est important : les réseaux sont le nouveau goulot d'étranglement
Les usines d’IA évoluent à un rythme que les réseaux ne peuvent pas encore supporter. Les architectures d'aujourd'hui sont soumises à :
- Commutation multiniveau uniquement pour connecter les GPU entre les racks
- Un nombre explosant de connexions optiques
- Contraintes de puissance qui dominent les choix de conception
- Infrastructure fixe qui verrouille les GPU dans des charges de travail spécifiques
Shapiro affirme qu'une fois que vous modélisez des millions de GPU, le nombre de commutateurs et de connexions requis explose, créant ainsi un obstacle difficile à la mise à l'échelle.
Du scale-up au scale-out… pour « évoluer partout »
Historiquement, l’infrastructure de l’IA a fait un compromis entre :
- Mise à l'échelle: hautes performances, faible latence au sein d'un rack
- Évolutivité: efficacité moindre sur l'ensemble des racks
L'architecture de Resolight efface cette distinction. Sa vision « scale partout » permet :
- Bande passante uniforme à l’intérieur et à l’extérieur des racks
- GPU regroupés dynamiquement dans le centre de données
- Infrastructure qui s'adapte au type de charge de travail : formation, inférence ou quelque chose de nouveau
Le réseau ne dicte plus la manière dont le calcul est utilisé. Le logiciel le fait. Il s’agit d’une avancée fondamentale pour l’économie des usines d’IA.
Efficacité au niveau du système
Réduire la complexité du réseau d’un ordre de grandeur génère de nombreux avantages :
- Moins de racks dédiés à la commutation → plus d'espace pour les GPU
- Consommation totale d’énergie réduite
- Déploiement et opérations plus simples
- Dépendance réduite à l’égard de chaînes d’approvisionnement limitées
La conception des centres de données peut enfin donner la priorité à la densité et à la flexibilité de calcul plutôt qu'à une ingénierie excessive liée aux contraintes du réseau.
Pourquoi les startups ont l'avantage
Les opérateurs historiques sont optimisés pour des gains incrémentiels : ports plus rapides, meilleurs circuits intégrés spécifiques aux applications, efficacité légèrement améliorée. Resolight fait quelque chose de différent : briser le modèle sur lequel ces systèmes sont construits.
Shapiro a souligné que ce type de saut ne vient pas de l'optimisation des conceptions existantes. Cela vient du fait de repenser la façon dont les informations circulent dans le centre de données. C'est le territoire classique des startups.
Premiers signaux du marché : vue d’ensemble
En public, il y a peu de bruit. En privé, les conversations avec les principales équipes d’infrastructure d’IA passent rapidement des présentations aux plans de tests. Le défi est bien compris : la voie crédible à suivre vient tout juste d’être tracée.
Lors de la conférence GTC de Nvidia, le message était clair : l'IA ne peut pas attendre. Plus de calcul génère plus d'intelligence, ce qui génère plus de revenus, mais seulement si le système peut alimenter ce calcul. Le réseautage n’est plus une fonction de support. C'est la transmission du moteur.
Et aujourd’hui, cette transmission est mise à rude épreuve.
Conclusion
Les usines d’IA entrent dans une nouvelle phase et les contraintes évoluent. Le calcul n’est plus le goulot d’étranglement. Le réseau est.
Resolight parie que la prochaine vague d'infrastructures d'IA ne sera pas définie uniquement par des puces plus rapides, mais par une façon fondamentalement nouvelle de déplacer et de traiter les données.
Si l’entreprise réussit, ce n’est pas seulement un meilleur composant. C'est une nouvelle architecture. Pour les investisseurs et les technologues qui construisent la prochaine génération d’usines d’IA, c’est là que réside le véritable levier.