La migration VMware est notoirement laborieuse. Mais pour le Dartmouth College, cela s’est avéré être la meilleure décision en matière d’infrastructure que l’université n’avait jamais prévu de prendre.
L'université a achevé sa migration vers l'infrastructure Nutanix Inc., y compris son hyperviseur Acropolis, des années avant que les équipes d'approvisionnement des entreprises ne commencent à tester leurs contrats VMware, et bien avant les prévisions selon lesquelles les pressions sur les coûts pousseraient 70 % des entreprises clientes VMware dans le monde à migrer la moitié de leurs charges de travail virtuelles d'ici 2028. La décision a été prise en fonction du calendrier des contrats et non de l'anxiété du marché. Peavey (photo, à droite), directeur des services d'infrastructure au Dartmouth College.
« Nous étions dans une situation vraiment unique où nos contrats avec VMware et avec nos fournisseurs de matériel arrivaient à échéance en même temps », a déclaré Peavey. « Nous avons fait les appels d'offres typiques qui ont conduit à des POC, et nous sommes finalement arrivés à un point où cela se résumait entre VxRail et Nutanix. Nous avons dit à l'unanimité : « Allons-y à fond. Allons-y AHV. »
Peavey et Deepak Goel (à gauche), directeur de la technologie cloud-native chez Nutanix, se sont entretenus avec John Furrier de theCUBE et co-animatrice Alison Kosik chez Nutanix .NEXT, lors d'une diffusion exclusive sur theCUBE, le studio de diffusion en direct de SiliconANGLE Media. Ils ont discuté du parcours de migration VMware de Dartmouth et de la convergence de la virtualisation et des charges de travail natives de l'IA. (* Divulgation ci-dessous.)
La migration VMware comme base d'une infrastructure prête pour l'IA
La grande refonte de l'informatique d'entreprise a validé le modèle opérationnel que Dartmouth a construit par nécessité. En transformant une architecture de centre de données à trois niveaux en une infrastructure hyperconvergée, l'université a libéré son équipe d'infrastructure de 11 personnes pour gérer environ 1 000 machines virtuelles et 600 conteneurs sans ajouter d'effectifs, a expliqué Peavey. Les rôles cloisonnés (administrateurs de stockage, administrateurs Windows et administrateurs Linux) ont cédé la place à des ingénieurs généralistes à l'aise sur chaque couche de la pile.
« Nous avons constaté qu'une fois sur place, notre personnel était très à l'aise : il prenait des instantanés de machines virtuelles, clonait des machines, construisait des machines. Nous nous sommes sentis très rapidement chez nous », a déclaré Peavey. « La peur était vraiment dans nos têtes. »
La consolidation de la plateforme positionne désormais Dartmouth pour le prochain défi : les charges de travail d'IA. Les conteneurs et Kubernetes sont devenus le foyer naturel de l’IA agentique, fonctionnant comme le tissu conjonctif entre l’infrastructure virtualisée et les applications natives de l’IA. Les propriétés exigées par les charges de travail d'IA, telles que la portabilité légère et la mise à l'échelle à la demande, sont des propriétés pour lesquelles Kubernetes a déjà été conçu, selon Goel. Plus d’une décennie de travail fondamental de la Cloud Native Computing Foundation a rendu cette convergence possible.
« Les charges de travail d'agent, ou charges de travail d'IA, ont trouvé leur place dans les conteneurs et Kubernetes. La raison en est qu'elles conviennent très naturellement aux charges de travail d'IA. Les propriétés qu'ils recherchent sont facilement disponibles dans Kubernetes », a déclaré Goel. « Si vous faites correspondre les deux natifs – natif du cloud et natif de l'IA – on a l'impression que nous parlons d'une seule et même chose. »
Mais le rythme du changement de l’infrastructure de l’IA est en soi une variable dont les organisations doivent tenir compte. Le modèle d'adoption rapide suivi d'une stabilisation est familier, même si le cycle matériel actuel évolue plus rapidement que la plupart des entreprises ne peuvent l'absorber, selon Goel. La virtualisation et les conteneurs ne sont pas des réponses concurrentes à ce problème, mais des réponses complémentaires : les conteneurs gèrent la vitesse et l'échelle des charges de travail d'IA directement sur le matériel, tandis que la virtualisation gère l'isolation, la sécurité et la complexité du cycle de vie en dessous.
« Les nouvelles technologies qui arrivent sont adoptées à la va-vite : 'Adoptons-les le plus rapidement possible' », a déclaré Goel. « Mais ensuite, la normalisation et la cohérence suivent. »
Voici l'interview vidéo complète, faisant partie de la couverture de Nutanix .NEXT 2026 par SiliconANGLE et theCUBE :
(* Divulgation : TheCUBE est un partenaire média payant pour Nutanix .NEXT 2026. Les sponsors de la couverture de l'événement theCUBE n'ont pas de contrôle éditorial sur le contenu de theCUBE ou SiliconANGLE.)