Cover

Si vous ne supportez pas la chaleur, appelez Raritan !

L’Université de Southampton est à mi-parcours d’un programme visant à mettre en place la technologie de PDU Raritan dans son data center principal, ainsi que dans plus de 200 hubs informatiques répartis sur plusieurs campus. Le décision de l’Université de standardiser sur la technologie Raritan fait suite aux problèmes rencontrés avec la technologie PDU et l’assistance de son ancien fournisseur.

Comptant environ 22 000 étudiants inscrits et 5 000 employés, pour un chiffre d’affaires annuel dépassant 400 millions de livres sterling, l’Université de Southampton est un membre fondateur du Russell Group – un organisme regroupant 24 des plus grandes universités britanniques axées sur la recherche et l'enseignement. En outre, l’Université recense près de 170 000 abonnés à ses formations en ligne ouvertes à tous (MOOC), des programmes d’étude conçus pour être suivis en ligne par un grand nombre d’étudiants. En plus du matériel didactique comme les cours en vidéo, le matériel de lecture ou les travaux et examens, l’Université organise des forums pour aider les étudiants et leurs tuteurs à se créer une communauté en ligne.

Comme dans tout milieu éducatif moderne, l’infrastructure informatique de l’Université joue un rôle crucial dans le bon déroulement de la vie sur le campus. Clé de voûte de l’excellence de l’Université en matière de recherche et d’innovation (source importante de revenus), l’infrastructure numérique repose principalement sur deux supercalculateurs pour les tâches quotidiennes liées à l'apprentissage (et à la vie sociale) des étudiants, à l’enseignement académique et à l’administration du personnel de soutien.

Le passage soudain à l'apprentissage en ligne, suite à la pandémie, n'a fait que renforcer les pressions et attentes sur les ressources informatiques de l’Université et notamment sur son centre névralgique, le data center.

Comme l’explique Mike Powell, Data Center Manager : “Nous offrons, en moyenne, plus de 350 services informatiques différents à notre communauté d'utilisateurs, répartis entre le campus principal de Highfield, le campus Avenue (arts, lettres et langues), le campus Waterfront (océanographie et sciences de la terre), la Winchester School of Art et le Southampton University Hospital Trust.”

Notre data center Tier 2, entré en service en 2013, est actuellement configuré pour une charge initiale de 1,1 MW. L'infrastructure de l’installation a été prévue pour pouvoir passer facilement et sans perturbation, si besoin, à une charge de 2,5 MW. Avec un troisième supercalculateur à l’horizon, il est probable qu’une partie de cette capacité supplémentaire sera utilisée dans les deux ou trois années qui viennent. Cela dit, un certain nombre d’applications et de charges informatiques quotidiennes ayant déjà migré vers le cloud dans le cadre d’une stratégie ‘priorité au cloud’, le data center n’est pas près de rencontrer des problèmes de capacité.

https://www.minkels.com/images/3tzKZ/shutterstock_112274051.jpgNotre data center a été conçu avec une capacité et un encombrement inférieurs à la plupart des data centers, en raison de l'investissement anticipé de l’Université dans un programme agressif de virtualisation (le plan initial de 40 racks a été réduit à 12). Si l’on y ajoute les deux supercalculateurs, on peut dire que le data center est un pionnier dans le domaine de la haute densité.

Au cœur de l’infrastructure du data center, on trouve des refroidisseurs InRow de 30 kW, offrant d’excellentes caractéristiques de refroidissement haute densité et un niveau élevé de résilience avec les rangées de racks.

Un des défis posés par les charges haute densité sur rack concerne le choix des unités de distribution d'énergie (PDU) à l’arrière du rack.

Si l’on remonte à 2013, au moment où le data center est entré en service, les PDU choisis étaient considérés, à l’époque, comme les meilleurs sur le marché. Certaines de ces unités ont cependant connu des défaillances prématurées, en raison des températures excessives générées par l’environnement haute densité du site.

Des températures autour de 45 °C

Mike raconte l’histoire : “En 2019, j’ai rencontré par hasard un représentant Raritan à l’occasion https://www.minkels.com/images/p0DKk/PDU_side_9000x9000_01.pngd’une conférence portant sur les data centers ; au fur et à mesure de notre discussion, j’ai compris pourquoi les produits Raritan étaient plus performants que nos PDU existants. Cela portait en grande partie sur le fait que nos PDU existants commençaient à connaître des défaillances prématurées dues, à notre avis, à la chaleur. On pouvait constater, à l’arrière des racks, des températures avoisinant 45 °C ; c’était trop pour les PDUs existants.

“Parmi les caractéristiques que présentaient les produits Raritan, on était particulièrement intéressé par leur résistance à 60 °C et la possibilité d’avoir des consoles de gestion échangeables à chaud, ce que n’offraient pas les produits existants ; sans oublier le fait qu’ils consommaient moins d’énergie pour ses fonctions intelligentes, comme la commande indépendante des prises et la surveillance de la puissance par prise individuelle. Comme nous ne changeons jamais de marque à la légère, on leur a demandé de nous envoyer un échantillon de produit pour évaluation, nous avons été très impressionnés par les résultats et nous avons donc pris la décision de les adopter. Nous avions également testé d'autres produits de différents fabricants, mais nous avons décidé d’opter pour Raritan, compte tenu des trois critères que je viens d’évoquer. À ce jour, nous avons presque remplacé tous les PDU du data center, nous attendons juste les dernières livraisons.”

Mike a également entrepris un programme de remplacement basé sur les PDU Raritan dans les quelque 200 hubs de distribution de données. Comme il l’explique : “Nous avons maintenant une gamme cohérente de produits à travers l’organisation ; quand on consulte notre plate-forme de gestion pour détecter les éventuelles surchauffes dans le data center ou dans les hubs, il est vraiment important de pouvoir se connecter au même ensemble de produits, au lieu de produits différents.”

Programme de rénovation

Les hubs sont en train d’être rénovés pour avoir la même infrastructure. Des capteurs de température sont prévus en standard. “Ce qui est bien avec le Raritan, c’est qu’on peut y connecter directement un capteur de température,” assure Mike. “Dans certaines de nos salles principales, nous effectuons également de la détection de fuites sur les climatiseurs susceptibles de présenter des fuites ou de la pénétration d’eau. Parmi les autres raisons motivant notre choix, on peut également citer les différentes options de connectivité offertes par l’interface de gestion Raritan, avec la possibilité d’y brancher plusieurs capteurs plug & play.”

Mike poursuit : “Dans le data center, nous utilisons les PDU intelligents, tandis que dans les hubs, où une commande individuelle par prise est nécessaire, nous utilisons les PDU avec mesure et commutation à la prise. Nous disposons ainsi de plusieurs types différents en fonction de l’utilisation finale.”

D’autres solutions Legrand sont en train d’être mises en œuvre dans le cadre de ce programme de rénovation. Les racks de connectivité MIGHTY MO sont utilisés un peu partout dans les hubs, là où les racks conventionnels doivent être remplacés, tout comme les chemins de câbles en acier Cablofil. Les calfeutrements coupe-feu EZ-PATH sont également installés dans les hubs. Comme l’explique Mike : “En gros, vous installez le calfeutrement coupe-feu sur un mur du hub et vous pouvez continuer d’y passer de nouveaux câbles de données. En cas d’incendie, la mousse qu’il contient se dilate pour assurer l'étanchéité et empêcher la propagation de l’incendie.”

Il ajoute : “Ces produits, plus les PDU, sont spécifiés dans notre cahier des charges pour les bâtiments neufs, mais également pour les projets de rénovation de bâtiments universitaires existants. Legrand est donc présent dans notre data center, dans nos salles de distribution de données “core edge” et dans notre cahier des charges pour tout nouveau déploiement.”