xlcloud / papers / 2013 / Climate-Paper / paper.tex @ cb3752a0
Historique | Voir | Annoter | Télécharger (53,93 ko)
1 |
%% paper.tex |
---|---|
2 |
%% V1.0 |
3 |
%% 05/07/2013 |
4 |
%% by François Rossigneux |
5 |
|
6 |
\documentclass[conference]{IEEEtran} |
7 |
\usepackage[utf8]{inputenc} |
8 |
\usepackage[T1]{fontenc} |
9 |
\usepackage{graphicx} |
10 |
\usepackage{epstopdf} |
11 |
|
12 |
\ifCLASSOPTIONcompsoc |
13 |
\usepackage[caption=false,font=normalsize,labelfont=sf,textfont=sf]{subfig} |
14 |
\else |
15 |
\usepackage[caption=false,font=footnotesize]{subfig} |
16 |
\fi |
17 |
|
18 |
\begin{document} |
19 |
\title{Improving HPC support in OpenStack\\by introducing a resource reservation service} |
20 |
|
21 |
\author{ |
22 |
\IEEEauthorblockN{François Rossigneux} |
23 |
\IEEEauthorblockA{INRIA, Lyon, France\\ |
24 |
Email: francois.rossigneux@inria.fr} |
25 |
\and |
26 |
\IEEEauthorblockN{Jean-Patrick Gelas} |
27 |
\IEEEauthorblockA{University of Lyon, France\\ |
28 |
Email: jean-patrick.gelas@univ-lyon1.fr} |
29 |
\and |
30 |
\IEEEauthorblockN{Laurent Lefèvre} |
31 |
\IEEEauthorblockA{LIP Laboratory, ENS Lyon, France\\ |
32 |
Email: laurent.lefevre@ens-lyon.fr} |
33 |
} |
34 |
|
35 |
\maketitle |
36 |
|
37 |
\begin{abstract} |
38 |
OpenStack ne dispose pas d'un système de réservation de ressources dans le temps. Or, cette fonctionnalité est nécessaire pour obtenir de bonnes performances dans le cadre d'un contexte High Performance Computing (HPC). Comme OpenStack ne disposait pas d'un tel mécanisme, nous avons développé un framework de réservation, appelé Climate, qui s'interface avec Nova, l'ordonnanceur d'OpenStack. Climate gère les réservations et l'affectation des hôtes réservés, en tenant compte, entre autres, de leurs performances énergétiques, et fournit un ID de réservation. Cet identifiant de réservation est passé à Nova sous forme de hint, afin qu'il puisse récupèrer auprès de Climate les hôtes réservés. Aucune fonctionnalité n'est enlevé de Nova: il est toujours possible de lancer des instances non réservées, simplement en ne fournissant pas d'id de réservation. |
39 |
Les propriétés énergétiques des hôtes sont calculées à partir des relevés effectués par les wattmètres, et remontés grâce à Kwapi (notre framework de remontée énergétique), pondérés ensuite par la performance en calcul des hôtes. |
40 |
En fonction du calendrier de réservation et des performances énergétiques des hôtes, il est possible de prendre des décisions d'extinction des machines inutilisées. |
41 |
\end{abstract} |
42 |
|
43 |
\section{Introduction} |
44 |
Avec l'avènement du cloud et la mutualisation des équipements, les utilisateurs sont amenés à partager la même infrastructure. Cette consolidation apporte des avantages certains en terme d'efficacité énergétique et de souplesse d'utilisation. |
45 |
Cependant, si ce nouveau modèle convient à la plupart des usages, certains d'entre eux, tels que le HPC, sont difficilement transposables dans le cloud à l'heure actuelle. |
46 |
En effet, les applications HPC sont très gourmandes en ressources, et très sensibles à toute variation de performances entre les noeuds de calcul. |
47 |
Il faut donc avoir une homogénéité des noeuds en terme de CPU / GPU, mais aussi de réseau (bande passante, latence). Cette homogénéité évite que les noeuds les plus lents ralentissent les plus rapides. |
48 |
Il faut aussi veiller à ce que l'activité des autres utilisateurs ne perturbe pas les tâches HPC. Pour cela, un utilisateur doit pouvoir réserver des machines, et la portion de réseau utilisée entre elles, afin d'éliminer toute perturbation. |
49 |
Cette réservation de machine physique, nécessaire dans un contexte HPC, semble aller à l'encontre de la tendance actuelle à la consolidation. Mais c'est sans compter la spécificité des tâches HPC, qui sont très intensives et accaparent souvent toutes les ressources de calcul des machines. Si la consolidation était possible, elle apporterait non pas des avantages (meilleur taux d'usage et meilleur efficacité énergétique), mais au contraire perturberait la performance des applications HPC, au point de rendre leur exécution dans le cloud impossible. |
50 |
Or, actuellement, les applications HPC sont exécutés sur des infrastructures privées, souvent surdimensionnées, très onéreuses, et rarement exploitées de façon continue à leur plein potentiel. |
51 |
|
52 |
OpenStack, solution de cloud open source, connait une forte croissance. Nous proposons donc de lui adjoindre un service de réservation, pour supporter les applications HPC, d'une part, et bénéficier de tous les avantages procurés par un système de réservation, d'autre part. |
53 |
|
54 |
% TODO nommer les parties (numéros) |
55 |
Dans cet article, nous verrons dans un premier temps comment pourrait fonctionner un tel service de réservation (spécification des besoins, algorithmes de placements, optimisation de certains critères). Nous passerons en revue les avantages procurés à l'utilisateur et au Data Center Infrastructure Manager (DCIM), et nous parlerons des modèles de facturation possibles. Dans un second temps, nous décrirons une proposition d'architecture logicielle, qui viendra se greffer sur OpenStack Nova (scheduler). Nous montrerons aussi comment tirer parti de la présence de wattmètres sur les machines, pour choisir les machines les plus efficientes. |
56 |
|
57 |
\section{État de l'art} |
58 |
On s'intéresse ici à la manière de réserver des ressources de calcul. Ces ressources peuvent être virtuelles (des instances avec des caractéristiques données) ou physiques (un noeud de calcul). |
59 |
|
60 |
\subsection{Amazon EC2} |
61 |
La plateforme Amazon EC2 propose un système de location de ressources qui convient à beaucoup de cas d'utilisation différents. |
62 |
En la comparant avec d'autres plateformes, et notamment Windows Azure, nous constatons que le modèle de réservation d'Amazon est le plus riche. |
63 |
|
64 |
Amazon fournit quatre types d'instances: à la demande, réservées, ponctuelles, et dédiées (au sein d'un Virtual Private Cloud). |
65 |
|
66 |
Les instances à la demande ont un tarif horaire plus élevé que les instances réservées, mais ne nécessitent pas de payement préalable. L'accès au ressources n'est pas garantie en cas de pic de charge. Ce type d'instance convient aux applications à court terme, qui demandent une quantité de resources variable, et qui ne peuvent pas être interrompues. |
67 |
Ce type d'instances est généralement proposé par les fournisseurs de clouds (Windows Azure, etc). |
68 |
|
69 |
Les instances réservées demandent à faire un payement préalable (réservation sur un à trois ans). Le taux horaire est ensuite bien plus avantageux. |
70 |
L'accès aux resources est garanti. Ces instances sont parfaites pour les applications stables et prévisibles, ou qui nécessitent une quantité de ressource donnée (récupération après désastre). Les instances réservés peuvent être revendues sur la place de marché Amazon, au prix choisit par le vendeur. |
71 |
Ce type d'instances est aussi très souvent proposé par les fournisseurs de clouds (Windows Azure, etc). |
72 |
|
73 |
Les instances ponctuelles permettent à l'utilisateur de préciser le coût maximum horaire qu'il est prêt à payer. Il n'y a pas de payement préalable, et les instances sont tuées si le coût horaire dépasse celui précisé par l'utilisateur (en fonction de l'offre et de la demande). |
74 |
Ce type d'instance est adapté aux applications avec des dates de début et de fin flexibles, qui ne sont faisable qu'à très bas coût (ces instances sont moins chères que les instances à la demande), ou qui sont très urgentes (ces instances sont utilisées pour rajouter à la volée de la capacité additionnelle). La facturation se faisant à l'heure, la dernière heure "partielle" n'est pas facturée (à moins que l'utilisateur termine volontairement son instance). |
75 |
À notre connaissance, seul Amazon EC2 supporte cette fonctionnalité. |
76 |
|
77 |
Enfin, les instances dédiées sont disponibles dans l'offre Virtual Private Cloud (VPC). Le VPC permet de constuire un pont sécurisé entre l'infrastructure locale (d'une entreprise) et l'insfrastructure Amazon, en passant par un VPN. Les instances à l'intérieur de ce VPC sont isolées des autres instances (au niveau réseau). Par défaut (sans instances dédiées), les instances appartenant à un VPC peuvent être exécutées sur des machines partagées entre plusieurs clients. Pour être certain d'être dans un environnement single-tenant, il faut utiliser des instances dédiées. |
78 |
On remarquera que plusieurs instances dédiées appartenant au même client ne sont pas forcément lancées sur la même machine, afin de diminuer l'impact en cas de panne matérielle. |
79 |
Les instances dédiées se rapprochent de la réservation de ressources physiques, à la différence que les caractéristiques de l'hôte physique ne sont pas choisies par l'utilisateur. |
80 |
|
81 |
\subsection{OVH} |
82 |
OVH propose deux offres Dedicated Cloud, qui reposent sur VMware. |
83 |
L'offre vSphere as a service propose un cloud dédié, avec une visibilité sur le matériel, tandis que l'offre vCloud as a service fait abstraction du matériel. Une dizaine de configurations serveurs sont proposées, que l'utilisateur peut choisir avec l'offre vSphere as a service. |
84 |
Dans tous les cas, il peut rajouter des ressources ou en enlever selon ses besoins. La facturation est à l'heure. |
85 |
|
86 |
\subsection{Grid'5000} |
87 |
Grid'5000 est une plateforme d'expérimentation scientifique, qui diffère des solutions commerciales sur de nombreux points. |
88 |
Son infrastructure est publique et l'utilisation gratuite. C'est la seule plateforme parmi celles étudiées ici qui permet de réserver des ressources en avance, et en précisant les caractéristiques des hôtes souhaitées. Toutes les autres plateformes (à l'exception des OVH Dedicated Clouds) font choisir l'utilisateur parmi une liste de "flavors". |
89 |
En effet, contrairement aux plateformes commerciales qui sont réticentes à dévoiler leur infrastructure physique, Grid'5000 fournit beaucoup de détails sur les hôtes physiques, ce qui permet à l'utilisateur de les choisir en fonction de leurs propriétés. Les hôtes physiques réservés sont affectés à l'utilisateur au moment de la réservation. |
90 |
L'utilisateur se retrouve dans un environnement single-tenant (comme sur un instance dédiée Amazon), à la différence qu'il a pu choisir le matériel sous-jacent. |
91 |
Grid'5000 dispose aussi d'un mode best effort, qui ressemble aux instances ponctuelles d'Amazon. La différence est qu'avec Amazon, une instance ponctuelle est interrompue si le prix devient trop élevé, tandis que dans Grid'5000, comme il n'y a pas de facturation, l'instance est tuée si un utilisateur a réservé la machine sur laquelle l'instance best effort est exécutée. |
92 |
|
93 |
\subsection{Bilan} |
94 |
À l'heure actuelle, seul Grid'5000 permet de réserver des ressources à l'avance, avec des hôtes attribués au moment de la réservation. |
95 |
|
96 |
Il n'est pas possible de réserver des ressources en avance avec OpenStack. |
97 |
À notre connaissance, seul OpenNebula propose ce type de service, s'il est couplé avec Haizea. |
98 |
Haizea est un système de reservation et d'ordonnancement qui supporte différents types de réservations (immédiates, futures et best effort). Il prend en compte les ressources et le temps nécessaire pour préparer la réservation (transfert des images), et celles occupées par les VMs. Ainsi, les réservations peuvent commencer précisément à l'heure requise, et l'utilisateur obtient exactement la quantité de mémoire disponible qu'il a demandé. |
99 |
Il peut être couplé à OpenNebula, ou fonctionner en mode simulation. |
100 |
Haizea est écrit en Python et est sous licence Apache 2, comme OpenStack. Haizea a été créé en décembre 2009. |
101 |
|
102 |
OpenStack n'offre pas un mécanisme simple et élégant, permettant à l'utilisateur de découvrir les propriétés des hôtes disponibles, pour ensuite constuire un filtre pour l'ordonnanceur. Certes, il est possible de lister les hôtes pour obtenir des détails (notamment les CPU infos), mais il serait souhaitable que toutes ces informations soient stockées dans une Configuration Management DataBase (CBDM), dans laquelle l'administrateur pourrait ajouter des informations (par exemple la latence entre chaque noeud), et choisir si elles peuvent êtres exposées à l'utilisateur. Ce dernier pourrait ensuite lister le propriétés disponibles (en parcourant la hiérarchie), et voir les valeurs disponibles pour chacune d'entre elles. Par exemple, sous le noeud "cpu" se trouverait "cpu.frequency", qui contiendrait les valeurs "1Ghz, 2Ghz et 3Ghz". |
103 |
|
104 |
\section{Système de réservation} |
105 |
Pour créer des réservations, l'utilisateur doit pouvoir exprimer ses besoins. Ensuite, un algorithme d'ordonnancement trouve les différentes possibilités en fonction de ces besoins et d'autres critères. |
106 |
|
107 |
\subsection{Expression des besoins} |
108 |
\subsubsection{Choix dans une liste} cette méthode est surtout utilisée par les systèmes qui supportent uniquement la réservation d'instances en faisant abstraction du matériel. Ceux-ci n'ont pas besoin de donner à l'utilisateur la possibilité de choisir les caractéristiques de son hôte physique, car cela n'a pas d'importance. L'utilisateur choisit parmi une liste de flavor (CPU, mémoire, disque), et l'ordonnanceur trouve ensuite un hôte capable de supporter cette flavor (OpenStack). |
109 |
|
110 |
Cette méthode est aussi utilisée par les fournisseurs qui proposent un choix restreint d'hôtes physiques différents (OVH). |
111 |
|
112 |
\subsubsection{Construction d'une expression des prérequis} cette méthode est surtout utilisée par les systèmes ouverts (Grid'5000), et dans lesquels les utilisateurs veulent choisir précisément leurs machines. Cependant, OpenStack supporte cette fonctionnalité grâce à des filtres, qui permettent de filtrer sur des propriétés matérielles plus précises, telles que les CPU infos. |
113 |
|
114 |
L'utilisateur a parfois une idée très précise des caractéristiques matérielles des hôtes qu'il souhaite réserver, et d'autres fois beaucoup moins. |
115 |
Pour établir la liste des caractéristiques souhaitées, il doit pouvoir choisir parmi un catalogue de propriétés (modèle de CPU, taille du cache mais aussi capacité réseau, etc), et composer une expression en utilisant des opérateurs logique. Cependant, dans un contexte HPC, les applications sont sensibles aux disparité de performances entre les noeuds. Il serait nécessaire de pouvoir exprimer ce besoin, sans pour autant donner obligatoirement une valeur. |
116 |
Par exemple, un utilisateur peut vouloir n'importe quel fréquence de processeur, pourvu qu'elles soient toutes les mêmes. |
117 |
|
118 |
Ce besoin d'homogénéité s'applique généralement aux CPUs et GPUs, et carte réseau, car ces propriétés dégradent la performances des applications distribuées si elles ne sont pas homogènes. Une quantité de mémoire homogène peut également être importante, dans la mesure où cela facilite le travail du développeur, qui optimise son application pour une taille de mémoire donnée. Mais si un noeud a plus de mémoire qu'un autre, l'application n'ira pas plus vite, ce sera juste de la mémoire inutilisée et "gaspillée". |
119 |
|
120 |
\subsection{Types de réservations} |
121 |
Le type de réservation dépendra du cas d'usage. |
122 |
|
123 |
Les réservations immédiates doivent être honorées immédiatement, ou pas du tout. |
124 |
|
125 |
Les réservations en avance doivent commencer et terminer à des heures spécifiques. |
126 |
|
127 |
Les réservations best effort sont placées dans une file, et honorées dès que possible. On peut imaginer des options : deadline, tarif degressif. |
128 |
Elle peuvent être non-préemptables ou préemptables. Dans ce cas, elles peuvent être interrompues s'il y a des réservations plus urgentes (immédiates ou en avance). Une réservation interrompue est soit migrée vers un autre hôte (à chaud ou à froid), soit suspendue puis relancée sur le même hôte, soit tuée (c'est alors à l'application de checkpointer). |
129 |
|
130 |
Le système supporte aussi les instances non-réservées (comme cela existe dans Nova actuellement). |
131 |
|
132 |
\subsection{Ajout dynamique de ressources à la réservation} |
133 |
Au moment de la réservation, l'utilisateur précise le nombre la quantité de resources nécessaire. |
134 |
Mais au cours de la réservation, ses besoins peuvent évoluer. Il doit pouvoir ajouter des ressources ou en supprimer, à la volée. |
135 |
Le prix horaire de ces ressources supplémentaire sera plus élevé que les ressources réservées en avance (pour inciter l'utilisateur à estimer au plus juste la quantité de ressources nécessaires). |
136 |
|
137 |
\subsection{Affectation des hôtes physiques à la réservation} |
138 |
Il y a deux manières d'enregistrer une réservation : soit c'est au moment de la réservation qu'est choisi un sous-ensemble parmi les hôtes candidats, soit on ne choisit pas les resources au moment de la réservation, mais on garantie seulement que lorsque la réservation deviendra active, on aura suffisament de ressources disponibles. Dans ce dernier cas, il faut considérer chaque réservation comme une règle, et chaque demande d'instanciation ou de réservation, par la suite, comme d'autres règles qui ne peuvent être acceptées que si elles sont compatibles avec toutes les règles précédentes inscrites dans le système. |
139 |
|
140 |
% TODO pro / cons |
141 |
La première stratégie permet une meilleure anticipation du coût énergétique pour deux raisons. La première est qu'on connait précisément l'hôte sur lequel la réservation va être lancée, et on peut estimer le coût. La seconde est que si les hôtes les plus efficients sont sélectionnés en priorité, les premiers arrivés ont les hôtes les plus efficients. Donc les instances non réservées, et réservation créées et activées avant la notre ne seront pas placées sur les hôtes les plus efficients, puisqu'il nous sont déjà réservées. Avec cette stratégie, le premier qui réserve a les hôtes les plus efficients. |
142 |
En revanche, elle est moins robuste si un hôte tombe en panne entre le moment de la réservation et le moment où celle-ci devient active. |
143 |
|
144 |
La deuxième stratégie est plus robuste à ce niveau là : en cas de panne d'un hôte entre la demande de réservation et le moment où la réservation devient active, il est peu probable que cela impacte la réservation, car il restera probablement des hôtes candidats au moment de la réservation. Cette stratégie, par opposition à la première, favorise les premiers clients qui lancent des instances, concernant l'efficacité énergétique des hôtes. |
145 |
|
146 |
Il convient aussi de gérer correctement le cas où des instances non-réservées sont instanciées sur un hôte qui a une réservation prévue dans le futur. On peut permettre à de telles instances d'être créées, mais donner la priorité aux réservations : si une réservation doit commencer, les instances non réservées sont soit tuées brutalement, soit mises en pause (moyennant un petit délai), soit migrées sur d'autres hôtes disponibles. |
147 |
|
148 |
\subsection{Annulation de réservation} |
149 |
Les réservations peuvent être annulées, avant leur fin, afin de ne pas monopoliser des ressources dont l'utilisateur n'a plus besoin, et avant leur commencement, si l'utilisateur change d'avis. |
150 |
Cependant, une annulation doit entraîner une pénalité pour l'utilisateur, car celui-ci pourrait faire des réservations multiples suivies d'annulations pour tenter de deviner la taille et les caractéristiques de l'infrastructure du datacenter. Et d'autre part, une annulation avant la fin d'une réservation dénote une mauvaise estimation de la durée de la réservation. |
151 |
Avant le début de réservation, plus l'utilisateur l'annule tôt, mieux il sera remboursé. Cependant, si l'utilisateur l'annule immédiatement après avoir réservé, le taux de remboursement est moins de 100\% pour éviter qu'il ne fasse des reservations multiples. |
152 |
Une fois la réservation démarrée, si l'utilisateur l'annule, il est remboursé sur la base de la période qui n'a pas été consommée. Le taux de remboursement est fixe (par exemple 75\%). L'utilisateur pourrait récupérer son argent, mais il semble plus judicieux de lui rembourser sous forme de crédits qu'il pourra utiliser lors d'une prochaine réservation. |
153 |
|
154 |
\subsection{Facturation des réservations} |
155 |
Les réservations, en garantissant un environnement single-tenant, permettent une facturation à l'usage précise et incontestable. |
156 |
En effet, sur les environnements multi-tenant, il est difficile de répartir le coût statique des machines : les clients seuls sur une machine seraient défavorisés par rapport à ceux qui se partagent un même machine. En effet, le coût statique d'une machine étant invariable, plus il y a d'utilisateurs par machine, plus la part de coût statique par utilisateur est bas. |
157 |
|
158 |
La facturation prend en compte une part statique, qui est facturée au moment de la réservation, et une part dynamique calculée une fois la réservation terminée, et qui varie selon l'énergie consommée (kWh consommés multipliés par le coût du kWh). Cela incite les clients à optimiser leurs programmes, et permet une facturation équitable des clients. |
159 |
|
160 |
\subsubsection{Part statique} |
161 |
\paragraph{Type de réservation} les réservations immédiates sont les plus chères, et les best efforts les moins chères. Les réservations en avance pourront avoir un tarif dégressif, par tranche de temps : par exemple la première semaine coûtera un peu plus cher que la seconde semaine, et ainsi de suite. |
162 |
|
163 |
\paragraph{Performance des machines} les machines les plus performantes doivent coûter plus cher, car elles sont plus récentes, plus onéreuses, terminent plus rapidement les tâches soumises et sont très souvent utilisées pour des applications urgentes. Ainsi, pour un même ratio Flops/W, la machine la plus rapide devra coûter plus cher. |
164 |
|
165 |
\subsubsection{Part dynamique} |
166 |
\paragraph{Utilisation des ressources} grâce à un service de réservation, le DCIM peut faire des prévisions d'usage du datacenter, et ainsi proposer des tarifs plus avantageux durant les heures creuses. Au contraire, durant les pics de charge, le tarif pourra être plus élevé. Cela permet de tenir compte du coût de l'énergie qui peut être variable, afin d'en répercuter le coût sur les utilisateurs. De plus, lisser la charge et éviter les pics peut permettre un meilleur taux d'usage global du datacenter, et faciliter son implantation dans des zones où la puissance maximum qu'il est possible de tirer est plafonnée. |
167 |
|
168 |
Cependant, proposer des tarifs variable en fonction du temps dévoile quelle est l'activité du datacenter. Selon le degré de transparence du fournisseur, celui pourra choisir de proposer une variation de tarif à plus ou moins fine granularité, afin de préserver un certain niveau de confidentialité. Par exemple, des tarifs variants heure par heure dévoilent beaucoup de choses sur l'activité du datacenter, tandis que s'ils varient par chaque mois, cela masque de l'information. Cependant, même avec une variable à grosse granularité, il sera possible de dégager des courbes de tendances, qui peuvent être porteuse de beaucoup d'informations. De plus, une grosse granularité aura tendance à favoriser les clients plus aggressifs et pénaliser ceux dont les réservations sont placées au endroits les meilleurs. Faut-il mieux risquer de perdre certains clients aggressifs, ou perdre des clients souples ? |
169 |
|
170 |
\subsection{Algorithme de réservation} |
171 |
Le rôle d'un tel algorithme est de trouver quels sont les emplacements libres pour placer une réservation. |
172 |
Il prend en entrée les paramètres présentés dans la figure \ref{reservation_parameters_table} et retourne en sortie des propositions de placement de réservation. |
173 |
|
174 |
\subsubsection{Algorithme first-fit} |
175 |
L'algorithme first-fit est basique et rapide. Il se contente de trouver la première période libre, pendant la durée requise. Pour cela, il trie la liste des hôtes candidats par date de disponibilité au plus tôt. Ensuite, il prend le premier hôte de cette liste, et essai d'aggréger autant d'hôtes que nécessaire sur cette période de temps. S'il n'y en a pas assez, il trouve le second hôte disponible au plus tôt, et recommence le processus. |
176 |
|
177 |
\subsubsection{Algorithmes avancés} |
178 |
Des algorithmes bien plus évolués peuvent être mis en place, pour optimiser les réservations en fonction du le coût du courant, ou pour lisser la charge, ou encore limiter les cycles d'extinction/rallumage des machines. |
179 |
|
180 |
\subsubsection{Solutions multiples et suggestions} |
181 |
Lorsque plusieurs choix sont possibles, le scheduler à deux possibilités : soit il n'en retourne qu'un, ne donnant aucun choix à l'utilisateur, soit il retourne la liste des propositions et l'utilisateur choisit celle qu'il veut. La première approche nécessite que l'utilisateur décrive en amont les critères de son choix (afin que le scheduler sache laquelle choisir). La deuxième solution peut présenter plus d'intérêt pour le DCIM, qui choisit, selon ses propres critères, le meilleur choix de son point de vue. |
182 |
De plus, faire choisir l'utilisateur entre plusieurs possibilités peut conduire à dévoiler un peu l'usage du datacenter. |
183 |
|
184 |
Parfois, il serait intéressant de suggérer à l'utilisateur de modifier ses paramètres un petit peu, soit parce qu'aucune réservation n'est possible avec ses critères, soit parcequ'il apparait nettement plus avantageux de modifier ces critères (par exemple une durée un peu moins longue permettrait d'obtenir des machines beaucoup plus efficientes, ce qui peut arranger à la fois l'utilisateur et son fournisseur). |
185 |
|
186 |
Cependant, ce mécanisme de suggestion est le moins utilisé sur les plateformes où il serait le plus utile : sur les plaformes fermées, où l'usage interne des resources n'est pas transparent, l'utilisateur fait ses requêtes en aveugle. Rien ne lui indique qu'en modifiant un peu sa requête, il obtiendrait satisfaction. Mais si ces plateformes sont fermées, c'est pour une bonne raison, et faire des suggestions serait dévoiler l'état du datacenter. |
187 |
Cependant, un utilisateur qui voudrait le deviner pourrait faire un grand nombre de requêtes, avec des critères trop sélectifs, et en restreignant petit à petit ses critères, trouver les limites du datacenter. |
188 |
Il faut donc se prémunir de ce type d'attaque. Une tentative de réservation qui échoue ne peut pas être facturée, donc on ne peut pas jouer sur ce levier. En revanche, on peut fixer des limites aux valeurs extrêmes des paramètres, et limiter le nombre de requêtes par seconde. |
189 |
|
190 |
\section{Architecture d'efficience énergétique} |
191 |
L'architecture d'efficience énergétique met à disposition du scheduler les informations nécessaires pour prendre ses décisions de placement. |
192 |
|
193 |
\subsection{Kwapi} |
194 |
Kwapi is our framework, designed for acquiring energy consumption metrics. It allows, among other, to upload metrics from the wattmeters to Ceilometer. |
195 |
|
196 |
Its architecture is based on a layer of drivers, responsible for the acquisition metrics, and a layer of plugins that collect these metrics. The communication between these two layers goes through a bus. |
197 |
|
198 |
Drivers and plugins are easily extensible to support other types of wattmeters, and provide other services. |
199 |
|
200 |
\subsubsection{Drivers layer} |
201 |
The drivers are threads started by a manager, which instantiate them with a set of parameters loaded from a configuration file (unified with the OpenStack configuration file format, similar to INI). These parameters are used to query the meters (IP address, port, etc.) and indicate the sensor IDs in the issued metrics. The metrics are Python dictionary with a set of fields. Optional fields can be added, such as voltage, amperage, etc.. The metrics are signed. |
202 |
|
203 |
The manager periodically checks if all threads are active, and restart them if necessary (incidents may occur, for example if a meter is disconnected or becomes inaccessible). The drivers can manage incidents themselves, but if they finish their execution, it does not matter because they will be automatically restarted by the manager. It is important to avoid losing measurements because the information reported is watts and not kWh: if a value in watts is lost, we lose information. |
204 |
|
205 |
\subsubsection{Plugins layer} |
206 |
The plugins retrieve and process the metrics sent by the drivers on the bus. They expose them to other services (Ceilometer) or user (visualization). They can subscribe to all sensors, or just some of them, through a system of prefixes. After checking the message signature, they extract the fields, and process the received data. Kwapi has a plugin API for Ceilometer, which computes the number of kWh of each probe, appends a timestamp, and stores the last value in watts. These data are not stored in a database, as Ceilometer already has one. If a probe has not issued metrics for a long time, the corresponding data are removed. This plugin has a REST API that allows to retrieve the probe names, and W, kWh or timestamp. |
207 |
|
208 |
\subsection{Kwranking} |
209 |
Pour améliorer l'efficacité énergétique, il faut que les machines les plus efficientes soient utilisées en priorité (en particulier pour les tâches qui demandent beaucoup de puissance). |
210 |
|
211 |
L'efficacité énergétique se définit en flops/w, donc il faut pondérer les valeurs de consommation récupérées depuis les wattmètres par un indice de performance. |
212 |
Cet indice peut être obtenu à l'aide d'un benchmark, mais cela oblige à exécuter ce benchmark sur les machines après leur installation dans le datacenter. L'autre solution, plus simple à mettre en place, est d'estimer la performance à partir des propriétés CPU (ou GPU) de l'hôte. Cela fait sens dans la mesure où le CPU et le GPU comptent parmi les composants les plus énergivores et dont la puissance demandée est fonction de la charge soumise. |
213 |
|
214 |
Pour élaborer cet indice, on prend en compte la famille du processeur, le nombre de puces, de coeurs et de threads, ainsi que la mémoire cache et la fréquence. |
215 |
La famille du processeur compte beaucoup, car elle conditionne le jeu d'instruction disponible. C'est d'ailleurs pour cette raison qu'une mesure en Bogomips n'a pas de sens, car cet indice tient compte uniquement du nombre de fois où le processeur est capable de ne rien faire par seconde. Cela ne prend pas en compte le jeu d'instruction plus ou moins optimisé. |
216 |
|
217 |
% TODO flop/w, pour le min, l'avg ou le max ? |
218 |
Dans le cadre de notre infrastructure énergétique, nous mémorisons, pour chaque hôte, sa consommation min, avg, et max, et l'indice en flop/w. |
219 |
Kwranking est capable d'enrichir une liste hôte avec leurs propriétés énergétique (sans faire de tri toutefois). |
220 |
Cette fonctionnalité est utilisée lors du choix des hôtes, à deux reprises. |
221 |
La première fois au moment de la réservation : par exemple, si l'utilisateur veut des processeurs homogènes, plusieurs familles de processeurs seront candidates, et celles-ci seront pondérées par Kwranking. La seconde fois, au moment de l'instanciation de VMs : d'une part, certaines machines peuvent être plus chaudes que d'autres, et la vitesse des ventilateurs impactent sur la consommation, et d'autre part, des hôtes strictement identiques d'un point de vue matériel peuvent présenter des différences de consommation allant jusqu'à 20\% (cela est du aux aléas de la fabrication des puces). Il s'agit donc de choisir, au moment d'une instantiation de VM, quel est l'hôte le moins consommateur parmis les hôtes réservés. |
222 |
|
223 |
De même, parmi les hôtes réservés, on aura tendance à mettre en veille ceux qui consomment le plus. |
224 |
|
225 |
L'utilisation de ce module consiste à lui passer une liste d'hôtes en paramètre, qu'il retourne enrichie, pour chaque hôte, de son indice de performances, et de sa consommation minimum, moyenne et maximum. |
226 |
|
227 |
\subsection{Kwassign} |
228 |
La facturation devrait tenir compte de l'usage qui est fait des ressources. Cela permet d'inciter les clients à mieux optimiser leur programmes et permet à ceux dont les programmes sont légers d'avoir des tarifs plus abordables. |
229 |
Ce modèle de facturation nécessite deux choses : la première est d'avoir des équipements de mesures de la consommation énergétique, et la seconde de pouvoir assigner ces "mesures" à un utilisateur particulier. Les environnements mono-tenancy se prêtent bien à cette opération, car il n'y a pas besoin de recourir à des estimations de la consommation des VMs, qui pourraient être remises en question. |
230 |
Kwapi, le framework de remontée énergétique, ne connait pas quel utilisateur était assigné à telle machine à un moment donné. |
231 |
Ces valeurs sont stockées dans Ceilometer collector, et il serait souhaitable de les assigner aux clients avant leur stockage, afin qu'ils puissent librement interroger l'API de Ceilometer et retrouver leur consommation énergétique. De plus, cette assignation n'a besoin de se faire qu'une seule fois. |
232 |
Nous avons donc créé un module logiciel qui se branche sur le bus de Ceilometer, et modifie à la volée les métriques remontée, en leur assignant un propriétaire. Pour cela, il interroge le calendrier de réservation de Climate. |
233 |
En revanche se trouve dans Climate le calendrier de réservation. |
234 |
Dans le cas de réservations non réservés, et donc en environnement potentiellement multi-tenancy, on ne réalise aucune assignation, et on ne rend pas non plus accessible la consommation des machines concernées, car cela dévoilerait l'activité des autres utilisateurs. |
235 |
|
236 |
\subsection{Modes de veille} |
237 |
Climate Power permet de gérer les modes de veille des machines. Comme Climate dispose d'un calendrier de réservation dans le temps, il est facile de s'en servir pour savoir quand mettre en veille et allumer les machines. Pour prendre une décision, il faut tenir compte des prochaines réservation qui vont devenir active, et de la probabilité qu'une instance non réservée soit ordonnancée sur une machine donnée. Lorsque qu'une réservation devient active, soit l'utilisateur a immédiatement besoin de toute ses ressources (dans ce cas là ce module devra anticiper les réservations qui vont devenir active et allumer les machines en avance), soit il veut simplement avoir la garantie de disposer d'un certain nombre de machines, mais n'est pas très regardant sur le délai de mise en route. Dans ce dernier cas, laisser ses machines en veille un peu plus longtemps lui fera économiser la consommation idle. Ou pourrait par exemple donner la possibilité à l'utilisateur de préciser le nombre de machine qu'il souhaite utiliser immédiatement. |
238 |
|
239 |
L'utilisateur doit avoir accès à l'API de Climate Power pour gérer lui même la consommation de ses machines en fonction du temps, s'il n'a pas besoin de la même quantité de machine dans le temps. Nova aussi utilise cette API, pour allumer un hôte lorsqu'une instance non-réservée doit y être lancée. |
240 |
|
241 |
Climate doit choisir quel mode de veille utiliser. Plus la veille est profonde, plus cela met du temps à rallumer la machine et plus cela est coûteux en terme d'énergie. |
242 |
% TODO REF |
243 |
On notera qu'il ne semble pas préjudiciable à la durée de vie des machines de les éteindre et rallumer fréquemment (selon REF). |
244 |
|
245 |
|
246 |
|
247 |
|
248 |
|
249 |
|
250 |
|
251 |
|
252 |
|
253 |
|
254 |
|
255 |
|
256 |
|
257 |
|
258 |
|
259 |
|
260 |
|
261 |
|
262 |
|
263 |
|
264 |
|
265 |
|
266 |
|
267 |
|
268 |
% TODO limitation : estimation de la durée, en fonction des hôtes choisis. |
269 |
% TODO limitation : extension de la durée de réservation et collision avec d'autres réservations... Ou alors accepter l'extension uniquement si ça ne collisionne pas. |
270 |
|
271 |
L'utilisateur peut vouloir démarrer sa réservation immédiatement, car il possède déjà les données qu'il veut traiter. Il peut aussi anticiper une tâche, et réserver à l'avance pour être sûr d'avoir bien les ressources au moment voulu. Mais s'il est facile de donner une date de début, estimer la durée d'une tâche l'est beaucoup moins. Comme il est très difficile de calculer précisément la durée d'une tâche, le système de réservation devrait permettre de palier à cet inconvénient en permettant à l'utilisateur d'étendre après coup sa période de réservation, s'il s'aperçoit que sa tâche n'est pas finie lorsque sa réservation va arriver à échéance. |
272 |
|
273 |
% TODO donner un exemple d'expression |
274 |
|
275 |
|
276 |
Pour optimiser le placement des réservations, nous demandons à l'utilisateur de préciser des bornes temporelles entre lesquelles placer sa réservation. Il donne donc les paramètres suivants : date du début au plus tôt, date de fin au plus tard, durée de la réservation (à placer entre les deux bornes extrêmes), et les propriétés des hôtes. Les réservations immédiates sont supportées (il s'agit juste d'un cas particulier). |
277 |
|
278 |
L'utilisateur fournit le nombre d'hôtes nécessaire. Cependant, on pourrait imaginer que le nombre d'hôtes nécessaires puisse varier au cours d'une réservation. L'idéal serait que l'utilisateur puisse faire une réservation en précisant, par tranche horaire, le nombre de noeuds qu'il souhaite voir allumé. Cependant, cela est très difficilement faisable en pratique, car il est difficile de déterminer à l'avance le temps que va prendre chaque étape dans le calcul. Une alternative serait de donner à l'utilisateur la possibilité, au cours d'une réservation, d'aggréger d'autres hôtes à sa réservation, selon ses besoins. |
279 |
|
280 |
Enfin, l'utilisateur peut préciser sur quel critère il veut optimiser le placement de sa réservation. Par exemple, démarrer le plus tôt possible, ou utiliser les machines qui consomment le moins d'énergie, ou choisir le créneau horaire où le coût du courant électrique est le plus bas. Il doit pouvoir consulter ces critères dans un catalogue. Cependant, ces critères peuvent entrer en conflit avec l'optimisation effectuée par le DCIM, donc il ne sont pas forcément autorisés. |
281 |
|
282 |
Pour récapituler, la figure \ref{reservation_parameters_table} présente les paramètres passés par l'utilisateur au système pour créer une réservation. |
283 |
|
284 |
\begin{table} |
285 |
\renewcommand{\arraystretch}{1.3} |
286 |
\caption{Arguments used for creating a reservation} |
287 |
\label{reservation_parameters_table} |
288 |
\centering |
289 |
\begin{tabular}{|l|l|} |
290 |
\hline |
291 |
\bfseries Argument & \bfseries Description\\ |
292 |
\hline |
293 |
start\_time & Not sooner than timestamp \\ |
294 |
end\_time & Not later than timestamp \\ |
295 |
duration & Reservation duration \\ |
296 |
quantity & Hosts quantity \\ |
297 |
host\_properties & Hosts selection criteria \\ |
298 |
scheduler & Scheduler algorithm \\ |
299 |
\hline |
300 |
\end{tabular} |
301 |
\end{table} |
302 |
|
303 |
|
304 |
% TODO Scénarios et validation. |
305 |
|
306 |
\section{Scénario} |
307 |
|
308 |
Nous allons évaluer le gain procuré par un système de réservation, pour l'utilisateur et le fournisseur. |
309 |
Le gain en électricité sera utilisé pour fournir des tarifs plus attractifs. |
310 |
En lissant la charge, on peut accueillir plus d'utilisateurs en journée. |
311 |
Avec le plafonnement de la consommation, il est possible de construire plus de datacenters. |
312 |
|
313 |
Nous prendrons les paramètres suivants : |
314 |
|
315 |
\begin{IEEEitemize} |
316 |
\item La plateforme comporte 1000 noeuds de calcul |
317 |
\item La plateforme est utilisée 12h par jour |
318 |
\item 50\% des noeuds consomment 20\% de plus que les autres |
319 |
\item Une demande de réservation arrive toute les minutes |
320 |
\item Une réservation réserve en moyenne 10 noeuds |
321 |
\item Une réservation dure en moyenne 1h15 |
322 |
\item 33\% des utilisateurs sont prêts à décaller leurs requêtes |
323 |
\item Des noeuds à performances homogènes procurent un gain de performances de 33\% |
324 |
\end{IEEEitemize} |
325 |
|
326 |
% charge = (3600*b*c*d*e) / (24*3600*a) |
327 |
\paragraph{État initial} initialement, la plateforme utilise OpenStack. |
328 |
Sans réservations et ne voyant pas d'avantages à décaler dans le temps leurs calculs, les clients utilisent la plateforme en journée, de 8h à 20h. |
329 |
|
330 |
La charge moyenne sur ces 12h est de 0.9 (plateforme proche de la saturation, tandis qu'elle est de 0.45 sur 24h). |
331 |
|
332 |
La nuit, personne ne bénéficie de l'électricité moins chère, et les machines restent allumées pour rien. |
333 |
En journée, 20\% des utilisateurs sont refusés car la plateforme est trop chargée. |
334 |
Une petit pourcentage d'utilisateurs est rebuté par les tarifs élevés (électricité chère et mauvaise optimisation) et s'en va vers la concurrence. |
335 |
|
336 |
\paragraph{Réservations dans le futur} grâce au service de réservation de ressources, 40\% des utilisateurs qui réservaient en journée préfèrent réserver la nuit. Par conséquent, la charge en journée passe de 0.9 à 0.54, et de 0 à 0.36 la nuit. |
337 |
|
338 |
La charge moyenne sur 24h est toujours de 0.45, mais bien mieux répartie. |
339 |
Les utilisateurs ont très peu de chances d'être refusés, ce qui fait que les 20\% d'utilisateurs qui étaient partis à cause de la plateforme saturée peuvent revenir. La charge passe donc, de 0.54 à 0.648 en journée, et de 0.36 à 0.423 la nuit. |
340 |
|
341 |
\paragraph{Efficacité énergétique} les requêtes qui saturaient le datacenter le jour sont décallés sur des hôtes beaucoup plus efficients. |
342 |
Étant donné que 50\% des noeuds sont 20\% plus efficients que les autres, on peut supporter jusqu'à une charge de 0.5 sur des noeuds efficients. |
343 |
La nuit, malgré les 20\% nouveaux utilisateurs, toute la charge est absorbée par des hôtes efficients. En journée, seule 0.148 de charge sont traités sur des hôtes moins efficients. À l'origine, 0.4 de charge étaient traités sur des hôtes peu efficients, en journée. |
344 |
|
345 |
\paragraph{Mise en veille} avant la mise en place du système de réservation, les machines ne s'arrêtaient jamais. Comme la charge est de 0.45 sur 24h, on peut éteindre les machines qui ne sont pas utilisées. On peut donc éteindre 55\% des machines. Ces machines étant surtout les moins efficientes, on économise une part plus importante que 55\% d'énergie. On ignore ici l'énergie requise pour la mise en veille et la sortie de veille. |
346 |
|
347 |
Grâce à l'économie d'électricité, le DCIM peut proposer des tarifs plus attractifs, attirer de nouveaux clients et augmenter l'utilisation de la plateforme, jusqu'à arriver à nouveau proche de la saturation. Nous voyons donc que la mise en veille est très intéressante pour réaliser des économies, et ensuite attirer de nouveaux clients. Mais à long, seul un petit pourcentage de la plateforme devrait rester en veille, sinon elle serait surdimensionnée... |
348 |
|
349 |
Bilan : le bilan final est très positif. Plus aucun utilisateur n'est refusé, car la charge est bien répartie sur 24h, les clients profitent des tarifs heures creuses, beaucoup d'électricité est économisée en éteignant les machines, ce qui permet de diminuer encore les tarifs, et d'attirer de nouveaux clients. |
350 |
|
351 |
\section{Architecture (infrastructure logicielle)} |
352 |
Dans cette section, nous décrivons notre architecture logicielle telle qu'elle sera implémentée dans un premier temps. |
353 |
Nous utiliserons la stratégie de réservation qui consiste à choisir les hôtes au moment de la réservation. |
354 |
|
355 |
\begin{figure*}[!t] |
356 |
\centerline {\includegraphics[width=14cm]{figures/architecture.eps}} |
357 |
\caption{Global architecture} |
358 |
\label{fig_architecture} |
359 |
\end{figure*} |
360 |
|
361 |
\subsection{Climate} |
362 |
Notre architecture vise à apporter des fonctionnaliés supplémentaires d'ordonnancement, sans pour autant être intrusif au niveau Nova. |
363 |
Nova se compose d'une interface API, et d'un ensemble de filtres et pondérateurs. |
364 |
Voici quel est le workflow actuellement utilisé dans OpenStack: lorsqu'un utilisateur souhaite instancier une VM, il passe en paramètres un certains nombre de critères (flavor, etc), et l'ordonnanceur Nova commence par filtrer les hôtes pour garder ceux qui correpondent aux besoins de l'utilisateur. Ensuite, Nova pondère les hôtes restants grâce à des coefficients. Il existe un certain nombre de filtres déjà programmés dans Nova, et un pondérateur, qui prend en compte la RAM disponible. |
365 |
|
366 |
Cette infrastructure nécessiterait, comme nous l'avons dit, l'ajout d'un filtre pour garder les hôtes homogènes. Mais d'autres problèmes se posent qui nous conduisent à externaliser le filtrage des hôtes à l'extérieur de Nova : en effet, pour placer une réservation de façon optimale, il est nécessaire d'avoir une vue sur le calendrier de réservation. Intégrer ceci dans Nova, à travers les filtres ou les pondérateurs personnalisés, ne semble pas être le meilleur design. |
367 |
|
368 |
\subsubsection{API} |
369 |
L'API offre les fonctionnalités de gestion des réservations. |
370 |
Pour créer les réservations, les utilisateurs utilisent les paramètres suivants : host\_properties (propriétés des hôtes), start\_time (date de début au plus tôt), end\_time (date de début au plus tard), duration (durée de la réservation), quantity (nombre d'hôtes à réserver). |
371 |
Si l'utilisateur ne précise pas les paramètres start\_time et end\_time, la réservation est de type immédiate (elle commence maintenant et dure la durée précisée). Sinon, il est possible de planifier une réservation dans le futur. La réservation dans le futur peut permettre aux utilisateurs de s'assurer de bien avoir les resources au moment voulu. On peut aussi imaginer des modèles de facturation différents si l'utilisateur anticipe ses réservations. |
372 |
Dans un premier temps, le paramètre "scheduler" n'est pas disponible à l'utilisateur. |
373 |
|
374 |
Climate dispose d'un frontend REST API pour la gestion des réservations, qui exploite deux backends (Inventory et Scheduler). |
375 |
|
376 |
L'API effectue deux étapes pour traiter la requête de création de réservation. Premièrement elle contacte Climate Inventory pour trouver les hôtes qui correspondent aux prérequis précisés dans host\_properties, et qui sont disponibles. |
377 |
Deuxièmement, les hôtes filtrés sont passés, ainsi que les paramètres de l'utilisateur, à Climate Scheduler, et celui-ci trouve une période libre où mettre la réservation. |
378 |
|
379 |
L'API de Climate n'est pas seulement utilisée par les utilisateurs. |
380 |
Nova l'utilise aussi, pour trouver les hôtes non réservés ou attachés à une réservation, ainsi que tous les modules qui auraient besoin de consulter le calendrier des réservations. |
381 |
|
382 |
Cette API est sécurisée par l'emploi des tokens Keystone. Selon le rôle correspondant à ce token, elle permet ou non de retrouver l'ID des hôtes physiques attachés à un réservation. En effet, il s'agit d'une information plus ou moins confidentielle, cachée aux utilisateurs simples qui n'ont pas un rôle d'administrateur. |
383 |
|
384 |
\begin{table} |
385 |
\renewcommand{\arraystretch}{1.3} |
386 |
\caption{Climate API} |
387 |
\label{climate_api_table} |
388 |
\centering |
389 |
\begin{tabular}{|l|l|l|} |
390 |
\hline |
391 |
\bfseries Method & \bfseries URL & \bfseries Description\\ |
392 |
\hline |
393 |
GET & /properties/ & Lists the properties\\ |
394 |
POST & /reservations/ & Creates a reservation\\ |
395 |
GET & /reservations/ & Lists the reservations\\ |
396 |
GET & /reservations/<réservation-id> & Describes a reservation\\ |
397 |
DELETE & /reservations/<réservation-id> & Cancels a reservation\\ |
398 |
\hline |
399 |
\end{tabular} |
400 |
\end{table} |
401 |
|
402 |
\subsubsection{Inventory} |
403 |
Il s'agit d'un service RPC, interrogé par Climate API pour retrouver les hôtes candidats à une demande de réservation. |
404 |
Les hôtes candidats sont ceux qui matchent les propriétés requises par l'utilisateur, et ne sont pas utilisés (leur champ running\_vm = 0 dans la base Nova). L'API de Nova est interrogée grâce au NovaClient, et le filtrage utilise la syntaxte du json\_filter de Nova. |
405 |
|
406 |
L'inventaire prend en paramètre les host\_properties. Mais l'utilisateur doit être capable d'élaborer un tel filtre. Pour cela, il utilise la méthode de l'API /properties/, qui fournit un catalogue des propriétés que l'on peut trier. Cette méthode liste les propriétés présentes dans les détails de hôte enregistrés dans la base Nova, mais le DCIM peut en masquer certaines, et en ajouter d'autres. |
407 |
|
408 |
\subsection{Nova} |
409 |
Nova est le module de lancement d'instances d'OpenStack. Par défaut, lorsqu'un instance doit être chargée, les hôtes passent dans des filtres qui ne laissent passer que les hôtes éligibles. Ensuite, les hôtes restants sont pondérés, et ceux de poids les plus faibles sont élus. Le scheduler permet de passer des scheduler\_hint. |
410 |
|
411 |
Nova facilite l'intégration de filtre et pondérateurs tiers, en permettant à l'utilisateur de préciser dans le fichier de configuration de Nova le nom du module Python correspondant à l'élément à charger (filtre ou pondérateur). Cette classe hérite d'une classe Nova, et implémente les méthodes nécessaires. |
412 |
L'utilisateur peut passer des hints en arguments, et les filtres récupérerent leur valeur. |
413 |
Ainsi, Climate exploite l'architecture extensible permise par Nova, en fournissant filtres et pondérateurs. |
414 |
|
415 |
\subsubsection{Filtering} |
416 |
Le filtre Nova accepte un scheduler hint, nommé réservation\_id, qui est l'ID de la réservation retourné par Climate au moment de la réservation. |
417 |
Si l'utilisateur fournit une réservation ID, le filtre contacte Climate API, en fournissant un token admin, et retrouve ainsi la liste des hôtes associés à la réservation. |
418 |
Si l'utilisateur ne fournit pas de réservation ID, Nova contacte Climate pour établir la liste de tous les noeuds réservés à cet instant donné. Seuls les hôtes qui ne sont pas dans cette liste sont éligibles. |
419 |
|
420 |
\subsubsection{Weighing} |
421 |
Nous créerons deux Nova pondérateurs. |
422 |
|
423 |
Le premier pondérera les machines en fonction du temps libre jusqu'à la prochaine réservation : dans le cas d'une instance non réservée, il faudra scheduler cette instance sur la machine qui est libre pendant le plus longtemps, afin de diminuer la probabilité de devoir migrer la VM, si l'utilisateur n'a toujours par libéré son instance et que l'hôte qu'il utilise va bientôt être réservé par une réservation qui devient active. Dans le cas d'une instance réservée, cette étape est sautée. |
424 |
|
425 |
Le second pondérera les machines en fonction de leur efficacité énergétique. Ce filtre contactera Kwranking (voir ci-après), en passant la liste des hôtes en paramètre. Il trie ensuite le résultat pour ne garder que les hôtes les plus efficients. |
426 |
|
427 |
Il faudra veiller à la pondération, afin que le premier filtre ait une "haute priorité". |
428 |
|
429 |
\section{Limitations} |
430 |
Nous pouvons identifier deux types de limitations : celles inhérentes au système de réservation, et celles portant sur des éléments techniques susceptibles d'évoluer. |
431 |
|
432 |
|
433 |
|
434 |
% TODO difficulté à évaluer la durée d'une tâche |
435 |
% En effet, celui-ci retourne actuellement un unique sous-ensemble à partir d'un ensemble d'hôtes. Or, il serait intéressant de pouvoir obtenir plusieurs sous-ensembles à partir d'un ensemble d'hôtes, chaque sous-ensemble étant homogène sur les propriétés spécifiées. Pour réaliser cette adaptation, nous proposons d'introduire le mot clé "homogeneous". |
436 |
% Ce mot clé pourra être utilisé, par exemple, si le modèle de CPU spécifique n'importe pas, mais que seul le fait que tous les noeuds aient le même CPU est important. L'homogénéité porte en effet surtout sur le CPU, le GPU, et le réseau. En effet, concernant l'espace de stockage, il suffit qu'il soit suffisant. Si un hôte en possède plus, il n'ira généralement pas plus vite. |
437 |
% Ce mot clé donnera au scheduler plus de liberté dans le choix des hôtes. Cependant, il rajoute encore de la difficulté à estimer la durée totale de sa tâche, car les sous-groupes d'hôtes sélectionnées sont homogènes en performances au sein de chaque groupe, mais hétérogènes en performances entre groupes différents. |
438 |
|
439 |
|
440 |
|
441 |
|
442 |
Il serait souhaitable de donner des conseils de placement à l'utilisateur, pour diminuer sa facture, ou honorer une requête trop contraignante. Cependant, il ne faut pas révéler trop d'éléments sur le datacenter. |
443 |
|
444 |
% TODO à déplacer |
445 |
S'il n'y a plus assez de machines libres pour honorer une demande de réservation, les instances non réservées pourraient être migrées et aggrégées afin de libérer de la place. Pour cela, il faut regrouper ces instances, en fonction du type d'hôte requis. |
446 |
|
447 |
|
448 |
|
449 |
|
450 |
% \section{Scénarios envisagés} |
451 |
% Un service de réservation permettrait de réaliser les scénarios suivants. |
452 |
|
453 |
% \subsection{Provider spécialisé HPC} |
454 |
% On peut voir le cloud comme un ensemble de resources, appartenant à un, ou plusieurs propriétaires s'il s'agit de plusieurs clouds mutualisés grâce à un broker. |
455 |
% Parmi cet ensemble de resources, il existe des sous-ensembles qui sont suffisament homogènes sur certains critères pour pouvoir intéresser des clients avec des besoins spécifiques. Ces clients peuvent être des particuliers, mais aussi des entreprises spécialisées dans la vente de ressources de cloud. Par exemple, une entreprise spécialisée dans la fourniture d'infrastructure HPC pourrait réserver tous les noeuds qui se prêtent à cette activité. |
456 |
|
457 |
\section{Conclusion} |
458 |
Nous avons vu que dans un contexte HPC, pouvoir avoir la garantie d'être seul sur sa machine était indispensable. Pour cela, il y a besoin d'avoir un système de réservation de ressources. Ce calendrier de réservation des ressources impliqué dans un tel système peut aisément être exploité pour bénéficier d'autres avantages. |
459 |
|
460 |
D'un point de vue utilisateur, la réservation permet de garantir l'accès au ressources dans le futur. Sans réservation, il y aurait une concurrence accrue entre les utilisateurs, et il ne serait pas possible aux utilisateurs prévoyant d'avoir plus de chances d'accéder aux ressources en anticipant leur réservation. |
461 |
|
462 |
Pour le DCIM, il est possible de prévoir la charge du datacenter, et de proposer des tarifs qui varient en fonction de cette charge, pour inciter les utilisateurs à réserver durant les périodes creuses. Cela permet donc d'une part un lissage du trafic, et d'autre part on peut imaginer la possiblité pour le DCIM de plafonner la consommation énergétique : en connaissant les réservations à l'avance (en tout cas dans le cas du modèle où les hôtes sont choisis au moment de la réservation) il est possible de savoir s'il peut accepter des nouvelles réservation durant une période donnée, sans dépasser la consommation instantannée maximale qu'il se sera fixée. |
463 |
|
464 |
D'autre part, le contexte HPC nécessitait d'obtenir des noeuds à performances homogène. Devant la variété des besoins utilisateurs, il est apparu nécessaire de lui donner la possibilité de décrire les caractéristiques de ses hôtes avec une fine granularité. Et selon les hôtes candidats et leurs périodes de disponibilité, le système peut s'appuyer sur des stratégies internes afin d'optimiser certains critères (efficacité énergétique, charge du datacenter, coût du courant électrique, etc). Ces stratégies étant choisies soit par le DCIM, soit par l'utilisateur. |
465 |
|
466 |
Un tel système de réservation de ressources s'applique ici à la réservations d'hôtes entier, mais il pourrait être généralisé à bien d'autres types de ressources (espace de stockage, réseau, etc). |
467 |
|
468 |
\section*{Acknowledgment} |
469 |
Not yet available. |
470 |
% This research is supported by the French FSN (Fonds national pour la Société Numérique) XLcloud project. Some experiments presented in this paper were carri |
471 |
% ed out using the Grid'5000 experimental testbed, being developed under the INRIA ALADDIN development action with support from CNRS, RENATER and several Univ |
472 |
% ersities as well as other funding bodies (see https://www.grid5000.fr). Authors wish to thank Julien Danjou for his help during the integration of Kwapi wit |
473 |
% h Openstack and Ceilometer. |
474 |
|
475 |
\section*{References} |
476 |
Not yet available. |
477 |
|
478 |
\end{document} |