xlcloud / papers / 2013 / Climate-Paper / paper.tex @ 5a976f8f
Historique | Voir | Annoter | Télécharger (39,66 ko)
1 |
%% paper.tex |
---|---|
2 |
%% V1.0 |
3 |
%% 05/07/2013 |
4 |
%% by François Rossigneux |
5 |
|
6 |
\documentclass[conference]{IEEEtran} |
7 |
\usepackage[utf8]{inputenc} |
8 |
\usepackage[T1]{fontenc} |
9 |
\usepackage{graphicx} |
10 |
\usepackage{epstopdf} |
11 |
|
12 |
\ifCLASSOPTIONcompsoc |
13 |
\usepackage[caption=false,font=normalsize,labelfont=sf,textfont=sf]{subfig} |
14 |
\else |
15 |
\usepackage[caption=false,font=footnotesize]{subfig} |
16 |
\fi |
17 |
|
18 |
\begin{document} |
19 |
\title{Improving HPC support in OpenStack\\by introducing a resource reservation service} |
20 |
|
21 |
\author{ |
22 |
\IEEEauthorblockN{François Rossigneux} |
23 |
\IEEEauthorblockA{INRIA, Lyon, France\\ |
24 |
Email: francois.rossigneux@inria.fr} |
25 |
\and |
26 |
\IEEEauthorblockN{Jean-Patrick Gelas} |
27 |
\IEEEauthorblockA{University of Lyon, France\\ |
28 |
Email: jean-patrick.gelas@univ-lyon1.fr} |
29 |
\and |
30 |
\IEEEauthorblockN{Laurent Lefèvre} |
31 |
\IEEEauthorblockA{LIP Laboratory, ENS Lyon, France\\ |
32 |
Email: laurent.lefevre@ens-lyon.fr} |
33 |
} |
34 |
|
35 |
\maketitle |
36 |
|
37 |
\begin{abstract} |
38 |
% TODO RE-READ |
39 |
Cet article présente la contribution apportée au projet OpenStack, dans le cadre de la réalisation du projet XLcloud. |
40 |
Il est apparu nécessaire de pouvoir réserver des resources dans le temps, afin d'optimiser la conso énergétique et garantir de bonnes performances dans un contexte HPC. Comme OpenStack ne disposait pas d'un tel mécanisme, nous avons développé un framework de réservation, appelé Climate, qui s'interface avec Nova, l'ordonnanceur d'OpenStack. Climate gère les réservations et l'affectation des hôtes réservés, en tenant compte de leurs performances énergétiques, et fournit un ID de réservation. Cet identifiant de réservation est passé à Nova sous forme de hint, afin qu'il puisse récupèrer auprès de Climate les hôtes réservés. Aucune fonctionnalité n'est enlevé de Nova: il est toujours possible de lancer des instances non réservées, simplement en ne fournissant pas d'id de réservation. |
41 |
Les propriétés énergétiques des hôtes sont calculées à partir des relevés effectués par les wattmètres, et remontés grâce à Kwapi, pondérés ensuite par la performance en calcul des hôtes. |
42 |
En fonction du calendrier de réservation et des performances énergétiques des hôtes, il est possible de prendre des décisions d'extinction des machines inutilisées. |
43 |
La réservation d'hôtes physiques induit parfois de devoir déplacer des machines virtuelles (aggrégation), afin de libérer des hôtes. |
44 |
\end{abstract} |
45 |
|
46 |
\section{Introduction} |
47 |
Avec l'avènement du cloud et la mutualisation des équipements, les utilisateurs sont amenés à partager la même infrastructure. Cette consolidation apporte des avantages certains en terme d'efficacité énergétique et de souplesse d'utilisation. |
48 |
Cependant, si ce nouveau modèle convient à la plupart des usages, certains usages, tels que le HPC, sont difficilement transposables dans le cloud à l'heure actuelle. |
49 |
En effet, les applications HPC sont très gourmandes en resources, et sont très sensibles à toute variation de performances entre les noeuds de calcul. |
50 |
Il faut donc avoir une homonénéité des noeuds en terme de CPU / GPU, mais aussi de réseau (bande passante, latence). Cette homogénéité évite que les noeuds les plus lents ralentissent les plus rapides. |
51 |
Il faut aussi veiller à ce que l'activité des autres utilisateurs ne perturbe pas les jobs HPC. Pour cela, un utilisateur doit pouvoir réserver des machines, et la portion de réseau utilisée entre elles, afin d'éliminer tout bruit parasite. |
52 |
Cette réservation de machine, nécessaire dans un contexte HPC, semble aller à l'encontre de la tendance actuelle à la consolidation. Mais c'est sans compter la spécificité des tâches HPC, qui sont très intensives et accaparent souvent toutes les ressources de calcul des machines. Si la consolidation était possible, elle apporterait non pas des avantages (meilleur taux d'usage et meilleur efficacité énergétique), mais au contraire perturberait la performance des applications HPC, au point de rendre leur exécution dans le cloud impossible. |
53 |
Or, actuellement, les applications HPC sont exécutés sur des infrastructures privées, souvent surdimensionnées, très onéreuses, et rarement exploitées de façon continue à leur plein potentiel. |
54 |
|
55 |
OpenStack, solution de cloud open source, connait une forte croissance. Nous proposons donc de lui adjoindre un service de réservation, pour supporter les applications HPC, d'une part, et bénéficier de tous les avantages procurés par un système de réservation, d'autre part. |
56 |
|
57 |
% TODO nommer les parties (numéros) |
58 |
Dans cet article, nous verrons dans un premier temps comment pourrait fonctionner un tel service de réservation (spécification des besoins, algorithmes de placements, optimisation de certains critères). Nous passerons en revue les avantages procurés à l'utilisateur et au DCIM, et nous parlerons des modèles de facturation possibles. Dans un second temps, nous décrirons une proposition d'architecture logicielle, qui viendra se greffer sur OpenStack Nova (scheduler). Nous montrerons aussi comment tirer parti de la présence de wattmètres sur les machines, pour choisir les machines les plus efficientes. |
59 |
|
60 |
\section{Système de réservation} |
61 |
Pour créer des réservations, l'utilisateur doit pouvoir exprimer ses besoins. Ensuite, un algorithme d'ordonnancement trouve les différentes possibilités en fonction de ces besoins et d'autres critères. |
62 |
|
63 |
\subsection{Expression des besoins} |
64 |
% TODO limitation : estimation de la durée, en fonction des hôtes choisis. |
65 |
% TODO limitation : extension de la durée de réservation et collision avec d'autres réservations... Ou alors accepter l'extension uniquement si ça ne colisionne pas. |
66 |
|
67 |
L'utilisateur peut vouloir démarrer sa réservation immédiatement, car il possède déjà les données qu'il veut traiter. Il peut aussi anticiper une tâche, et réserver à l'avance pour être sûr d'avoir bien les ressources au moment voulu. Mais s'il est facile de donner une date de début, estimer la durée de sa tâche l'est beaucoup moins. Comme il est très difficile de calculer précisément la durée d'une tâche, le système de réservation devrait permettre de palier à cet inconvénient en permettant à l'utilisateur d'agrandir après coup sa période de réservation, s'il s'apperçoit que sa tâche n'est pas fini lorsque sa réservation va arriver à échéance. |
68 |
|
69 |
% TODO donner un exemple d'expression |
70 |
L'utilisateur a parfois une idée très précise des caractéristiques matérielles des hôtes qu'il souhaite réserver, et d'autres fois beaucoup moins. |
71 |
Pour établir la liste des caractéristiques souhaitées, il doit pouvoir choisir parmi un catalogue de propriétés (modèle de CPU, taille du cache mais aussi capacité réseau, etc). Ensuite, on peut s'inspirer de la grammaire supportée par le Json\_filter de Nova. Avec ce filtre, il est possible d'exprimer ses besoins avec plus ou moins de granularité, et il dispose d'opérateurs logiques. Cependant, dans un contexte HCP, les applications sont sensibles aux disparité de performances entre les noeuds, et il sera nécessaire d'adapter ce Json\_filter. En effet, celui-ci retourne actuellement un unique sous-ensemble à partir d'un ensemble d'hôtes. Or, il serait intéressant de pouvoir obtenir plusieurs sous-ensembles à partir d'un ensemble d'hôtes, chaque sous-ensemble étant homogène sur les propriétés spécifiées. Pour réaliser cette adaptation, nous proposons d'introduire le mot clé "homogeneous". |
72 |
Ce mot clé pourra être utilisé, par exemple, si le modèle de CPU spécifique n'importe pas, mais que seul le fait que tous les noeuds aient le même CPU est important. L'homogénéité porte en effet surtout sur le CPU, le GPU, et le réseau. En effet, concernant l'espace de stockage, il suffit qu'il soit suffisant. Si un hôte en possède plus, il n'ira généralement pas plus vite. |
73 |
Ce mot clé donnera au scheduler plus de liberté dans le choix des hôtes. Cependant, il rajoute encore de la difficulté à estimer la durée totale de sa tâche, car les sous-groupes d'hôtes homogènes en performances sélectionnés peuvent être hétérogènes en performances entre eux. |
74 |
|
75 |
Pour optimiser le placement des réservations, nous demandons à l'utilisateur de préciser des bornes temporelles entre lesquelles placer sa réservation. Il donne donc les paramètres suivants : date du début au plus tôt, date de fin au plus tard, durée de la réservation (à placer entre les deux bornes extrêmes), et les propriétés des hôtes. Pour une réservation immédiate, il suffit fixer les bornes de début et de fin de façon adéquate. |
76 |
|
77 |
L'utilisateur fournit le nombre d'hôtes nécessaire. Cependant, on pourrait imaginer que le nombre d'hôtes nécessaires puisse varier au cours d'une réservation. L'idéal serait que l'utilisateur puisse faire une réservation en précisant, par tranche horaire, le nombre de noeuds qu'il souhaite voir allumé. Cependant, cela est très difficilement faisable en pratique, car il est difficile de déterminer à l'avance le temps que va prendre chaque étape dans le calcul. Une alternative serait de donner à l'utilisateur la possibilité, au cours d'une réservation, d'aggréger d'autres hôtes à sa réservation, selon ses besoins. |
78 |
|
79 |
Enfin, l'utilisateur peut préciser sur quelle critère il veut optimiser le placement de sa réservation. Par exemple, démarrer le plus tôt possible, ou utiliser les machines qui consomment le moins d'énergie, ou choisir le créneau horaire où le coût du courant électrique est le plus bas. Il doit pouvoir consulter ces critères dans un catalogue. Cependant, ces critères peuvent entrer en conflit avec l'optimisation effectuée par le DCIM, donc il ne sont pas forcément autorisés. |
80 |
|
81 |
Pour récapituler, la figure \ref{reservation_parameters_table} présente les paramètres passés par l'utilisateur au système pour créer une réservation. |
82 |
|
83 |
\begin{table} |
84 |
\renewcommand{\arraystretch}{1.3} |
85 |
\caption{Arguments used for creating a reservation} |
86 |
\label{reservation_parameters_table} |
87 |
\centering |
88 |
\begin{tabular}{|l|l|} |
89 |
\hline |
90 |
\bfseries Argument & \bfseries Description\\ |
91 |
\hline |
92 |
start\_time & Not sooner than timestamp \\ |
93 |
end\_time & Not later than timestamp \\ |
94 |
duration & Reservation duration \\ |
95 |
quantity & Hosts quantity \\ |
96 |
host\_properties & Hosts selection criteria \\ |
97 |
scheduler & Scheduler algorithm \\ |
98 |
\hline |
99 |
\end{tabular} |
100 |
\end{table} |
101 |
|
102 |
\subsection{Modèles de réservation} |
103 |
Il y a deux manières d'enregistrer une réservation : soit c'est au moment de la réservation qu'est choisi un sous-ensemble parmi les hôtes candidats, soit on ne choisit pas les resources au moment de la réservation, mais on garantie seulement que lorsque la réservation deviendra active, on aura suffisament de ressources disponibles. Dans ce dernier cas, il faut considérer chaque réservation comme une règle, et chaque demande d'instanciation ou de réservation, par la suite, comme d'autres règles qui ne peuvent être acceptées que si elles sont compatibles avec toutes les règles précédentes inscrites dans le système. |
104 |
|
105 |
Le première stratégie permet une meilleure anticipation du coût énergétique pour deux raisons. La première est qu'on connait précisément l'hôte sur lequel la réservation va être lancée, et on peut estimer le coût. La seconde est que si les hôtes les plus efficients sont sélectionnés en priorité, les premiers arrivés ont les hôtes les plus efficients. Donc les instances non réservées, et réservation créées et activées avant la notre ne seront pas placées sur les hôtes les plus efficients, puisqu'il nous sont déjà réservées. Avec cette stratégie, le premier qui réserve a les hôtes les plus efficients. |
106 |
En revanche, elle est moins robuste si un hôte tombe en panne entre le moment de la réservation et le moment où celle-ci devient active. |
107 |
|
108 |
La deuxième stratégie est plus robuste à ce niveau là : en cas de panne d'un hôte entre la demande de réservation et le moment où la réservation devient active, il est peu probable que cela impacte la réservation, car il restera probablement des hôtes candidats au moment de la réservation. Cette stratégie, par opposition à la première, favorise les premiers clients qui lancent des instances, concernant l'efficacité énergétique des hôtes. |
109 |
|
110 |
Il convient aussi de gérer correctement le cas où des instances non-réservées sont instanciées sur un hôte qui a une réservation prévue dans le futur. On peut permettre à de telles instances d'être créées, mais donner la priorité aux réservations : si une réservation doit commencer, les instances non réservées sont soit tuées brutalement, soit mises en pause (moyennant un petit délai), soit migrées sur d'autres hôtes disponibles. |
111 |
|
112 |
\subsection{Algorithme de réservation} |
113 |
Le rôle d'un tel algorithme est de trouver quels sont les emplacements libres pour placer une réservation. |
114 |
Il prend en entrée les paramètres présentés dans la figure \ref{reservation_parameters_table} et retourne en sortie des propositions de placement de réservation. |
115 |
|
116 |
L'algorithme le plus basique se contente de trouver la première période libre, pendant la durée requise. Pour cela, il trie la liste des hôtes candidats par date de disponibilité au plus tôt. Ensuite, il prend le premier hôte de cette liste, et essai d'aggréger autant d'hôtes que nécessaire sur cette période de temps. S'il n'y en a pas assez, il trouve le second hôte disponible au plus tôt, et recommence le processus. |
117 |
|
118 |
Des algorithmes bien plus évolués peuvent être mis en place, pour optimiser les réservations en fonction du le coût du courant, ou pour lisser la charge, ou encore limiter les cycles d'extinction/rallumage des machines. |
119 |
|
120 |
Lorsque plusieurs choix sont possibles, le scheduler à deux possibilités : soit il n'en retourne qu'un, ne donnant aucun choix à l'utilisateur, soit il retourne la liste des propositions et l'utilisateur choisit celle qu'il veut. La première approche nécessite que l'utilisateur décrive en amont les critères de son choix (afin que le scheduler sache laquelle choisir). La deuxième solution peut présenter plus d'intérêt pour le DCIM, qui choisit, selon ses propres critères, le meilleur choix de son point de vue. |
121 |
De plus, faire choisir l'utilisateur entre plusieurs possibilités revient dévoiler un peu l'usage du datacenter. |
122 |
|
123 |
Parfois, il serait intéressant de suggérer à l'utilisateur de modifier ses paramètres un petit peu, soit parce qu'aucune réservation n'est possible avec ses critères, soit parcequ'il apparait nettement plus avantageux de modifier ces critères (par exemple une durée un peu moins longue permettrait d'obtenir des machines beaucoup plus efficiente, ce qui peut arranger à la fois l'utilisateur et son fournisseur). |
124 |
|
125 |
Cependant, ce mécanisme est le moins utilisé sur les plateformes où il serait le plus utile : sur les praformes fermées, où l'usage interne des resources n'est pas transparent, l'utilisateur fait ses requêtes un peu en aveugle. Rien ne lui indique qu'en modifiant un peu sa requête, il obtiendrait satisfaction. Mais si ces plateformes sont fermées, c'est pour une bonne raison, et faire des suggestions serait dévoiler l'état du datacenter. |
126 |
Cependant, un utilisateur qui voudrait le deviner pourrait faire un grand nombre de requêtes, avec des critères trop sélectifs, et en restreignant petit à petit ses critères, trouver les limites du datacenter. |
127 |
Il faut donc se prémunir de ce type d'attaque. Une tentative de réservation qui échoue ne peut pas être facturée, donc on ne peut pas jouer sur ce levier. En revanche, on peut fixer des limites aux valeurs extrêmes des paramètres, et limiter le nombre de requêtes par seconde. |
128 |
|
129 |
\subsection{Annulation de réservation} |
130 |
Les réservations peuvent être annulées, avant leur fin, afin de ne pas monopoliser des ressources dont l'utilisateur n'a plus besoin, et avant leur commencement, si l'utilisateur change d'avis. |
131 |
Cependant, une annulation doit entraîner une pénalité pour l'utilisateur, car celui-ci pourrait faire des réservations multiples suivies d'annulations pour tenter de deviner l'infrastructure du datacenter. Et d'autre part, une annulation avant la fin d'une réservation dénote une mauvaise estimation de la durée de la réservation. |
132 |
Cette pénalité se traduit par un remboursement à moins de 100\%, de la durée de réservation qui n'a pas encore été consommée. |
133 |
Avant le début de réservation, plus celle-ci est annulée tôt, plus le pourcentage de remboursement est élevé. Cependant, si elle est annulée immédiatement, la réservation n'est pas remboursée à hauteur de 100\%. Après le début de la réservation, plus l'utilisateur l'annule tard (proche de sa date de fin), plus le pourcentage de remboursement tend vers 100\%. |
134 |
|
135 |
\subsection{Facturation} |
136 |
Grâce au service de réservation, un client est seul sur l'hôte réservé, ce qui permet une facturation à l'usage précise et incontestable. |
137 |
En effet, sur des environnements sans réservation, il est difficile de répartir les coûts entre plusieurs utilisateurs, s'ils se partagent les mêmes machines. Il existe bien des modèles pour estimer la consommation par VM, mais il est difficile de prouver à un utilisateur sa consommation, et se pose aussi le problème de la répartition du coût statique de l'hôte: en effet, un serveur qui ne fait rien consomme quand même, donc plus il y a d'utilisateurs qui se partagent cette machine, moins ce coût est élevé par utilisateur. Une facturation à l'usage incite les clients à optimiser leurs programmes, et permet une facturation équitable des clients. |
138 |
|
139 |
La facturation prend en compte une part statique et une part dynamique. |
140 |
|
141 |
\subsubsection{Part statique} |
142 |
|
143 |
\paragraph{En fonction de la performance des machines} |
144 |
Les machines les plus performances doivent coûter plus cher, car elles sont plus récentes, plus onéreuses, et sont très souvent utilisées par des utilisateurs pressés même si on en augmente le coût. Ainsi, pour un même ratio flop/w, la machine la plus rapide devra coûter plus cher. |
145 |
|
146 |
\paragraph{En fonction de la charge} |
147 |
Grâce à un service de réservation le DCIM peut faire des prévisions d'usage du cloud, et ainsi proposer des tarifs plus avantageux durant les heures creuses. Au contraire, durant les pics de charge, le tarif pourra être plus élevé. Cela permet de tenir compte du coût de l'énergie qui peut être variable, afin d'en répercuter le coût sur les utilisateurs. De plus, lisser la charge et éviter les pics peut permettre un meilleur taux d'usage global du datacenter, et faciliter son implantation dans des zones où la puissance max qu'il est possible de tirer est plafonnée. |
148 |
|
149 |
Cependant, proposer des tarifs variable en fonction du temps dévoile quelle est l'activité du datacenter. Selon le degré de transparence du fournisseur, celui pourra choisir de proposer une variation de tarif à plus ou moins fine granularité, afin de préserver un certain niveau de confidentialité. Par exemple, des tarifs variants heure par heure dévoilent beaucoup de choses sur l'activité du datacenter, tandis que s'ils varient par chaque mois, cela masque de l'information. Cependant, même avec une variable à grosse granularité, il sera possible de dégager des courbes de tendances, qui peuvent être porteuse de beaucoup d'informations. De plus, une grosse granularité aura tendance à favoriser les clients plus aggressifs et pénaliser ceux dont les réservations sont placées au endroits les meilleurs. Faut-il mieux risquer de perdre certains clients aggressifs, ou perdre des clients souples ? |
150 |
|
151 |
\subsubsection{Part dynamique} |
152 |
Il s'agit du coût du courant électrique réellement utilisé (en prenant en compte la consommation idle des machines). |
153 |
|
154 |
\section{Architecture} |
155 |
Dans cette section, nous décrivons notre architecture logicielle telle qu'elle sera implémentée dans un premier temps. |
156 |
Nous utiliserons la stratégie de réservation qui consiste à choisir les hôtes au moment de la réservation. |
157 |
|
158 |
\begin{figure*}[!t] |
159 |
\centerline {\includegraphics[width=14cm]{figures/architecture.eps}} |
160 |
\caption{Global architecture} |
161 |
\label{fig_architecture} |
162 |
\end{figure*} |
163 |
|
164 |
\subsection{Climate} |
165 |
Notre architecture vise à apporter des fonctionnaliés supplémentaires d'ordonnancement, sans pour autant être intrusif au niveau Nova. |
166 |
Nova se compose d'une interface API, et d'un ensemble de filtres et pondérateurs. |
167 |
Voici quel est le workflow actuellement utilisé dans OpenStack: lorsqu'un utilisateur souhaite instancier une VM, il passe en paramètres un certains nombre de critères (flavor, etc), et l'ordonnanceur Nova commence par filtrer les hôtes pour garder ceux qui correpondant aux besoins de l'utilisateur. Ensuite, Nova pondère les hôtes restants grâce à des pondérateurs. Il existe un certain nombre de filtres déjà programmés dans Nova, et un pondérateur, qui prend en compte la RAM disponible. |
168 |
|
169 |
Cette infrastructure nécessiterait, comme nous l'avons dit, l'ajout d'un filtre pour garder les hôtes homogènes. Mais d'autres problèmes se posent qui nous conduisent à externaliser la filtration des hôtes à l'extérieur de Nova : en effet, pour placer une réservation de façon optimale, il est nécessaire d'avoir une vue sur le calendrier de réservation. Intégrer ceci dans Nova, à travers les filtres ou les pondérateurs personnalisés, ne semble pas être le meilleur design. |
170 |
|
171 |
\subsubsection{API} |
172 |
L'API offre les fonctionnalités de gestion des réservations. |
173 |
Pour créer les réservations, les utilisateurs utilisent les paramètres suivants : host\_properties (propriétés des hôtes), start\_time (date de début au plus tôt), end\_time (date de début au plus tard), duration (durée de la réservation), quantity (nombre d'hôtes à réserver). |
174 |
Si l'utilisateur ne précise par les paramètres start\_time et end\_time, la réservation est de type immédiate (elle commence maintenant et dure la durée précisée). Sinon, il est possible de planifier une réservation dans le futur. La réservation dans le futur peut permettre aux utilisateurs de s'assurer de bien avoir les resources au moment voulu. On peut aussi imaginer des modèles de facturation différents si l'utilisateur anticipe ses réservations. |
175 |
Dans un premier temps, le paramètre "scheduler" n'est pas disponible à l'utilisateur. |
176 |
|
177 |
Climate dispose d'un frontend REST API pour la gestion des réservations, qui exploite deux backends (Inventory et Scheduler). |
178 |
|
179 |
L'API effectue deux étapes pour traiter la requête de création de réservation. Premièrement elle contacte Climate Inventory pour trouver les hôtes qui correspondent aux prérequis précisés dans host\_properties, et qui sont disponibles. |
180 |
Secondement, les hôtes filtrés sont passés, ainsi que les paramètres de l'utilisateur, à Climate Scheduler, et celui-ci trouve une période libre où mettre la réservation. |
181 |
|
182 |
L'API de Climate n'est pas seulement utilisée par les utilisateurs. |
183 |
Nova l'utilise aussi, pour trouver les hôtes non réservés ou attachés à une réservation, ainsi que tous les modules qui auraient besoin de consulter le calendrier des réservations. |
184 |
|
185 |
Cette API est sécurisée par l'emploi des tokens Keystone. Selon le rôle correspondant à ce token, elle permet ou non de retrouver l'ID des hôtes physiques attachés à un réservation. En effet, il s'agit d'une information plus ou moins confidentielle, cachée aux utilisateurs simples qui n'ont pas un rôle d'administrateur. |
186 |
|
187 |
\begin{table} |
188 |
\renewcommand{\arraystretch}{1.3} |
189 |
\caption{Climate API} |
190 |
\label{climate_api_table} |
191 |
\centering |
192 |
\begin{tabular}{|l|l|l|} |
193 |
\hline |
194 |
\bfseries Method & \bfseries URL & \bfseries Description\\ |
195 |
\hline |
196 |
GET & /properties/ & Lists the properties\\ |
197 |
POST & /reservations/ & Creates a réservation\\ |
198 |
GET & /reservations/ & Lists the réservations\\ |
199 |
GET & /reservations/<réservation-id> & Describes a réservation\\ |
200 |
DELETE & /reservations/<réservation-id> & Cancels a réservation\\ |
201 |
\hline |
202 |
\end{tabular} |
203 |
\end{table} |
204 |
|
205 |
\subsubsection{Inventory} |
206 |
Il s'agit d'un service RPC, interrogé par Climate API pour retrouver les hôtes candidats à une demande de réservation. |
207 |
Les hôtes candidats sont ceux qui matchent les propriétés requises par l'utilisateur, et ne sont pas utilisés (leur champ running\_vm = 0 dans la base Nova). L'API de Nova est interrogée grâce au NovaClient, et le filtrage utilise la syntaxte du json\_filter de Nova. |
208 |
|
209 |
L'inventaire prend en paramètre les host\_properties. Mais l'utilisateur doit être capable d'élaborer un tel filtre. Pour cela, il utilise la méthode de l'API /properties/, qui fournit un catalogue des propriétés que l'on peut trier. Cette méthode liste les propriétés présentes dans les détails de hôte enregistrés dans la base Nova, mais le DCIM peut en masquer certaines, et en ajouter d'autres. |
210 |
|
211 |
\subsubsection{Power} |
212 |
Climate Power permet de gérer les modes de veille des machines. Comme Climate dispose d'un calendrier de réservation dans le temps, il est facile de s'en servir pour savoir quand mettre en veille et allumer les machines. Pour prendre une décision, il faut tenir compte des prochaines réservation qui vont devenir active, et de la probabilité qu'une réservation non réservée soit ordonnancée sur une machine donnée. Lorsque qu'une réservation devient active, soit l'utilisateur a immédiatement besoin de toute ses ressources (dans ce cas là ce module devra anticiper les réservations qui vont devenir active et allumer les machines en avance), soit il veut simplement avoir la garantie de disposer d'un certain nombre de machines, mais n'est pas très regardant sur le délai de mise en route. Dans ce dernier cas, laisser ses machines en veille un peu plus longtemps lui fera économiser la consommation idle. Ou pourrait par exemple donner la possibilité à l'utilisateur de préciser le nombre de machine qu'il souhaite utiliser immédiatement. |
213 |
|
214 |
L'utilisateur doit avoir accès à l'API de Climate Power pour gérer lui même la consommation de ses machines en fonction du temps, s'il n'a pas besoin de la même quantité de machine dans le temps. Nova aussi utilise cette API, pour allumer un hôte lorsqu'une instance non-réservée doit y être lancée. |
215 |
|
216 |
Climate doit choisir quel mode de veille utiliser. Plus la veille est profonde, puis cela met du temps à rallumer la machine et plus cela est coûteux en terme d'énergie. |
217 |
Il faut aussi éviter d'éteindre et rallumer trop souvent les machines, pour une question d'usure du matériel (on peut immaginer que plus la machine a été rallumée/éteinte, moins elle a de chance de changer d'état. Cependant, cela favorise les vieilles machines, qui sont pourtant les moins efficaces. |
218 |
|
219 |
\subsection{Nova} |
220 |
Nova est le module de lancement d'instances d'OpenStack. Par défaut, lorsqu'un instance doit être chargée, les hôtes passent dans des filtres qui ne laissent passer que les hôtes éligibles. Ensuite, les hôtes restants sont pondérés, et ceux de poids les plus faibles sont élus. Le scheduler permet de passer des scheduler\_hint. |
221 |
|
222 |
Nova facilite l'intégration de filtre et pondérateurs tiers, en permettant à l'utilisateur de préciser dans le fichier de configuration de Nova le nom du module Python correspondant à l'élément tier à charger. Cette classe hérite d'une classe Nova, et implémente les méthodes nécessaires. |
223 |
L'utilisateur peut passer des hints en arguments, et les filtres récupérerent leur valeur. |
224 |
Ainsi, Climate exploite l'architecture extensible permise par Nova, en fournissant filtres et pondérateurs. |
225 |
|
226 |
\subsubsection{Filtering} |
227 |
Le filtre Nova accepte un scheduler hint, nommé réservation\_id, qui est l'ID de la réservation retourné par Climate au moment de la réservation. |
228 |
Si l'utilisateur fournit une réservation ID, le filtre contacte Climate API, en fournissant un token admin, et retrouve ainsi la liste des hôtes associés à la réservation. |
229 |
Si l'utilisateur ne fournit pas de réservation ID, Nova contacte Climate pour établir la liste de tous les noeuds réservés à cet instant donné. Seuls les hôtes qui ne sont pas dans cette liste sont éligibles. |
230 |
|
231 |
\subsubsection{Weighing} |
232 |
Nous créerons deux Nova pondérateurs. |
233 |
|
234 |
Le premier pondérera les machines en fonction du temps libre jusqu'à la prochaine réservation : dans le cas d'une instance non réservée, il faudra scheduler cette instance sur la machine qui est libre pendant le plus longtemps, afin de diminuer la probabilité de devoir migrer la VM, si l'utilisateur n'a toujours par libéré son instance et que l'hôte sur laquelle est tourne va bientôt être réservé par une réservation qui devient active. Dans le cas d'une instance réservée, cette étape est sautée. |
235 |
|
236 |
Le second pondérera les machines en fonction de leur efficacité énergétique. Ce filtre contactera Kwranking, en passant la liste des hôtes en paramètre. Il trie ensuite le résultat pour ne garder que les hôtes les plus efficients. |
237 |
|
238 |
Il faudra veiller à la pondération, afin que le premier filtre ait une "haute priorité". |
239 |
|
240 |
\subsection{Kwapi} |
241 |
Kwapi is our framework, designed for acquiring energy consumption metrics. It allows, among other, to upload metrics from the wattmeters to Ceilometer. |
242 |
|
243 |
Its architecture is based on a layer of drivers, responsible for the acquisition metrics, and a layer of plugins that collect these metrics. The communication between these two layers goes through a bus. |
244 |
|
245 |
Drivers and plugins are easily extensible to support other types of wattmeters, and provide other services. |
246 |
|
247 |
\subsubsection{Drivers layer} |
248 |
The drivers are threads started by a manager, which instantiate them with a set of parameters loaded from a configuration file (unified with the OpenStack configuration file format, similar to INI). These parameters are used to query the meters (IP address, port, etc.) and indicate the sensor IDs in the issued metrics. The metrics are Python dictionary with a set of fields. Optional fields can be added, such as voltage, amperage, etc.. The metrics are signed. |
249 |
|
250 |
The manager periodically checks if all threads are active, and restart them if necessary (incidents may occur, for example if a meter is disconnected or becomes inaccessible). The drivers can manage incidents themselves, but if they finish their execution, it does not matter because they will be automatically restarted by the manager. It is important to avoid losing measurements because the information reported is watts and not kWh: if a value in watts is lost, we lose information. |
251 |
|
252 |
\subsubsection{Plugins layer} |
253 |
The plugins retrieve and process the metrics sent by the drivers on the bus. They expose them to other services (Ceilometer) or user (visualization). They can subscribe to all sensors, or just some of them, through a system of prefixes. After verifying the message signature, they extract the fields, and process the received data. Kwapi has a plugin API for Ceilometer, which computes the number of kWh of each probe, appends a timestamp, and stores the last value in watts. These data are not stored in a database, as Ceilometer already has one. If a probe has not issued metrics for a long time, the corresponding data are removed. This plugin has a REST API that allows to retrieve the name of the probes, and W, kWh and timestamp. |
254 |
|
255 |
\subsection{Kwranking} |
256 |
Pour améliorer l'efficacité énergétique, il faut que les machines les plus efficientes soient utilisées en priorité (en particulier pour les tâches qui demandent beaucoup de puissance). |
257 |
|
258 |
L'efficacité énergétique se définit en flops/w, donc il faut pondérer les valeurs de consommation récupérées depuis les wattmètres par un indice de performance. |
259 |
Cet indice peut être obtenu à l'aide d'un benchmark, mais cela oblige à exécuter ce benchmark sur les machines au après leurs installation dans le datacenter. L'autre solution, plus simple à mettre en place, est d'estimer la performance à partir des propriétés CPU (ou GPU) de l'hôte. Cela fait sens dans la mesure où le CPU et le GPU comptent parmi les composants les plus énergivores et dont la puissance demandée est fonction de la charge soumise. |
260 |
|
261 |
Pour élaborer cet indice, on prend en compte la famille du processeur, le nombre de puces, de coeurs et de threads, ainsi que la mémoire cache et la fréquence. |
262 |
La famille du processeur compte beaucoup, car elle conditionne le jeu d'instruction disponible. C'est d'ailleurs pour cette raison qu'une mesure en Bogomips n'a pas de sens, car cet indice tient compte uniquement du nombre de fois où le processeur est capable de ne rien faire par seconde. Cela ne prend pas en compte le jeu d'instruction plus ou moins optimisé. |
263 |
|
264 |
% TODO flop/w, pour le min, l'avg ou le max ? |
265 |
Dans le cadre de notre infrastructure énergétique, nous mémorisons, pour chaque hôte, sa consommation min, avg, et max, et l'indice en flop/w. |
266 |
Kwranking est capable d'enrichir une liste hôte avec leurs propriétés énergétique (sans faire de tri toutefois). |
267 |
Cette fonctionnalité est utilisée lors du choix des hôtes, à deux reprises. |
268 |
La première fois au moment de la réservation : par exemple, si l'utilisateur veut des processeurs homogènes, plusieurs familles de processeurs seront candidates, et celles-ci seront pondérées par Kwranking. La seconde fois, au moment de l'instanciation de VMs : d'une part, certaines machines peuvent être plus chaudes que d'autres, et la vitesse des ventilateurs impactent sur la consommation, et d'autre part, des hôtes strictement identiques d'un point de vue matériel peuvent présenter des différences de consommation allant jusqu'à 20\% (cela est du aux aléas de la fabrication des puces). Il s'agit donc de choisir, au moment d'une instantiation de VM, quel est l'hôte le moins consommateur parmis les hôtes réservés. |
269 |
|
270 |
De même, parmi les hôtes réservés, on aura tentance à mettre en veile ceux qui consomment le plus. |
271 |
|
272 |
L'utilisation de ce module consiste à lui passer une liste d'hôtes en paramètre, qu'il retourne enrichie, pour chaque hôte, de sa la métrique en flop/w, la conso min, avg, max. |
273 |
|
274 |
\subsection{Kwassign} |
275 |
La facturation devrait tenir compte de l'usage qui est fait des ressources. Cela permet d'inciter les clients à mieux optimiser leur programmes et permet à ceux dont les programmes sont légers d'avoir des tarifs plus abordables. |
276 |
Ce modèle de facturation nécessite deux choses : la première est d'avoir des équipements de mesures de la consommation énergétique, et la seconde de pouvoir assigner ces mesures à un utilisateur particulier. Les environnements mono-tenancy se prêtent bien à cette opération, car il n'y a pas besoin de recourir à des estimations de la consommation des VMs, qui pourraient être remises en question. |
277 |
Kwapi, le framework de remontée énergétique, ne connait pas quel utilisateur était assigné à telle machine à un moment donné. |
278 |
Ces valeurs sont stockées dans Ceilometer collector, et il serait souhaitable de les assigner aux clients avant leur stockage, afin qu'ils puissent librement interroger l'API de Ceilometer et retrouver leur consommation énergétique. De plus, cette assignation a besoin de se fait qu'une seule fois. |
279 |
Nous avons donc créé un module logiciel qui se branche sur le bus de Ceilometer, et modifie à la volée les métriques remontée, en leur assignant un propriétaire. Pour cela, il interroge le calendrier de réservation de Climate. |
280 |
En revanche se trouve dans Climate le calendrier de réservation. |
281 |
Dans le cas de réservations non réservés, et donc en environnement potentiellement multi-tenancy, on ne réalise aucune assignation, et on ne rend pas non plus accessible la consommation des machines concernées, car cela dévoilerait l'activité des autres utilisateurs. |
282 |
|
283 |
Kwassign écoute donc le bus de Ceilometer, modifie et republie les métriques. |
284 |
Ce design un peu intrusif pourrait cependant évoluer. Il est impossible d'annuler les métriques publiées par le pollster, ce qui fait que les métriques sont stockées deux fois dans Ceilometer collector. Une fois assignées, et une fois pas assignées. Il faudrait donc mieux que ce soit le pollster qui gère l'assignation. |
285 |
|
286 |
\section{Limitations} |
287 |
Nous pouvons identifier deux types de limitations : celles inhérentes au système de réservation, et celles portant sur des éléments techniques susceptibles d'évoluer. |
288 |
|
289 |
Il serait souhaitable de donner des conseils de placement à l'utilisateur, pour diminuer sa facture (en économisant de l'énergie), ou honorer une requête trop contraignante. Cependant, il ne faut pas non trop d'éléments sur le datacenter. |
290 |
|
291 |
S'il n'y a plus assez de machines libres pour honorer une demande de réservation, les instances non réservées pourraient être migrées et aggrégées afin de libérer de la place. Pour cela, il faut regrouper ces instances, en fonction du type d'hôte requis. |
292 |
|
293 |
|
294 |
|
295 |
|
296 |
% \section{Scénarios envisagés} |
297 |
% Un service de réservation permettrait de réaliser les scénarios suivants. |
298 |
|
299 |
% \subsection{Provider spécialisé HPC} |
300 |
% On peut voir le cloud comme un ensemble de resources, appartenant à un, ou plusieurs propriétaires s'il s'agit de plusieurs clouds mutualisés grâce à un broker. |
301 |
% Parmi cet ensemble de resources, il existe des sous-ensembles qui sont suffisament homogènes sur certains critères pour pouvoir intéresser des clients avec des besoins spécifiques. Ces clients peuvent être des particuliers, mais aussi des entreprises spécialisées dans la vente de ressources de cloud. Par exemple, une entreprise spécialisée dans la fourniture d'infrastructure HPC pourrait réserver tous les noeuds qui se prêtent à cette activité. |
302 |
|
303 |
\section{Conclusion} |
304 |
Nous avons vu que dans un contexte HPC, pouvoir avoir la garantie d'être seul sur sa machine était indispensable. Pour cela, il y a besoin d'avoir un système de réservation de ressources. Ce calendrier de réservation des ressources impliqué dans un tel système peut aisément être exploité pour bénéficier d'autres avantages. |
305 |
|
306 |
D'un point de vue utilisateur, la réservation permet de garantir l'accès au ressources dans le futur. Sans réservation, il y aurait une concurrence accrue entre les utilisateurs, et il ne serait pas possible aux utilisateurs prévoyant d'avoir plus de chances d'accéder aux ressources en anticipant leur réservation. |
307 |
|
308 |
Pour le DCIM, il est possible prévoir la charge du datacenter, et de proposer des tarifs qui varient en fonction de cette charge, pour inciter les utilisateurs à réserver durant les périodes creuses. Cela permet donc d'une part un lissage du trafic, et d'autre part on peut imaginer la possiblité pour le DCIM de plafonner la consommation énergétique : en connaissant les réservations à l'avance (en tout cas dans le cas du modèle où les hôtes sont choisis au moment de la réservation) il est possible de savoir s'il peut accepter des nouvelles réservation durant une période donnée, sans dépasser la consommation instantannée maximale qu'il se sera fixée. |
309 |
|
310 |
D'autre part, le contexte HPC nécessitait d'obtenir des noeuds à performances homogène. Devant la variété des besoins utilisateurs, il est apparu nécessaire de lui donner la possibilité de décrire les caractéristiques de ses hôtes avec une fine granularité. Et selon les hôtes candidats et leurs périodes de disponibilité, le système peut s'appuyer sur des stratégies internes afin d'optimiser certains critères (efficacité énergétique, charge du datacenter, coût du courant électrique, etc). Ces stratégies étant choisies soit par le DCIM, soit par l'utilisateur. |
311 |
|
312 |
Un tel système de réservation de ressources s'applique ici à la réservations d'hôtes entier, mais il pourrait être généralisé à bien d'autres types de ressources (espace de stockage, réseau, etc). |
313 |
|
314 |
\section*{Acknowledgment} |
315 |
Not yet available. |
316 |
% This research is supported by the French FSN (Fonds national pour la Société Numérique) XLcloud project. Some experiments presented in this paper were carri |
317 |
% ed out using the Grid'5000 experimental testbed, being developed under the INRIA ALADDIN development action with support from CNRS, RENATER and several Univ |
318 |
% ersities as well as other funding bodies (see https://www.grid5000.fr). Authors wish to thank Julien Danjou for his help during the integration of Kwapi wit |
319 |
% h Openstack and Ceilometer. |
320 |
|
321 |
\section*{References} |
322 |
Not yet available. |
323 |
|
324 |
\end{document} |