Divagation sur le cloud computing

Depuis à peu près 24h, ma vision du cloud computing a extraordinairement changée. Ce qu’il s’est passé il y a 24h ? J’ai assisté à une conférence sur les technologies google et notamment app.engine, GWT et android.

Comme beaucoup de libriste je voyais d’un très mauvais oeuil tout ce mouvement cloud computing, l’idée de ne plus être maitre de ses données ça ne me plait pas.

La conférence à la quelle j’ai assisté hier, d’une part j’ai enfin vu d’un peu plus près ce qu’était le cloud (SaaS, PaaS et IaaS). En fait l’idée consiste à louer des ressources matériel (IaaS), système (PaaS) ou logicielles (SaaS) sur internet.

Là où s’est fait le déclique chez moi c’est de me dire que louer du logiciel sur internet on fait ça depuis un paquet d’années. Avec les webmails on fait du SaaS, en louant un espace d’hébergement pour ce faire un site web on fait du PaaS et en louant une machine chez OVH par exemple on fait du IaaS. Bref c’est vieux comme le monde mais comme des marketeux se sont appercu qu’il y avait de la thune à se faire il fallait trouver un mot : “Cloud”. C’est exactement ce qui s’est passé pour AJAX, le xmlhttprequest c’est super vieux mais AJAX c’est vachement plus classe d’un coup.

Quant à l’utilité du cloud, je suis moins radical maintenant. En effet ça a un vrai interêt dans des cas où l’utilisateur n’a pas les moyens (en terme technique, financier ou temporel) de mettre en place l’architecture nécessaire à son besoin. L’exemple très parlant du conférencier d’hier soir c’était Obama qui a voulu répondre à des questions d’américains sur internet (l’américain moyen pose sa question sur internet et Obama y répond par le même biais).

Faire ça d’un point de vu technique ça peut être un véritable casse tête. Il faut mettre en place un cluster de serveurs avec de la très haute disponibilité. Il faut le mettre en place vite et le service à une durée de vie d’une journée. Au lieux de passer par ce cheminement couteux et complexe, ils ont utilisé l’infrastructure de google. Résultat le service a pu encaissé plus de 700 requêtes par seconde sans bronché. La note pour le contribuable américain à du bien diminuer.

On peut voir que le même genre de système a était utilisé pour le sondage Debian d’il y a quelques mois ou le miens au quel vous avez répondu cette semaine. Ce n’est bien sûr qu’un type d’exemples il y en a d’autres.

Bref encore une fois avec les technologie, j’ai vraiment l’impression que le cloud computing n’est pas à rejeter en bloc, mais qu’il faut avancé avec prudence et bien réfléchir. Pour ce qui est des données il est possible d’effectuer des sauvegardes locales régulières, si les données sont sensible il faut s’assurer qu’elles sont chiffrées au niveau du client.

Bref j’arrête là mes divagations… :unamused: Bonne soirée à tous.

Le cloud computing, je suis pour.

D’un point de vue économique, ça a du sens : un gros ordi très puissant + plein de petits ordis qui utilisent ses ressources, c’est moins cher que plein d’ordis moyennement puissants.
D’un point de vue écologique aussi, ça limite les ressources utilisées.
D’un point de vue gestion aussi, il suffit de faire un truc sur le gros ordi pour que ça se répercute sur tous les petits ordis.

Par contre, la pierre d’achoppement, c’est le contrôle. Qui contrôle le gros ordi ? Pour ma part je n’arrive pas à faire confiance à une entreprise ou un Etat pour contrôler le gros ordi.
Pour la centralisation des données entre les mains de l’Etat, on a pu voir les risques que ça fait courir à la population (cf la Chine en ce moment, ou toute bonne dictature dans l’histoire). En terme de liberté d’expression ou d’opposition politique, ça se pose là.
Pour la centralisation des données entre les mains d’une entreprise, j’y vois les mêmes risques. Ça se fait soit par revente des données aux Etats, soit par contrôle de l’Etat sur l’entreprise (cf la Chine et les moteurs de recherche), soit pour utilisation des données à des fins commerciales (cf Facebook, qui fait que la vie privée de centaines de millions d’utilisateurs se trouve à portée de clic de gouvernements ou d’entreprises peu scrupuleuses).

Il faut un contrôle par la base, par le biais d’une organisation contrôlée par les personnes qui utilisent le service. Une asso, n’importe quelle organisation qui permette ça. Car si ce ne sont pas les utilisateurs qui contrôlent leurs données, je vois bien l’intérêt pour celui qui contrôle mais par pour les utilisateurs…

En inconvénient tu as aussi un modèle économique pourri qui vise à te faire louer tes logiciels. Dans cette problématique il faut faire gaffe à ce que les logiciels accessible comme des services soient sous licence de type agpl.

Tu peux aussi envisager une architecture type P2P, regarde ce vieux fil
https://d.debian-fr.org/t/une-simple-question-niveau-sauvegarde/5913/23 (poursuis sur quelques posts, c’est une idée qui me travaille depuis pas mal d’années).

Avec ta solution je ne vois pas comment tu fait pour rapatrier tes données quand tu en auras besoin.

Tu mets les identifiants du documents et tu attends que le document se reconstitue à partir des morceaux disséminés. La fiabilité est la qualité du système, pas la rapidité. C’est un système d’archivage, pas des données disséminées.

Tu veut dire que pour un fichier de 1Go que tu coupe en N blocs chaque bloc est à deux endroits, le système va envoyer une requête à chaque membre du réseau pour lui demander « As tu un fichier parmi ces N là ? » ?

Un autre problème peut être aussi le fait que certaines machines peuvent être déconnectées lors de la tentative de récupération, donc on ne peut pas tout récupérer.

Il y a aussi le cas où une des machines est formatée ou autres intempéries…

  • Ce sont des machines dédiées à cela, cela supposent qu’elles sont régulièrement connectées afin que ce qui est déposé sur la machine pour être conservé soit déposé sur 2 autres machines.
  • Régulièrement, la machine teste que les deux autres copies soient présentes. En cas d’absence, yn nouvelle copie est faite sur une autre machine.
  • La catastrophe serait que les 3 machines en même temps soit démolies, la probabilité est très faible.

@MisterFreez : Le truc qui me dérange dans le cloud c’est le coté “Minitel 2.0”, bon je sais que ça revients souvent mais là c’est flagrant. Autant le coté ecolo je ne suis pas convaincu (il vaut mieux avoir plein de machine moyenne éteinte qu’un gros serveur allumé 24/7). Il y a des services qui me paraisse plus apte au “nuage” (webmail, chat, blog, …) mais l’objectif a long terme de ces gens est d’avoir 90% des appli & 100% des données dans le nuage. Donc aucun moyen de savoir ce que fait réellement le logiciel utilisé par dans le nuage et encore moins de savoir comment les info sont traitées/analisées. Maintenant applique ça avec une politique sécuritaire et l’etat (& les ayants droits ou toute autre organisation ayant un lobbi assez puissant) auras un droits de regarde sur toutes tes données :078
Donc finalement je suis d’accord avec ta phrase :

Tu veut dire que pour un fichier de 1Go que tu coupe en N blocs chaque bloc est à deux endroits, le système va envoyer une requête à chaque membre du réseau pour lui demander « As tu un fichier parmi ces N là ? » ?[/quote]

Pas à chacun, tu as un identifiant, un peu comme tu reconstitues un fichier en peer2peer, tu ne demandes pas au hasard, tu connais les machines ayant tes morceaux.

Je dirais qu’on est pas obligé d’avoir une position forte pour ou contre le cloud-computing. Ça a ses avantages ou ses inconvénients, le tout est de savoir quand l’utiliser et quand ne pas l’utiliser.
Dans le cas d’un sondage public, pour reprendre l’exemple de MisterFreez, c’est effectivement pratique. Pour travailler sur des documents personnels voire confidentiels, il vaut mieux s’orienter vers une autre voie.
De la même façon, tu peux utiliser Facebook pour retrouver des contacts perdus, sans aller y raconter ta vie au monde entier…

Le seul truc qui me gène dans le cloud computing, ce n’est pas le principe en lui-même, c’est le marketing qui va avec, pour te faire croire que c’est la meilleure solution pour tout. Qu’on l’utilise pour certaines tâches, en étant conscient de ses limites ne me dérange pas du tout…
Quand tu as tous tes docs chez Google et que t’as une panne de réseau, tu n’as plus accès à rien. Ce n’est pas un problème, il faut juste le savoir, et prendre les précautions qu’il faut.

L’un des principales problèmes techniques avec ça c’est internet. C’est vraiment super bien internet. Mais 90% des acteurs sont des imbéciles qui pensent qu’actuellement tout le monde à l’ADSL et/ou la 3G en permanence. Faut vivre sans la possibilité d’avoir une connexion convenable pour voir à quel point certains systèmes sont dépendant d’une vraie connexion.

Pour ce qui est du contrôle des données c’est juste une déportation de la problématique des logiciels libres, rien de nouveau là dedans.

D’où l’importance de l’agpl sus-citée ^^

[quote=“MisterFreez”]
L’un des principales problèmes techniques avec ça c’est internet. C’est vraiment super bien internet. Mais 90% des acteurs sont des imbéciles qui pensent qu’actuellement tout le monde à l’ADSL et/ou la 3G en permanence. Faut vivre sans la possibilité d’avoir une connexion convenable pour voir à quel point certains systèmes sont dépendant d’une vraie connexion.

Pour ce qui est du contrôle des données c’est juste une déportation de la problématique des logiciels libres, rien de nouveau là dedans.

D’où l’importance de l’agpl sus-citée ^^[/quote]
Pour les pb de connexion tout a fait d’accord. Pour ce qui est de l’agpl tu n’est jamais certain que le code exécuter sur le serveur est bien celui publié … même si ça fait un peut parano :027