idée comme ça... http décentralisé

Bonjour,
Alors voici une idée “comme ça”, c’est à dire que je ne sais pas si c’est réalisable ni comment, mais j’aimerais vos commentaires sur le sujet.

Alors qu’énormément de données sont éparpillées sur la toile, il n’est pas rare de voir disparaître des documents intéressants. Le problème est alors qu’une partie de notre culture est perdue. Vous vous trouvez à ce moment bien embarassé, puisqu’il vous est impossible de retrouver cette information.

À l’heure où l’auto-hébergement devient accessible, serait-il possible d’imaginer la chose suivante : chaque internaute aurait la possibilité de configurer dans son navigateur la quantité de données qu’il veut enregistrer/partager.

Ces donnée sont en fait le contenu de sites web, que les webmaster rendent publiques (on ne peut pas tout se laisser aspirer).

Pour quoi faire? Eh bien ces données enregistrées seraient alors partagées via un système pair à pair (pourquoi pas?). En somme, on ne téléchargerait plus le contenu d’un site sur le serveur, mais sur le réseau de pairs.

Est-ce possible? Et comment? (je laisse volontairement très ouvert la question)

Premier souci qui me vient en tête : si le contenu du site est modifié, il faudra un moyen de semer ces mises à jour sur le réseau pair à pair (par exemple avec une somme de contrôle).

Simon Vieille a discuté d’une idée semblable : planet-libre.org/index.php?post_id=12349

Ben ça me semble être un peu utopiste comme souhait.
À la rigueur, chaque participant s’“autohébergeant” pourrait mettre à disposition quelques dizaines, voire centaines de pages web mais même multiplié par 1000 participants, ça représenterait une minuscule goutte d’eau dans l’océan du web.
De plus, comment se ferait le choix des pages et son référencement, Google ? :078

À court terme oui, même 1000 partageurs seraient peu devant l’immensité du web. Mais 1000 partageurs d’une même source seraient un véritable atout pour le débit ascendant apparent de l’auto-hébergé.
Mais si ce processus se répand facilement (installation d’un module firefox par exemple), on dépassera vite les 1000.

Pour le forum par exemple, si l’on compte les visiteurs réguliers, ça fait déja une 20aine de sources.

Pour le référencement, on ne change rien. Google n’a pas à aller fouiller dans le cache des utilisateurs, c’est leur disque dur. (ou alors j’ai mal compris ce que tu as dit)

Rêveur, oui. Utopiste, je ne sais pas.

Ça existe déja? addons.mozilla.org/en-us/firefo … firecoral/

Essaye…

[quote]Not yet rated
0 user reviews
15 users[/quote]

Essaye…

[quote]Not yet rated
0 user reviews
15 users[/quote][/quote]
Ouaip, je m’en suis aperçu après. Et le “site officiel” est en fait celui d’une équipe de foot :confused:

archive.org

(peut rendre service dans certains cas)

:023 en effet, il m’a sauvé plusieurs fois!
Mais si ce site lui même disparaît un jour? Je sais bien que c’est chercher la petite bête, mais sur le principe… :slightly_smiling:

Il me semble que Freenet fonctionne sur ce principe.
freenetproject.org/

Sur le fonctionnement oui, c’est un peu la même idée. On récupère les données chez d’autres utilisateurs.

Sur le principe, c’est assez différent, car le but est de proposer un échange qui se veut anonyme, c’est une surcouche à internet. Du coup, forcément on y trouve vraiment, de tout…

J’ai continué d’y penser, et pour l’instant, ce qui semble le plus pratique serait un proxy+torrent.

C’est pas gagné si je dois coder un proxy en entier :stuck_out_tongue: . À moins que vous ayez une autre idée, je devrais venir vous embêter! :slightly_smiling:

Hum quand on parle de paire à paire il faut toujours avoir en tête la sécurité. La plupart des systèmes distribués sont très vulnérables aux erreurs bizantines (un nœud de ton système se met à faire n’importe quoi) alors face à un véritable attaquant (lui il fait parti du système et fait des actions spécifiquement pour détruire)…

Avec bitorrent je ne sais pas trop comment ça marche, mais à mon avis le réseau n’a pas les propriétés que tu espère. Il est basé sur les fichiers *.torrent qui n’ont pas moins de chance de disparaître que des fichiers html (surtout qu’ils sont généralement distribués via le même protocole).

Ah Michel, j’attendais avec impatience ton avis :slightly_smiling:
Je ne comptais pas utiliser des fichiers .torrents, mais m’appuyer sur le même principe que celui des liens magnets. J’avoue ne pas encore très bien voir si cela peu fonctionner, et je galère à trouver de la documentation pour “codeur”.

Dans ce cas, quel protocole p2p utiliser? En libre, je ne connais que torrent.

Perso je suis un fan des réseaux non organiser (type F2F). Tu as une liste de nœuds voisins (qui ne le sont que d’un point de vu logique) et à intervalle de temps régulière tu échange 1/3 aléatoire de ta liste de voisins avec celle d’un ou de plusieurs voisin.

Pour faire une requête tu envoie un magnet à tout tes voisins et avec un compteur, s’ils ne l’ont pas ils cascadent la requête à leur voisin en décrémentant le compteur sauf si ce dernier est égale à 0.

Les propriétés de ce genre de réseau sont incroyables (ça survie à la disparition de la majorité des nœuds de manière instantanée par exemple).

Je crois que GNUNet utilise ce genre de principe.

C’est exactement le genre de principe qu’il me faut! :023
Il s’agit d’ailleurs dans les grandes lignes de ce qui me faisait dire “mais comment je vais mettre ça en place avec torrent???”.

Cela fait un bon moment que je n’ai pas entendu parler de gnunet, je vais aller voir.

Il existe des bibliothèques (library) pour faire du F2F? (ça serait chouette pour un bébé codeur comme moi)

edit : libgnunetutil?

Je connais surtout la théorie, hein. :slightly_smiling:
Si j’ai le temps et le courage je ferrais un tour de ce qui existe pour me tenir informer.

C’est très sympa, merci!

Le paquet gnunet sur wheezy semble bien obsolète. Ou alors j’ai vraiment rien compris à sa configuration… J’espère que libgnunet n’est pas si abscons

edit : gnunet en tout cas semble très documenté. Ça reste flou pour moi, mais j’espère que cela peut permettre de mettre en place une sorte de “httpf2f”

[HS]

J’aime bien l’expression. :mrgreen:
[/HS]

Je me pose une question quand même : est-ce que dans cette idée, on demande au webmaster son avis à un moment ?
D’un autre côté, si le contenu est librement accessible, son accord est peux être déjà implicite en fait.

D’un point de vue technique, arrêtez moi si je dis un bêtise, mais comme on a pas accès aux sources du site cible ni a l’ensemble de la base de données qui va avec, on ne peux sauvegarder que ce que l’on connaît du site (soit les pages statiques que l’on a un jour affiché). Ça doit être assez compliqué de détecter lorsqu’il y a une modification.

Dans ce que j’avais en tête, non, le webmaster n’est pas sollicité puisqu’il s’agit du même contenu que lors d’une consultation habituelle. J’ai déja du mal à imaginer comment faire, alors forcément, seul le contenu statique serait concerné.
J’ai l’impression que les améliorations de html5 seraient bien mieux adaptées pour ce genre de choses.

Je suis entrain de me dire que ça ne marchera pas. Les délais des protocoles paire à paire sont trop long (pour l’usage que l’on a du web).