[résolu]Reflexion théorique => web 3.0

Bonjour à tous…

voila j’ai réfléchit à un truc mais j’ai des (très) grosses lacune en protocole de communication informatique.

Donc c’est pour savoir si des gens sont calé dans ce domaine, qu’ils me disent ce qu’ils en pensent ? (les autres aussi)

Suite à la discutions sur Forum ubuntu : OpenBittorrent un truc ma chiffonné (et j’ai tout compris à la notion de tracker BT)

depuis quelque temps je (on a ) fait un constat alarmant :
le net 2.0 => minitel++
les structures étatiques/privative => cherche un contrôle
=> contrôle possible par la centralisation des données

alors suite à l’apparition de OpenBitTorrent et de opera unite, j’ai imaginé un truc, à savoir décentraliser au max le réseau à la manière du protocole BitTorrent !

je m’explique :
En gros aujourd’hui, un site web est hébergé sur un serveur et tout les utilisateurs ajoutent de la donnée au serveur (j’oublie volontairement les BDD) . De ce fait le site grandi
=> conséquence ==> toute l’information d’un site donnée est centralisé sur le serveur (hors miroring)
=> risque ==> si on ferme le site => tout est perdu

mon idée (enfin je ne sais pas si elle est original/réalisable) : on applique le BitTorrent au HTTP

En gros un site web ne serai pas hébergé sur un serveur unique mais sur un ensemble de serveurs différent (chacun contenant des morceaux du site (unique / récurant )) et la navigation sur le site se ferai donc comme un immense échange de donnée entre le client et les différents serveur. (voir chaque client est en partie serveur) => je suppose qu’il faudra inventé un protocole… mais bon

ça semble délirant (voir irréalisable) mais bon, c’est une idée … et internet sera redevenue Le Réseau décentralisé par excellence.

C’est une idée … vous en pensez quoi ?

DrDam

Je suis un boulet … je viens de décrire FreeNet …

Ça ne fonctionnera pas, d’une manière ou d’une autre tu es obligé de préciser où se trouvent les documents: que ce soit dans un document principal, via une sorte de tracker ou tout autre moyen accessible à partir de l’adresse d’origine. Tu neutralises ce moyen et tu as l’équivelent de la fermeture d’un serveur. Reconstituer un site n’a jamais été un souci, le souci c’est l’hébergement.

Une technique plus accessible et plus simple serait de mettre des miroirs dans les champs DNS du domaine et de faire un sorte qu’un navigateur apprenne à utiliser automatiquement ces miroirs en cas de défaillance ou de surcharge du serveur principal. C’est très facile à mettre en oeuvre et je ne vois pas d’inconvénient à cela. Mais quel rapport avec un Web 3.0?

Rajout: Freenet fait effectivement un peu ça tout en restant fragile et nécessite une grande manipulation des machines pour y accéder.

[quote]Mais quel rapport avec un Web 3.0?[/quote] en général quand tu change de version, tu garde le général et tu revoit pas mal de point particulier … mon idée c’était de trouver un système de qui tournerai sur le Web “de base” mais de manière novateur (changement de version) … enfin c’est juste un titre …
Depuis quelque temps … je suis en révolution avec les gens qui parle du Web2.0 et qui cites : youTube, FaceBook … pour moi c’est du web 0.0.0.0.0.1 (du minitel)

bah justement … la seul manière de fermer un site c’est que toutes les personnes disposant d’une copie complète la détruise … => techniquement complexe
enfin l’idée de base … serai plus que le site soit hebergé par X serveurs différents (donc X ip différentes => mais le même alias) avec X BDD identique et donc pour fermer le site, il faut détruire les X copies en gros comme tu dit :

mais que cette liste de miroirs se mettent à jour automatiquement => je suis une nouvelle copie du site complète , je cherche la(les) listes de miroirs que je met à jour avec moi même.

Le gros hic c’est comment on gère l’évolution du site (sans parler de BDD => quoi que avec du mirroring ça devrai passé tout seul)

Le Web 1.0 est constitué des serveurs où le contenu est apporté par le concepteur du site. Typiquement http://clefagreg.dnsalias.org/ par exemple.
Si j’ai bien compris, le Web 2.0 est constitué des sites où le contenu est apporté par les utilisateurs eux même: Facebook, Youtube, Dailymotion sont des coquilles vides si on enlève les utilisateurs. Les forums sont les premières ébauches de ces sites. Wikipedia a je crois été le premier véritable exemple de ce fameux Web 2.0. Cela ne repose pas sur l’aspect technique.

Pour revenir au pbm, le problème est le lien vers le site et non le site lui même: il y a des backupos partout, la difficulté est en cas de disparition d’un site que la copie prenne le relais immédiatement. Si on torpille une entrée DNS, les caches la conservent longtemps. Si une entrée a une liste de miroirs possibles, ça peut être solution. J’avais fait un wrapper pour lynx il y a longtemps mais il ne marchait pas bien et uniquement sur un site dont je gère le DNS.Ça limite :slightly_smiling:

Je ne vois pas l’intérêt de la chose par rapport à la sécurité des données. Si tu te débrouille pour que le client accède aux données, ben il les as. Ce que tu nous donne c’est le moyen de faire de la redondance et il y a déjà beaucoup de techniques pour faire ça.

Au contraire si tu veut protéger tes données, il faut les centralisées. Puisque tu parle de données personnelles tu as des techniques comme OpenID qui permettent de centraliser tes informations et de ne rendre accessible que ce que tu veut. C’est un protocole libre donc tu peut héberger ton propre serveur (sachant qu’il est inutile qu’il fonctionne quand tu n’est pas connecté à internet tu peut t’en monter un sur ta machine. Reste le problème du nombre de site qui l’utilisent.

c’est pas protéger les données en soit qui m’intéresse …

c’est protéger les contenus du net de ce qui n’est pas dans le net => état un poil invasif (Chine/France…)…

Et pour cela j’ai pensé à une création de redondance des données elles même => couper le serveur principal ne suffira pas à “éteindre” le site …

google.com est hébergé par je ne sais combien de machines.

Là où tu peut avoir un problème c’est dans le réseau en lui même ton FAI peut tout contrôler mais si tu crypte tes transfert alors il n’a plus les moyens de savoir ce que tu fait. C’est pour ça que tor est apparu.