Choix aspirateur de site

Bonjour, je voudrais installer un aspirateur de site j’ai vu qu’il y avait httrack et webhttrack , quelles différences entre les 2 ? lequel privilégier ? dans synaptic j’ai vu qu’il y avait des bibliothèques , s’installent-elles automatiquement , ou faut-il toutes les sélectionner ? merci

bonjour
je crois que webhttrack est en mode graphique dans debian, une fois sélectionné le paquet webhttrack dans synaptic , celui-ci demande automatiquement d’installer les dépendances nécéssaires; il faut cliquer sur appliquer.puis installer et ça marche .

eddy03 :slightly_smiling:

Sinon, le bon vieux wget a toute les options qu’il faut pour faire un bon aspirateur de site.

Salut,
Au passage il est bon de rappeler que ce n’est pas un acte “anodin” d’aspirer un site…
Ce n’est pas sympa ! :smiling_imp:

C’est pas nécessairement pour bouffer toute la connexion, ça peut être juste pour récupérer trois ou quatres fichiers de temps en temps.

exactement çà , des coloriages pour les petits enfants à déposer sur un pc non connecté où ils peuvent naviguer sans crainte -

Re,
Loin de moi l’idée de vouloir priver tes petits enfants de coloriages !
Tu n’as pas à te justifier :wink:

C’est juste que l’aspiration est “lourde” pour les serveurs. Et les contenus pas forcément libres…

Il y en a qui s’amusent à essayer d’aspirer d’énormes Wiki (par la racine… :laughing: ) :mrgreen:

Un peu le même principe que le P2P, les outils sont là, les contenus en ligne… C’est tentant !