Gestionnaire de téléchargement

Bonjour à tous,

Je ne savais pas où poster, donc j’ai posté ici, veuillez déplacer le topic si c’est pas la bonne section :wink:

Sous windows, j’utilisais Internet Download Manager (IDM) pour mes téléchargements.
Ce logiciel découpe le fichier distant en plusieurs parties et le reconstitue à la fin :

pics.imagup.com/01/1237052305_In … anager.gif

Je n’ai pas trouvé de logiciel équivalent sous linux, et je souhaiterai vivement disposer d’un tel logiciel, car ce genre de logiciel accélère la vitesse de téléchargement (je peux me permettre d’atteindre les 2mo / s).

Je débute, donc je sais pas, je sais pas si cette question a déjà été posée, j’ai cherché sur google, mais j’ai rien trouvé de convaincant.
J’ai vu que ça parlait de Kget (j’ai pas testé), de Gwget (que j’ai, mais je ne le trouve pas extra comparé à IDM).

Merci d’avance pour votre éventuelle aide.

aria2 [1] peut certainement faire ça.

[1] aria2.sourceforge.net/

Bonjour,

Merci de votre réponse, je vais tester et vous dire ce qu’il en est.

EDIT : ça a l’air de bien fonctionner, merci !!

EDIT 2 : Finalement, c’est pas le top, ça télécharge normalement, je vois pas de différence par rapport à gwget :

pics.imagup.com/01/1237057357_Capture.png

Désolé pour le double post, je viens juste donner de mes nouvelles par rapport au gestionnaire de DL.
J’ai viré gwget, Aria; pour utiliser Axel Download Accelerator qui fonctionne TRÈS bien !

Lien : axel.alioth.debian.org/

Voila, si jamais ça peut aider :wink:

[quote=“MoNsTeR”]Lien : axel.alioth.debian.org/
Voila, si jamais ça peut aider :wink: [/quote]

aptitude install axel
si t’es sous debian ca suffit

packages.debian.org/search?keywo … lla-search

Regarde l’effet de ces cochonneries:

Un document faisant 69958 octets, chargé par un de ces machins:

[quote]~$ grep -c -E “ip-180.net-89-2-58.rev.numericable.fr.*/lecons2008.pdf” /var/log/apache/acces.log
371
[/quote]
Le gars a ouvert 371 connexions pour ça, la première à 10:36:13, la dernière a été close à 10:38:14, donc en clair le serveur a consacré 371 connexions pendant 2 minutes à un gus qui pouvait charger ce document en 2 secondes.

Par ailleurs, je fais un test en LAN sur le même fichier:
Axel: traffic total 143382 bytes (5 connexions)
Wget: traffic total 73418 bytes

Et le même constat a lieu pour les autres fichiers: fais la comparaison avec

#!/bin/sh DEB=`/sbin/ifconfig eth0 | grep "RX bytes:" | sed -e 's/^.*RX bytes:\([0-9]*\) .*$/\1/'` axel $1 SUI=`/sbin/ifconfig eth0 | grep "RX bytes:" | sed -e 's/^.*RX bytes:\([0-9]*\) .*$/\1/'` wget $1 SUI2=`/sbin/ifconfig eth0 | grep "RX bytes:" | sed -e 's/^.*RX bytes:\([0-9]*\) .*$/\1/'` echo $[$SUI-$DEB] $[$SUI2-$SUI]
Tu exécutes ce script en prenant comme argument l’url que tu veux charger, tu t’apercevras que le nombre d’octets chargés par axel est nettement supérieur au nombre d’octets chargés par wget. (pour les petits fichiers, cela devient faux pour les gros fichiers).

Par ailleurs, toujours avec le même genre de tests, j’ai constaté sans surprise que le temps était identique lorsque tu es le seul en ligne, mais que ce temps diminuait dès qu’il y avait plusieurs personnes.

Premier exemple sur un fichier de 5M sur un serveur avec 1Mb/s d’upload:

[quote]dimanche 15 mars 2009, 14:03:35 (UTC+0100)
dimanche 15 mars 2009, 14:04:36 (UTC+0100) (fin de axel: 61s)
dimanche 15 mars 2009, 14:05:34 (UTC+0100) (fin de wget: 58s)
[/quote]
Sur un fichier de 50M sur un serveur ayant un upload plus conséquent et plus d’utilisateurs:

[quote]dimanche 15 mars 2009, 14:08:05 (UTC+0100)
dimanche 15 mars 2009, 14:09:11 (UTC+0100) (fin de axel 1mn04)
dimanche 15 mars 2009, 14:10:31 (UTC+0100) (fin de wget 1mn20s)
[/quote]
axel, c’est donc ça: un système qui tire à toi toute la couverture en prenant la bande passante des autres, un truc d’égoïste quoi valable pour des gros téléchargements sur des serveurs occupés où il y a de la couverture à tirer. L’usage de ces outils est complètement incompatible avec un discours quelconque soutenant les logiciels libres et des valeurs de partage.