Tar.bz2 énoooooooooorme

Bonjour,
Je suis en train de galérer avec un fichier tar.bz2 de 30,5 Go…
Je n’arrive pas à l’ouvrir (après 2 heures de moulinage ce n’est toujours pas ouvert…) pour récupérer ce qu’il y a dedans, que ce soit avec ARK ou avec la ligne de commande.
Ma question est : Y-a-t-il un limite de taille pour les fichiers compressés de ce type ? Et quelle serait la ligne de commande pour demander à tar de faire plusieurs archives (par exemple de 1 Go) au lieu d’une seule archive énooooooooooooooorme…
Quelle est la meilleure option pour les décompresser (en ligne de commande je suppose…) ?
Pour info, la compression a pris un peu plus de 3 heures.
Si à votre avis mon archive est endommagée, quelle sont mes options pour tenter une récupération d’une partie du contenu ?

Edit : j’ai rectifié le gz en bz… Merci Limax d’avoir vu mon erreur !

bonjour
heu tar.gz2 ???
en console

si c’est un tar.gz: tar zxvf lefichier.tar.gz
si c’est un tar.bz2: tar jxvf lefichier.tar.bz2

c’est un tar.bz2
Il faut bien taper tar jxvf et non tar -jxvf ?
Et pour la taille, j’ai un peu poussé ?
Merci Limax

Ouais quand même :mrgreen:

C’est un backup ? Si oui compresser le tout n’est pas une bonne idée…

Ouais, quand j’ai eu le chevauchement de partition j’ai fait un backup de mon système fraîchement installée… La prochaine fois, je ferais juste une copie…

D’acc

Le plus simple c’est de passer par dd ou rsync, au choix :slightly_smiling:

Oui, ça a l’air parfait… Merci je met ça dans un coin de mon petit cerveau de lémurien ! Je vais faire un script avec ça, ça va m’occuper !!!

Regarde du coté de split, doit y avoir moyen de l’utiliser avec tar.

Merci eol,

Très utile au moment de la création ! du style : tar cvpjf - | (cd /backup;split -b 4024m - 20061217backup.tar.bz2. )

J’ai finalement trouvé ce lien : frwendling.free.fr/howtos/archives.html qui devrait me permettre de me débrouiller tout seul, ce que j’aurai du faire en premier… Mais la facilité du forum et des bonnes volonté qui s’y trouvent poussent à la fainéantise !!! Il faut se reprendre… Mea culpa maxima.

Il y a tout… compresser, décompresser, ajouter, effacer des fichiers de l’archive, extraire certains fichiers…

Mais reste une question en suspend, pas dans les tutos, à votre avis, quelle taille maximum “raisonnable” pour une archive compressée ?

Si déjà je retiens tout ça ce sera un grand pas !
Mais pourquoi les cours de ligne de commande à la maternelle ne sont-ils pas obligatoires !!!

Ça, ça dépend surtout des performances de ta machine (principalement le CPU), du disque (ainsi que le FS) sur lequel se trouve l’archive etc…

Une machine moyenne peut très bien supporter 15-20Gio, après la question à se poser, c’est si tu comptes la décompresser sur d’autres machines moins performantes…

il est possible aussi d’aller dans une archive comme dans un dossier avec avfs

$ avfsd ~/.avfs-mount (lorsque la session s’ouvre)
j’utilise le gestionnaire de fichier rox et pour ouvrir les dossiers: rox ~/.avfs-mount/"$1#" “$@”

à tester avec nautilus ou autre.

Monter une archive… excellent !
Chaque jour est riche en enseignements sur ce forum, c’est bien !!! Je teste ça demain. Merci.

Edit : At the moment it supports floppies, tar and gzip files, zip, bzip2, ar and rar
files, ftp sessions, http, webdav, rsh/rcp, ssh/scp. Quite a few other
handlers are implemented with the Midnight Commander’s external FS.

Parfait !

pour faire en console j’ai ceci

[quote]mkdir ~/.avfs
mountavfs
cd /tmp && echo “Hide me up” > bla && tar -zcf bla.tar.gz bla && rm bla
cd ~/.avfs/tmp/bla.tar.gz#/
ls
cat bla
[/quote]tu adaptes bla.tar.gz avec ton archive et le tour est joué.

Un backup par définition ne devrait pas être compressé: il te suffit de quelques octets endommagés pour perdre l’ensemble de ton backup ce qui n’est pas le cas d’une copie sans compression. Sil la compression est indispensable, il est préférable de faire une série de petites archives ou bien de prévoir des fichiers par2 afin de récupérer en cas de fichiers corrompus.

Merci à tous,
C’est Ok ce matin. J’ai sorti les fichiers répertoire/repertoire, il n’y a pas eu de soucis.
J’ai récupéré ma debian, saine et sauve…
Hier je me demande si un processus “figé” n’avais pas bloqué mes tentatives d’extraction.
En tout cas je retiens la leçon, pas d’archives compressées pour les sauvegardes, et pas de fichier compressé trop volumineux…

Super Limax, merci,
L’archive de 30 Go est montée le temps de taper sur ‘entrée’… :smiley: