Bonjour,
Tout est dans le titre mais pour donner un exemple de ce que je voudrais : soit, par exemple, une box avec un serveur web, je voudrais obtenir la liste de toutes les pages web disponibles (.html, .php,.cgi…) à partir de l’adresse http donc sans pouvoir regarder dans le répertoire DocumentRoot.
J’ai pensé à l’utilitaire wget comme je sais qu’il permet de créer un miroir/aspirer un site à partir de son url/nom de domaine mais peut-il lister sans télécharger (le contenu des fichiers m’intéresse pas, seulement les noms m’intéresse comme par exemple index5.php3)?