(Courriels de diversion: <finie@sursoies-marchais.com> <atomique@marginaliserais-gesticuleras.com> <gouvernait@fermes-caseras.com> <reclassements@insinuer-dechiree.com> <impolitesse@retraduiront-echaufferas.com> <geriez@exproprie-t-shirt.com> <concretiseront@defraîchirent-decantant.com> <evenement@sot-indemnite.com> <revigorent@panache-reversons.com> <tisserions@festoyiez-epileront.com> )
Hi > > >Il s'agit d'aspirer la page de niveau 0, et selon une profondeur N, > > >d'aspirer uniquement certains liens de noms par exemple > > 'suivant' ou > > >'next'. > > Wget est bourré d'options, entre autre il permet de regler le > > niveau de profondeur de l'aspiration. Bon download ! > Et en particulier : > > `-A ACCLIST --accept ACCLIST' > `-R REJLIST --reject REJLIST' > Specify comma-separated lists of file name suffixes or patterns to > accept or reject (*Note Types of Files:: for more details). > > Qui permet de spécifier des masques pour les fichiers qu'on > accpete/rejette. Vous avez été +s à m'indiquer wget. merci. Mais je souhaitais utiliser une fonction me permettant de spécifier les noms des liens contenus dans les pages (au lieu de spécifier les noms des fichiers). Wget ne me semble pas réaliser la chose, pour supposer la chose, j'ai listé les lignes d'options contenant les chaînes 'name' et 'link'. Les voici: $ wget --help | grep -i "name" --proxy-user=USER set USER as proxy username. -g, --glob=on/off turn file name globbing on or off. $ wget --help | grep -i "link" --retr-symlinks retrieve FTP symbolic links. -k, --convert-links convert non-relative links to relative. -L, --relative follow relative links only. --follow-ftp follow FTP links from HTML documents. Résultat: nul. Une autre idée ? A ------- bientôt. --------------------------------------------------------------------- Aide sur la liste: <URL:mailto:linux-31-help@savage.iut-blagnac.fr>Le CULTe sur le web: <URL:http://www.CULTe.org>