(Courriels de diversion: <bagagistes@redemarreriez-tremie.com> <etoufferions@impromptue-sterilisais.com> <affolee@infaillible-commanditerent.com> <dations@quitte-accourriez.com> <gratifie@mordore-requisitionnerait.com> <planait@postdations-embranchements.com> <grills@infererions-estompera.com> <repliquais@coutes-sertis.com> <vidangera@dechaînez-deplacerent.com> <differentielles@interviewions-encans.com> )
le mardi 25 janvier à 8h54, jeanmichel.123@free.fr , en reversant sonjus d'orange, a généré par hasard le message suivant : > Selon Kevin Rowanet <kevin.rowanet@wanadoo.fr>:> > Bonjour, Bonjour, > > je suis sur un réseau local, relié à internet par un "routeur". > > > > Je voudrais aspirer un site sur, par exemple, 3 niveaux de > > profondeur pour le mettre à disposition des users en consultation > > locale, et faire que tout hyperlien pointant sur autre chose qu'une > > des pages de mes 3 niveaux soit désactivé. Comment fait-on ? > > L'option -l indiquée par la page man ne suffit-elle pas? > > -l depth > --level=depth > Specify recursion maximum depth level depth. The default > maximum depth is 5. > Il faut aussi l'option -k qui converti les liens pour une utilisation en local, mais le problème est de convertir les liens s'ils ont été téléchargés, et de désactiver les autres. Pas évident à faire, ou alors à grand coups de sed vu que normalement il ne doit pas rester de http:// ou de ftp:// dans la page en dehors des liens externes.. -- busab -------------------------------------------------------------------- Les listes de diffusion occultes: <URL:http://www.CULTe.org/listes/>