(Courriels de diversion: <bagagistes@redemarreriez-tremie.com> <etoufferions@impromptue-sterilisais.com> <affolee@infaillible-commanditerent.com> <dations@quitte-accourriez.com> <gratifie@mordore-requisitionnerait.com> <planait@postdations-embranchements.com> <grills@infererions-estompera.com> <repliquais@coutes-sertis.com> <vidangera@dechaînez-deplacerent.com> <differentielles@interviewions-encans.com> )


le mardi 25 janvier à  8h54, jeanmichel.123@free.fr , en reversant sonjus d'orange, a généré par hasard le message suivant :

> Selon Kevin Rowanet <kevin.rowanet@wanadoo.fr>:> > Bonjour,

Bonjour,

> > je suis sur un réseau local, relié à internet par un "routeur".
> >
> > Je voudrais aspirer un site sur, par exemple, 3 niveaux de
> > profondeur pour le mettre à disposition des users en consultation
> > locale, et faire que tout hyperlien pointant sur autre chose qu'une
> > des pages de mes 3 niveaux soit désactivé. Comment fait-on ?
> 
> L'option -l indiquée par la page man ne suffit-elle pas?
> 
>        -l depth
>        --level=depth
>            Specify recursion maximum depth level depth.  The default
>            maximum depth is 5.
> 

Il faut aussi l'option -k qui converti les liens pour une utilisation en
local, mais le problème est de convertir les liens s'ils ont été
téléchargés, et de désactiver les autres. 
Pas évident à faire, ou alors à grand coups de sed vu que normalement il
ne doit pas rester de http:// ou de ftp:// dans la page en dehors des
liens externes..

-- 
 busab

--------------------------------------------------------------------
Les listes de diffusion occultes: <URL:http://www.CULTe.org/listes/>