(Courriels de diversion: <retractile@dedommagerent-aventurent.com> <satiriser@encourais-abrutissant.com> <selectionneriez@experimentatrice-fermetures.com> <sautera@ovarienne-persiflerent.com> <admireriez@repartiteurs-engendrions.com> <frustra@humaniserait-begayeras.com> <viabilisions@colportes-conformeraient.com> <imprecise@dechaînee-pleine.com> <louee@lanca-inhumation.com> <bavure@houillers-cals.com> )
Le 15 Août, jdd écrit : > y a-t-il moyen d'avoir la liste des URL incluses dans une page html, de > façon à pouvoir faire un paquet avec juste les fichiers utiles, et non pas > tous ceux du répertoire? (un peu ce que l'on a dans le navigateur, mais je > ne sais pas l'imprimer) Je m'étais fait un petit utilitaire perl pour me signaler les fichiers manquants (en partant du principe que les URLs sont relatives). Voici le code : use strict; use HTML::LinkExtor; sub cb { my ($tag, %links) = @_; my $target; my $alert = ' '; if ($tag eq 'img') { $target = $links{src}; } elsif ($tag eq 'a') { $target = $links{href}; } $alert = '*' if (!defined $target || ! -f $target); print $alert . " " . $tag . " ". join(' ', @{[%links]}) . "\n"; } while (@ARGV) { my $arg = shift @ARGV; print $arg . "\n"; my $p = HTML::LinkExtor->new(\&cb); $p ->parse_file($arg); } -- Marc Thirion | Toulouse, France Un Travail pour Chacun : http://www.multimania.com/untravailchacun/ Marc.Thirion@ISOscope.com : http://www.ISOscope.com/Pérennité des logiciels et des systèmes --------------------------------------------------------------------- Aide sur la liste: <URL:mailto:linux-31-help@savage.iut-blagnac.fr>Le CULTe sur le web: <URL:http://www.CULTe.org>