(Courriels de diversion: <retractile@dedommagerent-aventurent.com> <satiriser@encourais-abrutissant.com> <selectionneriez@experimentatrice-fermetures.com> <sautera@ovarienne-persiflerent.com> <admireriez@repartiteurs-engendrions.com> <frustra@humaniserait-begayeras.com> <viabilisions@colportes-conformeraient.com> <imprecise@dechaînee-pleine.com> <louee@lanca-inhumation.com> <bavure@houillers-cals.com> )
Le 15 Août, jdd écrit :
> y a-t-il moyen d'avoir la liste des URL incluses dans une page html, de
> façon à pouvoir faire un paquet avec juste les fichiers utiles, et non pas
> tous ceux du répertoire? (un peu ce que l'on a dans le navigateur, mais je
> ne sais pas l'imprimer)
Je m'étais fait un petit utilitaire perl pour me signaler les
fichiers manquants (en partant du principe que les URLs sont relatives).
Voici le code :
use strict;
use HTML::LinkExtor;
sub cb {
my ($tag, %links) = @_;
my $target;
my $alert = ' ';
if ($tag eq 'img') {
$target = $links{src};
} elsif ($tag eq 'a') {
$target = $links{href};
}
$alert = '*' if (!defined $target || ! -f $target);
print $alert . " " . $tag . " ". join(' ', @{[%links]}) . "\n";
}
while (@ARGV) {
my $arg = shift @ARGV;
print $arg . "\n";
my $p = HTML::LinkExtor->new(\&cb);
$p ->parse_file($arg);
}
--
Marc Thirion | Toulouse, France
Un Travail pour Chacun : http://www.multimania.com/untravailchacun/
Marc.Thirion@ISOscope.com : http://www.ISOscope.com/Pérennité des logiciels et des systèmes
---------------------------------------------------------------------
Aide sur la liste: <URL:mailto:linux-31-help@savage.iut-blagnac.fr>Le CULTe sur le web: <URL:http://www.CULTe.org>