Je trouve que les solutions qu'on te proposent plus haut sont overkill et non adaptés.
Ton but ce n'est pas vraiment d'automatiser un copier/coller mais de récupérer des informations sur des pages précises, donc au lieu de demander a un bot de faire les 3000 clics et copier coller à ta place, je ferais plutôt un bout de code qui va directement chercher les informations que tu désires
Tu choppe d'abord tous les liens qui t'intéressent, tous les "projets" dans ton exemple, tu peux parser ça en javascript avec un
var array = [];
var links = document.getElementsByTagName("a");
for(var i=0, max=links.length; i<max; i++) {
array.push(links[i].href);
}
Tu as une liste de toutes les balises href (lien) que tu peux filtrer avec une bonne regex selon la structure de ton site
Dans un second temps, tu dois ouvrir chaque page, mais tu ne va pas t'embêter a ouvrir réellement les 3000 liens, tu laisse le navigateur faire ça en tâche de fond, tu n'as pas besoin visuellement de voir la page se charger
for(var i=0; i< array.length; i++) {
var req = new XMLHttpRequest();
req.open('/GET', array[i], false);
req.send(null);
if(req.status == 200)
parse_url_projet(req.responseText);
}
Voila, tu as toutes tes pages dans la variable ci-dessus, il n'y a plus qu'a faire la fonction de parsing de la page pour que tu puisse récupérer l'url, tu peux utiliser la même méthode de parsing employé plus haut en la customisant pour cette fois ci récupérer les liens que tu désires.
A la fin, y'a plus qu'a enregistrer le résultat dans un fichier.
Et enfin, tu peux faire tout ça en ouvrant la console javascript de ton navigateur et en lui collant le code, sans devoir installer quoi que ce soit, ça implique néanmoins de savoir coder un tout petit peu mais ce n'est pas sorcier si tu arrives a comprendre les petits bout de code ci-dessus, il faut juste savoir l'adapter à ton site