Ok, donc je sais que je peux utiliser:Utiliser wget et pour télécharger des pages Web Cron
wget -r <website> > <file>
pour obtenir une page Web et enregistrez-le. Ma question est de savoir comment j'utiliserais cron et wget pour obtenir une page Web sur une base horaire ou même minute, puis les enregistrer dans un dossier, compresser et compresser, puis continuer à y ajouter pour une révision à une date ultérieure. . Je sais que je peux le faire manuellement, mon but est de le télécharger en gros 10-20 minutes, pendant environ 4 heures (peu importe si ça va plus longtemps) et d'ajouter le tout dans un joli répertoire, puis zip ledit répertoire pour économiser de l'espace, et les vérifier plus tard dans la journée.
Pouvez-vous expliquer un peu plus sur ce qui est le résultat final? Tout d'abord, '-r' implique que vous voulez enregistrer plus d'une page - est-ce ce que vous voulez ou non? Si oui, vous ne devriez pas dire "page web", mais "page web ** s **", juste pour être clair. Je vais supposer une page. Donc, vous téléchargez une page à, disons, 10h, 11h et 12h - que voulez-vous avoir - un ensemble de fichiers ('wp-10am.htm',' wp-11am.htm', 'wp-12pm.htm') ou autre chose? –
Quelque chose, je bricolais surtout avec wget pour la première fois, autre que de saisir quelques fichiers rapides. –
Principalement ce que je veux faire, est de prendre une page Web sur une base régulière, et enregistrez-le en tant qu'index. .htm dans ~/web_logs/que je vais ensuite zip –