Pour que les deux ficheier de urls de deux langues sont deux tableaux dans même fichier.
Il faut ajoute deux variables: le premier pour compter les urls; et le deuxième pour compter les tableaux. Pour compter les tableau, il faut reconstruire un variable, c'est le même chose que mise en ordre les urls.
2011年12月17日星期六
mise en ordre les urls
Pour que on peut trouver les urls plus pratique, je les ai mise en ordre.
Dans le script, on choit bash-shelle, il faut ajouter un variable pour compter les urls, le compte de machine toujours toujours commence par 0, et le variable est " i=1 ", la machine lit le variable que chaque fois de compte plus un 1.
Dans le script, on choit bash-shelle, il faut ajouter un variable pour compter les urls, le compte de machine toujours toujours commence par 0, et le variable est " i=1 ", la machine lit le variable que chaque fois de compte plus un 1.
Pages-aspirees
Après de remplacer wget par le curl, j'ai reconstruit les tableaux de pages-aspirées, bien qu'il y a quelques pages que on ne peut pas encore ouvrire, surtout les pages chinois, mais le résultat est mieux qu'avant.
Pour les pages on ne peut pas ouvrire, le réponde est "400 Bad Request" ou ne pas trouvé, en revanche si on clique directement les urls dans le tableau, on peut les ouvrire complètement.
"400 Bad Request" = le syntaxe est faut pendant request ou le syntaxe n'est pas suffit
Pour les pages on ne peut pas ouvrire, le réponde est "400 Bad Request" ou ne pas trouvé, en revanche si on clique directement les urls dans le tableau, on peut les ouvrire complètement.
"400 Bad Request" = le syntaxe est faut pendant request ou le syntaxe n'est pas suffit
2011年12月11日星期日
solution de curl
J'ai trouvé le problèm , à cause que le ubuntu n'est pas préinstallé le curl et la version de curl est passée, le commande est refusé. Ensuite j'ai renouvellé la version, et maintenant ça marche!
订阅:
博文 (Atom)