logo Homepage
+  NewbieContest
|-+  Divers» Hacking» Petite question sur scanneur de site
Username:
Password:
Pages: [1]
  Imprimer  
Auteur Fil de discussion: Petite question sur scanneur de site  (Lu 4620 fois)
DeaD-zONe

Profil challenge

Classement : 1649/54691

Néophyte
*
Hors ligne Hors ligne
Messages: 5


Voir le profil
« le: 02 Juin 2009 à 17:17:58 »

Salut tout le monde, ça fait un bail que je ne m'était plus connecté ici...

Voila, il y a un site web (de wallpapers) dont j'aimerai télécharger les images jpg.

Sauf qu'il y a plusieurs centaines de fonds d'écran, et je me vois mal cliqué sur chacun pour les enregistrer (clic droit> enregistrer sous>).

J'ai voulu scanné le site avec intellitamper et enregistrer tout les jpg d'un coup, mais le dossier est forbidden, il ne me dit pas ce qu'il y a dedans .

Est-ce qu'il y aurait un moyen de contourner ça ou une autre manière?
Car j'ai utilisé cette méthode sur un autre site et ça a très bien fonctionné...

Je veux pas pirater quoique ce soit lol, juste pouvoir télécharger les wallpapers

Merci d'avance
Journalisée
Stacker
Profil challenge

Classement : 4105/54691

Néophyte
*
Hors ligne Hors ligne
Messages: 7


Voir le profil
« #1 le: 02 Juin 2009 à 18:28:15 »

Bah a mon avis un scanneur de site ne t'aidera pas mieux qu'intellitamper pour dl les images 
Journalisée
Iansus

Profil challenge

Classement : 52/54691

Membre Senior
****
Hors ligne Hors ligne
Messages: 262


Voir le profil WWW
« #2 le: 02 Juin 2009 à 18:36:07 »

Un script qui récupère la page où il t'affiche les walls, un parsing pour récupérer les adresses, tu récupères le contenu de l'image, et tu l'enregistres sur ton PC.
Journalisée
DeaD-zONe

Profil challenge

Classement : 1649/54691

Néophyte
*
Hors ligne Hors ligne
Messages: 5


Voir le profil
« #3 le: 02 Juin 2009 à 19:10:45 »

ok un peu trop compliqué pour moi... lol

le site c'est : http://www.carwalls.com/

mais on vois que les images sont stockées sur : http://s2.desktopmachine.com/pics/
(en affichant une image et en regardé l'adresse dans les propriétés

(de plus je ne souhaite récupérer que les wallpapers en 1920x1200.

PS: je ne sais pas comment on se sert d'un script, ce qu'est un parsing non plus... lol
Journalisée
Treea
Profil challenge

Classement : 841/54691

Membre Junior
**
Hors ligne Hors ligne
Messages: 59


Voir le profil
« #4 le: 31 Août 2009 à 07:21:10 »

pérer que les wallpapers en 1920x1200.

PS: je ne sais pas comment on se sert d'un script

On le code et on double clique dessus.
Journalisée
s3th
Relecteur

Profil challenge

Classement : 422/54691

Membre Héroïque
*
Hors ligne Hors ligne
Messages: 645


Voir le profil WWW
« #5 le: 03 Septembre 2009 à 21:13:14 »

voila pour commencer

http://sebsauvage.net/python/snyppets/index.html#getlinks1

après tu l'adatpe :

1) tu récupères tous les links de Cars (a. d Tramontana, AC, Acura, Alfa Romeo, Anteros)
2) tu ouvres ces links l'un après l'autres en récupérant les urls (if = 1920)
3) wget url
4) tu check s'il y a un next, etc...

Méthode BF, t'attaque directement

http://www.desktopmachine.com/framepic.php?id=1&size=w1920

1) id=1 (à incrémenter, +1)
2) tu parse la page, récupéres les links
3) if 1920 dans le link, wget link
4) goto 1
Journalisée

..\m/..  Tout n'est qu'illusion ..\m/..

http://backtrack-fr.net/

3NJ0Y et non pas enjoy comme certaine tapz
s3th
Relecteur

Profil challenge

Classement : 422/54691

Membre Héroïque
*
Hors ligne Hors ligne
Messages: 645


Voir le profil WWW
« #6 le: 04 Septembre 2009 à 14:10:51 »

Voila un début de script à toi d'enregistrer le résultat

Code:
#!/usr/bin/env python

import re, sys, urllib2, socket, BeautifulSoup

x=1
while x != 0:

url = 'http://www.desktopmachine.com/framepic.php?id=%i&size=w1920' % (x)
x=x+1
request = urllib2.Request(url)
response = urllib2.urlopen(request)
soup = BeautifulSoup.BeautifulSoup(response)
for a in soup.findAll('a'):
  if '1920' in a['href']:
    print a['href']
Journalisée

..\m/..  Tout n'est qu'illusion ..\m/..

http://backtrack-fr.net/

3NJ0Y et non pas enjoy comme certaine tapz
Pages: [1]
  Imprimer  
 
Aller à: