鱼C论坛

 找回密码
 立即注册
查看: 1603|回复: 2

[作品展示] 600M左右的ooxx图片爬取

[复制链接]
发表于 2018-7-21 20:37:23 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能^_^

您需要 登录 才可以下载或查看,没有账号?立即注册

x
1.参考博客:解密ooxx妹子图的url
2.学习一下,顺便自己来操作一波。
3.图片下载保存的地址,请同学们根据自己的需要更改!
  1. #coding:utf-8

  2. import requests
  3. import urllib.request
  4. from lxml import etree
  5. import _md5
  6. import hashlib
  7. import base64
  8. import time


  9. def get_response(url,headers):

  10.     response = requests.get(url,headers=headers)
  11.     html = response.text
  12.     # print(html)
  13.     get_hash(html)

  14. def get_hash(html):

  15.     selector = etree.HTML(html)
  16.     hashs = selector.xpath('//li/div/div/div[2]/p/span/text()')        #获取到图片的hash值
  17.     # print(hashs)
  18.     get_url(hashs)

  19. # def get_js():
  20. #     global r
  21. #     js = 'http://cdn.jandan.net/static/min/91798e4c623fa60181a31d543488217e7f2ZE0GM.30100001.js'
  22. #     r = 'zvvhmFaGE7I8FjdHv8XaZ5O6dmOltKa3'

  23. def _md5(value):
  24.     ''''md5加密'''
  25.     m = hashlib.md5()
  26.     m.update(value.encode('utf-8'))
  27.     return m.hexdigest()


  28. def _base64_decode(data):
  29.     '''bash64解码'''
  30.     missing_padding = 4 - len(data) % 4
  31.     if missing_padding:
  32.         data += '=' * missing_padding
  33.     return base64.b64decode(data)


  34. def get_url(hashs):
  35.     for i in hashs:
  36.         # print(i)
  37.         get_imgurl(i,r)
  38.         # time.sleep(2)


  39. def get_imgurl(m,r='',d=0):

  40.     '''解密获取图片链接'''
  41.     e = "DECODE"
  42.     q = 4
  43.     r = _md5(r)
  44.     o = _md5(r[0:0 + 16])
  45.     n = _md5(r[16:16 + 16])
  46.     l = m[0:q]
  47.     c = o + _md5(o + l)
  48.     m = m[q:]
  49.     k = _base64_decode(m)
  50.     url = k.decode('utf-8', errors='ignore')
  51.     url = 'http://w' + url

  52.     # print(url)

  53.     download_img(url)

  54. def download_img(url):
  55.     # print(url)
  56.     filename = url.split('/')[-1]
  57.     opener = urllib.request.build_opener()

  58.     try:
  59.         opener.open(url)
  60.         urllib.request.urlretrieve(url,'E:\\study\\spider\\煎蛋网\\jandanimg\\' + filename)

  61.     except urllib.error.HTTPError:
  62.         print(url + '访问页面出错')
  63.         # time.sleep(1)

  64.     except urllib.error.URLError:
  65.         print(url + '访问页面出错')
  66.         # time.sleep(1)




  67. if __name__ == '__main__':
  68.     url_tg = 'http://jandan.net/ooxx'
  69.     headers = {'user-agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'}

  70.     #r这个参数我看了下是固定值
  71.     r = 'zvvhmFaGE7I8FjdHv8XaZ5O6dmOltKa3'
  72.     for i in range(1,43):
  73.         url = url_tg + '/page-%s#comments'%i
  74.         print('%s--------开始下载'%url)
  75.         get_response(url,headers)
  76.         print('%s--------下载完成'%url)
  77.         time.sleep(10)
复制代码
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复

使用道具 举报

发表于 2018-7-22 23:19:15 | 显示全部楼层
亲测可用,棒棒哒
不知道煎蛋网会不会很生气
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

 楼主| 发表于 2018-7-23 09:10:30 | 显示全部楼层
titanss 发表于 2018-7-22 23:19
亲测可用,棒棒哒
不知道煎蛋网会不会很生气

不会吧,他们那么可爱!
想知道小甲鱼最近在做啥?请访问 -> ilovefishc.com
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|鱼C工作室 ( 粤ICP备18085999号-1 | 粤公网安备 44051102000585号)

GMT+8, 2024-5-2 09:36

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表