python实现爬虫下载美女图片详解编程语言

[Python]代码    

#-*- coding:utf-8 -*- http://www.aichengxu.com 
import urllib2 
import re 
import requests 
from lxml import etree 
 
这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下 
 
推荐各位先使用基本库来写,这样可以学习到更多 
 
links=[]    #遍历url的地址 
k=1     
print u'请输入最后的页数:' 
endPage=int(raw_input())    #最终的页数  (r'/d+(?=/s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group 
 
#这里是手动输入页数,避免内容太多 
 
for j in range(0,endPage): 
  url='http://tieba.baidu.com/f?kw=%E7%BE%8E%E5%A5%B3&ie=utf-8&pn='+str(j)      #页数的url地址 
  html=urllib2.urlopen(url).read()                #读取首页的内容 
  selector=etree.HTML(html)              #转换为xml,用于在接下来识别 
  links=selector.xpath('//div/a[@class="j_th_tit"][email protected]')        #抓取当前页面的所有帖子的url 
 
#大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷 
 
  for i in links: 
    url1="http://tieba.baidu.com"+i      #因为爬取到的地址是相对地址,所以要加上百度的domain 
    html2=urllib2.urlopen(url1).read()      #读取当前页面的内容 
    selector=etree.HTML(html2)          #转换为xml用于识别 
    link=selector.xpath('//img[@class="BDE_Image"][email protected]')    #抓取图片,各位也可以更换为正则,或者其他你想要的内容 
 
#此处就是遍历下载 
    for each in link: 
      #print each 
      print u'正在下载%d'%k 
      fp=open('image/'+str(k)+'.bmp','wb')      #下载在当前目录下 image文件夹内,图片格式为bmp 
      image1=urllib2.urlopen(each).read()        #读取图片的内容 
      fp.write(image1)                  #写入图片 
      fp.close() 
      k+=1    #k就是文件的名字,每下载一个文件就加1 
 
print u'下载完成!'

原创文章,作者:Maggie-Hunter,如若转载,请注明出处:https://blog.ytso.com/8031.html

(0)
上一篇 2021年7月18日
下一篇 2021年7月18日

相关推荐

发表回复

登录后才能评论