视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
记录一次用Python写爬虫的心得
2020-11-27 14:27:47 责编:小采
文档


现在网络爬虫有很多方式可以写,比如Node.js或者Go, 甚至PHP都行,我之所以选择Python的原因是因为教程多,可以系统学习,因为光懂得使用Html选择器来爬去页面是不够的,我还要想学习一些爬虫过程中常见的坑,以及一些注意事项,比如修改浏览器的Header之类的小技巧。

代码注释都很详细了,其实只要直接阅读源码即可。

这个爬虫的目的很简单,爬去某个房产网站的楼盘名字+价格+1张图片的下载(单纯测试文件下载功能),以备之后分析房价走势而用,为了不给对方服务器增加太多压力,我只选择了爬取3个页面。

我这里说说几个需要注意的知识点吧:

#记得修改发送的Headers
听说默认发送过去的都是带有python信息的头,很容易被对方网站检查出是一个爬虫机器人,导致IP被封,所以最好让自己的爬虫程序像人类一点,但是这个代码只能起到一般的隐瞒,真的有网站想防止爬虫,你也是骗不过的,上代码:

headers = {"User-Agent":"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_9_5) AppleWebKit 537.36 (KHTML, like Gecko) Chrome",
 "Accept":"text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8"},

#html的选择器,我采用pyquery而不是beautifulsoup
很多书都推荐beautifulsoup,但是作为一个习惯了jquery的人来说,beautifulsoup的语法实在是有点拗口,而且貌似还不支持:first-child等高级复杂的css选择器模式,或者支持,但是我没找到,也不是很仔细看文档。

然后我网上找了一下资料,发现很多人推荐pyquery这个库,自己下来用了一下,发现真的很舒服,所以果断采用了。

#爬虫思路
思路其实很简单:
1.找到某个房产的列表页,分析第二第三页的URL结构;
2.获取每一个列表页的所有列表条目信息的URL,存入python的set()集合中,之所以用set,是为了去掉重复的URL信息。
3.通过获取的房子的URL,进入详情页,再爬去有价值的字段信息,比如图片文字之类的。
4.目前我只进行简单的print数据而已,没有把获取的数据存为本地的json或者CSV格式,这个之后做吧,to be done.

下面是全部代码代码:

#获取页面对象
from urllib.request import urlopen
from urllib.request import urlretrieve
from pyquery import PyQuery as pq
#修改请求头模块,模拟真人访问
import requests
import time
#引入系统对象
import os

#你自己的配置文件,请将config-sample.py重命名为config.py,然后填写对应的值即可
import config

#定义链接集合,以免链接重复
pages = set()
session = requests.Session()
baseUrl = 'http://pic1.ajkimg.com'
downLoadDir = 'images'

#获取所有列表页连接
def getAllPages():
 pageList = []
 i = 1
 while(i < 2):
 newLink = 'http://sh.fang.anjuke.com/loupan/all/p' + str(i) + '/'
 pageList.append(newLink)
 i = i + 1
 return pageList

def getAbsoluteURL(baseUrl, source):
 if source.startswith("http://www."):
 url = "http://"+source[11:] 
 elif source.startswith("http://"):
 url = source
 elif source.startswith("www."):
 url = "http://"+source[4:] 
 else:
 url = baseUrl+"/"+source 
 if baseUrl not in url:
 return None 
 return url

#这个函数内部的路径按照自己的真实情况来写,方便之后的数据导入
def getDownloadPath(baseUrl, absoluteUrl, downloadDirectory): 
 path = absoluteUrl.replace("www.", "")
 path = path.replace(baseUrl, "")
 path = downloadDirectory+path
 directory = os.path.dirname(path)
 if not os.path.exists(directory): 
 os.makedirs(directory)
 return path

#获取当前页面的所有连接
def getItemLinks(url):
 global pages;
 #先判断是否能获取页面
 try:
 req = session.get(url, headers = config.value['headers'])
 #这个判断只能判定是不是404或者500的错误,如果DNS没法解析,是无法判定的
 except IOError as e:
 print('can not reach the page. ')
 print(e)
 
 else: 
 h = pq(req.text)
 #获取第一页的所有房子模块
 houseItems = h('.item-mod')
 #从模块中提取我们需要的信息,比如详情页的URL,价格,略缩图等
 #我倾向只获取详情页的URL,然后在详情页中获取更多的信息
 for houseItem in houseItems.items():
 houseUrl = houseItem.find('.items-name').attr('href')
 #print(houseUrl)
 pages.add(houseUrl)
 
#获取详情页的各种字段,这里可以让用户自己编辑
def getItemDetails(url):
 #先判断是否能获取页面
 try:
 req = session.get(url, headers = config.value['headers'])
 #这个判断只能判定是不是404或者500的错误,如果DNS没法解析,是无法判定的
 except IOError as e:
 print('can not reach the page. ')
 print(e)
 else:
 time.sleep(1)
 h = pq(req.text)

 #get title
 housePrice = h('h1').text() if h('h1') != None else 'none'

 #get price
 housePrice = h('.sp-price').text() if h('.sp-price') != None else 'none'

 #get image url
 houseImage = h('.con a:first-child img').attr('src')
 houseImageUrl = getAbsoluteURL(baseUrl, houseImage)
 if houseImageUrl != None:
 urlretrieve(houseImageUrl, getDownloadPath(baseUrl, houseImageUrl, downLoadDir)) 
 # if bsObj.find('em',{'class','sp-price'}) == None:
 # housePrice = 'None'
 # else:
 # housePrice = bsObj.find('em',{'class','sp-price'}).text;
 # if bsObj.select('.con a:first-child .item img')== None:
 # houseThumbnail = 'None'
 # else:
 # houseThumbnail = bsObj.select('.con a:first-child .item img');

 


#start to run the code
allPages = getAllPages()

for i in allPages:
 getItemLinks(i)
#此时pages 应该充满了很多url的内容
for i in pages:
 getItemDetails(i)
#print(pages)

下载本文
显示全文
专题