600字范文,内容丰富有趣,生活中的好帮手!
600字范文 > Python爬虫 用于抓取豆瓣电影Top前100的电影的名称

Python爬虫 用于抓取豆瓣电影Top前100的电影的名称

时间:2018-12-20 15:06:41

相关推荐

Python爬虫 用于抓取豆瓣电影Top前100的电影的名称

初步接触python爬虫(其实python也是才起步),发现一段代码研究了一下,觉得还比较有用处,Mark下。

上代码:

#!/usr/bin/python#coding=utf-8#Author: Andrew_liu#mender:cy"""一个简单的Python爬虫, 用于抓取豆瓣电影Top前100的电影的名称Anthor: Andrew_liumender:cyVersion: 0.0.2Date: -03-02Language: Python2.7.12Editor: JetBrains PyCharm 4.5.4"""import stringimport reimport urllib2import timeclass DouBanSpider(object) :"""类的简要说明主要用于抓取豆瓣Top100的电影名称Attributes:page: 用于表示当前所处的抓取页面cur_url: 用于表示当前争取抓取页面的urldatas: 存储处理好的抓取到的电影名称_top_num: 用于记录当前的top号码"""def __init__(self):self.page = 1self.cur_url = "/top250?start={page}&filter=&type="self.datas = []self._top_num = 1print u"豆瓣电影爬虫准备就绪, 准备爬取数据..."def get_page(self, cur_page):"""根据当前页码爬取网页HTMLArgs:cur_page: 表示当前所抓取的网站页码Returns:返回抓取到整个页面的HTML(unicode编码)Raises:URLError:url引发的异常"""url = self.cur_urltry:my_page = urllib2.urlopen(url.format(page=(cur_page - 1) * 25)).read().decode("utf-8")except urllib2.URLError, e:if hasattr(e, "code"):print "The server couldn't fulfill the request."print "Error code: %s" % e.codeelif hasattr(e, "reason"):print "We failed to reach a server. Please check your url and read the Reason"print "Reason: %s" % e.reasonreturn my_pagedef find_title(self, my_page):"""通过返回的整个网页HTML, 正则匹配前100的电影名称Args:my_page: 传入页面的HTML文本用于正则匹配"""temp_data = []movie_items = re.findall(r'<span.*?class="title">(.*?)</span>', my_page, re.S)for index, item in enumerate(movie_items):if item.find("&nbsp") == -1:temp_data.append("Top" + str(self._top_num) + " " + item)self._top_num += 1self.datas.extend(temp_data)def start_spider(self):"""爬虫入口, 并控制爬虫抓取页面的范围"""while self.page <= 4:my_page = self.get_page(self.page)self.find_title(my_page)self.page += 1def main():print u"""###############################一个简单的豆瓣电影前100爬虫Author: Andrew_liumender: cyVersion: 0.0.2Date: -03-02###############################"""my_spider = DouBanSpider()my_spider.start_spider()fobj = open('/data/moxiaokai/HelloWorld/cyTest/blogcode/top_move.txt', 'w+')for item in my_spider.datas:print itemfobj.write(item.encode("utf-8")+'\n')time.sleep(0.1)print u"豆瓣爬虫爬取完成"if __name__ == '__main__':main()

运行结果:

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。