項(xiàng)目內(nèi)容:
用Python寫的糗事百科的網(wǎng)絡(luò)爬蟲。
使用方法:
新建一個(gè)Bug.py文件,然后將代碼復(fù)制到里面后,雙擊運(yùn)行。
程序功能:
在命令提示行中瀏覽糗事百科。
原理解釋:
首先,先瀏覽一下糗事百科的主頁:http://www.qiushibaike.com/hot/page/1
可以看出來,鏈接中page/后面的數(shù)字就是對應(yīng)的頁碼,記住這一點(diǎn)為以后的編寫做準(zhǔn)備。
然后,右擊查看頁面源碼:
觀察發(fā)現(xiàn),每一個(gè)段子都用div標(biāo)記,其中class必為content,title是發(fā)帖時(shí)間,我們只需要用正則表達(dá)式將其“扣”出來就可以了。
明白了原理之后,剩下的就是正則表達(dá)式的內(nèi)容了,可以參照這篇文章:
//www.jb51.net/article/57150.htm
運(yùn)行效果:
# -*- coding: utf-8 -*-???
????
import urllib2???
import urllib???
import re???
import thread???
import time?????
#----------- 加載處理糗事百科 -----------???
class Spider_Model:???
???????
??? def __init__(self):???
??????? self.page = 1???
??????? self.pages = []???
??????? self.enable = False???
???
??? # 將所有的段子都扣出來,添加到列表中并且返回列表???
??? def GetPage(self,page):???
??????? myUrl = " http://m.qiushibaike.com/hot/page/" + page???
??????? user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'??
??????? headers = { 'User-Agent' : user_agent }??
??????? req = urllib2.Request(myUrl, headers = headers)??
??????? myResponse = urllib2.urlopen(req)?
??????? myPage = myResponse.read()???
??????? #encode的作用是將unicode編碼轉(zhuǎn)換成其他編碼的字符串???
??????? #decode的作用是將其他編碼的字符串轉(zhuǎn)換成unicode編碼???
??????? unicodePage = myPage.decode("utf-8")???
???
??????? # 找出所有class="content"的div標(biāo)記???
??????? #re.S是任意匹配模式,也就是.可以匹配換行符???
??????? myItems = re.findall('
??????? items = []???
??????? for item in myItems:???
??????????? # item 中第一個(gè)是div的標(biāo)題,也就是時(shí)間???
??????????? # item 中第二個(gè)是div的內(nèi)容,也就是內(nèi)容???
??????????? items.append([item[0].replace("\n",""),item[1].replace("\n","")])???
??????? return items???
???
??? # 用于加載新的段子???
??? def LoadPage(self):???
??????? # 如果用戶未輸入quit則一直運(yùn)行???
??????? while self.enable:???
??????????? # 如果pages數(shù)組中的內(nèi)容小于2個(gè)???
??????????? if len(self.pages) < 2:???
??????????????? try:???
??????????????????? # 獲取新的頁面中的段子們???
??????????????????? myPage = self.GetPage(str(self.page))???
??????????????????? self.page += 1???
??????????????????? self.pages.append(myPage)???
??????????????? except:???
??????????????????? print '無法鏈接糗事百科!'???
??????????? else:???
??????????????? time.sleep(1)???
???????????
??? def ShowPage(self,nowPage,page):???
??????? for items in nowPage:???
??????????? print u'第%d頁' % page , items[0]? , items[1]???
??????????? myInput = raw_input()???
??????????? if myInput == "quit":???
??????????????? self.enable = False???
??????????????? break???
???????????
??? def Start(self):???
??????? self.enable = True???
??????? page = self.page???
???
??????? print u'正在加載中請稍候......'???
???????????
??????? # 新建一個(gè)線程在后臺加載段子并存儲???
??????? thread.start_new_thread(self.LoadPage,())???
???????????
??????? #----------- 加載處理糗事百科 -----------???
??????? while self.enable:???
??????????? # 如果self的page數(shù)組中存有元素???
??????????? if self.pages:???
??????????????? nowPage = self.pages[0]???
??????????????? del self.pages[0]???
??????????????? self.ShowPage(nowPage,page)???
??????????????? page += 1???
????
#----------- 程序的入口處 -----------???
print u"""?
---------------------------------------?
?? 程序:糗百爬蟲?
?? 版本:0.3?
?? 作者:why?
?? 日期:2014-06-03?
?? 語言:Python 2.7?
?? 操作:輸入quit退出閱讀糗事百科?
?? 功能:按下回車依次瀏覽今日的糗百熱點(diǎn)?
---------------------------------------?
"""?
print u'請按下回車瀏覽今日的糗百內(nèi)容:'???
raw_input(' ')???
myModel = Spider_Model()???
myModel.Start()???
Q&A:
1.為什么有段時(shí)間顯示糗事百科不可用?
答:前段時(shí)間因?yàn)轸苁掳倏铺砑恿薍eader的檢驗(yàn),導(dǎo)致無法爬取,需要在代碼中模擬Header。現(xiàn)在代碼已經(jīng)作了修改,可以正常使用。
2.為什么需要單獨(dú)新建個(gè)線程?
答:基本流程是這樣的:爬蟲在后臺新起一個(gè)線程,一直爬取兩頁的糗事百科,如果剩余不足兩頁,則再爬一頁。用戶按下回車只是從庫存中獲取最新的內(nèi)容,而不是上網(wǎng)獲取,所以瀏覽更順暢。也可以把加載放在主線程,不過這樣會導(dǎo)致爬取過程中等待時(shí)間過長的問題。
更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主
微信掃碼或搜索:z360901061

微信掃一掃加我為好友
QQ號聯(lián)系: 360901061
您的支持是博主寫作最大的動(dòng)力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長非常感激您!手機(jī)微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。
【本文對您有幫助就好】元
