日韩久久久精品,亚洲精品久久久久久久久久久,亚洲欧美一区二区三区国产精品 ,一区二区福利

Python實現爬取知乎神回復簡單爬蟲代碼分享

系統 2067 0

看知乎的時候發現了一個 “如何正確地吐槽” 收藏夾,里面的一些神回復實在很搞笑,但是一頁一頁地看又有點麻煩,而且每次都要打開網頁,于是想如果全部爬下來到一個文件里面,是不是看起來很爽,并且隨時可以看到全部的,于是就開始動手了。

工具

1.Python 2.7
2.BeautifulSoup

分析網頁

我們先來看看知乎上該網頁的情況

網址: ,容易看到,網址是有規律的,page慢慢遞增,這樣就能夠實現全部爬取了。

再來看一下我們要爬取的內容:

Python實現爬取知乎神回復簡單爬蟲代碼分享_第1張圖片 我們要爬取兩個內容:問題和回答,回答僅限于顯示了全部內容的回答,如下面這種就不能爬取,因為好像無法展開(反正我不會。。),再說答案不全的話爬來也沒用,所以就不爬答案不全的了吧。

Python實現爬取知乎神回復簡單爬蟲代碼分享_第2張圖片

好,那么下面我們要找到他們在網頁源代碼中的位置:

即我們找到問題的內容包含在

中,那么我們等會就可以在這個標簽里面找問題。

然后是回復:

Python實現爬取知乎神回復簡單爬蟲代碼分享_第3張圖片 有兩個地方都有回復的內容,因為上面那個的內容還包括了 等一些內容,不方便處理,我們爬下面那個的內容,因為那個里面的內容純正無污染。

代碼

好,這時候我們試著寫出python代碼:

復制代碼 代碼如下:

# -*- coding: cp936 -*-
import urllib2
from BeautifulSoup import BeautifulSoup

f = open('howtoTucao.txt','w')???? #打開文件

for pagenum in range(1,21):??????? #從第1頁爬到第20頁

??? strpagenum = str(pagenum)????? #頁數的str表示
??? print "Getting data for Page " + strpagenum?? #shell里面顯示的,表示已爬到多少頁
??? url = "http://www.zhihu.com/collection/27109279?page="+strpagenum? #網址
??? page = urllib2.urlopen(url)???? #打開網頁
??? soup = BeautifulSoup(page)????? #用BeautifulSoup解析網頁
???
??? #找到具有class屬性為下面兩個的所有Tag
??? ALL = soup.findAll(attrs = {'class' : ['zm-item-title','zh-summary summary clearfix'] })

??? for each in ALL :?????????????? #枚舉所有的問題和回答
??????? #print type(each.string)
??????? #print each.name
??????? if each.name == 'h2' :????? #如果Tag為h2類型,說明是問題
??????????? print each.a.string???? #問題中還有一個 ,所以要each.a.string取出內容
??????????? if each.a.string:?????? #如果非空,才能寫入
??????????????? f.write(each.a.string)
??????????? else :????????????????? #否則寫"No Answer"
??????????????? f.write("No Answer")
??????? else :????????????????????? #如果是回答,同樣寫入
??????????? print each.string
??????????? if each.string:
??????????????? f.write(each.string)
??????????? else :
??????????????? f.write("No Answer")
f.close()?????????????????????????? #關閉文件

代碼雖然不常,可是寫了我半天,開始各種出問題。

運行

然后我們運行就可以爬了:

Python實現爬取知乎神回復簡單爬蟲代碼分享_第4張圖片 結果

等運行完畢,我們打開文件howtoTucao.txt,可以看到,這樣就爬取成功了。只是格式可能還是有點問題,原來是我No Answer沒加換行,所以No Answer還會混到文本里面去,加兩個換行就可以了。

Python實現爬取知乎神回復簡單爬蟲代碼分享_第5張圖片


更多文章、技術交流、商務合作、聯系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 临泽县| 鹤壁市| 乌审旗| 新余市| 兴和县| 塔河县| 洞头县| 吴忠市| 宁德市| 保亭| 威海市| 舒城县| 峨眉山市| 明水县| 桃园县| 长海县| 六枝特区| 泗阳县| 黄龙县| 盖州市| 双城市| 宁远县| 邢台县| 信丰县| 滕州市| 罗江县| 潼南县| 宜城市| 漯河市| 安溪县| 宣化县| 五寨县| 门源| 肇庆市| 兴文县| 宁化县| 景洪市| 长岭县| 凭祥市| 沿河| 深州市|