用Python寫的糗事百科的網絡爬蟲。
使用方法:
新建一個Bug.py文件,然后將代碼復制到里面后,雙擊運行。
程序功能:
在命令提示行中瀏覽糗事百科。
原理解釋:
首先,先瀏覽一下糗事百科的主頁:http://www.qiushibaike.com/hot/page/1
可以看出來,鏈接中page/后面的數字就是對應的頁碼,記住這一點為以后的編寫做準備。
然后,右擊查看頁面源碼:
觀察發現,每一個段子都用div標記,其中class必為content,title是發帖時間,我們只需要用正則表達式將其“扣”出來就可以了。
明白了原理之后,剩下的就是正則表達式的內容了,可以參照這篇文章:
http://www.bitsCN.com/article/57150.htm
運行效果:
代碼如下:
# -*- coding: utf-8 -*-
import urllib2
import urllib
import re
import thread
import time
#----------- 加載處理糗事百科 -----------
class Spider_Model:
def __init__(self):
self.page = 1
self.pages = []
self.enable = False
# 將所有的段子都扣出來,添加到列表中并且返回列表
def GetPage(self,page):
myUrl = "http://m.qiushibaike.com/hot/page/" + page
user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'
headers = { 'User-Agent' : user_agent }
req = urllib2.Request(myUrl, headers = headers)
myResponse = urllib2.urlopen(req)
myPage = myResponse.read()
#encode的作用是將unicode編碼轉換成其他編碼的字符串
#decode的作用是將其他編碼的字符串轉換成unicode編碼
unicodePage = myPage.decode("utf-8")
# 找出所有class="content"的div標記
#re.S是任意匹配模式,也就是.可以匹配換行符
myItems = re.findall('(.*?)',unicodePage,re.S)
items = []
for item in myItems:
# item 中第一個是div的標題,也就是時間
# item 中第二個是div的內容,也就是內容
items.append([item[0].replace("\n",""),item[1].replace("\n","")])
return items
# 用于加載新的段子
def LoadPage(self):
# 如果用戶未輸入quit則一直運行
while self.enable:
# 如果pages數組中的內容小于2個
if len(self.pages) < 2:
try:
# 獲取新的頁面中的段子們
myPage = self.GetPage(str(self.page))
self.page += 1
self.pages.append(myPage)
except:
print '無法鏈接糗事百科!'
else:
time.sleep(1)
def ShowPage(self,nowPage,page):
for items in nowPage:
print u'第%d頁' % page , items[0] , items[1]
myInput = raw_input()
if myInput == "quit":
self.enable = False
break
def Start(self):
self.enable = True
page = self.page
print u'正在加載中請稍候......'
# 新建一個線程在后臺加載段子并存儲
thread.start_new_thread(self.LoadPage,())
#----------- 加載處理糗事百科 -----------
while self.enable:
# 如果self的page數組中存有元素
if self.pages:
nowPage = self.pages[0]
del self.pages[0]
self.ShowPage(nowPage,page)
page += 1
#----------- 程序的入口處 -----------
print u"""
---------------------------------------
程序:糗百爬蟲
版本:0.3
作者:why
日期:2014-06-03
語言:Python 2.7
操作:輸入quit退出閱讀糗事百科
功能:按下回車依次瀏覽今日的糗百熱點
---------------------------------------
"""
print u'請按下回車瀏覽今日的糗百內容:'
raw_input(' ')
myModel = Spider_Model()
myModel.Start()
Q&A:
1.為什么有段時間顯示糗事百科不可用?
答:前段時間因為糗事百科添加了Header的檢驗,導致無法爬取,需要在代碼中模擬Header。現在代碼已經作了修改,可以正常使用。
2.為什么需要單獨新建個線程?
答:基本流程是這樣的:爬蟲在后臺新起一個線程,一直爬取兩頁的糗事百科,如果剩余不足兩頁,則再爬一頁。用戶按下回車只是從庫存中獲取最新的內容,而不是上網獲取,所以瀏覽更順暢。也可以把加載放在主線程,不過這樣會導致爬取過程中等待時間過長的問題。
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com