<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        Python多線程爬蟲實戰_爬取糗事百科段子的實例_python

        來源:懂視網 責編:小OO 時間:2020-11-27 14:22:33
        文檔

        Python多線程爬蟲實戰_爬取糗事百科段子的實例_python

        多線程爬蟲:即程序中的某些程序段并行執行。合理地設置多線程,可以讓爬蟲效率更高。糗事百科段子普通爬蟲和多線程爬蟲。分析該網址鏈接得出。https://www.qiushibaike.com/8hr/page/頁碼/。多線程爬蟲也就和JAVA的多線程差不多,直接上代碼。
        推薦度:
        導讀多線程爬蟲:即程序中的某些程序段并行執行。合理地設置多線程,可以讓爬蟲效率更高。糗事百科段子普通爬蟲和多線程爬蟲。分析該網址鏈接得出。https://www.qiushibaike.com/8hr/page/頁碼/。多線程爬蟲也就和JAVA的多線程差不多,直接上代碼。

        下面小編就為大家分享一篇Python多線程爬蟲實戰_爬取糗事百科段子的實例,具有很好的參考價值,希望對大家有所幫助。對Python感興趣的小伙伴們一起跟隨小編過來看看吧

        多線程爬蟲:即程序中的某些程序段并行執行,

        合理地設置多線程,可以讓爬蟲效率更高

        糗事百科段子普通爬蟲和多線程爬蟲

        分析該網址鏈接得出:

        https://www.qiushibaike.com/8hr/page/頁碼/

        多線程爬蟲也就和JAVA的多線程差不多,直接上代碼

        '''
        #此處代碼為普通爬蟲
        import urllib.request
        import urllib.error
        import re
        headers = ("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36")
        opener = urllib.request.build_opener()
        opener.addheaders = [headers]
        urllib.request.install_opener(opener)
        for i in range(1,2):
         url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/"
         pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore")
         pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>'
         datalist = re.compile(pattern,re.S).findall(pagedata)
         for j in range(0,len(datalist)):
         print("第"+str(i)+"頁第"+str(j)+"個段子內容是:")
         print(datalist[j])
        '''
        '''
        #此處為多線程介紹代碼
        import threading #導入多線程包
        class A(threading.Thread): #創建一個多線程A
         def init(self): #必須包含的兩個方法之一:初始化線程
         threading.Thread.init(self)
         def run(self): #必須包含的兩個方法之一:線程運行方法
         for i in range(0,11):
         print("我是線程A")
        class B(threading.Thread): #創建一個多線程A
         def init(self): #必須包含的兩個方法之一:初始化線程
         threading.Thread.init(self)
         def run(self): #必須包含的兩個方法之一:線程運行方法
         for i in range(0,11):
         print("我是線程B")
        t1 = A() #線程實例化
        t1.start() #線程運行
        t2 = B()
        t2.start()
        '''
        
        #此處為修改后的多線程爬蟲
        #使用多線程進行奇偶頁的爬取
        import urllib.request
        import urllib.error
        import re
        import threading
        headers = ("User-Agent","Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36")
        opener = urllib.request.build_opener()
        opener.addheaders = [headers]
        urllib.request.install_opener(opener)
        class one(threading.Thread): #爬取奇數頁內容
         def init(self):
         threading.Thread.init(self)
         def run(self):
         for i in range(1,12,2):
         url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/"
         pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore")
         pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>'
         datalist = re.compile(pattern,re.S).findall(pagedata)
         for j in range(0,len(datalist)):
         print("第"+str(i)+"頁第"+str(j)+"段子內容為:")
         print(datalist[j])
        
        class two(threading.Thread): #爬取奇數頁內容
         def init(self):
         threading.Thread.init(self)
         def run(self):
         for i in range(2,12,2):
         url = "https://www.qiushibaike.com/8hr/page/"+str(i)+"/"
         pagedata = urllib.request.urlopen(url).read().decode("utf-8","ignore")
         pattern = '<p class="content">.*?<span>(.*?)</span>(.*?)</p>'
         datalist = re.compile(pattern,re.S).findall(pagedata)
         for j in range(0,len(datalist)):
         print("第"+str(i)+"頁第"+str(j)+"段子內容為:")
         print(datalist[j])
        t1 = one()
        t2 = two()
        t1.start()
        t2.start()

        以上這篇Python多線程爬蟲實戰_爬取糗事百科段子的實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持PHP中文網。

        相關推薦:

        Python數據結構與算法之常見的分配排序法示例【桶排序與基數排序】_python

        Python中xlwt設置excel單元格字體及格式方法

        Python語言實現百度語音識別功能的實例

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        Python多線程爬蟲實戰_爬取糗事百科段子的實例_python

        多線程爬蟲:即程序中的某些程序段并行執行。合理地設置多線程,可以讓爬蟲效率更高。糗事百科段子普通爬蟲和多線程爬蟲。分析該網址鏈接得出。https://www.qiushibaike.com/8hr/page/頁碼/。多線程爬蟲也就和JAVA的多線程差不多,直接上代碼。
        推薦度:
        標簽: 段子 百科 python
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 国产成人亚洲综合一区| 亚洲成人黄色在线| 综合一区自拍亚洲综合图区 | 亚洲一区二区三区日本久久九| a级毛片免费高清视频| 中文字幕亚洲激情| 13小箩利洗澡无码视频网站免费| 久久精品国产亚洲网站| 国产成人久久AV免费| 亚洲综合久久1区2区3区| 国产一卡2卡3卡4卡2021免费观看| 亚洲欧洲日产国码二区首页| 国产卡二卡三卡四卡免费网址| 亚洲第一成人在线| 亚洲国产成人一区二区三区| 全黄大全大色全免费大片| 婷婷精品国产亚洲AV麻豆不片| 特级精品毛片免费观看| 国产一级做a爱免费视频| 羞羞漫画登录页面免费| 国产亚洲色婷婷久久99精品91| 99久久成人国产精品免费| 亚洲国产精品无码久久久| 日本特黄特色免费大片| 日本一区二区三区在线视频观看免费 | 国产成人免费高清在线观看 | 亚洲国产综合精品中文第一| 国产乱弄免费视频| a级毛片免费观看视频| 亚洲xxxxxx| 亚洲一区二区三区在线视频| 日本一道本不卡免费| 亚洲午夜无码久久久久软件| 亚洲精品tv久久久久| 久久久精品2019免费观看 | 一本岛v免费不卡一二三区| 亚洲2022国产成人精品无码区| 成人免费无毒在线观看网站 | 国产成人精品日本亚洲18图| 亚洲av区一区二区三| 亚洲视频免费在线看|