<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關鍵字專題1關鍵字專題50關鍵字專題500關鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關鍵字專題關鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當前位置: 首頁 - 科技 - 知識百科 - 正文

        python爬蟲防止IP被封的方法

        來源:懂視網 責編:小采 時間:2020-11-27 14:20:21
        文檔

        python爬蟲防止IP被封的方法

        python爬蟲防止IP被封的方法:在編寫爬蟲爬取數據的時候,尤其是爬取大量數據的時候,因為很多網站都有反爬蟲措施,所以很容易被封IP,就不能繼續爬了。本文就如何解決這個問題總結出一些應對措施,這些措施可以單獨使用,也可以同時使用,效果更好。偽造User-Agent在請求頭中把User-
        推薦度:
        導讀python爬蟲防止IP被封的方法:在編寫爬蟲爬取數據的時候,尤其是爬取大量數據的時候,因為很多網站都有反爬蟲措施,所以很容易被封IP,就不能繼續爬了。本文就如何解決這個問題總結出一些應對措施,這些措施可以單獨使用,也可以同時使用,效果更好。偽造User-Agent在請求頭中把User-

        在編寫爬蟲爬取數據的時候,尤其是爬取大量數據的時候,因為很多網站都有反爬蟲措施,所以很容易被封IP,就不能繼續爬了。本文就如何解決這個問題總結出一些應對措施,這些措施可以單獨使用,也可以同時使用,效果更好。

        偽造User-Agent

        在請求頭中把User-Agent設置成瀏覽器中的User-Agent,來偽造瀏覽器訪問。比如:

        headers = {'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.116 Safari/537.36'}
        resp = requests.get(url,headers = headers)

        在每次重復爬取之間設置一個隨機時間間隔

        # 比如:
        time.sleep(random.randint(0,3)) # 暫停0~3秒的整數秒,時間區間:[0,3]
        # 或:
        time.sleep(random.random()) # 暫停0~1秒,時間區間:[0,1)

        偽造cookies

        若從瀏覽器中可以正常訪問一個頁面,則可以將瀏覽器中的cookies復制過來使用,比如:

        cookies = dict(uuid='b18f0e70-8705-470d-bc4b-09a8da617e15',UM_distinctid='15d188be71d50-013c49b12ec14a-3f73035d-100200-15d188be71ffd')
        resp = requests.get(url,cookies = cookies)
        # 把瀏覽器的cookies字符串轉成字典
        def cookies2dict(cookies):
         items = cookies.split(';')
         d = {}
         for item in items:
         kv = item.split('=',1)
         k = kv[0]
         v = kv[1]
         d[k] = v
         return d

        注:用瀏覽器cookies發起請求后,如果請求頻率過于頻繁仍會被封IP,這時可以在瀏覽器上進行相應的手工驗證(比如點擊驗證圖片等),然后就可以繼續正常使用該cookies發起請求。

        使用代理

        可以換著用多個代理IP來進行訪問,防止同一個IP發起過多請求而被封IP,比如:

        proxies = {'http':'http://10.10.10.10:8765','https':'https://10.10.10.10:8765'}
        resp = requests.get(url,proxies = proxies)
        # 注:免費的代理IP可以在這個網站上獲取:http://www.xicidaili.com/nn/

        【推薦課程:Python視頻教程】

        聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        python爬蟲防止IP被封的方法

        python爬蟲防止IP被封的方法:在編寫爬蟲爬取數據的時候,尤其是爬取大量數據的時候,因為很多網站都有反爬蟲措施,所以很容易被封IP,就不能繼續爬了。本文就如何解決這個問題總結出一些應對措施,這些措施可以單獨使用,也可以同時使用,效果更好。偽造User-Agent在請求頭中把User-
        推薦度:
        標簽: 方法 的方法 ip
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 中文字幕人成人乱码亚洲电影| 无码AV片在线观看免费| 精品国产日韩久久亚洲| 亚洲欧美日韩中文无线码| 日本高清不卡中文字幕免费| 无码人妻一区二区三区免费视频| 国偷自产一区二区免费视频| 99久久这里只精品国产免费| 日本黄色免费观看| 亚洲AV电影院在线观看| 中文字幕无码精品亚洲资源网久久 | 久久精品国产免费观看三人同眠| 国产美女在线精品免费观看| 亚洲中文字幕无码一区二区三区| 成人免费乱码大片A毛片| 国产精品成人免费视频网站京东| 亚洲男人天堂2022| 国产一区二区三区在线观看免费| 亚洲人成电影福利在线播放| 亚洲av日韩综合一区久热| 国产精品视频白浆免费视频| 好爽好紧好大的免费视频国产 | 曰批全过程免费视频观看免费软件 | 亚洲熟女乱色一区二区三区 | 美女18毛片免费视频| 久久国产精品免费网站| 亚洲理论精品午夜电影| 视频免费在线观看| 免费在线黄色网址| 亚洲人成网站18禁止| 高清在线亚洲精品国产二区| 亚洲精品一卡2卡3卡四卡乱码| 免费国产在线观看不卡| 你好老叔电影观看免费| 亚洲av永久无码嘿嘿嘿| 色影音免费色资源| 内射少妇36P亚洲区| 无码国产精品一区二区免费式芒果 | 日本中文字幕免费看| 久久精品国产亚洲AV果冻传媒| 免费无码AV一区二区|