<span id="mktg5"></span>

<i id="mktg5"><meter id="mktg5"></meter></i>

        <label id="mktg5"><meter id="mktg5"></meter></label>
        最新文章專題視頻專題問答1問答10問答100問答1000問答2000關(guān)鍵字專題1關(guān)鍵字專題50關(guān)鍵字專題500關(guān)鍵字專題1500TAG最新視頻文章推薦1 推薦3 推薦5 推薦7 推薦9 推薦11 推薦13 推薦15 推薦17 推薦19 推薦21 推薦23 推薦25 推薦27 推薦29 推薦31 推薦33 推薦35 推薦37視頻文章20視頻文章30視頻文章40視頻文章50視頻文章60 視頻文章70視頻文章80視頻文章90視頻文章100視頻文章120視頻文章140 視頻2關(guān)鍵字專題關(guān)鍵字專題tag2tag3文章專題文章專題2文章索引1文章索引2文章索引3文章索引4文章索引5123456789101112131415文章專題3
        問答文章1 問答文章501 問答文章1001 問答文章1501 問答文章2001 問答文章2501 問答文章3001 問答文章3501 問答文章4001 問答文章4501 問答文章5001 問答文章5501 問答文章6001 問答文章6501 問答文章7001 問答文章7501 問答文章8001 問答文章8501 問答文章9001 問答文章9501
        當(dāng)前位置: 首頁 - 科技 - 知識百科 - 正文

        python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解)

        來源:懂視網(wǎng) 責(zé)編:小采 時間:2020-11-27 22:27:35
        文檔

        python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解)

        python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解):是小打小鬧 哈哈,現(xiàn)在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網(wǎng)站的結(jié)構(gòu):作為一名河南的學(xué)生,那就看看鄭州的二手房信息吧! 在上面這個頁面中,我們可以看到一條條的房源信息,從中我們發(fā)現(xiàn)了什么,發(fā)現(xiàn)了連鄭州的二手房都是這么的貴,作為即將
        推薦度:
        導(dǎo)讀python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解):是小打小鬧 哈哈,現(xiàn)在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網(wǎng)站的結(jié)構(gòu):作為一名河南的學(xué)生,那就看看鄭州的二手房信息吧! 在上面這個頁面中,我們可以看到一條條的房源信息,從中我們發(fā)現(xiàn)了什么,發(fā)現(xiàn)了連鄭州的二手房都是這么的貴,作為即將

        是小打小鬧

        哈哈,現(xiàn)在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網(wǎng)站的結(jié)構(gòu):作為一名河南的學(xué)生,那就看看鄭州的二手房信息吧!

        在上面這個頁面中,我們可以看到一條條的房源信息,從中我們發(fā)現(xiàn)了什么,發(fā)現(xiàn)了連鄭州的二手房都是這么的貴,作為即將畢業(yè)的學(xué)生狗惹不起啊惹不起

        還是正文吧!!!由上可以看到網(wǎng)頁一條條的房源信息,點擊進去后就會發(fā)現(xiàn):

        房源的詳細信息。OK!那么我們要干嘛呢,就是把鄭州這個地區(qū)的二手房房源信息都能拿到手,可以保存到數(shù)據(jù)庫中,用來干嘛呢,作為一個地理人,還是有點用處的,這次就不說了好,正式開始,首先我采用python3.6 中的requests,BeautifulSoup模塊來進行爬取頁面,首先由requests模塊進行請求:

        # 網(wǎng)頁的請求頭
        header = {
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
        }
        # url鏈接
        url = 'https://zhengzhou.anjuke.com/sale/'
        response = requests.get(url, headers=header)
        print(response.text)

        執(zhí)行后就會得到這個網(wǎng)站的html代碼了

        通過分析可以得到每個房源都在class="list-item"的 li 標(biāo)簽中,那么我們就可以根據(jù)BeautifulSoup包進行提取

        # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
        soup = BeautifulSoup(response.text, 'html.parser')
        result_li = soup.find_all('li', {'class': 'list-item'})
        for i in result_li:
         print(i)

        通過打印就能進一步減少了code量,好,繼續(xù)提取

        # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
        soup = BeautifulSoup(response.text, 'html.parser')
        result_li = soup.find_all('li', {'class': 'list-item'})
        # 進行循環(huán)遍歷其中的房源詳細列表
        for i in result_li:
         # 由于BeautifulSoup傳入的必須為字符串,所以進行轉(zhuǎn)換
         page_url = str(i)
         soup = BeautifulSoup(page_url, 'html.parser')
         # 由于通過class解析的為一個列表,所以只需要第一個參數(shù)
         result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
         print(result_href.attrs['href'])

        這樣,我們就能看到一個個的url了,是不是很喜歡

        好了,按正常的邏輯就要進入頁面開始分析詳細頁面了,但是爬取完后如何進行下一頁的爬取呢所以,我們就需要先分析該頁面是否有下一頁

        同樣的方法就可以發(fā)現(xiàn)下一頁同樣是如此的簡單,那么咱們就可以還是按原來的配方原來的味道繼續(xù)

        # 進行下一頁的爬取
        result_next_page = soup.find_all('a', {'class': 'aNxt'})
        if len(result_next_page) != 0:
         print(result_next_page[0].attrs['href'])
        else:
         print('沒有下一頁了')

        因為當(dāng)存在下一頁的時候,網(wǎng)頁中就是一個a標(biāo)簽,如果沒有的話,就會成為i標(biāo)簽了,所以這樣的就行,因此,我們就能完善一下,將以上這些封裝為一個函數(shù)

        import requests
        from bs4 import BeautifulSoup
        
        # 網(wǎng)頁的請求頭
        header = {
         'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
        }
        
        def get_page(url):
         response = requests.get(url, headers=header)
        
         # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
         soup = BeautifulSoup(response.text, 'html.parser')
         result_li = soup.find_all('li', {'class': 'list-item'})
        
         # 進行下一頁的爬取
         result_next_page = soup.find_all('a', {'class': 'aNxt'})
         if len(result_next_page) != 0:
         # 函數(shù)進行遞歸
         get_page(result_next_page[0].attrs['href'])
         else:
         print('沒有下一頁了')
        
         # 進行循環(huán)遍歷其中的房源詳細列表
         for i in result_li:
         # 由于BeautifulSoup傳入的必須為字符串,所以進行轉(zhuǎn)換
         page_url = str(i)
         soup = BeautifulSoup(page_url, 'html.parser')
         # 由于通過class解析的為一個列表,所以只需要第一個參數(shù)
         result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
         # 先不做分析,等一會進行詳細頁面函數(shù)完成后進行調(diào)用
         print(result_href.attrs['href'])
        
        
        if __name__ == '__main__':
         # url鏈接
         url = 'https://zhengzhou.anjuke.com/sale/'
         # 頁面爬取函數(shù)調(diào)用
         get_page(url)

        好了,那么咱們就開始詳細頁面的爬取了

        哎,怎么動不動就要斷電了,大學(xué)的坑啊,先把結(jié)果附上,閑了在補充,

        import requests
        from bs4 import BeautifulSoup
        
        # 網(wǎng)頁的請求頭
        header = {
         'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
        }
        
        def get_page(url):
         response = requests.get(url, headers=header)
        
         # 通過BeautifulSoup進行解析出每個房源詳細列表并進行打印
         soup_idex = BeautifulSoup(response.text, 'html.parser')
         result_li = soup_idex.find_all('li', {'class': 'list-item'})
        
         # 進行循環(huán)遍歷其中的房源詳細列表
         for i in result_li:
         # 由于BeautifulSoup傳入的必須為字符串,所以進行轉(zhuǎn)換
         page_url = str(i)
         soup = BeautifulSoup(page_url, 'html.parser')
         # 由于通過class解析的為一個列表,所以只需要第一個參數(shù)
         result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]
         # 詳細頁面的函數(shù)調(diào)用
         get_page_detail(result_href.attrs['href'])
        
        
         # 進行下一頁的爬取
         result_next_page = soup_idex.find_all('a', {'class': 'aNxt'})
         if len(result_next_page) != 0:
         # 函數(shù)進行遞歸
         get_page(result_next_page[0].attrs['href'])
         else:
         print('沒有下一頁了')
        
        # 進行字符串中空格,換行,tab鍵的替換及刪除字符串兩邊的空格刪除
        def my_strip(s):
         return str(s).replace(" ", "").replace("\n", "").replace("\t", "").strip()
        # 由于頻繁進行BeautifulSoup的使用,封裝一下,很雞肋
        def my_Beautifulsoup(response):
         return BeautifulSoup(str(response), 'html.parser')
        
        
        
        # 詳細頁面的爬取
        def get_page_detail(url):
         response = requests.get(url, headers=header)
         if response.status_code == 200:
         soup = BeautifulSoup(response.text, 'html.parser')
         # 標(biāo)題什么的一大堆,哈哈
         result_title = soup.find_all('h3', {'class': 'long-title'})[0]
         result_price = soup.find_all('span', {'class': 'light info-tag'})[0]
         result_house_1 = soup.find_all('div', {'class': 'first-col detail-col'})
         result_house_2 = soup.find_all('div', {'class': 'second-col detail-col'})
         result_house_3 = soup.find_all('div', {'class': 'third-col detail-col'})
         soup_1 = my_Beautifulsoup(result_house_1)
         soup_2 = my_Beautifulsoup(result_house_2)
         soup_3 = my_Beautifulsoup(result_house_3)
         result_house_tar_1 = soup_1.find_all('dd')
         result_house_tar_2 = soup_2.find_all('dd')
         result_house_tar_3 = soup_3.find_all('dd')
         '''
         文博公寓,省實驗中學(xué),首付只需70萬,大三房,誠心賣,價可談 270萬
         宇泰文博公寓 金水-花園路-文博東路4號 2010年 普通住宅
         3室2廳2衛(wèi) 140平方米 南北 中層(共32層)
         精裝修 19285元/m² 81.00萬
         '''
         print(my_strip(result_title.text), my_strip(result_price.text))
         print(my_strip(result_house_tar_1[0].text),
         my_strip(my_Beautifulsoup(result_house_tar_1[1]).find_all('p')[0].text),
         my_strip(result_house_tar_1[2].text), my_strip(result_house_tar_1[3].text))
         print(my_strip(result_house_tar_2[0].text), my_strip(result_house_tar_2[1].text),
         my_strip(result_house_tar_2[2].text), my_strip(result_house_tar_2[3].text))
         print(my_strip(result_house_tar_3[0].text), my_strip(result_house_tar_3[1].text),
         my_strip(result_house_tar_3[2].text))
        
        if __name__ == '__main__':
         # url鏈接
         url = 'https://zhengzhou.anjuke.com/sale/'
         # 頁面爬取函數(shù)調(diào)用
         get_page(url)

        由于自己邊寫博客,邊寫的代碼,所以get_page函數(shù)中進行了一些改變,就是下一頁的遞歸調(diào)用需要放在函數(shù)后面,以及進行封裝了兩個函數(shù)沒有介紹,

        而且數(shù)據(jù)存儲到mysql也沒有寫,所以后期會繼續(xù)跟進的,thank you!!!

        以上這篇python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解)就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

        聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。TEL:177 7030 7066 E-MAIL:11247931@qq.com

        文檔

        python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解)

        python爬取安居客二手房網(wǎng)站數(shù)據(jù)(實例講解):是小打小鬧 哈哈,現(xiàn)在開始正式進行爬蟲書寫首先,需要分析一下要爬取的網(wǎng)站的結(jié)構(gòu):作為一名河南的學(xué)生,那就看看鄭州的二手房信息吧! 在上面這個頁面中,我們可以看到一條條的房源信息,從中我們發(fā)現(xiàn)了什么,發(fā)現(xiàn)了連鄭州的二手房都是這么的貴,作為即將
        推薦度:
        • 熱門焦點

        最新推薦

        猜你喜歡

        熱門推薦

        專題
        Top
        主站蜘蛛池模板: 国产国产人免费视频成69堂| 美女被cao网站免费看在线看| 波多野结衣在线免费视频| 亚洲AV午夜成人片| 久久免费看少妇高潮V片特黄| 亚洲成年轻人电影网站www| 黄色免费在线网站| 亚洲伊人tv综合网色| 在线a免费观看最新网站| 亚洲国产精品无码久久久| 久久99九九国产免费看小说| 亚洲国产区男人本色在线观看| 国色精品卡一卡2卡3卡4卡免费| 亚洲精品免费网站| 国产午夜免费福利红片| 一个人看的www视频免费在线观看 一个人看的免费观看日本视频www | 国产aⅴ无码专区亚洲av| 久久国产免费观看精品| 亚洲黄色免费电影| 国产麻豆免费观看91| 免费播放国产性色生活片| a级亚洲片精品久久久久久久| 在线毛片片免费观看| 亚洲av永久综合在线观看尤物| 日韩免费视频观看| 九九99热免费最新版| 亚洲日本在线看片| 日本一道本高清免费| 在线观看免费视频网站色| 亚洲美女大bbbbbbbbb| 在线jlzzjlzz免费播放| 国产免费A∨在线播放| 亚洲黄色免费观看| 免费成人在线观看| 四虎免费影院ww4164h| 国产精品亚洲а∨无码播放麻豆 | 国产又黄又爽又猛的免费视频播放| eeuss影院免费92242部| 亚洲国产视频一区| AV在线亚洲男人的天堂| 97在线观免费视频观看 |