python 獲取最新房價信息-以北京房價為例

整個數據獲取的信息是通過房源平臺獲取的,通過下載網頁元素并進行數據提取分析完成整個過程。

成都創新互聯是一家專業從事網站建設、網站制作、網頁設計的品牌網絡公司。如今是成都地區具影響力的網站設計公司,作為專業的成都網站建設公司,成都創新互聯依托強大的技術實力、以及多年的網站運營經驗,為您提供專業的成都網站建設、營銷型網站建設及網站設計開發服務!

【閱讀全文】

導入相關的網頁下載、數據解析、數據處理庫

from fake_useragent import UserAgent  # 身份信息生成庫

from bs4 import BeautifulSoup  # 網頁元素解析庫
import numpy as np  # 科學計算庫
import requests  # 網頁下載庫
from requests.exceptions import RequestException  # 網絡請求異常庫
import pandas as pd  # 數據處理庫

然后,在開始之前初始化一個身份信息生成的對象,用于后面隨機生成網頁下載時的身份信息。

user_agent = UserAgent()

編寫一個網頁下載函數get_html_txt,從相應的url地址下載網頁的html文本。

def get_html_txt(url, page_index):
    '''
    獲取網頁html文本信息
    :param url: 爬取地址
    :param page_index:當前頁數
    :return:
    '''
    try:
        headers = {
            'user-agent': user_agent.random
        }
        response = requests.request("GET", url, headers=headers, timeout=10)
        html_txt = response.text
        return html_txt
    except RequestException as e:
        print('獲取第{0}頁網頁元素失敗!'.format(page_index))
        return ''

編寫網頁元素處理函數catch_html_data,用于解析網頁元素,并將解析后的數據元素保存到csv文件中。

def catch_html_data(url, page_index):
    '''
    處理網頁元素數據
    :param url: 爬蟲地址
    :param page_index:
    :return:
    '''

    # 下載網頁元素
    html_txt = str(get_html_txt(url, page_index))

    if html_txt.strip() != '':

        # 初始化網頁元素對象
        beautifulSoup = BeautifulSoup(html_txt, 'lxml')

        # 解析房源列表
        h_list = beautifulSoup.select('.resblock-list-wrapper li')

        # 遍歷當前房源的詳細信息
        for n in range(len(h_list)):
            h_detail = h_list[n]

            # 提取房源名稱
            h_detail_name = h_detail.select('.resblock-name a.name')
            h_detail_name = [m.get_text() for m in h_detail_name]
            h_detail_name = ' '.join(map(str, h_detail_name))

            # 提取房源類型
            h_detail_type = h_detail.select('.resblock-name span.resblock-type')
            h_detail_type = [m.get_text() for m in h_detail_type]
            h_detail_type = ' '.join(map(str, h_detail_type))

            # 提取房源銷售狀態
            h_detail_status = h_detail.select('.resblock-name span.sale-status')
            h_detail_status = [m.get_text() for m in h_detail_status]
            h_detail_status = ' '.join(map(str, h_detail_status))

            # 提取房源單價信息
            h_detail_price = h_detail.select('.resblock-price .main-price .number')
            h_detail_price = [m.get_text() for m in h_detail_price]
            h_detail_price = ' '.join(map(str, h_detail_price))

            # 提取房源總價信息
            h_detail_total_price = h_detail.select('.resblock-price .second')
            h_detail_total_price = [m.get_text() for m in h_detail_total_price]
            h_detail_total_price = ' '.join(map(str, h_detail_total_price))

            h_info = [h_detail_name, h_detail_type, h_detail_status, h_detail_price, h_detail_total_price]
            h_info = np.array(h_info)
            h_info = h_info.reshape(-1, 5)
            h_info = pd.DataFrame(h_info, columns=['房源名稱', '房源類型', '房源狀態', '房源均價', '房源總價'])
            h_info.to_csv('北京房源信息.csv', mode='a+', index=False, header=False)

        print('第{0}頁房源信息數據存儲成功!'.format(page_index))
    else:
        print('網頁元素解析失敗!')

編寫多線程處理函數,初始化網絡網頁下載地址,并使用多線程啟動調用業務處理函數catch_html_data,啟動線程完成整個業務流程。

import threading  # 導入線程處理模塊


def thread_catch():
    '''
    線程處理函數
    :return:
    '''
    for num in range(1, 50, 3):
        url_pre = "https://bj.fang.lianjia.com/loupan/pg{0}/".format(str(num))
        url_cur = "https://bj.fang.lianjia.com/loupan/pg{0}/".format(str(num + 1))
        url_aft = "https://bj.fang.lianjia.com/loupan/pg{0}/".format(str(num + 2))

        thread_pre = threading.Thread(target=catch_html_data, args=(url_pre, num))
        thread_cur = threading.Thread(target=catch_html_data, args=(url_cur, num + 1))
        thread_aft = threading.Thread(target=catch_html_data, args=(url_aft, num + 2))
        thread_pre.start()
        thread_cur.start()
        thread_aft.start()


thread_catch()

數據存儲結果展示效果

【往期精彩】

辦公自動化:Image圖片轉換成PDF文檔存儲...

python做一個微型美顏圖片處理器,十行代碼即可完成...

用python做一個文本翻譯器,自動將中文翻譯成英文,超方便的!

小王,給這2000個客戶發一下節日祝福的郵件...

python 一行命令開啟網絡間的文件共享...

PyQt5 批量刪除 Excel 重復數據,多個文件、自定義重復項一鍵刪除...

再見XShell,這款國人開源的終端命令行工具更nice!

python 表情包下載器,輕松下載上萬個表情包、斗圖不用愁...

Python 自動清理電腦垃圾文件,一鍵啟動即可...

有了jmespath,處理python中的json數據就變成了一種享受...

解鎖一個新技能,如何在Python代碼中使用表情包...

萬能的list列表,python中的堆棧、隊列實現全靠它!

文章標題:python 獲取最新房價信息-以北京房價為例
標題網址:http://m.kartarina.com/article0/dsoghoo.html

成都網站建設公司_創新互聯,為您提供網頁設計公司微信公眾號網站排名小程序開發ChatGPT面包屑導航

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

商城網站建設
主站蜘蛛池模板: 欧洲精品久久久av无码电影| 无码一区二区三区在线| 国产精品无码翘臀在线观看| 爆乳无码AV一区二区三区 | 精品多人p群无码| 国产精品爽爽V在线观看无码 | 秋霞鲁丝片无码av| 国产三级无码内射在线看| 亚洲中文字幕无码av在线| AV无码小缝喷白浆在线观看| 91精品久久久久久无码| 曰批全过程免费视频在线观看无码| 无码粉嫩小泬无套在线观看| 亚洲AV无码成人精品区在线观看 | 无码福利一区二区三区| 亚洲一区二区三区无码中文字幕| 亚洲AV无码AV吞精久久| 久久精品国产亚洲AV无码偷窥| 国产自无码视频在线观看| 国产精品无码一区二区在线| 日韩国产成人无码av毛片| 亚洲AV无码专区在线播放中文| 免费看无码自慰一区二区| 亚洲日韩精品无码AV海量| 亚洲大尺度无码专区尤物| 黄桃AV无码免费一区二区三区 | 日韩精品无码一区二区三区AV| 国产成人无码精品久久久小说| 精品无码人妻夜人多侵犯18| 777爽死你无码免费看一二区 | 性色av无码免费一区二区三区 | 亚洲AV蜜桃永久无码精品| 曰产无码久久久久久精品 | 无码少妇一区二区三区芒果| 91久久九九无码成人网站| av无码久久久久久不卡网站| AV无码免费永久在线观看| 亚洲AV成人片无码网站| 无码一区18禁3D| 无码天堂亚洲国产AV| 久久国产三级无码一区二区|