Python爬蟲如何使用瀏覽器的cookiesbrowsercookie

這篇文章給大家介紹Python爬蟲如何使用瀏覽器的cookies browsercookie,內容非常詳細,感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

成都創新互聯公司長期為數千家客戶提供的網站建設服務,團隊從業經驗10年,關注不同地域、不同群體,并針對不同對象提供差異化的產品和服務;打造開放共贏平臺,與合作伙伴共同營造健康的互聯網生態環境。為烏蘭企業提供專業的網站制作、做網站烏蘭網站改版等技術服務。擁有十載豐富建站經驗和眾多成功案例,為您定制開發。

很多用Python的人可能都寫過網絡爬蟲,自動化獲取網絡數據確實是一件令人愉悅的事情,而Python很好的幫助我們達到這種愉悅。然而,爬蟲經常要碰到各種登錄、驗證的阻撓,讓人灰心喪氣(網站:天天碰到各種各樣的爬蟲抓我們網站,也很讓人灰心喪氣~)。爬蟲和反爬蟲就是一個貓和老鼠的游戲,道高一尺魔高一丈,兩者反復糾纏。

由于http協議的無狀態性,登錄驗證都是通過傳遞cookies來實現的。通過瀏覽器登錄一次,登錄信息的cookie是就會被瀏覽器保存下來。下次再打開該網站時,瀏覽器自動帶上保存的cookies,只有cookies還未過期,對于網站來說你就還是登錄狀態的。

browsercookie模塊就是這樣一個從瀏覽器提取保存的cookies的工具。它是一個很有用的爬蟲工具,通過加載你瀏覽器的cookies到一個cookiejar對象里面,讓你輕松下載需要登錄的網頁內容。

安裝

pip install browsercookie

在Windows系統中,內置的sqlite模塊在加載FireFox數據庫時會拋出錯誤。需要更新sqlite的版本:
pip install pysqlite

使用方法

下面是從網頁提取標題的例子:

>>> import re>>> get_title = lambda html: re.findall('<title>(.*?)</title>', html, flags=re.DOTALL)[0].strip()

下面是未登錄狀況下下載得到的標題:

>>> import urllib2>>> url = 'https://bitbucket.org/'>>> public_html = urllib2.urlopen(url).read()>>> get_title(public_html)'Git and Mercurial code management for teams'

接下來使用browsercookie從登錄過Bitbucket的FireFox里面獲取cookie再下載:

>>> import browsercookie>>> cj = browsercookie.firefox()>>> opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj))>>> login_html = opener.open(url).read()>>> get_title(login_html)'richardpenman / home &mdash; Bitbucket'

上面是Python2的代碼,再試試 Python3:

>>> import urllib.request>>> public_html = urllib.request.urlopen(url).read()>>> opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor(cj))

你可以看到你的用戶名出現在title里面了,說明browsercookie模塊成功從FireFox加載了cookies。

下面是使用requests的例子,這次我們從Chrome里面加載cookies,當然你需要事先用Chrome登錄Bitbucket:

>>> import requests>>> cj = browsercookie.chrome()>>> r = requests.get(url, cookies=cj)>>> get_title(r.content)'richardpenman / home &mdash; Bitbucket'

如果你不知道或不關心那個瀏覽器有你需要的cookies,你可以這樣操作:

>>> cj = browsercookie.load()>>> r = requests.get(url, cookies=cj)>>> get_title(r.content)'richardpenman / home &mdash; Bitbucket'

支持

目前,該模塊支持以下平臺:

Chrome: Linux, OSX, Windows
Firefox: Linux, OSX, Windows

關于Python爬蟲如何使用瀏覽器的cookies browsercookie就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

本文標題:Python爬蟲如何使用瀏覽器的cookiesbrowsercookie
分享網址:http://m.kartarina.com/article11/pgoogd.html

成都網站建設公司_創新互聯,為您提供電子商務營銷型網站建設關鍵詞優化網站內鏈虛擬主機品牌網站設計

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都seo排名網站優化
主站蜘蛛池模板: 日韩综合无码一区二区| 亚洲国产av无码精品| 无码人妻精品内射一二三AV| 国产午夜无码福利在线看网站| 国模无码人体一区二区| 无码国产精品一区二区免费式影视 | 无码中文字幕av免费放| 国产精品无码亚洲一区二区三区 | 亚洲va中文字幕无码久久不卡| 亚洲AV无码久久久久网站蜜桃| 亚洲午夜无码片在线观看影院猛| 98久久人妻无码精品系列蜜桃| 国产精品国产免费无码专区不卡 | 日日摸夜夜添无码AVA片| 国外AV无码精品国产精品| 无码精品日韩中文字幕| 伊人蕉久中文字幕无码专区| 久久亚洲AV成人无码国产最大| 日韩人妻无码中文字幕视频| 久久久久久av无码免费看大片| 亚洲av无码专区在线观看下载 | 无码H黄肉动漫在线观看网站| 亚洲日韩精品A∨片无码 | 亚洲 另类 无码 在线| 精品爆乳一区二区三区无码av | 亚洲Av无码国产情品久久| 精品久久久久久无码专区| 无码人妻久久一区二区三区| 2014AV天堂无码一区 | 国产精品亚洲专区无码不卡| 一区二区无码免费视频网站| 久久久久精品国产亚洲AV无码 | 蜜桃臀无码内射一区二区三区| 国产成人麻豆亚洲综合无码精品 | 97精品人妻系列无码人妻| 亚洲AV无码国产丝袜在线观看| 久久久精品人妻无码专区不卡| 久久精品无码专区免费| 日韩人妻无码一区二区三区综合部| 久久无码一区二区三区少妇| 麻豆aⅴ精品无码一区二区|