python爬蟲相關庫的安裝配置

這篇文章給大家分享的是python爬蟲相關庫的詳細安裝教程,相信大部分人都還不知道怎么安裝,為了讓大家學會,給大家總結了以下內容,話不多說,一起往下看吧。

創新互聯專注于網站建設|網站維護|優化|托管以及網絡推廣,積累了大量的網站設計與制作經驗,為許多企業提供了網站定制設計服務,案例作品覆蓋成都衛生間隔斷等行業。能根據企業所處的行業與銷售的產品,結合品牌形象的塑造,量身策劃品質網站。

世界上80%的爬蟲是基于Python開發的,學好爬蟲技能,可為后續的大數據分析、挖掘、機器學習等提供重要的數據源。

python爬蟲需要安裝相關庫:

python爬蟲涉及的庫:

請求庫,解析庫,存儲庫,工具庫

1. 請求庫:urllib/re/requests

(1) urllib/re是python默認自帶的庫,可以通過以下命令進行驗證:

python爬蟲相關庫的安裝配置

沒有報錯信息輸出,說明環境正常

(2) requests安裝

2.1 打開CMD,輸入

pip3 install requests

2.2 等待安裝后,驗證

python爬蟲相關庫的安裝配置

(3) selenium安裝(驅動瀏覽器進行網站訪問行為)

3.1 打開CMD,輸入

pip3 install selenium

3.2 安裝chromedriver

網址:https://npm.taobao.org/

把下載完成后的壓縮包解壓,把exe放到D:\Python3.6.0\Scripts\

這個路徑只要在PATH變量中就可以

3.3 等待安裝完成后,驗證

python爬蟲相關庫的安裝配置

回車后彈出chrome瀏覽器界面

3.4 安裝其他瀏覽器

無界面瀏覽器phantomjs

下載網址:http://phantomjs.org/

下載完成后解壓,把整個目錄放到D:\Python3.6.0\Scripts\,把bin目錄的路徑添加到PATH變量

驗證:

打開CMD

phantomjs
console.log('phantomjs')

CTRL+C

python
from selenium import webdriver
driver = webdriver.PhantomJS()
dirver.get('http://www.baidu.com')
driver.page_source

2. 解析庫:

2.1 lxml (XPATH)

打開CMD

pip3 install lxml

或者從https://pypi.python.org下載,例如,lxml-4.1.1-cp36-cp36m-win_amd64.whl (md5) ,先下載whl文件

pip3 install 文件名.whl

2.2 beautifulsoup

打開CMD,需要先安裝好lxml

pip3 install beautifulsoup4

驗證

python
from bs4 import BeautifulSoup
soup = BeautifulSoup('<html></html>','lxml')

2.3 pyquery(類似jquery語法)

打開CMD

pip3 install pyquery

驗證安裝結果

python
from pyquery import PyQuery as pq
doc = pq('<html>hi</html>')
result = doc('html').text()
result

python爬蟲相關庫的安裝配置

3. 存儲庫

3.1 pyMySQL(操作MySQL,關系型數據庫)

安裝:

pip3 install pymysql

安裝后測試:

python爬蟲相關庫的安裝配置

python爬蟲相關庫的安裝配置

3.2 pymongo(操作MongoDB,key-value)

安裝

pip3 install pymongo

驗證

python
import pymongo
client = pymongo.MongoClient('localhost')
db = client['testdb']
db['table'].insert({'name':'bob'})
db['table'].find_one({'name':'bob'})

python爬蟲相關庫的安裝配置

3.3 redis(分布式爬蟲,維護爬取隊列)

安裝:

pip3 install redis

驗證:

python爬蟲相關庫的安裝配置

4.工具庫

4.1 flask(WEB庫)

pip3 install flask

python爬蟲相關庫的安裝配置

4.2 Django(分布式爬蟲維護系統)

pip3 install django

4.3 jupyter(運行在網頁端的記事本,支持markdown,可以在網頁上運行代碼)

pip3 install jupyter

驗證:

打開CMD

jupyter notebook

之后就可以在網頁直接創建記事本,代碼塊和Markdown塊,支持打印

以上就是python爬蟲相關庫安裝配置的詳細內容了,看完之后是否有所收獲呢?如果想了解更多相關內容,歡迎關注創新互聯行業資訊!

網站名稱:python爬蟲相關庫的安裝配置
本文鏈接:http://m.kartarina.com/article4/pipsie.html

成都網站建設公司_創新互聯,為您提供網站制作、用戶體驗微信小程序、軟件開發、網站設計、網站營銷

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

成都seo排名網站優化
主站蜘蛛池模板: 日韩激情无码免费毛片| 无码中文人妻在线一区| 少妇无码太爽了不卡在线观看| 精品久久久久久无码专区| 亚洲爆乳无码专区www| 久99久无码精品视频免费播放| 亚洲AV综合色区无码一区爱AV| 亚洲啪AV永久无码精品放毛片| 免费无码国产V片在线观看| 午夜福利av无码一区二区| 亚洲精品GV天堂无码男同| 少妇无码AV无码一区| 国产AV无码专区亚洲AV蜜芽| 亚洲Aⅴ无码专区在线观看q| 人妻无码精品久久亚瑟影视| 亚洲AV永久无码精品一福利 | 一区二区三区无码高清视频| 亚欧免费无码aⅴ在线观看| 亚洲AV永久无码精品一区二区国产 | 无码国内精品人妻少妇| 亚洲人成无码久久电影网站| 亚洲精品久久久久无码AV片软件| 无码AV波多野结衣久久| 亚洲欧洲日产国码无码久久99| 国产精品无码AV不卡| 无码精品A∨在线观看免费| 亚洲AV无码国产精品色午友在线| 波多野42部无码喷潮在线| 国产午夜激无码av毛片| 毛片亚洲AV无码精品国产午夜| 一本色道久久综合无码人妻| 亚洲中文字幕久久精品无码A| 人妻丰满熟妇AV无码区乱| 日韩免费人妻AV无码专区蜜桃 | 日韩加勒比一本无码精品| 四虎国产精品永久在线无码| 无码无需播放器在线观看| 人妻少妇看A偷人无码精品| 精品无码久久久久久国产 | 亚洲乱码无码永久不卡在线| 国产在线精品无码二区|