python起進程的函數 python 獲取進程

python中的進程-實戰部分

如果想了解進程 可以先看一下這一篇 python中的進程-理論部分

成都創新互聯一直通過網站建設和網站營銷幫助企業獲得更多客戶資源。 以"深度挖掘,量身打造,注重實效"的一站式服務,以成都網站制作、成都做網站、移動互聯產品、成都營銷網站建設服務為核心業務。10余年網站制作的經驗,使用新網站建設技術,全新開發出的標準網站,不但價格便宜而且實用、靈活,特別適合中小公司網站制作。網站管理系統簡單易用,維護方便,您可以完全操作網站資料,是中小公司快速網站建設的選擇。

python中的多線程無法利用多核優勢,如果想要充分地使用多核CPU的資源(os.cpu_count()查看),在python中大部分情況需要使用多進程。Python提供了multiprocessing。

multiprocessing模塊用來開啟子進程,并在子進程中執行我們定制的任務(比如函數),該模塊與多線程模塊threading的編程接口類似。

  multiprocessing模塊的功能眾多:支持子進程、通信和共享數據、執行不同形式的同步,提供了Process、Queue、Pipe、Lock等組件。

需要再次強調的一點是:與線程不同,進程沒有任何共享狀態,進程修改的數據,改動僅限于該進程內。

創建進程的類 :

參數介紹:

group參數未使用,值始終為None

target表示調用對象,即子進程要執行的任務

args表示調用對象的位置參數元組,args=(1,2,'tiga',)

kwargs表示調用對象的字典,kwargs={'name':'tiga','age':18}

name為子進程的名稱

方法介紹:

p.start():啟動進程,并調用該子進程中的p.run()

p.run():進程啟動時運行的方法,正是它去調用target指定的函數,我們自定義類的類中一定要實現該方法

p.terminate():強制終止進程p,不會進行任何清理操作,如果p創建了子進程,該子進程就成了僵尸進程,使用該方法需要特別小心這種情況。如果p還保存了一個鎖那么也將不會被釋放,進而導致死鎖

p.is_alive():如果p仍然運行,返回True

p.join([timeout]):主線程等待p終止(強調:是主線程處于等的狀態,而p是處于運行的狀態)。timeout是可選的超時時間,需要強調的是,p.join只能join住start開啟的進程,而不能join住run開啟的進程

屬性介紹:

注意:在windows中Process()必須放到# if __name__ == '__main__':下

創建并開啟子進程的兩種方式

方法一:

方法二:

有了join,程序不就是串行了嗎???

terminate與is_alive

name與pid

python進程和線程中的join方法

python中創建進程的方式

一、Process(target=函數名,args=(),name,kwargs)

target:加進程調用的函數名,一般不加括號

name:進程的名字

kwargs:字典參數

args:元組參數,如果參數就一個,記得加逗號’,’

Python多線程與多進程中join()方法的效果是相同的

join所完成的工作就是線程同步,即主線程任務結束之后,進入阻塞狀態,一直等待其他的子線程執行結束之后,主線程再終止

import threading

import time

python 多進程

基于官方文檔:

日樂購,剛才看到的一個博客,寫的都不太對,還是基于官方的比較穩妥

我就是喜歡抄官方的,哈哈

通常我們使用Process實例化一個進程,并調用 他的 start() 方法啟動它。

這種方法和 Thread 是一樣的。

上圖中,我寫了 p.join() 所以主進程是 等待 子進程執行完后,才執行 print("運行結束")

否則就是反過來了(這個不一定,看你的語句了,順序其實是隨機的)例如:

主進加個 sleep

所以不加join() ,其實子進程和主進程是各干各的,誰也不等誰。都執行完后,文件運行就結束了

上面我們用了 os.getpid() 和 os.getppid() 獲取 當前進程,和父進程的id

下面就講一下,這兩個函數的用法:

os.getpid()

返回當前進程的id

os.getppid()

返回父進程的id。 父進程退出后,unix 返回初始化進程(1)中的一個

windows返回相同的id (可能被其他進程使用了)

這也就解釋了,為啥我上面 的程序運行多次, 第一次打印的parentid 都是 14212 了。

而子進程的父級 process id 是調用他的那個進程的 id : 1940

視頻筆記:

多進程:使用大致方法:

參考: 進程通信(pipe和queue)

pool.map (函數可以有return 也可以共享內存或queue) 結果直接是個列表

poll.apply_async() (同map,只不過是一個進程,返回結果用 xx.get() 獲得)

報錯:

參考 :

把 pool = Pool() 放到 if name == " main ": 下面初始化搞定。

結果:

這個肯定有解釋的

測試多進程計算效果:

進程池運行:

結果:

普通計算:

我們同樣傳入 1 2 10 三個參數測試:

其實對比下來開始快了一半的;

我們把循環里的數字去掉一個 0;

單進程:

多進程:

兩次測試 單進程/進程池 分別為 0.669 和 0.772 幾乎成正比的。

問題 二:

視圖:

post 視圖里面

Music 類:

直接報錯:

寫在 類里面也 在函數里用 self.pool 調用也不行,也是相同的錯誤。

最后 把 pool = Pool 直接寫在 search 函數里面,奇跡出現了:

前臺也能顯示搜索的音樂結果了

總結一點,進程這個東西,最好 寫在 直接運行的函數里面,而不是 一個函數跳來跳去。因為最后可能 是在子進程的子進程運行的,這是不許的,會報錯。

還有一點,多進程運行的函數對象,不能是 lambda 函數。也許lambda 虛擬,在內存??

使用 pool.map 子進程 函數報錯,導致整個 pool 掛了:

參考:

主要你要,對函數內部捕獲錯誤,而不能讓異常拋出就可以了。

關于map 傳多個函數參數

我一開始,就是正常思維,多個參數,搞個元祖,讓參數一一對應不就行了:

報錯:

參考:

普通的 process 當讓可以穿多個參數,map 卻不知道咋傳的。

apply_async 和map 一樣,不知道咋傳的。

最簡單的方法:

使用 starmap 而不是 map

結果:

子進程結束

1.8399453163146973

成功拿到結果了

關于map 和 starmap 不同的地方看源碼:

關于apply_async() ,我沒找到多參數的方法,大不了用 一個迭代的 starmap 實現。哈哈

關于 上面源碼里面有 itertools.starmap

itertools 用法參考:

有個問題,多進程最好不要使用全部的 cpu , 因為這樣可能影響其他任務,所以 在進程池 添加 process 參數 指定,cpu 個數:

上面就是預留了 一個cpu 干其他事的

后面直接使用 Queue 遇到這個問題:

解決:

Manager().Queue() 代替 Queue()

因為 queue.get() 是堵塞型的,所以可以提前判斷是不是 空的,以免堵塞進程。比如下面這樣:

使用 queue.empty() 空為True

小白都看懂了,Python 中的線程和進程精講,建議收藏

目錄

眾所周知,CPU是計算機的核心,它承擔了所有的計算任務。而操作系統是計算機的管理者,是一個大管家,它負責任務的調度,資源的分配和管理,統領整個計算機硬件。應用程序是具有某種功能的程序,程序運行與操作系統之上

在很早的時候計算機并沒有線程這個概念,但是隨著時代的發展,只用進程來處理程序出現很多的不足。如當一個進程堵塞時,整個程序會停止在堵塞處,并且如果頻繁的切換進程,會浪費系統資源。所以線程出現了

線程是能擁有資源和獨立運行的最小單位,也是程序執行的最小單位。一個進程可以擁有多個線程,而且屬于同一個進程的多個線程間會共享該進行的資源

① 200 多本 Python 電子書(和經典的書籍)應該有

② Python標準庫資料(最全中文版)

③ 項目源碼(四五十個有趣且可靠的練手項目及源碼)

④ Python基礎入門、爬蟲、網絡開發、大數據分析方面的視頻(適合小白學習)

⑤ Python學習路線圖(告別不入流的學習)

私信我01即可獲取大量Python學習資源

進程時一個具有一定功能的程序在一個數據集上的一次動態執行過程。進程由程序,數據集合和進程控制塊三部分組成。程序用于描述進程要完成的功能,是控制進程執行的指令集;數據集合是程序在執行時需要的數據和工作區;程序控制塊(PCB)包含程序的描述信息和控制信息,是進程存在的唯一標志

在Python中,通過兩個標準庫 thread 和 Threading 提供對線程的支持, threading 對 thread 進行了封裝。 threading 模塊中提供了 Thread , Lock , RLOCK , Condition 等組件

在Python中線程和進程的使用就是通過 Thread 這個類。這個類在我們的 thread 和 threading 模塊中。我們一般通過 threading 導入

默認情況下,只要在解釋器中,如果沒有報錯,則說明線程可用

守護模式:

現在我們程序代碼中,有多個線程, 并且在這個幾個線程中都會去 操作同一部分內容,那么如何實現這些數據的共享呢?

這時,可以使用 threading庫里面的鎖對象 Lock 去保護

Lock 對象的acquire方法 是申請鎖

每個線程在操作共享數據對象之前,都應該申請獲取操作權,也就是調用該共享數據對象對應的鎖對象的acquire方法,如果線程A 執行了 acquire() 方法,別的線程B 已經申請到了這個鎖, 并且還沒有釋放,那么 線程A的代碼就在此處 等待 線程B 釋放鎖,不去執行后面的代碼。

直到線程B 執行了鎖的 release 方法釋放了這個鎖, 線程A 才可以獲取這個鎖,就可以執行下面的代碼了

如:

到在使用多線程時,如果數據出現和自己預期不符的問題,就可以考慮是否是共享的數據被調用覆蓋的問題

使用 threading 庫里面的鎖對象 Lock 去保護

Python中的多進程是通過multiprocessing包來實現的,和多線程的threading.Thread差不多,它可以利用multiprocessing.Process對象來創建一個進程對象。這個進程對象的方法和線程對象的方法差不多也有start(), run(), join()等方法,其中有一個方法不同Thread線程對象中的守護線程方法是setDeamon,而Process進程對象的守護進程是通過設置daemon屬性來完成的

守護模式:

其使用方法和線程的那個 Lock 使用方法類似

Manager的作用是提供多進程共享的全局變量,Manager()方法會返回一個對象,該對象控制著一個服務進程,該進程中保存的對象運行其他進程使用代理進行操作

語法:

線程池的基類是 concurrent.futures 模塊中的 Executor , Executor 提供了兩個子類,即 ThreadPoolExecutor 和 ProcessPoolExecutor ,其中 ThreadPoolExecutor 用于創建線程池,而 ProcessPoolExecutor 用于創建進程池

如果使用線程池/進程池來管理并發編程,那么只要將相應的 task 函數提交給線程池/進程池,剩下的事情就由線程池/進程池來搞定

Exectuor 提供了如下常用方法:

程序將 task 函數提交(submit)給線程池后,submit 方法會返回一個 Future 對象,Future 類主要用于獲取線程任務函數的返回值。由于線程任務會在新線程中以異步方式執行,因此,線程執行的函數相當于一個“將來完成”的任務,所以 Python 使用 Future 來代表

Future 提供了如下方法:

使用線程池來執行線程任務的步驟如下:

最佳線程數目 = ((線程等待時間+線程CPU時間)/線程CPU時間 )* CPU數目

也可以低于 CPU 核心數

使用線程池來執行線程任務的步驟如下:

關于進程的開啟代碼一定要放在 if __name__ == '__main__': 代碼之下,不能放到函數中或其他地方

開啟進程的技巧

開啟進程的數量最好低于最大 CPU 核心數

Python多進程運行——Multiprocessing基礎教程2

上篇文章簡單介紹了multiprocessing模塊,本文將要介紹進程之間的數據共享和信息傳遞的概念。

在多進程處理中,所有新創建的進程都會有這兩個特點:獨立運行,有自己的內存空間。

我們來舉個例子展示一下:

這個程序的輸出結果是:

在上面的程序中我們嘗試在兩個地方打印全局列表result的內容:

我們再用一張圖來幫助理解記憶不同進程間的數據關系:

如果程序需要在不同的進程之間共享一些數據的話,該怎么做呢?不用擔心,multiprocessing模塊提供了Array對象和Value對象,用來在進程之間共享數據。

所謂Array對象和Value對象分別是指從共享內存中分配的ctypes數組和對象。我們直接來看一個例子,展示如何用Array對象和Value對象在進程之間共享數據:

程序輸出的結果如下:

成功了!主程序和p1進程輸出了同樣的結果,說明程序中確實完成了不同進程間的數據共享。那么我們來詳細看一下上面的程序做了什么:

在主程序中我們首先創建了一個Array對象:

向這個對象輸入的第一個參數是數據類型:i表示整數,d代表浮點數。第二個參數是數組的大小,在這個例子中我們創建了包含4個元素的數組。

類似的,我們創建了一個Value對象:

我們只對Value對象輸入了一個參數,那就是數據類型,與上述的方法一致。當然,我們還可以對其指定一個初始值(比如10),就像這樣:

隨后,我們在創建進程對象時,將剛創建好的兩個對象:result和square_sum作為參數輸入給進程:

在函數中result元素通過索引進行數組賦值,square_sum通過 value 屬性進行賦值。

注意:為了完整打印result數組的結果,需要使用 result[:] 進行打印,而square_sum也需要使用 value 屬性進行打印:

每當python程序啟動時,同時也會啟動一個服務器進程。隨后,只要我們需要生成一個新進程,父進程就會連接到服務器并請求它派生一個新進程。這個服務器進程可以保存Python對象,并允許其他進程使用代理來操作它們。

multiprocessing模塊提供了能夠控制服務器進程的Manager類。所以,Manager類也提供了一種創建可以在不同流程之間共享的數據的方法。

服務器進程管理器比使用共享內存對象更靈活,因為它們可以支持任意對象類型,如列表、字典、隊列、值、數組等。此外,單個管理器可以由網絡上不同計算機上的進程共享。

但是,服務器進程管理器的速度比使用共享內存要慢。

讓我們來看一個例子:

這個程序的輸出結果是:

我們來理解一下這個程序做了什么:首先我們創建了一個manager對象

在with語句下的所有行,都是在manager對象的范圍內的。接下來我們使用這個manager對象創建了列表(類似的,我們還可以用 manager.dict() 創建字典)。

最后我們創建了進程p1(用于在records列表中插入一條新的record)和p2(將records打印出來),并將records作為參數進行傳遞。

服務器進程的概念再次用下圖總結一下:

為了能使多個流程能夠正常工作,常常需要在它們之間進行一些通信,以便能夠劃分工作并匯總最后的結果。multiprocessing模塊支持進程之間的兩種通信通道:Queue和Pipe。

使用隊列來回處理多進程之間的通信是一種比較簡單的方法。任何Python對象都可以使用隊列進行傳遞。我們來看一個例子:

上面這個程序的輸出結果是:

我們來看一下上面這個程序到底做了什么。首先我們創建了一個Queue對象:

然后,將這個空的Queue對象輸入square_list函數。該函數會將列表中的數平方,再使用 put() 方法放入隊列中:

隨后使用 get() 方法,將q打印出來,直至q重新稱為一個空的Queue對象:

我們還是用一張圖來幫助理解記憶:

一個Pipe對象只能有兩個端點。因此,當進程只需要雙向通信時,它會比Queue對象更好用。

multiprocessing模塊提供了 Pipe() 函數,該函數返回由管道連接的一對連接對象。 Pipe() 返回的兩個連接對象分別表示管道的兩端。每個連接對象都有 send() 和 recv() 方法。

我們來看一個例子:

上面這個程序的輸出結果是:

我們還是來看一下這個程序到底做了什么。首先創建了一個Pipe對象:

與上文說的一樣,該對象返回了一對管道兩端的兩個連接對象。然后使用 send() 方法和 recv() 方法進行信息的傳遞。就這么簡單。在上面的程序中,我們從一端向另一端發送一串消息。在另一端,我們收到消息,并在收到END消息時退出。

要注意的是,如果兩個進程(或線程)同時嘗試從管道的同一端讀取或寫入管道中的數據,則管道中的數據可能會損壞。不過不同的進程同時使用管道的兩端是沒有問題的。還要注意,Queue對象在進程之間進行了適當的同步,但代價是增加了計算復雜度。因此,Queue對象對于線程和進程是相對安全的。

最后我們還是用一張圖來示意:

Python的multiprocessing模塊還剩最后一篇文章:多進程的同步與池化

敬請期待啦!

Python多進程multiprocessing模塊介紹

multiprocessing 是一個支持使用與 threading 模塊類似的 API 來產生進程的包。 multiprocessing 包同時提供了本地和遠程并發操作,通過使用子進程而非線程有效地繞過了 全局解釋器鎖。 因此,multiprocessing 模塊允許程序員充分利用給定機器上的多個處理器。 它在 Unix 和 Windows 上均可運行。

1、multiprocessing.Process(group=None, target=None, name=None, args=(), kwargs={}, *, daemon=None)

2、相關方法

輸出結果如下:

Pool提供了一種快捷的方法,賦予函數并行化處理一系列輸入值的能力,可以將輸入數據分配給不同進程處理(數據并行)。下面的例子演示了在模塊中定義此類函數的常見做法,以便子進程可以成功導入該模塊。這個數據并行的基本例子使用了 Pool 。

將在標準輸出中打印

其中:

(1)p.apply(func [, args [, kwargs]]):在一個池工作進程中執行func( args, kwargs),然后返回結果。需要強調的是:此操作并不會在所有池工作進程中并執行func函數。如果要通過不同參數并發地執行func函數,必須從不同線程調用p.apply()函數或者使用p.apply_async()

(2)p.apply_async(func [, args [, kwargs]]):在一個池工作進程中執行func( args,**kwargs),然后返回結果。此方法的結果是 AsyncResult類的實例,callback是可調用對象,接收輸入參數。當func的結果變為可用時,將理解傳遞給callback。callback禁止執行任何阻塞操作,否則將接收其他異步操作中的結果。多進程并發!

(3)p.close():關閉進程池,防止進一步操作。如果所有操作持續掛起,它們將在工作進程終止前完成

(4)p.jion():等待所有工作進程退出。此方法只能在close()或teminate()之后調用

當前標題:python起進程的函數 python 獲取進程
新聞來源:http://m.kartarina.com/article32/hgespc.html

成都網站建設公司_創新互聯,為您提供外貿建站域名注冊虛擬主機移動網站建設軟件開發網站排名

廣告

聲明:本網站發布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創新互聯

小程序開發
主站蜘蛛池模板: 国产精品xxxx国产喷水亚洲国产精品无码久久一区| 国产高清无码二区 | 亚洲av无码一区二区三区乱子伦 | 成人无码AV一区二区| 日韩免费无码一区二区三区| 亚洲精品无码久久久久久| 东京热加勒比无码少妇| 亚洲人成人伊人成综合网无码| 国产精品无码国模私拍视频 | 免费看无码自慰一区二区| 亚洲av无码一区二区乱子伦as | 亚洲精品无码鲁网中文电影| 中文字幕人成无码人妻| 夜夜添无码试看一区二区三区| 毛片一区二区三区无码| 久久精品无码一区二区WWW| 国产在线无码精品电影网| 在线看片无码永久免费aⅴ| 亚洲av午夜精品无码专区| 国产成人亚洲综合无码精品 | 国产成人无码午夜福利软件| 亚洲av无码成人精品国产| 人妻少妇偷人精品无码| 亚洲AV人无码激艳猛片| 久久无码av三级| 成年无码av片完整版| 国产AⅤ无码专区亚洲AV| 性色av无码不卡中文字幕| 精品成在人线AV无码免费看| 色综合久久无码中文字幕| 国产色无码精品视频免费| 亚洲AV无码一区二三区| 国产高清不卡无码视频| 日韩久久无码免费毛片软件| 免费a级毛片无码a∨性按摩| 亚洲男人第一无码aⅴ网站| 日韩人妻无码精品无码中文字幕| 极品无码国模国产在线观看| 永久免费无码网站在线观看 | 亚洲欧洲美洲无码精品VA| 亚洲熟妇无码八AV在线播放|