日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
掌握Linux多線程,讓程序更高效(linux的多線程)

在計算機科學領(lǐng)域,多線程是指一個進程中多個線程并行運行的能力。在Linux操作系統(tǒng)中,多線程是一種廣泛使用的技術(shù),它可以提高程序的效率和性能。本文將介紹如何掌握Linux多線程技術(shù),讓程序更高效。

創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設(shè),貴德企業(yè)網(wǎng)站建設(shè),貴德品牌網(wǎng)站建設(shè),網(wǎng)站定制,貴德網(wǎng)站建設(shè)報價,網(wǎng)絡營銷,網(wǎng)絡優(yōu)化,貴德網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。

1. 理解多線程概念

在Linux操作系統(tǒng)中,每個進程都有自己的地址空間、數(shù)據(jù)棧、程序計數(shù)器和其他寄存器。每個進程可以具有多個線程,這些線程可以分享它們的虛擬地址空間和其他資源。多個線程可以同時執(zhí)行,從而提高程序的效率。

2. 創(chuàng)建和管理線程

在Linux中,創(chuàng)建和管理線程需要使用pthread庫。該庫提供了一組API函數(shù),可以用于創(chuàng)建、銷毀、等待線程等操作。

在創(chuàng)建線程時,需要指定線程函數(shù)。線程函數(shù)包含要執(zhí)行的代碼。線程函數(shù)必須是以下格式:

void *FunctionName(void *argument);

其中,void *表示沒有類型的指針,argument是傳遞給線程函數(shù)的參數(shù)。

線程可以使用pthread_create()函數(shù)進行創(chuàng)建。該函數(shù)的格式如下:

int pthread_create(pthread_t *thread, const pthread_attr_t *attr,void *(*start_routine)(void*), void *arg);

其中,thread是指向線程標識符的指針。attr是指向用于設(shè)置線程屬性的指針。start_routine是指向線程函數(shù)的指針。arg是指向線程函數(shù)參數(shù)的指針。

通過這個函數(shù)創(chuàng)建的線程會立即開始執(zhí)行。在創(chuàng)建線程后,可以通過pthread_join()函數(shù)來等待線程結(jié)束。該函數(shù)的格式如下:

int pthread_join(pthread_t thread, void **retval);

其中,thread是要等待的線程標識符。retval是指向線程返回值的指針。

3. 線程同步

在線程間共享資源時,需要確保資源的一致性和正確性。線程同步是實現(xiàn)這種目的的一種方法。線程同步可以通過信號量、互斥鎖和條件變量來實現(xiàn)。

信號量是一種機制,用于控制多個線程的互斥訪問。互斥鎖是一種保護共享資源的鎖定機制,它確保只有一個線程可以訪問共享資源。條件變量用于在線程間傳遞信號。

在Linux中,可以使用sem_init()函數(shù)初始化信號量,pthread_mutex_init()函數(shù)來初始化互斥鎖,pthread_cond_init()函數(shù)來初始化條件變量。

可以使用sem_wt()函數(shù)來執(zhí)行信號量等待操作,pthread_mutex_lock()函數(shù)來執(zhí)行互斥鎖定操作,pthread_cond_wt()函數(shù)來執(zhí)行條件變量等待操作。相應的,對應的解鎖和條件信號發(fā)送也有對應的函數(shù)。

4. 線程池

線程池是一種常用的多線程技術(shù),它提供了一個線程隊列,可以將多個任務提交到這個隊列中。線程池會根據(jù)需要自動創(chuàng)建線程來處理這些任務。

在Linux中,可以使用pthread_pool庫來實現(xiàn)線程池。該庫提供了一組API函數(shù),可以用于創(chuàng)建、銷毀和管理線程池,包括添加任務和執(zhí)行任務等操作。

使用線程池可以提高程序的效率和性能,因為線程池中的線程可以重復使用,從而減少了創(chuàng)建和銷毀線程的時間和開銷。

5. 線程安全

線程安全是指當多個線程同時訪問一個共享資源時,不會發(fā)生競爭條件或其他問題的能力。

在編寫多線程程序時,需要保證程序的線程安全??梢圆捎靡韵路椒▉肀WC線程安全:

– 使用鎖保護共享資源,確保同時只有一個線程可以訪問資源。

– 將線程不安全的函數(shù)或變量封裝到一個線程安全的類或?qū)ο笾小?/p>

– 確保在訪問共享資源之前先檢查線程ID,以確定是否有線程正在訪問資源。

– 處理競爭條件,例如使用條件變量或信號量來同步線程訪問。

在本文中,介紹了如何掌握Linux多線程技術(shù),讓程序更高效。這包括理解多線程概念、創(chuàng)建和管理線程、線程同步、線程池和線程安全等知識。通過學習這些內(nèi)容,可以更好地編寫高效、安全的多線程程序。

相關(guān)問題拓展閱讀:

  • 如何看懂《Linux多線程服務端編程

如何看懂《Linux多線程服務端編程

一:進程和線程

每個進程有自己獨立的地址空間。“在同一個進程”還是“不在同一個進程”是系統(tǒng)功能劃分的重要決策點?!禘rlang程序設(shè)計》把進程比喻為人:

每個人有自己的記憶(內(nèi)存),人與人通過談話(消息傳遞)來交流,談話既可以是面談姿并野(同一臺服務器),也可以在里談(不同的服務器,有網(wǎng)絡通信)。面談和談的區(qū)別在于,面談可以立即知道對方是否死了(crash,SIGCHLD),而談只能通過周期性的心跳來判斷對方是否還活著。

有了這些比喻,設(shè)計分布式系統(tǒng)時可以采取“角色扮演”,團隊里的幾個人各自扮演一個進程,人的角色由進程的代碼決定(管登錄的、管消息分發(fā)的、管買賣的等等)。每個人有自己的記憶,但不知道別人的記憶,要想知道別人的看法,只能通過交談(暫不考慮共享內(nèi)存這種IPC)。然后就可以思考:跡喊

·容錯:萬一有人突然死了

·擴容:新人中途加進來

·負載均衡:把甲的活兒挪給乙做

·退休:甲要修復bug,先別派新任務,等他做完手上的事情就把他重啟

等等各種場景,十分便利。

線程的特點是共享地址空間,從而可以高效地共享數(shù)據(jù)。一臺機器上的多個進程能高效地共享代碼段(操作系統(tǒng)可以映射為同樣的物理內(nèi)存),但不能共享數(shù)據(jù)。如果多個進程大量共享內(nèi)存,等于是把多進程程序當成多線程來寫,掩耳盜鈴。

“多線程”的價值,我認為是為了更好地發(fā)揮多核處理器(multi-cores)的效能。在單核時代,多線程沒有多大價值(個人想法:如果要完成的任務是CPU密集型的,那多線程沒有優(yōu)勢,甚至因為線程切換的開銷,多線程反而更慢;如果要完成的任務既有CPU計算,又有磁盤或網(wǎng)絡IO,則使用多線程的好處是,當某個線程因為IO而阻塞時,OS可以調(diào)度其他線程執(zhí)行,雖然效率確實要比任務的順序執(zhí)行效率要高,然而,這種類型的任務,可以通過單線程的”non-blocking IO+IO multiplexing”的模型(事件驅(qū)動)來提高效率,采用多線程的方式,帶來的可能僅僅是編程上的簡單而已)。Alan Cox說過:”A computer is a state machine.Threads are for people who can’t program state machines.”(計算機是一臺狀態(tài)機。線程是給那些不能編寫狀態(tài)機程序的人準備的)如果只有一塊CPU、一個執(zhí)行單元,那么確實如Alan Cox所說,按狀態(tài)機的思路去寫程序是最蔽謹高效的。

二:單線程服務器的常用編程模型

據(jù)我了解,在高性能的網(wǎng)絡程序中,使用得最為廣泛的恐怕要數(shù)”non-blocking IO + IO multiplexing”這種模型,即Reactor模式。

在”non-blocking IO + IO multiplexing”這種模型中,程序的基本結(jié)構(gòu)是一個事件循環(huán)(event loop),以事件驅(qū)動(event-driven)和事件回調(diào)的方式實現(xiàn)業(yè)務邏輯:

view plain copy

//代碼僅為示意,沒有完整考慮各種情況

while(!done)

{

int timeout_ms = max(1000, getNextTimedCallback());

int retval = poll(fds, nfds, timeout_ms);

if (retval0){

處理IO事件,回調(diào)用戶的IO event handler

}

}

}

這里select(2)/poll(2)有伸縮性方面的不足(描述符過多時,效率較低),Linux下可替換為epoll(4),其他操作系統(tǒng)也有對應的高性能替代品。

Reactor模型的優(yōu)點很明顯,編程不難,效率也不錯。不僅可以用于讀寫socket,連接的建立(connect(2)/accept(2)),甚至DNS解析都可以用非阻塞方式進行,以提高并發(fā)度和吞吐量(throughput),對于IO密集的應用是個不錯的選擇。lighttpd就是這樣,它內(nèi)部的fdevent結(jié)構(gòu)十分精妙,值得學習。

基于事件驅(qū)動的編程模型也有其本質(zhì)的缺點,它要求事件回調(diào)函數(shù)必須是非阻塞的。對于涉及網(wǎng)絡IO的請求響應式協(xié)議,它容易割裂業(yè)務邏輯,使其散布于多個回調(diào)函數(shù)之中,相對不容易理解和維護。

三:多線程服務器的常用編程模型

大概有這么幾種:

a:每個請求創(chuàng)建一個線程,使用阻塞式IO操作。在Java 1.4引人NIO之前,這是Java網(wǎng)絡編程的推薦做法??上炜s性不佳(請求太多時,操作系統(tǒng)創(chuàng)建不了這許多線程)。

b:使用線程池,同樣使用阻塞式IO操作。與第1種相比,這是提高性能的措施。

c:使用non-blocking IO + IO multiplexing。即Java NIO的方式。

d:Leader/Follower等高級模式。

在默認情況下,我會使用第3種,即non-blocking IO + one loop per thread模式來編寫多線程C++網(wǎng)絡服務程序。

1:one loop per thread

此種模型下,程序里的每個IO線程有一個event loop,用于處理讀寫和定時事件(無論周期性的還是單次的)。代碼框架跟“單線程服務器的常用編程模型”一節(jié)中的一樣。

libev的作者說:

One loop per thread is usually a good model. Doing this is almost never wrong, some times a better-performance model exists, but it is always a good start.

這種方式的好處是:

a:線程數(shù)目基本固定,可以在程序啟動的時候設(shè)置,不會頻繁創(chuàng)建與銷毀。

b:可以很方便地在線程間調(diào)配負載。

c:IO事件發(fā)生的線程是固定的,同一個TCP連接不必考慮事件并發(fā)。

Event loop代表了線程的主循環(huán),需要讓哪個線程干活,就把timer或IO channel(如TCP連接)注冊到哪個線程的loop里即可:對實時性有要求的connection可以單獨用一個線程;數(shù)據(jù)量大的connection可以獨占一個線程,并把數(shù)據(jù)處理任務分攤到另幾個計算線程中(用線程池);其他次要的輔助性connections可以共享一個線程。

比如,在dbproxy中,一個線程用于專門處理客戶端發(fā)來的管理命令;一個線程用于處理客戶端發(fā)來的MySQL命令,而與后端數(shù)據(jù)庫通信執(zhí)行該命令時,是將該任務分配給所有事件線程處理的。

對于non-trivial(有一定規(guī)模)的服務端程序,一般會采用non-blocking IO + IO multiplexing,每個connection/acceptor都會注冊到某個event loop上,程序里有多個event loop,每個線程至多有一個event loop。

多線程程序?qū)vent loop提出了更高的要求,那就是“線程安全”。要允許一個線程往別的線程的loop里塞東西,這個loop必須得是線程安全的。

在dbproxy中,線程向其他線程分發(fā)任務,是通過管道和隊列實現(xiàn)的。比如主線程accept到連接后,將表示該連接的結(jié)構(gòu)放入隊列,并向管道中寫入一個字節(jié)。計算線程在自己的event loop中注冊管道的讀事件,一旦有數(shù)據(jù)可讀,就嘗試從隊列中取任務。

2:線程池

不過,對于沒有IO而光有計算任務的線程,使用event loop有點浪費??梢允褂靡环N補充方案,即用blocking queue實現(xiàn)的任務隊列:

view plain copy

typedef boost::functionFunctor;

BlockingQueue taskQueue; //線程安全的全局阻塞隊列

//計算線程

void workerThread()

{

while (running) //running變量是個全局標志

{

Functor task = taskQueue.take(); //this blocks

task(); //在產(chǎn)品代碼中需要考慮異常處理

}

}

// 創(chuàng)建容量(并發(fā)數(shù))為N的線程池

int N = num_of_computing_threads;

for (int i = 0; i task = boost::bind(&Foo::calc,&foo);

taskQueue.post(task);

除了任務隊列,還可以用BlockingQueue實現(xiàn)數(shù)據(jù)的生產(chǎn)者消費者隊列,即T是數(shù)據(jù)類型而非函數(shù)對象,queue的消費者從中拿到數(shù)據(jù)進行處理。其實本質(zhì)上是一樣的。

3:總結(jié)

總結(jié)而言,我推薦的C++多線程服務端編程模式為:one (event) loop per thread + thread pool:

event loop用作IO multiplexing,配合non-blockingIO和定時器;

thread pool用來做計算,具體可以是任務隊列或生產(chǎn)者消費者隊列。

以這種方式寫服務器程序,需要一個優(yōu)質(zhì)的基于Reactor模式的網(wǎng)絡庫來支撐,muduo正是這樣的網(wǎng)絡庫。比如dbproxy使用的是libevent。

程序里具體用幾個loop、線程池的大小等參數(shù)需要根據(jù)應用來設(shè)定,基本的原則是“阻抗匹配”(解釋見下),使得CPU和IO都能高效地運作。所謂阻抗匹配原則:

如果池中線程在執(zhí)行任務時,密集計算所占的時間比重為 P (0 就能立刻列出用到某服務的客戶端地址(Foreign Address列),然后在客戶端的機器上用netstat或lsof命令找出是哪個進程發(fā)起的連接。TCP短連接和UDP則不具備這一特性。二是通過接收和發(fā)送隊列的長度也較容易定位網(wǎng)絡或程序故障。在正常運行的時候,netstat打印的Recv-Q和Send-Q都應該接近0,或者在0附近擺動。如果Recv-Q保持不變或持續(xù)增加,則通常意味著服務進程的處理速度變慢,可能發(fā)生了死鎖或阻塞。如果Send-Q保持不變或持續(xù)增加,有可能是對方服務器太忙、來不及處理,也有可能是網(wǎng)絡中間某個路由器或交換機故障造成丟包,甚至對方服務器掉線,這些因素都可能表現(xiàn)為數(shù)據(jù)發(fā)送不出去。通過持續(xù)監(jiān)控Recv-Q和Send-Q就能及早預警性能或可用性故障。以下是服務端線程阻塞造成Recv-Q和客戶端Send-Q激增的例子:

view plain copy

$netstat -tn

Proto Recv-Q Send-Q Local Address Foreign

tcp.0.0.10:.0.0.10:#服務端連接

tcp.0.0.10:.0.0.10:#客戶端連接

tcp.0.0.10:.0.0.4:

五:多線程服務器的適用場合

如果要在一臺多核機器上提供一種服務或執(zhí)行一個任務,可用的模式有:

a:運行一個單線程的進程;

b:運行一個多線程的進程;

c:運行多個單線程的進程;

d:運行多個多線程的進程;

考慮這樣的場景:如果使用速率為50MB/s的數(shù)據(jù)壓縮庫,進程創(chuàng)建銷毀的開銷是800微秒,線程創(chuàng)建銷毀的開銷是50微秒。如何執(zhí)行壓縮任務?

如果要偶爾壓縮1GB的文本文件,預計運行時間是20s,那么起一個進程去做是合理的,因為進程啟動和銷毀的開銷遠遠小于實際任務的耗時。

如果要經(jīng)常壓縮500kB的文本數(shù)據(jù),預計運行時間是10ms,那么每次都起進程 似乎有點浪費了,可以每次單獨起一個線程去做。

如果要頻繁壓縮10kB的文本數(shù)據(jù),預計運行時間是200微秒,那么每次起線程似 乎也很浪費,不如直接在當前線程搞定。也可以用一個線程池,每次把壓縮任務交給線程池,避免阻塞當前線程(特別要避免阻塞IO線程)。

由此可見,多線程并不是萬靈丹(silver bullet)。

1:必須使用單線程的場合

據(jù)我所知,有兩種場合必須使用單線程:

a:程序可能會fork(2);

實際編程中,應該保證只有單線程程序能進行fork(2)。多線程程序不是不能調(diào)用fork(2),而是這么做會遇到很多麻煩:

fork一般不能在多線程程序中調(diào)用,因為Linux的fork只克隆當前線程的thread of control,不可隆其他線程。fork之后,除了當前線程之外,其他線程都消失了。

這就造成一種危險的局面。其他線程可能正好處于臨界區(qū)之內(nèi),持有了某個鎖,而它突然死亡,再也沒有機會去解鎖了。此時如果子進程試圖再對同一個mutex加鎖,就會立即死鎖。因此,fork之后,子進程就相當于處于signal handler之中(因為不知道調(diào)用fork時,父進程中的線程此時正在調(diào)用什么函數(shù),這和信號發(fā)生時的場景一樣),你不能調(diào)用線程安全的函數(shù)(除非它是可重入的),而只能調(diào)用異步信號安全的函數(shù)。比如,fork之后,子進程不能調(diào)用:

malloc,因為malloc在訪問全局狀態(tài)時幾乎肯定會加鎖;

任何可能分配或釋放內(nèi)存的函數(shù),比如snprintf;

任何Pthreads函數(shù);

printf系列函數(shù),因為其他線程可能恰好持有stdout/stderr的鎖;

除了man 7 signal中明確列出的信號安全函數(shù)之外的任何函數(shù)。

因此,多線程中調(diào)用fork,唯一安全的做法是fork之后,立即調(diào)用exec執(zhí)行另一個程序,徹底隔斷子進程與父進程的聯(lián)系。

在多線程環(huán)境中調(diào)用fork,產(chǎn)生子進程后。子進程內(nèi)部只存在一個線程,也就是父進程中調(diào)用fork的線程的副本。

使用fork創(chuàng)建子進程時,子進程通過繼承整個地址空間的副本,也從父進程那里繼承了所有互斥量、讀寫鎖和條件變量的狀態(tài)。如果父進程中的某個線程占有鎖,則子進程同樣占有這些鎖。問題是子進程并不包含占有鎖的線程的副本,所以子進程沒有辦法知道它占有了哪些鎖,并且需要釋放哪些鎖。

盡管Pthread提供了pthread_atfork函數(shù)試圖繞過這樣的問題,但是這回使得代碼變得混亂。因此《Programming With Posix Threads》一書的作者說:”Avoid using fork in threaded code except where the child process will immediately exec a new program.”。

b:限制程序的CPU占用率;

這個很容易理解,比如在一個8核的服務器上,一個單線程程序即便發(fā)生busy-wait,占滿1個core,其CPU使用率也只有12.5%,在這種最壞的情況下,系統(tǒng)還是有87.5%的計算資源可供其他服務進程使用。

關(guān)于linux 的多線程的介紹到此就結(jié)束了,不知道你從中找到你需要的信息了嗎 ?如果你還想了解更多這方面的信息,記得收藏關(guān)注本站。

香港服務器選創(chuàng)新互聯(lián),2H2G首月10元開通。
創(chuàng)新互聯(lián)(www.cdcxhl.com)互聯(lián)網(wǎng)服務提供商,擁有超過10年的服務器租用、服務器托管、云服務器、虛擬主機、網(wǎng)站系統(tǒng)開發(fā)經(jīng)驗。專業(yè)提供云主機、虛擬主機、域名注冊、VPS主機、云服務器、香港云服務器、免備案服務器等。


當前文章:掌握Linux多線程,讓程序更高效(linux的多線程)
標題路徑:http://www.5511xx.com/article/cocpgho.html