赞
踩
multiprocess模块的完全模仿了threading模块的接口,二者在使用层面,有很大的相似性
方式一
- #方式一
- from threading import Thread
- import time
- def sayhi(name):
- time.sleep(2)
- print('%s say hello' %name)
-
- if __name__ == '__main__':
- t=Thread(target=sayhi,args=('egon',))
- t.start()
- print('主线程')
方式二
- # 方式二
- from threading import Thread
- import time
- class Sayhi(Thread):
- def __init__(self,name):
- super().__init__()
- self.name=name
- def run(self):
- time.sleep(2)
- print('%s say hello' % self.name)
-
-
- if __name__ == '__main__':
- t = Sayhi('ly')
- t.start()
- print('主线程')
1 谁的开启速度快
- from threading import Thread
- from multiprocessing import Process
- import os
-
- def work():
- print('hello')
-
- if __name__ == '__main__':
- # 在主进程下开启线程
- t=Thread(target=work)
- t.start()
- print('主线程/主进程')
- '''
- 打印结果:
- hello
- 主线程/主进程
- '''
-
- # 在主进程下开启子进程
- t=Process(target=work)
- t.start()
- print('主线程/主进程')
- '''
- 打印结果:
- 主线程/主进程
- hello
- '''
2 瞅一瞅pid
- from threading import Thread
- from multiprocessing import Process
- import os
-
- def work():
- print('hello',os.getpid())
-
- if __name__ == '__main__':
- # part1:在主进程下开启多个线程,每个线程都跟主进程的pid一样
- t1=Thread(target=work)
- t2=Thread(target=work)
- t1.start()
- t2.start()
- print('主线程/主进程pid',os.getpid())
-
- # part2:开多个进程,每个进程都有不同的pid
- p1=Process(target=work)
- p2=Process(target=work)
- p1.start()
- p2.start()
- print('主线程/主进程pid',os.getpid())
3 同一进程内的线程共享该进程的数据?
- from threading import Thread
- from multiprocessing import Process
- import os
- def work():
- global n
- n=0
-
- if __name__ == '__main__':
- # n=100
- # p=Process(target=work)
- # p.start()
- # p.join()
- # print('主',n) #毫无疑问子进程p已经将自己的全局的n改成了0,但改的仅仅是它自己的,查看父进程的n仍然为100
-
-
- n=1
- t=Thread(target=work)
- t.start()
- t.join()
- print('主',n) #查看结果为0,因为同一进程内的线程之间共享进程内的数据
练习一:
多线程并发的socket服务端
- # -*- coding: UTF-8 -*-
- #!/usr/bin/env python3
-
- import multiprocessing
- import threading
-
- import socket
- s=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
- s.bind(('127.0.0.1',8080))
- s.listen(5)
-
- def action(conn):
- while True:
- data=conn.recv(1024)
- print(data)
- conn.send(data.upper())
-
- if __name__ == '__main__':
-
- while True:
- conn,addr=s.accept()
-
-
- p=threading.Thread(target=action,args=(conn,))
- p.start()
客户端
- # -*- coding: UTF-8 -*-
- #!/usr/bin/env python3
-
-
- import socket
-
- s=socket.socket(socket.AF_INET,socket.SOCK_STREAM)
- s.connect(('127.0.0.1',8080))
-
- while True:
- msg=input('>>: ').strip()
- if not msg:continue
-
- s.send(msg.encode('utf-8'))
- data=s.recv(1024)
- print(data)
练习二:三个任务,一个接收用户输入,一个将用户输入的内容格式化成大写,一个将格式化后的结果存入文件
- from threading import Thread
- msg_l=[]
- format_l=[]
- def talk():
- while True:
- msg=input('>>: ').strip()
- if not msg:continue
- msg_l.append(msg)
-
- def format_msg():
- while True:
- if msg_l:
- res=msg_l.pop()
- format_l.append(res.upper())
-
- def save():
- while True:
- if format_l:
- with open('db.txt','a',encoding='utf-8') as f:
- res=format_l.pop()
- f.write('%s\n' %res)
-
- if __name__ == '__main__':
- t1=Thread(target=talk)
- t2=Thread(target=format_msg)
- t3=Thread(target=save)
- t1.start()
- t2.start()
- t3.start()
- Thread实例对象的方法
- # isAlive(): 返回线程是否活动的。
- # getName(): 返回线程名。
- # setName(): 设置线程名。
-
- threading模块提供的一些方法:
- # threading.currentThread(): 返回当前的线程变量。
- # threading.enumerate(): 返回一个包含正在运行的线程的list。正在运行指线程启动后、结束前,不包括启动前和终止后的线程。
- # threading.activeCount(): 返回正在运行的线程数量,与len(threading.enumerate())有相同的结果。
- from threading import Thread
- import threading
- from multiprocessing import Process
- import os
-
- def work():
- import time
- time.sleep(3)
- print(threading.current_thread().getName())
-
-
- if __name__ == '__main__':
- #在主进程下开启线程
- t=Thread(target=work)
- t.start()
-
- print(threading.current_thread().getName())
- print(threading.current_thread()) #主线程
- print(threading.enumerate()) #连同主线程在内有两个运行的线程
- print(threading.active_count())
- print('主线程/主进程')
-
- '''
- 打印结果:
- MainThread
- <_MainThread(MainThread, started 140735268892672)>
- [<_MainThread(MainThread, started 140735268892672)>, <Thread(Thread-1, started 123145307557888)>]
- 主线程/主进程
- Thread-1
- '''
主线程等待子线程结束
- from threading import Thread
- import time
- def sayhi(name):
- time.sleep(2)
- print('%s say hello' %name)
-
- if __name__ == '__main__':
- t=Thread(target=sayhi,args=('ly',))
- t.start()
- t.join()
- print('主线程')
- print(t.is_alive())
- '''
- ly say hello
- 主线程
- False
- '''
无论是进程还是线程,都遵循:守护xxx会等待主xxx运行完毕后被销毁
需要强调的是:运行完毕并非终止运行
1.对主进程来说,运行完毕指的是主进程代码运行完毕
2.对主线程来说,运行完毕指的是主线程所在的进程内所有非守护线程统统运行完毕,主线程才算运行完毕
详细解释:
- #1 主进程在其代码结束后就已经算运行完毕了(守护进程在此时就被回收),然后主进程会一直等非守护的子进程都运行完毕后回收子进程的资源(否则会产生僵尸进程),才会结束,
-
- #2 主线程在其他非守护线程运行完毕后才算运行完毕(守护线程在此时就被回收)。因为主线程的结束意味着进程的结束,进程整体的资源都将被回收,而进程必须保证非守护线程都运行完毕后才能结束。
- from threading import Thread
- import time
- def sayhi(name):
- time.sleep(2)
- print('%s say hello' %name)
-
- if __name__ == '__main__':
- t=Thread(target=sayhi,args=('ly',))
- t.setDaemon(True) #必须在t.start()之前设置
- t.start()
-
- print('主线程')
- print(t.is_alive())
- '''
- 主线程
- True
- '''
迷惑人的例子
- from threading import Thread
- import time
- def foo():
- print(123)
- time.sleep(1)
- print("end123")
-
- def bar():
- print(456)
- time.sleep(3)
- print("end456")
-
-
- t1=Thread(target=foo)
- t2=Thread(target=bar)
-
- t1.daemon=True
- t1.start()
- t2.start()
- print("main-------")
- '''
- 定义:
- In CPython, the global interpreter lock, or GIL, is a mutex that prevents multiple
- native threads from executing Python bytecodes at once. This lock is necessary mainly
- because CPython’s memory management is not thread-safe. (However, since the GIL
- exists, other features have grown to depend on the guarantees that it enforces.)
- '''
-
- 结论:在Cpython解释器中,同一个进程下开启的多线程,同一时刻只能有一个线程执行,无法利用多核优势
首先需要明确的一点是 GIL 并不是 Python 的特性,它是在实现Python解析器(CPython)时所引入的一个概念。就好比 C++ 是一套语言(语法)标准,但是可以用不同的编译器来编译成可执行代码。有名的编译器,例如:GCC,INTEL C++,Visual C++等。Python也一样,同样一段代码可以通过CPython,PyPy,Psyco等不同的Python执行环境来执行。像其中的JPython就没有 GIL 。然而因为 CPython 是大部分环境下默认的Python执行环境。所以在很多人的概念里 CPython 就是 Python ,也就想当然的把 GIL归结为Python语言的缺陷。所以这里要先明确一点: GIL 并不是 Python 的特性,Python完全可以不依赖于GIL。
GIL本质就是一把互斥锁,既然是互斥锁,所有互斥锁的本质都一样,都是将并发运行变成串行,以此来控制同一时间内共享数据只能被一个任务所修改,进而保证数据安全。
可以肯定的一点是:保护不同的数据的安全,就应该加不同的锁。
要想了解GIL,首先确定一点:每次执行python程序,都会产生一个独立的进程。例如python test.py,python aaa.py,python bbb.py会产生3个不同的python进程
- '''
- # 验证python test.py只会产生一个进程
- # test.py内容
- import os,time
- print(os.getpid())
- time.sleep(1000)
- '''
- python3 test.py
- # 在windows下
- tasklist |findstr python
-
- # 在linux下
- ps aux |grep python
在一个python的进程内,不仅有test.py的主线程或者由该主线程开启的其他线程,还有解释器开启的垃圾回收等解释器级别的线程,总之,所有线程都运行在这一个进程内,毫无疑问
#1 所有数据都是共享的,这其中,代码作为一种数据也是被所有线程共享的(test.py的所有代码以及Cpython解释器的所有代码)
例如:test.py定义一个函数work(代码内容如下图),在进程内所有线程都能访问到work的代码,于是我们可以开启三个线程然后target都指向该代码,能访问到意味着就是可以执行。
#2 所有线程的任务,都需要将任务的代码当做参数传给解释器的代码去执行,即所有的线程要想运行自己的任务,首先需要解决的是能够访问到解释器的代码。
综上:
如果多个线程的target=work,那么执行流程是,多个线程先访问到解释器的代码,即拿到执行权限,然后将target的代码交给解释器的代码去执行
解释器的代码是所有线程共享的,所以垃圾回收线程也可能访问到解释器的代码而去执行,这就导致了一个问题:对于同一个数据100,可能线程1执行x=100的同时,而垃圾回收执行的是回收100的操作,解决这种问题没有什么高明的方法,就是加锁处理,如下图的GIL,保证python解释器同一时间只能执行一个任务的代码
GIL保护的是解释器级的数据,保护用户自己的数据则需要自己加锁处理,如下图
有了GIL的存在,同一时刻同一进程中只有一个线程被执行
听到这里,有的同学立马质问:进程可以利用多核,但是开销大,而python的多线程开销小,但却无法利用多核优势,也就是说python没用了,php才是最牛逼的语言?
要解决这个问题,我们需要在几个点上达成一致:
#1. cpu到底是用来做计算的,还是用来做I/O的?
#2. 多cpu,意味着可以有多个核并行完成计算,所以多核提升的是计算性能
#3. 每个cpu一旦遇到I/O阻塞,仍然需要等待,所以多核对I/O操作没什么用处
一个工人相当于cpu,此时计算相当于工人在干活,I/O阻塞相当于为工人干活提供所需原材料的过程,工人干活的过程中如果没有原材料了,则工人干活的过程需要停止,直到等待原材料的到来。
如果你的工厂干的大多数任务都要有准备原材料的过程(I/O密集型),那么你有再多的工人,意义也不大,还不如一个人,在等材料的过程中让工人去干别的活,反过来讲,如果你的工厂原材料都齐全,那当然是工人越多,效率越高
结论:
对计算来说,cpu越多越好,但是对于I/O来说,再多的cpu也没用
当然对运行一个程序来说,随着cpu的增多执行效率肯定会有所提高(不管提高幅度多大,总会有所提高),这是因为一个程序基本上不会是纯计算或者纯I/O,所以我们只能相对的去看一个程序到底是计算密集型还是I/O密集型,从而进一步分析python的多线程到底有无用武之地
# 分析:
我们有四个任务需要处理,处理方式肯定是要玩出并发的效果,解决方案可以是:
方案一:开启四个进程
方案二:一个进程下,开启四个线程
# 单核情况下,分析结果:
如果四个任务是计算密集型,没有多核来并行计算,方案一徒增了创建进程的开销,方案二胜
如果四个任务是I/O密集型,方案一创建进程的开销大,且进程的切换速度远不如线程,方案二胜
# 多核情况下,分析结果:
如果四个任务是计算密集型,多核意味着并行计算,在python中一个进程中同一时刻只有一个线程执行用不上多核,方案一胜
如果四个任务是I/O密集型,再多的核也解决不了I/O问题,方案二胜
# 结论:现在的计算机基本上都是多核,python对于计算密集型的任务开多线程的效率并不能带来多大性能上的提升,甚至不如串行(没有大量切换),但是,对于IO密集型的任务效率还是有显著提升的。
计算密集型:多进程效率高
- from multiprocessing import Process
- from threading import Thread
- import os,time
- def work():
- res=0
- for i in range(100000000):
- res*=i
-
-
- if __name__ == '__main__':
- l=[]
- print(os.cpu_count()) # 本机为4核
- start=time.time()
- for i in range(4):
- p=Process(target=work) # 耗时5s多
- p=Thread(target=work) # 耗时18s多
- l.append(p)
- p.start()
- for p in l:
- p.join()
- stop=time.time()
- print('run time is %s' %(stop-start))
I/O密集型:多线程效率高
- from multiprocessing import Process
- from threading import Thread
- import threading
- import os,time
- def work():
- time.sleep(2)
- print('===>')
-
- if __name__ == '__main__':
- l=[]
- print(os.cpu_count()) # 本机为4核
- start=time.time()
- for i in range(400):
- # p=Process(target=work) # 耗时12s多,大部分时间耗费在创建进程上
- p=Thread(target=work) # 耗时2s多
- l.append(p)
- p.start()
- for p in l:
- p.join()
- stop=time.time()
- print('run time is %s' %(stop-start))
应用:
多线程用于IO密集型,如:socket,爬虫,web 多进程用于计算密集型,如:金融分析
拿到 CPU 权限 -> 拿到 GIL 解释器锁 -> 执行代码
在 Python 3.2 之后 GIL 有了新的实现,目的是为了解决 That GIL Thrashing 问题,这是Antoine Pitrou 的功劳
1.主动释放
遇到 IO 操作或者分配的 CPU 时间片到时间了。
注意,GIL存在的意义在于维护线程安全,x=10涉及到IO操作,如果也被当成普通的IO操作,主动交出GIL,那么一定会出现数据不安全问题,所以x=10一定是被区分对待了。
至于x=10如何实现的被区分对待,这其实很好理解,任何的io操作都是向操作系统发送系统调用,即调用操作系统的某一接口实现的,比如变量赋值操作肯定是调用了一种接口,文件读写操作肯定也是调用了一种接口,网络io也是调用了某一种接口,这就给区分对待提供了实现的依据,即变量赋值操作并不属于主动释放的范畴,这样GIL在线程安全方面才会有所作为。
2.被动释放
python3.2之后定义了一个全局变量
/ Python/ceval.c /*
...
static volatile int gil_drop_request = 0;
注意当只有一个线程时,该线程会一直运行,不会释放GIL,当有多个线程时
例如:thead1,thread2
如果thread1一直没有主动释放掉GIL,那肯定不会让他一直运行下去啊,实际上在thread1运行的过程时,thread2就会执行一个cv_wait(gil,TIMEOUT)的函数,(默认TIMEOUT值为5milliseconds,但是可以修改),一旦到了时间,就会将全局变量
gil_drop_request = 1;线程thread1就会被强制释放GIL,然后线程thread2开始运行并返回一个ack给线程thread1,线程thread1开始调用cv_wait(gil,TIMEOUT)
三个需要注意的点:
#1.线程抢的是GIL锁,GIL锁相当于执行权限,拿到执行权限后才能拿到互斥锁Lock,其他线程也可以抢到GIL,但如果发现Lock仍然没有被释放则阻塞,即便是拿到执行权限GIL也要立刻交出来
#2.join是等待所有,即整体串行,而锁只是锁住修改共享数据的部分,即部分串行,要想保证数据安全的根本原理在于让并发变成串行,join与互斥锁都可以实现,毫无疑问,互斥锁的部分串行效率要更高
#3. 一定要看本小节最后的GIL与互斥锁的经典分析
GIL VS Lock
首先我们需要达成共识:锁的目的是为了保护共享的数据,同一时间只能有一个线程来修改共享的数据
然后,我们可以得出结论:保护不同的数据就应该加不同的锁。
最后,问题就很明朗了,GIL 与Lock是两把锁,保护的数据不一样,前者是解释器级别的(当然保护的就是解释器级别的数据,比如垃圾回收的数据),后者是保护用户自己开发的应用程序的数据,很明显GIL不负责这件事,只能用户自定义加锁处理,即Lock
过程分析:所有线程抢的是GIL锁,或者说所有线程抢的是执行权限
线程1抢到GIL锁,拿到执行权限,开始执行,然后加了一把Lock,还没有执行完毕,即线程1还未释放Lock,有可能线程2抢到GIL锁,开始执行,执行过程中发现Lock还没有被线程1释放,于是线程2进入阻塞,被夺走执行权限,有可能线程1拿到GIL,然后正常执行到释放Lock。。。这就导致了串行运行的效果
既然是串行,那我们执行
t1.start()
t1.join
t2.start()
t2.join()
这也是串行执行啊,为何还要加Lock呢,需知join是等待t1所有的代码执行完,相当于锁住了t1的所有代码,而Lock只是锁住一部分操作共享数据的代码。
详细
- 因为Python解释器帮你自动定期进行内存回收,你可以理解为python解释器里有一个独立的线程,每过一段时间它起wake up做一次全局轮询看看哪些内存数据是可以被清空的,此时你自己的程序里的线程和py解释器自己的线程是并发运行的,假设你的线程删除了一个变量,py解释器的垃圾回收线程在清空这个变量的过程中的clearing时刻,可能一个其它线程正好又重新给这个还没来及得清空的内存空间赋值了,结果就有可能新赋值的数据被删除了,为了解决类似的问题,python解释器简单粗暴的加了锁,即当一个线程运行时,其它人都不能动,这样就解决了上述的问题, 这可以说是Python早期版本的遗留问题。
- from threading import Thread
- import os,time
- def work():
- global n
- temp=n
- time.sleep(0.1)
- n=temp-1
- if __name__ == '__main__':
- n=100
- l=[]
- for i in range(100):
- p=Thread(target=work)
- l.append(p)
- p.start()
- for p in l:
- p.join()
-
- print(n) #结果可能为99
锁通常被用来实现对共享资源的同步访问。为每一个共享资源创建一个Lock对象,当你需要访问该资源时,调用acquire方法来获取锁对象(如果其它线程已经获得了该锁,则当前线程需等待其被释放),待资源访问完后,再调用release方法释放锁:
- import threading
-
- R=threading.Lock()
-
- R.acquire()
- '''
- 对公共数据的操作
- '''
- R.release()
- from threading import Thread,Lock
- import os,time
- def work():
- global n
- lock.acquire()
- temp=n
- time.sleep(0.1)
- n=temp-1
- lock.release()
- if __name__ == '__main__':
- lock=Lock()
- n=100
- l=[]
- for i in range(100):
- p=Thread(target=work)
- l.append(p)
- p.start()
- for p in l:
- p.join()
-
- print(n) #结果肯定为0,由原来的并发执行变成串行,牺牲了执行效率保证了数据安全
GIL锁与互斥锁综合分析(重点!!!)
分析:
#1. 100个线程去抢GIL锁,即抢执行权限
#2. 肯定有一个线程先抢到GIL(暂且称为线程1),然后开始执行,一旦执行就会拿到lock.acquire()
#3. 极有可能线程1还未运行完毕,就有另外一个线程2抢到GIL,然后开始运行,但线程2发现互斥锁lock还未被线程1释放,于是阻 塞,被迫交出执行权限,即释放GIL
#4. 直到线程1重新抢到GIL,开始从上次暂停的位置继续执行,直到正常释放互斥锁lock,然后其他的线程再重复2 3 4的过程
互斥锁与join的区别(重点!!!)
- # 不加锁:并发执行,速度快,数据不安全
- from threading import current_thread,Thread,Lock
- import os,time
- def task():
- global n
- print('%s is running' %current_thread().getName())
- temp=n
- time.sleep(0.5)
- n=temp-1
-
-
- if __name__ == '__main__':
- n=100
- lock=Lock()
- threads=[]
- start_time=time.time()
- for i in range(100):
- t=Thread(target=task)
- threads.append(t)
- t.start()
- for t in threads:
- t.join()
-
- stop_time=time.time()
- print('主:%s n:%s' %(stop_time-start_time,n))
-
- '''
- Thread-1 is running
- Thread-2 is running
- ......
- Thread-100 is running
- 主:0.5216062068939209 n:99
- '''
-
-
- # 不加锁:未加锁部分并发执行,加锁部分串行执行,速度慢,数据安全
- from threading import current_thread,Thread,Lock
- import os,time
- def task():
- # 未加锁的代码并发运行
- time.sleep(3)
- print('%s start to run' %current_thread().getName())
- global n
- # 加锁的代码串行运行
- lock.acquire()
- temp=n
- time.sleep(0.5)
- n=temp-1
- lock.release()
-
- if __name__ == '__main__':
- n=100
- lock=Lock()
- threads=[]
- start_time=time.time()
- for i in range(100):
- t=Thread(target=task)
- threads.append(t)
- t.start()
- for t in threads:
- t.join()
- stop_time=time.time()
- print('主:%s n:%s' %(stop_time-start_time,n))
-
- '''
- Thread-1 is running
- Thread-2 is running
- ......
- Thread-100 is running
- 主:53.294203758239746 n:0
- '''
-
- # 有的同学可能有疑问:既然加锁会让运行变成串行,那么我在start之后立即使用join,就不用加锁了啊,也是串行的效果啊
- # 没错:在start之后立刻使用jion,肯定会将100个任务的执行变成串行,毫无疑问,最终n的结果也肯定是0,是安全的,但问题是
- # start后立即join:任务内的所有代码都是串行执行的,而加锁,只是加锁的部分即修改共享数据的部分是串行的
- # 单从保证数据安全方面,二者都可以实现,但很明显是加锁的效率更高.
- from threading import current_thread,Thread,Lock
- import os,time
- def task():
- time.sleep(3)
- print('%s start to run' %current_thread().getName())
- global n
- temp=n
- time.sleep(0.5)
- n=temp-1
-
-
- if __name__ == '__main__':
- n=100
- lock=Lock()
- start_time=time.time()
- for i in range(100):
- t=Thread(target=task)
- t.start()
- t.join()
- stop_time=time.time()
- print('主:%s n:%s' %(stop_time-start_time,n))
-
- '''
- Thread-1 start to run
- Thread-2 start to run
- ......
- Thread-100 start to run
- 主:350.6937336921692 n:0 #耗时是多么的恐怖
- '''
进程也有死锁与递归锁,在进程那里忘记说了,放到这里一切说了额
所谓死锁: 是指两个或两个以上的进程或线程在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去。此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进程称为死锁进程,如下就是死锁
- from threading import Thread,Lock
- import time
- mutexA=Lock()
- mutexB=Lock()
-
- class MyThread(Thread):
- def run(self):
- self.func1()
- self.func2()
- def func1(self):
- mutexA.acquire()
- print('\033[41m%s 拿到A锁\033[0m' %self.name)
-
- mutexB.acquire()
- print('\033[42m%s 拿到B锁\033[0m' %self.name)
- mutexB.release()
-
- mutexA.release()
-
- def func2(self):
- mutexB.acquire()
- print('\033[43m%s 拿到B锁\033[0m' %self.name)
- time.sleep(2)
-
- mutexA.acquire()
- print('\033[44m%s 拿到A锁\033[0m' %self.name)
- mutexA.release()
-
- mutexB.release()
-
- if __name__ == '__main__':
- for i in range(10):
- t=MyThread()
- t.start()
-
- '''
- Thread-1 拿到A锁
- Thread-1 拿到B锁
- Thread-1 拿到B锁
- Thread-2 拿到A锁
- 然后就卡住,死锁了
- '''
解决方法,递归锁,在Python中为了支持在同一线程中多次请求同一资源,python提供了可重入锁RLock。
这个RLock内部维护着一个Lock和一个counter变量,counter记录了acquire的次数,从而使得资源可以被多次require。直到一个线程所有的acquire都被release,其他的线程才能获得资源。上面的例子如果使用RLock代替Lock,则不会发生死锁:
mutexA=mutexB=threading.RLock() #一个线程拿到锁,counter加1,该线程内又碰到加锁的情况,则counter继续加1,这期间所有其他线程都只能等待,等待该线程释放所有锁,即counter递减到0为止
同进程的一样,Semaphore管理一个内置的计数器, 每当调用acquire()时内置计数器-1; 调用release() 时内置计数器+1; 计数器不能小于0;当计数器为0时,acquire()将阻塞线程直到其他线程调用release()。
实例:(同时只有5个线程可以获得semaphore,即可以限制最大连接数为5):
- from threading import Thread,Semaphore
- import threading
- import time
- # def func():
- # if sm.acquire():
- # print (threading.currentThread().getName() + ' get semaphore')
- # time.sleep(2)
- # sm.release()
- def func():
- sm.acquire()
- print('%s get sm' %threading.current_thread().getName())
- time.sleep(3)
- sm.release()
- if __name__ == '__main__':
- sm=Semaphore(5)
- for i in range(23):
- t=Thread(target=func)
- t.start()
与进程池是完全不同的概念,进程池Pool(4),最大只能产生4个进程,而且从头到尾都只是这四个进程,不会产生新的,而信号量是产生一堆线程/进程
同进程的一样
线程的一个关键特性是每个线程都是独立运行且状态不可预测。如果程序中的其 他线程需要通过判断某个线程的状态来确定自己下一步的操作,这时线程同步问题就会变得非常棘手。为了解决这些问题,我们需要使用threading库中的Event对象。 对象包含一个可由线程设置的信号标志,它允许线程等待某些事件的发生。在 初始情况下,Event对象中的信号标志被设置为假。如果有线程等待一个Event对象, 而这个Event对象的标志为假,那么这个线程将会被一直阻塞直至该标志为真。一个线程如果将一个Event对象的信号标志设置为真,它将唤醒所有等待这个Event对象的线程。如果一个线程等待一个已经被设置为真的Event对象,那么它将忽略这个事件, 继续执行
- event.isSet():返回event的状态值;
-
- event.wait():如果 event.isSet()==False将阻塞线程;
-
- event.set(): 设置event的状态值为True,所有阻塞池的线程激活进入就绪状态, 等待操作系统调度;
-
- event.clear():恢复event的状态值为False。
例如,有多个工作线程尝试链接MySQL,我们想要在链接前确保MySQL服务正常才让那些工作线程去连接MySQL服务器,如果连接不成功,都会去尝试重新连接。那么我们就可以采用threading.Event机制来协调各个工作线程的连接操作
- from threading import Thread,Event
- import threading
- import time,random
- def conn_mysql():
- count=1
- while not event.is_set():
- if count > 3:
- raise TimeoutError('链接超时')
- print('<%s>第%s次尝试链接' % (threading.current_thread().getName(), count))
- event.wait(0.5)
- count+=1
- print('<%s>链接成功' %threading.current_thread().getName())
-
-
- def check_mysql():
- print('\033[45m[%s]正在检查mysql\033[0m' % threading.current_thread().getName())
- time.sleep(random.randint(2,4))
- event.set()
- if __name__ == '__main__':
- event=Event()
- conn1=Thread(target=conn_mysql)
- conn2=Thread(target=conn_mysql)
- check=Thread(target=check_mysql)
-
- conn1.start()
- conn2.start()
- check.start()
使得线程等待,只有满足某条件时,才释放n个线程
- import threading
-
- def run(n):
- con.acquire()
- con.wait()
- print("run the thread: %s" %n)
- con.release()
-
- if __name__ == '__main__':
-
- con = threading.Condition()
- for i in range(10):
- t = threading.Thread(target=run, args=(i,))
- t.start()
-
- while True:
- inp = input('>>>')
- if inp == 'q':
- break
- con.acquire()
- con.notify(int(inp))
- con.release()
- def condition_func():
-
- ret = False
- inp = input('>>>')
- if inp == '1':
- ret = True
-
- return ret
-
-
- def run(n):
- con.acquire()
- con.wait_for(condition_func)
- print("run the thread: %s" %n)
- con.release()
-
- if __name__ == '__main__':
-
- con = threading.Condition()
- for i in range(10):
- t = threading.Thread(target=run, args=(i,))
- t.start()
定时器,指定n秒后执行某操作
- from threading import Timer
-
-
- def hello():
- print("hello, world")
-
- t = Timer(1, hello)
- t.start() # after 1 seconds, "hello, world" will be printed
验证码定时器
- from threading import Timer
- import random,time
-
- class Code:
- def __init__(self):
- self.make_cache()
-
- def make_cache(self,interval=5):
- self.cache=self.make_code()
- print(self.cache)
- self.t=Timer(interval,self.make_cache)
- self.t.start()
-
- def make_code(self,n=4):
- res=''
- for i in range(n):
- s1=str(random.randint(0,9))
- s2=chr(random.randint(65,90))
- res+=random.choice([s1,s2])
- return res
-
- def check(self):
- while True:
- inp=input('>>: ').strip()
- if inp.upper() == self.cache:
- print('验证成功',end='\n')
- self.t.cancel()
- break
-
-
- if __name__ == '__main__':
- obj=Code()
- obj.check()
queue队列 :使用import queue,用法与进程Queue一样
queue is especially useful in threaded programming when information must be exchanged safely between multiple threads.
• class queue.Queue(maxsize=0) 先进先出
- import queue
-
- q=queue.Queue()
- q.put('first')
- q.put('second')
- q.put('third')
-
- print(q.get())
- print(q.get())
- print(q.get())
- '''
- 结果(先进先出):
- first
- second
- third
- '''
- import queue
-
- q=queue.LifoQueue()
- q.put('first')
- q.put('second')
- q.put('third')
-
- print(q.get())
- print(q.get())
- print(q.get())
- '''
- 结果(后进先出):
- third
- second
- first
- '''
- import queue
-
- q=queue.PriorityQueue()
- #put进入一个元组,元组的第一个元素是优先级(通常是数字,也可以是非数字之间的比较),数字越小优先级越高
- q.put((20,'a'))
- q.put((10,'b'))
- q.put((30,'c'))
-
- print(q.get())
- print(q.get())
- print(q.get())
- '''
- 结果(数字越小优先级越高,优先级高的优先出队):
- (10, 'b')
- (20, 'a')
- (30, 'c')
- '''
其他
- Constructor for a priority queue. maxsize is an integer that sets the upperbound limit on the number of items that can be placed in the queue. Insertion will block once this size has been reached, until queue items are consumed. If maxsize is less than or equal to zero, the queue size is infinite.
-
- 构造一个优先级队列,其中maxsize是一个整数,用于设置可以放入队列的项目数量的上限.一旦达到这个上限,插入就会阻塞,直到队列中有项目被消耗。如果maxsize小于或等于0,则队列长度为无穷大。
-
- The lowest valued entries are retrieved first (the lowest valued entry is the one returned by sorted(list(entries))[0]). A typical pattern for entries is a tuple in the form: (priority_number, data).
-
- 首先检索最低值的条目(最低值的条目是指列表经过排序后取到的索引为0的那个元素,一般条目是(优先级数字,数据)这种元组的形式
-
- exception queue.Empty
- Exception raised when non-blocking get() (or get_nowait()) is called on a Queue object which is empty.
-
- 当表示非阻塞的get()或get_nowait()在一个空的队列对象中被调用时,会抛出异常
-
- exception queue.Full
- Exception raised when non-blocking put() (or put_nowait()) is called on a Queue object which is full.
-
- 当表示非阻塞的put()或put_nowait()在一个满的队列对象中被调用时,会抛出异常
-
- Queue.qsize()
- Queue.empty() #return True if empty
-
- 当队列为空返回True
-
- Queue.full() # return True if full
-
- 当队列为满返回True
-
- Queue.put(item, block=True, timeout=None)
- Put item into the queue. If optional args block is true and timeout is None (the default), block if necessary until a free slot is available. If timeout is a positive number, it blocks at most timeout seconds and raises the Full exception if no free slot was available within that time. Otherwise (block is false), put an item on the queue if a free slot is immediately available, else raise the Full exception (timeout is ignored in that case).
-
- 将一个项放入队列。如果可选参数block为true并且timeout为None(默认值),则在必要时阻塞,直到有空闲槽可用。如果参数timeout是一个正数,它最多阻塞timeout秒,如果在这段时间内没有可用的空闲槽,则会引发Full异常。否则(block为false),如果有空闲槽可用,则将一个项目放入队列中,否则引发Full异常(在这种情况下,timeout被忽略)。
-
- Queue.put_nowait(item)
- Equivalent to put(item, False).
-
- Queue.get(block=True, timeout=None)
- Remove and return an item from the queue. If optional args block is true and timeout is None (the default), block if necessary until an item is available. If timeout is a positive number, it blocks at most timeout seconds and raises the Empty exception if no item was available within that time. Otherwise (block is false), return an item if one is immediately available, else raise the Empty exception (timeout is ignored in that case).
-
- 从队列中移除并返回一个项。如果可选参数block为true并且timeout为None(默认值),则在必要时阻塞,直到有可用的项。如果timeout为正数,则最多阻塞timeout秒,如果在该时间内没有可用项,则抛出Empty异常。否则(block为false),如果一个项目可用,则返回那个项目,否则引发Empty异常(在这种情况下,timeout被忽略)。
-
- Queue.get_nowait()
- Equivalent to get(False).
-
- Two methods are offered to support tracking whether enqueued tasks have been fully processed by daemon consumer threads.
-
- 提供了两种方法来支持追踪进入队列的任务是否已被生产者的守护线程完全处理。
-
- Queue.task_done()
- Indicate that a formerly enqueued task is complete. Used by queue consumer threads. For each get() used to fetch a task, a subsequent call to task_done() tells the queue that the processing on the task is complete.
-
- 假定先前进入队列的任务已完成。并且被队列生产者使用。对于每个用于获取任务的get(),后续对task_done()的调用都会告诉队列任务的处理已经完成。
-
- If a join() is currently blocking, it will resume when all items have been processed (meaning that a task_done() call was received for every item that had been put() into the queue).
-
- 如果join()当前正被阻塞,它将在所有项都被处理完时恢复(这意味着对于每个已经put()到队列中的项都接收到task_done()调用)。
-
- Raises a ValueError if called more times than there were items placed in the queue.
-
- 如果调用次数超过放入队列的项数,将引发ValueError。
-
- Queue.join()
-
- 阻塞,直到queue被消费完毕
- # 1 介绍
- concurrent.futures模块提供了高度封装的异步调用接口
- ThreadPoolExecutor:线程池,提供异步调用
- ProcessPoolExecutor: 进程池,提供异步调用
- Both implement the same interface, which is defined by the abstract Executor class.
-
- # 2 基本方法
- # submit(fn, *args, **kwargs)
- 异步提交任务
-
- # map(func, *iterables, timeout=None, chunksize=1)
- 取代for循环submit的操作
-
- # shutdown(wait=True)
- 相当于进程池的pool.close()+pool.join()操作
- wait=True,等待池内所有任务执行完毕回收完资源后才继续
- wait=False,立即返回,并不会等待池内的任务执行完毕
- 但不管wait参数为何值,整个程序都会等到所有任务执行完毕
- submit和map必须在shutdown之前
-
- # result(timeout=None)
- 取得结果
-
- # add_done_callback(fn)
- 回调函数
ProcessPoolExecutor
- # 介绍
- The ProcessPoolExecutor class is an Executor subclass that uses a pool of processes to execute calls asynchronously. ProcessPoolExecutor uses the multiprocessing module, which allows it to side-step the Global Interpreter Lock but also means that only picklable objects can be executed and returned.
-
- ProcessPoolExecutor类是Executor的子类,它使用一个进程池来异步执行调用。ProcessPoolExecutor会调用多进程模块,这允许它避开全局解释器锁,但也意味着只能执行和返回可pickle的对象。
-
- class concurrent.futures.ProcessPoolExecutor(max_workers=None, mp_context=None)
- An Executor subclass that executes calls asynchronously using a pool of at most max_workers processes. If max_workers is None or not given, it will default to the number of processors on the machine. If max_workers is lower or equal to 0, then a ValueError will be raised.
- 能够异步调用数量不超过参数max_workers的子进程,如果max_workers为None或未给出,则默认值为机器上的处理器数。如果max_workers小于或等于0,则会抛出异常ValueError
-
- # 用法
- from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
-
- import os,time,random
- def task(n):
- print('%s is runing' %os.getpid())
- time.sleep(random.randint(1,3))
- return n**2
-
- if __name__ == '__main__':
-
- executor=ProcessPoolExecutor(max_workers=3)
-
- futures=[]
- for i in range(11):
- future=executor.submit(task,i)
- futures.append(future)
- executor.shutdown(True)
- print('+++>')
- for future in futures:
- print(future.result())
ThreadPoolExecutor
#介绍
ThreadPoolExecutor is an Executor subclass that uses a pool of threads to execute calls asynchronously.
ThreadPoolExecutor是Executor的一个子类,可以异步调用线程池里的线程
class concurrent.futures.ThreadPoolExecutor(max_workers=None, thread_name_prefix='')
An Executor subclass that uses a pool of at most max_workers threads to execute calls asynchronously.
能够异步调用数量不超过参数max_workers的子进程.
Changed in version 3.5: If max_workers is None or not given, it will default to the number of processors on the machine, multiplied by 5, assuming that ThreadPoolExecutor is often used to overlap I/O instead of CPU work and the number of workers should be higher than the number of workers for ProcessPoolExecutor.
3.5版本中的变化:如果max_workers为None或者没有被指定,它将默认为计算机的处理器个数乘以5,假设ThreadPoolExecutor(线程池)通常用于重复I / O操作而不是CPU的计算,那么它的实际效率会低于ProcessPoolExecutor(进程池)
New in version 3.6: The thread_name_prefix argument was added to allow users to control the threading.Thread names for worker threads created by the pool for easier debugging.
3.6版本中新增功能:添加了thread_name_prefix参数,允许用户更方便地控制线程。可以自定义由线程池创建的线程名,以便于调试。
#用法
与ProcessPoolExecutor相同
map的用法
- from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
-
- import os,time,random
- def task(n):
- print('%s is runing' %os.getpid())
- time.sleep(random.randint(1,3))
- return n**2
-
- if __name__ == '__main__':
-
- executor=ThreadPoolExecutor(max_workers=3)
-
- # for i in range(11):
- # future=executor.submit(task,i)
-
- executor.map(task,range(1,12)) #map取代了for+submit
- 回调函数
- from concurrent.futures import ThreadPoolExecutor,ProcessPoolExecutor
- from multiprocessing import Pool
- import requests
- import json
- import os
-
- def get_page(url):
- print('<进程%s> get %s' %(os.getpid(),url))
- respone=requests.get(url)
- if respone.status_code == 200:
- return {'url':url,'text':respone.text}
-
- def parse_page(res):
- res=res.result()
- print('<进程%s> parse %s' %(os.getpid(),res['url']))
- parse_res='url:<%s> size:[%s]\n' %(res['url'],len(res['text']))
- with open('db.txt','a') as f:
- f.write(parse_res)
-
-
- if __name__ == '__main__':
- urls=[
- 'https://www.baidu.com',
- 'https://www.python.org',
- 'https://www.openstack.org',
- 'https://help.github.com/',
- 'http://www.sina.com.cn/'
- ]
-
- # p=Pool(3)
- # for url in urls:
- # p.apply_async(get_page,args=(url,),callback=pasrse_page)
- # p.close()
- # p.join()
-
- p=ProcessPoolExecutor(3)
- for url in urls:
- p.submit(get_page,url).add_done_callback(parse_page) #parse_page拿到的是一个future对象obj,需要用obj.result()拿到结果
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。