首页 » 网站推广 » php爬虫多线程技巧_看几段爬虫代码详解Python多线程多进程协程

php爬虫多线程技巧_看几段爬虫代码详解Python多线程多进程协程

访客 2024-11-14 0

扫一扫用手机浏览

文章目录 [+]

优质文章,第一韶光投递!

一、序言

php爬虫多线程技巧_看几段爬虫代码详解Python多线程多进程协程

很多时候我们写了一个爬虫,实现了需求后会创造了很多值得改进的地方,个中很主要的一点便是爬取速率。
本文就通过代码讲解如何利用多进程、多线程、协程来提升爬取速率。
把稳:我们不深入先容理论和事理,统统都在代码中。

php爬虫多线程技巧_看几段爬虫代码详解Python多线程多进程协程
(图片来自网络侵删)

二、同步

首先我们写一个简化的爬虫,对各个功能细分,故意识进行函数式编程。
下面代码的目的是访问300次百度页面并返回状态码,个中parse_1函数可以设定循环次数,每次循环将当前循环数(从0开始)和url传入parse_2函数。

import requestsdef parse_1:url = 'https://www.baidu.com'for i in range(300):parse_2(url)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

性能的花费紧张在IO要求中,当单进程单线程模式下要求URL时一定会引起等待

示例代码便是范例的串行逻辑,parse_1将url和循环数通报给parse_2parse_2要求并返回状态码后parse_1连续迭代一次,重复之前步骤

三、多线程

由于CPU在实行程序时每个韶光刻度上只会存在一个线程,因此多线程实际长进步了进程的利用率从而提高了CPU的利用率

实现多线程的库有很多,这里用concurrent.futures中的ThreadPoolExecutor来演示。
先容ThreadPoolExecutor库是由于它比较其他库代码更简洁

为了方便解释问题,下面代码中如果是新增加的部分,代码行前会加上 > 符号便于不雅观察解释问题,实际运行须要去掉

import requests> from concurrent.futures import ThreadPoolExecutordef parse_1:url = 'https://www.baidu.com'# 建立线程池> pool = ThreadPoolExecutor(6)for i in range(300):> pool.submit(parse_2, url)> pool.shutdown(wait=True)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

跟同步相对的便是异步。
异步便是彼此独立,在等待某事宜的过程中连续做自己的事,不须要等待这一事宜完成后再事情。
线程便是实现异步的一个办法,也便是说多线程是异步处理异步就意味着不知道处理结果,有时候我们须要理解处理结果,就可以采取回调

import requestsfrom concurrent.futures import ThreadPoolExecutor# 增加回调函数> def callback(future):> print(future.result)def parse_1:url = 'https://www.baidu.com'pool = ThreadPoolExecutor(6)for i in range(300):> results = pool.submit(parse_2, url)# 回调的关键步骤> results.add_done_callback(callback)pool.shutdown(wait=True)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

Python实现多线程有一个无数人诟病的GIL(全局阐明器锁),但多线程对付爬取网页这种多数属于IO密集型的任务依旧很得当。

四、多进程

多进程用两个方法实现:ProcessPoolExecutormultiprocessing

1. ProcessPoolExecutor

和实现多线程的ThreadPoolExecutor类似

import requests> from concurrent.futures import ProcessPoolExecutordef parse_1:url = 'https://www.baidu.com'# 建立线程池> pool = ProcessPoolExecutor(6)for i in range(300):> pool.submit(parse_2, url)> pool.shutdown(wait=True)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

可以看到改动了两次类名,代码依旧很简洁,同理也可以添加回调函数

import requestsfrom concurrent.futures import ProcessPoolExecutor> def callback(future):> print(future.result)def parse_1:url = 'https://www.baidu.com'pool = ProcessPoolExecutor(6)for i in range(300):> results = pool.submit(parse_2, url)> results.add_done_callback(callback)pool.shutdown(wait=True)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

2. multiprocessing

直接看代码,统统都在注释中。

import requests> from multiprocessing import Pooldef parse_1:url = 'https://www.baidu.com'# 建池> pool = Pool(processes=5)# 存放结果> res_lst = for i in range(300):# 把任务加入池中> res = pool.apply_async(func=parse_2, args=(url,))# 获取完成的结果(须要取出)> res_lst.append(res)# 存放终极结果(也可以直接存储或者print)> good_res_lst = > for res in res_lst:# 利用get获取处理后的结果> good_res = res.get# 判断结果的好坏> if good_res:> good_res_lst.append(good_res)# 关闭和等待完成> pool.close> pool.joindef parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

可以看到multiprocessing库的代码稍繁琐,但支持更多的拓展。
多进程和多线程确实能够达到加速的目的,但如果碰着IO壅塞会涌现线程或者进程的摧残浪费蹂躏,因此有一个更好的方法……

五、异步非壅塞

协程+回调合营动态协作就可以达到异步非壅塞的目的,实质只用了一个线程,以是很大程度利用了资源

实现异步非壅塞经典是利用asyncio库+yield,为了方便利用逐渐涌现了更上层的封装 aiohttp,要想更好的理解异步非壅塞最好还是深入理解asyncio库。
gevent是一个非常方便实现协程的库

import requests> from gevent import monkey# 猴子补丁是协作运行的灵魂> monkey.patch_all> import geventdef parse_1:url = 'https://www.baidu.com'# 建立任务列表> tasks_list = for i in range(300):> task = gevent.spawn(parse_2, url)> tasks_list.append(task)> gevent.joinall(tasks_list)def parse_2(url):response = requests.get(url)print(response.status_code)if __name__ == '__main__':parse_1

gevent能很大提速,也引入了新的问题:如果我们不想速率太快给做事器造成太大包袱怎么办?如果是多进程多线程的建池方法,可以掌握池内数量。
如果用gevent想要掌握速率也有一个不错的方法:建立行列步队。
gevent中也供应了Quene类,下面代码改动较大

import requestsfrom gevent import monkeymonkey.patch_allimport gevent> from gevent.queue import Queuedef parse_1:url = 'https://www.baidu.com'tasks_list = # 实例化行列步队> quene = Queuefor i in range(300):# 全部url压入行列步队> quene.put_nowait(url)# 两路行列步队> for _ in range(2):> task = gevent.spawn(parse_2)> tasks_list.append(task)gevent.joinall(tasks_list)# 不须要传入参数,都在行列步队中> def parse_2:# 循环判断行列步队是否为空> while not quene.empty:# 弹出行列步队> url = quene.get_nowaitresponse = requests.get(url)# 判断行列步队状态> print(quene.qsize, response.status_code)if __name__ == '__main__':parse_1

结束语

以上便是几种常用的加速方法。
如果对代码测试感兴趣可以利用time模块判断运行韶光。
爬虫的加速是主要技能,但适当掌握速率也是爬虫事情者的良好习气,不要给做事器太大压力,拜拜~

早起Python原创作者:陈熹

回答下方「关键词」,获取优质资源

回答关键词「 pybook03」,立即获取主页君与小伙伴一起翻译的《Think Python 2e》电子版

回答关键词「入门资料」,立即获取主页君整理的 10 本 Python 入门书的电子版

回答关键词「m」,立即获取Python精选优质文章合集

回答关键词「」,将数字更换成 0 及以上数字,有惊喜好礼哦~

题图:pexels,CC0 授权。

好文章,我在看❤️

标签:

相关文章

介绍直播新纪元,轻松进入直播的五大步骤

随着互联网技术的飞速发展,直播行业在我国逐渐崛起,越来越多的人选择通过直播这一新兴媒介展示自己、分享生活、传递价值。对于许多新手来...

网站推广 2025-01-03 阅读0 评论0

介绍相机美颜原理,科技与美学的完美结合

随着科技的发展,智能手机的摄像头功能日益强大,美颜相机成为了许多人拍照的首选。美颜相机不仅满足了人们对于美的追求,更在视觉上给人带...

网站推广 2025-01-03 阅读0 评论0

介绍磁铁的制造,科学与艺术的完美结合

磁铁,一种神秘的物质,自古以来就吸引了无数人的目光。它不仅具有独特的磁性,还能在工业、医疗、科研等领域发挥重要作用。磁铁是如何制造...

网站推广 2025-01-03 阅读0 评论0

介绍电瓶激活方法,让电池焕发新生

随着科技的不断发展,电动汽车逐渐成为人们出行的首选。而电瓶作为电动汽车的核心部件,其性能直接影响着车辆的续航里程和行驶体验。新购买...

网站推广 2025-01-03 阅读0 评论0