下面先容了10个爬虫框架,大家可以学习利用!
Scrapy是一个为了爬取网站数据,提取构造性数据而编写的运用框架。可以运用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。
其最初是为了 页面抓取 (更确切来说, 网络抓取 )所设计的, 也可以运用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。

PySpider是一个国人编写的强大的网络爬虫系统并带有强大的WebUI,其用python实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端利用常用的数据库进行爬取结果的存储,还能定时设置任务与任务优先级等。
3. CrawleyCrawley可以高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。
4. Portia官网:https://portia.scrapinghub.com/Portia是一个开源可视化爬虫工具,可让您在不须要任何编程知识的情形下爬取网站!
大略地注释您感兴趣的页面,Portia将创建一个蜘蛛来从类似的页面提取数据。其紧张特色是:
Newspaper可以用来提撤消息、文章和内容剖析。利用多线程,支持10多种措辞等。作者从requests库的简洁与强大得到灵感,利用python开拓的可用于提取文章内容的程序。支持10多种措辞并且所有的都是unicode编码。
6. Beautiful Soup官方文档:Beautiful Soup 4.4.0 文档Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜好的转换器实现惯用的文档导航,查找,修正文档的办法.Beautiful Soup会帮你节省数小时乃至数天的事情韶光。这个我是利用的特殊频繁的。在获取html元素,都是bs4完成的。
7. Grab官网:https://grablib.org/en/latest/Grab是一个用于构建Web刮板的Python框架。借助Grab,您可以构建各种繁芜的网页抓取工具,从大略的5行脚本到处理数百万个网页的繁芜异步网站抓取工具。Grab供应一个API用于实行网络要乞降处理吸收到的内容,例如与HTML文档的DOM树进行交互。
8. Colagithub地址:https://github.com/qinxuye/colaCola是一个分布式的爬虫框架,对付用户来说,只需编写几个特定的函数,而无需关注分布式运行的细节。任务会自动分配到多台机器上,全体过程对用户是透明的。
9. Selenium官网:https://www.selenium.dev/Selenium 是自动化测试工具。它支持各种浏览器,包括 Chrome,Safari,Firefox 等主流界面式浏览器,如果在这些浏览器里面安装一个 Selenium 的插件,可以方便地实现Web界面的测试. Selenium 支持浏览器驱动。Selenium支持多种措辞开拓,比如 Java,C,Ruby等等,PhantomJS 用来渲染解析JS,Selenium 用来驱动以及与 Python 的对接,Python 进行后期的处理。
10. Python-goosegithub地址:https://github.com/goose3/goosePython-goose框架可提取的信息包括:
文章主体内容文章紧张图片文章中嵌入的任何Youtube/Vimeo视频元描述元标签