最新消息:XAMPP默认安装之后是很不安全的,我们只需要点击左方菜单的 "安全"选项,按照向导操作即可完成安全设置。

python干货 | Python 爬虫的工具列表大全

XAMPP案例 admin 104浏览 0评论

这个列表包含与网页抓取和数据处理的Python库。

网络
通用

urllib -网络库(stdlib)。

requests -网络库。

grab – 网络库(基于pycurl)。

pycurl – 网络库(绑定libcurl)。

urllib3 – Python HTTP库,安全连接池、支持文件post、可用性高。

httplib2 – 网络库。

RoboBrowser – 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。

MechanicalSoup -一个与网站自动交互Python库。

mechanize -有状态、可编程的Web浏览库。

socket – 底层网络接口(stdlib)。

Unirest for Python – Unirest是一套可用于多种语言的轻量级的HTTP库。

hyper – Python的HTTP/2客户端。

PySocks – SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。

异步

treq – 类似于requests的API(基于twisted)。

aiohttp – asyncio的HTTP客户端/服务器(PEP-3156)。

网络爬虫框架
功能齐全的爬虫

grab – 网络爬虫框架(基于pycurl/multicur)。

scrapy – 网络爬虫框架(基于twisted),不支持Python3。

pyspider – 一个强大的爬虫系统。

cola – 一个分布式爬虫框架。

其他

portia – 基于Scrapy的可视化爬虫。

restkit – Python的HTTP资源工具包。它可以让你轻松地访问HTTP资源,并围绕它建立的对象。

demiurge – 基于PyQuery的爬虫微框架。

HTML/XML解析器
通用

lxml – C语言编写高效HTML/ XML处理库。支持XPath。

cssselect – 解析DOM树和CSS选择器。

pyquery – 解析DOM树和jQuery选择器。

BeautifulSoup – 低效HTML/ XML处理库,纯Python实现。

html5lib – 根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。

feedparser – 解析RSS/ATOM feeds。

MarkupSafe – 为XML/HTML/XHTML提供了安全转义的字符串。

xmltodict – 一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。

xhtml2pdf – 将HTML/CSS转换为PDF。

untangle – 轻松实现将XML文件转换为Python对象。

清理

Bleach – 清理HTML(需要html5lib)。

sanitize – 为混乱的数据世界带来清明。

文本处理
用于解析和操作简单文本的库。

通用

difflib – (Python标准库)帮助进行差异化比较。

Levenshtein – 快速计算Levenshtein距离和字符串相似度。

fuzzywuzzy – 模糊字符串匹配。

esmre – 正则表达式加速器。

ftfy – 自动整理Unicode文本,减少碎片化。

转换

unidecode – 将Unicode文本转为ASCII。

字符编码

uniout – 打印可读字符,而不是被转义的字符串。

chardet – 兼容 Python的2/3的字符编码器。

xpinyin – 一个将中国汉字转为拼音的库。

pangu.py – 格式化文本中CJK和字母数字的间距。

Slug化

awesome-slugify – 一个可以保留unicode的Python slugify库。

python-slugify – 一个可以将Unicode转为ASCII的Python slugify库。

unicode-slugify – 一个可以将生成Unicode slugs的工具。

pytils – 处理俄语字符串的简单工具(包括pytils.translit.slugify)。

通用解析器

PLY – lex和yacc解析工具的Python实现。

pyparsing – 一个通用框架的生成语法分析器。

人的名字

python-nameparser -解析人的名字的组件。

电话号码

phonenumbers -解析,格式化,存储和验证国际电话号码。

用户代理字符串

python-user-agents – 浏览器用户代理的解析器。

HTTP Agent Parser – Python的HTTP代理分析器。

特定格式文件处理
解析和处理特定文本格式的库。

通用

tablib – 一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。

textract – 从各种文件中提取文本,比如 Word、PowerPoint、PDF等。

messytables – 解析混乱的表格数据的工具。

rows – 一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT – 将来还会提供更多!)。

Office

python-docx – 读取,查询和修改的Microsoft Word2007/2008的docx文件。

xlwt / xlrd – 从Excel文件读取写入数据和格式信息。

XlsxWriter – 一个创建Excel.xlsx文件的Python模块。

xlwings – 一个BSD许可的库,可以很容易地在Excel中调用Python,反之亦然。

openpyxl – 一个用于读取和写入的Excel2010 XLSX/ XLSM/ xltx/ XLTM文件的库。

Marmir – 提取Python数据结构并将其转换为电子表格。

PDF

PDFMiner – 一个从PDF文档中提取信息的工具。

PyPDF2 – 一个能够分割、合并和转换PDF页面的库。

ReportLab – 允许快速创建丰富的PDF文档。

pdftables – 直接从PDF文件中提取表格。

Markdown

Python-Markdown – 一个用Python实现的John Gruber的Markdown。

Mistune – 速度最快,功能全面的Markdown纯Python解析器。

markdown2 – 一个完全用Python实现的快速的Markdown。

YAML

PyYAML – 一个Python的YAML解析器。

CSS

cssutils – 一个Python的CSS库。

ATOM/RSS

feedparser – 通用的feed解析器。

SQL

sqlparse – 一个非验证的SQL语句分析器。

HTTP

HTTP

http-parser – C语言实现的HTTP请求/响应消息解析器。

微格式

opengraph – 一个用来解析Open Graph协议标签的Python模块。

可移植的执行体

pefile – 一个多平台的用于解析和处理可移植执行体(即PE)文件的模块。

PSD

psd-tools – 将Adobe Photoshop PSD(即PE)文件读取到Python数据结构。

自然语言处理
处理人类语言问题的库。

NLTK -编写Python程序来处理人类语言数据的最好平台。

Pattern – Python的网络挖掘模块。他有自然语言处理工具,机器学习以及其它。

TextBlob – 为深入自然语言处理任务提供了一致的API。是基于NLTK以及Pattern的巨人之肩上发展的。

jieba – 中文分词工具。

SnowNLP – 中文文本处理库。

loso – 另一个中文分词库。

genius – 基于条件随机域的中文分词。

langid.py – 独立的语言识别系统。

Korean – 一个韩文形态库。

pymorphy2 – 俄语形态分析器(词性标注+词形变化引擎)。

PyPLN  – 用Python编写的分布式自然语言处理通道。这个项目的目标是创建一种简单的方法使用NLTK通过网络接口处理大语言库。

浏览器自动化与仿真
selenium – 自动化真正的浏览器(Chrome浏览器,火狐浏览器,Opera浏览器,IE浏览器)。

Ghost.py – 对PyQt的webkit的封装(需要PyQT)。

Spynner – 对PyQt的webkit的封装(需要PyQT)。

Splinter – 通用API浏览器模拟器(selenium web驱动,Django客户端,Zope)。

多重处理
threading – Python标准库的线程运行。对于I/O密集型任务很有效。对于CPU绑定的任务没用,因为python GIL。

multiprocessing – 标准的Python库运行多进程。

celery – 基于分布式消息传递的异步任务队列/作业队列。

concurrent-futures – concurrent-futures 模块为调用异步执行提供了一个高层次的接口。

异步
异步网络编程库

asyncio – (在Python 3.4 +版本以上的 Python标准库)异步I/O,时间循环,协同程序和任务。

Twisted – 基于事件驱动的网络引擎框架。

Tornado – 一个网络框架和异步网络库。

pulsar – Python事件驱动的并发框架。

diesel – Python的基于绿色事件的I/O框架。

gevent – 一个使用greenlet 的基于协程的Python网络库。

eventlet – 有WSGI支持的异步框架。

Tomorrow – 异步代码的奇妙的修饰语法。

队列
celery – 基于分布式消息传递的异步任务队列/作业队列。

huey – 小型多线程任务队列。

mrq – Mr. Queue – 使用redis & Gevent 的Python分布式工作任务队列。

RQ – 基于Redis的轻量级任务队列管理器。

simpleq – 一个简单的,可无限扩展,基于Amazon SQS的队列。

python-gearman – Gearman的Python API。

云计算
picloud – 云端执行Python代码。

dominoup.com – 云端执行R,Python和matlab代码。

电子邮件
电子邮件解析库

flanker – 电子邮件地址和Mime解析库。

Talon – Mailgun库用于提取消息的报价和签名。

网址和网络地址操作
解析/修改网址和网络地址库。

URL

furl – 一个小的Python库,使得操纵URL简单化。

purl – 一个简单的不可改变的URL以及一个干净的用于调试和操作的API。

urllib.parse – 用于打破统一资源定位器(URL)的字符串在组件(寻址方案,网络位置,路径等)之间的隔断,为了结合组件到一个URL字符串,并将“相对URL”转化为一个绝对URL,称之为“基本URL”。

tldextract – 从URL的注册域和子域中准确分离TLD,使用公共后缀列表。

网络地址

netaddr – 用于显示和操纵网络地址的Python库。

网页内容提取
提取网页内容的库。

HTML页面的文本和元数据

newspaper – 用Python进行新闻提取、文章提取和内容策展。

html2text – 将HTML转为Markdown格式文本。

python-goose – HTML内容/文章提取器。

lassie – 人性化的网页内容检索工具

micawber – 一个从网址中提取丰富内容的小库。

sumy -一个自动汇总文本文件和HTML网页的模块

Haul – 一个可扩展的图像爬虫。

python-readability – arc90 readability工具的快速Python接口。

scrapely – 从HTML网页中提取结构化数据的库。给出了一些Web页面和数据提取的示例,scrapely为所有类似的网页构建一个分析器。

视频

youtube-dl – 一个从YouTube下载视频的小命令行程序。

you-get – Python3的YouTube、优酷/ Niconico视频下载器。

维基

WikiTeam – 下载和保存wikis的工具。

WebSocket
用于WebSocket的库。

Crossbar – 开源的应用消息传递路由器(Python实现的用于Autobahn的WebSocket和WAMP)。

AutobahnPython – 提供了WebSocket协议和WAMP协议的Python实现并且开源。

WebSocket-for-Python – Python 2和3以及PyPy的WebSocket客户端和服务器库。

DNS解析
dnsyo – 在全球超过1500个的DNS服务器上检查你的DNS。

pycares – c-ares的接口。c-ares是进行DNS请求和异步名称决议的C语言库。

计算机视觉
OpenCV – 开源计算机视觉库。

SimpleCV – 用于照相机、图像处理、特征提取、格式转换的简介,可读性强的接口(基于OpenCV)。

mahotas – 快速计算机图像处理算法(完全使用 C++ 实现),完全基于 numpy 的数组作为它的数据类型。

代理服务器
shadowsocks – 一个快速隧道代理,可帮你穿透防火墙(支持TCP和UDP,TFO,多用户和平滑重启,目的IP黑名单)。

tproxy – tproxy是一个简单的TCP路由代理(第7层),基于Gevent,用Python进行配置。

其他Python工具列表
awesome-python

pycrumbs

python-github-projects

python_reference

pythonidae

 

 

课程大纲

第一课 静态网页爬虫:爬虫的基础技术

1.  HTML
2.  CSS 选择器
3.  JavaScript 介绍
4.  lxml 及 XPath
5.  Python 里的网络请求

6.  第一个爬虫:蚂蜂窝的游记

第二课 登录及动态网页的抓取

1.  表单

2.  网站登录及Cookie

3.  Headless 的浏览器:PhantomJS

4.  浏览器的驱动:Selenium

5.  动态网页数据获取

第三课 微博的抓取

1.  微博网站分布及结构分析

2.  通过动态页面来抓取

3.  微博网络接口的逆向分析

4.  利用API来抓取微博

第四课 微信公众号抓取

1.  AnyProxy 抓包工具

2.  微信公众号接口分析

3.  利用 NodeJS 重定向接口

4.  后台数据获取及保存

5.  利用接口直接获取所有历史消息

6.  应对微信公众号反爬虫的架构设计

第五课 验证码的处理,京东、淘宝的数据抓取及存储案例

1.  基于距离的图片比对

2.  基于 TesseractOcr 的数字识别

3.  其它验证码识别方案

4.  京东数据抓取

5.  淘宝数据抓取

第六课 多线程与多进程的爬虫

1.  线程与进程

2.  Python 的多线程约束

3.  多个线程同时抓取

4.  多个进程同时抓取

5.  日志系统设计

第七课 微博数据的存储:分布式数据库及应用

1.  SQL 与 NoSQL

2.  Hadoop 架构

3.  HDFS

4.  HBase

5.  MongoDB

6.  Redis

7.  基于分布式数据库的分布式爬虫

第八课 多机并行的微博抓取:分布式系统设计

1.  守护进程

2.  Socket 编程

3.  Master 设计

4.  Slave 设计

5.  任务调度及通信协议

6.  分布式集群部署的爬虫

第九课 PageRank、网页动态重拍及应对反爬虫技术的手段

1.  PageRank 计算模型及推导

2.  网页抓取顺序重排

3.  网站服务架构

4.  寻找与利用分布式服务器

5.  多IP技术与路由控制

6.  几乎可以应对所有反爬规则的爬虫系统架构

第十课 Scrapy 爬虫框架介绍

1.  Sample

2.  框架分析

3.  自动生成爬虫

4.  控制台

5.  流水线

6.  中间件

第十一课 文本自动抽取、网页分类与针对文本的机器学习应用

1.  文本的自动化抽取

2.  文本分类

3.  网页分类基础

4.  分词与特征抽取

5.  线性回归

6.  SVM

7.  Logistic Regession

8.  网页分类

9.  多分类器

第十二课 信息检索、搜索引擎原理及应用

1.  搜索引擎架构介绍

2.  正排表与倒排表

3.  Bool 模型

4.  Vector 模型

5.  概率模型

6.  TF/IDF

7.  Elastic Search

转载请注明:XAMPP中文组官网 » python干货 | Python 爬虫的工具列表大全