python爬虫基础04-网页解析库xpath
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了python爬虫基础04-网页解析库xpath,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含3742字,纯文字阅读大概需要6分钟。
内容图文
![python爬虫基础04-网页解析库xpath](/upload/InfoBanner/zyjiaocheng/813/988db261c47d484cb35f3ef88f87f9d2.jpg)
更简单高效的HTML数据提取-Xpath
本文地址:https://www.jianshu.com/p/90e4b83575e2
XPath 是一门在 XML 文档中查找信息的语言。XPath 用于在 XML 文档中通过元素和属性进行导航。
相比于BeautifulSoup
,Xpath
在提取数据时会更加的方便。
安装
在Python中很多库都有提供Xpath
的功能,但是最基本的还是lxml
这个库,效率最高。在之前BeautifulSoup
章节中我们也介绍到了lxml
是如何安装的。
pip install lxml
语法
XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选取的。
我们将用以下的HTML文档来进行演示:
html_doc = '''<html>
?
<head></head>
?
<body>
<bookstore>
?
<book category="COOKING">
<title lang="en">Everyday Italian</title>
<author>Giada De Laurentiis</author>
<year>2005</year>
<price>30.00</price>
</book>
?
<book category="CHILDREN">
<title lang="en">Harry Potter</title>
<author>J K. Rowling</author>
<year>2005</year>
<price>29.99</price>
</book>
?
<book category="WEB">
<title lang="en">XQuery Kick Start</title>
<author>James McGovern</author>
<author>Per Bothner</author>
<author>Kurt Cagle</author>
<author>James Linn</author>
<author>Vaidyanathan Nagarajan</author>
<year>2003</year>
<price>49.99</price>
</book>
?
<book category="WEB">
<title lang="en">Learning XML</title>
<author>Erik T. Ray</author>
<year>2003</year>
<price>39.95</price>
</book>
?
</bookstore>
</body>
?
</html>'''
from lxml import etree
?
page = etree.HTML(html_doc)
路径查找
表达式 | 描述 |
---|---|
nodename | 选取此节点的子节点。 |
/ | 从根节点选取。 |
// | 从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。 |
. | 选取当前节点。 |
.. | 选取当前节点的父节点。 |
@ | 选取属性。 |
-
查找当前节点的子节点
In [1]: page.xpath('head')
Out[1]: [<Element head at 0x111c74c48>] -
从根节点进行查找
In [2]: page.xpath('/html')
Out[2]: [<Element html at 0x11208be88>] -
从整个文档中所有节点查找
In [3]: page.xpath('//book')
Out[3]:
[<Element book at 0x1128c02c8>,
<Element book at 0x111c74108>,
<Element book at 0x111fd2288>,
<Element book at 0x1128da348>] -
选取当前节点的父节点
In [4]: page.xpath('//book')[0].xpath('..')
Out[4]: [<Element bookstore at 0x1128c0ac8>] -
选取属性
In [5]: page.xpath('//book')[0].xpath('@category')
Out[5]: ['COOKING']
节点查找
表达式 | 结果 |
---|---|
nodename[1] | 选取第一个元素。 |
nodename[last()] | 选取最后一个元素。 |
nodename[last()-1] | 选取倒数第二个元素。 |
nodename[position()<3] | 选取前两个子元素。 |
nodename[@lang] | 选取拥有名为 lang 的属性的元素。 |
nodename[@lang='eng'] | 选取拥有lang属性,且值为 eng 的元素。 |
-
选取第二个book元素
In [1]: page.xpath('//book[2]/@category') Out[1]: ['CHILDREN']
-
选取倒数第三个book元素
In [2]: page.xpath('//book[last()-2]/@category') Out[2]: ['CHILDREN']
-
选取第二个元素开始的所有元素
In [3]: page.xpath('//book[position() > 1]/@category') Out[3]: ['CHILDREN', 'WEB', 'WEB']
-
选取category属性为WEB的的元素
In [4]: page.xpath('//book[@category="WEB"]/@category') Out[4]: ['WEB', 'WEB']
未知节点
通配符 | 描述 |
---|---|
* | 匹配任何元素节点。 |
@* | 匹配任何属性节点。 |
-
匹配第一个book元素下的所有元素
In [1]: page.xpath('//book[1]/*') Out[1]: [<Element title at 0x111f76788>, <Element author at 0x111f76188>, <Element year at 0x1128c1a88>, <Element price at 0x1128c1cc8>]
获取节点中的文本
-
用
text()
获取某个节点下的文本In [1]: page.xpath('//book[1]/author/text()') Out[1]: ['Giada De Laurentiis']
如果这个节点下有多个文本,则只能取到一段。
-
用
string()
获取某个节点下所有的文本In [2]: page.xpath('string(//book[1])') Out[2]: '\n Everyday Italian\n Giada De Laurentiis\n 2005\n 30.00\n '
选取多个路径
通过在路径表达式中使用“|”运算符,您可以选取若干个路径。
In [1]: page.xpath('//book[1]/title/text() | //book[1]/author/text()') Out[1]: ['Everyday Italian', 'Giada De Laurentiis']
内容总结
以上是互联网集市为您收集整理的python爬虫基础04-网页解析库xpath全部内容,希望文章能够帮你解决python爬虫基础04-网页解析库xpath所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。