爬虫之XPath高级篇
一 属性获取
1 点睛
用@符号就可以
2 代码
[code]from lxml import etree html = etree.parse('./test.html', etree.HTMLParser()) # 获取所有li节点下所有a节点的href属性 result = html.xpath('//li/a/@href') print(result)
3 结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py ['link1.html', 'link2.html', 'link3.html', 'link4.html', 'link5.html']
4 说明
我们成功获取了所有li节点下a节点的href属性,它们以列表形式返回。
二 属性多值匹配
1 无法匹配情况
1.1 代码
[code]from lxml import etree text = ''' <li class="li li-first"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) # 通过下面方式无法实现属性多值匹配 result = html.xpath('//li[@class="li"]/a/text()') print(result)
1.2 运行结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py []
2 属性多值匹配
2.1 代码
[code]from lxml import etree text = ''' <li class="li li-first"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) # 通过contains实现属性多值匹配 # contains()方法,第一个参数传入属性名称,第二个参数传入属性值, # 只要此属性包含所传入的属性值,就可以完成匹配了。 result = html.xpath('//li[contains(@class, "li")]/a/text()') print(result)
2.2 结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py ['first item']
三 多属性匹配
1 点睛
我们可能还遇到一种情况,那就是根据多个属性确定一个节点,这时就需要同时匹配多个属性。此时可以使用运算符and来连接。
2 代码
[code]from lxml import etree text = ''' <li class="li li-first" name="item"><a href="link.html">first item</a></li> ''' html = etree.HTML(text) result = html.xpath('//li[contains(@class, "li") and @name="item"]/a/text()') print(result)
3 结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py ['first item']
4 说明
这里的li节点又增加了一个属性name。要确定这个节点,需要同时根据class和name属性来选择,一个条件是class属性里面包含li字符串,另一个条件是name属性为item字符串,二者需要同时满足,需要用and操作符相连,相连之后置于中括号内进行条件筛选。
四 按序选择
1 点睛
有时候,我们在选择的时候某些属性可能同时匹配了多个节点,但是只想要其中的某个节点,如第二个节点或者最后一个节点,这时该怎么办呢?
这时可以利用中括号传入索引的方法获取特定次序的节点
2 代码
[code]from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html">first item</a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> ''' html = etree.HTML(text) result = html.xpath('//li[1]/a/text()') print(result) result = html.xpath('//li[last()]/a/text()') print(result) result = html.xpath('//li[position()<3]/a/text()') print(result) result = html.xpath('//li[last()-2]/a/text()') print(result)
3 运行结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py ['first item'] ['fifth item'] ['first item', 'second item'] ['third item']
4 说明
第一次选择时,我们选取了第一个li节点,中括号中传入数字1即可。注意,这里和代码中不同,序号是以1开头的,不是以0开头。
第二次选择时,我们选取了最后一个li节点,中括号中传入last()即可,返回的便是最后一个li节点。
第三次选择时,我们选取了位置小于3的li节点,也就是位置序号为1和2的节点,得到的结果就是前两个li节点。
第四次选择时,我们选取了倒数第三个li节点,中括号中传入last()-2即可。因为last()是最后一个,所以last()-2就是倒数第三个。
五 节点轴选择
1 点睛
XPath提供了很多节点轴选择方法,包括获取子元素、兄弟元素、父元素、祖先元素等。
2 代码
[code]from lxml import etree text = ''' <div> <ul> <li class="item-0"><a href="link1.html"><span>first item</span></a></li> <li class="item-1"><a href="link2.html">second item</a></li> <li class="item-inactive"><a href="link3.html">third item</a></li> <li class="item-1"><a href="link4.html">fourth item</a></li> <li class="item-0"><a href="link5.html">fifth item</a> </ul> </div> ''' html = etree.HTML(text) result = html.xpath('//li[1]/ancestor::*') print(result) result = html.xpath('//li[1]/ancestor::div') print(result) result = html.xpath('//li[1]/attribute::*') print(result) result = html.xpath('//li[1]/child::a[@href="link1.html"]') print(result) result = html.xpath('//li[1]/descendant::span') print(result) result = html.xpath('//li[1]/following::*[2]') print(result) result = html.xpath('//li[1]/following-sibling::*') print(result)
3 运行结果
[code]E:\WebSpider\venv\Scripts\python.exe E:/WebSpider/4_1.py [<Element html at 0x15936e73388>, <Element body at 0x15936e73308>, <Element div at 0x15936e732c8>, <Element ul at 0x15936e733c8>] [<Element div at 0x15936e732c8>] ['item-0'] [<Element a at 0x15936e733c8>] [<Element span at 0x15936e732c8>] [<Element a at 0x15936e733c8>] [<Element li at 0x15936e73308>, <Element li at 0x15936e73408>, <Element li at 0x15936e73448>, <Element li at 0x15936e73488>]
4 说明
第一次选择时,我们调用了ancestor轴,可以获取所有祖先节点。其后需要跟两个冒号,然后是节点的选择器,这里我们直接使用*,表示匹配所有节点,因此返回结果是第一个li节点的所有祖先节点,包括html、body、div和ul。
第二次选择时,我们又加了限定条件,这次在冒号后面加了div,这样得到的结果就只有div这个祖先节点了。
第三次选择时,我们调用了attribute轴,可以获取所有属性值,其后跟的选择器还是*,这代表获取节点的所有属性,返回值就是li节点的所有属性值。
第四次选择时,我们调用了child轴,可以获取所有直接子节点。这里我们又加了限定条件,选取href属性为link1.html的a节点。
第五次选择时,我们调用了descendant轴,可以获取所有子孙节点。这里我们又加了限定条件获取span节点,所以返回的结果只包含span节点而不包含a节点。
第六次选择时,我们调用了following轴,可以获取当前节点之后的所有节点。这里我们虽然使用的是*匹配,但又加了索引选择,所以只获取了第二个后续节点。
第七次选择时,我们调用了following-sibling轴,可以获取当前节点之后的所有同级节点。这里我们使用*匹配,所以获取了所有后续同级节点。
- XPath在python爬虫中的高级应用
- Python爬虫利器三之Xpath语法与lxml库的用法
- XPATH(lxml)爬虫测试
- 优酷电视剧爬虫代码实现一:下载解析视频网站页面(3)补充知识点:XPath无效怎么办?
- Python爬虫入门四之Urllib库的高级用法
- 爬虫知识3:seletors选择器、Xpath、 BeautifulSoup使用案例
- python3 [入门基础实战] 爬虫入门之xpath爬取脚本之家python栏目
- Python爬虫入门(4):Urllib库的高级用法
- XPath在python中的高级应用
- [Python/爬虫]利用xpath爬取豆瓣电影top250
- python爬虫之xpath的使用方法
- Python--通过XPath实现网络爬虫
- Python高级爬虫框架Scrapy简介
- 正则黑名单高级爬虫系统
- XPath在python中的高级应用
- 用python写网络爬虫-使用xpath代替正则表达式
- 互联网金融爬虫怎么写-第一课 p2p网贷爬虫(XPath入门)
- 爬虫学习笔记005-爬虫使用xpath
- 运维学python之爬虫基础篇(三)urllib模块高级用法
- 【XPath Helper:chrome爬虫网页解析工具 Chrome插件】XPath Helper:chrome爬虫网页解析工具 Chrome插件下载_教程_安装 - 开发者插件 - Chrome插件网