您的位置:首页 > 编程语言 > Python开发

python得到所有在leetcode上Accepted的代码(一)

2016-03-27 09:38 453 查看

得到cookies

要得到所有提交成功的代码,必须先登录你的账号,得到你的cookies,这点我已经在先前的博文python 模拟登陆leetcode中详细讲述了。

url = "https://leetcode.com/submissions/"
res = s.get(url=url,headers=headers_base,cookies=login())
content = bs(res.text)//s是requests.session对象


这里得到的content也就是显示你所有在leetcode上提交历史的界面,对于网页中内容的提取,我们继续采用beautifulsoup库。

得到描述代码的网址

观察网页源码,发现你的每次提交历史都在一个tr标签





我们分析其中一个标签,发现它又包括了多个td标签,分别代表提交距今日时间,空行,题目名称,空行,是否成功,空行,用时,空行,何种语言。我们需要的内容,代表是否提交成功,以及代码网址都在第三个标签中。

之前已经说了使用beautifulsoup非常简单,不需费力匹配正则,直接使用标签名称就可以

infos = content.find_all("tr")


这里是获得网页中所有的tr标签,是否成功标识在网页中是个字符串,我们可以使用遍历tr.strings标签中所有的字符串

for i in infos:
for j in i.strings:
if j=="Accepted":
print i


这里打印出来会有很多空格,可以使用tag.stripped_strings去除空格。

for i in infos:
for j in i.stripped_strings:
if j=="Accepted":
print i


我们获得了所有描述提交成功的tr标签,下一步就是在tr标签中提取代码网址,tag的 .contents 属性可以将tag的子节点以列表的方式输出,这样就可以得到具体描述网址信息的td标签了

for i in infos:
for j in i.stripped_strings:
if j=="Accepted":
print i.contents[3]


其中一个输出是

<td>
<a class="inline-wrap" href="/problems/counting-bits/">Counting Bits</a>
</td>


即,网址信息是在td标签中的子节点a中的href属性中

for i in infos:
for j in i.stripped_strings:
if j=="Accepted":
# for k in i.contents:
#     print k
print i.contents[5].a["href"]


在前面加上 https://leetcode.com/,即为代码界面

其实获得这个网址信息,还有一个更简单的方法,



更简单的方法

观察,网页源代码,我们发现网址信息是在一个有class href属性的a标签的字节点中,beautifulsoup有个方法:

find_all( name , attrs , recursive , text , **kwargs )


find_all() 方法搜索当前tag的所有tag子节点,并判断是否符合过滤器的条件,这样上面的代码只需下面三行:

content = bs(res.text)
for i in content.find_all("a","text-danger status-accepted"):
print i["href"]


好,我们得到了描述代码的网址信息,接下来就是在该网址中得到代码了。笔者仔细看了一下该网页的源代码,竟没有找到描述提交代码的节点,后来发现是使用css的伪类,隐藏了那部分源码,这种情况,笔者也是第一次遇到,该如何处理,请关注下篇。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: