自己爬虫的几个案例
2019-10-15 19:26
477 查看
原创,如转载请注明来源https://www.cnblogs.com/sogeisetsu/
爬取中国大学排名
#这个只用到了requests 和 bs4 #爬取大学排名 import requests from bs4 import BeautifulSoup as bs def grthtml(url): demo=requests.get(url) demo.encoding=demo.apparent_encoding demo=demo.text return(demo) def listhtml(ulist,html): soup=bs(html,"html.parser") soup=soup.tbody for tr in soup("tr"): tds=tr("td") ulist.append([tds[0].string,tds[1].string,tds[2].string]) def pmhtml(ulist,num): print('{0:^10}\t{1:{3}^7}\t{2:^10}'.format("排名","校名","地址",chr(12288))) for i in ulist[0:num]: print("{0:^10}\t{1:{3}^10}\t{2:^10}".format(i[0],i[1],i[2],chr(12288))) if __name__=="__main__": url="http://www.zuihaodaxue.cn/zuihaodaxuepaiming2016.html" html=grthtml(url) uinfo=[] listhtml(uinfo,html) num=int(input()) pmhtml(uinfo,num)
爬取今日头条热点
# 这个爬取的是动态页面 # 爬取动态页面,今日头条 # 源文件里是没有内容的只有js import requests from bs4 import BeautifulSoup as bs import json def gethtml(url): try: #通过F12检查出来自下面这个链接 # url="https://www.toutiao.com/api/pc/feed/?category=news_hot&utm_source=toutiao&widen=1&max_behot_time=0&max_behot_time_tmp=0&tadrequire=true&as=A1D5FDAAB5194AE&cp=5DA599948ACE7E1&_signature=TBeQ-wAAEbOkzbKGAd3hQUwXkO" head={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36','Cookie':#cookie就用自己的吧} r=requests.get(url,headers=head) return r.text #返回json文件 except: print("oneerror") def getulist(html,list): try: soup=json.loads(html) soupdata=soup['data'] for one in soupdata: a='https://www.toutiao.com/a'+one['group_id'] list.append([one['title'],one['abstract'],a]) except: print("twoerror") def printulist(list): for i in list: print("title:\n{}".format(i[0])) print("简介:\n{}".format(i[1])) print("链接:{:^30}".format(i[2])) if __name__=="__main__": url = "https://www.toutiao.com/api/pc/feed/?category=news_hot&utm_source=toutiao&widen=1&max_behot_time=0&max_behot_time_tmp=0&tadrequire=true&as=A1D5FDAAB5194AE&cp=5DA599948ACE7E1&_signature=TBeQ-wAAEbOkzbKGAd3hQUwXkO" html=gethtml(url) relist=[] getulist(html,relist) printulist(relist)
爬取知乎热点
#爬取知乎 import requests from bs4 import BeautifulSoup as bs def gethtml(url): headers={'user-agent':'Mozila/5.0','Cookie':#cookie就用自己的吧} r=requests.get(url,headers=headers) r.raise_for_status() r.encoding=r.apparent_encoding r=r.text return r def getlist(ulist,html): soup=bs(html,"html.parser") soup = soup("div", "HotList-list") c=soup[0].contents for sect in c: if sect.a.p: pp=sect.a.p.string else: pp="该题目下没有相应简介" ulist.append([sect.a.h2.string,pp,sect.a.attrs['href']]) def printlist(ulist,num): top=1 for i in ulist[0:num]: print("top{}".format(top)) top+=1 print("题目:{}".format(i[0])) print("优秀回答简介:\n{}".format(i[1])) print("链接\n{}".format(i[2])) # print("\n") if __name__ == "__main__": url="https://www.zhihu.com/hot" ulist=[] print("您想看知乎热榜top几?") num=int(input()) html=gethtml(url) getlist(ulist,html) printlist(ulist,num)
相关文章推荐
- 自己动手,丰衣足食!Python3网络爬虫实战案例
- 带给大家几个比较好玩的爬虫案例!适合小萌新玩!(附源码思路)
- 使用正则表达式写一个网页爬虫案例获取指定文档中的邮件地址保存到自己指定的文件夹中
- scrapy爬虫的几个案例
- 自己动手,丰衣足食!Python3网络爬虫实战案例
- phpexcel-自己写的几个非常好用的函数
- 第一次用python 写的简单爬虫 记录在自己的博客
- 利用java的异常处理自己写个一个图书借阅系统的小案例
- 自己动手写爬虫
- Python3.x爬虫教程:爬网页、爬图片、自己主动登录
- Android新闻案例clientserver达到,完全自己的新闻节目平台
- 怎么直接调用系统设置好的闹钟(自己解决了,来几个收分的)
- 研究几个星期UDK,终于搞出自己的一个游戏喽
- 01_正则表达式_05_小结和几个案例
- 最新Python案例带你全面掌握商业爬虫项目实战(完整)
- list的add方法 ,foreach循环添加map---List.add(map)(通过一个java爬虫案例说明)
- C#简单爬虫案例
- python2-爬虫-POST请求的模拟案例_recv
- 自己把几个网上的源码弄成的dll文件,并在winform中引用可行?
- 利用urllib+beadutifulsoup编写自己的第一个小爬虫,获取美女图片