您的位置:首页 > 理论基础 > 计算机网络

网络爬虫,python和数据分析学习--part2

2017-10-10 17:12 387 查看
Created on Tue Oct 10 10:47:31 2017

本段程序为科大王澎老师《网络爬虫,python和数据分析》中P15,针对spyder3做了微调

主要任务:实现了自动抓取多网页

@author:

“””

import re

import urllib.request

import pymysql

from bs4 import BeautifulSoup

aaa = 3640

url1=’http://bbs.ustc.edu.cn/cgi/bbstdoc?board=PieBridge&start=

while aaa>0:

aaa=aaa-20#网站link有规律,每页递减20,利用该规律设置每次赋入的URL,爬完所有贴

aaa1=str(aaa)

url1=url1+aaa1

fp=urllib.request.urlopen(url1)

s=fp.read()

soup=BeautifulSoup(s)

polist=soup.findAll(‘span’)

print (polist[1].contents[1])

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  python