python爬虫——用selenium爬取淘宝商品信息
2019-05-26 10:31
561 查看
python爬虫——用selenium爬取淘宝商品信息
1.附上效果图
2.淘宝网址https://www.taobao.com/
3.先写好头部
browser = webdriver.Chrome() wait = WebDriverWait(browser,20)#设置等待时间为20秒 url ='https://www.taobao.com/' keyword = 'python爬虫'#关键词 data_list = []#设置全局变量来存储数据
4.先找到搜索框并用selenium模拟点击(发现需要登录,我直接扫码登录,没有写模拟登录的过程)
def search(): try: browser.get(url)#获取网页 input = wait.until(EC.presence_of_element_located(( By.XPATH,'//*[@id="q"]' )))#等到输入框加载出来 button = wait.until(EC.element_to_be_clickable(( By.XPATH,'//*[@id="J_TSearchForm"]/div[1]/button' )))#等到搜索框加载出来 input.send_keys(keyword)#输入关键词 button.click()#模拟鼠标点击 total = wait.until(EC.presence_of_element_located(( By.XPATH,'//*[@id="mainsrp-pager"]/div/div/div/div[1]' ))).text#等到python爬虫页面的总页数加载出来 total = re.sub(r',|,','',total)#发现总页数有逗号 #数据清洗,将共100页后面的逗号去掉,淘宝里的是大写的逗号 print(total) totalnum = int(re.compile('(\d+)').search(total).group(1)) # 只取出100这个数字 print("第1页:") get_data()#获取数据(下面才写到) return totalnum except TimeoutError: search()
5.获取商品信息,在这里我发现前几个会有淘宝的掌柜热卖的广告,属性和其他的不一样,我就用item从上往下数的第几个的方法找到他们
def get_data(): try: lis = browser.find_elements_by_xpath('//div[@class = "items"]/div[@data-category="auctions"]') for i in range(len(lis)): name = browser.find_elements_by_xpath('.//div[@class="pic"]/a[@class="pic-link J_ClickStat J_ItemPicA"]/img')[i].get_attribute('alt') #获取书名,我是从图片那里的属性获取的书名,比较方便 shopname = browser.find_elements_by_xpath('.//div[@class="shop"]/a[@class="shopname J_MouseEneterLeave J_ShopInfo"]/span[2]')[i].text #获取店铺名 price = browser.find_elements_by_xpath('.//div[@class="price g_price g_price-highlight"]/strong')[i].text #获取价格 paynum = browser.find_elements_by_xpath('.//div[@class="deal-cnt"]')[i].text #获取付款人数 data_dict={}#定义一个字典存储数据 data_dict["name"] = name data_dict["shopname"] = shopname data_dict["price"] = price data_dict["paynum"] = paynum print(data_dict)#输出这个字典 data_list.append(data_dict)#将数据存入全局变量中 except TimeoutError: get_data()
6.翻页方法,对比1,2,3页网址,发现只有q和s的属性有用,q是搜索,s是商品数,只需要填写这2个属性,用修改s的属性的方式翻页
def next_page(): totalnum = search()#获取总页数的值,并且调用search获取第一页数据 num = 1#初始为1,因为我第一页已经获取过数据了 while num !=3:#这里我偷懒只爬取了3页 # while num != totalnum - 1:#首先进来的是第1页,共100页,所以只需要翻页99次 print("第%s页:" %str(num+1) ) browser.get('https://s.taobao.com/search?q=python爬虫&s={}'.format(44 * num)) #用修改s属性的方式翻页 browser.implicitly_wait(10) #等待10秒 get_data()#获取数据 time.sleep(3) num +=1#自增
7.存储方法
def save(): content = json.dumps(data_list, ensure_ascii=False, indent=2) # 把全局变量转化为json数据 with open("taobao.json", "a+", encoding="utf-8") as f: f.write(content) print("json文件写入成功") with open('taobao.csv', 'w', encoding='utf-8', newline='') as f: # 表头 title = data_list[0].keys() # 声明writer writer = csv.DictWriter(f, title) # 写入表头 writer.writeheader() # 批量写入数据 writer.writerows(data_list) print('csv文件写入完成')
8.调用函数
def main(): next_page() save() if __name__ == '__main__': main()
9.最后附上完整代码,因为爬取的是淘宝,我也不敢多爬
import time from selenium import webdriver from selenium.webdriver.support import expected_conditions as EC from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait import re import json import csv browser = webdriver.Chrome() wait = WebDriverWait(browser,20)#设置等待时间为20秒 url ='https://www.taobao.com/' keyword = 'python爬虫'#关键词 data_list = []#设置全局变量来存储数据 def search(): try: browser.get(url)#获取网页 input = wait.until(EC.presence_of_element_located(( By.XPATH,'//*[@id="q"]' )))#等到输入框加载出来 button = wait.until(EC.element_to_be_clickable(( By.XPATH,'//*[@id="J_TSearchForm"]/div[1]/button' )))#等到搜索框加载出来 input.send_keys(keyword)#输入关键词 button.click()#模拟鼠标点击 total = wait.until(EC.presence_of_element_located(( By.XPATH,'//*[@id="mainsrp-pager"]/div/div/div/div[1]' ))).text#等到python爬虫页面的总页数加载出来 total = re.sub(r',|,','',total)#发现总页数有逗号 #数据清洗,将共100页后面的逗号去掉,淘宝里的是大写的逗号 print(total) totalnum = int(re.compile('(\d+)').search(total).group(1)) # 只取出100这个数字 print("第1页:") get_data()#获取数据(下面才写到) return totalnum except TimeoutError: search() def get_data(): try: lis = browser.find_elements_by_xpath('//div[@class = "items"]/div[@data-category="auctions"]') for i in range(len(lis)): name = browser.find_elements_by_xpath('.//div[@class="pic"]/a[@class="pic-link J_ClickStat J_ItemPicA"]/img')[i].get_attribute('alt') #获取书名,我是从图片那里的属性获取的书名,比较方便 shopname = browser.find_elements_by_xpath('.//div[@class="shop"]/a[@class="shopname J_MouseEneterLeave J_ShopInfo"]/span[2]')[i].text #获取店铺名 price = browser.find_elements_by_xpath('.//div[@class="price g_price g_price-highlight"]/strong')[i].text #获取价格 paynum = browser.find_elements_by_xpath('.//div[@class="deal-cnt"]')[i].text #获取付款人数 data_dict={}#定义一个字典存储数据 data_dict["name"] = name data_dict["shopname"] = shopname data_dict["price"] = price data_dict["paynum"] = paynum print(data_dict)#输出这个字典 data_list.append(data_dict)#将数据存入全局变量中 except TimeoutError: get_data() def next_page(): totalnum = search()#获取总页数的值,并且调用search获取第一页数据 num = 1#初始为1,因为我第一页已经获取过数据了 while num !=3:#这里我偷懒只爬取了3页 # while num != totalnum - 1:#首先进来的是第1页,共100页,所以只需要翻页99次 print("第%s页:" %str(num+1) ) browser.get('https://s.taobao.com/search?q=python爬虫&s={}'.format(44 * num)) #用修改s属性的方式翻页 browser.implicitly_wait(10) #等待10秒 get_data()#获取数据 time.sleep(3) num +=1#自增 def save(): content = json.dumps(data_list, ensure_ascii=False, indent=2) # 把全局变量转化为json数据 with open("taobao.json", "a+", encoding="utf-8") as f: f.write(content) print("json文件写入成功") with open('taobao.csv', 'w', encoding='utf-8', newline='') as f: # 表头 title = data_list[0].keys() # 声明writer writer = csv.DictWriter(f, title) # 写入表头 writer.writeheader() # 批量写入数据 writer.writerows(data_list) print('csv文件写入完成') def main(): next_page() save() if __name__ == '__main__': main()
相关文章推荐
- python爬虫之selenium+chrome 爬去淘宝商品信息
- 使用python + selenium爬取淘宝商品信息
- 4000 【爬虫】 通过关键字爬取淘宝商品列表信息 selenium 的 webdriverwait 和expected_conditions
- python爬虫爬取淘宝商品信息
- 简单的抓取淘宝关键字信息、图片的Python爬虫|Python3中级玩家:淘宝天猫商品搜索爬虫自动化工具(第二篇)
- python爬虫之:淘宝商品搜索爬虫(收集商品信息/下载详情图)
- Python使用Selenium模块实现模拟浏览器抓取淘宝商品美食信息功能示例
- python爬虫爬取淘宝商品信息(selenum+phontomjs)
- python爬虫(三)selenium爬取京东商品信息
- python selenium实现下拉 爬取淘宝商品信息
- 爬虫实践---Selenium-抓取淘宝搜索商品信息
- python3实现爬取淘宝页面的商品的数据信息(selenium+pyquery+mongodb)
- Python爬虫(入门+进阶)学习笔记 1-8 使用自动化神器Selenium爬取动态网页(案例三:爬取淘宝商品)
- [笔记]python爬虫:淘宝商品价格信息爬取示例
- 使用python利器selenium工具模拟浏览器运行并爬取淘宝商品信息
- python爬虫入门——爬取淘宝商品评论信息
- Python网页信息采集:使用PhantomJS采集淘宝天猫商品内容
- python爬取淘宝商品销量信息
- Python利用cookie模拟登录,爬取指定关键词的淘宝商品信息
- python爬虫-淘宝商品密码(图文教程附源码)