python初学者爬虫教程(二)动态网页抓取

   日期:2020-11-11     浏览:90    评论:0    
核心提示:python(二)动态网页抓取解析真实地址抓取参考链接,包括例子的网站如果使用 AJAX 加载的动态网页,有两种方法爬取:通过浏览器审查元素解析地址通过selenium模拟浏览器抓取解析真实地址抓取例子为参考链接中提供的网址,该链接该网站的评论是用JavaScript动态加载的,虽然数据并没有出现在网页源代码中,我们也可以找到数据的真实地址。见下F12...

python爬虫教程(二)动态网页抓取

  • 解析真实地址抓取
  • 通过selenium 模拟浏览器抓取
    • selenium 安装与测试
    • selenium爬取一条评论
    • selenium获取文章的所有评论
    • selenium其他操作

参考链接

目的是爬取所有评论,爬取的链接下面有提到

如果使用 AJAX 加载的动态网页,有两种方法爬取:

  1. 通过浏览器审查元素解析地址
  2. 通过selenium模拟浏览器抓取

以下分别介绍两种方法:(对代码有疑问欢迎提出改进)

解析真实地址抓取

例子为参考链接中提供的网址,需要爬取网站的评论的链接

  1. 抓包。点击Network,刷新网页,评论数据就在这些文件中。一般而言,这些数据可能以 json 文件格式获取。然后找到评论数据文件,见下图。点击 Preview 即可查看数据。
  2. 爬取数据,注释有解释,执行一遍有打印测试结果。
import requests
import json

link = """https://api-zero.livere.com/v1/comments/list?callback=jQuery1124027946415311453476_1602502907332&limit=10&repSeq=4272904&requestPath=%2Fv1%2Fcomments%2Flist&consumerSeq=1020&livereSeq=28583&smartloginSeq=5154&code=&_=1602502907334"""
headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
r = requests.get(link, headers=headers)
print(r.text)

# 获取 json 的 string
json_string = r.text
# 将文本中的json提取出来
json_string = json_string[json_string.find('{'):-2]
# 测试是否提取成功
print(json_string)
json_data = json.loads(json_string)
comment_list = json_data['results']['parents']
for eachone in comment_list:
    message = eachone['content']
    print(message)

  1. 改进:这里仅仅爬取了第一页的评论,我们需要爬取所有的评论。点击不同的页码,会发现多了一些json文件

    点击这些Json文件,对比他们的URL,会发现有一个参数不同:

    这个参数代表的就是页码数,offset=1代表第一页。(注意:如果第一次进入,可能没有offset这个参数,因为offset默认为1,所以在URL中没有展示

根据这个原理,编写最终代码如下:

# 通过浏览器审查元素解析地址,爬取所有评论
import requests
import json


# 爬取某一页的评论,link为链接
def single_page_comment(link, page_number):
    headers = { 
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'}
    r = requests.get(link, headers=headers)

    # 获取 json 的 string
    json_string = r.text
    # 将文本中的json提取出来
    json_string = json_string[json_string.find('{'):-2]
    # 测试是否提取成功
    # print(json_string)
    json_data = json.loads(json_string)
    comment_list = json_data['results']['parents']
    print(" 第 %g 页评论:" % page_number)
    for eachone in comment_list:
        message = eachone['content']
        print(message)
    print()


# 链接前半部分
link1 = """https://api-zero.livere.com/v1/comments/list?callback=jQuery1124027946415311453476_1602502907332&limit=10&offset="""
# 链接后半部分
link2 = """&repSeq=4272904&requestPath=%2Fv1%2Fcomments%2Flist&consumerSeq=1020&livereSeq=28583&smartloginSeq=5154&code=&_=1602502907334"""

for page in range(1, 11):
    # 链接进行拼接,得到不同页评论的URL
    current_link = link1 + str(page) + link2
    single_page_comment(current_link, page)

通过selenium 模拟浏览器抓取

在之前的方法中, 有些网站为了规避这些抓取会对地址进行加密. 因此可以用第二种方法

selenium 安装与测试

  1. 首先安装selenium 库:
pip install selenium
  1. 安装浏览器对应的geckodriver,我使用的是chrome,所以根据自己的chrome版本下载,下载地址chrome geckodriver

如果使用的是火狐,下载地址为此

其他浏览器可以百度

  1. 测试,代码如下:
from selenium import webdriver

# 下载的geckodriver的存储位置
driver = webdriver.Chrome(executable_path='D:\\12102\\files\\chromedriver.exe')
# 自动访问的网站
driver.get("https://www.baidu.com/")

结果如下:

selenium爬取一条评论

修改代码,更改打开的网站:driver.get("http://www.santostang.com/2018/07/04/hello-world/")

可以定位到评论的文字:

通过下面代码来爬取该数据,注意评论在一个iframe框架下面,因此要先对iframe进行解析。因此先使用switch_to转移焦点

from selenium import webdriver

# 下载的geckodriver的存储位置
driver = webdriver.Chrome(executable_path='D:\\12102\\files\\chromedriver.exe')
# 自动访问的网站
driver.get("http://www.santostang.com/2018/07/04/hello-world/")

# 错误范例,注意函数的名称,elements与element的区别
# 爬取一条评论
# switch_to相当于转移焦点
# driver.switch_to.frame(driver.find_elements_by_css_selector("iframe[title='livere-comment']"))
# comment = driver.find_elements_by_css_selector("div.reply-content")
# content = comment.find_element_by_tag_name('p')
# print(content.text)

# 爬取一条评论
# switch_to相当于转移焦点
driver.switch_to.frame(driver.find_element_by_css_selector("iframe[title='livere-comment']"))
driver.implicitly_wait(10) # 隐性等待10秒
comment = driver.find_element_by_css_selector('div.reply-content')
content = comment.find_element_by_tag_name('p')
print(content.text)

这里添加了driver.implicitly_wait(10)隐性等待10秒,如果没有加这行代码,会报错找不到div.reply-content,因为iframe框架加载需要时间

至于driver.implicitly_wait(10)time.sleep(10)的区别,见该文章

selenium获取文章的所有评论

同样是之前的网站,这次爬取所有的评论,观察网页的结构

每页有10小页,浏览完10页后,点击下一页,总共有27页。所有用一个嵌套for循环来完成。外面一层分别表示1-10,11-20,21-27页,里面一层输出每一页的评论,每页评论输出方法同之前的爬取一条评论。

代码见下,有注释:

# selenium获取文章的所有评论
from selenium import webdriver

# 下载的geckodriver的存储位置
driver = webdriver.Chrome(executable_path='D:\\12102\\files\\chromedriver.exe')
# 自动访问的网站
driver.get("http://www.santostang.com/2018/07/04/hello-world/")

# 需要提前知道ii的范围,ii指的是需要翻几次页,在我写这个代码时,评论有27页,意味着要点两次下一页,因为每页有10小页,所以ii为3
for ii in range(0, 3):
    # i指的是每页有10小页
    for i in range(0, 10):
        # 下滑到页面底部
        driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
        # 爬取某一页的所有评论
        driver.switch_to.frame(driver.find_element_by_css_selector("iframe[title='livere-comment']"))
        driver.implicitly_wait(10)  # 隐性等待10秒
        comment = driver.find_elements_by_css_selector('div.reply-content')
        print()
        print("第 %g 页评论:" % int(i + 1 + ii * 10))
        # 打印所有评论
        for eachcomment in comment:
            content = eachcomment.find_element_by_tag_name('p')
            print(content.text)

        # 获取所有的页码按钮
        page_btn = driver.find_elements_by_class_name("page-btn")
        # 统计这一页总共有多少页评论,默认最多为10页
        page_btn_size = len(page_btn)
        if i == page_btn_size - 1:
            driver.switch_to.default_content()
            driver.implicitly_wait(10)
            break
        # 按顺序点击某一页
        if i != 9 and i + 1 < page_btn_size:
            page_btn[i + 1].click()
        # 把iframe又转回去,注意加上这一句
        driver.switch_to.default_content()
        driver.implicitly_wait(10)

    driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
    driver.switch_to.frame(driver.find_element_by_css_selector("iframe[title='livere-comment']"))
    # 判断页面是否有下一页的按钮,没有就退出
    try:
        next_page = driver.find_element_by_class_name("page-last-btn")
        next_page.click()
        # 把iframe又转回去,注意加上这一句
        driver.switch_to.default_content()
        driver.implicitly_wait(10)
    except:
        print()
        print("爬取结束!(不是爬取内容)")

selenium其他操作

  1. 自动登录
user = driver.find_element_by_name("username")  #找到用户名输入框
user.clear  #清除用户名输入框内容
user.send_keys("1234567")  #在框中输入用户名
pwd = driver.find_element_by_name("password")  #找到密码输入框
pwd.clear  #清除密码输入框内容
pwd.send_keys("******")    #在框中输入密码
driver.find_element_by_id("loginBtn").click()  #点击登录
  1. 一般来说,Selenium因为要把整个网页加载出来,再开始爬取内容,速度往往较慢。但是可以用以下方法:

禁用图片,CSS,JS,如下图结果:

chrome例子:

from selenium import webdriver

options = webdriver.ChromeOptions()
# 禁用图片,CSS,JS
prefs = { 
    'profile.default_content_setting_values': { 
        'images': 2,
        'permissions.default.stylesheet': 2,
        'javascript': 2
    }
}
options.add_experimental_option('prefs', prefs)
# 下载的geckodriver的存储位置
driver = webdriver.Chrome(executable_path='D:\\12102\\files\\chromedriver.exe', options=options)
# 自动访问的网站
driver.get("http://www.santostang.com/2018/07/04/hello-world/")

firefox例子:

# 控制 css
from selenium import webdriver
fp = webdriver.FirefoxProfile()
fp.set_preference("permissions.default.stylesheet",2)
driver = webdriver.Firefox(firefox_profile=fp, executable_path = r'C:\Users\santostang\Desktop\geckodriver.exe')
#把上述地址改成你电脑中geckodriver.exe程序的地址
driver.get("http://www.santostang.com/2018/07/04/hello-world/")

在上述代码中,控制css的加载主要用fp = webdriver.FirefoxProfile()这个功能。设定不加载css,使用fp.set_preference(“permissions.default.stylesheet”,2)。之后使用webdriver.Firefox(firefox_profile=fp)就可以控制不加载css了。运行上述代码,得到的页面如下所示。

# 限制图片的加载
from selenium import webdriver
fp = webdriver.FirefoxProfile()
fp.set_preference("permissions.default.image",2)
driver = webdriver.Firefox(firefox_profile=fp, executable_path = r'C:\Users\santostang\Desktop\geckodriver.exe')
#把上述地址改成你电脑中geckodriver.exe程序的地址
driver.get("http://www.santostang.com/2018/07/04/hello-world/")

与限制css类似,限制图片的加载可以用fp.set_preference(“permissions. default.image”,2)。运行上述代码,得到的页面如图所示。

# 限制 JavaScript 的执行
from selenium import webdriver
fp = webdriver.FirefoxProfile()
fp.set_preference("javascript.enabled", False)
driver = webdriver.Firefox(firefox_profile=fp, executable_path = r'C:\Users\santostang\Desktop\geckodriver.exe')
#把上述地址改成你电脑中geckodriver.exe程序的地址
driver.get("http://www.santostang.com/2018/07/04/hello-world/")
 
打赏
 本文转载自:网络 
所有权利归属于原作者,如文章来源标示错误或侵犯了您的权利请联系微信13520258486
更多>最近资讯中心
更多>最新资讯中心
0相关评论

推荐图文
推荐资讯中心
点击排行
最新信息
新手指南
采购商服务
供应商服务
交易安全
关注我们
手机网站:
新浪微博:
微信关注:

13520258486

周一至周五 9:00-18:00
(其他时间联系在线客服)

24小时在线客服