提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档
《python爬虫入门教程12--selenium的安装与使用》
- selenium就是一个可以实现python自动化的模块,上次我们更新了如何安装以及它的语法。同时我也更新了如何用爬虫技术实现cookie免登录12306,再用selenium自动抢票。这个帖子主要是对selenium的一个语法讲解小案例,大家可以多运行试试。[免登录12306抢车票的链接我放在这里:https://blog.csdn.net/xaing1314/article/details/144978079](https://blog.csdn.net/xaing1314/article/details/144978079)
- 前言
- 一、selenium的自动点击
- 1.完整示例代码
- 二、总结
- 1、之前的很多帖子已经将来selenium如何配置以及一些基本语法,然后今天分享的是一个特别简单的案例。代码我也详加注释,希望可以对初学者友好。
- 2、本人也一直在自学python,之前学了基本的爬虫技术,还不够成熟,在慢慢精进,另外也在学html的一些语法,让自己的爬虫技术更进一步。后续我都会分享,也相当于分享自己的笔记,还有用python解决一些生活工作实际问题,都会去分享。就今天我就按照excel的列表内容,实现了docx的批量生成,代码也已分享,欢迎关注探讨,一起学好python,加油。
selenium就是一个可以实现python自动化的模块,上次我们更新了如何安装以及它的语法。同时我也更新了如何用爬虫技术实现cookie免登录12306,再用selenium自动抢票。这个帖子主要是对selenium的一个语法讲解小案例,大家可以多运行试试。免登录12306抢车票的链接我放在这里:https://blog.csdn.net/xaing1314/article/details/144978079
前言
提示:以下是本篇文章正文内容,下面案例可供参考
一、selenium的自动点击
1.完整示例代码
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
import time# 创建浏览器操作对象
brower = webdriver.Chrome(service=Service(r'chromedriver.exe'))url = 'https://www.baidu.com'
brower.get(url)time.sleep(2)# 获取文本框的对象
input = brower.find_element(by="id", value="kw")# 在文本框中输入周杰伦
input.send_keys('周杰伦')time.sleep(2)# 获取百度一下的按钮
button = brower.find_element(by="id", value='su')# 点击按钮
button.click()time.sleep(2)# 滑到底部
js_bottom = 'document.documentElement.scrollTop=100000'
brower.execute_script(js_bottom)time.sleep(2)# 获取下一页的按钮
next = brower.find_element(by='xpath', value='//a[@class="n"]')# 点击下一页
next.click()time.sleep(2)# 回到上一页
brower.back()
time.sleep(2)# 回去
brower.forward()
time.sleep(3)# 退出
brower.quit()