欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 文旅 > 旅游 > python爬虫入门(二)之Requests库

python爬虫入门(二)之Requests库

2024/10/24 13:24:03 来源:https://blog.csdn.net/2302_79795489/article/details/140205506  浏览:    关键词:python爬虫入门(二)之Requests库

一、储备篇

1、requests库让我们可以通过python代码去构建和发送HTTP请求

2、第三方库,要先安装

python终端,输入pip install requests

successfully installed:安装成功

requirement already satisfied: 说明已经安装过,无需再安装

若没有pip(python包管理工具)

则可以先去http://pip.pypa.io/en/stable/installation/学习下载安装

3、

import requests
response=requests.get("http://books.toscrape.com") #发送get请求,这是一个专门给练习爬虫的网站
#协议名(http://或https://)+网址 == 完整的URL
#用requests库的函数发送请求时,请求头的信息会被自动生成(主机域名(URL参数中),客户端是谁(自动生成),客户端想要什么类型的数据)#若想对某些信息进行更改的话,可以额外传入一个headers的参数
head={"User-Agent":"Mozilla/5.0(Windows NT 10.0;Win64;x64"} #数据类型是字典,键值对可写清楚要传入的信息
#User-Agent: Mozilla/5.0(Windows NT 10.0;Win64:x64)可帮我们把爬虫程序伪装成正常浏览器(浏览器类型及版本,以及电脑操作系统等)
response=requests.get("http://books.toscrape.com",headers=head)print(response)   #打印出来是一个response类的实例,代表着服务器发回给我们的响应,包含的属性有:
print(response.status_code) #状态码属性
print(response.ok)  #ok属性,true表示请求成功
if response.ok:print("请求成功")#获取响应体的内容print(response.text) #text属性,会以字符串存储响应内容
else:print("请求失败")

 

二、实战篇

爬取豆瓣top250数据:

#1、安装requests库: 终端输入pip install requests#2、引入requests库:
import requests#豆瓣用418回应爬虫,自己只希望服务于正常的浏览器
#伪装:
#抄作业: 选一个网页->右键检查->Network-> 刷新网页->点击任意请求->展开request haeders->找到并复制user-agent
headers={"User-Agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/126.0.0.0 Safari/537.36"}
response=requests.get("https://movie.douban.com/top250",headers=headers)
print(response)
print(response.status_code) #表示客户端错误,可以通过链接developer.mozilla.org查看文档
print(response.text)

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com