网页一般都有两种请求方式,get和post,简单地说,get方法请求的参数会显示在url上,且传输的数据量有限制,是不安全的,post请求的参数用户都是不可见的,可传输的数据量一般默认是不受限制的。
所以我们在编写网络爬虫时,需要判断是哪种请求方式,然后使用具体的方法,可是我们如何判断是post请求还是get请求呢?其实你想要的浏览器都有了按F12调出调试窗口
可以看到,我们需要的请求方式就在这,这时我们就可以分别对不同的请求方法编写代码了
get请求的例子我们选用的网址是搜狗搜索,输入内容狗
可以看见是get的请求方法,而get请求方式的url带有参数
而只有狗是我们填入的参数,其他都是自动生成的
然后这次就是要使用新的模块requests了,注意:requests模块是需要单独通过pip安装
requests之get方法使用
requests.get()里面的参数,url就是url,params是请求参数,headers是头信息,注意get的请求参数是params
其实好像也没啥好说的,requests的作用就是发送请求给服务器,然后创建一个对象接收响应内容。
requests之post方法使用
随意找了个post请求的
点击下面这个地方Response可以查看网页响应数据
编写代码如下
看懂这些代码应该是很简单的,就不废话了
本文暂时没有评论,来添加一个吧(●'◡'●)