【python接口测试中—Requests模块的使用】教程文章相关的互联网学习教程文章

python urllib.request.urlopen 中文乱码问题

urllib.request.urlopen getheader(Content-Disposition) 发现取出来的是乱码. 最后查到问题出在浏览器的编码上. 解决方法: s1.encode(ISO8859-1).decode(gbk) // 使用chrome 1, IE浏览器,采用URLEncoder编码 2, Opera浏览器,采用filename*方式 3, Safari浏览器,采用ISO编码的中文输出 4, Chrome浏览器,采用Base64编码或ISO编码的中文输出 5, FireFox浏览器,采用Base64或filename*或ISO编码的中文输出

四、Python爬虫学习之路---request的使用【代码】【图】

材料: 豆瓣电影排行榜 抓包工具获取url,知道方法为get,爬取时需要参数返回的数据为json#!/usr/bin/python3 import requests import json#url需要的参数为param url = 'https://movie.douban.com/j/chart/top_list' param = {'type': '24','interval_id': '100:90','action':'' ,'start': '0',#从库中的起始位置'limit': '20',#获取的个数 }#UA伪装 header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWe...

Python requests获取连接的IP地址【代码】

python获取到连接的本地IP地址,方法如下 import requestsrsp = requests.get("http://www.baidu.com", stream=True) print (rsp.raw._connection.sock.getpeername()[0]) print (rsp.raw._connection.sock.getsockname()[0])例: import socket# 查看当前主机名 print('当前主机名称为 : ' + socket.gethostname())# 根据主机名称获取当前IP print('当前主机的IP为: ' + socket.gethostbyname(socket.gethostname()))# 下方代码为...

python之requests模块中的params和data的区别【代码】【图】

params的时候之间接把参数加到url后面,只在get请求时使用: import requests url='https://api.ireaderm.net/account/charge/info/android' data={'recharge':36,'fee_id':'ireader_nonrenew_vip'} header={'X-ZY-Timestamp':'1502097587609','X-ZY-Sign':'xxxxxxxxxxxxxxxxxxxxxxxxxxx','X-ZY-Client':'xxxxxxxxxxxxxxxxxxxxxx'} res=requests.get(url,params=data,headers=header) print(res.text)import requests url='https:/...

python利用request发送post请求

1. post请求方式编码有3种:application/x-www-form-urlencoded #最常见的post提交数据的方式,以form表单形式提交数据 application/json #以json格式提交数据 multipart/form-data #一般使用来上传文件(较少用) 2. post一贯的用法是:requests.post(url,data), 具体我们使用不同的编码方式来有所不同:1)、传统表单post请求(x-www-form-urlencoded)import requests,jsonurl = http://httpbin.org/post data = {key1...

python+requests+yaml实现接口自动化用例【图】

前言:最近也思考了一下怎么做接口自动化,以下内容属于自己目前阶段所学习到的内容,也逐渐投入自己实际工作中,把最近的学习新得跟大家分享下,话不多说,切入正题。 对接口自动化测试用例的思考:接口测试大多测试人员都知道,属于黑盒测试范畴,针对拿到的接口地址,接口的参数,请求头格式对各种正常异常的参数输入,检查返回值是否跟预期结果一致,当然设计到接口安全性的问题也需要考虑进去,这里暂时不说明。那么接口自动化...

python requests模块【代码】

python requests模块 示例代码 import requestsr = requests.get('https://github.com/Ranxf') # 最基本的不带参数的get请求 r1 = requests.get(url='http://dict.baidu.com/s', params={'wd': 'python'}) # 带参数的get请求requests.get(‘https://github.com/timeline.json’) # GET请求 requests.post(“http://httpbin.org/post”) # POST请...

使用代理池多线程爬取亚马逊网站(python,requests,bs4)【代码】

ProxyPool 爬虫代理IP池使用 准备与配置 redis准备 下载redis压缩包,解压 双击redis-server.exe即可运行,或使用cmd进入解压文件夹后: redis-server.exe redis.windows.conf更详细步骤参考菜鸟教程 启动项目: 下载proxy_pool安装包 # 将此proxy_pool文件夹复制到项目文件夹下(或直接git pull),用编译器打开项目 # 若编译器提示需要导入import,直接导入,若无提示可以手动导入飘红import处缺少的包,无飘红则继续往后进行# 从...

Python爬虫笔记一(来自MOOC) Requests库入门【代码】【图】

Python爬虫笔记一(来自MOOC)提示:本文是我在中国大学MOOC里面自学以及敲的一部分代码,纯一个记录文,如果刚好有人也是看的这个课,方便搬运在自己电脑上运行。课程为:北京理工大学-嵩天-Python爬虫与信息提取提示:多多自我发挥更有助于学习语言逻辑哦! 文章目录 Python爬虫笔记一(来自MOOC)前言一、嵩天老师课件给出的代码部分1.京东商品页面的爬取2.亚马逊商品页面的爬取3.百度/360关键字提交4.网络图片的爬取与储存5.ip...

Python爬虫学习Ⅰ-Request模块【代码】

HTTP协议 概念: 服务器和客户端进行数据交互的一种形式 常用请求头信息 User-Agent: 请求载体的身份标识Connection: 请求完毕后,是否断开连接 常用响应头信息 Content-Type: 服务器响应回客户端的数据类型 HTTPS协议 安全的HTTP协议 加密方式 对称密钥加密非对称密钥加密证书密钥加密 Request模块 urllib模块request模块 request模块: 模拟浏览器发请求 如何使用 指定url发起请求获取响应数据持久化存储 CASE: 巩固 爬取搜狗至指定...

Python之requests库【代码】

本篇仅作为代码记录#!/usr/bin/python # -*- coding: UTF-8 -*- # Author: RuiMing Lin # DateTime: 2020/12/23 20:54 # Description: request库import requests import reflag = False # flag = True if flag:r = requests.get('https://static1.scrape.cuiqingcai.com/', verify=False)print(r.text)# get() flag = False # flag = True if flag:r = requests.get('http://httpbin.org/get')print(r.text)# 不同的请求方式 f...

Python+requests+allure实现接口功能自动化【图】

从12月开始一直在忙着做公司旧自动化框架的改造 原来的框架使用Unittest+htmlrunner来作为测试框架,并且部分测试用例没有使用数据驱动封装,有部分又是使用了数据驱动【excel来进行用例管理】 和领导沟通后,这2个月与另外一位同事投了一半的时间来进行框架的重构及用例的改造 目录树及用途大致如下:由于原框架中,部分接口已封装好,直接复用,除了部分新增接口有增加,并对原接口地址等做了参数化,可通过修改ini文件,即可修改...

python urllib.request error 处理

from socket import timeout try:response = urllib.request.urlopen(url, timeout=10).read().decode('utf-8') except (HTTPError, URLError) as error:logging.error('Data of %s not retrieved because %s\nURL: %s', name, error, url) except timeout:logging.error('socket timed out - URL %s', url) else:logging.info('Access successful.')

python使用requests库请求网址时,发生requests.exceptions.SSLError 错误解决办法【图】

解决办法1 1.降低requests版本解决办法2 当指定headers的User-Agent时,baidu的服务器会重定向到https的网址.因此报出SSL验证失败的错误. 在进行GET时,指定SSL证书.详情见附件 关闭证书验证. 详情见附件 附件 [各浏览器的User-Agent] http://www.useragentstring.com/pages/useragentstring.php [SSL 证书验证] https://requests.readthedocs.io/zh_CN/latest/user/advanced.html#ssl

【bug】python requests报Max retries exceeded with url异常【代码】

错误信息: python requests报Max retries exceeded with url异常 原因分析: 1http请求连接太多没有关闭造成的. 解决方案一: 关闭多余的链接: requests使用了urllib3库,默认的http connection是keep-alive的,requests设置False关闭。 sess = requests.session() sess.keep_alive = False解决方案二: 增加重试连接次数:requests.DEFAULT_RETRIES = 5

REQUESTS - 相关标签
接口测试 - 相关标签