博客
关于我
jmeter压测学习16-setUp线程组批量登录用户后保存token到本地.csv文件
阅读量:474 次
发布时间:2019-03-06

本文共 1578 字,大约阅读时间需要 5 分钟。

前言

前面一篇已经实现了在 setUp 线程组实现单个用户先登录后提取token给其它线程组使用,在压测的时候,单个用户登录很显然不能满足我们的压测需求。

我们在压测接口的时候,需批量获取多个用户登录后返回的token值,那么在setUp 线程组可以先批量登录后把token保存到本地csv文件,后面的接口引用这个csv文件的数据参数化。

setUp 线程组批量登录

我们希望能批量登录用户,先提取注册准备好一批账号和密码,用 user_password.txt 保存账号和密码,格式如下

test1,123456test2,123456test3,123456test4,123456test5,123456......

我这里暂时准备了五个账号和密码,文件放到D:\jmeter\user_password.txt

添加配置元件- CSV 数据文件设置,引用参数化文件,并设置2个变量user,password(变量中间英文逗号隔开)
登录接口引用参数化的变量

这里有五个账号,在线程组里面设置循环5次,让用户循环使用里面的账号和密码去登录

查看结构树,会看到每个用户依次登录了。

BeanShell 保存token到本地.csv文件

前面登录成功后,用json提取器提出token

添加BeanShell 后置处理程序,保存token到本地csv文件

保存到本地D:\jmeter\user_token.csv,同时保存了user账号和对应的token值,相关代码如下

FileWriter fileWriter = new FileWriter(new File("D:\\jmeter\\user_token.csv"), true);BufferedWriter writer = new BufferedWriter(fileWriter);writer.append(vars.get("user")+","+vars.get("token")+"\n");writer.close();fileWriter.close();

去D:\jmeter查看user_token.csv文件内容

test1,448f77de68ad0921f395f3a23bac3a645bf32bb1test2,53394ee2dada865321421e499d24d059327fcd1ftest3,677b5885d5c1c53699a6a7cae5843b000cfac1f1test4,a714dd4981c9b63da340941b7a9d0a05fe1da274test5,5451960ab187728dcf62eb4efff7c788cce7432b

删除本地文件

上面写入token的到.csv文件的方式是追加写入,多次运行后,会重复写入到token。

我们希望每次运行都能先删掉之前的旧文件,生成token后重新写入到文件,这样每次生成的数据都是最新的。在BeanShell添加删除文件的代码

String path="D:\\jmeter\\user_token.csv";File file=new File(path);file.delete();FileWriter fileWriter = new FileWriter(new File("D:\\jmeter\\user_token.csv"), true);BufferedWriter writer = new BufferedWriter(fileWriter);writer.clear();writer.write("");writer.close();fileWriter.close();

这样每次运行都能得到最新的.csv文件了

原文地址,转载请注明出处!

你可能感兴趣的文章
Nginx配置好ssl,但$_SERVER[‘HTTPS‘]取不到值
查看>>
Nginx配置如何一键生成
查看>>
Nginx配置实例-负载均衡实例:平均访问多台服务器
查看>>
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>