博客
关于我
jmeter压测学习16-setUp线程组批量登录用户后保存token到本地.csv文件
阅读量:474 次
发布时间:2019-03-06

本文共 1578 字,大约阅读时间需要 5 分钟。

前言

前面一篇已经实现了在 setUp 线程组实现单个用户先登录后提取token给其它线程组使用,在压测的时候,单个用户登录很显然不能满足我们的压测需求。

我们在压测接口的时候,需批量获取多个用户登录后返回的token值,那么在setUp 线程组可以先批量登录后把token保存到本地csv文件,后面的接口引用这个csv文件的数据参数化。

setUp 线程组批量登录

我们希望能批量登录用户,先提取注册准备好一批账号和密码,用 user_password.txt 保存账号和密码,格式如下

test1,123456test2,123456test3,123456test4,123456test5,123456......

我这里暂时准备了五个账号和密码,文件放到D:\jmeter\user_password.txt

添加配置元件- CSV 数据文件设置,引用参数化文件,并设置2个变量user,password(变量中间英文逗号隔开)
登录接口引用参数化的变量

这里有五个账号,在线程组里面设置循环5次,让用户循环使用里面的账号和密码去登录

查看结构树,会看到每个用户依次登录了。

BeanShell 保存token到本地.csv文件

前面登录成功后,用json提取器提出token

添加BeanShell 后置处理程序,保存token到本地csv文件

保存到本地D:\jmeter\user_token.csv,同时保存了user账号和对应的token值,相关代码如下

FileWriter fileWriter = new FileWriter(new File("D:\\jmeter\\user_token.csv"), true);BufferedWriter writer = new BufferedWriter(fileWriter);writer.append(vars.get("user")+","+vars.get("token")+"\n");writer.close();fileWriter.close();

去D:\jmeter查看user_token.csv文件内容

test1,448f77de68ad0921f395f3a23bac3a645bf32bb1test2,53394ee2dada865321421e499d24d059327fcd1ftest3,677b5885d5c1c53699a6a7cae5843b000cfac1f1test4,a714dd4981c9b63da340941b7a9d0a05fe1da274test5,5451960ab187728dcf62eb4efff7c788cce7432b

删除本地文件

上面写入token的到.csv文件的方式是追加写入,多次运行后,会重复写入到token。

我们希望每次运行都能先删掉之前的旧文件,生成token后重新写入到文件,这样每次生成的数据都是最新的。在BeanShell添加删除文件的代码

String path="D:\\jmeter\\user_token.csv";File file=new File(path);file.delete();FileWriter fileWriter = new FileWriter(new File("D:\\jmeter\\user_token.csv"), true);BufferedWriter writer = new BufferedWriter(fileWriter);writer.clear();writer.write("");writer.close();fileWriter.close();

这样每次运行都能得到最新的.csv文件了

原文地址,转载请注明出处!

你可能感兴趣的文章
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>