C#如何在海量数据下的高效读取写入MySQL
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了C#如何在海量数据下的高效读取写入MySQL,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含4451字,纯文字阅读大概需要7分钟。
内容图文
前提
由于工作的原因,经常需要对海量数据进行处理,做的数据爬虫相关,动辄千万级别的数据,单表几十个G都是都是家常便饭。 主要开发语言是C#,数据库使用的是MySQL。
最常见的操作便是 select 读取数据,然后在C#中对数据进行处理, 完毕后再插入数据库中。 简而言之就 select -> process -> insert三个步骤。 对于数据量小的情况下(百万级别 or 几百兆)可能最多1个小时就处理完了。但是对于千万级数据可能几天,甚至更多。 那么问题来了,如何优化??
(数据库的一览,有图有真相)
第一步 解决读取的问题
跟数据库打交道的方式有很多,我来列举下吧:
1. 【重武器-坦克大炮】使用重型ORM框架,比如EF,NHibernat 这样的框架。
2. 【轻武器-AK47】 使用Dapper,PetaPoco之类,单cs文件。灵活高效,使用简单。居家越货必备(我更喜欢PetaPoco :))
3. 【冷兵器?匕首?】使用原生的Connection、Command。 然后写原生的SQL语句。。
分析:
【重武器】在我们这里肯定直接被PASS, 他们应该被用在大型项目中。
【轻武器】Dapper,PetaPoco 看过源码你会发现用到了反射,虽然使用IL和缓存技术,但是还是会影响读取效率,PASS
好吧那就只有使用匕首,原生SQL走起, 利用DataReader 进行高效读取,并且使用索引取数据(更快),而不是列名。
大概的代码如下:
using (var conn = new MySqlConnection('Connection String...')) { conn.Open(); //此处设置读取的超时,不然在海量数据时很容易超时 var c = new MySqlCommand('set net_write_timeout=9999999; set net_read_timeout=9999999', conn); c.ExecuteNonQuery(); MySqlCommand rcmd = new MySqlCommand(); rcmd.Connection = conn; rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`'; //设置命令的执行超时 rcmd.CommandTimeout = 99999999; var myData = rcmd.ExecuteReader(); while (myData.Read()) { var f1= myData.GetInt32(0); var f2= myData.GetString(1); //这里做数据处理.... } }
哈哈,怎么样,代码非常原始,还是使用索引来取数据,很容易出错。 当然一切为了性能咱都忍了
第二步 数据处理
其实这一步,根据你的业务需要,代码肯定不一, 不过无非是一些字符串处理,类型转换的操作,这时候就是考验你的C#基础功底的时候了。 以及如何高效编写正则表达式。。。
具体代码也没法写啊 ,先看完CLR via C# 在来跟我讨论吧 ,O(∩_∩)O哈哈哈~ 跳过。。。。
第三部 数据插入
如何批量插入才最高效呢? 有同学会说, 使用事务啊,BeginTransaction, 然后EndTransaction。 恩,这个的确可以提高插入效率。 但是还有更加高效的方法,那就是合并insert语句。
那么怎么合并呢?
insert into table (f1,f2) values(1,'sss'),values(2,'bbbb'),values(3,'cccc');
就是把values后面的全部用逗号,链接起来,然后一次性执行 。
当然不能一次性提交个100MB的SQL执行,MySQL服务器对每次执行命令的长度是有限制的。 通过 MySQL服务器端的max_allowed_packet 属性可以查看, 默认是1MB
咱们来看看伪代码吧
//使用StringBuilder高效拼接字符串 var sqlBuilder = new StringBuilder(); //添加insert 语句的头 string sqlHeader = 'insert into table1 (`f1`,`f2`) values'; sqlBuilder.Append(sqlHeader); using (var conn = new MySqlConnection('Connection String...')) { conn.Open(); //此处设置读取的超时,不然在海量数据时很容易超时 var c = new MySqlCommand('set net_write_timeout=9999999; set net_read_timeout=9999999', conn); c.ExecuteNonQuery(); MySqlCommand rcmd = new MySqlCommand(); rcmd.Connection = conn; rcmd.CommandText = @'SELECT `f1`,`f2` FROM `table1`'; //设置命令的执行超时 rcmd.CommandTimeout = 99999999; var myData = rcmd.ExecuteReader(); while (myData.Read()) { var f1 = myData.GetInt32(0); var f2 = myData.GetString(1); //这里做数据处理.... sqlBuilder.AppendFormat('({0},'{1}'),', f1,AddSlash(f2)); if (sqlBuilder.Length >= 1024 * 1024)//当然这里的1MB length的字符串并不等于 1MB的Packet。。。我知道:) { insertCmd.Execute(sqlBuilder.Remove(sqlBuilder.Length-1,1).ToString())//移除逗号,然后执行 sqlBuilder.Clear();//清空 sqlBuilder.Append(sqlHeader);//在加上insert 头 } } }
好了,到这里 大概的优化后的高效查询、插入就完成了。
结语
总结下来,无非2个关键技术点,DataReader、SQL合并,都是一些老的技术啦。
其实,上面的代码只能称得上 高效 , 但是, 却非常的不优雅。。。甚至难看。。。
那那么问题来了? 如何进行重构呢? 通过重构抽象出一个可用的类,而不必关心字符串拼接这些乱七八糟的东西,支持多线程合并写入,最大限度提高写入IO, 我们在下一篇文章中再来谈谈。
您可能感兴趣的文章:
- C#使用SqlDataAdapter对象获取数据的方法
- C#使用SQL Dataset数据集代码实例
- C#使用SQL DataReader访问数据的优点和实例
- C# 操作PostgreSQL 数据库的示例代码
- C#实现连接SQL Server2012数据库并执行SQL语句的方法
- C#连接到sql server2008数据库的实例代码
- C#实现Excel表数据导入Sql Server数据库中的方法
- 详解C#批量插入数据到Sqlserver中的四种方式
- C#在MySQL大量数据下的高效读取、写入详解
- c#几种数据库的大数据批量插入(SqlServer、Oracle、SQLite和MySql)
- C#操作SQLite数据库之读写数据库的方法
- C#操作SQLite数据库方法小结(创建,连接,插入,查询,删除等)
- C#简单访问SQLite数据库的方法(安装,连接,查询等)
- C#使用SQL DataAdapter数据适配代码实例
内容总结
以上是互联网集市为您收集整理的C#如何在海量数据下的高效读取写入MySQL全部内容,希望文章能够帮你解决C#如何在海量数据下的高效读取写入MySQL所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。