MySQL数据库导入或者同步大量数据时数据丢失解决方案
内容导读
互联网集市收集整理的这篇技术教程文章主要介绍了MySQL数据库导入或者同步大量数据时数据丢失解决方案,小编现在分享给大家,供广大互联网技能从业者学习和参考。文章包含966字,纯文字阅读大概需要2分钟。
内容图文
![MySQL数据库导入或者同步大量数据时数据丢失解决方案](/upload/InfoBanner/zyjiaocheng/503/8fcff6c778b84fefbcf5c0c291f44679.jpg)
相信大家都经常遇到这样的情况,我们在编码的过程中经常需要在调试代码的时候切换到本地的数据库上做修改调试,如果当测试数据库的数据在几十万或者上百万数据的时候,我们无论是通过恢复备份/导入SQL的方式来把数据导入到本地的MySQL数据库的时候,数据都是无法导入完成的,经常会遇到丢失数据的情况。解决方案:
解决方案:在mysql的配置文件my.ini的文件中新增以下3个配置选项:
1、wait_timeout=2880000
2、interactive_time=2880000
3、max_allowed_packet=1024m
如图所示:
添加完成以后保存配置文件,然后重启mysql服务就好了!
出现这类情况的原因蛀牙是因为某些表的数据太多,解析时间太长导致写入超时,然后就会直接跳入下一个表;导致数据不全,max_allowed_packet主要是调整MySQL的最大导入容量,不是越大越好哦! 一般256M就可以了。
MySQL数据库导入或者同步大量数据时数据丢失解决方案
标签:遇到 ima 文件 cti timeout 最大 png mysq 一个
本文系统来源:https://www.cnblogs.com/Miss-li/p/10007480.html
内容总结
以上是互联网集市为您收集整理的MySQL数据库导入或者同步大量数据时数据丢失解决方案全部内容,希望文章能够帮你解决MySQL数据库导入或者同步大量数据时数据丢失解决方案所遇到的程序开发问题。 如果觉得互联网集市技术教程内容还不错,欢迎将互联网集市网站推荐给程序员好友。
内容备注
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 gblab@vip.qq.com 举报,一经查实,本站将立刻删除。
内容手机端
扫描二维码推送至手机访问。