怎么搞呢?我最开始打算用的办法是先新建一个专门用来存路径的表,先写一个文件搜索脚本把文件路径信息序列化成json文件,在用 mybatis
遂开始思考, 一般情况下 MySQL 会涉及到超大规模数据导入的,那就是数据库的备份与恢复。
数据库的恢复会用到 source 命令,比如
说干就干,我们用 C# 写一个搜索程序用来生成 json(其实当时是用 Java 写的,这两天用 C# 重写了遍)
然后再用这些 json 生成 sql
生成 sql 后直接在 MySQL 里用 source 执行就行了,时间还挺快的,用了一两个小时左右
本来信心满满,在本地用数据量十万条的测试数据库进行了测试,但是用时让我傻眼了
这样就实现了批量的更新,试着生成用这个语法的 sql
用这样生成的 sql 去测试
只用了十多秒就完事了,挺不错,这就把脚本搬到服务器上开导,顺带写个博客。
到此这篇mysql导入sql文件过大(mysql 导入大量数据)的文章就介绍到这了,更多相关内容请继续浏览下面的相关 推荐文章,希望大家都能在编程的领域有一番成就!版权声明:
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权、违法违规、事实不符,请将相关资料发送至xkadmin@xkablog.com进行投诉反馈,一经查实,立即处理!
转载请注明出处,原文链接:https://www.xkablog.com/sjkxydsj/45627.html