视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
Mysql提升大数据表拷贝效率的解决方案
2020-11-09 20:22:49 责编:小采
文档


前言

本文主要给大家介绍了关于Mysql提升大数据表拷贝效率的相关内容,分享出来供大家参考学习,我们大家在工作上会经常遇到量级比较大的数据表  ;

场景: 该数据表需要进行alter操作 比如增加一个字段,减少一个字段. 这个在一个几万级别数据量的数据表可以直接进行alter表操作,但是要在一个接近1000W的数据表进行操作,不是一件容易的事;

可能情况:

1.导致数据库崩溃或者卡死 

2.导致其他进程 进行数据库读写I/O变慢 

3.还有一个可能就是数据格式不一致 导致数据无法写入(比如一个varchar类型要改为int类型,当数据长度过大时会报错)

解决方案:--

1.重新创建一张数据表  create new_table select * from old_table 这种形式相当于复制一张新的数据表    ----(不建议):  这里面仅仅复制数据表的字段和数据 , 但是表结构 主键,索引和默认值都不会拷贝过来

2.分成两个步骤

1). create new_table like old_table 创建一个新表,表结构和old_table一致(包含主键,索引和默认值等)

2). insert into new_table select * from old_table 把old_table的数据全部拷贝到new_table里面去 

----(如果数据量少的话,在几万行左右建议使用此方案, 如果数据量到达数百万 上千万时, 这个也是不适用的)

扩展: 如果你只要拷贝一部分数据表的话,可以指定 insert into new_table (字段1,字段2) select 字段1,字段2 from old_table [limit n,m] ;

3.

1).通过select from into outfile 命令来导出数据表数据

2).通过load data infile into 命令来导入数据表数据

不多废话 直接看图,感受下100万左右的数据量  方案2 和 方案3 处理速度相差多少

>select * from money_info into outfile '/var/lib/mysql-files/money.txt'; 
>create table money_info_cyq11 like money_info;
>load data infile '/var/lib/mysql-files/money.txt' into table money_info_cyq11;
>create table money_info_cyq22 like money_info;
>insert into money_info_cyq22 select * from money_info;

速度在4倍左右,网上说的20倍还没体验到[捂脸]

注:这里还存在一个问题

outfile的目录是有要求的

>show variables like '%secure%';

通过这条命令可以看到secure_file_priv  对应out_file的目录在哪个位置 , 指定这个位置导出即可;


总结

下载本文
显示全文
专题