视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
使用SQL语句去掉重复的记录【两种方法】
2020-11-09 06:59:07 责编:小采
文档


海量数据(百万以上),其中有些全部字段都相同,有些部分字段相同,怎样高效去除重复?

如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:

delete from 表 where id not in 
(select max(id) from 表 group by mobilePhone,officePhone,email ) 
or 
delete from 表 where id not in 
 (select min(id) from 表 group by mobilePhone,officePhone,email ) 

delete from 表 where id not in 
(select max(id) from 表 group by mobilePhone,officePhone,email ) 
or 
delete from 表 where id not in 
 (select min(id) from 表 group by mobilePhone,officePhone,email ) 

其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:

//查询出唯一数据的ID,并把他们导入临时表tmp中 
select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email 
 //查询出去重后的数据并插入finally表中 
insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp) 

//查询出唯一数据的ID,并把他们导入临时表tmp中 
select min(id) as mid into tmp from 表 group by mobilePhone,officePhone,email 
 //查询出去重后的数据并插入finally表中 
insert into finally select (除ID以外的字段) from customers_1 where id in (select mid from tmp) 

效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。

用临时表插入对500万数据去重(1/2重复)不到10分钟。

其实用删除方式是比较慢的,可能是边找边删除的原因吧,而使用临时表,可以将没有重复的数据ID选出来放在临时表里,再将表的信息按临时表的选择出来的ID,将它们找出来插入到新的表,然后将原表删除,这样就可以快速去重啦。

SQL语句去掉重复记录,获取重复记录

按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。

方法一按照多条件重复处理:

delete tmp from( 
select row_num = row_number() over(partition by 字段,字段 order by 时间 desc) 
 from 表 where 时间> getdate()-1 
 ) tmp 
 where row_num > 1 
delete tmp from( 
select row_num = row_number() over(partition by 字段,字段 order by 时间 desc) 
 from 表 where 时间> getdate()-1 
 ) tmp 
 where row_num > 1 

方法二按照单一条件进行去重:

delete from 表 where 主键ID not in( 
select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1 
 ) 
delete from 表 where 主键ID not in( 
select max(主键ID) from 表 group by 需要去重的字段 having count(需要去重的字段)>=1 
 ) 

注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,

然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量

delete top(2) from 表 
 where not exists (select 主键ID 
 from #tmp where #tmp.主键ID=表.主键ID) 

总结

以上所述是小编给大家介绍的使用SQL语句去掉重复的记录,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对脚本之家网站的支持!

您可能感兴趣的文章:

  • oracle sql 去重复记录不用distinct如何实现
  • MySQL中查询、删除重复记录的方法大全
  • SQL语句实现删除重复记录并只保留一条
  • MySql避免重复插入记录的几种方法
  • 解析mysql中:单表distinct、多表group by查询去除重复记录
  • SQL重复记录查询的几种方法
  • 下载本文
    显示全文
    专题