怎么使用SQL语句去掉重复的记录
今天就跟大家聊聊有关怎么使用SQL语句去掉重复的记录,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
海量数据(百万以上),其中有些全部字段都相同,有些部分字段相同,怎样高效去除重复?
如果要删除手机(mobilePhone),电话(officePhone),邮件(email)同时都相同的数据,以前一直使用这条语句进行去重:
deletefrom表whereidnotin(selectmax(id)from表groupbymobilePhone,officePhone,email)ordeletefrom表whereidnotin(selectmin(id)from表groupbymobilePhone,officePhone,email)deletefrom表whereidnotin(selectmax(id)from表groupbymobilePhone,officePhone,email)ordeletefrom表whereidnotin(selectmin(id)from表groupbymobilePhone,officePhone,email)
其中下面这条会稍快些。上面这条数据对于100万以内的数据效率还可以,重复数1/5的情况下几分钟到几十分钟不等,但是如果数据量达到300万以上,效率骤降,如果重复数据再多点的话,常常会几十小时跑不完,有时候会锁表跑一夜都跑不完。无奈只得重新寻找新的可行方法,今天终于有所收获:
//查询出唯一数据的ID,并把他们导入临时表tmp中selectmin(id)asmidintotmpfrom表groupbymobilePhone,officePhone,email//查询出去重后的数据并插入finally表中insertintofinallyselect(除ID以外的字段)fromcustomers_1whereidin(selectmidfromtmp)//查询出唯一数据的ID,并把他们导入临时表tmp中selectmin(id)asmidintotmpfrom表groupbymobilePhone,officePhone,email//查询出去重后的数据并插入finally表中insertintofinallyselect(除ID以外的字段)fromcustomers_1whereidin(selectmidfromtmp)
效率对比:用delete方法对500万数据去重(1/2重复)约4小时。4小时,很长的时间。
用临时表插入对500万数据去重(1/2重复)不到10分钟。
其实用删除方式是比较慢的,可能是边找边删除的原因吧,而使用临时表,可以将没有重复的数据ID选出来放在临时表里,再将表的信息按临时表的选择出来的ID,将它们找出来插入到新的表,然后将原表删除,这样就可以快速去重啦。
SQL语句去掉重复记录,获取重复记录
按照某几个字段名称查找表中存在这几个字段的重复数据并按照插入的时间先后进行删除,条件取决于order by 和row_num。
方法一按照多条件重复处理:
deletetmpfrom(selectrow_num=row_number()over(partitionby字段,字段orderby时间desc)from表where时间>getdate()-1)tmpwhererow_num>1deletetmpfrom(selectrow_num=row_number()over(partitionby字段,字段orderby时间desc)from表where时间>getdate()-1)tmpwhererow_num>1
方法二按照单一条件进行去重:
deletefrom表where主键IDnotin(selectmax(主键ID)from表groupby需要去重的字段havingcount(需要去重的字段)>=1)deletefrom表where主键IDnotin(selectmax(主键ID)from表groupby需要去重的字段havingcount(需要去重的字段)>=1)
注意:为提高效率如上两个方法都可以使用临时表, not in 中的表可以先提取临时表#tmp,
然后采用not exists来执行,为避免数量过大,可批量用Top控制删除量
deletetop(2)from表wherenotexists(select主键IDfrom#tmpwhere#tmp.主键ID=表.主键ID)
看完上述内容,你们对怎么使用SQL语句去掉重复的记录有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注亿速云行业资讯频道,感谢大家的支持。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。