• 专业制作各种营销型网站,利用模板做站,速度快,费用低,效果好。实现电脑手机平板电脑微信小程序的快速部署。我们做网站的目的很单纯:为销售负责!
    • 提供搜索引擎营销SEO竞价账户托管等服务

Mysql百万级数据量查重,只保留一条,粗暴方法

网络营销资讯 3年前 (2019-12-20) 3240次浏览 扫描二维码

前两天在网站里写过一个方法:MySql查找重复的数据,只保留ID小的那条,其他删。对于数据量较小时有效,如果数据量较大,您又没有专门的数据库服务器来运行。会出现各种数据库运行错误,导致CPU占用过高等问题。
今天分享个简单粗暴的方法:利用insert ignore。
前提:我们把要查重的数据表叫做A表。比如想删掉A表中重复的title。
1.在同数据库中建立B表,结构与A表一样,给title加上唯一索引。
2.运行sql语句:insert ignore into B select * from A; 把A表数据导入到B表。
3.查错,如果没错,把B表名改为A表。

关于INSERT IGNORE 与INSERT INTO的区别,可以参考此连接https://www.cnblogs.com/stevin-john/p/4768904.html


未经允许请不要转载本站文章。本文连接:http://www.031388.com/269
我们提供专业的快速网站建设服务、网站优化服务、仿站、高端网站建设等。如有需要请联系。
电话(微信):17343034112
喜欢 (23)