翼度科技»论坛 编程开发 mysql 查看内容

[MySQL--SQL优化]

5

主题

5

帖子

15

积分

新手上路

Rank: 1

积分
15
[MySQL--SQL优化]

1、insert优化(插入数据优化)


  • 建议使用批量插入
    1. # 批量插入避免频繁连接断开数据库(一次连接插入多条数据)
    2.         insert into 表名 values(数据1),(数据2),(数据3)......
    复制代码
  • 建议手动提交事务插入(避免频繁开启关闭事务)
    1. # 即开启一次事务 执行多条sql
    2. start transaction;  # 开启事务
    3. # 执行多条sql
    4. insert into 表名 values(数据1),(数据2),(数据3);
    5. insert into 表名 values(数据4),(数据5),(数据6);
    6. insert into 表名 values(数据7),(数据8),(数据9);
    7. commit;  # 提交事务
    复制代码
  • 大批量插入数据(load指令)

    如果一次性需要插入大批量数据,使用insert语句插入性能较低,此时可以使用MySQL数据库提供的load指令进行插入。

    操作如下:
    1. # 客户端连接服务器时,加上参数 --local-infile
    2.         mysql --local-infile -u 用户名 -p 密码
    3.        
    4. # 设置全局参数local-infile为1,开启从本地加载文件导入数据的开关
    5.         1、查看是否开启命令
    6.                 select @@local_infile;
    7.         2、开启命令
    8.                 set global local_infile = 1;
    9.                
    10. # 执行load指令将准备好的数据,加载到表格
    11.         load data local infile '/root/sql.log' into table 'tb_user' fields terminated by ',' lines terminated by '\n';
    12.         load data local infile '文件路径' into table '表名' fields terminated by '什么作为分割符' lines terminated by '每一行的结束符';
    13.        
    复制代码
    注意:主键顺序插入的性能高于乱序插入!
2、主键优化
  1. # 1)满足业务需求的情况下、尽量降低主键的长度
  2.         原因是我们二级索引的叶子节点存放的就是主键,如果主键过长且叶子节点过多会占用大量的磁盘空间!
  3.        
  4. # 2)插入数据时尽量选择顺序插入,选择使用auto_increment主键自增
  5.         如果不顺序插入可能会存在页分裂现象,如果按照顺序插入则可避免
  6.        
  7. # 3)尽量不要使用uuid作为主键或者是其他自然主键,如身份证号!
  8.         原因 uuid或者身份证号则无序且过长,影响效率!
  9.        
  10. # 4)业务操作时尽量避免对主键的修改。
  11.        
复制代码
3、order by优化

①. Using filesort:通过表的索引或全表扫描,读取满足条件的数据行,然后在排序缓冲区sort buffer中完成排序操作,所有不是通过索引直接返回排序结果的排序都叫file sort排序。

②. Using index:通过有序索引顺序扫描直接返回有序数据,这种情况即为using index,不需要额外排序,操作效率高。

注意:尽量优化为Using index
  1. # 1、根据排序字段建立合适的索引,多字段排序时,也遵循最左前缀法则
  2. # 2、尽量使用覆盖索引
  3. # 3、多字段排序,一个升序一个降序,此时需要注意联合索引在创建时的规则(ASC/DESC)
  4. # 4、如果不可避免的出现filesort,大数据量排序时,可以适当增大排序缓冲区大小sort_buffer_size(默认256k)。
  5.         查看默认缓冲区大小命令
  6.         show variables like 'sort_buffer_size';
复制代码
4、group by优化
  1. # 在分组操作时,可以通过索引来提高效率。
  2. # 分组操作时,索引的使用也是满足最左前缀法则的。
复制代码
5、limit优化


  • 针对于大数据量的情况下 分页查询时越往后就会变得越耗时。所以我们需要通过优化limit来提升效率

    注意:官方建议通过覆盖索引加子查询来优化
    1. 例如:
    2. 未优化前:
    3.         select * from 表名 limit 9000000,10:
    4.         耗时 19s
    5.        
    6.        
    7. 优化后:
    8.         # 可以直接使用覆盖聚集索引,不需要回表查询 提升效率
    9.         select id from 表名 order by id limit 9000000,10;
    10.         # 我们可以将查询出来的id看作为一张新表
    11.         # 之后我们可以使用子查询来获取具体数据
    12.         select A.* from 表名1 as A,(select id from 表名 order by id limit 9000000,10:) as B where A.id == B.id;
    13.         # 括号内可以看作为一张新表 然后进行连表查询即可 大大提升效率
    14.        
    15.         耗时 12s
    16.        
    复制代码
6、count优化


  • MyISAM 引擎把一个表的总行数存在了磁盘上,因此执行count(*)的时候就会直接返回这个数,效率很高(仅仅在没有where条件有效)
  • innoDB 引擎就麻烦了,它执行count(*)的时候,需要把数据一行一行地从引擎里面读出来。然后累计计数
优化思路:自己计数。

比如:我们可以自己维护一张表来专门存储我们所需要记录的数据,利用redis内存数据库 加一条数据 就+1等

count的几种用法

1.count(主键)

InnoDB引擎会遍历整张表,把每一行的主键id值都取出来,返回给服务层。服务层拿到主键后,直接按行进行累加(主键不可能为nut)

2.count(字段)

没有 not nul约束:   Innodb引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,服务层判断是否为nu不为nu,计数累加。

有 not nu约束:   Innodb引擎会遍历整张表把每一行的字段值都取出来,返回给服务层,直接按行进行累加。

3.count(1)

Innodb引擎遍历整张表,但不取值。服务层对于返回的每一行,放一个数字“1”进去,直接按行进行累加。

4.count(*)

Innodb引擎并不会把全部字段取出来,而是专门做了优化,不取值,服务层直接按行进行累加。

按照效率排序的话, count字段)< count(主键id< count(1) c count(·),所以尽量使用 count(*)

7、update优化
  1. update student set no='2000100100' where id=1;
  2. update student set no='2000100105' where name='韦一笑';
  3. # Innode的行锁是针对索引加的锁,不是针对记录加的锁,并且该索引不能失效,否则会从行锁升级为表锁。
  4. # 升级为表锁就会降低性能!
复制代码
来源:https://www.cnblogs.com/liupengfei1123/p/17449009.html
免责声明:由于采集信息均来自互联网,如果侵犯了您的权益,请联系我们【E-Mail:cb@itdo.tech】 我们会及时删除侵权内容,谢谢合作!

举报 回复 使用道具