美文网首页
接口优化常见方案

接口优化常见方案

作者: 雪飘千里 | 来源:发表于2023-10-06 09:36 被阅读0次

    常见性能优化手段——以AB分流接口为例

    线上接口突然变慢优化方案

    之前有总结过一些接口优化的方案,但是不够完整。

    image.png

    1. 批量思想

    1.1 批量操作数据库

    优化前:

    //for循环单笔入库
    for(TransDetail detail:transDetailList){
     insert(detail);
    }
    

    优化后:

    batchInsert(transDetailList);
    

    1.2 接口调用支持批量

    2. 异步思想:耗时操作,考虑放到异步执行

    耗时操作,考虑用异步处理,这样可以降低接口耗时。

    比如:用户注册成功后,短信邮件通知,也是可以异步处理的~

    至于异步的实现方式,你可以用线程池,也可以用消息队列实现

    3. 空间换时间思想:恰当使用缓存。

    在适当的业务场景,恰当地使用缓存,是可以大大提高接口性能的。缓存其实就是一种空间换时间的思想,就是你把要查的数据,提前放好到缓存里面,需要时,直接查缓存,而避免去查数据库或者计算的过程

    这里的缓存包括:Redis缓存,JVM本地缓存,memcached,或者Map等等。

    4. 预取思想:提前初始化到缓存

    预取思想很容易理解,就是提前把要计算查询的数据,初始化到缓存。如果你在未来某个时间需要用到某个经过复杂计算的数据,才实时去计算的话,可能耗时比较大。这时候,我们可以采取预取思想,提前把将来可能需要的数据计算好,放到缓存中,等需要的时候,去缓存取就行。这将大幅度提高接口性能。

    我记得以前在第一个公司做视频直播的时候,看到我们的直播列表就是用到这种优化方案。就是启动个任务,提前把直播用户、积分等相关信息,初始化到缓存

    5. 池化思想:预分配与循环使用

    我们为什么需要使用线程池:线程池可以帮我们管理线程,避免增加创建线程和销毁线程的资源损耗。

    如果你每次需要用到线程,都去创建,就会有增加一定的耗时,而线程池可以重复利用线程,避免不必要的耗时。 池化技术不仅仅指线程池,很多场景都有池化思想的体现,它的本质就是预分配与循环使用

    比如TCP三次握手,大家都很熟悉吧,它为了减少性能损耗,引入了Keep-Alive长连接,避免频繁的创建和销毁连接。当然,类似的例子还有很多,如数据库连接池、HttpClient连接池。

    我们写代码的过程中,学会池化思想,最直接相关的就是使用线程池而不是去new一个线程。

    6. 事件回调思想:拒绝阻塞等待

    如果你调用一个系统B的接口,但是它处理业务逻辑,耗时需要10s甚至更多。然后你是一直阻塞等待,直到系统B的下游接口返回,再继续你的下一步操作吗?这样显然不合理

    我们参考IO多路复用模型。即我们不用阻塞等待系统B的接口,而是先去做别的操作。等系统B的接口处理完,通过事件回调通知,我们接口收到通知再进行对应的业务操作即可。

    7. 远程调用由串行改为并行

    假设我们设计一个APP首页的接口,它需要查用户信息、需要查banner信息、需要查弹窗信息等等。如果是串行一个一个查,比如查用户信息200ms,查banner信息100ms、查弹窗信息50ms,那一共就耗时350ms了,如果还查其他信息,那耗时就更大了。

    其实我们可以改为并行调用,即查用户信息、查banner信息、查弹窗信息,可以同时并行发起。最后接口耗时将大大降低。

    8. 锁粒度避免过粗

    在高并发场景,为了防止超卖等情况,我们经常需要加锁来保护共享资源。但是,如果加锁的粒度过粗,是很影响接口性能的。

    加锁粒度:其实就是就是你要锁住的范围是多大。比如你在家上卫生间,你只要锁住卫生间就可以了吧,不需要将整个家都锁起来不让家人进门吧,卫生间就是你的加锁粒度。

    不管你是synchronized加锁还是redis分布式锁,只需要在共享临界资源加锁即可,不涉及共享资源的,就不必要加锁。

    9. 切换存储方式:文件中转暂存数据

    如果数据太大,落地数据库实在是慢的话,就可以考虑先用文件的方式暂存。先保存文件,再异步下载文件,慢慢保存到数据库

    比如,百万数据execl导入,直接入库太慢了,可以先把文件暂时存起来,然后再慢慢操作。

    Java注解实现异步导入与导出(一)

    10. 索引

    提到接口优化,很多小伙伴都会想到添加索引。没错,添加索引是成本最小的优化,而且一般优化效果都很不错。

    索引优化这块的话,一般从这几个维度去思考:

    • 你的SQL加索引了没?

    • 你的索引是否真的生效?

    • 你的索引建立是否合理?

    10.1 SQL没加索引

    查看一下 explain执行计划

    10.2 索引不生效

    有时候,即使你添加了索引,但是索引会失效的。

    image.png

    10.3 索引设计不合理

    我们的索引不是越多越好,需要合理设计。比如:

    • 删除冗余和重复索引。

    • 索引一般不能超过5个

    • 索引不适合建在有大量重复数据的字段上、如性别字段

    • 适当使用覆盖索引

    • 如果需要使用force index强制走某个索引,那就需要思考你的索引设计是否真的合理了

    11. 优化SQL

    image.png

    https://blog.csdn.net/gan_1314/article/details/125760757

    12.避免大事务问题

    所谓大事务问题就是,就是运行时间长的事务。由于事务一致不提交,就会导致数据库连接被占用,即并发场景下,数据库连接池被占满,影响到别的请求访问数据库,影响别的接口性能

    大事务引发的问题主要有:接口超时、死锁、主从延迟等等。因此,为了优化接口,我们要规避大事务问题。我们可以通过这些方案来规避大事务:

    • RPC远程调用不要放到事务里面

    • 一些查询相关的操作,尽量放到事务之外

    • 事务中避免处理太多数据

    13. 深分页问题

    上亿数据深度分页优化方案

    深分页问题,为什么会慢?我们看下这个SQL

    select id,name,balance from account where create_time> '2020-09-19' limit 100000,10;
    

    limit 100000,10意味着会扫描100010行,丢弃掉前100000行,最后返回10行。即使create_time,也会回表很多次。

    我们可以通过标签记录法和延迟关联法来优化深分页问题。

    13.1 标签记录法

    就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。

    假设上一次记录到100000,则SQL可以修改为:

    select  id,name,balance FROM account where id > 100000 limit 10;
    

    这样的话,后面无论翻多少页,性能都会不错的,因为命中了id主键索引。但是这种方式有局限性:需要一种类似连续自增的字段。

    13.2 延迟关联法

    延迟关联法,就是把条件转移到主键索引树,然后减少回表。优化后的SQL如下:

    select  acct1.id,acct1.name,acct1.balance FROM account acct1 INNER JOIN (SELECT a.id FROM account a WHERE a.create_time > '2020-09-19' limit 100000, 10) AS acct2 on acct1.id= acct2.id;
    

    优化思路就是,先通过idx_create_time二级索引树查询到满足条件的主键ID,再与原表通过主键ID内连接,这样后面直接走了主键索引了,同时也减少了回表。

    14. 优化程序结构

    优化程序逻辑、程序代码,是可以节省耗时的。比如,你的程序创建多不必要的对象、或者程序逻辑混乱,多次重复查数据库、又或者你的实现逻辑算法不是最高效的,等等。

    15. 压缩传输内容

    压缩传输内容,传输报文变得更小,因此传输会更快啦。

    比如,处理redis bigkey的问题时,可以把value压缩后再存储。

    16. 海量数据处理,考虑NoSQL

    之前看过几个慢SQL,都是跟深分页问题有关的。发现用来标签记录法和延迟关联法,效果不是很明显,原因是要统计和模糊搜索,并且统计的数据是真的大。最后跟组长对齐方案,就把数据同步到Elasticsearch,然后这些模糊搜索需求,都走Elasticsearch去查询了。

    我想表达的就是,如果数据量过大,一定要用关系型数据库存储的话,就可以分库分表。但是有时候,我们也可以使用NoSQL,如Elasticsearch、Hbase等。

    17. 线程池设计要合理

    我们使用线程池,就是让任务并行处理,更高效地完成任务。但是有时候,如果线程池设计不合理,接口执行效率则不太理想。

    一般我们需要关注线程池的这几个参数:核心线程、最大线程数量、阻塞队列

    • 如果核心线程过小,则达不到很好的并行效果。

    • 如果阻塞队列不合理,不仅仅是阻塞的问题,甚至可能会OOM

    • 如果线程池不区分业务隔离,有可能核心业务被边缘业务拖垮

    18.机器问题 (fullGC、线程打满、太多IO资源没关闭等等)

    有时候,我们的接口慢,就是机器处理问题。主要有fullGC、线程打满、太多IO资源没关闭等等。

    • 之前排查过一个fullGC问题: 运营小姐姐导出60多万的excel的时候,说卡死了,接着我们就收到监控告警。后面排查得出,我们老代码是Apache POI生成的excel,导出excel数据量很大时,当时JVM内存吃紧会直接Full GC了。

    • 如果线程打满了,也会导致接口都在等待了。所以。如果是高并发场景,我们需要接入限流,把多余的请求拒绝掉

    • 如果IO资源没关闭,也会导致耗时增加。这个大家可以看下,平时你的电脑一直打开很多很多文件,是不是会觉得很卡。

    相关文章

      网友评论

          本文标题:接口优化常见方案

          本文链接:https://www.haomeiwen.com/subject/araebdtx.html