白鳝
作者白鳝2023-03-15 14:19
技术总监, 南京基石数据技术有限责任公司

PG数据库优化工作应该如何开展

字数 3107阅读 1408评论 0赞 2

数据库优化是一个综合工程,不仅仅是需要D BA 参与,更重要的是研发设计人员针对P G 数据库的特点来进行相关的优化设计。不过对于D BA 来说,一旦接到上线和运维任务,基本上都是木已成舟,软件设计方面留下的坑已经挖好,D BA 的作为已经十分有限了。不过既然要干运维,那么少不了就要参与优化。P G 的优化工作该如何开展呢?今天我从几个主要的方面聊聊P G 优化的几个常见的角度。针对P G 数据库,只要做好了下面几个方面的优化工作,那么运维起来也就比较省心了。

  • 硬件资源 问题 :如果数据库服务器硬件资源不足,例如 CPU、内存、磁盘 IO 等,会导致系统性能下降,响应时间变慢。
  • 操作系统配置不合理:如果操作系统没有针对 PG 数据库进行优化,那么P G 数据库也无法发挥最佳的效能,因此针对P G 数据库的优化,从操作系统参数调整入手永远是不会错的。
  • 文件系统配置不合理:对于一些负载较高的大型数据库来说,如果无法发挥后端存储的I O 能力,或者说让后端磁盘出现了性能问题,那么就会严重影响P G 数据库的性能甚至稳定性。对于大型数据库来说,文件系统设计与配置一定要十分用心。
  • SQL 不够优化 :如果 应用 没有经过优化,可能会导致查询效率低下,索引 设计不合理,缺少必要的索引,过多的单列索引以及索引类型使用不合理等都会带来性能问题。最后 不合理 多表 的 JOIN、WHERE 子句 和大表并行扫码都可能成为性能杀手 。
  • 数据库结构设计不合理:如果数据库结构设计不合理,可能会导致查询效率低下,例如表过度归一化、 大表未分区或者分区设置不合理,表或者索引的的F ILL FACTOR 参数设置不合理导致的热块冲突 。 索引设计不合理产生的不必要的写成本过高。应该存储到对象存储中的非结构化数据存储到P G 数据库中等。表分区设计不合理,时序数据没有使用t imescaledb 的自动分区与自动压缩特性也会导致时序数据访问的性能不佳。
  • 数据库参数设置不合理:如果 PostgreSQL 数据库参数设置不合理,可能会导致数据库性能低下,例如 shared_buffers、work_mem、 W AL /Checkpoint 等参数的设置 等 。
  • 并发控制不合理:如果数据库并发控制不合理,可能会导致性能下降 ,这方面包含 事务隔离级别设置不合理 ,并发度相关参数设置不合理等 。
  • 缓存命中率低:如果缓存命中率低,会导致频繁的磁盘 IO 操作,从而降低数据库性能。
  • 访问冷数据的性能不足:P G 数据库是采用D OUBLE CACHE 机制的,冷数据是指在S HARED BUFFERS 和O S CACHE 中都不存在的数据,这些数据一旦要访问,要产生大量的物理I O ,访问性能较差。
  • 自动化任务冲突:如果数据库中存在大量的自动化任务,例如备份、VACUUM、定时任务等,可能会导致任务之间的冲突,从而影响系统性能。

硬件资源不足的问题我们就不多加讨论了,这种情况一般会出现在C PU 、I O 等方面,在分析这方面问题的时候,需要关注R队列的长度是否超过C PU 逻辑核数的2倍以上,对于I O 来说,不仅仅要看I OPS/IO 吞吐量等指标,更重要的是要看I O 延时是否合理。 操作系统配置不合理是绝大多数P G 数据库都存在的问题,这方面实际上是有一些最佳实践的。

上面是一个红帽公司对于 PG 数据库 RHEL 参数优化的建议,大家可以参考,对于绝大多数高负载的系统来说,都是有效的。大家要注意的是,关于脏块回写的设置,对于不同的写I O 负载以及不同的底层I O 硬件,可能调整会有不同,甚至会有截然相反的配置策略。要注意的是,绝对不能因为不合理的脏块刷新策略导致了O S IO 负载的过载。在此前提下,缩短I O 写盘的周期对于提高并发负载是有帮助的。

文件系统的设计对于大型系统来说十分关键,除了使用XFS与EXT4等带日志的文件系统并且打开日志功能外,设置文件系统的mount参数对性能也有很大影响。文件系统的条带大小、块大小要与PG数据库匹配,MOUNT时也要加入 nobarrier、 noatime,nodiratime等参数,并做好扇区对齐 ,除此之外就是文件存储方面的性能优化了。

很多 DBA 都只会设置一个$ PGDATA ,整个数据库都放在同一个文件系统上,这需要对文件系统底层的卷做十分细致的优化,确保整个卷的I O 能力是优秀的,这一点总是无法做到的。因此在数据库设计的时候就通过W AL 与数据文件分离,热数据与冷数据分离,通过表空间隔离热点I O 等方式规划P G 数据库的文件存储。如果应用系统已经无法通过表空间来隔离I O 热点,那么通过软连接将部分库的目录迁移到其他文件系统也是一个可行的方案。

对于数据库参数来说,实际上不同的应用场景下的最佳调整方案是不同的,一般来说,设置合理的s hared_buffers ,以及优化好相关的而b gwriter ,W AL ,checkpoint,work_mem,V ACUUM 等相关的参数,就能够满足大多数应用的需求了。在这里我们就不做过多的讨论了。在这方面我以前写过十多篇文章,有兴趣的朋友可以到公众号通过搜索“性能优化”或者通过公众号的菜单去查找。

并发控制不合理方面的问题是比较容易被忽视的问题,事务隔离级别用错对于性能的影响极大,不过一般情况下我们都是使用r ead committed ,不要轻易去修改数据库级的事务隔离级别。

并发的另外一个方面是系统中的各类并发访问的控制,特别是并行执行的设置。m ax_worker_processes 、 max_parallel_workers、max_parallel_maintenance_workers和max_parallel_workers_per_gather 等参数对数据库的并发度控制都至关重要 。

如果并发相关的设置过小,那么当活跃会话数量不高的时候,无法充分发挥服务器硬件的资源优势,造成巨大的浪费。P G 数据库可以支撑巨大的数据库与极高的并发,因此如果服务器的配置足够好,系统资源使用率不高,但是应用性能无法达到设计要求,那么我们就应该关注一下是否并发控制相关的参数设置过低了。默认的P G 参数里, max_worker_processes 是偏小的,仅仅是8,对于有上百甚至上千个逻辑核数的服务器来说是完全不够用的。

当然如果因为并发控制参数设置的过高而导致了C PU 等资源出现了不足,因为I OPS 过大或者I O 吞吐量过大,底层存储能力不足导致的I O 延时过大等现象,那么适当调低这些参数对数据库的整体性能提升是有帮助的。

P G 的S HARED_BUFFERS 设置不合理可能会导致缓冲区命中率不高,从而影响S QL 的执行性能。不过P G 数据库是使用D OUBLE BUFFER 机制的,要想为你的应用调整好缓冲区并不容易。再怎么调整都无法满足不同场景的应用,有些时候D BA 真的很难通过调整来优化这方面的性能。对于一些定期的报表等应用,在跑批之前做数据预热可能是D BA 能够控制的优化方法,也是最为有效的提升统计报表性能的方法。

最后一点,自动化任务冲突是所有数据库都会遇到的性能问题,如果数据库备份,大批量统计作业与大数据量导入导出同时发生,再好的硬件也可能撑不住,因此在设计这些定期任务的时候,一定要通过算法将这些作业分开,千万不要让这些大型操作存在最大公约数。否则哪怕现在你的系统没问题,几年后,还是会出问题的。

如果觉得我的文章对您有用,请点赞。您的支持将鼓励我继续创作!

2

添加新评论0 条评论

Ctrl+Enter 发表

作者其他文章

相关文章

相关问题

相关资料

X社区推广