详解PostgreSQL提升批量数据导入性能的n种方法

关键字:批量数据导入,数据加载,大量插入,加快,提升速度
多元化选择时代,人生里很多事物都是如此,凡事都没有一成不变的方式和方法。不管白猫黑猫,能抓老鼠的就是好猫,适合自己的就是最好的。
提升批量数据导入的方法亦是如此,没有何种方法是最优的,应用任何方法前根据自己的实际情况权衡利弊,做出选择。
批量导入数据之前,无论采取何种方式,务必做好相应的备份。
导入完成后亦需对相应对象进行ANALYZE操作,这样查询优化器才会按照最新的统计信息生成正确的执行计划。

下面正式介绍提升批量数据导入性能的n种方法。

方法1:禁用自动提交。

1
2
3
4
5
6
7
psql
\set AUTOCOMMIT off
其他
BEGIN;
执行批量数据导入
COMMIT;

方法2:设置表为UNLOGGED。

导入数据之前先把表改成UNLOGGED模式,导入完成后改回LOGGED模式。

1
2
3
ALTER TABLE tablename SET UNLOGGED;
执行批量数据导入
ALTER TABLE tablename LOGGED;

优点:
导入信息不记录WAL日志,极大减少io,提升导入速度。
缺点:
1.在replication环境下,表无法设置为UNLOGGED模式。
2.导入过程一旦出现停电死机等会导致数据库不能干净关库的情况,数据库中所有UNLOGGED表的数据将丢失。

方法3:重建索引。

导入数据之前先删除相关表上的索引,导入完成后重新创建之。

1
2
3
DROP INDEX indexname;
执行批量数据导入
CREATE INDEX ...;

查询表上索引定义的方法

1
select * from pg_indexes where tablename ='tablename' and schemaname = 'schemaname';

方法4:重建外键。

导入数据之前先删除相关表上的外键,导入完成后重新创建之。

1
2
3
4
5
6
7
ALTER TABLE ...
 DROP CONSTRAINT ... ;
执行批量数据导入
ALTER TABLE ...
 ADD CONSTRAINT ...
 FOREIGN KEY ...
 REFERENCES ...;

相关信息可查询pg_constraint。

方法5:停用触发器

导入数据之前先DISABLE掉相关表上的触发器,导入完成后重新ENABLE之。

1
2
3
ALTER TABLE tablename DISABLE TRIGGER ALL;
执行批量数据导入
ALTER TABLE tablename ENABLE TRIGGER ALL;

相关信息可查询pg_trigger。

方法6:insert改copy

COPY针对批量数据加载进行了优化。

1
COPY ... FROM 'xxx';

方法7:单值insert改多值insert

减少sql解析的时间。

方法8:insert改PREPARE

通过使用PREPARE预备语句,降低解析消耗。

1
2
3
PREPARE fooplan (int, text, bool, numeric) AS
 INSERT INTO foo VALUES($1, $2, $3, $4);
EXECUTE fooplan(1, 'Hunter Valley', 't', 200.00);

方法9:修改参数

增大maintenance_work_mem,增大max_wal_size。

方法10:关闭归档模式,降低wal日志级别。

修改archive_mode参数控制归档开启和关闭。降低wal_level值为minimal来减少日志信息记录。
此法需要重启数据库,需要规划停机时间。此外如有replication备库,还需考虑对其影响。

到此这篇关于PostgreSQL提升批量数据导入性能的n种方法的文章就介绍到这了,更多相关PostgreSQL批量数据导入内容

原创文章,作者:奋斗,如若转载,请注明出处:https://blog.ytso.com/227910.html

(0)
上一篇 2022年1月11日 08:29
下一篇 2022年1月11日 08:40

相关推荐

发表回复

登录后才能评论