sql >> Database teknologi >  >> RDS >> PostgreSQL

Benchmarking Managed PostgreSQL Cloud Solutions:Anden del - Amazon RDS

Dette er anden del af multi-serien Benchmarking Managed PostgreSQL Cloud Solutions . I del 1 præsenterede jeg en oversigt over de tilgængelige værktøjer, jeg diskuterede årsagen til at bruge AWS Benchmark Procedure for Aurora, samt PostgreSQL versioner, der skal bruges, og jeg gennemgik Amazon Aurora PostgreSQL 10.6.

I denne del vil pgbench og sysbench køre mod Amazon RDS til PostgreSQL 11.1. På tidspunktet for dette skrives er den seneste PostgreSQL-version 11.2 udgivet for omkring en måned siden.

Det er værd at holde pause et sekund for hurtigt at gennemgå de PostgreSQL-versioner, der i øjeblikket er tilgængelige i skyen:

  • Amazon Aurora PostgreSQL 10.6
  • Amazon RDS til PostgreSQL 11.1
  • Google Cloud SQL til PostgreSQL 9.6
  • Microsoft Azure PostgreSQL 10.5

Amazon er igen en vinder med sit RDS-tilbud ved at levere den seneste version af PostgreSQL. Som annonceret i RDS-forummet gjorde AWS PostgreSQL 11.1 tilgængelig den 13. marts, hvilket er fire måneder efter community-udgivelsen.

Opsætning af miljøet

Et par bemærkninger om begrænsningerne i forbindelse med opsætning af miljøet og kørsel af benchmark, punkter, der blev diskuteret mere detaljeret under del 1 af denne serie:

  • Ingen ændringer i cloud-udbyderens standard GUC-indstillinger.
  • Forbindelserne er begrænset til maksimalt 1.000, da AWS-patchen til pgbench ikke blev anvendt rent. På en relateret note, var jeg nødt til at downloade AWS-timing-patchen fra denne pgsql-hackere-indsendelse, da den ikke længere var tilgængelig på linket nævnt i guiden.
  • Det forbedrede netværk skal være aktiveret for klientforekomsten.
  • Databasen indeholder ikke en replika.
  • Databaselageret er ikke krypteret.
  • Både klienten og målforekomsterne er i samme tilgængelighedszone.

Først skal du konfigurere klienten og databaseforekomsterne:

  • Klienten er en on demand r4.8xlarge EC2-instans:
    • vCPU:32 (16 kerner x 2 tråde/kerne)
    • RAM:244 GiB
    • Lagring:EBS-optimeret
    • Netværk:10 Gigabit
    Konfiguration af klientforekomst
  • DB-klyngen er en on demand db.r4.2xlarge:
    • vCPU:8
    • RAM:61 GiB
    • Lagring:EBS-optimeret
    • Netværk:1.750 Mbps Max båndbredde på en op til 10 Gbps forbindelse
    Databaseforekomstkonfiguration

Installer og konfigurer derefter benchmarkværktøjerne, pgbench og sysbench, ved at følge instruktionerne i Amazon-guiden.

Det sidste trin i at gøre miljøet klar er at konfigurere PostgreSQL-forbindelsesparametrene. En måde at gøre det på er ved at initialisere miljøvariablerne i .bashrc. Vi skal også indstille stierne til PostgreSQL binære filer og biblioteker:

eksport PGHOST=benchmark.ctfirtyhadgr.us-east-1.rds.amazonaws.com

export PGHOST=benchmark.ctfirtyhadgr.us-east-1.rds.amazonaws.com
export PGUSER=postgres
export PGPASSWORD=postgres
export PGDATABASE=postgres
export PATH=$PATH:/usr/local/pgsql/bin
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/pgsql/lib
Verify that everything is in place:
[[email protected] ~]# psql --version
psql (PostgreSQL) 11.1
[[email protected] ~]# pgbench --version
pgbench (PostgreSQL) 11.1
[[email protected] ~]# sysbench --version
sysbench 0.5 

Kørsel af benchmarks

pgench

Start først pgbench-databasen.

[[email protected] ~]# pgbench -i --fillfactor=90 --scale=10000 

Initialiseringsprocessen tager noget tid, og mens den kørte genererede følgende output:

dropping old tables...
NOTICE:  table "pgbench_accounts" does not exist, skipping
NOTICE:  table "pgbench_branches" does not exist, skipping
NOTICE:  table "pgbench_history" does not exist, skipping
NOTICE:  table "pgbench_tellers" does not exist, skipping
creating tables...
generating data...
100000 of 1000000000 tuples (0%) done (elapsed 0.06 s, remaining 599.79 s)
200000 of 1000000000 tuples (0%) done (elapsed 0.15 s, remaining 739.16 s)
300000 of 1000000000 tuples (0%) done (elapsed 0.22 s, remaining 742.21 s)
400000 of 1000000000 tuples (0%) done (elapsed 0.33 s, remaining 814.64 s)
500000 of 1000000000 tuples (0%) done (elapsed 0.41 s, remaining 825.82 s)
600000 of 1000000000 tuples (0%) done (elapsed 0.51 s, remaining 854.13 s)
700000 of 1000000000 tuples (0%) done (elapsed 0.66 s, remaining 937.01 s)
800000 of 1000000000 tuples (0%) done (elapsed 1.52 s, remaining 1897.42 s)
900000 of 1000000000 tuples (0%) done (elapsed 1.66 s, remaining 1840.08 s)

...

500600000 of 1000000000 tuples (50%) done (elapsed 814.78 s, remaining 812.83 s)
500700000 of 1000000000 tuples (50%) done (elapsed 814.81 s, remaining 812.53 s)
500800000 of 1000000000 tuples (50%) done (elapsed 814.83 s, remaining 812.23 s)
500900000 of 1000000000 tuples (50%) done (elapsed 815.11 s, remaining 812.19 s)
501000000 of 1000000000 tuples (50%) done (elapsed 815.20 s, remaining 811.94 s)

...

999200000 of 1000000000 tuples (99%) done (elapsed 1645.02 s, remaining 1.32 s)
999300000 of 1000000000 tuples (99%) done (elapsed 1645.17 s, remaining 1.15 s)
999400000 of 1000000000 tuples (99%) done (elapsed 1645.20 s, remaining 0.99 s)
999500000 of 1000000000 tuples (99%) done (elapsed 1645.23 s, remaining 0.82 s)
999600000 of 1000000000 tuples (99%) done (elapsed 1645.26 s, remaining 0.66 s)
999700000 of 1000000000 tuples (99%) done (elapsed 1645.28 s, remaining 0.49 s)
999800000 of 1000000000 tuples (99%) done (elapsed 1645.51 s, remaining 0.33 s)
999900000 of 1000000000 tuples (99%) done (elapsed 1645.77 s, remaining 0.16 s)
1000000000 of 1000000000 tuples (100%) done (elapsed 1646.03 s, remaining 0.00 s)
vacuuming...
creating primary keys...
total time: 5538.86 s (drop 0.00 s, tables 0.01 s, insert 1647.08 s, commit 0.03 s, primary 1251.60 s, foreign 0.00 s, vacuum 2640.14 s)
done. 

Når den del er færdig, skal du kontrollere, at PostgreSQL-databasen er blevet udfyldt. Følgende forenklede version af diskbrugsforespørgslen kan bruges til at returnere PostgreSQL-databasestørrelsen:

SELECT
   d.datname AS Name,
   pg_catalog.pg_get_userbyid(d.datdba) AS Owner,
   pg_catalog.pg_size_pretty(pg_catalog.pg_database_size(d.datname)) AS SIZE
FROM pg_catalog.pg_database d
WHERE d.datname = 'postgres'; 

…og outputtet:

name | owner | size ----------+----------+-------- postgres | postgres | 160 GB (1 row)

Når alle forberedelserne er gennemført, kan vi starte læse/skrive pgbench-testen:

[[email protected] ~]# pgbench --protocol=prepared -P 60 --time=600 --client=1000 --jobs=2048 

Efter 10 minutter får vi resultaterne:

starting vacuum...end.
progress: 60.0 s, 878.3 tps, lat 1101.258 ms stddev 339.491
progress: 120.0 s, 885.2 tps, lat 1132.301 ms stddev 292.551
progress: 180.0 s, 656.3 tps, lat 1522.102 ms stddev 666.017
progress: 240.0 s, 436.8 tps, lat 2277.140 ms stddev 524.603
progress: 300.0 s, 742.2 tps, lat 1363.558 ms stddev 578.541
progress: 360.0 s, 866.4 tps, lat 1146.972 ms stddev 301.861
progress: 420.0 s, 878.2 tps, lat 1143.939 ms stddev 304.396
progress: 480.0 s, 872.7 tps, lat 1139.892 ms stddev 304.421
progress: 540.0 s, 881.0 tps, lat 1132.373 ms stddev 311.890
progress: 600.0 s, 729.3 tps, lat 1366.517 ms stddev 867.784
transaction type: <builtin: TPC-B (sort of)>
scaling factor: 10000
query mode: prepared
number of clients: 1000
number of threads: 1000
duration: 600 s
number of transactions actually processed: 470582
latency average = 1274.340 ms
latency stddev = 544.179 ms
tps = 782.084354 (including connections establishing)
tps = 783.610726 (excluding connections establishing) 

sysbench

Det første trin er at tilføje nogle data:

sysbench --test=/usr/local/share/sysbench/oltp.lua \
      --pgsql-host=aurora.cluster-ctfirtyhadgr.us-east-1.rds.amazonaws.com \
      --pgsql-db=postgres \
      --pgsql-user=postgres \
      --pgsql-password=postgres \
      --pgsql-port=5432 \
      --oltp-tables-count=250\
      --oltp-table-size=450000 \
      prepare 

Kommandoen opretter 250 tabeller, hver tabel har 2 indekser:

sysbench 0.5:  multi-threaded system evaluation benchmark

Creating table 'sbtest1'...
Inserting 450000 records into 'sbtest1'
Creating secondary indexes on 'sbtest1'...
Creating table 'sbtest2'...
...
Creating table 'sbtest250'...
Inserting 450000 records into 'sbtest250'
Creating secondary indexes on 'sbtest250'... 

Lad os se på indekser:

postgres=> \di
                        List of relations
Schema |         Name          | Type  |  Owner   |      Table
--------+-----------------------+-------+----------+------------------
public | k_1                   | index | postgres | sbtest1
public | k_10                  | index | postgres | sbtest10
public | k_100                 | index | postgres | sbtest100
public | k_101                 | index | postgres | sbtest101
public | k_102                 | index | postgres | sbtest102
public | k_103                 | index | postgres | sbtest103

...

public | k_97                  | index | postgres | sbtest97
public | k_98                  | index | postgres | sbtest98
public | k_99                  | index | postgres | sbtest99
public | pgbench_accounts_pkey | index | postgres | pgbench_accounts
public | pgbench_branches_pkey | index | postgres | pgbench_branches
public | pgbench_tellers_pkey  | index | postgres | pgbench_tellers
public | sbtest100_pkey        | index | postgres | sbtest100
public | sbtest101_pkey        | index | postgres | sbtest101
public | sbtest102_pkey        | index | postgres | sbtest102
public | sbtest103_pkey        | index | postgres | sbtest103
public | sbtest104_pkey        | index | postgres | sbtest104
public | sbtest105_pkey        | index | postgres | sbtest105

...

public | sbtest97_pkey         | index | postgres | sbtest97
public | sbtest98_pkey         | index | postgres | sbtest98
public | sbtest99_pkey         | index | postgres | sbtest99
public | sbtest9_pkey          | index | postgres | sbtest9
(503 rows) 

Ser godt ud...for at starte testen skal du bare køre:

sysbench --test=/usr/local/share/sysbench/oltp.lua \
      --pgsql-host=aurora.cluster-ctfirtyhadgr.us-east-1.rds.amazonaws.com \
      --pgsql-db=postgres \
      --pgsql-user=postgres \
      --pgsql-password=postgres \
      --pgsql-port=5432 \
      --oltp-tables-count=250 \
      --oltp-table-size=450000 \
      --max-requests=0 \
      --forced-shutdown \
      --report-interval=60 \
      --oltp_simple_ranges=0 \
      --oltp-distinct-ranges=0 \
      --oltp-sum-ranges=0 \
      --oltp-order-ranges=0 \
      --oltp-point-selects=0 \
      --rand-type=uniform \
      --max-time=600 \
      --num-threads=1000 \
      run 

En advarsel:

RDS-lagring er ikke "elastisk", hvilket betyder, at lagerpladsen, der tildeles ved oprettelse af instansen, skal være stor nok til at passe til mængden af ​​data, der genereres under benchmark, ellers vil RDS fejle med:

FATAL: PQexec() failed: 7 PANIC:  could not write to file "pg_wal/xlogtemp.29144": No space left on device
server closed the connection unexpectedly
        This probably means the server terminated abnormally
        before or while processing the request.

FATAL: failed query: COMMIT
FATAL: failed to execute function `event': 3
WARNING:  terminating connection because of crash of another server process
DETAIL:  The postmaster has commanded this server process to roll back the current transaction and exit, because another server process exited abnormally and possibly corrupted shared memory.
HINT:  In a moment you should be able to reconnect to the database and repeat your command.
WARNING:  terminating connection because of crash of another server process 

Lagerstørrelsen kan øges uden at stoppe databasen, men det tog mig omkring 30 minutter at vokse den fra 200 GiB til 500 GiB:

Forøgelse af lagerplads på RDS

Og her er sysbench-testresultaterne:

sysbench 0.5:  multi-threaded system evaluation benchmark

Running the test with following options:
Number of threads: 1000
Report intermediate results every 60 second(s)
Random number generator seed is 0 and will be ignored

Forcing shutdown in 630 seconds

Initializing worker threads...

Threads started!

[  60s] threads: 1000, tps: 1070.40, reads: 0.00, writes: 4309.35, response time: 1808.81ms (95%), errors: 0.02, reconnects:  0.00
[ 120s] threads: 1000, tps: 889.68, reads: 0.00, writes: 3575.35, response time: 1951.12ms (95%), errors: 0.02, reconnects:  0.00
[ 180s] threads: 1000, tps: 574.57, reads: 0.00, writes: 2320.62, response time: 3936.73ms (95%), errors: 0.00, reconnects:  0.00
[ 240s] threads: 1000, tps: 232.10, reads: 0.00, writes: 928.43, response time: 10994.37ms (95%), errors: 0.00, reconnects:  0.00
[ 300s] threads: 1000, tps: 242.40, reads: 0.00, writes: 969.60, response time: 9412.39ms (95%), errors: 0.00, reconnects:  0.00
[ 360s] threads: 1000, tps: 257.73, reads: 0.00, writes: 1030.98, response time: 8833.64ms (95%), errors: 0.02, reconnects:  0.00
[ 420s] threads: 1000, tps: 264.65, reads: 0.00, writes: 1036.60, response time: 9192.42ms (95%), errors: 0.00, reconnects:  0.00
[ 480s] threads: 1000, tps: 278.07, reads: 0.00, writes: 1134.27, response time: 7133.76ms (95%), errors: 0.00, reconnects:  0.00
[ 540s] threads: 1000, tps: 250.40, reads: 0.00, writes: 1001.53, response time: 9628.97ms (95%), errors: 0.00, reconnects:  0.00
[ 600s] threads: 1000, tps: 249.97, reads: 0.00, writes: 996.92, response time: 10724.58ms (95%), errors: 0.00, reconnects:  0.00
OLTP test statistics:
   queries performed:
      read:                            0
      write:                           1038401
      other:                           519199
      total:                           1557600
   transactions:                        259598 (428.59 per sec.)
   read/write requests:                 1038401 (1714.36 per sec.)
   other operations:                    519199 (857.18 per sec.)
   ignored errors:                      3      (0.00 per sec.)
   reconnects:                          0      (0.00 per sec.)

General statistics:
   total time:                          605.7086s
   total number of events:              259598
   total time taken by event execution: 602999.7582s
   response time:
         min:                                 55.02ms
         avg:                               2322.82ms
         max:                              13133.36ms
         approx.  95 percentile:            8400.39ms

Threads fairness:
   events (avg/stddev):           259.5980/3.20
   execution time (avg/stddev):   602.9998/2.77 
Download Whitepaper Today PostgreSQL Management &Automation med ClusterControlFå flere oplysninger om, hvad du skal vide for at implementere, overvåge, administrere og skalere PostgreSQLDownload Whitepaper

Benchmark-metrics

Metrikken kan fanges ved hjælp af AWS-overvågningsværktøjer CloudWatch og Performance Insights. Her et par eksempler til de nysgerrige:

DB Instance CloudWatch Metrics RDS Performance Insights - Counter Metrics RDS Performance Insights - Database Load

Resultater

resultater for pgbench-initialisering pgbench run resultater sysbench-resultater

Konklusion

På trods af at køre PostgreSQL version 10.6, klarer Amazon Aurora klart bedre end RDS, som er på version 11.1, og det kommer ikke som nogen overraskelse. Ifølge Aurora FAQs gjorde Amazon meget for at forbedre den overordnede databaseydeevne, som blev bygget oven på en nydesignet lagermotor.

Næste i serien

Den næste del vil handle om Google Cloud SQL til PostgreSQL.


  1. Kan ikke oprette forbindelse til postgres ved hjælp af jdbc i pyspark shell

  2. Hvordan kan jeg trække en liste over ID'er fra en SQL-tabel som en kommasepareret værdistreng?

  3. Bestilt antal på hinanden følgende gentagelser / dubletter

  4. Referencedatamønsteret:Udvidbart og fleksibelt