Rækker pr. bord vil ikke være et problem i sig selv.
Så groft sagt er 1 million rækker om dagen i 90 dage 90 millioner rækker. Jeg ser ingen grund til, at Postgres ikke kan håndtere det uden at kende alle detaljerne om, hvad du laver.
Afhængigt af din datadistribution kan du bruge en blanding af indekser, filtrerede indekser og tabelopdeling af en eller anden art for at fremskynde tingene, når du ser, hvilke ydeevneproblemer du måske har eller ikke. Dit problem vil være det samme på alle andre RDMS, som jeg kender til. Hvis du kun har brug for 3 måneders datadesign i en proces for at beskære dataene, har du ikke brug for mere. På den måde vil du have en ensartet mængde data på bordet. Din heldige du ved, hvor meget data der vil eksistere, test det for din volumen og se, hvad du får. At teste en tabel med 90 millioner rækker kan være lige så let som:
select x,1 as c2,2 as c3
from generate_series(1,90000000) x;
https://wiki.postgresql.org/wiki/FAQ a>
Limit Value
Maximum Database Size Unlimited
Maximum Table Size 32 TB
Maximum Row Size 1.6 TB
Maximum Field Size 1 GB
Maximum Rows per Table Unlimited
Maximum Columns per Table 250 - 1600 depending on column types
Maximum Indexes per Table Unlimited