Rijen per tafel zijn op zich geen probleem.
Dus ongeveer 1 miljoen rijen per dag gedurende 90 dagen is 90 miljoen rijen. Ik zie geen reden waarom Postgres daar niet mee om kan gaan, zonder alle details te kennen van wat je doet.
Afhankelijk van uw gegevensdistributie kunt u een combinatie van indexen, gefilterde indexen en een of andere soort tabelpartitionering gebruiken om het proces te versnellen zodra u ziet welke prestatieproblemen u wel of niet heeft. Uw probleem zal hetzelfde zijn op elk ander RDMS dat ik ken. Als u slechts 3 maanden aan data-ontwerp nodig heeft in een proces om de data weg te snoeien, heeft u niet meer nodig. Op die manier heeft u een consistente hoeveelheid gegevens op tafel. Je hebt geluk dat je weet hoeveel gegevens er zullen zijn, test het voor je volume en kijk wat je krijgt. Het testen van één tabel met 90 miljoen rijen kan zo eenvoudig zijn als:
select x,1 as c2,2 as c3
from generate_series(1,90000000) x;
https://wiki.postgresql.org/wiki/FAQ
Limit Value
Maximum Database Size Unlimited
Maximum Table Size 32 TB
Maximum Row Size 1.6 TB
Maximum Field Size 1 GB
Maximum Rows per Table Unlimited
Maximum Columns per Table 250 - 1600 depending on column types
Maximum Indexes per Table Unlimited