Ik denk dat je een elements
moet gebruiken tafel:
-
Postgres zou statistieken kunnen gebruiken om te voorspellen hoeveel rijen overeenkomen voordat de query wordt uitgevoerd, zodat het het beste queryplan kan gebruiken (het is belangrijker als uw gegevens niet gelijkmatig zijn verdeeld);
-
u kunt querygegevens lokaliseren met behulp van
CLUSTER elements USING elements_id_element_idx
; -
wanneer Postgres 9.2 zou worden uitgebracht, zou u kunnen profiteren van scans met alleen index;
Maar ik heb wat tests gedaan voor 10 miljoen elementen:
create table elements (id_item bigint, id_element bigint);
insert into elements
select (random()*524288)::int, (random()*32768)::int
from generate_series(1,10000000);
\timing
create index elements_id_item on elements(id_item);
Time: 15470,685 ms
create index elements_id_element on elements(id_element);
Time: 15121,090 ms
select relation, pg_size_pretty(pg_relation_size(relation))
from (
select unnest(array['elements','elements_id_item', 'elements_id_element'])
as relation
) as _;
relation | pg_size_pretty
---------------------+----------------
elements | 422 MB
elements_id_item | 214 MB
elements_id_element | 214 MB
create table arrays (id_item bigint, a_elements bigint[]);
insert into arrays select array_agg(id_element) from elements group by id_item;
create index arrays_a_elements_idx on arrays using gin (a_elements);
Time: 22102,700 ms
select relation, pg_size_pretty(pg_relation_size(relation))
from (
select unnest(array['arrays','arrays_a_elements_idx']) as relation
) as _;
relation | pg_size_pretty
-----------------------+----------------
arrays | 108 MB
arrays_a_elements_idx | 73 MB
Dus aan de andere kant zijn arrays kleiner en hebben ze een kleinere index. Ik zou zo'n 200 miljoen elemententesten doen voordat ik een beslissing neem.