TLDR-samenvatting
In moderne MongoDB-releases kun je dit brute forceren met $slice
net buiten het basisaggregatieresultaat. Voor "grote" resultaten, voer in plaats daarvan parallelle zoekopdrachten uit voor elke groepering (een demonstratielijst staat aan het einde van het antwoord), of wacht tot SERVER-9377 is opgelost, wat een "limiet" zou toelaten aan het aantal items dat $push
naar een array.
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$project": {
"books": { "$slice": [ "$books", 2 ] },
"count": 1
}}
])
MongoDB 3.6-voorbeeld
Nog steeds geen oplossing voor SERVER-9377, maar in deze release $lookup
staat een nieuwe "niet-gecorreleerde" optie toe waarvoor een "pipeline"
nodig is expressie als argument in plaats van de "localFields"
en "foreignFields"
opties. Dit staat dan een "self-join" toe met een andere pijplijnexpressie, waarin we $limit
kunnen toepassen om de "top-n" resultaten te retourneren.
db.books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"let": {
"addr": "$_id"
},
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr"] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
],
"as": "books"
}}
])
De andere toevoeging hier is natuurlijk de mogelijkheid om de variabele te interpoleren via $expr
met behulp van $match
om de overeenkomende items in de "join" te selecteren, maar het algemene uitgangspunt is een "pijplijn binnen een pijplijn" waar de innerlijke inhoud kan worden gefilterd door overeenkomsten van de bovenliggende. Omdat ze zelf beide "pijplijnen" zijn, kunnen we $limit
elk resultaat afzonderlijk.
Dit zou de op één na beste optie zijn voor het uitvoeren van parallelle zoekopdrachten, en zou eigenlijk beter zijn als de $match
mochten en konden een index gebruiken in de "sub-pipeline" -verwerking. Dus die gebruikt niet de "limiet tot $push
" zoals de kwestie waarnaar wordt verwezen, levert het eigenlijk iets op dat beter zou moeten werken.
Oorspronkelijke inhoud
Het lijkt erop dat je het top "N" probleem bent tegengekomen. In zekere zin is uw probleem redelijk eenvoudig op te lossen, maar niet met de exacte beperking waar u om vraagt:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
])
Dat geeft je een resultaat als dit:
{
"result" : [
{
"_id" : "address1",
"books" : [
{
"book" : "book4",
"count" : 1
},
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 3
}
],
"count" : 5
},
{
"_id" : "address2",
"books" : [
{
"book" : "book5",
"count" : 1
},
{
"book" : "book1",
"count" : 2
}
],
"count" : 3
}
],
"ok" : 1
}
Dit verschilt dus van wat u vraagt, hoewel we de beste resultaten krijgen voor de adreswaarden, is de onderliggende "boeken"-selectie niet beperkt tot slechts een vereist aantal resultaten.
Dit blijkt erg moeilijk om te doen, maar het kan worden gedaan, hoewel de complexiteit alleen maar toeneemt met het aantal items dat je nodig hebt om te matchen. Om het simpel te houden kunnen we dit maximaal bij 2 wedstrijden houden:
db.books.aggregate([
{ "$group": {
"_id": {
"addr": "$addr",
"book": "$book"
},
"bookCount": { "$sum": 1 }
}},
{ "$group": {
"_id": "$_id.addr",
"books": {
"$push": {
"book": "$_id.book",
"count": "$bookCount"
},
},
"count": { "$sum": "$bookCount" }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$unwind": "$books" },
{ "$sort": { "count": 1, "books.count": -1 } },
{ "$group": {
"_id": "$_id",
"books": { "$push": "$books" },
"count": { "$first": "$count" }
}},
{ "$project": {
"_id": {
"_id": "$_id",
"books": "$books",
"count": "$count"
},
"newBooks": "$books"
}},
{ "$unwind": "$newBooks" },
{ "$group": {
"_id": "$_id",
"num1": { "$first": "$newBooks" }
}},
{ "$project": {
"_id": "$_id",
"newBooks": "$_id.books",
"num1": 1
}},
{ "$unwind": "$newBooks" },
{ "$project": {
"_id": "$_id",
"num1": 1,
"newBooks": 1,
"seen": { "$eq": [
"$num1",
"$newBooks"
]}
}},
{ "$match": { "seen": false } },
{ "$group":{
"_id": "$_id._id",
"num1": { "$first": "$num1" },
"num2": { "$first": "$newBooks" },
"count": { "$first": "$_id.count" }
}},
{ "$project": {
"num1": 1,
"num2": 1,
"count": 1,
"type": { "$cond": [ 1, [true,false],0 ] }
}},
{ "$unwind": "$type" },
{ "$project": {
"books": { "$cond": [
"$type",
"$num1",
"$num2"
]},
"count": 1
}},
{ "$group": {
"_id": "$_id",
"count": { "$first": "$count" },
"books": { "$push": "$books" }
}},
{ "$sort": { "count": -1 } }
])
Dus dat geeft je eigenlijk de top 2 "boeken" van de bovenste twee "adres"-items.
Maar voor mijn geld, blijf bij de eerste vorm en "snijd" dan gewoon de elementen van de array die worden geretourneerd om de eerste "N" -elementen te nemen.
Demonstratiecode
De demonstratiecode is geschikt voor gebruik met de huidige LTS-versies van NodeJS van v8.x- en v10.x-releases. Dat is meestal voor de async/await
syntaxis, maar er is niets binnen de algemene stroom dat een dergelijke beperking heeft en zich met weinig verandering aanpast aan duidelijke beloften of zelfs terug naar de implementatie van een eenvoudige callback.
index.js
const { MongoClient } = require('mongodb');
const fs = require('mz/fs');
const uri = 'mongodb://localhost:27017';
const log = data => console.log(JSON.stringify(data, undefined, 2));
(async function() {
try {
const client = await MongoClient.connect(uri);
const db = client.db('bookDemo');
const books = db.collection('books');
let { version } = await db.command({ buildInfo: 1 });
version = parseFloat(version.match(new RegExp(/(?:(?!-).)*/))[0]);
// Clear and load books
await books.deleteMany({});
await books.insertMany(
(await fs.readFile('books.json'))
.toString()
.replace(/\n$/,"")
.split("\n")
.map(JSON.parse)
);
if ( version >= 3.6 ) {
// Non-correlated pipeline with limits
let result = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 },
{ "$lookup": {
"from": "books",
"as": "books",
"let": { "addr": "$_id" },
"pipeline": [
{ "$match": {
"$expr": { "$eq": [ "$addr", "$$addr" ] }
}},
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 },
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]
}}
]).toArray();
log({ result });
}
// Serial result procesing with parallel fetch
// First get top addr items
let topaddr = await books.aggregate([
{ "$group": {
"_id": "$addr",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray();
// Run parallel top books for each addr
let topbooks = await Promise.all(
topaddr.map(({ _id: addr }) =>
books.aggregate([
{ "$match": { addr } },
{ "$group": {
"_id": "$book",
"count": { "$sum": 1 }
}},
{ "$sort": { "count": -1 } },
{ "$limit": 2 }
]).toArray()
)
);
// Merge output
topaddr = topaddr.map((d,i) => ({ ...d, books: topbooks[i] }));
log({ topaddr });
client.close();
} catch(e) {
console.error(e)
} finally {
process.exit()
}
})()
books.json
{ "addr": "address1", "book": "book1" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book5" }
{ "addr": "address3", "book": "book9" }
{ "addr": "address2", "book": "book5" }
{ "addr": "address2", "book": "book1" }
{ "addr": "address1", "book": "book1" }
{ "addr": "address15", "book": "book1" }
{ "addr": "address9", "book": "book99" }
{ "addr": "address90", "book": "book33" }
{ "addr": "address4", "book": "book3" }
{ "addr": "address5", "book": "book1" }
{ "addr": "address77", "book": "book11" }
{ "addr": "address1", "book": "book1" }