sql >> Database >  >> NoSQL >> MongoDB

Spark verbinden met meerdere Mongo-collecties

Ik heb dit probleem opgelost door onderstaande code toe te voegen

JavaSparkContext newcontext = new JavaSparkContext(session.sparkContext());
Map<String, String> readOverrides = new HashMap<String, String>();
readOverrides.put("collection", "details");
readOverrides.put("readPreference.name", "secondaryPreferred");
ReadConfig readConfig = ReadConfig.create(newcontext).withOptions(readOverrides);
MongoSpark.load(newcontext,readConfig);


  1. Is er een equivalent van PyMongo voor Python 3.2?

  2. Geospatiale ondersteuning in MongoDB

  3. mongodb verbinding pooling

  4. Hoe een arraygrootte in MongoDB te beperken?