sql >> Database >  >> NoSQL >> MongoDB

hoe Spark-submit-configuratie te gebruiken:potten, pakketten:in clustermodus?

Uw gebruik van de --packages argument is fout:

--packages com.mongodb.spark:hdfs:///user/liac/package/jars/mongo-spark-connector_2.11-1.0.0-assembly.jar:1.0.0

Het moet de vorm hebben van groupId:artifactId:version zoals de uitvoer suggereert. Je kunt er geen URL mee gebruiken.

Een voorbeeld voor het gebruik van mongoDB met spark met de ingebouwde repository-ondersteuning:

$SPARK_HOME/bin/spark-shell --packages org.mongodb.spark:mongo-spark-connector_2.11:1.0.0

Als u erop staat uw eigen pot te gebruiken, kunt u deze leveren via --repositories . De waarde van het argument is

In uw geval kan het bijvoorbeeld zijn

--repositories hdfs:///user/liac/package/jars/ --packages org.mongodb.spark:mongo-spark-connector_2.11:1.0.0



  1. Vind laatste record van elke dag

  2. Index bestaat al met verschillende opties fout tijdens het gebruik van createIndex() in de nieuwste MongoDB java-driver

  3. MongoDB-gegevens verwijderen - schijfruimte terugwinnen

  4. Hoe een document aan een subdocumentarray toe te voegen - Java/MongoDB