sql >> Database >  >> NoSQL >> MongoDB

Extra potten doorgeven aan Spark via spark-submit

Het probleem is dat CLASSPATH moet door dubbele punten worden gescheiden, terwijl JARS moet door komma's worden gescheiden:

$SPARK_HOME/bin/spark-submit \
--driver-class-path /usr/local/share/mongo-hadoop/build/libs/mongo-hadoop-1.5.0-SNAPSHOT.jar:/usr/local/share/mongo-hadoop/spark/build/libs/mongo-hadoop-spark-1.5.0-SNAPSHOT.jar \
--jars /usr/local/share/mongo-hadoop/build/libs/mongo-hadoop-1.5.0-SNAPSHOT.jar,/usr/local/share/mongo-hadoop/spark/build/libs/mongo-hadoop-spark-1.5.0-SNAPSHOT.jar my_application.py


  1. Redis schrijft naar .ssh/authorized_keys

  2. Overzicht van de MongoDB Database Profiler

  3. MongoDB:controleer verbinding met DB

  4. Voorwaardelijke $ som in MongoDB