sql >> Database >  >> RDS >> PostgreSQL

Apache Spark:JDBC-verbinding werkt niet

Ik had precies dit probleem met mysql/mariadb en kreeg een GROTE aanwijzing van deze vraag

Dus je pyspark-commando zou moeten zijn:

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>

Let ook op fouten wanneer pyspark start, zoals "Waarschuwing:lokale jar ... bestaat niet, overslaan." en "ERROR SparkContext:Jar niet gevonden op ...", deze betekenen waarschijnlijk dat je het pad verkeerd hebt gespeld.



  1. Indexen gebruiken in voor geheugen geoptimaliseerde tabellen voor SQL Server

  2. SQLException:tekenreeks of binaire gegevens worden afgekapt

  3. MariaDB 10.3 beheren met ClusterControl

  4. SSIS-pakket wil geen metadata van tijdelijke tabel ophalen