Ik had precies dit probleem met mysql/mariadb en kreeg een GROTE aanwijzing van deze vraag
Dus je pyspark-commando zou moeten zijn:
pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>
Let ook op fouten wanneer pyspark start, zoals "Waarschuwing:lokale jar ... bestaat niet, overslaan." en "ERROR SparkContext:Jar niet gevonden op ...", deze betekenen waarschijnlijk dat je het pad verkeerd hebt gespeld.