sql >> Database >  >> RDS >> PostgreSQL

Pyspark-verbinding met Postgres-database in ipython-notebook

Ik weet niet zeker waarom het bovenstaande antwoord niet voor mij werkte, maar ik dacht dat ik ook kon delen wat echt voor mij werkte bij het uitvoeren van pyspark vanaf een jupyter-notebook (Spark 2.3.1 - Python 3.6.3):

from pyspark.sql import SparkSession
spark = SparkSession.builder.config('spark.driver.extraClassPath', '/path/to/postgresql.jar').getOrCreate()
url = 'jdbc:postgresql://host/dbname'
properties = {'user': 'username', 'password': 'pwd'}
df = spark.read.jdbc(url=url, table='tablename', properties=properties)


  1. Waarom vereist Oracle een alias voor kolommen in een weergave bij het dereferentie van een object?

  2. Dynamische mailconfiguratie met waarden uit database [Laravel]

  3. 4 manieren om de weergaven in een SQLite-database weer te geven

  4. Laravel Welsprekende vergelijkingsdatum uit datetime-veld