sql >> Database >  >> RDS >> Mysql

Spark:lezen van grote MySQL-tabel in DataFrame mislukt

Spark JDBC API lijkt te vorken om alle gegevens van de MySQL-tabel naar het geheugen te laden zonder. Dus wanneer u een grote tabel probeert te laden, moet u eerst Spark API-kloongegevens naar HDFS gebruiken (JSON moet worden gebruikt om de schemastructuur te behouden), zoals deze:

spark.read.jdbc(jdbcUrl, tableName, prop)
       .write()
       .json("/fileName.json");

Dan kunt u in plaats daarvan normaal aan HDFS werken.

spark.read().json("/fileName.json")
       .createOrReplaceTempView(tableName);



  1. POWER() Voorbeelden in SQL Server

  2. De heilige graal van het opschonen van invoer en uitvoer in php?

  3. Hoe kan ik kolomopmerkingen in PostgreSQL invoegen via Python?

  4. Beveiligingsfuncties in SQL Server 2017