sql >> Database teknologi >  >> RDS >> Mysql

Spark:Indlæsning af stor MySQL-tabel i DataFrame mislykkes

Spark JDBC API synes at gaffel til at indlæse alle data fra MySQL-tabellen til hukommelsen uden. Så når du prøver at indlæse en stor tabel, hvad du skal gøre, er at bruge Spark API-klonedata til HDFS først (JSON skal bruges til at beholde skemastrukturen), som denne:

spark.read.jdbc(jdbcUrl, tableName, prop)
       .write()
       .json("/fileName.json");

Så kan du arbejde på HDFS i stedet for normalt.

spark.read().json("/fileName.json")
       .createOrReplaceTempView(tableName);



  1. Sådan forbinder du PHP til MySQL

  2. Indsætter data for at optage i sqlite

  3. MySQL kommandolinjeformatering med UTF8

  4. Nemt mysql-spørgsmål vedrørende primærnøgler og en indsættelse