sql >> Database teknologi >  >> RDS >> PostgreSQL

Apache Spark:JDBC-forbindelse virker ikke

Jeg havde præcis dette problem med mysql/mariadb, og fik STOR ledetråd fra dette spørgsmål

Så din pyspark-kommando skal være:

pyspark --conf spark.executor.extraClassPath=<jdbc.jar> --driver-class-path <jdbc.jar> --jars <jdbc.jar> --master <master-URL>

Hold også øje med fejl, når pyspark starter som "Advarsel:Lokal krukke ... findes ikke, springer over." og "FEJL SparkContext:Jar not found at ...", disse betyder sandsynligvis, at du har stavet stien forkert.



  1. Opret et databasediagram i MySQL Workbench

  2. Betinget aggregeringsydelse

  3. Læserløsninger til Special Islands-udfordringen

  4. Mit VARCHAR(MAX)-felt begrænser sig selv til 4000; hvad giver?