Spark kan ikke finde com.mongodb.spark.sql.DefaultSource
pakke, deraf fejlmeddelelsen.
Alt, ellers ser godt ud, skal bare inkludere Mongo Spark-pakken:
> $SPARK_HOME/bin/pyspark --packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
Eller sørg for, at jar-filen er på den rigtige sti.
Sørg for at tjekke den version af Mongo-Spark-pakken, der kræves til din version af Spark: https://spark-packages.org/package/mongodb/mongo-spark