sql >> Database teknologi >  >> NoSQL >> Redis

Er der en måde at skrive pyspark dataframe til azure cache for redis?

Du skal bruge dette bibliotek:https://github.com/RedisLabs/spark-redisalong med den nødvendige krukke (afhængigt af hvilken version af spark+scala du bruger).

I mit tilfælde har jeg installeret 3 krukker på gnistklyngen (Scala=2.12) seneste gnist:

  1. spark_redis_2_12_2_6_0.jar
  2. commons_pool2_2_10_0.jar
  3. jedis_3_6_0.jar

Langs konfigurationen for tilslutning til redis:

Konfiguration af klyngekonf.

spark.redis.auth PASSWORD
spark.redis.port 6379
spark.redis.host xxxx.xxx.cache.windows.net

Sørg for, at du har azure redis 4.0. Biblioteket kan have problemer med 6.0. Prøvekode til push:

    from pyspark.sql.types import StructType, StructField, StringType
schema = StructType([
    StructField("id", StringType(), True),
    StructField("colA", StringType(), True),
    StructField("colB", StringType(), True)
])

data = [
    ['1', '8', '2'],
    ['2', '5', '3'],
    ['3', '3', '1'],
    ['4', '7', '2']
]
df = spark.createDataFrame(data, schema=schema)
df.show()
--------------
(
    df.
    write.
    format("org.apache.spark.sql.redis").
    option("table", "mytable").
    option("key.column", "id").
    save()
)

 



  1. (node:3341) AfskrivningAdvarsel:Mongoose:mpromise

  2. Forkert afstandsberegning med MongoDB

  3. Implementerer jeg serialisering og deserialisering af NodesJS + Passport + RedisStore?

  4. MongoDB-tjenesten kører ikke i Fedora