sql >> Database teknologi >  >> NoSQL >> MongoDB

Matcher ObjectId til String for $graphLookup

Du bruger i øjeblikket en udviklingsversion af MongoDB, som har nogle funktioner aktiveret, som forventes at blive udgivet med MongoDB 4.0 som en officiel udgivelse. Bemærk, at nogle funktioner kan ændres inden den endelige udgivelse, så produktionskoden skal være opmærksom på dette, før du forpligter dig til det.

Hvorfor $convert mislykkes her

Den bedste måde at forklare dette på er nok at se på din ændrede prøve, men erstatte den med ObjectId værdier for _id og "strenge" for dem under arrays:

{
  "_id" : ObjectId("5afe5763419503c46544e272"),
   "name" : "cinco",
   "children" : [ { "_id" : "5afe5763419503c46544e273" } ]
},
{
  "_id" : ObjectId("5afe5763419503c46544e273"),
  "name" : "quatro",
  "ancestors" : [ { "_id" : "5afe5763419503c46544e272" } ],
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e274"),
  "name" : "seis",
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e275"),
  "name" : "um",
  "children" : [ { "_id" : "5afe5763419503c46544e276" } ]
}
{
  "_id" : ObjectId("5afe5763419503c46544e276"),
  "name" : "dois",
  "ancestors" : [ { "_id" : "5afe5763419503c46544e275" } ],
  "children" : [ { "_id" : "5afe5763419503c46544e277" } ]
},
{ 
  "_id" : ObjectId("5afe5763419503c46544e277"),
  "name" : "três",
  "ancestors" : [
    { "_id" : "5afe5763419503c46544e273" },
    { "_id" : "5afe5763419503c46544e274" },
    { "_id" : "5afe5763419503c46544e276" }
  ]
},
{ 
  "_id" : ObjectId("5afe5764419503c46544e278"),
  "name" : "sete",
  "children" : [ { "_id" : "5afe5763419503c46544e272" } ]
}

Det skulle give en generel simulering af, hvad du prøvede at arbejde med.

Det du forsøgte var at konvertere _id værdi ind i en "streng" via $project før du indtaster $graphLookup scene. Grunden til at dette mislykkes er, mens du lavede et indledende $project "inden for" denne pipeline er problemet, at kilden til $graphLookup i "from" mulighed er stadig den uændrede samling, og derfor får du ikke de korrekte detaljer ved de efterfølgende "opslags" iterationer.

db.strcoll.aggregate([
  { "$match": { "name": "três" } },
  { "$addFields": {
    "_id": { "$toString": "$_id" }
  }},
  { "$graphLookup": {
    "from": "strcoll",
    "startWith": "$ancestors._id",
    "connectFromField": "ancestors._id",
    "connectToField": "_id",
    "as": "ANCESTORS_FROM_BEGINNING"
  }},
  { "$project": {
    "name": 1,
    "ANCESTORS_FROM_BEGINNING": "$ANCESTORS_FROM_BEGINNING._id"
  }}
])

Passer ikke på "opslag" derfor:

{
        "_id" : "5afe5763419503c46544e277",
        "name" : "três",
        "ANCESTORS_FROM_BEGINNING" : [ ]
}

"Letter" problemet

Men det er kerneproblemet og ikke en fejl i $convert eller det er sig selv aliaser. For at få dette til rent faktisk at fungere kan vi i stedet lave en "view", der præsenterer sig selv som en samling for inputs skyld.

Jeg gør det omvendt og konverterer "strengene" til ObjectId via $toObjectId :

db.createView("idview","strcoll",[
  { "$addFields": {
    "ancestors": {
      "$ifNull": [ 
        { "$map": {
          "input": "$ancestors",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    },
    "children": {
      "$ifNull": [
        { "$map": {
          "input": "$children",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    }
  }}
])

Brug af "visningen" betyder dog, at dataene konsekvent ses med de konverterede værdier. Så følgende sammenlægning ved hjælp af visningen:

db.idview.aggregate([
  { "$match": { "name": "três" } },
  { "$graphLookup": {
    "from": "idview",
    "startWith": "$ancestors._id",
    "connectFromField": "ancestors._id",
    "connectToField": "_id",
    "as": "ANCESTORS_FROM_BEGINNING"
  }},
  { "$project": {
    "name": 1,
    "ANCESTORS_FROM_BEGINNING": "$ANCESTORS_FROM_BEGINNING._id"
  }}
])

Returnerer det forventede output:

{
    "_id" : ObjectId("5afe5763419503c46544e277"),
    "name" : "três",
    "ANCESTORS_FROM_BEGINNING" : [
        ObjectId("5afe5763419503c46544e275"),
        ObjectId("5afe5763419503c46544e273"),
        ObjectId("5afe5763419503c46544e274"),
        ObjectId("5afe5763419503c46544e276"),
        ObjectId("5afe5763419503c46544e272")
    ]
}

Løser problemet

Med alt det sagt, er det virkelige problem her, at du har nogle data, der "ligner" et ObjectId værdi og er faktisk gyldig som et ObjectId , men det er blevet optaget som en "streng". Det grundlæggende problem for alt, der fungerer, som det skal, er, at de to "typer" ikke er de samme, og dette resulterer i en ligestillingsmismatch, når "sammenføjningen" forsøges.

Så den rigtige rettelse er stadig den samme, som den altid har været, som i stedet er at gå dataene igennem og rette den, så "strengene" faktisk også er ObjectId værdier. Disse vil derefter matche _id nøgler, som de er beregnet til at referere til, og du sparer en betydelig mængde lagerplads, da et ObjectId optager meget mindre plads at gemme end dens strengrepræsentation med hexadecimale tegn.

Ved at bruge MongoDB 4.0-metoder "kunne" du faktisk bruge "$toObjectId" for at skrive en ny samling, bare i stort set samme sag, som vi oprettede "visningen" tidligere:

db.strcoll.aggregate([
  { "$addFields": {
    "ancestors": {
      "$ifNull": [ 
        { "$map": {
          "input": "$ancestors",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    },
    "children": {
      "$ifNull": [
        { "$map": {
          "input": "$children",
          "in": { "_id": { "$toObjectId": "$$this._id" } }
        }},
        "$$REMOVE"
      ]
    }
  }}
  { "$out": "fixedcol" }
])

Eller selvfølgelig, hvor du "skal beholde" den samme samling, så forbliver den traditionelle "loop og opdatering" den samme som det, der altid har været påkrævet:

var updates = [];

db.strcoll.find().forEach(doc => {
  var update = { '$set': {} };

  if ( doc.hasOwnProperty('children') )
    update.$set.children = doc.children.map(e => ({ _id: new ObjectId(e._id) }));
  if ( doc.hasOwnProperty('ancestors') )
    update.$set.ancestors = doc.ancestors.map(e => ({ _id: new ObjectId(e._id) }));

  updates.push({
    "updateOne": {
      "filter": { "_id": doc._id },
      update
    }
  });

  if ( updates.length > 1000 ) {
    db.strcoll.bulkWrite(updates);
    updates = [];
  }

})

if ( updates.length > 0 ) {
  db.strcoll.bulkWrite(updates);
  updates = [];
}

Hvilket faktisk er lidt af en "slædehammer" på grund af faktisk at overskrive hele arrayet på én gang. Ikke en god idé til et produktionsmiljø, men nok som en demonstration til formålet med denne øvelse.

Konklusion

Så mens MongoDB 4.0 vil tilføje disse "casting"-funktioner, som faktisk kan være meget nyttige, er deres egentlige hensigt ikke rigtig til tilfælde som dette. De er faktisk meget mere nyttige som vist i "konverteringen" til en ny samling ved hjælp af en aggregeringspipeline end de fleste andre mulige anvendelser.

Mens vi "kan" opret en "visning", som transformerer datatyperne for at aktivere ting som $lookup og $graphLookup at arbejde, hvor de faktiske indsamlingsdata adskiller sig, er dette i virkeligheden kun et "plaster" på det egentlige problem, da datatyperne egentlig ikke burde være forskellige, og faktisk burde konverteres permanent.

Brug af en "visning" betyder faktisk, at aggregeringspipelinen for byggeri skal køre effektivt hver gang "samlingen" (faktisk en "visning") tilgås, hvilket skaber en reel overhead.

At undgå overhead er normalt et designmål, derfor er det bydende nødvendigt at rette sådanne datalagringsfejl for at få reel ydeevne ud af din applikation i stedet for blot at arbejde med "brute force", som kun vil bremse tingene.

Et meget sikrere "konverterings"-script, der anvendte "matchede" opdateringer til hvert array-element. Koden her kræver NodeJS v10.x og en seneste udgivelse MongoDB node driver 3.1.x:

const { MongoClient, ObjectID: ObjectId } = require('mongodb');
const EJSON = require('mongodb-extended-json');

const uri = 'mongodb://localhost/';

const log = data => console.log(EJSON.stringify(data, undefined, 2));

(async function() {

  try {

    const client = await MongoClient.connect(uri);
    let db = client.db('test');
    let coll = db.collection('strcoll');

    let fields = ["ancestors", "children"];

    let cursor = coll.find({
      $or: fields.map(f => ({ [`${f}._id`]: { "$type": "string" } }))
    }).project(fields.reduce((o,f) => ({ ...o, [f]: 1 }),{}));

    let batch = [];

    for await ( let { _id, ...doc } of cursor ) {

      let $set = {};
      let arrayFilters = [];

      for ( const f of fields ) {
        if ( doc.hasOwnProperty(f) ) {
          $set = { ...$set,
            ...doc[f].reduce((o,{ _id },i) =>
              ({ ...o, [`${f}.$[${f.substr(0,1)}${i}]._id`]: ObjectId(_id) }),
              {})
          };

          arrayFilters = [ ...arrayFilters,
            ...doc[f].map(({ _id },i) =>
              ({ [`${f.substr(0,1)}${i}._id`]: _id }))
          ];
        }
      }

      if (arrayFilters.length > 0)
        batch = [ ...batch,
          { updateOne: { filter: { _id }, update: { $set }, arrayFilters } }
        ];

      if ( batch.length > 1000 ) {
        let result = await coll.bulkWrite(batch);
        batch = [];
      }

    }

    if ( batch.length > 0 ) {
      log({ batch });
      let result = await coll.bulkWrite(batch);
      log({ result });
    }

    await client.close();

  } catch(e) {
    console.error(e)
  } finally {
    process.exit()
  }

})()

Producerer og udfører masseoperationer som disse for de syv dokumenter:

{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e272"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e273"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e273"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e273"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e272"
        },
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e272"
      },
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e274"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e275"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e276"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e276"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e276"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e275"
        },
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e277"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e275"
      },
      {
        "c0._id": "5afe5763419503c46544e277"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5763419503c46544e277"
      }
    },
    "update": {
      "$set": {
        "ancestors.$[a0]._id": {
          "$oid": "5afe5763419503c46544e273"
        },
        "ancestors.$[a1]._id": {
          "$oid": "5afe5763419503c46544e274"
        },
        "ancestors.$[a2]._id": {
          "$oid": "5afe5763419503c46544e276"
        }
      }
    },
    "arrayFilters": [
      {
        "a0._id": "5afe5763419503c46544e273"
      },
      {
        "a1._id": "5afe5763419503c46544e274"
      },
      {
        "a2._id": "5afe5763419503c46544e276"
      }
    ]
  }
},
{
  "updateOne": {
    "filter": {
      "_id": {
        "$oid": "5afe5764419503c46544e278"
      }
    },
    "update": {
      "$set": {
        "children.$[c0]._id": {
          "$oid": "5afe5763419503c46544e272"
        }
      }
    },
    "arrayFilters": [
      {
        "c0._id": "5afe5763419503c46544e272"
      }
    ]
  }
}



  1. Hvordan ville Redis få at vide, om det skal returnere cachelagrede data eller friske data fra DB

  2. Tilgange til sikkerhedskopiering og katastrofegendannelse i HBase

  3. Online Apache HBase Backups med CopyTable

  4. Opret forbindelse til redis fra en anden container i docker