Min løsning er at dele putback
med en simpel funktion som foreslået her
:
def chunk(l, n):
n = max(1, n)
return [l[i:i + n] for i in range(0, len(l), n)]
og derefter
for chunk in chunk(putback, 250000):
curs.execute("UPDATE table1
SET col3 = p.result
FROM unnest(%s) p(sid INT, result JSONB)
WHERE sid = p.sid", (chunk,))
Dette virker, dvs. holder hukommelsesfodaftrykket i skak, men er ikke særlig elegant og langsommere end at dumpe alle data på én gang, som jeg plejer.