sql >> Database >  >> RDS >> PostgreSQL

dubbele sleutelwaarde schendt unieke beperking - postgres-fout bij het maken van een sql-tabel van dask-dataframe

Ik las dit Het lijkt erop dat deze fout optreedt wanneer u dezelfde tabel maakt/bijwerkt met parallelle verwerking. Ik begrijp dat dit afhangt van dit (zoals uitgelegd in de Google-groepsdiscussie).

Dus ik denk dat het afhangt van PostgreSQL zelf en niet van het verbindingsstuurprogramma of de module die wordt gebruikt voor de multiprocessing.

Nou, eigenlijk is de enige manier die ik heb gevonden om dit op te lossen, chunks te creëren die groot genoeg zijn om een ​​schrijfproces terug te krijgen dat langzamer is dan de berekening zelf. Bij grotere chunks neemt deze fout niet toe.



  1. SQL - Vind de prijs die het dichtst bij een gegeven argument ligt

  2. Gegevens van rich-text-box opslaan in database met opmaak

  3. Waarom worden 2 rijen beïnvloed in mijn `INSERT ... ON DUPLICATE KEY UPDATE`?

  4. Converteer datetime-waarde naar tekenreeks