我正在尝试使用bulk_write指令插入大量文档(+1M)。为此,我创建了一个 InsertOne 函数列表。python version = 3.7.4pymongo version = 3.8.0文档创建:document = { 'dictionary': ObjectId(dictionary_id), 'price': price, 'source': source, 'promo': promo, 'date': now_utc, 'updatedAt': now_utc, 'createdAt:': now_utc }# add line to debugif '_id' in document.keys(): print(document)return document我通过从元素列表中添加新字段来创建完整的文档列表,并使用 InsertOne 创建查询bulk = []for element in list_elements: for document in documents: document['new_field'] = element # add line to debug if '_id' in document.keys(): print(document) insert = InsertOne(document) bulk.append(insert)return bulkbulk_write我使用命令进行插入collection.bulk_write(bulk, ordered=False)我附上文档https://api.mongodb.com/python/current/api/pymongo/collection.html#pymongo.collection.Collection.bulk_write根据文档,该_id字段是自动添加的 Parameter - document: The document to insert. If the document is missing an _id field one will be added.不知何故,这似乎是错误的,因为其中一些具有相同的价值。对于 1M 文档中的 700k 收到此错误(当然有不同的 _id)对 'E11000 duplicate key error collection: database.collection index: _id_ dup key: { _id: ObjectId(\'5f5fccb4b6f2a4ede9f6df62\') }' 我来说似乎是 pymongo 的错误,因为我在很多情况下使用了这种方法,但我没有使用如此大小的文档该_id字段肯定必须是唯一的,但是,由于这是由 pymongo 自动完成的,我不知道如何解决这个问题,也许使用 UpdateOne 和 upsert True 以及不可能的过滤器并希望得到最好的结果。我将不胜感激任何解决方案或解决这个问题
添加回答
举报
0/150
提交
取消