如何pipe理MongoDb集合中的大数据
我有一个称为数据的集合,它是每n秒钟从许多设备发送的所有文档的目的地。
在没有文档溢出的情况下,保持集合在生产环境中的最佳实践是什么?
我怎样才能“清理”collections并将内容保存到另一个? 这是正确的方法吗?
先谢谢你。
你不能溢出,如果你使用分片,你几乎有无限的空间。
https://docs.mongodb.com/manual/reference/limits/#Sharding-Existing-Collection-Data-Size
这些是单个碎片的限制,你必须在达到它们之前开始分片。
这取决于您的体系结构,但是如果您在其中一个副本集中将最大集合大小乘以可能副本集中的分片数,则大多数大数据应用都无法访问8.19200艾字节(或8,192,000 TB)的限制(在最坏的情况下)。
也可以看看:
MongoDB中的最大集合大小是多less?
Mongodb是存储大集合的最佳数据库。 您可以执行以下步骤以获得更好的性能。
- 复制
复制意味着在单台服务器或多台服务器上多次复制您的数据。 每次在数据库中插入数据时,它都会提供数据的备份。
embedded的文件
尝试使你的collections与refiningces。 这意味着,尝试在你的分贝进行refrences。