解决mongo单文档超过16M

mongodb导入大文件的数据时,导入一小部分后,提示lost connect,失去连接。mongo文件有6.3G,网上查了一下,原来Mongo对单次处理好像有大小限制(16m),所以大文件会出问题,这应该是个Bug mongoimport 默认会10000条 为一个批量导入数据,解决方法是在导入的语句后面加入一个参数 --batchSize 可以指定每次批量导入的条数 设置小一些就不报错了。

首先进入bin目录下

具体语句如下:

mongoimport  -d database -c indexs < indexs.mongo --batchSize 1

 

-d后面是你的数据库的名字,-c后面是集合的名称。batchSize前面是两个中横杠。

posted @   阿布_alone  阅读(4862)  评论(1编辑  收藏  举报
编辑推荐:
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
历史上的今天:
2019-01-05 关于pycharm使用sqlite数据可视化的使用
TOP
点击右上角即可分享
微信分享提示