一:mongodb 常用命令
mongod:数据库做事端,类似mysqld,每个实例启动一个进程,可以fork为Daemon运行
mongo:客户端命令行工具,类似sqlplus/mysql,实在也是一个js阐明器,支持js语法

mongodump/mongorestore:将数据导入为bson格式的文件/将bson文件规复为数据库,类似xtracbackup
mongoexport/mongoimport:将collection导出为json/csv格式数据/将数据导入数据库,类似mysqldump/mysqlimport
bsondump:将bson格式的文件转储为json格式的数据
mongos:分片路由,如果利用了sharding功能,则运用程序连接的是mongos而不是mongod
mongofiles:GridFS管理工具
mongostat:实时监控工具
mongod的紧张参数有:
dbpath: 数据文件存放路径,每个数据库会在个中创建一个子目录。
logpath:缺点日志文件
logappend: 缺点日志采取追加模式(默认是覆写模式)
bind_ip: 对外做事的绑定ip,一样平常设置为空,及绑定在本机所有可用ip上,如有须要可以单独指定
port: 对外做事端口。Web管理端口在这个port的根本上+1000
fork: 往后台Daemon形式运行做事
journal:开启日志功能,通过保存操作日志来降落单机故障的规复韶光,在1.8版本后正式加入,取代在1.7.5版本中的dur参数。
syncdelay: 实行sync的间隔,单位为秒。
directoryperdb: 每个db存放在单独的目录中,建议设置该参数。
maxConns: 最大连接数
repairpath: 实行repair时的临时目录。在如果没有开启journal,非常宕机后重启,必须实行repair操作。
远程登录:
mongo --host 192.168.146.172 --port 27017
数据管理:
>use elain #建库
>db.elain.insert({name:'elain'}); #数据插入
>db.elain.remove({name:'elain'}); #数据删除
>db.elain.remove({name:'elain'}); #数据删除(永久删除)
>show dbs; #显示数据库
>show collections; #显示表
>db.elain.find(); #数据查询
>db.elain.findOne(); #只查一行
>db #查看当前所在库
>db.collection.count(); #统计colleciton的数量
>db.collection.drop(); #删除此colleciton
>db.foo.find().count #某个数据的数量
>db.deliver_status.dataSize(); #查看collection数据的大小
>db.deliver_status.stats(); #查看colleciont状态
>db.deliver_status.totalIndexSize(); #查询所有索引的大小
#删除数据库
use elain;
db.dropDatabase();
#修复数据库
db.repairDatabase();
#删除表
db.elain.drop();
#查看profiling
show profile
>db.test.find({},{"_id":0}); #不显示id列
>db.test.find({'name':/mp/i}); #正则查找忽略大小写
db.elain.ensureIndex({"name":1}); #建立索引
db.elain.dropIndex({"name":1}); #删除索引
db.elain.find({"name":"elain"}).explain(); #查看索引
---------------------------------------
"$lt" <
"$lte" <=
"$gt" >
"$gte" >=
"$ne" <>
"$in" 一个键匹配多个值
"$nin" 一个键不匹配多个值
$not 不匹配
$all 匹配数组全值
$size 数组长度
$slice 返子凑集 {"$slice”:10} -10 [10,20]
. 内嵌文档 {“name.first”:“xxx”}
$where 常日情形下不建议利用
备份规复:
数据导出:mongoexport
参数解释:
-h:指明数据库宿主机的IP
-u:指明数据库的用户名
-p:指明数据库的密码
-d:指明数据库的名字
-c:指明collection的名字
-f:指明要导出那些列
-o:指明到要导出的文件名
-q:指明导出数据的过滤条件
/usr/local/mongodb/bin/mongoexport -d meng -c meng -o meng.cvs
数据导入:mongoimport
参数解释:
-h:指明数据库宿主机的IP
-u:指明数据库的用户名
-p:指明数据库的密码
-d:指明数据库的名字
-c:指明collection的名字
-f:指明要导入那些列
/usr/local/mongodb/bin/mongoimport -d meng -c meng1 meng.cvs
#/elain/apps/mongodb/bin/mongoimport -h 127.0.0.1:27001 -uroot -p -d elain -c elain elain_con.csv
备份数据库: mongodbdump
-h:MongDB所在做事器地址,例如:127.0.0.1,当然也可以指定端口号:127.0.0.1:27017
-u :用户名
--password:密码
--port:端口
-d:须要备份的数据库实例,例如:test
-o:备份的数据存放位置,例如:/root/mkfree,当然该目录须要提前建立,在备份完成后,系统自动在dump目录下建立一个test目录,这个目录里面存放该数据库实例的备份数据
/usr/local/mongodb/bin/mongodump -d meng -o dbbackup/
#mongodump -h 127.0.0.1:27001 -uroot -p -d elain -o /elain/backup/mongodb
规复数据库:mogodbrestore
-h:MongoDB所在做事器地址
-d:须要规复的数据库实例,例如:test,当然这个名称也可以和备份时候的不一样,比如test2
--directoryperdb:备份数据所在位置,例如:c:\data\dump\test,这里为什么要多加一个test,而不是备份时候的dump,读者自己查看提示吧!
--drop:规复的时候,先删除当前数据,然后规复备份的数据。便是说,规复后,备份后添加修正的数据都会被删除,慎用哦!
/usr/local/mongodb/bin/mongorestore -d meng_bak --directoryperdb dbbackup/meng
connected to: 127.0.0.1
2015-01-22T16:01:18.179+0800 dbbackup/meng/meng.bson
2015-01-22T16:01:18.179+0800 going into namespace [meng_bak.meng]
2 objects found
2015-01-22T16:01:18.222+0800 Creating index: { key: { _id: 1 }, name: "_id_", ns: "meng_bak.meng" }
2015-01-22T16:01:18.729+0800 dbbackup/meng/meng1.bson
2015-01-22T16:01:18.729+0800 going into namespace [meng_bak.meng1]
2 objects found
2015-01-22T16:01:18.754+0800 Creating index: { key: { _id: 1 }, name: "_id_", ns: "meng_bak.meng1" }
#mongorestore -h 127.0.0.1:27001 -uroot -p -d elain /elain/backup/mongodb/elain
规复数据库(规复前打消已有数据):
mongorestore -h 127.0.0.1:27001 -uroot -p -d elain --drop /elain/backup/mongodb/elain
性能测试:
备份方面:mongodump的速率和压缩率都最好,每秒125M的数据,压缩率达28%
规复方面:
mongoimport速率较快,但不担保数据完全导入
mongorestore,速率较慢,比mongoimport慢2.5倍旁边,但是根据mongodump导出的数据,可以完全导入数据