您好,登录后才能下订单哦!
这篇文章主要讲解了“Oracle数据泵如何实现不同用户导入导出表级”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Oracle数据泵如何实现不同用户导入导出表级”吧!
前言:
先认识一个单词,schema:模式。
再来了解一个概念。
当创建一个用户的时候,会同时创建一个与用户同名的schema,这个schema的官方解释是对象的集合。
举个例子,比如说我就是一个用户,叫A,住在某个公寓里,假如我住在4-404,那么这个4-404这个房间就是schema,房间名也叫A(意思是用户A的房间,在oracle里的意思是用户A的schema)。那么房间里面的东西就是对象了,比如说桌子,冰箱,床之类的。所以说schema是对象的集合。(个人理解,不对之处,请以斧正)
在使用数据泵前设定一个directory,就是存放数据泵文件的目录。
create directory data_dump as '/data_dump';
当然,也可以查看有哪些目录
select directory_name,directory_path from dba_directories;
下面来记一些参数:
serid:说明使用的是哪个用户进行操作
directory:说明使用的是哪个逻辑目录(就是上面创建的那个)
dumpfile :导出后的文件名字
logfile: 导出过程中的日志文件
tables :导出的表
下面是导出脚本及expdp:
cat >exp_table.par<<EOF userid=' / as sysdba' directory=data_dump dumpfile=exp_table_%u.dmp logfile=exp_table.log tables=(scott.temp,scott.tjy_test) cluster=n parallel=4 exclude=STATISTICS compression=ALL EOF nohup expdp parfile=exp_table.par>exp_table.par.out & tail -100f exp_table.par.out
对上面参数进行解释说明:
userid=' / as sydba':说明用的是sys用户执行的数据泵操作
directory=data_dump:说明操作路径是data_dump(也就是上面创建的那个目录)
dumpfile=exp_table_%u.dmp:这里仅仅是说明导出后的文件命名,exp_表示这是导出的文件,table_表示表级操作,%u表示01-99的自动增长的整数,.dmp表示文件后缀
logfile=exp_table.log:跟上面的解释差不多。
tables=(scott.temp,scott.test):说明要导出的是scott里的temp表和test表,注意这里的scott指的是schema,而不是username
其他的没什么好说的,想学自己百度。
下面是导入脚本及impdp:
cat >imp_table.par<<EOF userid=' / as sysdba' directory=DATA_DUMP dumpfile=exp_table_%u.dmp logfile=imp_table.log TABLE_EXISTS_ACTION=append tables=(scott.temp,scott.test) remap_schema=scott:sys cluster=n parallel=8 EOF nohup impdp parfile=imp_table.par>imp_table.par.out & tail -100f imp_table.par.out
这个跟上面的其实没多大改变,目录还是那个目录。
需要注意的是多了一行table_exists_action=append 这行表示在原有表的基础上添加要导入的数据。
还有一行是remap_schema=scott:sys重点是这里,因为scott.temp的scott指的是schema,所以参数是remap_schema。 scott:sys的意思是在这些个数据泵文件里,schema是scott的,换成sys。
感谢各位的阅读,以上就是“Oracle数据泵如何实现不同用户导入导出表级”的内容了,经过本文的学习后,相信大家对Oracle数据泵如何实现不同用户导入导出表级这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。