优化exp/imp导入导出速度大全

发布时间:2016-12-8 10:18:05 编辑:www.fx114.net 分享查询网我要评论
本篇文章主要介绍了"优化exp/imp导入导出速度大全",主要涉及到优化exp/imp导入导出速度大全方面的内容,对于优化exp/imp导入导出速度大全感兴趣的同学可以参考一下。

1、exp    我们知道采用direct path可以提高导出速度。所以,在使用exp时,就可以采用直接路径模式。这种模式有2个相关的参数:DIRECT和RECORDLENGTH参数。        DIRECT参数定义了导出是使用直接路径方式(DIRECT=Y),还是常规路径方式(DIRECT=N)。常规路径导出使用SQL SELECT语句从表中抽取数据,直接路径导出则是将数据直接从磁盘读到PGA再原样写入导出文件,从而避免了SQL命令处理层的数据转换过程,大大提高了导出效率。在数据量大的情况下,直接路径导出的效率优势更为明显,可比常规方法速度提高三倍之多。   和DIRECT=Y配合使用的是RECORDLENGTH参数,它定义了Export I/O缓冲的大小,作用类似于常规路径导出使用的BUFFER参数。建议设置RECORDLENGTH参数为最大I/O缓冲,即65535(64kb)。其用法如下:        如:exp userid=system/manager  full=y  direct=y  recordlength=65535 file=exp_full.dmp log=exp_full.log   一些限制如下: ·    直接路径不能使用在tablespace-mode ·    直接路径不支持query参数。query只能在conventional path模式下使用。 ·    如果exp版本小于8.1.5,不能使用exp导入有lob字段的表。 不过现在很少有有8版本的数据库了。这点可以忽略掉了。 ·    buffer选项只对conventional path exp(传统路径)有效。对于直接路径没有影响。对于直接路径,应该设置RECORDLENGTH参数。 ·    对于直接路径下, RECORDLENGTH参数建议设成64k(65535)。这个值对性能提高比较大。     2、IMP        Oracle Import进程需要花比Export进程数倍的时间将数据导入数据库。某些关键时刻,导入是为了应对数据库的紧急故障恢复。为了减少宕机时间,加快导入速度显得至关重要。没有特效办法加速一个大数据量的导入,但我们可以做一些适当的设定以减少整个导入时间。 ·    IMP作了大量的跟普通方式一样的insert ·    IMP时候创建索引通常是logging的,产生了大量的undo和redo   提高IMP速度: (1、不建议使用commit参数,因为当imp失败的时候,会导致很多后续的麻烦事儿   (2、增大buffer参数值,以便于一次读进更大的array   Imp 参数BUFFER定义了每一次读取导出文件的数据量,设的越大,就越减少Import进程读取数据的次数,从而提高导入效率。BUFFER的大小取决于系统应用、数据库规模,通常来说,设为百兆就足够了。其用法如下:   imp  user/pwd  fromuser=user1  touser=user2  file=/tmp/imp_db_pipe1  commit=y feedback=10000 buffer=10240000   (3、设置较大的初始化参数sort_area_size,以加快创建索引时候的排序速度,大内存启用ASMM/AMM之后感觉没有什么作用。   (4、使用INDEXES=N选项,导入数据之后再手工创建索引。   前面谈到增加排序区时,说明Imp进程会先导入数据再创建索引。导入过程中建立用户定义的索引,特别是表上有多个索引或者数据表特别庞大时,需要耗费大量时间。某些情况下,需要以最快的时间导入数据,而索引允许后建,我们就可以使用INDEXES=N只导入数据不创建索引,从而加快导入速度。   我们可以用INDEXFILE选项生成创建索引的DLL脚本,再手工创建索引。我们也可以用如下的方法导入两次,第一次导入数据,第二次导入索引。其用法 如下: imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_db_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=y indexes=n imp user/pwd fromuser=user1 touser=user2 file=/tmp/imp_index_pipe1 commit=y feedback=10000 buffer=10240000 ignore=y rows=n indexes=y   (5、增加 LARGE_POOL_SIZE   如果在init.ora中配置了MTS_SERVICE,MTS_DISPATCHERS等参数,tnsnames.ora中又没有(SERVER=DEDICATED)的配置,那么数据库就使用了共享服务器模式。在MTS模式下,Exp/Imp操作会用到LARGE_POOL,建议调整LARGE_POOL_SIZE到150M。 检查数据库是否在MTS模式下:   SQL>select distinct server from v$session;    ----如果返回值出现none或shared,说明启用了MTS。   (6、增大重作日志的大小        以减少log switch的次数,也就是减少checkpoint次数,减少写磁盘的次数   (7、如果要往已经存在的表中追加数据        那么有些情况下,比如表中存在位图索引,那么最好先删除索引,再导入。否则更新索引时会产生大量等待   注意:相关的几个参数 1、db_writer_processes imp导入时,如果吧上面的几点都做好了,还有一个影响最大的参数需要确认,那就是db_writer_processes,进程的个数,可以根据服务器的CPU酌情增加。速度可以大大提高。 2、 fast_start_mttr_target平均恢复时间,需要设置一个合理的数字,比如300秒。加快系统做检查点   其他需要注意的: 1. 目标数据库设置为非归档模式,当然停掉资料库同使用Nologging更好。 2. 导入的时候可以将索引和约束全部去掉( index , constraint , trigger等, drop或者disable掉所有的index以及相关的pk) 3. 在回滚段够大的情况下,不用加commit=y参数,频繁提交会影响效率; 4. 可以考虑使用DBLINK迁移,同样使用非归档模式,insert /*+ append*/ into select /*+ parallel(t,4)*/ * from [email protected]; ; 5. 迁移的过程中时刻注意各种空间是否够用(包括redolog,archivelog,undo segment,temp tbs); 6. 其他的因素干扰(Job, Trigger, Profile等等)。 7.Imp的时候buffer给的大一些。 8.imp没有parallel,想要用parallel那么就把原表输出成多个csv然后用sqlldr 9. 可以试试物化视图(Material View),如果是单独表空间的话,也可以考虑transport tablespace 。 10.可以考虑使用EXPDP和IMPDP。 11 为 table/index设置Nologging。 12. 同平台的话,按表空间传输,更快 . 13. 用的query子查询导出导入 (exp imp) . 14.ignore=y buffer=40960000,一秒至少应该是10w记录。 15.先创建表,删除索引信息。表设置并行度。如果可以分区的话。建议并行导入。即写多个脚本。每个脚本导入不同的分区内容。加上commit=y,导入完毕后并行创建索引,创建完毕后取消并行度。  

上一篇:记一次不太成功项目感想
下一篇:页面内容相关操作

相关文章

相关评论