BUFFER parameter in export

we know that BUFFER parameter in export
buffer_size = rows_in_array * maximum_row_size
but how/where can I find the rows_in_array and maximum_row_size
Please help me

To get row size
rem Table Sizes section
column Bytes heading BytesMB format 999,999,999,999
column tablespace_name heading 'Tablespace Name' format a16
column segment_name heading 'Table Name' format a35
column owner heading 'Owner' format a10
prompt ########################################################################
prompt
prompt Table Sizes Report
prompt
col tablespace_name format a20;
col segment_name format a30;
col owner format a8;
set linesiz 132;
set pagesiz 60;
BREAK ON owner ;
COMPUTE SUM OF bytes on owner;
select owner,tablespace_name,segment_name,sum((bytes/1024/1024)) Bytes
from sys.dba_extents
where owner in 'BAAN' and segment_type='TABLE'
group by tablespace_name,owner,segment_name
order by owner,tablespace_name,segment_name, bytes
http://www.baanboard.com/baanboard/showthread.php?t=13985

Similar Messages

  • Recordlength & buffer parameter in IMP

    In IMPORT of oracle we specify 2 parameter
    1. recordlength
    2. buffer
    1. How much maximum size we can spercify for those parameter to fasten the IMPORT process? Also on which thing those values depends?
    2. Also how much time will it save if we specify those parameters? e.g. If any IMPORT takes 10 Hours to import and if we specify those 2 parameters to high values then how much will it take to import?
    3. Is there any other parameter which will fasten the import process?
    Thanks,

    for first You have to understand what those parameters mean:
    The BUFFER parameter applies ONLY to conventional path Export. It has no effect on a direct path Export. This BUFFER parameter specifies the size (in bytes) of the buffer used to fetch rows. It determines the maximum number of rows in an array, fetched by Export. For direct path Export, use the RECORDLENGTH parameter to specify the size of the buffer that Export uses for writing to the export file.
    The RECORDLENGTH parameter specifies the length (in bytes) of the file record. You can use this parameter to specify the size of the Export I/O buffer (highest value is 64 kb). Changing the RECORDLENGTH parameter affects only the size of data that accumulates before writing to disk. It does not affect the operating system file block size. If you do not define this parameter, it defaults to your platform-dependent value for BUFSIZ (1024 bytes in most cases).
    Then read metalink note: 155477.1
    Or this one:
    http://www.dba-oracle.com/oracle_tips_load_speed.htm
    Then test in Your test env what are the best parameters for Your particular system.

  • Change buffer parameter like rsdb/ntab/irdbsize

    hi guruji
    i wnat chang following buffer parameter in sap i try this from rz10 but some parameter i cant found for edit
    i chagn following paremeter are i whant to change
    ababp/buffersize,rsdb/ntab/irdbsize, etc
    nainesh suthar

    Hi Suthar,
    The below mentioned parameters may not be defined in your profiles. It will be taking the default values, which can be checked using RZ11.
    For editing these parameters, goto-->RZ11, select the profile and in extended maintenance, "create parameter" and specify the parameter with the required values.
    Regards
    Dona

  • Buffer parameter is better than direct=y

    When I tried to export a history table that has 40 million rows & weighs 11GB, direct=y parameter is taking double the time compared to buffer=16000000 parameter.
    exp uname/pwd@testdb file=/oradata/uat2.dmp buffer=16000000 statistics=none tables=(ALL_TXNS_MMDD)
    buffer=16000000      *22 Minutes*
    direct=y      *48 Minutes*
    exporting onto local HDD
    direct=y      *3 minutes*
    buffer=16MB     *18 minutes*
    Version- Oracle 9.2.0.4+
    I always thought direct=y gives better speed and in all my export scripts I have used only direct=y.
    does anyone know why buffer is giving better speed ?
    Edited by: Sajiv on Jun 11, 2009 1:49 PM

    Sajiv wrote:
    When I tried to export a history table that has 40 million rows & weighs 11GB, direct=y parameter is taking double the time compared to buffer=16000000 parameter.
    exp uname/pwd@testdb file=/oradata/uat2.dmp buffer=16000000 statistics=none tables=(ALL_TXNS_MMDD)
    buffer=16000000      *22 Minutes*
    direct=y      *48 Minutes*
    exporting onto local HDD
    direct=y      *3 minutes*
    buffer=16MB     *18 minutes*
    In your export command the @testdb suggests that you are exporting across a network. Does this mean that when you say "exporting onto a local HDD" you run the export command on the same machine as the database ?
    If so then the difference in time may be related to the way in which SQL*Net can perform data compression for network traffic - and perhaps this can't be done in the same way for direct exports, leaving you with more round-trips when the traffic is across tcp/ip but fewer when using a local connection.
    If you want to find out more about what's going on, you could simply query v$session_event for the session every few seconds to see where the time is going.
    Regards
    Jonathan Lewis
    http://jonathanlewis.wordpress.com
    http://www.jlcomp.demon.co.uk
    "For every expert there is an equal and opposite expert."
    Arthur C. Clarke

  • Buffer Parameter Increase???

    In one of the servers we are facing high number of swaps in the following buffers.
    Program buffer                   (PXA)
    CUA buffer                       (CUA)
    Screen buffer                    (PRES)
    Export/Import buffer             (EIBUF)
    To overcome this issue we have to increase the value in corresponding
    Program buffer                   (PXA)
    abap/buffersize
    CUA buffer                       (CUA)
    rsdb/cua/buffersize
    Screen buffer                    (PRES)
    zcsa/presentation_buffer_area
    Export/Import buffer             (EIBUF)
    rsdb/obj/buffersize       
    My Question is how do I analyze how much Value should I increase for each of the Parameter.
    Useful answers will be rewarded!

    Hello,
    In st02, double click on the parameter buffer that faces many swap, for exemple "Screen".
    The following tab show you
    Size              Allocated        KB
                      Available        KB
                      Used             KB
                      Free             KB
    Directory entries Available
                      Used
                      Free
    This buffer is setup by 2 parameters (you can display them with 'current parameter button'):
    zcsa/presentation_buffer_area
    sap/bufdir_entries
    One parameter is an amount of memory (in Bytes), the other represent a 'maximum number'.
    To know if you need more memory place in the buffer or to increase the max number, you need to read the tab on the previous screen.
    If the "Size" - "Free" is next to 0, you need to increase zcsa/presentation_buffer_area
    If the "Directory entries"-"Free" is next to 0, you need to increase sap/bufdir_entries
    There is no absolute rule to know in one row how much you need to increase every parameters for every buffer. It's more a question of 'fellings' and you often need to do many tests (change parameter, stopsap/startsap, re-change parameter, etc.).
    For exemple
    zcsa/presentation_buffer_area = 10000000
    sap/bufdir_entries = 10000
    If "Size"-"Free" is to 0 and  "Directory entries"-"Free" is to 9000, this means  you can have 9 times more directory entries but no more memory to hold them.
    So, on this system 1000 buffer entries equals to 10Mb of memory.
    So if "Objects swapped" is to 2000, just set zcsa/presentation_buffer_area = 10000000 +2*10000000
    You don't have to modify sap/bufdir_entries because it can handle 9 more time entries.
    If you want to handle in memory as much entries as the maximum directory entries, you could set zcsa/presentation_buffer_area = 10000000 + 9*10000000
    Do the same way for every buffer with many swaps.
    Hope this will help you.
    Regards,

  • Parameter QUARTAL -- Export to Excel

    Hi,
    Setup: german date format: dd.mm.yyyy
    In one basic table, we add a new column showing yearly quarters (set up in the admin area):
    Start Date Quarter
    1.6.2007 Q2 2007
    15.10.2007 Q3 2007
    But if I do a export to excel, the shown quarters are changed to dates (dd/mm/yyyy) back again:
    Start Date Quarter
    1.6.2007 1.4.2007
    15.10.2007 1.10.2007
    I dont know how oracle admin treats all these data and why it changes the quartals to dates back?!?
    Thanks for any ideas

    Continuing on from what PH says:
    How about converting the date to a text first before the export to Excel.
    I remember doing this same kind of thing that you're referring to in the past where the exported Excel file had to be in a certain format to be sent to another company.
    So adding a calculation in the Disco workbook to convert the date to text would 'freeze' the format you want, and therefore when exported, should have the 'text' version of the date - so hopefully no conversion by Excel.
    Russ

  • About 'skip_unusable_index' parameter in export

    Hi All,
    Any of you, please explain me what's the meaning of parameter 'skip_unusable_index'? what it will do? can any of you show me some practical steps regarding index.?
    what should be the result if importing from one schema to another a dumpfile containing table and its corresponding index associated with, if the index was in 'UNUSABLE' status., using skip_unusable_index parameter ?
    Even after executing , 'alter index index_name unusable', in source schema,in the view 'all_objects' the status column displaying 'valid'., why is it not displaying 'unusable' status?

    Data Pump Import

  • EXPORT/IMPORT 에 관하여 (2)

    제품 : ORACLE SERVER
    작성날짜 : 2003-11-19
    Q> 테이블 LEVEL EXPORT 방법의 종류가 하나 이상 있습니까?
    ▶▶ 말씀드리자면 대답은 그렇기도 하고 아니기도 합니다. 테이블 export는 두
    가지 방법 중 하나가 될 수 있습니다.
    --- 사용자가 그 소유한 테이블을 export 한다.
    exp donald/duck tables=huey, dewey, louie
    --- SYSTEM/MANAGER 같은 DBA가 사용자의 집합에 속해 구분되어진 테이블
    들을 export 한다.
    exp system/manager tables=scott.emp, humty, dumpty
    위의 두가지 export 방법 모두 테이블 level의 export로 구분되어집니다.
    후자의 경우에는 export가 DBA에 의해서 행해지기 때문에 import도 DBA에
    의해서 행해져야 합니다.
    Q> FULL EXPORT 를 받으려면 사용자가 반드시 DBA 이어야 합니까?
    ▶▶ 아닙니다. 버전 6 에서는 그러했지만, 이는 오라클7 role 의 introduction
    에서 바뀌었습니다. 다시 말해서, EXP_FULL_DATABASE role 을 받은 어떤 사용자도
    FULL export 를 할 수 있습니다. 이 role 은 DBA 에 의해서 부여됩니다. 따라서,
    여전히 DBA 가 아니면서도 위의 role 을 부여받은 사용자가 있을 수 있습니다.
    위의 role 과 동반되는 privilege 들은 CATEXP.SQL 에 정의되어 있습니다.
    privilege 들을 살펴보면 이 role 을 소유한 사용자는 DBA 와 거의 같은 역할을
    할 수 있음을 알 수 있습니다.
    Q> EXPORT 되는 객체들의 순서는 어떻게 됩니까?
    ▶▶ 오라클7 에서 export 되는 객체들의 순서는 다음과 같습니다. 위에서 아래쪽
    으로 row 별로 왼쪽에서 오른쪽 순서로 읽으시면 됩니다.
    Tablespaces Profiles Users Roles
    System Privilege Role Grants Default Roles Tablespace
    Quotas
    Resource Costs Rollback Segments Database Links Sequences
    (includes grants)
    Snapshots Snapshot Logs Job Queues Refresh Groups
    (includes grants,
    auditing)
    Cluster Definitions Tables(constraints, Referential POSTTABLES
    grants, indexes, Integrity actions
    comments, audits)
    In 7.3.4 the order for
    tables will be changed
    to:(indexes, grants,
    constraints, audits,
    comments)
    Synonyms Views Stored Triggers
    Procedures
    Default and System
    Auditing
    Q> 순서가 중요합니까? 만약 그렇다면 왜죠?
    ▶▶ 순서는 매우 중요합니다. Import 가 데이터베이스에 대한 SQL 문장들을 실행
    하는 연속적인 session 이기 때문입니다. 다른 이미 존재하는 어떤 객체들에 의존
    하는 몇몇 객체들은 반드시 더 이후에 위치해야 합니다. 예를 들어, 트리거는
    테이블에 의존적 객체이므로 테이블이 트리거보다 먼저 import 되어져야 합니다.
    또, 프로시져나 뷰같은 홀로 존재할 수 있는 객체들도 있습니다. 이러한 객체들은
    compilation errors 과 함께 데이터베이스에 load 될 수 있고, 이는 처음으로 사용
    될 때 비로소 validation 이 체크 됩니다.
    Q> EXPORT 는 ARRAY FETCH 라 불리우는 메카니즘을 사용하는데, 이게 무엇입니까?
    ▶▶ Export 는 SELECT 문장을 만들어서 테이블 데이터를 가져옵니다. 즉, 데이터는
    데이터베이스로부터 사용자 쪽으로 옮겨져야 하는데, 만약 Export 가 한번에 단
    하나의 row 만 가져오게 되어 있다면 데이터베이스를 Export 하기 위해서는 너무
    많은 부하가 걸릴 것입니다. 따라서, Export 는 매번 row 들의 집합을 fetch 해오게
    되고, 총 수행시간은 감소하게 됩니다. Array fetch 는 데이터베이스로부터 한번에
    여러개의 row 들을 가져오는 개념입니다.
    Q> EXPORT 시의 BUFFER PARAMETER 는 어떤 목적으로 사용됩니까?
    ▶▶ 이전에 언급한 바와 같이, Export 는 한번에 여러개의 row 들을 fetch 합니다. 이러한 정보는 화일로 저장되기 이전에 사용자 쪽의 메모리에 올라가게 됩니다.
    사용자에게 할당되는 메모리의 용량이 바로 BUFFER parameter 의 값과 대응하게
    됩니다.
    Q> EXPORT 시의 RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ Export 시 export 화일로 정보를 쓸때, 한번에 한 글자씩을 써내려가지 않고
    버퍼의 정보를 한번에 기록하게 됩니다. RECORDLENGTH 는 이 버퍼의 크기입니다.
    O/S 블럭 크기의 배수로 이를 관리하는 것이 가장 효율적입니다.
    또, 이는 이전에 설명된 데이터를 가져올 때에만 사용되는 BUFFER parameter 와
    종종 혼동됩니다. 두가지 버퍼가 있는 이유는 쓰기 버퍼가 SQL 문장들을 포함할 수
    있기 때문입니다. 또한 데이터베이스로부터 자료를 가져올때 이는 export 화일
    형태로 format 되어 있지 않습니다. 따라서, 데이터를 올바른 format 형태로 얻을
    수 있도록 몇몇 메세지들도 포함되어 있습니다.
    Q> 얼마나 많은 ROW 들이 한 주기에서 FETCH 되는 지 어떻게 알 수 있습니까?
    ▶▶ BUFFER parameter 에서 정의된 것 처럼 이 값은 버퍼의 크기를 한 row 의
    크기로 나눔으로써 얻어질 수 있습니다. 한 row 의 크기는 대략 다음과 같습니다.
    (sum of all internal columns sizes ) + 4 x (number of columns)
    Q> LONG 데이터 타입도 같은 방법으로 작업할 수 있습니까?
    ▶▶ 아닙니다. LONG 데이터의 경우에는 현재로서는 오로지 한 row 씩의 fetch 만
    가능합니다. LONG 데이터 타입은 2GB 까지의 길이를 가질 수 있으므로 위와 같은
    방법으로 사용되어지는 것은 바람직하지 않기 때문입니다.
    Q> PARALLEL 에서 MULTIPLE EXPORTS 를 할 수 있습니까?
    ▶▶ incremental exports 가 아니라면 가능합니다. incremental exports 는
    dictionary 의 정보를 기록하게 되고, 실행중인 여러개의 session 들이 정보의
    충돌을 야기할 것이기 때문입니다.
    Q> RECORD PARAMETER 는 무엇입니까?
    ▶▶ 위 parameter 는 incremental export 에 적용됩니다. incremental export 는
    이전의 incremental/cumulative/complete export 중에서 변화가 생긴 객체들만
    export 하는 것입니다. 따라서 data dictionary 의 변경 timestamp 가 INCEXP
    테이블의 timestamp 와 비교되고, 객체가 export 될때 새로운 timestamp 가 INCEXP
    테이블에 반영됩니다.
    RECORD=Y 로 정해주시면 INCEXP 테이블의 현 정보가 유지됩니다. 그렇지 않으면
    아무런 정보가 남지 않습니다. 다시 말하면 RECORD=N 상태이면 모든 객체들이 export
    됩니다. 종종 이 parameter 는 쓰기버퍼나 incremental export 와 관계없는
    RECORDLENGTH 와 혼동되기도 합니다.
    Q> 테이블의 FLAG 을 "MODIFIED" 로 바꾸는 것들은 어떤 경우입니까?
    이는 추가적 INCREMENTAL EXPORT 를 해야함을 의미합니까?
    ▶▶ INSERT, DELETE, UPDATE 문을 사용하셔서 데이터를 변경하셨다면 객체가 변경
    되었다고 나타나게 됩니다. 컬럼을 not null 로 바꾸시거나 storage 를 변경하는
    등의 DDL 은 테이블을 변경시키게 됩니다. 심지어 테이블에 grant 나 comment 를
    추가하셔도 테이블이 변경되었다고 나타납니다.
    Q> 데이터가 EXPORT 될 때의 시점에서 모든 데이터의 일관성이 유지됩니까?
    "SNAPSHOT TOO OLD" 에러는 무엇인가요?
    ▶▶ Export 는 일련의 SELECT 문을 생성함으로 데이터를 가져오게 되고, 각각
    테이블 데이터의 snapshot time 이 SELECT 문의 생성 시간과 대응합니다. 만약,
    어떠한 데이터 작업도 없다면 이것은 크게 중요하지 않습니다. 그러나, export 가
    시작된 후 테이블을 변경시키는 경우가 가능합니다. 그러한 경우에는 데이터의
    snapshot 이 중요할 수 있습니다. Export 는 테이블에 exclusive lock 을 걸지
    않기 때문입니다.
    option 중 CONSISTENCY=Y 라는 것이 있는데, 이 것을 enable 시키면 EXPORT 는
    export 를 시작하기 전에 먼저 SET TRANSACTION READ ONLY 명령어를 수행합니다.
    그러나, 오랫동안 계속되는 export 의 경우에는 rollback segment 의 공간이
    부족해서, "snapshot too old" 에러가 생길 위험이 있습니다.
    Q> PRE-TABLE 과 POST-TABLE ACTIONS 은 무엇입니까?
    ▶▶ pre-table actions 은 테이블이 import 되기 전에 실행되는 PL/SQL
    routines 이고, post-table actions 은 모든 테이블들이 import 된후에 실행되는
    PL/SQL routines 입니다. 그러므로 프로시져들은 테이블 데이터가 import 된후
    변경 작업을 하게 됩니다. 이러한 options 은 사용자들이 실행하길 원하는
    routines 을 지정할 수 있도록 앞으로의 release 에서 제공될 것입니다. 이는
    import session 중에서 데이터를 변경할 수 있도록 해줄 것입니다.
    Q> IMPORT 는 ARRAY INSERTS 를 사용하는데 이것은 어떤 것입니까?
    ▶▶ Export 가 테이블 데이터를 select 하는 것처럼 import 는 데이터베이스로
    다시 데이터를 insert 합니다. 한번에 한 row 를 insert 하는 것은 자원 집약적
    입니다. 데이터베이스로 통신하는 횟수는 한번에 여러 row 들을 insert 함으로써
    줄일 수 있습니다. 이것이 바로 array insert 의 개념입니다.
    Q> LONG 컬럼의 테이블을 IMPORT 할 때 한번에 한 컬럼 씩 INSERT 되는데,
    이것이 정상적으로 수행되는 것입니까?
    ▶▶ 정상입니다. LONG 컬럼에 대해서는 array 크기의 default 는 1 입니다.
    Export 는 insert 하기 전에 모든 LONG 컬럼을 올려놓을 연속적인 메모리를 필요로
    하기 때문입니다. 또, 적당한 upper bound 를 찾아낼 방법도 없습니다. 장차 LONG
    컬럼을 조각조각 insert 하는 데이터베이스의 지원이 이루어 질때 이러한 작업은
    변화될 것입니다.
    Q> IMPORT BUFFER 는 무엇입니까?
    ▶▶ 테이블의 rows 이 저장되기 위해서 데이터베이스로 보내기 전에 사용자 쪽에
    할당될 메모리의 용량을 지정하는 parameter 입니다.
    Q> 각각의 ARRAY INSERT 에 COMMIT 할 수 있습니까?
    ▶▶ COMMIT=Y 로 지정하시면 가능합니다. 한번의 통신에서 commit 되는 정확한
    rows 의 수는 버퍼의 크기와 얼마나 많은 rows 가 해당 버퍼에 저장 되었는 것에
    달려있습니다.
    Q> RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ import 는 한 번에 한 글자씩 export 화일로부터 정보를 읽지 않습니다.
    대신에 버퍼의 값만큼의 분량의 정보를 메모리로 읽습니다. RECORDLENGTH 는 이
    읽기버퍼의 크기입니다. 이를 O/S 블럭 크기의 배수로 유지하는 것이 가장 효율적
    입니다. 이 parameter 는 종종 테이블 데이터에만 영향을 미치는 BUFFER parameter
    와 혼동되기도 합니다. 테이블 데이터에 나뉘어져 저장된 SQL 문장들이 있어서
    데이터가 분리될 필요가 있으므로 또다른 분리된 버퍼들을 가지는 것이 필요합니다.
    Q> DESTROY OPTION 은 IMPORT 시에 어떤 역할을 합니까?
    ▶▶ CREATE TABLESPACE 문은 사용자가 존재하는 데이터 화일을 재사용할 수 있게
    하여주는 REUSE 절을 가지고 있습니다. 그러나, 사용자가 다른 테이블스페이스 속한
    화일을 실수로 없애버리는 바람직하지 않은 효과를 낼 수도 있으므로 주의해야
    합니다. DESTROY=N 으로 import 를 실행하면 CREATE TABLESPACE 문에서 REUSE
    절을 사용하지 않게 됩니다.
    Q> IMPORT 를 실행 시 "SEALS DON'T MATCH" 라는 메세지를 접하게 됩니다.
    SEAL이 어떤 건가요?
    ▶▶ seal 은 export session 에 대해 정보를 가지고 있는 export 화일 헤더의
    또 다른 이름입니다.
    Q> IMPORT 를 실행시 "ABNORMAL END OF FILE" 이라는 메세지를 보게 됩니다.
    이것이 무슨 의미인가요?
    ▶▶ 이것은 어떤 이유로 인해서 export 화일이 손상되었음을 의미합니다.
    보통 import 는 화일의 특정 포인트를 얻으려 하는데, 만약 화일이 손상되었
    다면 import는 아마도 정상적이지 않게 약간 앞쪽에서 찾으려 하게 됩니다.
    그 결과 화일이 비정상적으로 끝났다고 생각하게 되는 겁니다.
    한쪽 기종에서 다른 기종으로 정상적으로 옮겨지지 않았다면 export 화일은 손상을
    입었을 가능성이 있습니다. export 하는 기종에서 다시 한번 화일을 보내도록
    하십시오. 또 한가지 화일의 transport protocol 이 binary mode 인지 확인
    하시기 바랍니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, TOUSER 수 보다도 FROMUSER 에서
    많은 사용자를 지정하고 있습니다. 이 때, 여분의 사용들에게 어떤 일이 생기나요?
    ▶▶ import 는 적절한 수의 TOUSER 만큼 FROMUSER 수를 mapping 합니다. 여분의
    사용자들은 스스로에게 mapping 되므로 시작 시점에서 지정되지 않을 수도
    있습니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, FROMUSER 수 보다 많은 TOUSER
    수를 사용합니다. 여분의 TOUSER 는 어떻게 됩니까?
    ▶▶ 그들은 무시되게 됩니다.

    제품 : ORACLE SERVER
    작성날짜 : 2003-11-19
    Q> 테이블 LEVEL EXPORT 방법의 종류가 하나 이상 있습니까?
    ▶▶ 말씀드리자면 대답은 그렇기도 하고 아니기도 합니다. 테이블 export는 두
    가지 방법 중 하나가 될 수 있습니다.
    --- 사용자가 그 소유한 테이블을 export 한다.
    exp donald/duck tables=huey, dewey, louie
    --- SYSTEM/MANAGER 같은 DBA가 사용자의 집합에 속해 구분되어진 테이블
    들을 export 한다.
    exp system/manager tables=scott.emp, humty, dumpty
    위의 두가지 export 방법 모두 테이블 level의 export로 구분되어집니다.
    후자의 경우에는 export가 DBA에 의해서 행해지기 때문에 import도 DBA에
    의해서 행해져야 합니다.
    Q> FULL EXPORT 를 받으려면 사용자가 반드시 DBA 이어야 합니까?
    ▶▶ 아닙니다. 버전 6 에서는 그러했지만, 이는 오라클7 role 의 introduction
    에서 바뀌었습니다. 다시 말해서, EXP_FULL_DATABASE role 을 받은 어떤 사용자도
    FULL export 를 할 수 있습니다. 이 role 은 DBA 에 의해서 부여됩니다. 따라서,
    여전히 DBA 가 아니면서도 위의 role 을 부여받은 사용자가 있을 수 있습니다.
    위의 role 과 동반되는 privilege 들은 CATEXP.SQL 에 정의되어 있습니다.
    privilege 들을 살펴보면 이 role 을 소유한 사용자는 DBA 와 거의 같은 역할을
    할 수 있음을 알 수 있습니다.
    Q> EXPORT 되는 객체들의 순서는 어떻게 됩니까?
    ▶▶ 오라클7 에서 export 되는 객체들의 순서는 다음과 같습니다. 위에서 아래쪽
    으로 row 별로 왼쪽에서 오른쪽 순서로 읽으시면 됩니다.
    Tablespaces Profiles Users Roles
    System Privilege Role Grants Default Roles Tablespace
    Quotas
    Resource Costs Rollback Segments Database Links Sequences
    (includes grants)
    Snapshots Snapshot Logs Job Queues Refresh Groups
    (includes grants,
    auditing)
    Cluster Definitions Tables(constraints, Referential POSTTABLES
    grants, indexes, Integrity actions
    comments, audits)
    In 7.3.4 the order for
    tables will be changed
    to:(indexes, grants,
    constraints, audits,
    comments)
    Synonyms Views Stored Triggers
    Procedures
    Default and System
    Auditing
    Q> 순서가 중요합니까? 만약 그렇다면 왜죠?
    ▶▶ 순서는 매우 중요합니다. Import 가 데이터베이스에 대한 SQL 문장들을 실행
    하는 연속적인 session 이기 때문입니다. 다른 이미 존재하는 어떤 객체들에 의존
    하는 몇몇 객체들은 반드시 더 이후에 위치해야 합니다. 예를 들어, 트리거는
    테이블에 의존적 객체이므로 테이블이 트리거보다 먼저 import 되어져야 합니다.
    또, 프로시져나 뷰같은 홀로 존재할 수 있는 객체들도 있습니다. 이러한 객체들은
    compilation errors 과 함께 데이터베이스에 load 될 수 있고, 이는 처음으로 사용
    될 때 비로소 validation 이 체크 됩니다.
    Q> EXPORT 는 ARRAY FETCH 라 불리우는 메카니즘을 사용하는데, 이게 무엇입니까?
    ▶▶ Export 는 SELECT 문장을 만들어서 테이블 데이터를 가져옵니다. 즉, 데이터는
    데이터베이스로부터 사용자 쪽으로 옮겨져야 하는데, 만약 Export 가 한번에 단
    하나의 row 만 가져오게 되어 있다면 데이터베이스를 Export 하기 위해서는 너무
    많은 부하가 걸릴 것입니다. 따라서, Export 는 매번 row 들의 집합을 fetch 해오게
    되고, 총 수행시간은 감소하게 됩니다. Array fetch 는 데이터베이스로부터 한번에
    여러개의 row 들을 가져오는 개념입니다.
    Q> EXPORT 시의 BUFFER PARAMETER 는 어떤 목적으로 사용됩니까?
    ▶▶ 이전에 언급한 바와 같이, Export 는 한번에 여러개의 row 들을 fetch 합니다. 이러한 정보는 화일로 저장되기 이전에 사용자 쪽의 메모리에 올라가게 됩니다.
    사용자에게 할당되는 메모리의 용량이 바로 BUFFER parameter 의 값과 대응하게
    됩니다.
    Q> EXPORT 시의 RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ Export 시 export 화일로 정보를 쓸때, 한번에 한 글자씩을 써내려가지 않고
    버퍼의 정보를 한번에 기록하게 됩니다. RECORDLENGTH 는 이 버퍼의 크기입니다.
    O/S 블럭 크기의 배수로 이를 관리하는 것이 가장 효율적입니다.
    또, 이는 이전에 설명된 데이터를 가져올 때에만 사용되는 BUFFER parameter 와
    종종 혼동됩니다. 두가지 버퍼가 있는 이유는 쓰기 버퍼가 SQL 문장들을 포함할 수
    있기 때문입니다. 또한 데이터베이스로부터 자료를 가져올때 이는 export 화일
    형태로 format 되어 있지 않습니다. 따라서, 데이터를 올바른 format 형태로 얻을
    수 있도록 몇몇 메세지들도 포함되어 있습니다.
    Q> 얼마나 많은 ROW 들이 한 주기에서 FETCH 되는 지 어떻게 알 수 있습니까?
    ▶▶ BUFFER parameter 에서 정의된 것 처럼 이 값은 버퍼의 크기를 한 row 의
    크기로 나눔으로써 얻어질 수 있습니다. 한 row 의 크기는 대략 다음과 같습니다.
    (sum of all internal columns sizes ) + 4 x (number of columns)
    Q> LONG 데이터 타입도 같은 방법으로 작업할 수 있습니까?
    ▶▶ 아닙니다. LONG 데이터의 경우에는 현재로서는 오로지 한 row 씩의 fetch 만
    가능합니다. LONG 데이터 타입은 2GB 까지의 길이를 가질 수 있으므로 위와 같은
    방법으로 사용되어지는 것은 바람직하지 않기 때문입니다.
    Q> PARALLEL 에서 MULTIPLE EXPORTS 를 할 수 있습니까?
    ▶▶ incremental exports 가 아니라면 가능합니다. incremental exports 는
    dictionary 의 정보를 기록하게 되고, 실행중인 여러개의 session 들이 정보의
    충돌을 야기할 것이기 때문입니다.
    Q> RECORD PARAMETER 는 무엇입니까?
    ▶▶ 위 parameter 는 incremental export 에 적용됩니다. incremental export 는
    이전의 incremental/cumulative/complete export 중에서 변화가 생긴 객체들만
    export 하는 것입니다. 따라서 data dictionary 의 변경 timestamp 가 INCEXP
    테이블의 timestamp 와 비교되고, 객체가 export 될때 새로운 timestamp 가 INCEXP
    테이블에 반영됩니다.
    RECORD=Y 로 정해주시면 INCEXP 테이블의 현 정보가 유지됩니다. 그렇지 않으면
    아무런 정보가 남지 않습니다. 다시 말하면 RECORD=N 상태이면 모든 객체들이 export
    됩니다. 종종 이 parameter 는 쓰기버퍼나 incremental export 와 관계없는
    RECORDLENGTH 와 혼동되기도 합니다.
    Q> 테이블의 FLAG 을 "MODIFIED" 로 바꾸는 것들은 어떤 경우입니까?
    이는 추가적 INCREMENTAL EXPORT 를 해야함을 의미합니까?
    ▶▶ INSERT, DELETE, UPDATE 문을 사용하셔서 데이터를 변경하셨다면 객체가 변경
    되었다고 나타나게 됩니다. 컬럼을 not null 로 바꾸시거나 storage 를 변경하는
    등의 DDL 은 테이블을 변경시키게 됩니다. 심지어 테이블에 grant 나 comment 를
    추가하셔도 테이블이 변경되었다고 나타납니다.
    Q> 데이터가 EXPORT 될 때의 시점에서 모든 데이터의 일관성이 유지됩니까?
    "SNAPSHOT TOO OLD" 에러는 무엇인가요?
    ▶▶ Export 는 일련의 SELECT 문을 생성함으로 데이터를 가져오게 되고, 각각
    테이블 데이터의 snapshot time 이 SELECT 문의 생성 시간과 대응합니다. 만약,
    어떠한 데이터 작업도 없다면 이것은 크게 중요하지 않습니다. 그러나, export 가
    시작된 후 테이블을 변경시키는 경우가 가능합니다. 그러한 경우에는 데이터의
    snapshot 이 중요할 수 있습니다. Export 는 테이블에 exclusive lock 을 걸지
    않기 때문입니다.
    option 중 CONSISTENCY=Y 라는 것이 있는데, 이 것을 enable 시키면 EXPORT 는
    export 를 시작하기 전에 먼저 SET TRANSACTION READ ONLY 명령어를 수행합니다.
    그러나, 오랫동안 계속되는 export 의 경우에는 rollback segment 의 공간이
    부족해서, "snapshot too old" 에러가 생길 위험이 있습니다.
    Q> PRE-TABLE 과 POST-TABLE ACTIONS 은 무엇입니까?
    ▶▶ pre-table actions 은 테이블이 import 되기 전에 실행되는 PL/SQL
    routines 이고, post-table actions 은 모든 테이블들이 import 된후에 실행되는
    PL/SQL routines 입니다. 그러므로 프로시져들은 테이블 데이터가 import 된후
    변경 작업을 하게 됩니다. 이러한 options 은 사용자들이 실행하길 원하는
    routines 을 지정할 수 있도록 앞으로의 release 에서 제공될 것입니다. 이는
    import session 중에서 데이터를 변경할 수 있도록 해줄 것입니다.
    Q> IMPORT 는 ARRAY INSERTS 를 사용하는데 이것은 어떤 것입니까?
    ▶▶ Export 가 테이블 데이터를 select 하는 것처럼 import 는 데이터베이스로
    다시 데이터를 insert 합니다. 한번에 한 row 를 insert 하는 것은 자원 집약적
    입니다. 데이터베이스로 통신하는 횟수는 한번에 여러 row 들을 insert 함으로써
    줄일 수 있습니다. 이것이 바로 array insert 의 개념입니다.
    Q> LONG 컬럼의 테이블을 IMPORT 할 때 한번에 한 컬럼 씩 INSERT 되는데,
    이것이 정상적으로 수행되는 것입니까?
    ▶▶ 정상입니다. LONG 컬럼에 대해서는 array 크기의 default 는 1 입니다.
    Export 는 insert 하기 전에 모든 LONG 컬럼을 올려놓을 연속적인 메모리를 필요로
    하기 때문입니다. 또, 적당한 upper bound 를 찾아낼 방법도 없습니다. 장차 LONG
    컬럼을 조각조각 insert 하는 데이터베이스의 지원이 이루어 질때 이러한 작업은
    변화될 것입니다.
    Q> IMPORT BUFFER 는 무엇입니까?
    ▶▶ 테이블의 rows 이 저장되기 위해서 데이터베이스로 보내기 전에 사용자 쪽에
    할당될 메모리의 용량을 지정하는 parameter 입니다.
    Q> 각각의 ARRAY INSERT 에 COMMIT 할 수 있습니까?
    ▶▶ COMMIT=Y 로 지정하시면 가능합니다. 한번의 통신에서 commit 되는 정확한
    rows 의 수는 버퍼의 크기와 얼마나 많은 rows 가 해당 버퍼에 저장 되었는 것에
    달려있습니다.
    Q> RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ import 는 한 번에 한 글자씩 export 화일로부터 정보를 읽지 않습니다.
    대신에 버퍼의 값만큼의 분량의 정보를 메모리로 읽습니다. RECORDLENGTH 는 이
    읽기버퍼의 크기입니다. 이를 O/S 블럭 크기의 배수로 유지하는 것이 가장 효율적
    입니다. 이 parameter 는 종종 테이블 데이터에만 영향을 미치는 BUFFER parameter
    와 혼동되기도 합니다. 테이블 데이터에 나뉘어져 저장된 SQL 문장들이 있어서
    데이터가 분리될 필요가 있으므로 또다른 분리된 버퍼들을 가지는 것이 필요합니다.
    Q> DESTROY OPTION 은 IMPORT 시에 어떤 역할을 합니까?
    ▶▶ CREATE TABLESPACE 문은 사용자가 존재하는 데이터 화일을 재사용할 수 있게
    하여주는 REUSE 절을 가지고 있습니다. 그러나, 사용자가 다른 테이블스페이스 속한
    화일을 실수로 없애버리는 바람직하지 않은 효과를 낼 수도 있으므로 주의해야
    합니다. DESTROY=N 으로 import 를 실행하면 CREATE TABLESPACE 문에서 REUSE
    절을 사용하지 않게 됩니다.
    Q> IMPORT 를 실행 시 "SEALS DON'T MATCH" 라는 메세지를 접하게 됩니다.
    SEAL이 어떤 건가요?
    ▶▶ seal 은 export session 에 대해 정보를 가지고 있는 export 화일 헤더의
    또 다른 이름입니다.
    Q> IMPORT 를 실행시 "ABNORMAL END OF FILE" 이라는 메세지를 보게 됩니다.
    이것이 무슨 의미인가요?
    ▶▶ 이것은 어떤 이유로 인해서 export 화일이 손상되었음을 의미합니다.
    보통 import 는 화일의 특정 포인트를 얻으려 하는데, 만약 화일이 손상되었
    다면 import는 아마도 정상적이지 않게 약간 앞쪽에서 찾으려 하게 됩니다.
    그 결과 화일이 비정상적으로 끝났다고 생각하게 되는 겁니다.
    한쪽 기종에서 다른 기종으로 정상적으로 옮겨지지 않았다면 export 화일은 손상을
    입었을 가능성이 있습니다. export 하는 기종에서 다시 한번 화일을 보내도록
    하십시오. 또 한가지 화일의 transport protocol 이 binary mode 인지 확인
    하시기 바랍니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, TOUSER 수 보다도 FROMUSER 에서
    많은 사용자를 지정하고 있습니다. 이 때, 여분의 사용들에게 어떤 일이 생기나요?
    ▶▶ import 는 적절한 수의 TOUSER 만큼 FROMUSER 수를 mapping 합니다. 여분의
    사용자들은 스스로에게 mapping 되므로 시작 시점에서 지정되지 않을 수도
    있습니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, FROMUSER 수 보다 많은 TOUSER
    수를 사용합니다. 여분의 TOUSER 는 어떻게 됩니까?
    ▶▶ 그들은 무시되게 됩니다.

  • Export/import buffer swap high

    hi friends;
    I  am with ERP Ecc6 system.in oracle 10g & aix5.3
    I am facing an issue with
    Export/import buffer shows a HitRatio 83% and swaps is 1,195,697. can anybody please suggest me how to solve the performance issue
    regards
    seethy

    Hi Seethy,
    Please check the following OSS Notes:
    373986      Overflow of the export/import buffer
    702728      Profile parameter for export/import buffer instances
    625305      Profile parameters for the error analysis buffer
    Regards,
    Siddhesh

  • Export buffer maximum size

    Hi,
    For the parameter buffer used in export what is the maximum size we can give as input.

    BUFFER
    Default: operating system-dependent. See your Oracle operating system-specific documentation to determine the default value for this parameter.
    Specifies the size, in bytes, of the buffer used to fetch rows. As a result, this parameter determines the maximum number of rows in an array fetched by Export. Use the following formula to calculate the buffer size:
    buffer_size = rows_in_array * maximum_row_size
    If you specify zero, the Export utility fetches only one row at a time.
    Tables with columns of type LOBs, LONG, BFILE, REF, ROWID, LOGICAL ROWID, or DATE are fetched one row at a time.
    Note:
    The BUFFER parameter applies only to conventional path Export. It has no effect on a direct path Export. For direct path Exports, use the RECORDLENGTH parameter to specify the size of the buffer that Export uses for writing to the export file.
    Example: Calculating Buffer Size
    This section shows an example of how to calculate buffer size.
    The following table is created:
    CREATE TABLE sample (name varchar(30), weight number);
    The maximum size of the name column is 30, plus 2 bytes for the indicator. The maximum size of the weight column is 22 (the size of the internal representation for Oracle numbers), plus 2 bytes for the indicator.
    Therefore, the maximum row size is 56 (30+2+22+2).
    To perform array operations for 100 rows, a buffer size of 5600 should be specified.
    Ref. Oracle® Database Utilities
    10g Release 2 (10.2)
    Part Number B14215-01
    Ch. 19 Original Export and Import
    ~ Madrid

  • What  consistent parameter will do in export? advantages?

    Hi ,
    What is consistent parameter in export. in what scenario it helps .pls let me know.
    Thanks,
    Kumar.

    Refer this link:
    http://download-east.oracle.com/docs/cd/B19306_01/server.102/b14215/exp_imp.htm#sthref2250
    @B548204BB:
    With the "consistent" parameter you can ensure at 90% your export will be consistentWhy 90%?

  • Parameter exporting or changing table

    Hi Experts
        I am wondering the difference between keyword exporting and changing to export table.  which one i should choose?

    Hi,
    when you use exporting parameters you export it but can't change it.when you use changing to export u can always change the parameter while exporting.
    Regards,
    Rahul

  • Export Import Issue

    Hi,
    I'm getting the following error while exporting a table
    EXP-00015: error on row 24127131 of table SEQUENCING_TRACE, column READ_NAME, datatype 1.........
    The log file message is shown below. Could u please let me know how to proceed.
    bash:~/Bluefin 519 $ exp [email protected] tables=seq20.sequencing_trace rows=yes indexes=no constraints=n log=expBluefin.log
    Export: Release 10.1.0.3.0 - Production on Fri Nov 11 09:42:45 2005
    Copyright (c) 1982, 2004, Oracle. All rights reserved.
    Password:
    Connected to: Oracle Database 10g Enterprise Edition Release 10.1.0.3.0 - 64bit Production
    With the Partitioning, OLAP and Data Mining options
    Export done in WE8ISO8859P1 character set and AL16UTF16 NCHAR character set
    Note: indexes on tables will not be exported
    Note: constraints on tables will not be exported
    About to export specified tables via Conventional Path ...
    Current user changed to SEQ20
    . . exporting table SEQUENCING_TRACE
    EXP-00015: error on row 24127131 of table SEQUENCING_TRACE, column READ_NAME, datatype 1
    EXP-00002: error in writing to export file
    EXP-00002: error in writing to export fileerror closing export file expdat.dmp
    EXP-00000: Export terminated unsuccessfully
    Thanks,
    Raj

    Hello.
    This is pretty old but. Any ways. I think it will help some one who looks for the solution.
    I think that ANALYZE TABLE XXX compute statistics will helps you.
    Also, you shold try one of these:
    - CREATE TABLE copy_of_main AS SELECT * FROM main_table - no errors
    - Check if there is enough space on the device you are going to put .dmp file on.
    - Changing the size of buffer parameter
    - Using dbverify against datafiles that contain table data gives no errors.
    - SELECT * FROM this table gives no errors.
    ANALYZE TABLE works for me in almost every case.
    Take care.
    Alex.

  • Export and import of 3 Gb table

    Dear ,
    I have table with more than 3 million records, i need to export this table and import into a different database . can you please help me with the export and import options options so that i can speed up the process...
    for you information
    this table hase 3 Fk, 2 Indexs
    i would appreciate your help in this regard
    thanks

    One way to speed up the exp/imp process is to use DIRECT=Y option. Also increase the size of BUFFER parameter.
    While importing large amount of data it is better to drop relational constraints and indexes and recreate them after import.

  • Export Import Clob

    Hi,
    I have a clob in the the table which have the huge data in each row. i want this table to export some other instance( to client place)
    I exported like below
    exp kvv/kvv@Ora1 buffer=10240000 file=kvvexp.dmp tables=groupdetails log = exp.log
    After this i am tried to import like below
    imp kvv/kvv@Ora2 buffer=10240000 file=kvvexp.dmp log = imp.log
    After this i found no errors in both export and import ogs
    But in Ora2( whi is impoerted) all the rows i found but clob is not fully there truncated. in some point the data is cutting.
    Both db instances(Ora1 and Ora 2) are version of oracle9i- 9.2.0.1.0
    settings also same.
    Why full row is not exported and imported any probelm in my way of export and import.
    Thanks & Reagds
    Venkata Vara Prasad Kosaraju

    since LOB's are fetched one row at a time, can you remove the buffer parameter in the export option and try again to re-export and import.

Maybe you are looking for

  • How to use a parameter in an Execute SQL Tasks in SSDT executed against Netezza

    Good Evening, How can I pass a parameter in an Execute SQL Tasks in SSDT executed against Netezza?  Below are my settings and error message. [Execute SQL Task] Error: Executing the query ""TRUNCATE TABLE" ?"_POC..JOHN_TEST"" failed with the following

  • How to restrict the changes in VA02?

    Hi all, while  PO is created the SO is generating in the  (Through ORDERS message type) in the same client . Now i have to restrict this SO from changes by users through VA02, but the changes should be acceptable if  they changed the PO in me22n (ORD

  • External Presenter removed from meeting after 1 hour of presenting

    Any time we have give presentation rights to an external customer who is coming in as a guest and using the web access to the meeting, and they are presenting for over 1 hour they are removed from the meeting while still actively presenting content.

  • Sending email is very slow.

    Even the simplest messages can take forever to send. Sometimes I have to quit mail and try and resend, but even with that it can be very slow to send email. How can I fix this?

  • Import word documents

    Getting error could not load add on program when trying to import word document.