Export timestamps

Hi,
The fields timestamp is generated seemed ith 'oracle.sql.TIMESTAMP@1ca2c4b'.
The same error occur with lob fields.
Somebody knows as to make so that they are exported in the normal format timestamp?

Do not know about toad but raptor may have some issues with such columns since it is still beta.
I do now know what problem you are trying to solve, but for general export needs, you can use the import/export tools from Oracle.
C:\>exp help=y
Export: Release 10.2.0.1.0 - Production on Wed Feb 8 15:48:50 2006
Copyright (c) 1982, 2005, Oracle.  All rights reserved.
You can let Export prompt you for parameters by entering the EXP
command followed by your username/password:
     Example: EXP SCOTT/TIGER
Or, you can control how Export runs by entering the EXP command followed
by various arguments. To specify parameters, you use keywords:
     Format:  EXP KEYWORD=value or KEYWORD=(value1,value2,...,valueN)
     Example: EXP SCOTT/TIGER GRANTS=Y TABLES=(EMP,DEPT,MGR)
               or TABLES=(T1:P1,T1:P2), if T1 is partitioned table
USERID must be the first parameter on the command line.
Keyword    Description (Default)      Keyword      Description (Default)
USERID     username/password          FULL         export entire file (N)
BUFFER     size of data buffer        OWNER        list of owner usernames
FILE       output files (EXPDAT.DMP)  TABLES       list of table names
COMPRESS   import into one extent (Y) RECORDLENGTH length of IO record
GRANTS     export grants (Y)          INCTYPE      incremental export type
INDEXES    export indexes (Y)         RECORD       track incr. export (Y)
DIRECT     direct path (N)            TRIGGERS     export triggers (Y)
LOG        log file of screen output  STATISTICS   analyze objects (ESTIMATE)
ROWS       export data rows (Y)       PARFILE      parameter filename
CONSISTENT cross-table consistency(N) CONSTRAINTS  export constraints (Y)
OBJECT_CONSISTENT    transaction set to read only during object export (N)
FEEDBACK             display progress every x rows (0)
FILESIZE             maximum size of each dump file
FLASHBACK_SCN        SCN used to set session snapshot back to
FLASHBACK_TIME       time used to get the SCN closest to the specified time
QUERY                select clause used to export a subset of a table
RESUMABLE            suspend when a space related error is encountered(N)
RESUMABLE_NAME       text string used to identify resumable statement
RESUMABLE_TIMEOUT    wait time for RESUMABLE
TTS_FULL_CHECK       perform full or partial dependency check for TTS
TABLESPACES          list of tablespaces to export
TRANSPORT_TABLESPACE export transportable tablespace metadata (N)
TEMPLATE             template name which invokes iAS mode export
Export terminated successfully without warnings.
C:\>

Similar Messages

  • Export Timestamp in CSV

    When we try to export timestamp column in CSV format the value is not return but the class name.
    f. i. oracle.sql.TIMESTAMP@fb765a

    This is logged.
    -kris

  • SQL Developer 3.2 - Exporting data with TIMESTAMP datatype

    Hi,
    We have users that are attempting to export data with the Timestamp format to Excel (xls format) using SQL Developer 3.2.  When attempting to sort the Timestamp in either asc or desc order, Excel is having issues sorting correctly.  I suggested that the user just do all the sorting within their SQL Developer session but they require the ability to slice and dice in Excel.
    This is definitely not an issue with Excel as the users have previously exported Timestamp data from Toad and been able to sort without issue.  Any thoughts as to what might resolve this issue? 
    Thanks.

    We're not formatting timestamps in Oracle as numbers/dates in Excel. They'll need to properly format the Excel column/cells to get it to sort the way they want vs being treated as simple strings.

  • EXPORT/IMPORT 에 관하여 (2)

    제품 : ORACLE SERVER
    작성날짜 : 2003-11-19
    Q> 테이블 LEVEL EXPORT 방법의 종류가 하나 이상 있습니까?
    ▶▶ 말씀드리자면 대답은 그렇기도 하고 아니기도 합니다. 테이블 export는 두
    가지 방법 중 하나가 될 수 있습니다.
    --- 사용자가 그 소유한 테이블을 export 한다.
    exp donald/duck tables=huey, dewey, louie
    --- SYSTEM/MANAGER 같은 DBA가 사용자의 집합에 속해 구분되어진 테이블
    들을 export 한다.
    exp system/manager tables=scott.emp, humty, dumpty
    위의 두가지 export 방법 모두 테이블 level의 export로 구분되어집니다.
    후자의 경우에는 export가 DBA에 의해서 행해지기 때문에 import도 DBA에
    의해서 행해져야 합니다.
    Q> FULL EXPORT 를 받으려면 사용자가 반드시 DBA 이어야 합니까?
    ▶▶ 아닙니다. 버전 6 에서는 그러했지만, 이는 오라클7 role 의 introduction
    에서 바뀌었습니다. 다시 말해서, EXP_FULL_DATABASE role 을 받은 어떤 사용자도
    FULL export 를 할 수 있습니다. 이 role 은 DBA 에 의해서 부여됩니다. 따라서,
    여전히 DBA 가 아니면서도 위의 role 을 부여받은 사용자가 있을 수 있습니다.
    위의 role 과 동반되는 privilege 들은 CATEXP.SQL 에 정의되어 있습니다.
    privilege 들을 살펴보면 이 role 을 소유한 사용자는 DBA 와 거의 같은 역할을
    할 수 있음을 알 수 있습니다.
    Q> EXPORT 되는 객체들의 순서는 어떻게 됩니까?
    ▶▶ 오라클7 에서 export 되는 객체들의 순서는 다음과 같습니다. 위에서 아래쪽
    으로 row 별로 왼쪽에서 오른쪽 순서로 읽으시면 됩니다.
    Tablespaces Profiles Users Roles
    System Privilege Role Grants Default Roles Tablespace
    Quotas
    Resource Costs Rollback Segments Database Links Sequences
    (includes grants)
    Snapshots Snapshot Logs Job Queues Refresh Groups
    (includes grants,
    auditing)
    Cluster Definitions Tables(constraints, Referential POSTTABLES
    grants, indexes, Integrity actions
    comments, audits)
    In 7.3.4 the order for
    tables will be changed
    to:(indexes, grants,
    constraints, audits,
    comments)
    Synonyms Views Stored Triggers
    Procedures
    Default and System
    Auditing
    Q> 순서가 중요합니까? 만약 그렇다면 왜죠?
    ▶▶ 순서는 매우 중요합니다. Import 가 데이터베이스에 대한 SQL 문장들을 실행
    하는 연속적인 session 이기 때문입니다. 다른 이미 존재하는 어떤 객체들에 의존
    하는 몇몇 객체들은 반드시 더 이후에 위치해야 합니다. 예를 들어, 트리거는
    테이블에 의존적 객체이므로 테이블이 트리거보다 먼저 import 되어져야 합니다.
    또, 프로시져나 뷰같은 홀로 존재할 수 있는 객체들도 있습니다. 이러한 객체들은
    compilation errors 과 함께 데이터베이스에 load 될 수 있고, 이는 처음으로 사용
    될 때 비로소 validation 이 체크 됩니다.
    Q> EXPORT 는 ARRAY FETCH 라 불리우는 메카니즘을 사용하는데, 이게 무엇입니까?
    ▶▶ Export 는 SELECT 문장을 만들어서 테이블 데이터를 가져옵니다. 즉, 데이터는
    데이터베이스로부터 사용자 쪽으로 옮겨져야 하는데, 만약 Export 가 한번에 단
    하나의 row 만 가져오게 되어 있다면 데이터베이스를 Export 하기 위해서는 너무
    많은 부하가 걸릴 것입니다. 따라서, Export 는 매번 row 들의 집합을 fetch 해오게
    되고, 총 수행시간은 감소하게 됩니다. Array fetch 는 데이터베이스로부터 한번에
    여러개의 row 들을 가져오는 개념입니다.
    Q> EXPORT 시의 BUFFER PARAMETER 는 어떤 목적으로 사용됩니까?
    ▶▶ 이전에 언급한 바와 같이, Export 는 한번에 여러개의 row 들을 fetch 합니다. 이러한 정보는 화일로 저장되기 이전에 사용자 쪽의 메모리에 올라가게 됩니다.
    사용자에게 할당되는 메모리의 용량이 바로 BUFFER parameter 의 값과 대응하게
    됩니다.
    Q> EXPORT 시의 RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ Export 시 export 화일로 정보를 쓸때, 한번에 한 글자씩을 써내려가지 않고
    버퍼의 정보를 한번에 기록하게 됩니다. RECORDLENGTH 는 이 버퍼의 크기입니다.
    O/S 블럭 크기의 배수로 이를 관리하는 것이 가장 효율적입니다.
    또, 이는 이전에 설명된 데이터를 가져올 때에만 사용되는 BUFFER parameter 와
    종종 혼동됩니다. 두가지 버퍼가 있는 이유는 쓰기 버퍼가 SQL 문장들을 포함할 수
    있기 때문입니다. 또한 데이터베이스로부터 자료를 가져올때 이는 export 화일
    형태로 format 되어 있지 않습니다. 따라서, 데이터를 올바른 format 형태로 얻을
    수 있도록 몇몇 메세지들도 포함되어 있습니다.
    Q> 얼마나 많은 ROW 들이 한 주기에서 FETCH 되는 지 어떻게 알 수 있습니까?
    ▶▶ BUFFER parameter 에서 정의된 것 처럼 이 값은 버퍼의 크기를 한 row 의
    크기로 나눔으로써 얻어질 수 있습니다. 한 row 의 크기는 대략 다음과 같습니다.
    (sum of all internal columns sizes ) + 4 x (number of columns)
    Q> LONG 데이터 타입도 같은 방법으로 작업할 수 있습니까?
    ▶▶ 아닙니다. LONG 데이터의 경우에는 현재로서는 오로지 한 row 씩의 fetch 만
    가능합니다. LONG 데이터 타입은 2GB 까지의 길이를 가질 수 있으므로 위와 같은
    방법으로 사용되어지는 것은 바람직하지 않기 때문입니다.
    Q> PARALLEL 에서 MULTIPLE EXPORTS 를 할 수 있습니까?
    ▶▶ incremental exports 가 아니라면 가능합니다. incremental exports 는
    dictionary 의 정보를 기록하게 되고, 실행중인 여러개의 session 들이 정보의
    충돌을 야기할 것이기 때문입니다.
    Q> RECORD PARAMETER 는 무엇입니까?
    ▶▶ 위 parameter 는 incremental export 에 적용됩니다. incremental export 는
    이전의 incremental/cumulative/complete export 중에서 변화가 생긴 객체들만
    export 하는 것입니다. 따라서 data dictionary 의 변경 timestamp 가 INCEXP
    테이블의 timestamp 와 비교되고, 객체가 export 될때 새로운 timestamp 가 INCEXP
    테이블에 반영됩니다.
    RECORD=Y 로 정해주시면 INCEXP 테이블의 현 정보가 유지됩니다. 그렇지 않으면
    아무런 정보가 남지 않습니다. 다시 말하면 RECORD=N 상태이면 모든 객체들이 export
    됩니다. 종종 이 parameter 는 쓰기버퍼나 incremental export 와 관계없는
    RECORDLENGTH 와 혼동되기도 합니다.
    Q> 테이블의 FLAG 을 "MODIFIED" 로 바꾸는 것들은 어떤 경우입니까?
    이는 추가적 INCREMENTAL EXPORT 를 해야함을 의미합니까?
    ▶▶ INSERT, DELETE, UPDATE 문을 사용하셔서 데이터를 변경하셨다면 객체가 변경
    되었다고 나타나게 됩니다. 컬럼을 not null 로 바꾸시거나 storage 를 변경하는
    등의 DDL 은 테이블을 변경시키게 됩니다. 심지어 테이블에 grant 나 comment 를
    추가하셔도 테이블이 변경되었다고 나타납니다.
    Q> 데이터가 EXPORT 될 때의 시점에서 모든 데이터의 일관성이 유지됩니까?
    "SNAPSHOT TOO OLD" 에러는 무엇인가요?
    ▶▶ Export 는 일련의 SELECT 문을 생성함으로 데이터를 가져오게 되고, 각각
    테이블 데이터의 snapshot time 이 SELECT 문의 생성 시간과 대응합니다. 만약,
    어떠한 데이터 작업도 없다면 이것은 크게 중요하지 않습니다. 그러나, export 가
    시작된 후 테이블을 변경시키는 경우가 가능합니다. 그러한 경우에는 데이터의
    snapshot 이 중요할 수 있습니다. Export 는 테이블에 exclusive lock 을 걸지
    않기 때문입니다.
    option 중 CONSISTENCY=Y 라는 것이 있는데, 이 것을 enable 시키면 EXPORT 는
    export 를 시작하기 전에 먼저 SET TRANSACTION READ ONLY 명령어를 수행합니다.
    그러나, 오랫동안 계속되는 export 의 경우에는 rollback segment 의 공간이
    부족해서, "snapshot too old" 에러가 생길 위험이 있습니다.
    Q> PRE-TABLE 과 POST-TABLE ACTIONS 은 무엇입니까?
    ▶▶ pre-table actions 은 테이블이 import 되기 전에 실행되는 PL/SQL
    routines 이고, post-table actions 은 모든 테이블들이 import 된후에 실행되는
    PL/SQL routines 입니다. 그러므로 프로시져들은 테이블 데이터가 import 된후
    변경 작업을 하게 됩니다. 이러한 options 은 사용자들이 실행하길 원하는
    routines 을 지정할 수 있도록 앞으로의 release 에서 제공될 것입니다. 이는
    import session 중에서 데이터를 변경할 수 있도록 해줄 것입니다.
    Q> IMPORT 는 ARRAY INSERTS 를 사용하는데 이것은 어떤 것입니까?
    ▶▶ Export 가 테이블 데이터를 select 하는 것처럼 import 는 데이터베이스로
    다시 데이터를 insert 합니다. 한번에 한 row 를 insert 하는 것은 자원 집약적
    입니다. 데이터베이스로 통신하는 횟수는 한번에 여러 row 들을 insert 함으로써
    줄일 수 있습니다. 이것이 바로 array insert 의 개념입니다.
    Q> LONG 컬럼의 테이블을 IMPORT 할 때 한번에 한 컬럼 씩 INSERT 되는데,
    이것이 정상적으로 수행되는 것입니까?
    ▶▶ 정상입니다. LONG 컬럼에 대해서는 array 크기의 default 는 1 입니다.
    Export 는 insert 하기 전에 모든 LONG 컬럼을 올려놓을 연속적인 메모리를 필요로
    하기 때문입니다. 또, 적당한 upper bound 를 찾아낼 방법도 없습니다. 장차 LONG
    컬럼을 조각조각 insert 하는 데이터베이스의 지원이 이루어 질때 이러한 작업은
    변화될 것입니다.
    Q> IMPORT BUFFER 는 무엇입니까?
    ▶▶ 테이블의 rows 이 저장되기 위해서 데이터베이스로 보내기 전에 사용자 쪽에
    할당될 메모리의 용량을 지정하는 parameter 입니다.
    Q> 각각의 ARRAY INSERT 에 COMMIT 할 수 있습니까?
    ▶▶ COMMIT=Y 로 지정하시면 가능합니다. 한번의 통신에서 commit 되는 정확한
    rows 의 수는 버퍼의 크기와 얼마나 많은 rows 가 해당 버퍼에 저장 되었는 것에
    달려있습니다.
    Q> RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ import 는 한 번에 한 글자씩 export 화일로부터 정보를 읽지 않습니다.
    대신에 버퍼의 값만큼의 분량의 정보를 메모리로 읽습니다. RECORDLENGTH 는 이
    읽기버퍼의 크기입니다. 이를 O/S 블럭 크기의 배수로 유지하는 것이 가장 효율적
    입니다. 이 parameter 는 종종 테이블 데이터에만 영향을 미치는 BUFFER parameter
    와 혼동되기도 합니다. 테이블 데이터에 나뉘어져 저장된 SQL 문장들이 있어서
    데이터가 분리될 필요가 있으므로 또다른 분리된 버퍼들을 가지는 것이 필요합니다.
    Q> DESTROY OPTION 은 IMPORT 시에 어떤 역할을 합니까?
    ▶▶ CREATE TABLESPACE 문은 사용자가 존재하는 데이터 화일을 재사용할 수 있게
    하여주는 REUSE 절을 가지고 있습니다. 그러나, 사용자가 다른 테이블스페이스 속한
    화일을 실수로 없애버리는 바람직하지 않은 효과를 낼 수도 있으므로 주의해야
    합니다. DESTROY=N 으로 import 를 실행하면 CREATE TABLESPACE 문에서 REUSE
    절을 사용하지 않게 됩니다.
    Q> IMPORT 를 실행 시 "SEALS DON'T MATCH" 라는 메세지를 접하게 됩니다.
    SEAL이 어떤 건가요?
    ▶▶ seal 은 export session 에 대해 정보를 가지고 있는 export 화일 헤더의
    또 다른 이름입니다.
    Q> IMPORT 를 실행시 "ABNORMAL END OF FILE" 이라는 메세지를 보게 됩니다.
    이것이 무슨 의미인가요?
    ▶▶ 이것은 어떤 이유로 인해서 export 화일이 손상되었음을 의미합니다.
    보통 import 는 화일의 특정 포인트를 얻으려 하는데, 만약 화일이 손상되었
    다면 import는 아마도 정상적이지 않게 약간 앞쪽에서 찾으려 하게 됩니다.
    그 결과 화일이 비정상적으로 끝났다고 생각하게 되는 겁니다.
    한쪽 기종에서 다른 기종으로 정상적으로 옮겨지지 않았다면 export 화일은 손상을
    입었을 가능성이 있습니다. export 하는 기종에서 다시 한번 화일을 보내도록
    하십시오. 또 한가지 화일의 transport protocol 이 binary mode 인지 확인
    하시기 바랍니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, TOUSER 수 보다도 FROMUSER 에서
    많은 사용자를 지정하고 있습니다. 이 때, 여분의 사용들에게 어떤 일이 생기나요?
    ▶▶ import 는 적절한 수의 TOUSER 만큼 FROMUSER 수를 mapping 합니다. 여분의
    사용자들은 스스로에게 mapping 되므로 시작 시점에서 지정되지 않을 수도
    있습니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, FROMUSER 수 보다 많은 TOUSER
    수를 사용합니다. 여분의 TOUSER 는 어떻게 됩니까?
    ▶▶ 그들은 무시되게 됩니다.

    제품 : ORACLE SERVER
    작성날짜 : 2003-11-19
    Q> 테이블 LEVEL EXPORT 방법의 종류가 하나 이상 있습니까?
    ▶▶ 말씀드리자면 대답은 그렇기도 하고 아니기도 합니다. 테이블 export는 두
    가지 방법 중 하나가 될 수 있습니다.
    --- 사용자가 그 소유한 테이블을 export 한다.
    exp donald/duck tables=huey, dewey, louie
    --- SYSTEM/MANAGER 같은 DBA가 사용자의 집합에 속해 구분되어진 테이블
    들을 export 한다.
    exp system/manager tables=scott.emp, humty, dumpty
    위의 두가지 export 방법 모두 테이블 level의 export로 구분되어집니다.
    후자의 경우에는 export가 DBA에 의해서 행해지기 때문에 import도 DBA에
    의해서 행해져야 합니다.
    Q> FULL EXPORT 를 받으려면 사용자가 반드시 DBA 이어야 합니까?
    ▶▶ 아닙니다. 버전 6 에서는 그러했지만, 이는 오라클7 role 의 introduction
    에서 바뀌었습니다. 다시 말해서, EXP_FULL_DATABASE role 을 받은 어떤 사용자도
    FULL export 를 할 수 있습니다. 이 role 은 DBA 에 의해서 부여됩니다. 따라서,
    여전히 DBA 가 아니면서도 위의 role 을 부여받은 사용자가 있을 수 있습니다.
    위의 role 과 동반되는 privilege 들은 CATEXP.SQL 에 정의되어 있습니다.
    privilege 들을 살펴보면 이 role 을 소유한 사용자는 DBA 와 거의 같은 역할을
    할 수 있음을 알 수 있습니다.
    Q> EXPORT 되는 객체들의 순서는 어떻게 됩니까?
    ▶▶ 오라클7 에서 export 되는 객체들의 순서는 다음과 같습니다. 위에서 아래쪽
    으로 row 별로 왼쪽에서 오른쪽 순서로 읽으시면 됩니다.
    Tablespaces Profiles Users Roles
    System Privilege Role Grants Default Roles Tablespace
    Quotas
    Resource Costs Rollback Segments Database Links Sequences
    (includes grants)
    Snapshots Snapshot Logs Job Queues Refresh Groups
    (includes grants,
    auditing)
    Cluster Definitions Tables(constraints, Referential POSTTABLES
    grants, indexes, Integrity actions
    comments, audits)
    In 7.3.4 the order for
    tables will be changed
    to:(indexes, grants,
    constraints, audits,
    comments)
    Synonyms Views Stored Triggers
    Procedures
    Default and System
    Auditing
    Q> 순서가 중요합니까? 만약 그렇다면 왜죠?
    ▶▶ 순서는 매우 중요합니다. Import 가 데이터베이스에 대한 SQL 문장들을 실행
    하는 연속적인 session 이기 때문입니다. 다른 이미 존재하는 어떤 객체들에 의존
    하는 몇몇 객체들은 반드시 더 이후에 위치해야 합니다. 예를 들어, 트리거는
    테이블에 의존적 객체이므로 테이블이 트리거보다 먼저 import 되어져야 합니다.
    또, 프로시져나 뷰같은 홀로 존재할 수 있는 객체들도 있습니다. 이러한 객체들은
    compilation errors 과 함께 데이터베이스에 load 될 수 있고, 이는 처음으로 사용
    될 때 비로소 validation 이 체크 됩니다.
    Q> EXPORT 는 ARRAY FETCH 라 불리우는 메카니즘을 사용하는데, 이게 무엇입니까?
    ▶▶ Export 는 SELECT 문장을 만들어서 테이블 데이터를 가져옵니다. 즉, 데이터는
    데이터베이스로부터 사용자 쪽으로 옮겨져야 하는데, 만약 Export 가 한번에 단
    하나의 row 만 가져오게 되어 있다면 데이터베이스를 Export 하기 위해서는 너무
    많은 부하가 걸릴 것입니다. 따라서, Export 는 매번 row 들의 집합을 fetch 해오게
    되고, 총 수행시간은 감소하게 됩니다. Array fetch 는 데이터베이스로부터 한번에
    여러개의 row 들을 가져오는 개념입니다.
    Q> EXPORT 시의 BUFFER PARAMETER 는 어떤 목적으로 사용됩니까?
    ▶▶ 이전에 언급한 바와 같이, Export 는 한번에 여러개의 row 들을 fetch 합니다. 이러한 정보는 화일로 저장되기 이전에 사용자 쪽의 메모리에 올라가게 됩니다.
    사용자에게 할당되는 메모리의 용량이 바로 BUFFER parameter 의 값과 대응하게
    됩니다.
    Q> EXPORT 시의 RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ Export 시 export 화일로 정보를 쓸때, 한번에 한 글자씩을 써내려가지 않고
    버퍼의 정보를 한번에 기록하게 됩니다. RECORDLENGTH 는 이 버퍼의 크기입니다.
    O/S 블럭 크기의 배수로 이를 관리하는 것이 가장 효율적입니다.
    또, 이는 이전에 설명된 데이터를 가져올 때에만 사용되는 BUFFER parameter 와
    종종 혼동됩니다. 두가지 버퍼가 있는 이유는 쓰기 버퍼가 SQL 문장들을 포함할 수
    있기 때문입니다. 또한 데이터베이스로부터 자료를 가져올때 이는 export 화일
    형태로 format 되어 있지 않습니다. 따라서, 데이터를 올바른 format 형태로 얻을
    수 있도록 몇몇 메세지들도 포함되어 있습니다.
    Q> 얼마나 많은 ROW 들이 한 주기에서 FETCH 되는 지 어떻게 알 수 있습니까?
    ▶▶ BUFFER parameter 에서 정의된 것 처럼 이 값은 버퍼의 크기를 한 row 의
    크기로 나눔으로써 얻어질 수 있습니다. 한 row 의 크기는 대략 다음과 같습니다.
    (sum of all internal columns sizes ) + 4 x (number of columns)
    Q> LONG 데이터 타입도 같은 방법으로 작업할 수 있습니까?
    ▶▶ 아닙니다. LONG 데이터의 경우에는 현재로서는 오로지 한 row 씩의 fetch 만
    가능합니다. LONG 데이터 타입은 2GB 까지의 길이를 가질 수 있으므로 위와 같은
    방법으로 사용되어지는 것은 바람직하지 않기 때문입니다.
    Q> PARALLEL 에서 MULTIPLE EXPORTS 를 할 수 있습니까?
    ▶▶ incremental exports 가 아니라면 가능합니다. incremental exports 는
    dictionary 의 정보를 기록하게 되고, 실행중인 여러개의 session 들이 정보의
    충돌을 야기할 것이기 때문입니다.
    Q> RECORD PARAMETER 는 무엇입니까?
    ▶▶ 위 parameter 는 incremental export 에 적용됩니다. incremental export 는
    이전의 incremental/cumulative/complete export 중에서 변화가 생긴 객체들만
    export 하는 것입니다. 따라서 data dictionary 의 변경 timestamp 가 INCEXP
    테이블의 timestamp 와 비교되고, 객체가 export 될때 새로운 timestamp 가 INCEXP
    테이블에 반영됩니다.
    RECORD=Y 로 정해주시면 INCEXP 테이블의 현 정보가 유지됩니다. 그렇지 않으면
    아무런 정보가 남지 않습니다. 다시 말하면 RECORD=N 상태이면 모든 객체들이 export
    됩니다. 종종 이 parameter 는 쓰기버퍼나 incremental export 와 관계없는
    RECORDLENGTH 와 혼동되기도 합니다.
    Q> 테이블의 FLAG 을 "MODIFIED" 로 바꾸는 것들은 어떤 경우입니까?
    이는 추가적 INCREMENTAL EXPORT 를 해야함을 의미합니까?
    ▶▶ INSERT, DELETE, UPDATE 문을 사용하셔서 데이터를 변경하셨다면 객체가 변경
    되었다고 나타나게 됩니다. 컬럼을 not null 로 바꾸시거나 storage 를 변경하는
    등의 DDL 은 테이블을 변경시키게 됩니다. 심지어 테이블에 grant 나 comment 를
    추가하셔도 테이블이 변경되었다고 나타납니다.
    Q> 데이터가 EXPORT 될 때의 시점에서 모든 데이터의 일관성이 유지됩니까?
    "SNAPSHOT TOO OLD" 에러는 무엇인가요?
    ▶▶ Export 는 일련의 SELECT 문을 생성함으로 데이터를 가져오게 되고, 각각
    테이블 데이터의 snapshot time 이 SELECT 문의 생성 시간과 대응합니다. 만약,
    어떠한 데이터 작업도 없다면 이것은 크게 중요하지 않습니다. 그러나, export 가
    시작된 후 테이블을 변경시키는 경우가 가능합니다. 그러한 경우에는 데이터의
    snapshot 이 중요할 수 있습니다. Export 는 테이블에 exclusive lock 을 걸지
    않기 때문입니다.
    option 중 CONSISTENCY=Y 라는 것이 있는데, 이 것을 enable 시키면 EXPORT 는
    export 를 시작하기 전에 먼저 SET TRANSACTION READ ONLY 명령어를 수행합니다.
    그러나, 오랫동안 계속되는 export 의 경우에는 rollback segment 의 공간이
    부족해서, "snapshot too old" 에러가 생길 위험이 있습니다.
    Q> PRE-TABLE 과 POST-TABLE ACTIONS 은 무엇입니까?
    ▶▶ pre-table actions 은 테이블이 import 되기 전에 실행되는 PL/SQL
    routines 이고, post-table actions 은 모든 테이블들이 import 된후에 실행되는
    PL/SQL routines 입니다. 그러므로 프로시져들은 테이블 데이터가 import 된후
    변경 작업을 하게 됩니다. 이러한 options 은 사용자들이 실행하길 원하는
    routines 을 지정할 수 있도록 앞으로의 release 에서 제공될 것입니다. 이는
    import session 중에서 데이터를 변경할 수 있도록 해줄 것입니다.
    Q> IMPORT 는 ARRAY INSERTS 를 사용하는데 이것은 어떤 것입니까?
    ▶▶ Export 가 테이블 데이터를 select 하는 것처럼 import 는 데이터베이스로
    다시 데이터를 insert 합니다. 한번에 한 row 를 insert 하는 것은 자원 집약적
    입니다. 데이터베이스로 통신하는 횟수는 한번에 여러 row 들을 insert 함으로써
    줄일 수 있습니다. 이것이 바로 array insert 의 개념입니다.
    Q> LONG 컬럼의 테이블을 IMPORT 할 때 한번에 한 컬럼 씩 INSERT 되는데,
    이것이 정상적으로 수행되는 것입니까?
    ▶▶ 정상입니다. LONG 컬럼에 대해서는 array 크기의 default 는 1 입니다.
    Export 는 insert 하기 전에 모든 LONG 컬럼을 올려놓을 연속적인 메모리를 필요로
    하기 때문입니다. 또, 적당한 upper bound 를 찾아낼 방법도 없습니다. 장차 LONG
    컬럼을 조각조각 insert 하는 데이터베이스의 지원이 이루어 질때 이러한 작업은
    변화될 것입니다.
    Q> IMPORT BUFFER 는 무엇입니까?
    ▶▶ 테이블의 rows 이 저장되기 위해서 데이터베이스로 보내기 전에 사용자 쪽에
    할당될 메모리의 용량을 지정하는 parameter 입니다.
    Q> 각각의 ARRAY INSERT 에 COMMIT 할 수 있습니까?
    ▶▶ COMMIT=Y 로 지정하시면 가능합니다. 한번의 통신에서 commit 되는 정확한
    rows 의 수는 버퍼의 크기와 얼마나 많은 rows 가 해당 버퍼에 저장 되었는 것에
    달려있습니다.
    Q> RECORDLENGTH PARAMETER 는 무엇입니까?
    ▶▶ import 는 한 번에 한 글자씩 export 화일로부터 정보를 읽지 않습니다.
    대신에 버퍼의 값만큼의 분량의 정보를 메모리로 읽습니다. RECORDLENGTH 는 이
    읽기버퍼의 크기입니다. 이를 O/S 블럭 크기의 배수로 유지하는 것이 가장 효율적
    입니다. 이 parameter 는 종종 테이블 데이터에만 영향을 미치는 BUFFER parameter
    와 혼동되기도 합니다. 테이블 데이터에 나뉘어져 저장된 SQL 문장들이 있어서
    데이터가 분리될 필요가 있으므로 또다른 분리된 버퍼들을 가지는 것이 필요합니다.
    Q> DESTROY OPTION 은 IMPORT 시에 어떤 역할을 합니까?
    ▶▶ CREATE TABLESPACE 문은 사용자가 존재하는 데이터 화일을 재사용할 수 있게
    하여주는 REUSE 절을 가지고 있습니다. 그러나, 사용자가 다른 테이블스페이스 속한
    화일을 실수로 없애버리는 바람직하지 않은 효과를 낼 수도 있으므로 주의해야
    합니다. DESTROY=N 으로 import 를 실행하면 CREATE TABLESPACE 문에서 REUSE
    절을 사용하지 않게 됩니다.
    Q> IMPORT 를 실행 시 "SEALS DON'T MATCH" 라는 메세지를 접하게 됩니다.
    SEAL이 어떤 건가요?
    ▶▶ seal 은 export session 에 대해 정보를 가지고 있는 export 화일 헤더의
    또 다른 이름입니다.
    Q> IMPORT 를 실행시 "ABNORMAL END OF FILE" 이라는 메세지를 보게 됩니다.
    이것이 무슨 의미인가요?
    ▶▶ 이것은 어떤 이유로 인해서 export 화일이 손상되었음을 의미합니다.
    보통 import 는 화일의 특정 포인트를 얻으려 하는데, 만약 화일이 손상되었
    다면 import는 아마도 정상적이지 않게 약간 앞쪽에서 찾으려 하게 됩니다.
    그 결과 화일이 비정상적으로 끝났다고 생각하게 되는 겁니다.
    한쪽 기종에서 다른 기종으로 정상적으로 옮겨지지 않았다면 export 화일은 손상을
    입었을 가능성이 있습니다. export 하는 기종에서 다시 한번 화일을 보내도록
    하십시오. 또 한가지 화일의 transport protocol 이 binary mode 인지 확인
    하시기 바랍니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, TOUSER 수 보다도 FROMUSER 에서
    많은 사용자를 지정하고 있습니다. 이 때, 여분의 사용들에게 어떤 일이 생기나요?
    ▶▶ import 는 적절한 수의 TOUSER 만큼 FROMUSER 수를 mapping 합니다. 여분의
    사용자들은 스스로에게 mapping 되므로 시작 시점에서 지정되지 않을 수도
    있습니다.
    Q> FROMUSER / TOUSER 기능을 사용하고 있는데, FROMUSER 수 보다 많은 TOUSER
    수를 사용합니다. 여분의 TOUSER 는 어떻게 됩니까?
    ▶▶ 그들은 무시되게 됩니다.

  • Error while executing transport in HANA's application life-cycle management

    Hi everyone,
    we're currently developing our HANA-based software and would like to use HANA's application life-cycle management: transporting our product from one system to another. Everything seems to be set up correctly: two different systems, correct privileges, a product comprising delivery units comprising packages as well as a transport route between the systems. However, the transport always fails with the following error (example for a transport of a single DU):
    [imdbhdb][HDB][2014.05.07 15:10.01.404][TransportService][0] Transport (delta) has been started for route ID: 1020 (Deliver Unit Transport)
    [hanaserver][HDB][2014.05.07 15:10.08.323][Other][0] Get end export timestamp for DU name: PERSISTENCE
    [hanaserver][HDB][2014.05.07 15:10.08.501][Other][12] Unable to retrieve end export timestamp: ReferenceError: assignment to undeclared variable errText
    [imdbhdb][HDB][2014.05.07 15:10.12.402][TransportService][0] There will be 1 delivery units which will be transported.
    [imdbhdb][HDB][2014.05.07 15:10.12.895][TransportService][12] Failed for DU: PERSISTENCE Vendor: LO Error: HTTP request failed. Status: 500. Error: Unable to retrieve end export time stamp.
    [imdbhdb][HDB][2014.05.07 15:10.12.917][TransportService][12] TransportServiceError: Error occurred while performing the transport.
    Does anyone know how to resolve this?
    Thanks so much in advance,
    Lukas

    Hi everyone,
    I am sorry I bothered you with this error. It was caused by me since I forgot to export a top-level file. This file must have defined a variable errText which other DUs depended on and could therefore not be activated.
    Now, the transport works perfectly well and I'm really happy with it.
    All the best
    Lukas

  • SQL Developer 2.1.0.63.73 exports DATE as TIMESTAMP

    I believe this is a bug. When I export a table to an XLS file, the values contained in DATE columns are saved as if they were TIMESTAMP:
    eg. 31-DEC-09 12:00:00 AM would export as 31-DEC-09 12.00.00.000000000 AM
    Not really a huge deal until you try to import it back in, in which case you can't import a TIMESTAMP into a DATE column. First, you'll get an error about the AM/A.M. or PM/P.M. missing. You can't explicitly specify the date format during the import either as Oracle rejects it since it's not supported. The proper way is to cast it back to a date, but you can't do that through the import function.
    Regardless, I think the export function should export DATEs according to the Date Format NLS settings but it is not.
    If it makes any difference, I'm using the 64-bit Windows version of SQL Developer on Windows 7 64-bit with the Oracle 64-bit client.

    Hi,
    Not sure if this is something related to my previous problem.
    My SQL Dev gives the correct date format on exporting to Excel, but fails on export INSERT statement
    Vasan, one of the sql dev's team member, gave this workaround which solved my problem
    >
    You can add the following in the sqldeveloper.conf to ensure that the driver doesn't report the column type of a DATE column as TIMESTAMP.
    AddVMOption -Doracle.jdbc.mapDateToTimestamp=false
    >
    as suggested in this thread
    Re: 2.1 EA1: Problems on Date type columns
    Hope this help,
    Buntoro

  • Export to Word document comment timestamps

    Export to Word document from Pages 4.x causes timestamps for all comments to update to time of export. Is there a way to change that behavior?

    Jesse,
    That's a pain, isn't it?
    When the comment autofills the timestamp, backspace it out of the comment and replace with your plain text version of the current date and time. That should put a stop the the updates.
    Jerry

  • Timestamp datatype not output correctly in table export

    When using the data export from table view timestamp datatype is not handled correctly. It shows as oracle.sql.TIMESTAMP@14c0761.
    Works fine from SQL Explorer view though.

    Im using the same build. 1.0.0.15.27.
    You can try any export option. I tried SQL Insert.
    If you right click from the data grid (SQL Worksheet or Table view it works fine)
    In the table view, if you go to Actions -> Export -> SQL Insert then it doesn't.

  • Exported file timestamp

    When Aperture exports files it uses the time at export for the files timestamp - it would be nice if the exported version could have the original Master's time/datestamp of creation (ie from the EXIF).... does anyone have a way to set this?
    I know you can add the time & date to the filename...but that's not really very useful nor practical as it makes the filename so long ...
    Is there any 3rd party renamer that can pick up the EXIF data and do this???

    The Perl ExifTool modules can do this, but they're command line only.
    (I don't know if someone's wrapped them in a useable GUI by now.)

  • 3.1 EA1 Timestamp field in export - loader format

    Opening enclosures (") is missing for fields of data type TimeStamp in SqlLoader file. This is causing SqlLoading of this file to fail
    Export data having timestamp column and choose format as "loader" in export dialog. Choose Left enclosure as double quotes (default). Open the generated file. Columns of data type timestamp are missing opening enclosure.

    Thank you. I have found the problem and will have a fix in the next release.
    Joyce Scapicchio
    Development Team

  • How to export iPhoto Album in iMAC and have similar folder structure(with Timestamps) which can be viewed in finder

    How to export iPhoto Album in iMAC and have similar folder structure(with Timestamps) which can be viewed in finder
    In simple terms, I wanted to view the photos in Windows system, similar strcture of iPhotos

    If you want to copy all of your photos to a Windows machine and have them in folders representing the iPhoto Events the were in quickly and easily just do the following:
    1  - open the library with the Finder as shown in this screenshot:
    2 - COPY the Originals/Masters folder to the Desktop.
    3 - copy the Originals/Masters folder to the Windows machine.
    This will give you all of your original image file in their Event folder on the Windows machine.
    NOTE:  With iPhoto 8 or newer the Event folders in the Masters folder will be titled by date (EXIF) if imported from a camera.  If imported from a folder the event folder will have the same title as the source folder.  If imported singularly or in a group without a folder the title will be a date, either the EXIF date or import date.
    With iPhoto 7 (08) and earlier the Event folders in the Originals folder will have the same title as the Event has in the library.
    This method would be quicker but not provide the additional metadata you might have added in iPhoto like keywords, titles, descriptions that exporting out of iPhoto with Format=JPEG and the checkboxes selected to include keywords, titles, places, etc, checked.
    OT

  • Export with timestamp check?

    Hi all
    i want to export data ( only tables ) by export syntax,
    my requirement is to restrict data accordingly to date range with respect to time stamp date.
    anyone can help if it is possible.
    Waiting............

    Thanks for reply!
    i tried to use like this;
    exp username/password rows=y tables=emp query=\"where rownum<=10\" file=c:\abc.dmp
    but it failed, i m using windows xp.
    plz guide me and tell me how to user timestamp column in it

  • Incorrect timestamp on logs exported to Excel

    Exporting logged data to Excel loses the original timestamp.  The time in the Excel file is the system time at which the Excel file was created.  The entry in the spreadsheet for time X0 is just 0.  The original log file (within SignalExpress) has the correct starting time for the data but that time doesn't seem to get passed to Excel.  I have the timestam option set to 'Absolute'
    Thanks,
    Dave Detty

    Hi Dave,
    I've been able to track down the issue, and I filed a bug report to have it fixed.
    It also looks like the date and time should be that of the timestamp of the first signal, and the X0 is designed to be the offset of each signal in the file from the Date and Time; which is really only useful when there are multiple signals in 1 file.
    I wasn't able to find a workaround for this. I'm very sorry...
    Phil

  • Tools - Export DDL (and data) mishandles timestamps

    I used SQLDeveloper to try to do a quick export of some test data. Here is a sample of part of an insert statement created by the export data option:
    to_timestamp('2005-12-31 00:00:00.0','DD-MON-RR HH.MI.SS.FF AM')
    This clearly will not work as the timestamp was retrieved in a format different than the format used in the to_timestamp() function. I tried to fix it, but I found than the utility switched from format to format. Some insert statements were consistent, some formatted the actual data differently, others used different format strings. It looked like I went to each developer and told them to write some code to create insert statements for their tables. Each one came back using a different format. Some were able to code valid SQL statements while others weren't able to create valid SQL. Unfortunately this was all done by one click. I cannot fathom how you all created such a mess because not only is it wrong (sometimes) but it is inconsistent. Actually I would guess someone created a hash table of available formats and randomly picked from the hash table.

    There is actually no error we are using dbms_metadata to see if there are contraints or ref_contraints on the table and this is the way it tells us there are not. We should be capturing this message better and not sending it to the user and I will fix that in the next release.
    However, this error should not be affecting your export if it is or you see missing information from the generated export file please reply.

  • Select statement for export with timestamp

    Hi!
    Im planning on doing an export of a DB based on its date. But I only want to export tables that have a timestap and are newer then >31/12 2006 and all the other tables (that dont have a timestamp). But I lack the experience of PL/SQL.
    Can anyone help me in the rigth direction? Below are a small start
    BEGIN
    IF timestamp.EXISTS THEN
    select * from Regards
    PL/SQL newbie

    If you want to export in order to be able to import in a Oracle database:
    if your Oracle version is >= 10, then you should try to use Data Pump export (expdp) with QUERY parameter.
    if your Oracle version is <= 9, then you should try to use export (exp) with QUERY parameter.
    Message was edited by:
    Pierre Forstmann

Maybe you are looking for

  • I can't open a PDF file stored in dropbox or log in from Firefox. I've tested in Chrome so the files are there.

    I'm creating a funnel for a client and have uploaded a PDF file to her dropbox account. When I test the process in Firefox, I can't log in to her dropbox nor will the PDF file display when I test it from Firefox. When I switch to Chrome, I can both o

  • Work Items are not pulled from SRM into SAP Fiori

    Hi Friends, We are using Application controlled workflow in SAP SRM. As Fiori won't support application controlled workflow, I have followed the guide to configure the task as custom workflow in scenario definition. But its not pulling the work item

  • Problem with time stamp

    Hello, I got mistake in ODS manage like this: The time stamp in the source system is 24.09.2007 The time stamp in the BW is 23.05.2009. I have problem to load data in ODS. What should I do ?? Replicate the data source ? But then it's possible to get

  • Replace file, link disappears

    I have a problem with hyperlinks disappearing. I have a link in a file (call it file1.html) to another file, file2.html. I'm not sure about the design of file2.html and have created a replacement called file3.html. I decide I like file3.html better,

  • Import pages to numbers

    hi  i need to  import  pages to numbers  i have  put in numbers cost and vat  number in pages and need to  export it to numbers to add vat and cost  every year  3% thanks craig wilson