오라클 data file 이동하기.

http://leejehong.tistory.com/entry/datafile-rename-%EA%B2%BD%EB%A1%9C%EB%B3%80%EA%B2%BD-%ED%95%98%EA%B8%B0

temp01.dbf화일 변경시에 에러났지만, 나중에 확인해보니, 문제되지 않았음.

컨트롤화일 이동은

http://ethernet0.tistory.com/21

컨트롤 화일 이동시 실수를 했다. 컨트롤화일 수만큼

SQL> alter system set control_files=’/oradata/orcl/control01.ctl’ scope=spfile;

System altered.

SQL> alter system set control_files=’/oradata/orcl/control02.ctl’ scope=spfile;
System altered.

SQL> alter system set control_files=’/ora_data/orcl/control03.ctl’ scope=spfile;

System altered.

이렇게 하는 실수를…!!!

shutdown 했다가 startup하니.

SQL> select value from v$spparameter where name=’control_files’;

VALUE
——————————————————————————–
/ora_data/orcl/control03.ctl

그래서, 다시

SQL> alter system set control_files=’/oradata/orcl/control01.ctl’,’/oradata/orcl/control02.ctl’, ‘/oradata/orcl/control03.ctl’ scope=spfile;

요렇게 했건만,

ORA-01122: database file 1 failed verification check
ORA-01110: data file 1: ‘/oradata/orcl/system01.dbf’
ORA-01207: file is more recent than control file – old control file

요런 에러가… ;ㅡㅡ

이것저것 해봤는데, 해결 안될듯… 테스트용 서버라 다행… 휴…

암튼, 이것저것 해 본 덕분에, 아래의 에러가!!!

SQL> conn /as sysdba
Connected to an idle instance.
SQL> shutdown abort
ORACLE instance shut down.
SQL> startup
ORACLE instance started.

Total System Global Area 285212672 bytes
Fixed Size 2020192 bytes
Variable Size 134220960 bytes
Database Buffers 142606336 bytes
Redo Buffers 6365184 bytes
Database mounted.
ORA-01589: must use RESETLOGS or NORESETLOGS option for database open
SQL> shutdown abort;
ORACLE instance shut down.
SQL> startup mount
ORACLE instance started.

위 에러는 http://www.superuser.co.kr/superuserboard/view.html?id=333&code=oracle&start=500&position=  를 참고하여 해결.

 

아무튼, 컨트롤화일도 이동 성공… 한번의 실수 때문에, 여러가지 에러가 유발되었음.

linux watch

c shell에는 repeat라는, 특정 커맨드를 반복해서 실행 할 수 있는 명령어가 있다(아마, 내장 커맨드였던가?). 꽤 유용하게 썼던 기억이 있다.

리눅스에도 비슷한 커맨드가 있는데, 바로 watch다.

사용법은 간단하다.

예를 들어서, 대용량 화일을 복사한다고 하자. 그러면 얼마나 복사되었는지 확인하려고, ls 나 df 같은 커맨드를 주기적(?)으로 실행하게 될 것이다. 그건 너무 귀찮지 않은가? 그럴 때 바로 watch를 사용한다.

#watch -d -n 5 ls -alh

Every 5.0s: ls -alh Tue Mar 20 01:18:04 2012

total 65G
drwxr-xr-x 2 root root 4.0K 2012-03-15 18:31 .
drwxr-xr-x 5 root root 4.0K 2012-03-20 00:29 ..
-rwxr-xr-x 1 root root 24G 2012-03-20 00:47 cent57.vimg
-rwxr-xr-x 1 root root 12G 2012-03-19 23:20 solaris10.vimg
-rwxr-xr-x 1 root root 12G 2012-03-10 19:22 ubuntu.vimg
-rwxr-xr-x 1 root root 24G 2012-03-20 00:57 win7.vimg
-rwxr-xr-x 1 root root 22G 2012-03-20 00:29 xp.vimg

-d 옵션은 이전과 다른 부분이 있다면 하이라이트로 표시해주는 옵션이며, -n 5 는 5초 간격으로 명령어(ls -alh)를 실행하라는 뜻이다.

단점이 있다면, 사용자 인터럽트를 받을때 까지 계속 실행된다는 것이다. 즉, 중지는 사용자가 직접 해야한다는 뜻.

mdadm spare disk 제거

내 md0의 구성(아래).

# mdadm -D /dev/md0
/dev/md0:
Version : 01.02
Creation Time : Tue Nov 29 21:22:23 2011
Raid Level : raid1
Array Size : 488382841 (465.76 GiB 500.10 GB)
Used Dev Size : 976765682 (931.52 GiB 1000.21 GB)
Raid Devices : 2
Total Devices : 3
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Mon Mar 19 23:31:26 2012
State : clean
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1

Name : fox:0 (local to host fox)
UUID : 4c2ddcae:30672ec0:f6065242:f4702e40
Events : 46

Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

2 8 49 – spare /dev/sdd1

1. 불행의시작!

md0의 spare 디스크가 제대로 작동하는지 테스트를 원하여, 아래 커맨드 수행후, 곧바로 Ctrl+c 눌러서 취소.

 # dd if=/dev/zero of=/dev/sdc1

이후, md0가 마운트되어 있는 곳에서 ls커맨드 수행시 리스트가 보이지 않음.   ==> 의도한 결과가 아님.

파티션 정보가 삭제된 sdc1과 sdb1이 동기화되어, md0의 파티션정보도 같이 삭제된듯.(이건 추측).

2. spare disk 제거

일단, spare디스크를 md0로 부터 제거하여, 화일을 백업받으려고 시도함.

#mdadm –remove /dev/md0 /dev/sdd1

#  mdadm -D /dev/md0

Number Major Minor RaidDevice State

0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1

제거한 디스크(/dev/sdd1)을 /mnt에 마운트하려고 시도했으나 에러 발생.

# mount /dev/sdd1 /mnt
mount: unknown filesystem type ‘linux_raid_member’

추측컨데, sdd1의 화일시스템을 만들지 않아서 발생하는 문제로 보여, 화일시스템을 생성함.

# mkfs.ext3 /dev/sdd1

# mount /dev/sdd1 /mnt

#df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/fox-root 129G 25G 98G 21% /
none 4.0G 248K 4.0G 1% /dev
none 4.0G 0 4.0G 0% /dev/shm
none 4.0G 96K 4.0G 1% /var/run
none 4.0G 0 4.0G 0% /var/lock
none 4.0G 0 4.0G 0% /lib/init/rw
/dev/sda1 228M 18M 199M 8% /boot
/dev/md0 459G 153G 283G 36% /home2
/dev/sdd1 459G 199M 435G 1% /mnt

일단 화일 /mnt에 /home2의 화일을 백업. (ls로 /home2의 목록은 보이지 않으나, 알고있는 디렉토리로 이동하면, ls로 목록 확인 가능. dd 커맨드 실행후 곧 취소하여 모두 삭제되지는 않은듯 하다.)

 

oracle filesystem full

발생한 문제

hpux, oracle 9i 상에서,

/oracle filesystem full

1. trace 화일(*.trc) 삭제

2. cdump 화일 (core) 삭제

이후, instance는 정상 실행되나, 어플리케이션에서, temporary tablespace를 사용할 수 없다는 메시지 발생

정확한 에러 메시지는 확인하지 못하였으나,

SQL> select tablespace_name, sum(bytes)/1024/1024 mb
f rom dba_temp_files
group by tablespace_name;

TABLESPACE_NAME                                                      MB
———————————————————— ———-
TEMP

SQL> select ss.tablespace_name,sum((ss.used_blocks*ts.blocksize))/1024/1024 mb
from gv$sort_segment ss, sys.ts$ ts
where ss.tablespace_name = ts.name
group by ss.tablespace_name;

TABLESPACE_NAME                                                        MB
————————————————————– ———-
TEMP                                                                    0

크기가 표시되지 않고 있음.

SQL> select name from  v$tempfile;

NAME
——————————————————————————–
/oracle/oradata/temp01.dbf

SQL> select file_name from dba_temp_files;

FILE_NAME
——————————————————————————–
/oracle/oradata/temp01.dbf

화일 존재.

instance를 재실행해도 마찬가지.

결국에, temporary tablespace를 offline 했다가 online했더니, 정상 작동.

temporary tablespace는 alter talbespace temp offline; 처럼 했을때 offline되지 않으므로,

SQL> alter database tempfile ‘/oracle/oradata/temp01.dbf’ offline;

SQL> alter database tempfile ‘/oracle/oradata/temp01.dbf’ online;

SQL> select tablespace_name, sum(bytes)/1024/1024 mb

from dba_temp_files

group by tablespace_name;

TABLESPACE_NAME                                                      MB

———————————————————— ———-

TEMP                                                               8590

 

 

kvm guest OS의 잡다한 설정

사용환경
OS: Ubuntu 11.04
CPU: Intel Xeon 3.7GHz x2 (4 core, 2 hyperthread per core)
RAM: 8GB
가상머신: KVM, Qemu
설정화일: /etc/libvirt/qemu/guest_os_name.xml
공통사항: 설정화일 수정후 libvirtd 재실행 할것.

1. 의외로 별거 아닌데 오랜 시간이 걸렸던, 게스트 OS의 그래픽 해상도 설정 문제.
guest OS를 설치하면(설치할때 옵션이 있는지는 모르겠다.)
보통 그래픽 해상도가 1024×768 까지밖에 지원되지 않는다. 설정(/etc/libvirt/qemu/guest_os_name.xml)을 확인해보면,

<video>
<model type=’vmvga‘ vram=’9216′ heads=’1′/>
<address type=’pci’ domain=’0×0000′ bus=’0×00′ slot=’0×02′ function=’0×0′/>

또는

<video>
<model type=’cirrus‘ vram=’9216′ heads=’1′/>
<address type=’pci’ domain=’0×0000′ bus=’0×00′ slot=’0×02′ function=’0×0′/>
</video>

이런 식으로 설정되어 있으며, 최대 해상도가 1024×768까지 설정됨을 확인할 수 있다. Linux계열이야 GUI를 많이 안쓰니까 상관없지만, windows 계열은 많이 불편하다. 이것 저것 확인해 보니 해상도를 높이는 방법은 의외로 간단했다.

<model type=’vga‘ vram=’9216′ heads=’1′/>

위쪽의 vmvga나 cirrus를 vga로 변경만 해주면된다.

2. CPU개수를 더 할당 하거나, 메모리를 더 할당할때.(물론, 반대도 가능하다).

<memory>1048576</memory>
<currentMemory>1048576</currentMemory>

위의 설정은 게스트 OS의 메모리가 1GB인 상태. 2GB로 늘리려면,

<memory>2097152</memory>
<currentMemory>2097152</currentMemory>

위처럼 변경해주면 해결.
게스트 OS의 속도가 좀 느리다는 생각이 들면, CPU를 더 할당해본다.

<vcpu>1</vcpu>

위의 항목을 찾아서,

<vcpu>2</vcpu>

처럼 바꿔준다.

3. Guest OS의 이름을 잘못줬다!!!(solaris 를 soalris로 잘못줬을경우)
물론, 그냥 써도 된다. 하지만 왠지 그냥 쓰고 싶지는 않다.

<name>soalris</name>
<source file=’/home2/VM2/soalris.vimg’/>

먼저,

<name>solaris</name>

로 변경한다. 두번째 줄은 선택사항이다. 이미지화일의 이름도 생성시 잘못들어갔다면, 역시 바꿔주면된다. 물론, 바꿔준후 원래 화일(soalris.vimg)의 이름을 solaris.vimg 로 바꿔주면 된다. 귀찮으면, 그냥 써도 된다.

4. Guest OS에 할당한 디스크가 너무 작다! 가상디스크를 추가하려면?
참고문서: http://itsignals.cascadia.com.au/?p=28

4.1. 실행중인 guest OS(xpsp2)를 중지시키고, 이미지화일을 백업해둔다.

4.2. 증가시킬만큼(여기서는 10GB) 아래 커맨드로 이미지화일을 생성한다.

# qemu-img create -f raw add-disk.raw 10g
Formatting ‘add-disk.raw’, fmt=raw size=10737418240

4.3. 두 화일을 합쳐서 더 큰 화일로 만든다. 시간이 좀 걸리므로 참고 기다리자.
여기서, windows.vimg는 원래 guestOS의 화일, add-disk.raw는 추가로 만든 화일, xp.vimg는 새로 만들어지는 화일.

cat windows.vimg add-disk.raw >> xp.vimg
#ls -alh
-rwxr-xr-x 1 root root 12G Feb 28 11:07 windows.vimg
-rw-r–r– 1 root root 10G Feb 28 11:58 add-disk.raw
-rwxr-xr-x 1 libvirt-qemu kvm 22G Feb 28 12:16 xp.vimg

4.4 생성한 xp.vimg를 사용하도록 xml화일을 수정해도 되고, 화일 이름을 변경해도 된다. 나는 xml화일에서 windows.vimg 를 xp.vimg로 수정하였다.

4.5. guestOS 를 실행하여 윈도우xp의 디스크관리에 들어가보면, 추가된 10GB가 보인다. 이것을 파티션잡고 포맷하여 사용하면 된다.

마지막으로, qemu-img resize windows.img +10GB 하면 된다고 위 참고문서에 누군가가 답글을 달아 놓은것을 보았다. 쉽게 되는것을 너무 어렵게 했나? ;ㅡㅡ

sun v480 error message…

처음 에러 메시지
Dec 13 06:47:11 solaris9 picld[60]: [ID 679711 daemon.error] NOTICE: Device FAN_TRAY_0 (CPU1_FAN) OK
Dec 13 06:47:11 solaris9 picld[60]: [ID 114988 daemon.error] FSP_GEN_FAULT_LED has turned OFF
Dec 13 08:22:26 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU1_FAN) failure detected
Dec 13 08:22:28 solaris9 picld[60]: [ID 691918 daemon.error] FSP_GEN_FAULT_LED has turned ON
Dec 13 08:22:41 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU1_FAN) failure detected
Dec 13 08:22:57 solaris9 picld[60]: [ID 679711 daemon.error] NOTICE: Device FAN_TRAY_0 (CPU1_FAN) OK
Dec 13 08:22:58 solaris9 picld[60]: [ID 114988 daemon.error] FSP_GEN_FAULT_LED has turned OFF

FAN TRAY를 교체하려고 준비했을때는 아래와 같이 바뀌었음.
Jan 19 15:24:11 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU0_FAN) failure detected
Jan 19 15:24:11 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU1_FAN) failure detected
Jan 19 15:24:11 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU2_FAN) failure detected
Jan 19 15:24:26 solaris9 picld[60]: [ID 679711 daemon.error] NOTICE: Device FAN_TRAY_0 (CPU0_FAN) OK
Jan 19 15:24:26 solaris9 picld[60]: [ID 679711 daemon.error] NOTICE: Device FAN_TRAY_0 (CPU1_FAN) OK
Jan 19 15:24:26 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU2_FAN) failure detected
Jan 19 15:26:41 solaris9 last message repeated 9 times
FAN TRAY를 교체하고 (이때 FAN Tray의 fan 3개는 모두 정상적으로 돌고 있었음.) 재부팅했을때 아래와 같음.
Jan 19 15:38:59 solaris9 ntpdate[234]: [ID 558275 daemon.notice] adjust time server 10.100.88.42 offset 0.266879 sec
Jan 19 15:39:02 solaris9 xntpd[292]: [ID 702911 daemon.notice] xntpd 3-5.93e Mon Sep 20 15:47:11 PDT 1999 (1)
Jan 19 15:39:02 solaris9 xntpd[292]: [ID 301315 daemon.notice] tickadj = 5, tick = 10000, tvu_maxslew = 495, est. hz = 100
Jan 19 15:39:02 solaris9 xntpd[292]: [ID 798731 daemon.notice] using kernel phase-lock loop 0041
Jan 19 15:39:02 solaris9 last message repeated 1 time
Jan 19 15:39:04 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU2_FAN) failure detected
Jan 19 15:39:05 solaris9 picld[60]: [ID 691918 daemon.error] FSP_GEN_FAULT_LED has turned ON
Jan 19 15:39:19 solaris9 picld[60]: [ID 562987 daemon.error] WARNING: FAN_TRAY_0 (CPU2_FAN) failure detected
Jan 19 15:40:05 solaris9 last message repeated 3 times

일단 팬트레이를 교체해도 문제가 해결되지 않아서 더 찾아보니, picld 버그일 가능성이 있다고 한다. 패치를 찾아서 시도해 보아야 할 상황인데, 패치를 받기가 힘들다. sun이 오라클에 합병당해서

ubuntu 서버에 networker client 설치하기

넷워커는 공식적으로 데비안패키지를 지원하지 않는다. 이건 넷백업도 마찬가지로 생각되지만,
아무튼, rpm패키지를 deb패키지로 변환해주는 alien 패키지를 설치하여 넷워크 클라이언트를 설치할 수 있다.
설치는 아래 사이트를 참고 했다.
http://blog.mc-thias.org/?title=networker-7-5-1-client-on-debian-gnu-linux-5-0-ubuntu-9-04&more=1&c=1&tb=1&pb=1

순서는…
1. 우분투 서버에 alien 패키지 설치.
2. alien 커맨드로 rpm 패키지를 deb 패키지로 변환.
3. 패키지 설치
4. nsrexecd 를 실행하여 /nsr 디렉토리가 생성되게 한다. 그후 kill로 nsrexecd를 중지시킨다.
5. /nsr/res/servers화일을 생성한다고 하는데, 이 부분은 필요 없다. 대신,
/etc/hosts 화일에 넷워커 서버와 서버에 설정된 클라이언트의를 설정해 준다.
6. 레드햇 계열에서는 자동으로 생성되는 시작 스크립트 /etc/init.d/networker 가 우분투에서는 설치되지 않으므로,
기존에 설치된 화일을 복사하여 사용한다. 없는 경우에는, 아래 스크립트를 사용하면 된다.
#! /bin/sh
# Copyright (c) 1990-2010, EMC Corporation
# All rights reserved.
# chkconfig: 35 95 05
# description: EMC Networker. A backup and restoration software package.
### BEGIN INIT INFO
# Provides: networker
# Required-Start: syslog network
# Required-Stop: syslog network
# X-UnitedLinux-Should-Start: portmap
# Should-Start: portmap
# Default-Start: 3 5
# Default-Stop: 0 1 2 6
# Description: EMC Networker. A backup and restoration software package.
### END INIT INFO
case $1 in
start)
(echo ‘starting NetWorker daemons:’) > /dev/console
LD_LIBRARY_PATH=/usr/lib/nsr:$LD_LIBRARY_PATH
export LD_LIBRARY_PATH
if [ -f /usr/sbin/nsrexecd ]; then
if [ -f /usr/sbin/NetWorker.clustersvr ]; then
if [ -f /nsr.NetWorker.local -o -h /nsr.NetWorker.local ]; then
if [ -h /nsr ]; then
rm -f /nsr
ln -s /nsr.NetWorker.local /nsr
fi
fi
fi
(/usr/sbin/nsrexecd) > /dev/console 2>&1
(echo ‘ nsrexecd’) > /dev/console
fi
if [ -f /usr/sbin/lgtolmd ]; then
(/usr/sbin/lgtolmd -p /nsr/lic -n 1) > /dev/console 2>&1
(echo ‘ lgtolmd’) > /dev/console
fi
if [ -f /usr/sbin/nsrd -a \
! -f /usr/sbin/NetWorker.clustersvr ]; then
(/usr/sbin/nsrd) > /dev/console 2>&1
(echo ‘ nsrd’) > /dev/console
fi
;;
stop)
(echo ‘stopping NetWorker daemons:’) > /dev/console
if [ -f /usr/sbin/nsr_shutdown ]; then
if [ -f /usr/sbin/NetWorker.clustersvr ]; then
(/usr/sbin/nsr_shutdown -q) > /dev/console 2>&1
(echo ‘ nsr_shutdown -q’) > /dev/console
else
(/usr/sbin/nsr_shutdown -q) > /dev/console 2>&1
(echo ‘ nsr_shutdown -q’) > /dev/console
fi
fi
;;
status)
if [ -f /usr/sbin/nsr_shutdown ]; then
/usr/sbin/nsr_shutdown -l
fi
;;
*)
echo “usage: `basename $0` {start|stop|status}”
;;
esac
7. update-rc.d networker default 커맨드로 시작 스크립트에 등록한다.

CentOS 5.7 KVM guest os network interface 변경

CentOS 5.7에 KVM 설치하면 ubuntu와는 다르게 가상 네트워크 인터페이스 virbr0가 생긴다. virbr0는 guest OS가 NAT를 사용하게 하는데, 호스트OS와 같은 네트워크를 사용하려면, 이 virbr0를 사용하지 않으면 된다.
virsh # net-list
virsh # net-destroy default
# /etc/init.d/libvirtd restart
이렇게 하면 virbr0는 사라진다. 하지만 게스트 OS의 네트워크쪽에 문제가 생겨서 게스트가 실행되지 않는 현상이 발생
윈도우는 디바이스를 다시 잡지만 리눅스는 아래 에러 발생
virsh # start ubuntu
error: Failed to start domain ubuntu
error: Network not found: no network with matching name ‘default’
/etc/libvirt/qemu/ubuntu.xml 화일에서
<interface type=’network‘>
<mac address=’54:52:00:5e:53:d2′/>
<source network=’default‘/>
</interface>
부분을
<interface type=’bridge‘>
<mac address=’54:52:00:5e:53:d2′/>
<source bridge=’br0′/>
</interface>
로 수정 하면 잘됨
아래는 다시 NAT 로 사용하고자 할 때 .
virsh # net-list –all
Name State Autostart
—————————————–
virsh # net-define /usr/share/libvirt/networks/default.xml
Network default defined from /usr/share/libvirt/networks/default.xml
virsh # net-autostart default
Network default marked as autostarted
virsh # net-start default
Network default started
게스트 OS의 network를 NAT에서 bridge로 바꾸니 매우 느린 현상도 없어졌음.

hpux 디스크 추가.

HPUX 디스크 추가.(1개를 통채로 잡는방법)

pvcreate -f /dev/rdisk/disk39
cd /dev
mkdir vg05
cd vg05
mknod group c 64 0×050000
vgcreate -s 32 /dev/vg05 /dev/disk/disk39
vgdisplay vg05
lvcreate -l `vgdisplay Free PE값’ /dev/vg05
newfs -F vxfs -o largefiles /dev/vg05/rlvol1
# strings /etc/lvmtab
/dev/vg00
/dev/disk/disk1_p2
/dev/vg02
/dev/disk/disk68
/dev/vg03
/dev/disk/disk42
/dev/vg01
/dev/disk/disk41
/dev/vg04
/dev/disk/disk40
/dev/vg05
/dev/disk/disk39
/dev/vg06
/dev/disk/disk38
# bdf
Filesystem kbytes used avail %used Mounted on
/dev/vg00/lvol3 115048448 14713576 99557352 13% /
/dev/vg00/lvol1 2097152 192504 1889856 9% /stand
/dev/vg02/lvol1 24760320 3563645 19872682 15% /oracle
/dev/vg01/lvol1 517963776 193597 485409550 0% /archive
/dev/vg01/lvol1 517963776 193597 485409550 0% /archive
/dev/vg03/lvol1 517963776 3965111 481873868 1% /oradata/data1
/dev/vg04/lvol1 517963776 193597 485409550 0% /oradata/data2
/dev/vg05/lvol1 517963776 193597 485409550 0% /oradata/data3
/dev/vg06/lvol1 517963776 193597 485409550 0% /oradata/data4
볼륨 삭제.(vg01을 삭제하고자 할때)
vgchange -a n vg01
vgexport vg01

hpux 오라클 .profile 화일

umask 022
export ORACLE_BASE=/oracle
export ORACLE_HOME=$ORACLE_BASE/product/10gr2
export ORACLE_SID=orcl
export TMPDIR=$ORACLE_BASE/tmp
export TNS_ADMIN=$ORACLE_HOME/network/admin
export ORA_NLS10=$ORACLE_HOME/nls/data
export NLS_LANG=American_America.KO16KSC5601
export NLS_DATE_FORMAT=’YYYY-MM-DD HH24:MI:SS’
export PATH=$ORACLE_HOME/bin:/usr/bin:/sbin:/usr/ccs/bin:/usr/bin/X11:$PATH
export LD_LIBRARY_PATH=$ORACLE_HOME/lib:$ORACLE_HOME/lib32:/lib:/usr/lib:$ORACLE_HOME/rdbms/lib
export SHLIB_PATH=$ORACLE_HOME/lib:$ORACLE_HOME/lib32:/usr/lib
export ORACLE_HOSTNAME=`hostname`
export PS1=`hostname`:’${PWD}/$ ‘
alias ls=’ls -F’