- ubuntu12.04环境下使用kvm ioctl接口实现最简单的虚拟机
- Ubuntu 通过无线网络安装Ubuntu Server启动系统后连接无线网络的方法
- 在Ubuntu上搭建网桥的方法
- ubuntu 虚拟机上网方式及相关配置详解
CFSDN坚持开源创造价值,我们致力于搭建一个资源共享平台,让每一个IT人在这里找到属于你的精彩世界.
这篇CFSDN的博客文章Solaris9系统上安装Oracle10g RAC由作者收集整理,如果你对这篇文章有兴趣,记得点赞哟.
1.Oracle官方安装文档中(下文中的doc 2,doc 3),有多处错误。最新的Release Notes(August 2006) 。
更正了一些,但还有不少未得到更正.
2.文中的三个脚本,在使用之前请仔阅读。如不当使用导致系统损坏与本文作者无关.
3.本文所用的安装步骤尽可能依照Oracle的官方安装文档。但有一处“Configuring UDP parameters”不得不改用其他 。
方法,因为Oracle官方安装文档中讲的方法不起作用.
Part1Do the Pre-installation Tasks 。
This is a guide for installing Oracle 10g RAC with Oracle clusterware on Solaris9SPARC 64-Bit 。
Enterprise Edition. 。
Followed intrusions in these doc
1. Oracle Database Release Notes 。
10g Release 2 (10.2) for Solaris Operating System (SPARC 64-Bit)Part Number B15689-03 。
2. Oracle Clusterware and Oracle Real Application Clusters Installation Guide 。
10g Release 2 (10.2) for Solaris Operating SystemPart Number B14205-06 。
3. Oracle Database Installation Guide 。
10g Release 2 (10.2) for Solaris Operating System (SPARC 64-Bit)Part Number B15690-02 。
The Hardware
Two Ultra-2 Enterprise servers. cpu:300MHz x 2, memory:1024mb. storage:Sun A1010 disk array 。
A Sun fiber channel host adapter(X1057A) is installed on each node to connect to the A1010 。
with a fiber cable. A Sun multi-pack is connected to one of the Ultra-2 servers. 。
A 10BT network card is installed on each node for the private network. 。
A crossover network cable connects the two 10BT network cards. 。
(Oracle10 does not support the crossover network cable, according to doc 2) 。
A SBUS Frame Buffer (X359A) is installed on both nodes. 。
Because the hardware is barely meet the requirement, it is only good for testing. 。
The OS
Install Solaris9 4/04(64-Bit) on both nodes, and install the latest patch cluster. 。
Configure Tcpwrappers and NTP the two nodes. Solaris9 includes these two packages. 。
Install openssh-4.3p2-sol9-sparc-local on the two nodes. 。
Secure and harden the systems by following some procedures in the doc 。
SANS Solaris Security Step by Step Version 2.0
http://www.depts.ttu.edu/tosm/se ... actices/solaris.pdf 。
The Media for Installation
Oracle Database 10g Release2 10.2.0.1.0 for Solaris SPARC 64-bit Enterprise Edition 。
If possible, download 10.2.0.2 and up, so you will install less patches afterwards. 。
I have to copy the two DVDs to local hard disks, since the Ultra-2 does not have a DVD drive. 。
You might want to configure a NFS server on node1 and an auto client on node2.
so you can run the Cluster Verification Utility on node2 as well. 。
The steps of the installation/configuration
1. Do the pre-installation tasks 。
2. Install Oracle clusterweare 。
3. Test/verify the clusterware 。
4. Install Oracle Database software only with RAC. 。
5. Configure ASM and make sure it is running on both nodes. 。
6. Create a RAC database with DBCA. 。
Disk & shared storage configuration
---------------------------------------------------------------------------------------------------------- 。
packages required real type mount point partition 。
---------------------------------------------------------------------------------------------------------- 。
DB software 4GB 4GB UFS /u01/app/oracle c0t1d0s0 (not shared) 。
DB datafiles1.2GB 12GB ASM c3t0d2s7,c3t1d2s7,c3t3d2s7 。
OCR 100MB 128MBraw c3t0d4s6,c3t2d4s6,c3t4d4s6 。
Voting disk 20MB 32MB raw c3t0d4s7,c3t2d4s7,c3t4d4s7 。
swap 400MB 1GB c0t0d0s1 。
---------------------------------------------------------------------------------------------------------- 。
The clusterware will be installed in it's own home directory on node1. 。
The redundancy level of OCR and voting disk will be "normal". 。
Because this is for testing only, no space allocated for flash recovery and log archiving. 。
Pre-Installation Tasks 。
A. 。
Network configuration 。
This part is done manually. Here is the files on node1 as an example
/etc/hosts 。
127.0.0.1 localhost 。
# node1 。
192.168.1.64 rac1rac1.abc.com loghost 。
10.10.10.1 rac1-priv rac1-priv.abc.com 。
192.168.1.69 rac1-viprac1-vip.abc.com 。
# node2 。
192.168.1.77 rac2 rac2.abc.com 。
10.10.10.2 rac2-priv rac2-priv.abc.com 。
192.168.1.76 rac2-viprac2-vip.abc.com 。
/etc/inet/netmasks 。
192.168.0.0 255.255.255.0 。
10.10.10.0 255.255.255.0 。
/etc/hostname.hme0 。
rac1 。
/etc/hostname.le0 。
10.10.10.1 。
/etc/defaultrouter 。
192.168.1.1 。
/etc/hosts.allow 。
ALL: 192.168.1. 127.0.0.1 10. 。
Run these commands to bring up the network interface le0 and test it. 。
# chown root:root /etc/hostname.le0 。
# ifconfig le0 plumb 。
# ifconfig le0 10.10.10.1 netmask 255.255.255.0 up 。
# ifconfig -a 。
lo0: flags=1000849 mtu 8232 index 1 。
inet 127.0.0.1 netmask ff000000 。
hme0: flags=1000843 mtu 1500 index 2 。
inet 192.168.1.64 netmask ffffff00 broadcast 192.168.1.255 。
ether 8:0:20:82:47:d4 。
le0: flags=1000843 mtu 1500 index 3 。
inet 10.10.10.1 netmask ffffff00 broadcast 10.10.10.255 。
ether 8:0:20:82:47:d4 。
# 。
To check the network setup, run the CVU now or run it after all tasks is done. 。
The command is
/ora10.dvd2/clusterware/cluvfy/runcluvfy.sh comp nodecon -n rac1,rac2 -verbose 。
B. 。
Other pre-installation tasks except Configuring SSH 。
A shell script is created for doing most of the tasks: pre.install.ora10.conf.sh 。
The script will do the pre-installation tasks of the clusterware and most of the 。
pre-installation tasks of the Oracle database. It is only to run on a new installation 。
of a Solaris 9 system. Run this script on both nodes as root. 。
pre.install.ora10.conf.sh 。
------------------------------------------------------------ 。
#!/bin/sh 。
# Pre-installation conf. on Solaris9 for installing Oracle 10g R2 with RAC. 。
# Written bysusbin@chinaunix.net072406 。
sc_name=pre.install.ora10.conf.sh 。
ORACLE_BASE=/u01/app/oracle;export ORACLE_BASE 。
CRS_BASE=/u01/crs/oracle/product/10;export CRS_BASE 。
ORACLE_HOME=${CRS_BASE}/app;export ORACLE_HOME 。
PATH=$PATH:/usr/ccs/bin:/usr/local/bin;export PATH 。
echo =============================================================== 。
echo $sc_name started at `date`. 。
echo " " 。
echo " " 。
echo "==============================================" 。
echo "Creating Required Operating System Groups and Users" 。
echo " " 。
echo "Creating groups: dba, osdba, and oinstall." 。
groupadd -g 201 dba 。
groupadd -g 202 oinstall 。
groupadd -g 203 osdba 。
echo "Check them with the command: grep 20 /etc/group" 。
grep 20 /etc/group 。
echo " " 。
echo "Check if \"nobody\" exists on the system with: id nobody" 。
echo "" 。
id -a nobody 。
echo " " 。
echo "Creating the directory \"ORACLE_BASE\", which is set to $ORACLE_BASE" 。
mkdir -p $ORACLE_BASE 。
echo "Check it with the command: ls -l /u01/app " 。
echo "" 。
ls -l /u01/app 。
echo " " 。
echo "Creating a user account \"oracle\" and set the password of it:" 。
useradd -u 1005 -g 202 -G 201,203 -d $ORACLE_BASE -m -s /bin/ksh oracle 。
echo "Check the line in /etc/passwd with: grep oracle /etc/passwd" 。
grep oracle /etc/passwd 。
echo "Set the password of account oracle:" 。
passwd -r files oracle 。
chown -R oracleinstall ${ORACLE_BASE} 。
chmod -R 775 $ORACLE_BASE 。
echo " " 。
echo "Check if the oracle account has required groups with: id -a oracle " 。
echo " " 。
id -a oracle 。
echo " " 。
echo " " 。
echo "==============================================" 。
echo "Configuring Kernel Parameters" 。
echo " " 。
echo "Save a copy of /etc/system and append eleven lines to it." 。
echo "Need to reboot the system so the new parameters can take effect." 。
cp -p /etc/system /etc/system.orig 。
chmod 644 /etc/system 。
/bin/cat << EOF >> /etc/system 。
set noexec_user_stack=1 。
set semsys:seminfo_semmni=100 。
set semsys:seminfo_semmns=1024 。
set semsys:seminfo_semmsl=256 。
set semsys:seminfo_semvmx=32767 。
set shmsys:shminfo_shmmax=4294967295 。
set shmsys:shminfo_shmmin=1 。
set shmsys:shminfo_shmmni=100 。
set shmsys:shminfo_shmseg=10 。
EOF 。
echo " " 。
echo "Check /etc/system with the command: tail -11 /etc/system" 。
tail -11 /etc/system 。
echo " " 。
echo " " 。
echo "==============================================" 。
echo "Identifying Required Software Directories" 。
echo "ORACLE_BASE is set to $ORACLE_BASE, and the size of it should be 3GB or bigger." 。
echo "Check it with the command: $ df -h $ORACLE_BASE" 。
echo " " 。
mount /dev/dsk/c0t1d0s0 $ORACLE_BASE 。
df -h $ORACLE_BASE 。
echo " " 。
echo " " 。
echo "==============================================" 。
echo "Configuring the Oracle User's Environment" 。
/bin/cat << EOF > ${ORACLE_BASE}/.profile 。
if [ -t 0 ]; then 。
stty intr ^C 。
fi 。
umask 022 。
ORACLE_BASE=/u01/app/oracle;export ORACLE_BASE 。
# for crs 。
CRS_BASE=/u01/crs/oracle/product/10;export CRS_BASE 。
ORACLE_HOME=${CRS_BASE}/app;export ORACLE_HOME 。
PATH=$PATH:/usr/local/bin:.:/bin:/usr/sbin:/usr/ucb;export PATH 。
# end of crs 。
# for oraDB 。
#ORACLE_SID=rac1; export ORACLE_SID 。
# end of oraDB 。
EDITOR=vi;export EDITOR 。
EXINIT='set nu showmode';export EXINIT 。
EOF 。
chown -R oracleinstall ${ORACLE_BASE} 。
echo " " 。
echo " " 。
echo "==============================================" 。
echo "Configuring oracle clusterware home directory, which is set to" 。
echo " ${CRS_BASE}/crs " 。
mkdir -p ${CRS_BASE}/crs 。
chown -R rootinstall /u01/crs 。
chmod -R 775 /u01/crs/oracle 。
echo " " 。
ls -l $CRS_BASE 。
echo "" 。
echo "==============================================" 。
echo "Configuring UDP parameters by creating a S70ndd and put it under" 。
echo "/etc/rc2.d to set the two values of ndd to 65536." 。
echo " " 。
/bin/cat << EOF > /etc/rc2.d/S70ndd 。
#!/sbin/sh 。
PATH=/usr/sbin;export PATH 。
ndd -set /dev/udp udp_recv_hiwat 65536 。
ndd -set /dev/udp udp_xmit_hiwat 65536 。
exit 0 。
EOF 。
chown root:sys /etc/rc2.d/S70ndd 。
chmod 755 /etc/rc2.d/S70ndd 。
echo "Check the S70ndd with \"ls -l S70ndd\" and \"cat S70ndd\" " 。
echo " " 。
ls -l /etc/rc2.d/S70ndd 。
echo " " 。
cat /etc/rc2.d/S70ndd 。
echo " " 。
echo "==============================================" 。
echo "Verify that the /etc/hosts file is used for name resolution" 。
echo "with the command: grep hosts: /etc/nsswitch.conf | grep files " 。
echo " " 。
grep hosts: /etc/nsswitch.conf | grep files 。
echo "" 。
echo "==============================================" 。
echo "Verify that the host name has been set with: hostname" 。
echo " " 。
hostname 。
echo "" 。
echo "==============================================" 。
echo "Verify that the domain name has NOT been set with: domainname" 。
echo " " 。
domainname 。
echo "" 。
echo "==============================================" 。
echo "Verify that the hosts file contains the fully qualified host name" 。
echo "with the command: grep `eval hostname` /etc/hosts " 。
echo " " 。
grep `eval hostname` /etc/hosts 。
echo " " 。
echo "The pre-installation configuring tasks is done on this node." 。
echo "Reboot the system so the new parameters can take effect." 。
echo " " 。
echo $sc_name ended at `date`. 。
echo =============================================================== 。
------------------------------------------------------------ 。
Check the current values of Kernel Parameters after rebooted the system. 。
Login as user oracle, and then run the commands on all nodes
/usr/sbin/sysdef | grep SEM 。
/usr/sbin/sysdef | grep SHM 。
Check the env variables of oracle account for installing the Clusterware
$ env | grep ORACLE 。
ORACLE_BASE=/u01/app/oracle 。
ORACLE_HOME=/u01/crs/oracle/product/10/crs 。
$ 。
C. 。
Configuring SSH on All Cluster Nodes 。
The ssh of Solaris9 is a Sun_SSH_1.1, which has a bug. Here is the discussion about it
http://forum.sun.com/jive/thread.jspa?threadID=94357 。
The instructions of configuring SSH in doc 2 is based on OpenSSH V.3.x. The doc 2 also 。
points out that Oracle NetCA and DBCA require scp and ssh to be located in the path 。
/usr/local/bin. For these reasons, I choose to install openssh-4.3p2-sol9-sparc-local 。
on the two nodes. Also need to set the value of "StrictModes" to "no" in 。
/usr/local/etc/sshd_config, or the ssh will prompt for a pasword even all configuration 。
tasks of shh has done. 。
Two scripts are created for configuring ssh. Here is the instruction on how to run them
1. Put ssh.conf1.ksh under the home directory of user oracle on all nodes. 。
2. Run ssh.conf1.ksh on node1. 。
3. Make changes of ssh.conf1.ksh on node2 and then run it. 。
4. Run ssh.conf2.ksh on node1. 。
5. Run command on all nodes: chmod 600 .ssh/authorized_keys 。
6. Test the configuration on all nodes. The command is: ssh node1 [node2] date 。
ssh.conf1.ksh 。
------------------------------------------------------------ 。
#!/bin/ksh 。
# Run this script as user oracle on node1, and then on node2. 。
# Make sure the package ssh is installed under /usr/local. 。
# Written bysusbin@chinaunix.net 071906 。
# Put the hostname of the two nodes below 。
node1=rac1 。
node2=rac2 。
sc_name=ssh.conf1.ksh 。
home_dir=/u01/app/oracle 。
key_dir=${home_dir}/.ssh 。
ssh_base=/usr/local/bin 。
echo ================================================================ 。
echo $sc_name started at `date`. 。
echo " " 。
echo "You need to run this script on $node1 and $node2." 。
echo "Make changes on this script before you run it on $node2." 。
echo " " 。
/bin/rm -r $key_dir 。
/bin/mkdir $key_dir 。
/bin/chmod 700 $key_dir 。
${ssh_base}/ssh-keygen -t rsa 。
echo " " 。
${ssh_base}/ssh-keygen -t dsa 。
/bin/touch ${key_dir}/authorized_keys 。
echo " " 。
echo "Now save the keys into the file authorized_keys." 。
echo " " 。
## comment out the lines when you run it on node2. 。
${ssh_base}/ssh $node1 cat ${key_dir}/id_rsa.pub >> ${key_dir}/authorized_keys 。
${ssh_base}/ssh $node1 cat ${key_dir}/id_dsa.pub >> ${key_dir}/authorized_keys 。
## end of the lines 。
## uncomment the lines below when you run it on node2. 。
#${ssh_base}/ssh $node2 cat ${key_dir}/id_rsa.pub >> ${key_dir}/authorized_keys 。
#${ssh_base}/ssh $node2 cat ${key_dir}/id_dsa.pub >> ${key_dir}/authorized_keys 。
#${ssh_base}/ssh $node1 cat ${key_dir}/id_rsa.pub >> ${key_dir}/authorized_keys 。
#${ssh_base}/ssh $node1 cat ${key_dir}/id_dsa.pub >> ${key_dir}/authorized_keys 。
#${ssh_base}/scp ${key_dir}/authorized_keys ${node1}{key_dir} 。
## end of the lines 。
echo " " 。
echo "It is done." 。
echo " " 。
echo $sc_name ended at `date`. 。
echo ============================================================== 。
ssh.conf2.ksh 。
------------------------------------------------------------ 。
#!/bin/ksh 。
# Run this script after you have run ssh.conf1.ksh on both nodes. 。
# Run this script as user oracle on node1 only. 。
# Written bysusbin@chinaunix.net 071906 。
# Put the hostname of the two nodes below 。
node1=rac1 。
node2=rac2 。
sc_name=ssh.conf2.ksh 。
home_dir=/u01/app/oracle 。
key_dir=${home_dir}/.ssh 。
ssh_base=/usr/local/bin 。
echo =========================================================== 。
echo $sc_name started at `date`. 。
echo " " 。
echo "You only need to run this script on $node1." 。
echo " " 。
${ssh_base}/ssh $node2 cat ${key_dir}/id_rsa.pub >> ${key_dir}/authorized_keys 。
${ssh_base}/ssh $node2 cat ${key_dir}/id_dsa.pub >> ${key_dir}/authorized_keys 。
${ssh_base}/scp ${key_dir}/authorized_keys ${node2}{key_dir} 。
echo " " 。
echo "You need to run command \"/bin/chmod 600 ${key_dir}/authorized_keys\" " 。
echo "on all nodes and then test the ssh configuration with command " 。
echo " \"ssh node1 [node2] date \" " 。
echo " " 。
echo $sc_name ended at `date`. 。
echo ============================================================ 。
echo " " 。
exec ${ssh_base}/ssh-agent $SHELL 。
${ssh_base}/ssh-add 。
## The command "exec ${ssh_base}/ssh-agent $SHELL" will spawn a sub-shell. 。
## and the rest of your login session will runs within this subshell. 。
## end of ssh.conf2.ksh 。
--------------------------------------------------------------- 。
D. 。
Configuring clusterware and database storage (ASM installation) 。
After installed the host adapter(X1057A) on both nodes, run command "format" on them 。
to make sure the shared disks have the same controller number on both nodes. 。
Format the disks on node1. For disks used by ASM, create a single whole-disk slice.
starting at cylinder 1, or the ASM will NOT recognize these disks as ASM candidates. 。
# format 。
... 。
selecting c3t0d2 。
[disk formatted] 。
format> 。
... 。
Free Hog partition[6]? 7 。
Enter size of partition '0' [0b, 0c, 0.00mb, 0.00gb]: 1c 。
Enter size of partition '1' [0b, 0c, 0.00mb, 0.00gb]: 0 。
Enter size of partition '3' [0b, 0c, 0.00mb, 0.00gb]: 0 。
Enter size of partition '4' [0b, 0c, 0.00mb, 0.00gb]: 0 。
Enter size of partition '5' [0b, 0c, 0.00mb, 0.00gb]: 0 。
Enter size of partition '6' [0b, 0c, 0.00mb, 0.00gb]: 0 。
partition> p 。
Current partition table (sun4g)
Total disk cylinders available: 3880 + 2 (reserved cylinders) 。
Part Tag Flag Cylinders Size Blocks 。
0 unassigned wm 0 - 0 1.05MB (1/0/0) 2160 。
1 unassigned wu 0 0 (0/0/0) 0 。
2 backup wu 0 - 3879 4.00GB (3880/0/0) 8380800 。
3 unassigned wu 0 0 (0/0/0) 0 。
4 unassigned wu 0 0 (0/0/0) 0 。
5 unassigned wu 0 0 (0/0/0) 0 。
6 unassigned wm 0 0 (0/0/0) 0 。
7 unassigned wu 1 - 3879 4.00GB (3879/0/0) 8378640 。
partition> 。
Okay to make this the current partition table[yes]? yes 。
... 。
# 。
Copy the partition table from c3t0d2 to other disks. 。
# for disks in c3t1d2s0 c3t3d2s0 。
> do 。
> prtvtoc /dev/rdsk/c3t0d2s0 | fmthard -s - /dev/rdsk/$disks 。
> done 。
fmthard:New volume table of contents now in place. 。
fmthard:New volume table of contents now in place. 。
# 。
Format the disks for OCR and voting disks. It is a good idea to put them on sloce 3-7. 。
The slice 0 is not a good candidate. 。
# format 。
... 。
selecting c3t0d4 。
[disk formatted] 。
... 。
partition> p 。
Current partition table (sun2g)
Total disk cylinders available: 2733 + 2 (reserved cylinders) 。
Part Tag Flag Cylinders Size Blocks 。
0 unassigned wm 0 - 2515 1.82GB (2516/0/0) 3824320 。
1 unassigned wu 0 0 (0/0/0) 0 。
2 backup wu 0 - 2732 1.98GB (2733/0/0) 4154160 。
3 unassigned wu 0 0 (0/0/0) 0 。
4 unassigned wu 0 0 (0/0/0) 0 。
5 unassigned wu 0 0 (0/0/0) 0 。
6 unassigned wm 2516 - 2688 128.40MB (173/0/0) 262960 。
7 unassigned wu 2689 - 2732 32.66MB (44/0/0) 66880 。
partition> q 。
... 。
# 。
# prtvtoc /dev/rdsk/c3t0d4s0 | fmthard -s - /dev/rdsk/c3t2d4s2 。
fmthard:New volume table of contents now in place. 。
# prtvtoc /dev/rdsk/c3t0d4s0 | fmthard -s - /dev/rdsk/c3t4d4s2 。
fmthard:New volume table of contents now in place. 。
# 。
On all nodes, set the owner, group and permissions on the raw devices, which are the 。
slices for ASM, OCR and voting disks. 。
# cd / 。
# for rawdevs in c3t0d2s7,c3t1d2s7,c3t3d2s7 \ 。
> c3t0d4s6 c3t2d4s6 c3t4d4s6 c3t0d4s7 c3t2d4s7 c3t4d4s7 。
> do 。
> echo $rawdevs; chown oracle:dba /dev/rdsk/$rawdevs; chmod 660 /dev/rdsk/$rawdevs 。
> ls -l `ls -l /dev/rdsk/$rawdevs | awk -F" " '{ print $11 }'` 。
> done 。
c3t0d2s7 。
crw-rw---- 1 oracle dba 118, 63 Jul 25 10:54 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@1,2:h,raw 。
c3t1d2s7 。
crw-rw---- 1 oracle dba 118,127 Jul 21 12:55 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@3,0:h,raw 。
c3t3d2s7 。
crw-rw---- 1 oracle dba 118,143 Jul 25 10:55 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@3,2:h,raw 。
c3t0d4s6 。
crw-rw---- 1 oracle dba 118, 38 Aug9 12:07 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@0,4:g,raw 。
c3t2d4s6 。
crw-rw---- 1 oracle dba 118,118 Aug 16 10:21 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@2,4:g,raw 。
c3t4d4s6 。
crw-rw---- 1 oracle dba 118,198 Jul 25 10:55 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@4,4:g,raw 。
c3t0d4s7 。
crw-rw---- 1 oracle dba 118, 39 Aug 16 10:19 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@0,4:h,raw 。
c3t2d4s7 。
crw-rw---- 1 oracle dba 118,119 Aug 16 10:19 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@2,4:h,raw 。
c3t4d4s7 。
crw-rw---- 1 oracle dba 118,199 Aug 16 10:19 ../../devices/sbus@1f,0/SUNW,soc@0,0/SUNW,pln@a0000000,752ee9/ssd@4,4:h,raw 。
# 。
On node1, run CVU to check if all shared disks are available across all nodes. 。
$ cd /ora10.dvd2/clusterware/cluvfy 。
$ ./runcluvfy.sh comp ssa -n rac1,rac2 -s \ 。
> /dev/rdsk/c3t0d2s7,/dev/rdsk/c3t1d2s7,/dev/rdsk/c3t3d2s7\ 。
> /dev/rdsk/c3t0d4s6,/dev/rdsk/c3t2d4s6,/dev/rdsk/c3t4d4s6\ 。
> /dev/rdsk/c3t0d4s7,/dev/rdsk/c3t2d4s7,/dev/rdsk/c3t4d4s7 。
Verifying shared storage accessibility 。
Checking shared storage accessibility... 。
"/dev/rdsk/c3t0d2s7" is shared. 。
"/dev/rdsk/c3t1d2s7" is shared. 。
"/dev/rdsk/c3t3d2s7" is shared. 。
"/dev/rdsk/c3t0d4s6" is shared. 。
"/dev/rdsk/c3t2d4s6" is shared. 。
"/dev/rdsk/c3t4d4s6" is shared. 。
"/dev/rdsk/c3t0d4s7" is shared. 。
"/dev/rdsk/c3t2d4s7" is shared. 。
"/dev/rdsk/c3t4d4s7" is shared. 。
Shared storage check was successful on nodes "rac2,rac1". 。
Verification of shared storage accessibility was successful. 。
$ 。
Pre-installation tasks are done. The next step is to install Oracle clusterware. 。
最后此篇关于Solaris9系统上安装Oracle10g RAC的文章就讲到这里了,如果你想了解更多关于Solaris9系统上安装Oracle10g RAC的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我有这个代码: System.err.print("number of terms = "); System.out.println(allTerms.size()); System.err
我有以下问题:在操作系统是 Linux 的情况下和在操作系统是 MacOs 的情况下,我必须执行不同的操作。 所以我创建了以下 Ant 脚本目标: /u
我正在调用 system("bash ../tools/bashScript\"This is an argument!\"&"),然后我正在调用 close(socketFD) 直接在 system
使用最初生成的随机元素来约束随机数组的连续元素是否有效。 例如:我想生成一组 10 个 addr、size 对来模拟典型的内存分配例程并具有如下类: class abc; rand bit[5:0
我正在创建一个必须使用system(const char*)函数来完成一些“繁重工作”的应用程序,并且我需要能够为用户提供粗略的进度百分比。例如,如果操作系统正在为您移动文件,它会为您提供一个进度条,
我即将编写一些项目经理、开发人员和业务分析师会使用的标准/指南和模板。目标是更好地理解正在开发或已经开发的解决方案。 其中一部分是提供有关记录解决方案的标准/指南。例如。记录解决/满足业务案例/用户需
在开发使用压缩磁盘索引或磁盘文件的应用程序时,其中部分索引或文件被重复访问(为了论证,让我们说一些类似于 Zipfian 分布的东西),我想知道什么时候足够/更好地依赖操作系统级缓存(例如,Debia
我们编写了一个 powershell 脚本,用于处理来自内部系统的图像并将其发送到另一个系统。现在,业务的另一部分希望加入其中,对数据进行自己的处理,并将其推送到另一个系统。打听了一下,公司周围有几个
我正在尝试朗姆酒我的应用程序,但我收到以下错误:System.Web.HttpUnhandledException:引发了“System.Web.HttpUnhandledException”类型的异
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 要求我们推荐或查找工具、库或最喜欢的场外资源的问题对于 Stack Overflow 来说是偏离主题的,
所以我在其他程序中没有收到此错误,但我在这个程序中收到了它。 这个程序是一个我没有收到错误的示例。 #include int main() { system("pause"); } // en
我在 c# System.URI.FormatExption 中遇到问题 为了清楚起见,我使用的是 Segseuil 的 Matlab 方法,并且它返回一个图片路径 result。我想为其他用户保存此
我正在尝试像这样设置文本框的背景色: txtCompanyName.BackColor = Drawing.Color.WhiteSmoke; 它不喜欢它,因为它要我在前面添加系统,例如: txtCo
请帮助我解决 System.StackOverflowException我想用 .aspx 将记录写入数据库我使用 4 层架构来实现这一切都正常但是当我编译页面然后它显示要插入数据的字段时,当我将数据
我使用了一些通常由系统调用的API。 因此,我将 android:sharedUserId="android.uid.system" 添加到 manifest.xml, 并使用来自 GIT 的 And
我正在尝试创建一个小型应用程序,它需要对/system 文件夹进行读/写访问(它正在尝试删除一个文件,并创建一个新文件来代替它)。我可以使用 adb 毫无问题地重新挂载该文件夹,如果我这样做,我的应用
我想从没有 su 的系统 priv-app 将/system 重新挂载为 RW。如何以编程方式执行此操作?只会用 Runtime.getruntime().exec() 执行一个 shell 命令吗
我正在尝试制作一个带有登录系统的程序我对此很陌生,但我已经连续工作 8 个小时试图解决这个问题。这是我得到的错误代码 + ServerVersion 'con.ServerVersion' threw
当我“构建并运行”Code::Blocks 中的程序时,它运行得非常好!但是当我从“/bin”文件夹手动运行它时,当它试图用 system() 调用“temp.bat”时,它会重置。这是为什么?它没有
我想使用 system/pipe 命令来执行具有特殊字符的命令。下面是示例代码。通过系统/管道执行命令后,它通过改变特殊字符来改变命令。我很惊讶地看到系统命令正在更改作为命令传递的文本。 run(ch
我是一名优秀的程序员,十分优秀!