1. 程式人生 > >oracle 12c GI安裝詳細步驟(oracle 12C + Grid Infrastructure(GI) + UDEV + ASM +centos6.4)

oracle 12c GI安裝詳細步驟(oracle 12C + Grid Infrastructure(GI) + UDEV + ASM +centos6.4)

1、前面準備階段部落格:

http://blog.csdn.net/kadwf123/article/details/78235488

2、scan初體驗:

[[email protected] ~]# nslookup rac4
Server:         192.168.0.88
Address:        192.168.0.88#53

Name:   rac4.taryartar.com
Address: 192.168.0.54

[[email protected] ~]# ping myscan
PING myscan.taryartar.com (192.168.0.61) 56(84) bytes of data.
From rac1.taryartar.com (192.168.0.51) icmp_seq=2 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=3 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=4 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=6 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=7 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=8 Destination Host Unreachable
^C
--- myscan.taryartar.com ping statistics ---
10 packets transmitted, 0 received, +6 errors, 100% packet loss, time 9363ms
pipe 3
[

[email protected] ~]# ping myscan
PING myscan.taryartar.com (192.168.0.62) 56(84) bytes of data.
From rac1.taryartar.com (192.168.0.51) icmp_seq=2 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=3 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=4 Destination Host Unreachable
^C
--- myscan.taryartar.com ping statistics ---
5 packets transmitted, 0 received, +3 errors, 100% packet loss, time 4403ms
pipe 3
[
[email protected]
~]# ping myscan
PING myscan.taryartar.com (192.168.0.63) 56(84) bytes of data.
From rac1.taryartar.com (192.168.0.51) icmp_seq=2 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=3 Destination Host Unreachable
From rac1.taryartar.com (192.168.0.51) icmp_seq=4 Destination Host Unreachable
^C
--- myscan.taryartar.com ping statistics ---
4 packets transmitted, 0 received, +3 errors, 100% packet loss, time 3406ms
pipe 3
[[email protected] ~]#

可以看出ping了三次myscan返回了三個不同ip地址。這個就是負載均衡,dns輪詢演算法,該功能由dns提供的,因為目前我們未安裝任何oracle的產品。

3、截止到目前,我們還沒有設定四臺虛擬機器的grid使用者和oracle使用者的密碼。

[[email protected] ~]# passwd grid
更改使用者 grid 的密碼 。
新的 密碼:
無效的密碼: 它基於使用者名稱
重新輸入新的 密碼:
passwd: 所有的身份驗證令牌已經成功更新。
[[email protected] ~]# passwd oracle
更改使用者 oracle 的密碼 。
新的 密碼:
無效的密碼: 它基於使用者名稱
重新輸入新的 密碼:
passwd: 所有的身份驗證令牌已經成功更新。
[[email protected] ~]#

這個在通過oui安裝並且通過oui配置grid和oracle使用者等價性的時候會用到,所以要提前設定。四個grid使用者的密碼要一樣,同樣四個oracle使用者密碼也應該一致。

4、配置ftp,把GI安裝檔案和database安裝檔案上傳到虛擬機器。

http://blog.csdn.net/kadwf123/article/details/78255194

5、目錄許可權問題。

我的安裝檔案都放在/taryartar/12c目錄下面,所以必須保證12c目錄必須能夠被grid可讀可寫。同時,oracle OUI安裝時會產生產品清單檔案預設選在這個目錄。

所以這個目錄最後給足許可權:


四個節點都執行。

6、NTPD時間同步服務;

從oralce11g開始,oracle已經對叢集同步專門開發了ctss服務,我們不需要在使用作業系統的NTPD服務,所以,我們可以直接禁用NTPD服務;

oracle的ctss節點時間同步服務會自動檢測ntpd服務,如果ntpd服務存在並且在執行,則ctss服務進入觀察者模式,節點間的時間同步由ntpd服務來做。

如果ctss發現ntpd服務不存在,則直接接管結群的時間同步任務。

如果ntpd服務沒有關閉,請先關閉

service ntpd stop

然後禁止開機自啟動。

然後把ntpd的配置檔名改掉。

四個節點都需要做。

7、安裝cvudisk包

其中grid目錄是安裝檔案解壓縮後建立的目錄。

注意,四個節點都要安裝。

可以通過第一個節點把rpm包ftp到另外三個節點,然後安裝:

在節點1上:

sftp 192.168.0.52

lcd /taryartar/12c/grid/rpm

put *.rpm

quit

去節點2root家目錄下:

rpm -ivh *.rpm

8、/dev/shm檔案系統過小的問題。

/dev/shm檔案系統oracle建議2g,我這邊目前只有750m,需要增大,方法如下:

vi /etc/fstab

修改

tmpfs      /dev/shm    tmpfs    defaults   0   0

tmpfs     /dev/shm     tmpfs    defaults,size=2048m      0    0

然後重新掛載

umount     /dev/shm

mount      /dev/shm

就行了。

如果umount的時候遇到檔案busy,可以檢視哪些程序佔用檔案系統,可以直接殺掉,然後在umount。

fuser -m /dev/shm

命令輸出比如:/dev/shm:       2481m    2571m

檢視佔用的程序號

然後kill

kill -9 2481 2571

然後重新umount

注意,四個節點都做。

9、通過節點1匯入匯出產生的節點2-4導致的網絡卡mac地址都一樣的問題。

如果選擇匯入虛擬機器的時候:


沒有選擇這個選項,那麼導進去的另外地3臺虛擬機器跟節點的網絡卡mac地址是一樣的,我匯入的時候就沒打這個勾,所以需要做以下處理。
當前我4臺虛擬機器都是開機狀態:
a、cd /etc/udev/rules.d/
b、mv /etc/udev/rules.d/70-persistent-net.rules /etc/udev/rules.d/70-persistent-net.rules_bak
c、關機。
d、重新生成mac地址。
點一下就會重新生成mac地址。節點1的4塊網絡卡都重新生成,然後點ok。
f、然後啟動節點1
可以看到/etc/udev/rules.d/目錄下又重新生成了一個70-persistent-net.rules檔案。此檔案裡面的mac地址是按照最新的網絡卡mac地址產生的。
g、重啟後生成的70-persistent-net.rules檔案內容,看到系統自動按照新的網絡卡mac地址生成了該檔案。

此時ifconfig -a看只能看到兩塊公網網絡卡,無法看到兩塊私網網絡卡了,因為私網網絡卡配置檔案中配置了mac地址,而此時硬體的mac地址跟配置檔案的不一致,所以讀不出來。
可以看到此時私網沒有ip展示。

h、修改私網網絡卡配置檔案mac地址。
vi /etc/sysconfig/network-scripts/ifcfg-eth2
vi /etc/sysconfig/network-scripts/ifcfg-eth3

[[email protected] rules.d]# cat 70-persistent-net.rules
# This file was automatically generated by the /lib/udev/write_net_rules
# program, run by the persistent-net-generator.rules rules file.
#
# You can modify it, as long as you keep each rule on a single
# line, and change only the value of the NAME= key.

# PCI device 0x8086:0x100e (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="08:00:27:b4:2f:11", ATTR{type}=="1", KERNEL=="eth*", NAME="eth0"

# PCI device 0x8086:0x100e (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="08:00:27:68:23:42", ATTR{type}=="1", KERNEL=="eth*", NAME="eth1"

# PCI device 0x8086:0x100e (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="08:00:27:4e:68:35", ATTR{type}=="1", KERNEL=="eth*", NAME="eth3"

# PCI device 0x8086:0x100e (e1000)
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="08:00:27:35:88:b0", ATTR{type}=="1", KERNEL=="eth*", NAME="eth2"


只用修改mac地址,跟70-persistent-net.rules檔案中一一對應。

[[email protected] ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth2

DEVICE=eth2
HWADDR=08:00:27:35:88:b0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
IPV6INIT=no
USERCTL=no
IPADDR=10.0.10.5
NETMASK=255.255.255.0
GATEWAY=192.168.0.1

[[email protected] ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth3

DEVICE=eth3
HWADDR=08:00:27:4e:68:35
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=none
IPADDR=10.0.10.6
NETMASK=255.255.255.0
GATEWAY=192.168.0.1
IPV6INIT=no
USERCTL=no

然後重啟網路服務就ok了。

10、新增圖形介面支援:
a、本實驗因為我虛擬機器裝的是基本伺服器版,無圖形介面,所以使用xmananger5實現圖形介面。如果你的虛擬機器裝的是桌面版的,你也可以使用vnc進行圖形介面安裝。
使用xmanager需要在grid使用者下環境變數中新增如下兩行:

export LANG=en
export DISPLAY=192.168.0.4:0.0

其中LANG新增英文支援,因為我的虛擬機器系統是中文版的,不加這個變數,oracle彈出來的圖形介面都是亂碼。
DISPLAY變數冒號前面部分是我筆記本的iP地址。該ip地址是虛擬機器通過橋連線連線的那塊網絡卡的ip地址。我這邊虛擬機器橋連線的網絡卡是我筆記本的無線網絡卡,所以這個ip地址也是我的無線網絡卡的地址。
0.0就是xmanager - Passive開啟後執行在工作列滑鼠指上去的地址,如圖:

b、使用vnc

[[email protected] \u684c\u9762]# export DISPLAY=localhost:1

[[email protected] \u684c\u9762]# xhost +

啟動後的圖形介面:

前面最好配置下vnc的配置檔案:

[w[email protected] 桌面]$ cat /etc/sysconfig/vncservers
# The VNCSERVERS variable is a list of display:user pairs.
#
# Uncomment the lines below to start a VNC server on display :2
# as my 'myusername' (adjust this to your own).  You will also
# need to set a VNC password; run 'man vncpasswd' to see how
# to do that.  
#
# DO NOT RUN THIS SERVICE if your local area network is
# untrusted!  For a secure way of using VNC, see this URL:
# https://access.redhat.com/knowledge/solutions/7027

# Use "-nolisten tcp" to prevent X connections to your VNC server via TCP.

# Use "-localhost" to prevent remote VNC clients connecting except when
# doing so through a secure tunnel.  See the "-via" option in the
# `man vncviewer' manual page.

# VNCSERVERS="2:myusername"
# VNCSERVERARGS[2]="-geometry 800x600 -nolisten tcp -localhost"

VNCSERVERS="1:root"
VNCSERVERARGS[1]="-geometry 1024x800"


[[email protected] 桌面]$

VNCSERVERS配置連線到vnc服務的使用者
VNCSERVERARGS配置解析度
export DISPLAY=localhost:1
localhost就是vncserver所在的伺服器
後面的:1是啟動服務時指定的數字,可以通過後臺程序查詢:

 

11、下面準備的差不多了,可以使用cvu做安裝前檢查了。

去grid的解壓目錄,本例是/taryartar/12c/grid/

[[email protected] grid]$ ll
total 44
drwxr-xr-x.  4 grid oinstall 4096 Oct 18 15:03 install
drwxrwxr-x.  2 grid oinstall 4096 Jul  7  2014 response
drwxr-xr-x.  2 grid oinstall 4096 Jul  7  2014 rpm
-rwxr-xr-x.  1 grid oinstall 8534 Jul  7  2014 runInstaller
-rwxr-xr-x.  1 grid oinstall 5085 Dec 20  2013 runcluvfy.sh
drwxrwxr-x.  2 grid oinstall 4096 Jul  7  2014 sshsetup
drwxr-xr-x. 14 grid oinstall 4096 Jul  7  2014 stage
-rwxr-xr-x.  1 grid oinstall  500 Feb  7  2013 welcome.html
[[email protected] grid]$ pwd
/taryartar/12c/grid
[[email protected] grid]$

執行如下指令碼:

./runcluvfy.sh stage -pre crsinst -n rac1,rac2,rac3,rac4 -fixup -verbose

[[email protected] grid]$ ./runcluvfy.sh stage -pre crsinst -n rac1,rac2,rac3,rac4 -fixup -verbose

執行 叢集服務設定 的預檢查

正在檢查節點的可訪問性...

檢查: 節點 "rac1" 的節點可訪問性
  目標節點                                  是否可訪問?                  
  ------------------------------------  ------------------------
  rac1                                  是                       
  rac2                                  是                       
  rac3                                  是                       
  rac4                                  是                       
結果:節點 "rac1" 的節點可訪問性檢查已通過


正在檢查等同使用者...

檢查: 使用者 "grid" 的等同使用者
  節點名                                   狀態                      
  ------------------------------------  ------------------------
  rac2                                  失敗                      
  rac1                                  失敗                      
  rac4                                  失敗                      
  rac3                                  失敗                      
PRVG-2019 : 使用者 "grid" 在節點 "rac1" 和節點 "rac2" 之間的等同性檢查出錯

PRKC-1044 : 無法利用 Shell /usr/bin/ssh 和 /usr/bin/rsh 檢查節點 rac2 的遠端命令執行安裝
節點 "rac2" 上不存在檔案 "/usr/bin/rsh"
No RSA host key is known for rac2 and you have requested strict checking.Host key verification failed.
PRVG-2019 : 使用者 "grid" 在節點 "rac1" 和節點 "rac1" 之間的等同性檢查出錯

PRKC-1044 : 無法利用 Shell /usr/bin/ssh 和 /usr/bin/rsh 檢查節點 rac1 的遠端命令執行安裝
節點 "rac1" 上不存在檔案 "/usr/bin/rsh"
No RSA host key is known for rac1 and you have requested strict checking.Host key verification failed.
PRVG-2019 : 使用者 "grid" 在節點 "rac1" 和節點 "rac4" 之間的等同性檢查出錯

PRKC-1044 : 無法利用 Shell /usr/bin/ssh 和 /usr/bin/rsh 檢查節點 rac4 的遠端命令執行安裝
節點 "rac4" 上不存在檔案 "/usr/bin/rsh"
No RSA host key is known for rac4 and you have requested strict checking.Host key verification failed.
PRVG-2019 : 使用者 "grid" 在節點 "rac1" 和節點 "rac3" 之間的等同性檢查出錯

PRKC-1044 : 無法利用 Shell /usr/bin/ssh 和 /usr/bin/rsh 檢查節點 rac3 的遠端命令執行安裝
節點 "rac3" 上不存在檔案 "/usr/bin/rsh"
No RSA host key is known for rac3 and you have requested strict checking.Host key verification failed.

ERROR:
等同使用者在所有指定的節點上都不可用
驗證無法繼續


在所有節點上預檢查 叢集服務設定 失敗。


NOTE:
沒有要修復的可修復驗證故障
[[email protected] grid]$

節點grid使用者等價性可以通過oracle OUI提供的功能去做,我們可以不用管。
通過OUI配置叢集的grid使用者等價性後,在執行該檢查命令,結果如下:

http://blog.csdn.net/kadwf123/article/details/78304908

12、啟動安裝。

 

報上面的錯,說明缺包:xorg-x11-utils.x86_64 0:7.5-14.el6 安裝之

[[email protected] grid]# yum -y install xorg-x11-utils
Loaded plugins: fastestmirror, security
Loading mirror speeds from cached hostfile
Setting up Install Process
Resolving Dependencies
--> Running transaction check
---> Package xorg-x11-utils.x86_64 0:7.5-14.el6 will be installed
--> Processing Dependency: libdmx.so.1()(64bit) for package: xorg-x11-utils-7.5-14.el6.x86_64
--> Processing Dependency: libXxf86dga.so.1()(64bit) for package: xorg-x11-utils-7.5-14.el6.x86_64
--> Running transaction check
---> Package libXxf86dga.x86_64 0:1.1.4-2.1.el6 will be installed
---> Package libdmx.x86_64 0:1.1.3-3.el6 will be installed
--> Finished Dependency Resolution

Dependencies Resolved

===================================================================================================
 Package                    Arch               Version                      Repository        Size
===================================================================================================
Installing:
 xorg-x11-utils             x86_64             7.5-14.el6                   base             101 k
Installing for dependencies:
 libXxf86dga                x86_64             1.1.4-2.1.el6                base              18 k
 libdmx                     x86_64             1.1.3-3.el6                  base              15 k

Transaction Summary
===================================================================================================
Install       3 Package(s)

Total download size: 133 k
Installed size: 270 k
Downloading Packages:
(1/3): libXxf86dga-1.1.4-2.1.el6.x86_64.rpm                                                                  |  18 kB     00:00     
(2/3): libdmx-1.1.3-3.el6.x86_64.rpm                                                                         |  15 kB     00:00     
(3/3): xorg-x11-utils-7.5-14.el6.x86_64.rpm                                                                  | 101 kB     00:00     
------------------------------------------------------------------------------------------------------------------------------------
Total                                                                                               9.3 kB/s | 133 kB     00:14     
Running rpm_check_debug
Running Transaction Test
Transaction Test Succeeded
Running Transaction
Warning: RPMDB altered outside of yum.
  Installing : libXxf86dga-1.1.4-2.1.el6.x86_64                                                                                 1/3
  Installing : libdmx-1.1.3-3.el6.x86_64                                                                                        2/3
  Installing : xorg-x11-utils-7.5-14.el6.x86_64                                                                                 3/3
  Verifying  : libdmx-1.1.3-3.el6.x86_64                                                                                        1/3
  Verifying  : xorg-x11-utils-7.5-14.el6.x86_64                                                                                 2/3
  Verifying  : libXxf86dga-1.1.4-2.1.el6.x86_64                                                                                 3/3

Installed:
  xorg-x11-utils.x86_64 0:7.5-14.el6                                                                                                

Dependency Installed:
  libXxf86dga.x86_64 0:1.1.4-2.1.el6                                   libdmx.x86_64 0:1.1.3-3.el6                                  

Complete!
[[email protected] grid]#


ok,再來一次。

錯誤不存在了,能起來了。

13、預安裝檢查:

把紅框中的兩行註釋掉,然後點check again。
ok,那個問題不存在了。
圖中兩個問題,一個是實體記憶體不足,這個oracle官方建議4g,我這邊只有1.5g,可以忽略。
devices checks for ASM是沒有檢查到安裝配置ASMlib,我們是用udev管理裸裝置,不用asmlib,忽略。

14、執行root指令碼:
http://blog.csdn.net/kadwf123/article/details/78305427
兩個root指令碼第一個一般不會執行報錯,都能執行過去。但是第二個一般出問題的概率比較大。
執行的時候相關日誌可以看下面的三個地方:

tail -f /taryartar/12c/grid_home/log/rac1/ohasd/ohasd.log
tail -f /taryartar/12c/grid_home/log/rac1/agent/ohasd/oraagent_grid/oraagent_grid.log
tail -f $GRID_HOME/log/`hostname`/”alert`hostname`.log”

tail -f /var/log/messages

如果root.sh執行失敗,如果在當前的頁面看不出原因,可以在上述4個日誌檔案裡面找原因,找到原因後,
要以root使用者登陸到每個節點,進入grid_home目錄
cd $ORACLE_HOME
cd /crs/install
perl rootcrs.pl -deconfig -force (在單節點執行,然後重複執行這條命令在每個節點)
perl rootcrs.pl -deconfig -force -lastnode (如果是想刪除所有的節點,加上選項-lastnode很危險,因為它會導致清除OCR和vote disks的資料)
在從新執行root.sh指令碼。
有時候進行多次執行root.sh以後可能導致無法解釋的錯誤,此時,比較好的辦法是對GI進行乾淨的解除安裝,然後重新安裝。
一旦root.sh在第一個指令碼執行成功後,可以並行在另外3個節點執行。

15、由虛擬機器記憶體不足導致的安裝錯誤,本次實驗虛擬機器記憶體1.5G,oracle官方要求4G:
http://blog.csdn.net/kadwf123/article/details/78305874
後來我把虛擬機器記憶體擴成2148M(12.2.0.1)就可以正常安裝不報錯了。

16、安裝GI圖形介面詳解:

啟動安裝圖形化介面。
選擇安裝配置叢集。
選擇標準叢集。

選擇高階安裝。
新增中文支援。
叢集名字隨意,保證同一內網唯一。叢集scan name要跟dns配置的一樣,否則會報錯。(如果是host解析,就要保證跟host檔案中配置的一樣)。
私有網絡卡兩塊,一塊選擇asm專用,一塊選擇私有專用。公網bond0.
選擇flex asm,是12c的新特性,多個數據庫例項可以使用同一個asm例項,減少資源的佔用。本實驗反應出來的很大的一點就是asm例項數比節點數少一個。
選擇磁碟組名,冗餘選擇外部冗餘。分配單元1M。可選共享磁碟選擇/dev/raw*這個路徑。
路徑指定正確後,就可以發現共享盤了。
指定oracle賬號使用者密碼。這裡選擇所有賬號共用一個密碼。底下警告表示密碼太簡單,不符合oracle的密碼驗證要求。這裡可以直接下一步。
不使用ipmi
是否配置oem,這裡選擇不配置。

三個都選擇asmdba,oracle會提示選擇可能不正確,不用管,直接下一步。
grid的base目錄和home目錄,oracle會自動從grid使用者的環境變數讀出來。如果沒讀出來,那你的配置有問題,請先檢查。
oracle產品清單檔案。需要確保/taryartar/12c有正確的許可權。grid使用者可讀可寫。
oracle從12c開始可以配置自動執行root指令碼,不過為了安裝步驟更清晰,我們還是不要選擇自動執行。
安裝前檢查。兩個條件不滿足,一個記憶體大小,oracle12c官方建議4G。我們這是實驗,2148M親測可以安裝成功。但是如果是1536M親測安裝配置負載資源庫的時候會報錯。
進入正式安裝階段。
執行兩個root指令碼。注意,四個節點都要執行成功才行。
ok坐等安裝完成。最後就是finish了。

17、安裝完成後的檢驗。

olsnodes -s

列出叢集中節點和節點狀態。

crsctl check cluster -all


列出叢集中所有節點的程序及狀態。

crsctl check crs


列出當前節點中叢集程序的狀態資訊。

ifconfig -a |grep -i addr

四節點都執行
節點1:
節點2:
節點3:
節點4:
可以看出公網ip上分出來4個vip,而scan vip只有3個,分佈於節點2、3、4上。

crsctl stat res -t


該命令展示叢集各節點所有的資源、狀態等。

上面我們知道叢集只有三個scan vip,那麼同樣也對應三個scan監聽器,可以通過下面的命令檢視scan監聽器。

ps -ef|grep -i scan

節點1:
節點2:
節點3:
節點4:
發現節點1上沒有scan 監聽器,其它節點2、3、4上面都有scan監聽器。跟上面看到的scan vip的情況吻合 。

檢視scan監聽器的狀態可以直接執行下面的命令:

srvctl status scan_listener

 


18、安裝後scan的體驗,可以直接ping scan名:

可以看到,多次ping scan名,會返回不同ip,這個跟安裝前看到的是一樣的。不一樣的是,此時ping myscan可以ping通了。

19、Flex ASM體驗:
oracle 12c以前,oracle ASM例項跟資料庫例項是一對一的關係。現在有了flex asm,就可以不存在這種關係了,可以用一個asm例項服務更多的資料庫例項。
下面的命令可以檢視Flex ASM模式是否可用:

asmcmd showclustermode


下面的命令可以檢視flex asm型別

asmcmd showclusterstate


crsctl stat res -t


可以看到有4個節點,但是隻有3個asm例項在執行,分別執行在節點1、2、3上面。

ps -ef|grep -i asm

也可以直接從作業系統層面直接檢視asm的程序資訊
節點1:
節點2:
節點3:
節點4:

節點1、2、3都有asm例項程序在,節點4上沒有執行asm例項,所以無程序。

也可以通過叢集資源管理命令直接檢視asm例項的情況(目錄、口令檔案、監聽器、asm例項個數)

srvctl config asm

 

srvctl status asm


有多少個asm例項並且執行在哪些節點上。

20、到目前為止GI已經順利安裝完成。因為我的機器記憶體12G,有點空間不足,所以為了後續安裝oracle資料庫軟體和dbca建庫有足夠的資源順利進行,我先把asm例項的sga大小調小點。
如下操作:
登陸到有asm執行的節點,本實驗我這邊是節點1、2、3。
先做節點1:
su - grid
sqlplus / as sysasm
create pfile from spfile ;
alter system set sga_max_size=700m scope=spfile;
shutdown immediate
startup
說明:
1、可以用sysdba的許可權登陸asm例項,但是隻能修改sga_max_size的大小,如果要重啟asm例項就會報許可權不足了。
2、重啟的時候我試過startup force一條命令,但是發現要等很久,並且報了一個end file啥的內部錯誤,再次登陸進去後會報連線丟失,不必擔心,這個是cpu使用過高導致的。
3、修改初始化引數之前,最好像我上面那樣,先把spfile生成一份pfile備份。上面的語句備份會產生在$GRID_HOME/dbs目錄下面,檔名:init+ASM1.ora。
完成後繼續在剩下的兩個節點做。

21、配置root使用者的環境變數。
叢集的啟動和停止都是需要root使用者去做的。這樣我們在執行一些叢集命令的時候,如果能在root使用者下面直接執行,則方便很多,所以我們需要對root使用者配置環境變數。
不配置root使用者環境變數的情況下,我們如果想要停止叢集,直接在root使用者下執行
crsctl stop cluster -all
會報命令找不到。
配置環境變數:
su - root
vi .bash_profile
增加如下三行:
export GRID_BASE=/taryartar/12c/grid_base
export GRID_HOME=/taryartar/12c/grid_home
export PATH=$PATH:$GRID_HOME/bin

儲存退出。
使之立即生效:
source .bash_profile

測試是否生效:
crsctl stat res -t
能看到跟grid使用者執行的命令一樣的介面就ok了。