set-defaults #将环境变量返回到默认值
#建议先进入启动菜单清楚所有磁盘上的信息包括Owner信息,再执行下面进入维护模式后的操作
boot_ontap menu
boot_ontap maint #进入维护模式
#在维护模式下,查看FCVI端口的Type(必须是FCVI的类型)
ucadmin show
#查看磁盘ID及其它信息
disk show -v
#将指定的盘分配给本地端
#初始化的时候先把系统盘规划好,其他磁盘先不动,等系统安装好之后,进入adv高级模式再去分配其他磁盘
disk assign oa.01.0 -p 0
disk assign oa.01.1 -p 0
disk assign oa.01.2 -p 0
#查看控制器ID(这是在系统里面的命令,至于在维护模式中,应该可以在disk show中看到控制器ID)
system controller show
#将指定盘分配给对端(xxxxxxxxxx是对端的控制器ID)
disk assign oa.01.3 -s xxxxxxxxxx -p 1
disk assign oa.01.4 -s xxxxxxxxxx -p 1
disk assign oa.01.5 -s xxxxxxxxxx -p 1
#查看控制器和机箱的模式(必须是mcc-2n)
ha-config show
ha-config modify controller mcc-2n #更改控制器模式
ha-config modify chassis mcc-2n #更改机箱模式
halt #重启回到LOADER或者按Ctrl+C
boot_ontap menu #执行9a 9c安装操作系统
#两边控制器都要这样操作一遍(等SiteA系统初始化之后,再到SiteB上来重复这些步骤)

#SiteA
network interface failover-groups create -vserver FAS8300-A -failover-group intercluster01 -targets FAS8300-A -01:e0e, FAS8300-A -01:e0f
#SiteB
network interface failover-groups create -vserver FAS8300-B-failover-group intercluster02 -targets FAS8300-B-01:e0e, FAS8300-B-01:e0f
#查看故障转移组
network interface failover-groups show
#SiteA
network interface create -vserver FAS8300-A -lif A-cluster01_ic01 -service-policy default-intercluster -home-node FAS8300-A-01 -home-port e0e -address port_ip -netmask -failover-group intercluster01
network interface create -vserver FAS8300-A -lif A-cluster01_ic02 -service-policy default-intercluster -home-node FAS8300-A-01 -home-port e0f -address port_ip -netmask -failover-group intercluster01
#SiteB
network interface create -vserver FAS8300-B-lif B-cluster01_ic01 -service-policy default-intercluster -home-node FAS8300-B-01 -home-port e0e -address port_ip -netmask -failover-group intercluster02
network interface create -vserver FAS8300-B -lif A-cluster01_ic02 -service-policy default-intercluster -home-node FAS8300-B-01 -home-port e0f -address port_ip -netmask -failover-group intercluster02
#确认InterCluster Lif地址
network interface show -service-policy default-intercluster
#确认集群间Lif是否冗余
network interface show -service-policy default-intercluster -failover
#SiteA
cluster peer create -peer-addrs SiteB-InterCluster_IP1,SiteB-InterCluster_IP2 -encryption-protocol-proposed none #接下来输入密码
#SiteB
cluster peer create -peer-addrs SiteA-InterCluster_IP1,SiteB-InterCluster_IP2 -encryption-protocol-proposed none #输入SiteA设定的密码
#查看Cluster Peer状态
cluster peer show
Storage aggregate -rename -vserver FAS8300-A - aggregate aggr0 -newname FAS8300-A_aggr0
Storage aggregate -rename -vserver FAS8300-B - aggregate aggr0 -newname FAS8300-B_aggr0
Storage aggregate mirror FAS8300-A_aggr0
Storage aggregate mirror FAS8300-B_aggr0
#进入adv模式
set adv
disk assign oa.01.6 -p 0
disk assign oa.01.15 -s xxxxxxxxxx -p 1
#以此类推把SiteA和SiteB的盘都规划好
#这里没有留Spare盘(首先是空间紧张、后续利旧盘柜时会留2块作为Spare盘)
#SiteA
Storage aggregate create FAS8300-A_aggr1 -diskcount 18 -node FAS8300-A-01 -mirror true -simulate true #先模拟看一下磁盘分配
Storage aggregate create FAS8300-A_aggr1 -diskcount 18 -node FAS8300-A-01 -mirror true
#SiteB也是同样操作去创建镜像聚合(前提是SiteA和SiteB的Pool 0 和 Pool 1 都已经规划且分配好)
开启MetroCluster
#开启特性举例(A和B都要开)
Set -privilege advanced
Metrocluster configure -allow-with-one-aggregate true FAS8300-A-01
开启A、B站点的MetroCluster
#这命令和上面特性命令相斥
Metrocluster configure -node-name FAS8300-A-01
Metrocluster configure -node-name FAS8300-B-01
查看MetroCluster状态
#正确状态:configured、normal、auso-on-cluster-disaster
Metrocluster show
#检查MetroCluster详细状态
MetroCluster check run #此命令为后台作业,需要执行一点时间
MetroCluster check aggregate show
MetroCluster check cluster show #下图是正常状态,表示集群已经准备好在必要时执行协商切换

Metrocluster check config-replication show
Metrocluster check lif show
Metrocluster check node show
部署Tiebreaker


- 安装Tiebreaker 1.6
- 启动Tiebreaker添加Cluster
Netapp-metrocluster-tiebreaker-software-cli
Monitor add wizard #根据提示完成参数填写
Monitor show -status #确认添加的Cluster配置
Monitorm modify -monitor -name monitor_name -observer mode false #禁用观察模式,以便Tiebreaker软件在检测到站点故障后自动启动切换
Tiebreaker ClI configuration show #显示MetroCluster配置信息