2.4 NAS 이용방법

2.4.1 NFS 볼륨

클라우드 서버의 eth1 인터페이스를 통해 NAS 와 통신이 이루어 집니다. Linux VM 의 경우에는 초기 eth0 만 존재 하기 때문에 mount 전에 eth1 에 대한 인식이 필요 합니다.(4.1.3 항목)

NFS 기본 모듈 설치 : yum install showmount(centos 6.5), apt-get install nfs-common (ubuntu 12.04)

Attach

Mount 할 수 있는 볼륨이 있는 지 확인: showmount –e [대상 주소]

Mount 디렉토리 생성 : mkdir [디렉토리 명]

Mount : mount –t nfs [대상주소:/경로] [mount 할 디렉토리]

Mount 상태 확인 : df -h

reboot 을 할 경우 NFS 볼륨이 해제 됨으로 /etc/fstab 에 아래와 같이 등록 해야 한다.

Detach

umount [마운트 해제 할 디렉토리]

Mount 상태 확인

Linux 계열 인터페이스 인식 방법

아래와 같이 eth0만 존재하면 NAS와 통신할 수 없는 상태입니다.

CentOS 인식 방법
  • cd /etc/sysconfig/network-scripts/
  • ifcfg-eth0 으로 ifcfg-eth1 복사 : cp ifcfg-eth0 ifcfg-eth1
  • vim ifcfg-eth1 > “eth0” 으로 표시된 부분을 “eth1” 로 수정
  • 네트워크 재시작 : /etc/init.d/network restart
  • eth1인식 확인
Debian, ubuntu인식 방법
  • vim /etc/network/interfaces
  • 아래와 같이 eth1내용 추가

  • 네트워크 재시작 : /etc/init.d/networking restart
  • eth1인식 확인
umount가 되지 않는 경우 해결방법

‘umount –l [마운트 해제 할 디렉토리]‘ 명령으로 강제 umount

위 명령으로도 mount가 해제되지 않으면 서버를 리부팅해주시기 바랍니다.



2.4.2 CIFS 볼륨

CIFS 인증 정보 관리

CIFS 볼륨을 서버에 Attach 하기 위해서는 사전에 인증 정보가 등록 되어야 합니다.

CIFS 인증 정보 관리 -> CIFS 계정 추가

CIFS ID, PASSWORD 입력 및 추가 클릭

※ 추가된 CIFS ID/ PASSWORD 정보는 윈도우 서버에 동일하게 등록이 되어야 합니다.

※ WORKGROUP 변경 시 CIFS 서버 재시작이 발생합니다.

※ KOR-Seoul M2 Zone 은 CIFS ID 로 administrator 를 사용 할 수 없습니다.

Attach

시작 -> 네트워크 -> 오른쪽 마우스 -> 네트워크 드라이브 연결

네트워크 드라이브 연결 : 처음 폴더 찾기 시 시간이 소요될 수 있습니다.

ID/PW 입력

ID : CIFS주소\administrator

CIFS주소를 명시하지 않으면 재부팅시 네트워크 드라이브가 연결되지 않을 수 있습니다.

연결 완료

Dttach

연결 해제 : 드라이브 선택 -> 오른쪽 버튼 -> 연결 끊기

 

 

2.4.3 iSCSI 볼륨

※ MD2 Zone 의 iSCSI 볼륨은 반드시 multipath 설정을 해야 함(하단 multipath 구성 참고)

CentOS - Attach

‘iscsi-initiator-utils’ 패키지 설치

/etc/iscsi/initiatorname.iscsi 확인

포탈에 서버의 iqn을 등록해준다. cloud NAS > IQN 관리 > IQN 생성

[Central-A, Central-B, Seoul-M, KOR-HA, US-WEST 존의 경우]

‘이름’에는 hostname을, IQN은 서버의 IQN 값을 넣어줍니다.

※ 추가 되는 호스트 의 IQN 값은 기존 호스트의 IQN 값과 달라야 합니다

[Seoul-M2 존의 경우]

라디오 버튼에서 KOR-Seoul M2 존을 선택할 경우, 해당 존의 볼륨 리스트가 노출된다

해당 볼륨을 선택한 후, 기존과 동일하게 이름과 IQN을 입력한다

IQN이 추가된 것을 확인할 수 있습니다.

scsi 서버를 discovery 실행

/etc/init.d/iscsi restart

fdisk –l명령으로 추가된 iSCSI 볼륨을 확인합니다

포맷 후 파일시스템 생성하여 원하는 폴더에 mount합니다

'chkconfig iscsi on’ 명령으로 부팅 시 iscsi 서비스가 시작할 수 있도록 설정합니다.

‘/etc/fstab’을 수정하여 부팅 시 mount가 될 수 있도록 합니다.

CentOS - Detach

‘umount [마운트 해제 할 디렉토리]’ 하고, ‘df –h’로 마운트가 해제된 것을 확인

Windows - Attach

제어판 -> iSCSI 초기자 -> ‘예’ 선택

서버의 IQN을 확인한다. 제어판 -> iSCSI 초기자 -> 구성 -> 초기자 이름 확인

포탈에 서버의 iqn을 등록해줍니다. cloud NAS > IQN 관리 > IQN 추가(위 와 동일)

‘이름’에는 hostname을, IQN은 서버의 IQN 값을 넣어줍니다.

iSCSI 초기자 속성 -> 검색 -> 포털 검색

iSCSI 서버의 ip를 입력하고 확인

대상 텝에서 추가된 대상에 연결

연결 완료

‘볼륨 및 장치’에서 볼륨이 연결된 것을 확인

서버관리자 -> 저장소 -> 디스크 관리에서 디스크 초기화 진행

디스크를 선택하고 ‘새 단순 볼륨’을 선택하여 볼륨을 초기화 (포맷 수행)

포맷이 완료된 정상 상태의 디스크로 사용할 수 있습니다.

Windows - Detach

볼륨을 더 이상 사용하지 않아 삭제할 때는 서버관리자 -> 저장소 -> 디스크 관리에서 제거할 볼륨을 선택하고 마우스 오른쪽 클릭 -> 볼륨 삭제

볼륨이 삭제됩니다.

iSCSI 연결을 끊으려면 제어판  iSCSI 초기자  대상에서 ‘연결끊기’를 선택하면 됩니다.





2.4.4 iSCSI Multipath 구성 방법

  Linux

iSCSI multipath 관련 모듈 설치
 
yum install iscsi-initiator-utils device-mapper-multipath (RHEL/CentOS)
apt-get install open-iscsi multipath-tools (Ubuntu/Debian)
 
/etc/multipath.conf 수정(기본적으로 파일이 존재 하지 않으므로, 아래 내용 복사 후 붙여 넣기 수행)
 
defaults {
user_friendly_names no
max_fds max
flush_on_last_del yes
queue_without_daemon no
dev_loss_tmo infinity
fast_io_fail_tmo 5
}
# All data under blacklist must be specific to your system.
blacklist {
wwid "SAdaptec*"
devnode "^xvd[a-z]"
devnode "^hd[a-z]"
devnode "^(ram|raw|loop|fd|md|dm-|sr|scd|st)[0-9]*"
devnode "^cciss.*"
}
devices {
device {
vendor "NETAPP"
product "LUN"
path_grouping_policy group_by_prio
features "3 queue_if_no_path pg_init_retries 50"
prio "alua"
path_checker tur
failback immediate
path_selector "round-robin 0"
hardware_handler "1 alua"
rr_weight uniform
rr_min_io 128
}
}
 
/etc/iscsi/iscsid.conf replacement_timeout  120 -> 10 초로 수정
# - If the value is 0, IO will be failed immediately.
# - If the value is less than 0, IO will remain queued until the session
# is logged back in, or until the user runs the logout command.
node.session.timeo.replacement_timeout = 10
multipath 관련 모듈 실행 및 부팅 시 시작되도록 설정
modprobe dm-multipath
service multipathd start
chkconfig multipathd on
iscsi 관련 모듈 실행 및 부팅 시 시작되도록 설정
chkconfig iscsi on
chkconfig iscsi on
service iscsi start
service iscsid start
iscsi 검색 및 로그인
 
iscsiadm -m discovery -t sendtargets -p “포탈 Lun 에 표시되어 있는 IP 주소”
 iscsi login : iscsiadm -m node login
·멀티 패스 상태 조회 : multipath -ll
디스크 이름 확인 : fdisk l
/dev/sd* 의 동일한 용량의 디스크가 2개 보임 (CIP 동시 사용 시 4개로 보임)
/dev/mapper/XXX 형태의 파티션 / 포맷 후 마운트 하여 사용
Windows
VM 접속 후 서버관리자 -> 관리 -> 역할 및 기능 추가 클릭 > 역할 및 기능 추가 마법사 -> 다중 경로I/O 선택 후 다음 클릭

 
 
 설치 후 서버 관리자 -> 도구 -> MPIO -> iSCSI 장치에 대한 지원 추가 -> 추가 -> 재부팅

 
서버 관리자 -> 도구 -> ISCSI 초기 관리자 선택 -> (서비스 실행)

 
구성 탭에서 IQN 확인

 
초기자 이름 확인 후 포탈로 이동 > iSCSI 초기자 속성 -> 검색 -> 포털 검색 -> IP입력(port:3260) ->확인

 
대상 탭으로 이동 -> 연결(N) 클릭 -> 다중 경로 사용 체크 -> 확인

 
대상 -> 속성 -> 세션 추가 -> 다중 경로 사용 체크

 
이어서 고급 클릭 -> 일반 -> 대상 포털 IP -> Drop Down List에서 첫 번째 IP 선택 -> 확인

 
iSCSI 초기자 속성 -> 대상 -> 장치, 2개의 Disk 확인 -> MPIO 클릭

 
MPIO 에서 부하 분산 정책 -> 라운드 로빈 -> 확인
(2개 장치 모두 활성 확인, 장애 조치 전용 일 경우, 활성-대기 모드 확인)
사용 케이스에 따라 장애 조치 전용(Fail-Over) 사용 가능
 
컴퓨터 관리 -> 저장소 -> 디스크 관리 -> 디스크 포맷 후 사용


2.4.5 NFS Volume Linux, Windows Server 공유

 

Linux(CentOS)에서 Mount

1. Mount할 수 있는 Volume 확인: showmount -e[대상주소]




2. Mount 할 Directory 생성 : mkdir [Directory Name]




3. Mount 하기 : mount -t nfs [대상 주소:/경로] [Mount Directory]



4. Mount 상태 확인 : df -h




5. /etc/fstab에 아래와 같이 추가


 

Windows(Windows Server2012)에서 Mount

6. 서버 관리자 -> 역할 및 기능 추가 선택
 


7. 기능 -> NFS용 클라이언트 선택 후 설치



8. Mount : mount [볼륨 명] [드라이브 명]



9. 동일 Volume Mapping 확인