kubeflow를 급히 써봐야 할 일이 있어서 minikube 환경에서 설치를 해보려고 했는데...

 

주위에 계신 어떤 한 분이 손쉽게 성공하셨다고 하셔서 나도 그렇게 될거라 믿고 해봤는데,

뭔가의 이유로 잘 진행이 되지 않아서 짜증이 솓구쳐서 결국은 Kubernetes 환경에서 진행했다.

 

 

이하 포스팅은 설치 가이드라기 보다는

Kubeflow 설치 성공한 과정에 대한 기록이다.

 

 

0. Kubernetes

- 다음 링크의 포스트와 동일한 방법으로 설치된 환경이다.

  . https://www.whatwant.com/entry/Kubernetes-Install-1

 

단, 이 때 Kubernetes를 설치한 3대 VM의 Spec은 좀 높여야 한다.

Memory가 부족하면 Kubeflow 설치가 안된다.

memory

 

Processor도 좀 더 잡아주는 것이 좋다.

CPU

 

처음에 4GB memory, 2 core 환경에서 Kubeflow 설치를 진행했을 때 제대로 진행이 안되었다.

 

일부 Pod가 pending 상태에 있길래 살펴봤었는데

자기가 실행될 여유 memory가 있는 worker node가 없어서 였다.

 

테스트가 쉽지 않아서 세부 Spec 조정까지는 못해봤고

8GB memory, 4 core 환경으로 했을 때 성공을 했다.

 

 

1. Kubeflow & Kubernetes version

 

현재 설치되어있는 Kubernetes version은 다음과 같다.

- Kubernetes v1.25.6

kubectl get nodes

 

현재 Kubeflow 최신 Version은 v1.7이다.

https://www.kubeflow.org/docs/releases/kubeflow-1.7/

Kubeflow v1.7

 

다행히 Kubernetes v1.25와 궁합이 잘 맞는다 !!!

 

 

2. How to install Kubeflow

뒤늦게 Kubeflow를 살펴본다 ^^

- https://www.kubeflow.org/

https://www.kubeflow.org/

 

공식 가이드에서 알려주는 설치법에는 어떤 것이 있을까?

How to install

 

① Use a packaged distribution

주로 Cloud 업체에서 maintain 하면서 제공되는 배포판들이다. 즉, 나에겐 쓸모없는....^^

Active Distributions

 

② Use the raw manifests

advanced user를 위한 설치 방법이란다 ^^

Raw Kubeflow Manifests

 

manifests는 GitHub를 통해 배포되고 있다.

- https://github.com/kubeflow/manifests#installation

https://github.com/kubeflow/manifests#installation

 

우리는 이제 manifests를 이용한 Kubeflow 설치를 진행할 것이다.

 

 

3. Prerequisites

앞에서 살펴봤듯이 3개의 사전 준비 항목이 있다.

 

① Kubernetes (up to 1.26) with a default StorageClass

- Kubernetes v1.25에서도 잘 된다 ^^

- 여기서 무심히 넘기면 안되는 항목이 default StorageClass 이다. 뒤에서 깊게 살펴보겠다!

 

② kustomize 5.0.3

Kubernetes native configuration management

최근에는 kubectl 내부에 포함되어 있다고 하는데, manifests를 사용하기 위해서는 별도로 설치를 해줘야 한다.

- https://kubectl.docs.kubernetes.io/installation/kustomize/binaries/

https://kubectl.docs.kubernetes.io/installation/kustomize/binaries/

 

❯ curl -s "https://raw.githubusercontent.com/kubernetes-sigs/kustomize/master/hack/install_kustomize.sh"  | bash

❯ sudo install -o root -g root -m 0755 kustomize /usr/local/bin/kustomize

 

가이드에서 요구한 버전은 v5.0.3 이지만, 설치된 버전은 v5.1.1이다.

잘된다 ^^

 

③ kubectl

kubernetes 버전과 동일한 버전의 kubectl을 사용하는 것이 좋다.

Kubernetes node가 아닌 다른 workspace에서 kubectl을 사용하기 위해서는 직접 설치를 해줘야 한다.

 

❯ curl -LO "https://dl.k8s.io/release/v1.25.6/bin/linux/amd64/kubectl"

❯ sudo install -o root -g root -m 0755 kubectl /usr/local/bin/kubectl

 

kubectl을 새로 설치했다면, 자동완성 설정을 해주는 것이 편리하다.

zsh을 사용하는 경우 아래와 같은 명령어를 사용하거나, ~/zshrc에 넣어주면 좋다.

 

 source <(kubectl completion zsh)

 

~/.zshrc 파일에서 plugin에도 추가로 넣어주면 더 좋다.

 

plugins=(kubectl kube-ps1 git zsh-syntax-highlighting zsh-autosuggestions)

 

접근 권한을 얻기 위한 인증 정보(config) 파일을 얻어오는 부분은 여기에서는 생략하겠다.

 

 

4. StorageClass

Kubeflow 설치 관련한 많은 포스팅에서 잘 언급해주지 않는 부분이 바로 이 부분이다.

 

Kubeflow 설치 과정에서 약 4개의 PV(PersistentVolume) 생성을 하게 된다.

- 10Gi 용량의 PV 2개

- 20Gi 용량의 PV 2개

 

60Gi 이상의 PV를 생성할 수 있는 환경이어야 하는 것이다.

 

처음에 간단히 설치한다고 낮은 Spec의 환경에서 설치 진행하면, 이런 부분 때문에 어려움을 겪게 된다.

나도 마찬가지였다. Worer Node의 Disk 용량을 충분히 잡아놓지 않았기 때문이다.

 

그래서, NFS를 이용해서 StorageClass 설정을 진행하기로 했다.

 

① NFS Server 설치

NFS Server를 만드는 방법은 다음 포스팅을 참고하기 바란다.

- https://www.whatwant.com/entry/NFS-Server-Ubuntu-1804

 

② NFS Provisioner

Kubernetes에서 NFS를 사용하기 위한 Provisioner를 설치하자.

- https://github.com/kubernetes-sigs/nfs-subdir-external-provisioner

 

Helm을 이용하려고 하는데, 혹시 Helm이 설치 안되어 있다면 다음과 같이 진행하면 된다.

- https://github.com/helm/helm/releases

 

❯ wget https://get.helm.sh/helm-v3.12.3-linux-amd64.tar.gz

tar zxvf helm-v3.12.3-linux-amd64.tar.gz

sudo install -o root -g root -m 0755 helm /usr/local/bin/helm

 

NFS Provisioner 설치는 다음과 같이 하면 된다.

 

❯ helm repo add nfs-subdir-external-provisioner https://kubernetes-sigs.github.io/nfs-subdir-external-provisioner/

❯ helm install nfs-subdir-external-provisioner nfs-subdir-external-provisioner/nfs-subdir-external-provisioner \                 
    --set nfs.server=192.168.100.153 \
    --set nfs.path=/srv/nfs

❯ kubectl patch storageclass nfs-client -p '{"metadata": {"annotations":{"storageclass.kubernetes.io/is-default-class":"true"}}}'

 

잘 되는지 테스트를 해보면 다음과 같다.

 

 kubectl create -f https://raw.githubusercontent.com/kubernetes-sigs/nfs-subdir-external-provisioner/master/deploy/test-claim.yaml -f https://raw.githubusercontent.com/kubernetes-sigs/nfs-subdir-external-provisioner/master/deploy/test-pod.yaml

❯ kubectl delete -f https://raw.githubusercontent.com/kubernetes-sigs/nfs-subdir-external-provisioner/master/deploy/test-claim.yaml -f https://raw.githubusercontent.com/kubernetes-sigs/nfs-subdir-external-provisioner/master/deploy/test-pod.yaml

 

NFS 서버에 생성된 디렉토리와 SUCCESS 파일이 확인되면 된다.

필요 없어진 디렉토리/파일 삭제는, 직접 수작업으로 NFS Server에서 진행하면 된다.

 

 

5. kubeflow install

이제 준비는 끝났다. manifest를 이용한 설치를 진행해보자.

- https://github.com/kubeflow/manifests#install-with-a-single-command

https://github.com/kubeflow/manifests#installation

 

Kubeflow 실제 설치는 정말 쉽다.

kubeflow install

 

❯ git clone https://github.com/kubeflow/manifests.git 

❯ cd manifests   

❯ while ! kustomize build example | kubectl apply -f -; do echo "Retrying to apply resources"; sleep 10; done

 

끝!

 

이제 기다리면 된다. 시간이 좀 걸린다.

k9s

 

모든 Pod가 Running이면 된 것이다.

 

 

6. Service

웹 접근을 위해서는 현재 ClusterIP로 설정되어 있는 서비스를 NodePort 또는 LoadBalancer로 변경해주는 것이 좋다.

ClusterIP

 

설정을 변경해보자.

 

> kubectl edit service istio-ingressgateway -n istio-system

 

type 부분을 수정하고 저장하면 된다.

NodePort

 

다시 확인해보자.

NodePort

 

이제 웹브라우저로 접근하면 된다. (IP는 각자 상황에 맞게, 포트는 위와 같이 확인되는대로)

- http://192.168.100.150:31537/

login

 

기본 계정 정보는 다음과 같다.

- Email: user@example.com

- Password: 1234123 

 

kubeflow

 

수고 많으셨습니다!!!

반응형

 

예전에도 NFS Server 설치를 알아봤었다.

  - https://www.whatwant.com/entry/NFSNetwork-File-System-기본-설정하기-Ubuntu-1404-1204

 

하지만 시간도 꽤 흘렀고,

Ubuntu 버전도 예전과 달라졌으니 새로 진행해보려 한다.

 

 

0. 설치 환경

  - VirtualBox 버전 6.1.26 r145957 (Qt5.6.2)

  - Ubuntu 18.04.6 LTS

  - Ubuntu 20.04.3 LTS

 

 

1. NFS Package 설치

  - 가능한 Ubuntu에서 배포하는 기본 패키지를 사용하겠다

master$ sudo apt install nfs-common nfs-kernel-server portmap

 

 

2. 디렉토리 생성

  - NFS 용도의 디렉토리를 만들고 권한을 설정하자

master$ sudo mkdir /srv/nfs

master$ sudo chmod 777 /srv/nfs

 

 

3. 접근 가능 호스트 목록 등록

  - 어디에서 접근할지 정의하자

master$ sudo nano /etc/exports
...
/srv/nfs 192.168.100.*(rw,sync,no_root_squash,no_subtree_check)

 

 

4. 서비스 리스타트

  - 설정 적용을 위해 서비스 재시작!

master$ sudo service nfs-kernel-server restart

 

 

5. 확인 (Server)

  - 지금 서비스 되고 있는 NFS 확인

master$ showmount -e 127.0.0.1

Export list for 127.0.0.1:
/srv/nfs 192.168.100.*

 

 

6. 확인 (Client)

  - 정말 연결이 잘되는지 확인

  - 이하 과정은 NFS 설치한 Server 말고 다른 Server에서 (/etc/exports 설정한 IP 대역에 있는) 수행

worker1$ sudo apt install nfs-common

worker1$ sudo mkdir /srv/nfs-client

worker1$ sudo mount -t nfs 192.168.100.200:/srv/nfs /srv/nfs-client
mount.nfs: access denied by server while mounting 192.168.100.200:/srv/nfs

 

  - 어?! access deny ?!

  - `/etc/hosts` 파일에 별도로 등록이 된 IP인 경우에 정책 적용이 제대로 안될 수 있다.

master$ sudo nano /etc/exports
...
/srv/nfs 192.168.100.*(rw,sync,no_root_squash,no_subtree_check) worker1(rw,sync,no_root_squash,no_subtree_check) 

 

  - 이제 다시 mount를 해보면, 된다.

worker1$ sudo mount -t nfs 192.168.100.200:/srv/nfs /srv/nfs-client

 

  - 아무런 메시지가 없으면 된 것이다.

worker1$ cd /srv/nfs-client

worker1$ touch temp.txt

 

  - NFS Server 측에서 확인해보면 보인다.

master$ cd /srv/nfs

master$ ls -al

 

  - 확인 다 했으면, umount 하면 된다.

worker1$ cd /srv

worker1$ sudo umount -t nfs 192.168.100.200:/srv/nfs /srv/nfs-client

 

 

자세한 옵션 등의 정보는 기존 포스팅을 참고해주세요~

  - https://www.whatwant.com/entry/NFSNetwork-File-System-기본-설정하기-Ubuntu-1404-1204

 

반응형

'잘난놈되기' 카테고리의 다른 글

kubectl 설치 (in Ubuntu)  (0) 2021.08.30
한글 지원되는 Ubuntu Docker Image 만들기  (0) 2021.07.27
bpytop 설치 (Ubuntu 18.04)  (2) 2020.12.31
하드디스크 용량 분석 (SpaceSniffer)  (0) 2020.12.28
Docker Hub 활용  (0) 2020.11.14

NFS를 사용하기 위해서 사용하는 포트가 지정된 1개가 아니다.
그러다보니 방화벽 환경에서 NFS를 사용하게 되면 당연히 문제가 발생한다.



[ portmap → rpcbind ]

포트를 활용하기 위하여 portmap을설치하려 했더니 다음과 같은 메시지가 나온다.

$ sudo apt-get install portmap
Reading package lists... Done
Building dependency tree       
Reading state information... Done
Note, selecting 'rpcbind' instead of 'portmap'
rpcbind is already the newest version.
rpcbind set to manually installed.
0 upgraded, 0 newly installed, 0 to remove and 2 not upgraded.


portmap 대신에 rpcbind 가 설치되어 있다는 말인데, 그렇다면 우리는 rpcbind를 사용하면 된다.



[ port 현황 확인 ]

지금 사용하고 있는 port 현황을 확인해보도록 하자.

$ rpcinfo -p
   program vers proto      port  service
    100000    4      tcp        111  portmapper
    100000    3      tcp        111  portmapper
    100000    2      tcp        111  portmapper
    100000    4      udp       111  portmapper
    100000    3      udp       111  portmapper
    100000    2      udp       111  portmapper
    100024    1      udp    38905  status
    100024    1      tcp     40987  status
    100003    2      tcp       2049  nfs
    100003    3      tcp       2049  nfs
    100003    4      tcp       2049  nfs
    100227    2      tcp       2049
    100227    3      tcp       2049
    100003    2      udp      2049  nfs
    100003    3      udp      2049  nfs
    100003    4      udp      2049  nfs
    100227    2      udp      2049
    100227    3      udp      2049
    100021    1      udp    54927  nlockmgr
    100021    3      udp    54927  nlockmgr
    100021    4      udp    54927  nlockmgr
    100021    1      tcp     44736  nlockmgr
    100021    3      tcp     44736  nlockmgr
    100021    4      tcp     44736  nlockmgr
    100005    1      udp    47711  mountd
    100005    1      tcp     53370  mountd
    100005    2      udp    48583  mountd
    100005    2      tcp     43514  mountd
    100005    3      udp    51022  mountd
    100005    3      tcp     52825  mountd



[ port 등록 ]

사용할 포트를 등록해보자.

$ sudo nano /etc/services

...
status            4000/tcp                        # rpc.statd tcp port
status            4000/udp                       # rpc.statd udp port
mountd          4002/tcp                        # mountd tcp port
mountd          4002/udp                       # mountd udp port
rquotad          4003/tcp                        # rpc.rquotad tcp port
rquotad          4003/udp                       # rpc.rquotad udp port
...

실행 옵션도 수정해주어야 한다.

$ sudo nano /etc/default/nfs-kernel-server

...
# RPCMOUNTDOPTS="--manage-gids"
RPCMOUNTDOPTS="-p 4002 -g"
...

다음의 파일을 수정해야 한다.
만약 없는 경우 새로 생성하면 된다.

$ sudo nano /etc/modprobe.d/options.conf

options lockd nlm_udpport=4001 nlm_tcpport=4001


그리고, 이젠 서비스를 재시작하자.

$ sudo service rpcbind restart
rpcbind stop/waiting
rpcbind start/running, process 2519

$ sudo service nfs-kernel-server restart
 * Stopping NFS kernel daemon                                                                            [ OK ]
 * Unexporting directories for NFS kernel daemon...                                                [ OK ]
 * Exporting directories for NFS kernel daemon...                                                    [ OK ]
 * Starting NFS kernel daemon                                                                              [ OK ]

정상적으로 적용이 잘 되었는지 확인해보자.

$ rpcinfo -p
   program vers proto   port  service
    100000    4   tcp        111  portmapper
    100000    3   tcp        111  portmapper
    100000    2   tcp        111  portmapper
    100000    4   udp       111  portmapper
    100000    3   udp       111  portmapper
    100000    2   udp       111  portmapper
    100024    1   udp     4000  status
    100024    1   tcp      4000  status
    100003    2   tcp      2049  nfs
    100003    3   tcp      2049  nfs
    100003    4   tcp      2049  nfs
    100227    2   tcp      2049
    100227    3   tcp      2049
    100003    2   udp     2049  nfs
    100003    3   udp     2049  nfs
    100003    4   udp     2049  nfs
    100227    2   udp     2049
    100227    3   udp     2049
    100021    1   udp     4001  nlockmgr
    100021    3   udp     4001  nlockmgr
    100021    4   udp     4001  nlockmgr
    100021    1   tcp      4001  nlockmgr
    100021    3   tcp      4001  nlockmgr
    100021    4   tcp      4001  nlockmgr
    100005    1   udp     4002  mountd
    100005    1   tcp      4002  mountd
    100005    2   udp     4002  mountd
    100005    2   tcp      4002  mountd
    100005    3   udp     4002  mountd
    100005    3   tcp      4002  mountd



위와같이 되었다고 하면 이제 포트가 고정이 되었으니 방화벽에 포트 등록을 해주면 된다.

111 (portmap), 2049 (nfs), 4000 (status), 4001 (nfs lock manager), 4002 (mountd), 4003 (rquotad)

 

반응형

원격에 있는 파일시스템을 사용하기 위해서 사용할 수 있는 방법 중에 가장 유명하고 대중적인 NFS.
NFS(Network File System)는 SUN에서 개발한 RPC(Remote Procedure Call) 기반 시스템이다.


NFS를 사용하는 것은 2대의 PC 사이에서 이루어지는 Server-Client 구조다.



[ Server ]

우선 Server 패키지를 설치해야 한다.

sudo apt-get install nfs-kernel-server


제공해줄 디렉토리를 하나 생성해준다.

$ sudo mkdir ./nfs
$ sudo chmod 777 ./nfs

디렉토리 생성을 꼭 sudo 권한으로 할 필요는 없다. 중요한 것은 777 권한을 부여해주어야 하는 것이다.

그런 다음 필요한 것은, 공유하고 싶은 내용을 환경 설정을 해줘야 한다.

sudo nano /etc/exports

※ VirtualBox 내부 통신을 위해서는 : http://nan1004au.tistory.com/18

# /etc/exports: the access control list for filesystems which may be exported

#               to NFS clients.  See exports(5).

#

# Example for NFSv2 and NFSv3:

# /srv/homes       hostname1(rw,sync,no_subtree_check) hostname2(ro,sync,no_subtree_check)

#

# Example for NFSv4:

# /srv/nfs4        gss/krb5i(rw,sync,fsid=0,crossmnt,no_subtree_check)

# /srv/nfs4/homes  gss/krb5i(rw,sync,no_subtree_check)

#

/srv/nfs 192.168.56.*(rw,no_root_squash,sync,no_subtree_check)


당연히 알겠지만, 위의 IP에서 *표는 각자의 실제 IP로 대체할 수 있다.
그리고 사용할 수 있는 옵션이 엄청 많지만...
필자는 (rw,no_root_squash,sync,no_subtree_check) 정도만으로도 충분한 것 같다.

온갖 인터넷 서핑을 하고, man 내용 살펴보고, 나름 발번역도 해보고 해서 아래와 같이 정리는 했지만
실제 모든 옵션을 테스트 해보지는 않아서 설명이 올바른지는 확인하지 못했다.

옵션 기본값 설명
ro / rw 파일 시스템을 읽기 전용으로 하거나 read-write 가능하도록 마운트
root_squash /
no_root_squash
no_root_squash 이 옵션을 사용하면, 로컬 사용자와 원격 사용자를 모두 ID 0 즉 root로 취급한다. 따라서 원격 사용자는 파일과 디렉토리에 대한 모든 권한을 획득할 수 있다. 모든 유저를 믿을 수 있다면, 편리하게 사용할 수 있지만 보안에 취약할 수 있다. 서버와 클라이언트의 root 사용자를 같도록 설정한다. Default 값으로 루트 사용자의 사용자 ID와 그룹 ID는 모두 0 이다. 이 옵션을 사용하시면 익명 사용자의 사용자 ID와 그룹 ID에 사용자 ID 0와 그룹 ID 0를 부여하여 원격 루트 사용자를 로컬 루트로 취급한다. 따라서 클라이언트 상의 루트 사용자는 디렉토리를 내보내기할 수 있는 권한을 갖게 된다. 이 옵션을 선택하시면 시스템 보안이 매우 약해진다. 절대로 필요한 상황이 아니면 root_squash 옵션을 선택하지 마라.
all_squash /
no_all_squash
no_all_squash 클라이언트 사용자를 익명(anonymous) 사용자로 취급한다. 이 옵션이 선택되면 모든 사용자 ID와 그룹 ID는 익명 사용자로 취급된다.

[no_all_squash] root 이외의 모든 사용자에 대해 같은 UID를 갖는 사용자는 동일한 권한을 준다. 모든 사용자는 nobody. (default)
anonuid 익명 사용자를 위한 사용자 ID를 지정하실 수 있다.
anongid 익명 사용자를 위한 그룹 ID를 지정하실 수 있다.
insecure 인증되지 않은 액세스도 가능
sync / async 파일을 쓸때 서버와 클라이언트 싱크를 맞춘다. 서버는 데이터가 저장소에 안전히 쓰였음을 확인 한 후, 응답을 보낸다. 변경 사항을 디스크에 기록하기 전에는 서버가 요청에 응답하는 것을 허용하지 않는다.

[async] sync 옵션을 사용하지 않는 경우에 해당 한다.
서버는 데이터가 저장소에 안전히 저장됐는지를 확인하지 않는다.
클라이언트의 데이터 쓰기 요청이 들어오면 바로 응답을 보낸다.
데이터 curruption이 발생할 수 있지만 성능 향상을 기대할 수 있다.
no_subtree_check 파일 시스템의 전체 디렉토리가 아닌 하부 디렉토리가 내보내진 경우,
서버는 내보낸 하부 디렉토리에 요청된 파일이 존재하는지를 검사한다. 이러한 검사 과정을 하부구조 검사라고 부른다. 이 옵션을 선택하시면 하부구조 검사를 사용하지 않는다. 전체 파일 시스템이 내보내진 경우에 이 옵션을 선택하면 하부구조 검사를 하지 않음으로서 전송률을 높일 수 있다. 
no_wdelay 즉시 쓰기 작업 동기화를 강제한다. 즉, 즉시 디스크에 기록한다.

설정을 모두 마쳤으면, 재시작!

$ sudo service nfs-kernel-server restart





[ Client ]

NFS를 사용하기 위한 기본 패키지를 설치하자.

sudo apt-get install nfs-common


마운트하여 사용할 디렉토리를 생성하자.

$ sudo mkdir ./nfsclient


다시 한 번 말하지만, 꼭 sudo 권한으로 할 필요는 없다.
실제 사용할 목적에 맞춰서 적절히 권한을 설정해주면 된다.

이제 mount를 하면 된다.

sudo mount -t nfs -o nolock 10.89.54.*:/srv/nfs /srv/nfsclient


위와 같이 따라하면 일단, NFS를 이용해서 원격으로 접근하여 파일시스템을 사용할 수 있다.
당연히 알겠지만 위의 IP 부분은 NFS Server를 하고 있는 아이의 IP로 적어주면 된다.

하지만, 우리가 원하는 것은... 재부팅을 하여도 계속 연결되어 있는 파일시스템일 것이다.
그렇게 하기 위해서는 아래와 같이 fstab 설정을 진행하여주면 된다.



[ fstab for NFS ]

파일시스템을 관리하기 위해 종종 사용했을 것이다.
일반적인 스타일로는 아래와 같이 진행하면 된다.

[파일시스템 장치명] [마운트 포인트] [파일시스템 종류] [옵션] [dump관련설정] [파일점검 옵션]


< 옵션 >

옵션 기본값 설명
auto / noauto auto  부팅시 자동 마운트 여부
exec / no exec exec 실행파일이 실행되는 것을 허용 여부
ro / rw rw (read only) or (read write)
suid / nosuid suid setuid, setgid의 사용 허용 여부
user / nouser nouser 일반 계정 사용자들도 마운트 할 수 있도록 하거나 root만 mount 가능
usrquota   일반 사용자 quota적용
grpquota   그룹 quota 적용


< dump >

0 : 덤프되지 않은 파일시스템
1 : 데이터 백업을 위해 dump가능

 
< 파일점검 >

0 : 부팅시 fsck를 사용하지 않음
1 : 루트 파일시스템을 의미
2 : 루트 파일시스템 이외의 파일시스템을 의미


하지만, 일반적으로 fstab을 사용한다고 하면 위의 옵션들로 충분하지만,
우리는 조금 특이한 NFS를 사용을 하기에 조금 다른 옵션들을 사용할 수 있다.

하지만 아래 내용은 인터넷 짜집기와 나름의 발번역으로 정리한 것이다.
실제 옵션을 모두 확인해보지는 못했기에 보증하지는 못하겠다.

옵션 기본값 설명
rsize=n The  number of bytes NFS uses when reading files from an NFS server.
The rsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller. Note: Setting this size to a value  less  than  the largest supported block size will adversely affect performance.
wsize=n The number of bytes NFS uses when writing  files to  an NFS  server.
The wsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used;  however, the actual size used may be smaller. Note: Setting this size to a value less than the largest supported block size  will adversely affect performance.
timeo=n The value in tenths of a second before sending the first retransmission after an RPC timeout. The default value is 7 tenths of a second. After the first timeout, the timeout is doubled after each successive timeout until a maximum timeout of 60 seconds is reached or the enough retransmissions have occured to cause a major timeout. Then, if the filesystem is hard mounted, each new time-out cascade restarts at twice the initial value of the previous cascade, again doubling at each retransmission. The maximum timeout is always 60 seconds. Better overall performance may be achieved by increasing the time-out when mounting on a busy network, to a slow server, or through several routers or gateways.
retrans=n 3 The number of minor timeouts and retransmissions that must occur before a major timeout occurs. When a major timeout occurs, the file operation is either aborted or a "server not responding" message is printed on the console.
acregmin=n 3 The minimum time in seconds that attributes of a regular file should be cached before requesting fresh information from a server.
acregmax=n 60 The maximum time in seconds that attributes of a regular file can be cached before requesting  fresh  information from a server.
acdirmin=n 30 The minimum time in seconds that attributes of a directory should be cached before requesting fresh information from a server.
acdirmax=n 60 The maximum time in seconds that attributes of a directory can be cached before requesting fresh information from a server.
actimeo=n Using  actimeo sets all of acregmin, acregmax, acdirmin, and acdirmax to the same value. There is no default value.
retry=n The number of minutes to retry an NFS mount operation in the foreground or  background  before  giving up. The default value for forground mounts is 2 minutes. The default value for background mounts is 10000 minutes, which is roughly one week.
namlen=n 255 NFS 서버가 RPC 마운트 프로토콜의 버전 2를 지원하지 않을 때 원격 파일 시스템에서 지원되는 파일명의 길이를 명시한다. POSIX pathconf 함수를 지원하기 위해서 사용된다.
port=n The numeric value of the port to connect to the NFS server on. If the port number is 0 (the default) then query the remote host's portmapper for the  port number to  use. If the remote host's NFS daemon is not registered with its portmapper, the standard NFS port number 2049 is used instead.
proto=n Mount the NFS filesystem using a specific network protocol instead of  the default TCP protocol. Valid protocol types are udp and tcp.
mountport=n mountd 포트 번호 지정하기
mountprog=n 100005 원격 호스트의 마운트 데몬과 접속하기 위해 사용할 수 있는 별도의 RPC 프로그램 번호를 정한다. NFS 서버를 여러 개 운영하고 있을 때 유용하다.
mountvers=n Use an alternate RPC version number to contact the mount daemon on the remote host. This option is useful for hosts that can run multiple NFS servers.
The default value depends on which kernel you are using.
nfsprog=n 100003 원격 호스트의 NFS 데몬과 접속하기 위해 사용하는 별도의 RPC 프로그램 번호를 정한다. NFS 서버를 여러 개 운영하고 있을 때 사용한다.
nfsvers=n 원격 호스트의 NFS 데몬과 접속하기 위해 사용하는 별도의 RPC 버전 번호를 정한다. NFS 서버를 여러 개 운영하고 있을 때 사용한다.
vers=n vers is an alternative to nfsvers and is compatible with many other operating systems.
nolock Disable NFS locking. Do not  start  lockd. This has to be used with some old NFS servers that don't support locking.
bg If the first NFS mount attempt times out, retry the mount in the background.
After a mount operation is backgrounded, all subsequent mounts on the same NFS server will be backgrounded immediately, without first attempting the mount. A missing  mount  point is treated as a timeout, to allow for nested NFS mounts.
fg If the first NFS mount attempt times out, retry the mount in the foreground.  This is the complement of the  bg  option, and  also  the default behavior.
soft If an NFS file operation has a major timeout then report an I/O error to the calling program. The default is to continue retrying NFS file operations indefinitely.
hard If an NFS file operation has a major timeout then report "server not responding" on the console and continue retrying indefinitely. This is the default.
intr If an NFS file operation has a major timeout and it is hard mounted, then allow signals to interupt the file operation and cause it to return EINTR to the calling program. The default is to not allow file operations to be interrupted.
posix POSIX 규칙을 사용하여 NFS 파일 시스템을 마운트한다. 파일명 최대 길이에 POSIX pathconf 함수를 제대로 지원을 위해서 사용된다. 원격 호스트는 RPC 마운트 프로토콜 버전 2를 지원해야 한다. 많은 NFS 서버들이 아직 버전 1만을 지원하고 있다.
nocto Suppress the retrieval of new attributes when creating a file.
noac Disable all forms of attribute caching entirely. This extracts a significant  performance penalty but it allows two different NFS clients to get reasonable results when both clients are actively writing to a common export on the server.
noacl Disables Access Control List (ACL) processing.
resvport/noresvport

Specifies whether the NFS client should use a privileged source port when communicating with an NFS server for this mount point. If this option is not specified, or the resvport option is specified, the NFS client uses a privileged source port. If the noresvport option is specified, the NFS client uses a nonprivileged source port.
Using non-privileged source ports helps increase the maximum number of NFS mount points allowed on a client, but NFS servers must be configured to allow clients to connect via non-privileged source ports.

sec=mode Set the security flavor for this mount to "mode". The default setting is sec=sys, which uses local unix uids and gids to authenticate NFS operations (AUTH_SYS). Other currently supported settings are:  sec=krb5, which uses Kerberos V5 instead of local unix uids and gids to  authenticate  users; sec=krb5i, which uses Kerberos V5 for user authentication and performs integrity checking of NFS operations using secure checksums to prevent data tampering; and sec=krb5p, which uses Kerberos V5 for user authentication and integrity checking, and encrypts NFS traffic to prevent traffic sniffing (this is the most secure setting). Note that there is a performance penalty when using integrity or privacy.
tcp / udp tcp 많은 NFS 서버들이 UDP만을 지원하지만, TCP 프로토콜을 사용할 수도 있다.
nordirplus Disables NFSv3 READDIRPLUS RPCs. Use this options when mounting servers that don't support or have broken READDIRPLUS implementations.
nosharecache As of kernel 2.6.18, it is no longer possible to mount the same  same filesystem with different mount options to a new mountpoint.  It was deemed unsafe to do so, since cached data cannot  be shared  between  the two mountpoints. In consequence, files or directories that were common  to both  mountpoint subtrees could often be seen to be out of sync following an update. This option allows administrators to select the pre-2.6.18 behaviour, permitting the same filesystem to be mounted with different mount options.
Beware: Use of this option is not recommended unless you are certain that there are no hard links or subtrees of this mountpoint that are mounted elsewhere.
lookupcache=type

This option dictates how directories and files should be cached when they are accessed -- i.e. "looked up" -- on the server. A lookup can  be either positive (directory/file was found) or negative (directory/file was not found);  both types of lookups can be cached.
By default, both positive and negative lookups are cached(lookupcache=all). lookupcache=pos prevents negative lookups from being cached, while lookupcache=none prevents all lookups from being cached.
Note:  lookupcache=none can adversely affect performance, but may be necessary if shared files created or deleted on the server need to be immediately visible to any applications running on NFS clients.


특히, NFS4를 위해서는 더 다양한 옵션이 있다. 사실 그리 반갑지는 않다.
특히 전체를 테스트해보지 못했다라는 것이 개인적으로는 무언가 아쉽다.

옵션 기본값 설명
rsize=n The number of bytes nfs4 uses when reading files from the server. The rsize is negotiated between the server  and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used may be smaller.
Note: Setting this size to a value less than the largest supported block  size  will adversely affect performance.
wsize=n The number of bytes nfs4 uses when writing files to the server. The wsize is negotiated between the server and client to determine the largest block size that both can support. The value specified by this option is the maximum size that could be used; however, the actual size used  may be smaller.
Note: Setting this size to a value less than the largest supported block  size  will adversely affect performance.
timeo=n The value in tenths of a second before sending the first retransmission after  an  RPC timeout. The default value depends on whether proto=udp or proto=tcp is in effect (see below). The default value for UDP is 7  tenths of a second. The default value for TCP is 60 seconds.
After the first timeout, the timeout is doubled after each successive timeout until a maximum timeout of 60 seconds is reached or the enough  retransmissions have occured to cause a major timeout. Then, if the filesystem is hard mounted, each new timeout cascade restarts at twice the initial value of the previous cascade, again doubling at each retransmission. The maximum timeout is always 60 seconds.
retrans=n 5 / 2

주 타임아웃을 발생하기 전에 부 타임아웃과 재전송 횟수를 정한다. (proto=udp)인 경우에는 5, (proto=tcp)인 경우에는 2가 기본값이다. 주 타임아웃이 일어나면 파일 작업이 중지되거나 콘솔 상에 "server not responding" 메시지가 출력된다.

acregmin=n 3 서버에게 최신 정보를 요청하기에 앞서 일반 파일의 속성이 캐쉬되어야 할 시간의 최소값을 정한다.
acregmax=n 60 서버에게 최신 정보를 요청하기에 앞서 일반 파일의 속성이 캐쉬되어야 할 시간의 최대값을 정한다.
acdirmin=n 30 서버에게 최신 정보를 요청하기에 앞서 디렉토리의 속성이 캐쉬되어야 할 시간의 최소값을 정한다.
acdirmax=n 60 서버에게 최신 정보를 요청하기에 앞서 디렉토리의 속성이 캐쉬되어야 할 시간의 최대값을 정한다.
actimeo=n 이 값을 다음 acregmin, acregmax, acdirmin, acdirmax에 똑같이 적용한다.
retry=n 2 / 10000 포그라운드 또는 백그라운드에서 진행 중인 NFS 마운트 작업이 포기하기 전까지 실행할 시간(분, minutes)을 정한다. 포그라운드의 경우 2분, 백그라운드는 10000분(약 1주)이 기본값이다.
port=n 0 / 2049 NFS 서버와 연결할 수 있는 포트 번호를 정한다. 만약 0이라면 원격 호스트의 portmapper에게 질의하여 알아내도록 하고, 포트매퍼에 NFS 데몬이 등록되어 있지 않은 경우에는 2049라는 표준 NFS 포트 번호가 사용된다.
proto=n Mount the NFS filesystem using a specific network protocol instead  of  the  default TCP protocol. Valid protocol types are udp and tcp. Many NFS version 4 servers only support the TCP protocol.
clientaddr=n On a multi-homed client, this causes the client to use a specific callback address when communicating with an NFS version 4 server. This option is currently ignored.
sec=mode Same as sec=mode for the nfs filesystem type (see above).
bg / fg fg 첫번째 NFS 마운트 시도에서 타임아웃이 걸리면 포그라운드로 실행하거나 (fg),
타임아웃 걸리면 백그라운드에서 실행(bg)을 하도록 한다. bg 옵션을 보완하는 것이 fg 옵션이다.
After a mount operation is backgrounded, all  subsequent mounts on  the same NFS server will be backgrounded immediately, without first attempting the  mount. A missing mount point is treated as a timeout, to allow for nested NFS mounts.
soft / hard hard NFS 파일 작업에서 주 타임아웃이 걸리면 콘솔상에 "server not responding"이라고 출력하고 무한히 재시도하하거나(hard) 프로그램에게 I/O 에러를 보고한다(soft).
intr (none) 주 타임아웃이 생기고 하드 마운트된 상태라면 파일 작업을 중지하도록 시그널을 보내도록 허용하고 EINTR 시그널을 보낸다. 기본값은 파일 작업을 인터럽트하지 않는 것이다.
nocto 파일이 생성될 때 새로운 속성을 검색하는 것을 금한다.
noac 모든 속성 캐쉬를 못하게 하고, 강제로 동기를 맞춰서 쓴다. 서버 효율을 떨어뜨리기는 하지만 두 개의 다른 NFS 클라이언트로 하여금 서버 상의 공통 파일 시스템에 쓰기 작업을 할 때 좋은 효율을 얻을 수 있게 해준다.
nosharecache As of kernel 2.6.18, it is no longer possible to mount  the same filesystem with different mount options to a new mountpoint. It was deemed unsafe to do so, since cached data cannot be shared between the two mountpoints. In consequence, files or directories that were common to both mountpoint subtrees could often be seen to be out of sync following an update. This option allows administrators to select the pre-2.6.18 behaviour, permitting the same filesystem to be mounted with different mount options.
Beware: Use of this option is not recommended unless you are certain that there are no hard links or subtrees of this mountpoint that are mounted elsewhere.
lookupcache=type This option dictates how directories and files should be cached when they are accessed --  i.e. "looked  up"  -- on  the server.
A lookup can be either positive (directory/file was  found) or negative (directory/file was not found); both types of lookups can be cached.
By default, both positive and negative lookups are cached (lookupcache=all ).
lookupcache=pos prevents negative lookups from being cached, while  lookupcache=none prevents all lookups from being cached.
Note: lookupcache=none can adversely affect performance, but may be necessary if shared files created or deleted on the server need to be immediately visible to any applications running on NFS clients.


무언가 옵션이 엄청 많고 하나 하나 설정을 해주면 좋을 것 같은데,
개인적으로 이만큼 알아보는 것만으로도 정말 많은 시간을 빼앗기다보니.... 일일이 테스트해보지를 못했다.
정말 아쉽기는 한데, 구글링을 열심히 해봐도 저 많은 옵션을 일일이 셋팅하는 경우가 많지는 않아서 안심이다.



일단 아래와 같이 정말 간단하게 해보자.
당연히 [ NFS Client ]에서 수행하는 것이다.

sudo nano /etc/fstab

...


192.168.56.102:/srv/nfs /srv/nfsclient nfs defaults 0 0


입력을 잘하였으면 이제는 잘 동작하는지 확인을 해볼차례다. 재부팅!!!! 고고!!!
재부팅 후에 설정한 디렉토리를 살펴보자. 잘 연결되어 있으면 성공!!!

위와 같이 그대로 했을 때 필자는 성공을 했으므로
만약 여러분이 그대로 했는데 안되었다면 무언가 중간에 놓친 것이 있거나 상황이 다른 것이니 확인을 해보기 바란다.



이 외에 Firewall 환경에서의 포트 제한 등에 대해서는 다른 포스트로 설명하도록 하겠다.

반응형

+ Recent posts