Issue example:

Reason:         Evicted
Message:        Pod The node had condition: [DiskPressure].

 

멀쩡하게 running 중이던 Pod 의 상태가 Evicted 로 여러 Pod로 늘어나 있는 경우, 어떤 이유에 의해 새  Pod를 예약할 수 없는 상태일 때 발생한다.

여기서 Message 를 보면 DiskPressure 조건에 의해 실패하였으며 해당 경우에는 노드의 사용 가능한 디스크 공간이 부족하거나 소진되어 쿠버네티스 시스템에서 해당 노드에 새 포드를 예약할 수 없어 포드가 해당 노드에서 제거된 것을 알 수 있다.

시스템은 디스크 공간을 확보하고 클러스터의 전반적인 안정성을 보장하기 위해 노드의 기존 포드를 제거할 수 있다.

 

해당 DiskPressure 조건에 미치려면 몇가지 경우의 수가 있다.

  1. 해당 노드의 disk usage 문제
    1. 노드의 디스크 공간 체크, 부족시 불필요한 파일 삭제 및 더 많은 스토리지 용량 추가 등으로 해결
  2. 해당 노드의 사용중인 inode usage 문제
    1. df -i 로 inode 용량 확인
  3. 처리되는 파일 갯수의 문제 (Max open files)
    1. 아래 명령어로 확인
cat /proc/$(pgrep kubelet)/limits | grep "Max open files"

             결과 값:

# cat /proc/$(pgrep kubelet)/limits | grep "Max open files"
Max open files            1000000              1000000              files

            2. 높은 경우, kubelet 프로세스의 최대 열린 파일 수를 늘려본다. 해당 노드의 kubelet conf 파일에 적절한 Limit 값을 설정하면 된다.

                설정 파일 위치: /etc/systemd/system/kubelet.service.d/

                추가 값 예시: LimitNOFILE=1000000

[Service] 섹션에 해당 값을 추가한다. 추가 후에는 데몬을 리로드하고 kubelet 을 재기동한다.

sudo systemctl daemon-reload
sudo systemctl restart kubelet

kubelet 의 eviction threshold 를 확인하려면 해당 워커노드의 /etc/kubernetes/ 에 kubelet 관련 파일의 "evictionHard" 부분을 확인할 수 있다.

  "evictionHard": {
    "memory.available": "100Mi",
    "nodefs.available": "10%",
    "nodefs.inodesFree": "5%"
  },

nodefs.available은 disk pressure과 관련있고 위에서는 10%로 설정되어있다. 즉, 해당 노드에서 사용 가능한 파일 시스템 공간의 비율이 10% 미만으로 떨어지면 Kubernetes가 노드에서 포드를 evicted한다.

 

공식문서 참고:

Minimum eviction reclaim

In some cases, pod eviction only reclaims a small amount of the starved resource. This can lead to the kubelet repeatedly hitting the configured eviction thresholds and triggering multiple evictions.

You can use the --eviction-minimum-reclaim flag or a kubelet config file to configure a minimum reclaim amount for each resource. When the kubelet notices that a resource is starved, it continues to reclaim that resource until it reclaims the quantity you specify.

For example, the following configuration sets minimum reclaim amounts:

apiVersion: kubelet.config.k8s.io/v1beta1
kind: KubeletConfiguration
evictionHard:
  memory.available: "500Mi"
  nodefs.available: "1Gi"
  imagefs.available: "100Gi"
evictionMinimumReclaim:
  memory.available: "0Mi"
  nodefs.available: "500Mi"
  imagefs.available: "2Gi"

 

이외 기존 Evicted Pod들을 아래 명령어로 Running 상태인 pod 제외하고 제거할 수 있다.

kubectl get pods -n <namespace> --field-selector=status.phase=Failed | grep Evicted | awk '{if($3!="Running") print $1}' | xargs kubectl delete pod -n <namespace>

또는 깔끔하게 해당 포드의 deployment 파일 replica 수롤 조정하여 재 배포한다.

replicas 를 0개로 했다가 다시 증가시킨다.

kubectl scale deployment <your-deployment-name> --replicas=0 -n monitoring

재 배포 전에 Back-off 에러가 발생하여 로그를 확인해보니 아래 에러가 발생하였다.

msg="Error loading config (--config.file=/etc/config/prometheus.yml)" err="parsing YAML file /etc/config/prometheus.yml: yaml: unmarshal errors:\n  line 14: field metrics_path not found in type struct { Targets []string \"yaml:\\\"targets\\\"\"; Labels model.LabelSet \"yaml:\\\"labels\\\"\" }"

컨테이너 두개중 컨피그맵을 통째로 /etc/config 에 맵핑한 것은 정상인데 두번째 컨테이너의 /etc/config/blahblah.yml 로 마운트한 부분 값과 관련하여 yaml: unmarshal 에러가 발생했다.

관련 서비스 컨피그맵의 해당 yml 아래 metrics_path 를 확인하여 syntax 에러를 수정하고 재 배포 후 해결되었다.

 

Before:

      - job_name: actuator
        static_configs:
          - targets: [eap-was.eap.svc:30001]
            metric_path: '/actuator/prometheus'

After: (metrics_path 위치 변경)

- job_name: actuator
  metrics_path: /actuator/prometheus
  static_configs:
  - targets:

 

이외 추가로 알게된 Tip:

  • DaemonSet YAML 을 이전 generation 버전으로 롤백하려고 할때 -

1. 롤백 가능한 버전을 아래 명령어를 이용해 확인한다.

kubectl rollout history daemonset <daemonset-name> -n <namespace>

2. 해당 원하는 버전으로 롤백한다.

kubectl rollout undo daemonset <daemonset-name> -n <namespace> --to-revision=1

--to-revision 에 원하는 버전 값을 입력할 수 있다.

 

  • 기존 중복된 리소스로 인해 helm install 이 실패시 

에러 메시지 예:

helm install <serviced> <service>/<serviced>  --namespace <your namespace>
Error: INSTALLATION FAILED: rendered manifests contain a resource that already exists. Unable to continue with install: ClusterRoleBinding "serviced" in namespace "" exists and cannot be imported into the current release: invalid ownership metadata; label validation

해당 리소스 삭제 후 재 설치한다.

kubectl delete clusterrolebinding <servicd name> -n <your namespace>

 

Pod selection for kubelet eviction: https://kubernetes.io/docs/concepts/scheduling-eviction/node-pressure-eviction/

 

Node-pressure Eviction

Node-pressure eviction is the process by which the kubelet proactively terminates pods to reclaim resources on nodes. The kubelet monitors resources like memory, disk space, and filesystem inodes on your cluster's nodes. When one or more of these resources

kubernetes.io

Pod selection for kubelet eviction 
If the kubelet's attempts to reclaim node-level resources don't bring the eviction signal below the threshold, the kubelet begins to evict end-user pods.
The kubelet uses the following parameters to determine the pod eviction order:
Whether the pod's resource usage exceeds requestsPod PriorityThe pod's resource usage relative to requests
As a result, kubelet ranks and evicts pods in the following order:
BestEffort or Burstable pods where the usage exceeds requests. These pods are evicted based on their Priority and then by how much their usage level exceeds the request.Guaranteed pods and Burstable pods where the usage is less than requests are evicted last, based on their Priority.
Note: The kubelet does not use the pod's QoS class to determine the eviction order. You can use the QoS class to estimate the most likely pod eviction order when reclaiming resources like memory. QoS does not apply to EphemeralStorage requests, so the above scenario will not apply if the node is, for example, under DiskPressure.

 

+

Node conditions 

The kubelet reports node conditions to reflect that the node is under pressure because hard or soft eviction threshold is met, independent of configured grace periods.

The kubelet maps eviction signals to node conditions as follows:

 

ETC.

kube-controller-manager.service

ExecStart=/usr/local/bin/kube-controller-manater \\
	--address=0.0.0.0 \\
    --cluster-cidr=x.x.x.x/x \\
    --cluster-name=<name> \\
    ....
    
    --node-monitor-period=5s
    --node-monitor-grace-period=40s
    --pod-eviction-timeout=5m0s
    
    ...

 

 

 

키바나를 배포했는데 별다른 에러 로그 없이 계속 probe check failed 가 나는 상황에, 실제 파드(포드) 안에서는 서비스 포트(port: 5601)로 정상 응답 확인되며 포드 밖에서는 사설아이피로 방화벽이 모두 허용되있으며 배포된 pod 아이피의 해당 포트 및 서비스 uri로 connection refused가 나는 상황이면,

컨피그맵(kibana-config로 생성했다.)으로 마운트된 kibana.yml 에 server.host: "0.0.0.0" 을 추가 및 배포하여 이를 해결할 수 있다.

pod description (에러 상황): dial tcp x.x.x.x:5601 connect: connection refused

키바나 내부 포드(pod)에 들어가 본다.

kubectl exec -it <pod name> -n <your namespace> -- /bin/bash

들어가면 호스트네임이 보이지만 확인차 hostname 명령어를 쳐서 확인할 수도 있다. (여기서는 hostname: kibana-0)

pod 안에서 호스트네임으로 요청 시 connection refused
pod 안에서 localhost로 요청시 정상 응답

[해결 resolution]

kubectl edit cm kibana-config -n <your namespace>
apiVersion: v1
data:
  kibana.yml: |
    server.host: "0.0.0.0"

위 세팅으로 새로 배포시 이제는 포드 안에서 호스트 네임으로 요청해도 localhost 요청시와 같이 동일하게 정상 응답이 반환되며, 지정한 로드밸런서 타겟그룹에도 아이피가 자동 등록되어 healthy 상태로 확인되었다.

pod 안에서 호스트네임으로 요청 시 정상 응답 반환
Ready 1/1 로 정상 running 상태의 pod 확인

 

문제 해설:

localhost:5601로 로컬 호스트에서 Kibana에 액세스할 수 있지만 kibana-0:5601로는 외부에서 액세스할 수 없는 상태입니다. kibana-0는 호스트 네임이고 배포시 정한 이름입니다. 

이는 Kibana가 동일한 시스템의 연결만 허용하는 루프백 인터페이스에서만 수신(listening)하기 때문일 수 있습니다.

sudo netstat -tlnp | 명령을 실행하여 Kibana가 수신 대기 중인 인터페이스를 확인할 수 있습니다. 포드 내부의sudo netstat -tlnp | grep 5601을 하여 Kibana가 127.0.0.1에서만 수신하는 경우 모든 인터페이스(0.0.0.0) 또는 포드에 액세스하는 데 사용하는 특정 인터페이스에서 수신하도록 구성을 수정해야 합니다.

모든 인터페이스에서 수신 대기하려면 kibana.yml 구성 파일을 수정하고 server.host 옵션을 0.0.0.0으로 설정하면 됩니다. 이렇게 변경한 후 구성을 적용하려면 Kibana를 다시 시작해야 합니다.



It seems that you are able to access Kibana on the local host with localhost:5601, but not from the outside with kibana-0:5601. This could be because Kibana is only listening on the loopback interface, which only allows connections from the same machine.

You can check which interfaces Kibana is listening on by running the command sudo netstat -tlnp | grep 5601 inside the pod. If Kibana is only listening on 127.0.0.1, then you will need to modify its configuration to listen on all interfaces (0.0.0.0) or the specific interface that you are using to access the pod.

To listen on all interfaces, you can modify the kibana.yml configuration file and set the server.host option to 0.0.0.0. For example:After making this change, you will need to restart Kibana for the configuration to take effect.

 

만약 어떤 조정을 위해서 배포될 pod 안의 /etc/sysctl.conf 값을 변경하고 싶은데 read-only filesystem 이라고 로그 확인되면서 배포 커맨드가 적용되지 않는 경우, 그러나 배포 시마다 새로운 pod에 해당 값을 고정으로 적용이 필요한 경우,

컨피그맵으로 해당 값 매칭하여 볼륨 마운트 추가 하는 방법이 가능하다.

 

컨피그맵 생성 예시 (명령어 혹은 yaml 배포 이용):

apiVersion: v1
kind: ConfigMap
metadata:
  name: sysctl-cm
data:
  sysctl.conf: |
    net.ipv6.conf.all.disable_ipv6=1

FYI it's possible that the established IPv6 connections were created before the net.ipv6.conf.all.disable_ipv6 sysctl option was set. The sysctl option disables the IPv6 protocol on the network interface, but it doesn't necessarily terminate existing connections.

Additionally, some applications may still try to establish IPv6 connections even if it's disabled on the network interface. This can be due to the application's configuration or the way it's programmed.

 

배포 yaml 파일 Deployment 항목(pod배포 항목)의 spec, 컨테이너 밑의 volumeMounts에 추가한다.

          volumeMounts:
            - name: sysctl-conf
              mountPath: "/etc/sysctl.conf"
              subPath: sysctl.conf

 

마운트할 대상 볼륨의 컨피그 맵 정의를 volumes 밑에 추가한다.

 

      volumes:
        - name: sysctl-conf
          configMap:
            name: sysctl-cm
            items:
              - key: sysctl.conf
                path: sysctl.conf

 

참고로 yaml 배포시 커맨드를 사용하여 무언가 설치하고 값을 추가하려는데 권한이 없어 안된다는 에러를 접하면,

runAsUser을 0 로 설정하여 최상위 권한으로 설정배포 가능하다.

 

예시:

스펙의 컨테이너 이미지 부분 밑에 추가하였다.

          securityContext:
            runAsUser: 0

커맨드 예시:

               command:                
               - /bin/bash
               - -c
               - apk update && apk add sudo && sysctl -w net.ipv6.conf.all.disable_ipv6=1 && sleep infinity

커맨드는 [] 묶음으로도 표현 가능하다.

command: ["/bin/bash", "-c", "echo 'net.ipv6.conf.all.disable_ipv6 = 1' >> /etc/sysctl.conf && sysctl -p && sleep infinity"]
    securityContext:
      privileged: true

여기서 privileged: true 는 모든 기능으로 포드를 실행하고 읽기 전용 파일 시스템을 우회하는 옵션이다.

option to run the pod with all capabilities and bypass the read-only file system.

 

위 과정을 거쳐 컨피그 맵을 생성하고 볼륨 마운트를 해서, 직접 포드 안에 들어가 해당 값이 적용된 것을 확인할 수 있다.

kubectl exec -it <your pod name> -n <your namespace> -- /bin/bash
bash-5.1# cat /etc/sysctl.conf
net.ipv6.conf.all.disable_ipv6=1

 

또한 로드밸런서(nlb)의 타겟그룹이 ipv6가 아닌 ipv4만 체크하도록 설정하려면 아래 설정을 배포 yaml 파일에 추가한다.

 

apiVersion: v1
kind: Service
metadata:
  name: my-service
  annotations:
    service.beta.kubernetes.io/aws-load-balancer-type: nlb
    service.beta.kubernetes.io/aws-load-balancer-healthcheck-protocol: tcp
    service.beta.kubernetes.io/aws-load-balancer-healthcheck-port: "8080" # replace with the port used by your application
spec:
  selector:
    app: my-app
  ports:
  - protocol: TCP
    port: 8080 # replace with the port used by your application
    targetPort: 8080 # replace with the port used by your application
  type: LoadBalancer

 

여기에 아래와 같이 추가로 원하는 설정을 입력할 수 있다.

service.beta.kubernetes.io/aws-load-balancer-healthcheck-path: "/healthcheck"

service.beta.kubernetes.io/aws-load-balancer-healthcheck-timeout: ?

 

In this example, the health check protocol is set to TCP, which means that the target group will only check IPv4. You can also specify the health check path and timeout, if needed, using the service.beta.kubernetes.io/aws-load-balancer-healthcheck-path and service.beta.kubernetes.io/aws-load-balancer-healthcheck-timeout annotations.

 

why the connection status of ipv6 keeps changing from established to time_wait?

In general, when a TCP connection is closed, it enters a TIME_WAIT state to ensure that all packets have been received by the other end. During this state, the connection is closed, but the socket is still bound to the local and foreign IP addresses and ports.

In the case of IPv6, the addresses used are often based on temporary interface identifiers that are periodically regenerated by the system to protect the privacy of the user. When a new identifier is generated, existing TCP connections using the old identifier are closed, which can result in a large number of TIME_WAIT connections.

To address this issue, some operating systems provide a feature called "stable privacy addresses" that maintain a stable identifier for the network interface, even if the temporary identifier changes. This can help prevent TIME_WAIT connections from being created when the temporary identifier changes.

Additionally, you may want to check if there are any network or firewall issues that could be causing the TCP connections to be closed unexpectedly or prematurely, as this can also lead to TIME_WAIT connections.

 

Deployment 및 StatefulSet는 Kubernetes 클러스터에서 Pod 배포를 관리하는 데 사용할 수 있는 두 개의 Kubernetes 리소스입니다.

이 둘의 주요 차이점은 애플리케이션의 인스턴스가 상호 교환 가능하고 수요에 따라 확장 또는 축소될 수 있는, 상태 비저장 애플리케이션에 배포가 사용된다는 것입니다. 배포는 포드 템플릿의 복제본 세트를 관리하고, 배포를 업데이트하면 업데이트된 포드 템플릿으로 새 복제본 세트를 생성하고 점진적으로 이전 복제본을 새 복제본으로 교체하여 전체 애플리케이션을 사용할 수 있도록 합니다.

반면에 StatefulSet는 고유한 설정과 안정적인 네트워크가 필요한 상태 저장 애플리케이션용으로 설계되었습니다. 예를 들어 데이터를 저장하는 데이터베이스 및 기타 애플리케이션이 있습니다. StatefulSet는 포드가 특정 순서로 시작되도록 하고 각 포드에는 포드가 다시 시작되거나 일정이 변경되더라도 지속되는 고유하고 안정적인 네트워크 설정이 있습니다. 이는 영구 스토리지에 의존하거나 상태 저장 데이터에 대한 특정 요구 사항이 있는 애플리케이션에 중요합니다.

요약하면 쉽게 확장 또는 축소할 수 있고 안정적인 네트워크가 필요하지 않은 상태 비저장 애플리케이션을 배포하는 경우 배포를 사용해야 합니다. 고유 설정 및 안정적인 네트워크가 필요한 상태 저장 애플리케이션을 배포하는 경우 StatefulSet를 사용해야 합니다.

 

The Deployment and StatefulSet are two Kubernetes resources that can be used to manage the deployment of pods in a Kubernetes cluster.

The main difference between the two is that Deployment is used for stateless applications where the instances of the application are interchangeable and can be scaled up or down based on demand. A Deployment manages a set of replicas of a pod template, and when you update the Deployment, it creates a new set of replicas with the updated pod template, and gradually replaces the old replicas with the new ones, ensuring that the application is available throughout the update process.

On the other hand, StatefulSet is designed for stateful applications that require unique identities and stable network identities. For example, databases and other applications that store data. StatefulSet ensures that the pods are started in a specific order, and each pod has a unique, stable network identity that persists even if the pod is restarted or rescheduled. This is important for applications that rely on persistent storage or have specific requirements around stateful data.

In summary, if you are deploying a stateless application that can be scaled up or down easily and does not require stable network identities, then you should use a Deployment. If you are deploying a stateful application that requires unique identities and stable network identities, then you should use a StatefulSet.

Let's create an encryption key and add a secret into a namespace in Kubernetes.

#!/bin/bash

IMAGE="docker.elastic.co/kibana/kibana:<version you want>"

encryptionkey=$(sudo docker run --rm ${IMAGE} /bin/sh -c "< /dev/urandom tr -dc _A-Za-z0-9 | head -c50") && \

kubectl create secret generic kibana --from-literal=encryptionkey=$encryptionkey -n <your namespace>

 

result:

 

And below is the process to create a certificate and mount the secret, line by line.

 

[command] openssl genrsa -out elastic-private.key 2048
result: Generating RSA private key, 2048 bit long modulus..

[command] openssl req -new -key elastic-private.key -out elastic-csr.pem
result: You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
Country Name (2 letter code) [XX]:KR
State or Province Name (full name) []:Seoul
Locality Name (eg, city) [Default City]:?-gu
Organization Name (eg, company) [Default Company Ltd]:Your Company Co Ltd
Organizational Unit Name (eg, section) []:BlahBlah Server
Common Name (eg, your name or your server's hostname) []:full.domain.name
Email Address []:xxx@xxxxx.com
Please enter the following 'extra' attributes
to be sent with your certificate request
A challenge password []:test
An optional company name []:What You Want Co., Ltd.

[command] openssl x509 -req -in elastic-csr.pem -signkey elastic-private.key -out elastic-certificate.pem
result: Signature ok
subject=/C=KR/ST=Seoul/L=?-gu/O=\xC3\xA3Your Company Co Ltd/OU=? Server/CN=your.domain.name/emailAddress=xxxx@xxxx.com
Getting Private key

[command] kubectl create secret generic elastic-certificate-test --from-file=elastic-private.key --from-file=elastic-certificate.pem -n <your namespace>
result: secret/elastic-certificate-test created

 

A mount example of yaml file:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: kibana
spec:
  replicas: 1
  template:
    spec:
      containers:
      - name: kibana
        image: kibana:7.10.1
        env:
        - name: ELASTICSEARCH_URL
          value: http://elasticsearch:9200
        - name: ELASTICSEARCH_HOSTS
          value: http://elasticsearch:9200
        - name: SERVER_SSL_ENABLED
          value: "true"
        - name: SERVER_SSL_CERTIFICATE
          value: /usr/share/kibana/config/certs/elastic-certificate.pem
        - name: SERVER_SSL_KEY
          value: /usr/share/kibana/config/certs/elastic-private.key
        volumeMounts:
        - name: certificates
          mountPath: /usr/share/kibana/config/certs
          readOnly: true
      volumes:
      - name: certificates
        secret:
          secretName: elastic-certificate-test

 

ASCS는 "ABAP 시스템 중앙 서비스"를 나타냅니다. SAP 시스템에서 ABAP 애플리케이션 서버에 필요한 중앙 서비스 관리를 담당하는 SAP 시스템 환경의 구성 요소입니다.

ASCS(ABAP System Central Services) 구성 요소는 ABAP 애플리케이션 서버의 적절한 기능에 필요한 여러 서비스로 구성됩니다. 이러한 서비스에는 시스템의 데이터 일관성을 보장하기 위해 잠금 메커니즘을 제공하는 대기열에 넣기 서비스가 포함됩니다. 응용 프로그램 서버와 다른 시스템 구성 요소 간의 통신을 제공하는 메시지 서비스 외부 클라이언트에서 SAP 시스템에 대한 액세스를 제공하는 게이트웨이 서비스.

ASCS 구성 요소는 일반적으로 응용 프로그램 서버 자체와 별도로 전용 서버에 설치됩니다. 이는 하나 이상의 응용 프로그램 서버가 실패하거나 다시 시작해야 하는 경우에도 ASCS 구성 요소에서 제공하는 중앙 서비스를 사용할 수 있고 지속적으로 실행되도록 하기 위해 수행됩니다.

전반적으로 ASCS 구성 요소는 ABAP 애플리케이션 서버의 적절한 기능에 필요한 중앙 서비스를 제공하므로 SAP 시스템 환경의 중요한 부분입니다.

 

ASCS stands for "ABAP System Central Services". It is a component of the SAP system landscape that is responsible for managing the central services required by the ABAP application servers in an SAP system.

The ABAP System Central Services (ASCS) component consists of several services that are required for the proper functioning of the ABAP application servers. These services include the enqueue service, which provides a locking mechanism to ensure data consistency in the system; the message service, which provides communication between the application servers and other system components; and the Gateway service, which provides access to the SAP system from external clients.

The ASCS component is typically installed on a dedicated server, separate from the application servers themselves. This is done to ensure that the central services provided by the ASCS component are available and running continuously, even if one or more application servers fail or need to be restarted.

Overall, the ASCS component is an important part of the SAP system landscape, as it provides the central services required for the proper functioning of the ABAP application servers.

'SAP' 카테고리의 다른 글

LVM when associating it for EBS  (2) 2023.03.24
what is saptune for SAP?  (0) 2023.03.24
OLTP and OLAP for Hana Database  (0) 2023.03.24

LVM은 Linux 기반 운영 체제에서 디스크 스토리지를 관리하는 데 사용되는 소프트웨어 도구인 Logical Volume Manager의 약자입니다. LVM은 물리적 스토리지 장치(예: 하드 드라이브 또는 EBS 볼륨)와 이를 사용하는 파일 시스템 간의 추상화 계층을 제공하여 스토리지 관리의 유연성을 높입니다.

LVM을 사용하면 물리적 저장 장치가 하나 이상의 논리적 볼륨으로 결합되어 기본 물리적 장치를 다시 분할할 필요 없이 크기를 조정하거나 이동할 수 있습니다. 논리적 볼륨은 하나 이상의 논리적 파티션으로 나눌 수 있으며, 그런 다음 파일 시스템으로 포맷하고 데이터를 저장하는 데 사용할 수 있습니다.

EBS(Amazon Elastic Block Store)에 LVM을 연결하면 EBS 볼륨이 LVM 논리 볼륨의 물리적 장치로 사용되고 있음을 의미합니다. 따라서 기본 EBS 볼륨에 영향을 주지 않고 논리 볼륨의 크기를 조정, 이동 또는 백업할 수 있으므로 EBS 볼륨의 스토리지를 더 유연하게 관리할 수 있습니다. 또한 LVM은 EBS 볼륨에 저장된 데이터의 안정성과 가용성을 개선하는 데 도움이 되는 스냅샷 및 미러링과 같은 기능을 제공할 수 있습니다.

전반적으로 EBS에 LVM을 연결하면 Amazon Web Services에서 실행되는 Linux 기반 시스템에서 스토리지를 관리하는 유용한 방법이 될 수 있으므로 유연성과 관리 용이성이 향상됩니다.

 

(Paying attention to -i option on the command below)

 

Create a logical volume for SAP HANA data:
lvcreate -n lvhanadata -i 3 -I 256 -L 2350G vghanadata
Rounding size x.x TiB up to stripe boundary size x.xx TiB.
Logical volume "lvhanadata" created.

Create a logical volume for SAP HANA log:
lvcreate -n lvhanalog -i 1 -I 256 -L 512G vghanalog
Ignoring stripesize argument with single stripe.
Logical volume "lvhanalog" created.

Create a logical volume for SAP HANA backup
lvcreate -n lvhanaback -i 1 -I 256 -L 4095G vghanaback
Ignoring stripesize argument with single stripe.
Logical volume "lvhanaback" created.

 

LVM stands for Logical Volume Manager, which is a software tool used for managing disk storage on Linux-based operating systems. LVM provides a layer of abstraction between the physical storage devices (such as hard drives or EBS volumes) and the file systems that use them, allowing for greater flexibility in managing storage.

With LVM, physical storage devices are combined into one or more logical volumes, which can then be resized or moved without needing to repartition the underlying physical devices. Logical volumes can also be divided into one or more logical partitions, which can then be formatted with a file system and used to store data.

When associating LVM for EBS (Amazon Elastic Block Store), it means that the EBS volume is being used as a physical device for an LVM logical volume. This allows for greater flexibility in managing the storage on the EBS volume, as logical volumes can be resized, moved, or backed up without affecting the underlying EBS volume. In addition, LVM can provide features such as snapshots and mirroring, which can help improve the reliability and availability of the data stored on the EBS volume.

Overall, associating LVM for EBS can be a useful way to manage storage on Linux-based systems running on Amazon Web Services, providing greater flexibility and ease of management.

'SAP' 카테고리의 다른 글

What is ASCS?  (0) 2023.03.24
what is saptune for SAP?  (0) 2023.03.24
OLTP and OLAP for Hana Database  (0) 2023.03.24

Saptune은 Linux 기반 운영 체제에서 실행되는 SAP 시스템의 성능을 최적화하는 데 도움이 되는 SAP에서 제공하는 도구입니다. 시스템 구성을 분석하고 커널 매개변수, 파일 시스템 설정 및 네트워크 설정과 같은 다양한 시스템 매개변수 조정을 위한 권장 사항을 만듭니다.

Saptune은 OLTP(온라인 트랜잭션 처리), OLAP(온라인 분석 처리) 및 혼합 워크로드와 같은 다양한 SAP 워크로드에 대한 사전 정의된 프로필 세트를 제공합니다. 각 프로필에는 특정 워크로드 유형에 최적화된 조정 권장 사항 집합이 포함되어 있습니다.

Saptune은 사용하기 쉽게 설계되었으며 대화형 모드 또는 배치 모드로 실행할 수 있습니다. 대화식 모드에서 saptune은 사용자에게 특정 설정에 대한 입력을 요청하고 권장 튜닝 변경 사항을 적용합니다. 배치 모드에서 saptune을 사용하여 여러 서버에서 튜닝 프로세스를 자동화할 수 있습니다.

saptune을 사용하면 시스템이 특정 워크로드 유형에 대해 최적으로 구성되도록 하여 Linux 기반 운영 체제에서 실행되는 SAP 시스템의 성능과 안정성을 개선하는 데 도움이 될 수 있습니다. 또한 튜닝 프로세스와 관련된 많은 단계를 자동화하여 튜닝 프로세스를 단순화하는 데 도움이 될 수 있습니다.

 

etc: https://blogs.sap.com/2017/12/22/prepare-your-linux-for-your-sap-solution-with-saptune/



Saptune is a tool provided by SAP that helps optimize the performance of SAP systems running on Linux-based operating systems. It analyzes the system configuration and makes recommendations for tuning various system parameters, such as kernel parameters, file system settings, and network settings.

Saptune provides a set of predefined profiles for different SAP workloads, such as OLTP (Online Transaction Processing), OLAP (Online Analytical Processing), and mixed workloads. Each profile includes a set of tuning recommendations that are optimized for the specific workload type.

Saptune is designed to be easy to use and can be run either in interactive mode or in batch mode. In interactive mode, saptune prompts the user for input on certain settings and applies the recommended tuning changes. In batch mode, saptune can be used to automate the tuning process across multiple servers.

Using saptune can help improve the performance and stability of SAP systems running on Linux-based operating systems, by ensuring that the system is configured optimally for the specific workload type. It can also help simplify the tuning process by automating many of the steps involved in the tuning process.

'SAP' 카테고리의 다른 글

What is ASCS?  (0) 2023.03.24
LVM when associating it for EBS  (2) 2023.03.24
OLTP and OLAP for Hana Database  (0) 2023.03.24

+ Recent posts