참조 아키텍처: 최대 25,000 사용자까지
Offering: Self-managed
이 페이지에서는 최대 25,000 사용자의 부하를 고려하여 설계된 GitLab 참조 아키텍처에 대해 설명합니다.
참조 아키텍처의 전체 디렉터리은 다음을 참조하세요.사용 가능한 참조 아키텍처
- 대상 부하: API: 500 RPS, Web: 50 RPS, Git (Pull): 50 RPS, Git (Push): 10 RPS
- 고가용성: 예 (Praefect는 고가용성을 위해 제3 자 PostgreSQL 솔루션이 필요함)
- 예상 비용: 비용 표 참조
- 클라우드 네이티브 하이브리드 대안: 예
- 어떤 참조 아키텍처를 사용해야 하는지 확신이 없는가? 더 많은 정보를 보려면 여기 가이드로 이동
서비스 | 노드 | 구성 | GCP | AWS | Azure |
---|---|---|---|---|---|
외부 로드 밸런서3 | 1 | 8 vCPU, 7.2 GB 메모리 | n1-highcpu-8
| c5n.2xlarge
| F8s v2
|
Consul1 | 3 | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
| F2s v2
|
PostgreSQL1 | 3 | 16 vCPU, 60 GB 메모리 | n1-standard-16
| m5.4xlarge
| D16s v3
|
PgBouncer1 | 3 | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
| F2s v2
|
내부 로드 밸런서3 | 1 | 8 vCPU, 7.2 GB 메모리 | n1-highcpu-8
| c5n.2xlarge
| F8s v2
|
Redis/Sentinel - 캐시2 | 3 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
| D4s v3
|
Redis/Sentinel - 지속적2 | 3 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
| D4s v3
|
Gitaly5 | 3 | 32 vCPU, 120 GB 메모리6 | n1-standard-32
| m5.8xlarge
| D32s v3
|
Praefect5 | 3 | 4 vCPU, 3.6 GB 메모리 | n1-highcpu-4
| c5.xlarge
| F4s v2
|
Praefect PostgreSQL1 | 1+ | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
| F2s v2
|
Sidekiq7 | 4 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
| D4s v3
|
GitLab Rails7 | 5 | 32 vCPU, 28.8 GB 메모리 | n1-highcpu-32
| c5.9xlarge
| F32s v2
|
모니터링 노드 | 1 | 4 vCPU, 3.6 GB 메모리 | n1-highcpu-4
| c5.xlarge
| F4s v2
|
객체 리포지터리4 | - | - | - | - | - |
각주:
- 신뢰할 수 있는 제3 자 외부 PaaS PostgreSQL 솔루션에서 선택적으로 실행할 수 있습니다. 자세한 내용은 나만의 PostgreSQL 인스턴스 제공를 참조하세요.
- 신뢰할 수 있는 제3 자 외부 PaaS Redis 솔루션에서 선택적으로 실행할 수 있습니다. 자세한 내용은 나만의 Redis 인스턴스 제공를 참조하세요.
- Redis는 주로 싱글 스레드로, CPU 코어 증가로 크게 이득을 얻지 않습니다. 이러한 규모의 아키텍처에서 최적의 성능을 얻기 위해 별도의 캐시 및 지속적인 인스턴스를 분리하는 것이 강력히 권장됩니다.
- 고가용성을 제공할 수 있는 신뢰할 수 있는 제3 자 로드 밸런서 또는 서비스 (LB PaaS)로 실행하는 것이 좋습니다. 또한 사이징은 선택한 로드 밸런서와 네트워크 대역폭 등 추가 요인에 따라 달라집니다. 자세한 내용은 로드 밸런서를 참조하세요.
- 신뢰할 수 있는 클라우드 프로바이더 또는 Self-managed 솔루션에서 실행하는 것이 좋습니다. 자세한 내용은 객체 리포지터리 구성를 참조하세요.
- Gitaly 클러스터는 용량 특성 및 리포지터리 크기의 고 백분위를 기반으로 하되, 추가 복잡성을 동반합니다.
Gitaly 클러스터를 배포하기 전에 기존의 기술적 제한 사항 및 주의 사항을 검토하십시오. 샤드된 Gitaly를 사용하려면
Gitaly
에 나열된 동일한 사양을 사용하십시오. - Gitaly 사양은 건강한 상태의 사용 패턴 및 리포지터리 크기의 고 백분위에 기반합니다. 그러나 대규모 단일 리포지터리 (여러 기가바이트보다 큰)나 추가 워크로드가 있는 경우 Git과 Gitaly 성능에 상당한 영향을 미치므로 추가 조정이 필요할 수 있습니다.
- 컴포넌트는 상태 데이터를 저장하지 않기 때문에 Auto Scaling 그룹(ASG)에 배치할 수 있습니다. 그러나 GitLab Rails의 경우 마이그레이션 및 Mailroom과 같은 일부 프로세스는 한 노드에서만 실행해야 합니다.
요구 사항
시작하기 전에, 참조 아키텍처의 요구 사항을 확인하세요.
테스팅 방법론
25k 아키텍처는 많은 워크플로를 커버하도록 설계되었으며 정기적으로 품질 엔지니어링 팀에 의해 스모크 및 성능 테스트가 다음 엔드포인트 처리량 목표에 대해 수행됩니다.
- API: 500 RPS
- Web: 50 RPS
- Git (Pull): 50 RPS
- Git (Push): 10 RPS
위의 목표는 실제 고객 데이터에 기반하여 사용자 수에 해당하는 총 환경 부하와 CI 및 기타 작업 부하 및 추가 적당한 여유를 고려하여 선택되었습니다.
위의 엔드포인트 목표에 대해 정기적으로 더 높은 처리량을 가지고 있다고 보다 높은 처리량을 제안하는 지표가 있다면, 대형 단일 리포지터리 또는 주목할만한 추가 작업 부하가 성능 환경에 주목할만한 영향을 미칠 수 있으며, 추가 조정이 필요할 수 있습니다. 해당 사항이 해당된다면 링크된 문서를 참고할 것을 강력히 권장하며 Customer Success Manager나 지원팀에 문의하여 추가 지침을 얻으시기 바랍니다.
테스트는 정기적으로 GitLab 성능 도구 (GPT) 및 해당 데이터 세트를 사용하여 수행되며, 누구나 사용할 수 있습니다. 이 테스트의 결과는 GPT 위키에서 공개적으로 사용 가능합니다. 테스트 전략에 대한 자세한 내용은 이 문서의 해당 섹션을 참고하세요.
테스트에 사용된 로드 밸런서는 Linux 패키지 환경에 대한 HAProxy 또는 등가의 클라우드 제공자 서비스를 통해 하이브리드 클라우드 용 NGINX Ingress를 사용했습니다. 이러한 선택은 특정 요구 사항이나 권고 사항을 나타내는 것은 아니며 신뢰할 수 있는 로드 밸런서를 사용하는 것이 기대된다고 가정합니다.
컴포넌트 설정
GitLab 및 관련 컴포넌트를 25,000명의 사용자를 수용할 수 있도록 설정하려면:
-
외부 로드 밸런서 구성
- GitLab 응용 프로그램 서비스 노드의 부하 분산을 처리하는데 사용됩니다.
-
내부 로드 밸런서 구성.
- GitLab 응용 프로그램 내부 연결의 부하 분산을 처리하는데 사용됩니다.
- Consul 구성.
- PostgreSQL 구성, GitLab의 데이터베이스.
- PgBouncer 구성.
- Redis 구성.
-
Gitaly 클러스터 구성,
- Git 리포지터리에 대한 액세스를 제공합니다.
- Sidekiq 구성.
-
메인 GitLab Rails 응용 프로그램 구성
- Puma, Workhorse, GitLab Shell을 실행하고 모든 프론트엔드 요청(UI, API, Git over HTTP/SSH 포함)을 제공합니다.
- Prometheus 구성하여 GitLab 환경을 모니터링합니다.
-
객체 리포지터리 구성
- 공유 데이터 객체에 사용됩니다.
-
고급 검색 구성 (선택 사항)
- 전체 GitLab 인스턴스에서 더 빠르고 더 고급 코드 검색을 위해 사용됩니다.
서버는 동일한 10.6.0.0/24 사설 네트워크 범위에서 시작하여 상호간에 자유롭게 아래 주소를 통해 연결할 수 있습니다.
다음 디렉터리에는 각 서버와 할당된 IP의 설명이 포함되어 있습니다:
-
10.6.0.10
: 외부 로드 밸런서 -
10.6.0.11
: Consul 1 -
10.6.0.12
: Consul 2 -
10.6.0.13
: Consul 3 -
10.6.0.21
: PostgreSQL 프라이머리 -
10.6.0.22
: PostgreSQL 세컨더리 1 -
10.6.0.23
: PostgreSQL 세컨더리 2 -
10.6.0.31
: PgBouncer 1 -
10.6.0.32
: PgBouncer 2 -
10.6.0.33
: PgBouncer 3 -
10.6.0.40
: 내부 로드 밸런서 -
10.6.0.51
: Redis - 캐시 프라이머리 -
10.6.0.52
: Redis - 캐시 레플리카 1 -
10.6.0.53
: Redis - 캐시 레플리카 2 -
10.6.0.61
: Redis - 지속적인 프라이머리 -
10.6.0.62
: Redis - 지속적인 레플리카 1 -
10.6.0.63
: Redis - 지속적인 레플리카 2 -
10.6.0.91
: Gitaly 1 -
10.6.0.92
: Gitaly 2 -
10.6.0.93
: Gitaly 3 -
10.6.0.131
: Praefect 1 -
10.6.0.132
: Praefect 2 -
10.6.0.133
: Praefect 3 -
10.6.0.141
: Praefect PostgreSQL 1 (HA가 아님) -
10.6.0.101
: Sidekiq 1 -
10.6.0.102
: Sidekiq 2 -
10.6.0.103
: Sidekiq 3 -
10.6.0.104
: Sidekiq 4 -
10.6.0.111
: GitLab 응용 프로그램 1 -
10.6.0.112
: GitLab 응용 프로그램 2 -
10.6.0.113
: GitLab 응용 프로그램 3 -
10.6.0.114
: GitLab 응용 프로그램 4 -
10.6.0.115
: GitLab 응용 프로그램 5 -
10.6.0.151
: 프로메테우스
외부 로드 밸런서 구성
다중 노드 GitLab 구성에서 응용 프로그램 서버로의 트래픽을 라우팅하기 위해 외부 로드 밸런서가 필요합니다.
어떤 로드 밸런서를 사용할지 또는 그 정확한 구성에 대한 상세는 GitLab 문서의 범위를 벗어나지만 로드 밸런서를 참조하여 일반적인 요구 사항에 대한 자세한 내용을 확인하세요. 본 섹션은 선택한 로드 밸런서에 대한 구체적인 구성에 초점을 맞추고 있습니다.
준비 확인
외부 로드 밸런서가 내장 모니터링 엔드포인트가 있는 작동하는 서비스로만 경유되도록합니다. 준비 확인은 모든 추가 구성을 요구하며 그렇지 않으면 외부 로드 밸런서가 연결할 수 없을 것입니다.
포트
사용할 기본 포트는 아래 표에 표시됩니다.
LB 포트 | 백엔드 포트 | 프로토콜 |
---|---|---|
80 | 80 | HTTP (1) |
443 | 443 | TCP 또는 HTTPS (1) (2) |
22 | 22 | TCP |
- (1): 웹 터미널 지원을 위해서는 로드 밸런서가 WebSocket 연결을 올바르게 처리해야 합니다. HTTP 또는 HTTPS 프록시를 사용할 때, 로드 밸런서는
Connection
및Upgrade
hop-by-hop 헤더를 통과시키도록 구성되어야 함을 의미합니다. 자세한 내용은 웹 터미널 통합 가이드를 참조하십시오. - (2): 포트 443에 HTTPS 프로토콜을 사용하는 경우, 로드 밸런서에 SSL 인증서를 추가해야 합니다. SSL을 GitLab 응용프로그램 서버에서 종료하려면 TCP 프로토콜을 사용하십시오.
사용자 지정 도메인 지원이 있는 GitLab Pages를 사용하는 경우 추가 포트 구성이 필요합니다.
GitLab Pages에는 별도의 가상 IP 주소가 필요합니다. DNS를 구성하여 /etc/gitlab/gitlab.rb
의 pages_external_url
을 새 가상 IP 주소를 가리키도록 설정하십시오. 자세한 내용은 GitLab Pages 문서를 참조하십시오.
LB 포트 | 백엔드 포트 | 프로토콜 |
---|---|---|
80 | Varies (1) | HTTP |
443 | Varies (1) | TCP (2) |
- (1): GitLab Pages의 백엔드 포트는
gitlab_pages['external_http']
와gitlab_pages['external_https']
설정에 따라 달라집니다. 자세한 내용은 GitLab Pages 문서를 참조하십시오. - (2): GitLab Pages의 포트 443은 항상 TCP 프로토콜을 사용해야 합니다. 사용자는 로드 밸런서에서 SSL을 종료시킨 경우 사용자 정의 SSL과 사용자 정의 도메인을 구성할 수 있습니다.
대체 SSH 포트
일부 조직은 SSH 포트 22를 열지 않는 정책을 가지고 있습니다. 이 경우 443 포트에서 SSH를 사용할 수 있게 하는 대체 SSH 호스트 이름을 구성하는 것이 도움이 될 수 있습니다. 다른 GitLab HTTP 구성과는 달리, 대체 SSH 호스트 이름에는 새로운 가상 IP 주소가 필요합니다.
altssh.gitlab.example.com
과 같은 대체 SSH 호스트 이름의 DNS를 구성하십시오.
LB 포트 | 백엔드 포트 | 프로토콜 |
---|---|---|
443 | 22 | TCP |
SSL
다음 질문은 환경에서 SSL을 어떻게 처리할 것인가에 대한 것입니다. 다양한 옵션이 있습니다.
- 응용프로그램 노드가 SSL을 종료합니다.
- 로드 밸런서가 백엔드 SSL 없이 SSL을 종료하며 로드 밸런서와 응용프로그램 노드 간 통신은 안전하지 않습니다.
- 로드 밸런서가 백엔드 SSL을 사용하여 SSL을 종료하며 로드 밸런서와 응용프로그램 노드 사이의 통신은 안전합니다.
응용프로그램 노드가 SSL을 종료
로드 밸런서를 구성하여 포트 443의 연결을 HTTP(S)
프로토콜이 아닌 TCP
로 전달하십시오.
이렇게하면 연결이 응용프로그램 노드의 NGINX 서비스로 그대로 전달됩니다. NGINX에는 SSL 인증서가 있으며 포트 443에서 수신 대기하고 있습니다.
SSL 인증서를 관리하고 NGINX를 구성하는 자세한 내용은 HTTPS 문서를 참조하십시오.
로드 밸런서가 백엔드 SSL 없이 SSL을 종료
로드 밸런서를 사용하여 TCP
대신 HTTP(S)
프로토콜을 사용하도록 구성하십시오.
로드 밸런서는 SSL 인증서를 관리하고 SSL을 종료할 것입니다.
로드 밸런서와 GitLab 간 통신이 안전하지 않기 때문에 추가 구성이 필요합니다. 자세한 내용은 프록시 SSL 문서를 참조하십시오.
로드 밸런서가 백엔드 SSL을 사용하여 SSL을 종료
로드 밸런서를 사용하여 ‘TCP’ 대신 ‘HTTP(S)’ 프로토콜을 사용하도록 구성하십시오. 로드 밸런서는 최종 사용자가 볼 SSL 인증서를 관리할 것입니다.
이 시나리오에서는 로드 밸런서와 NGINX 간 트래픽도 안전할 것입니다. 연결이 끝까지 안전하므로 프록시 SSL에 대한 구성은 필요하지 않습니다. 그러나 SSL 인증서를 구성하기 위해 GitLab에 구성을 추가해야합니다. SSL 인증서 관리 및 NGINX 구성에 대한 자세한 내용은 HTTPS 문서를 참조하십시오.
내부 로드 밸런서 구성
내부 로드 밸런서는 PgBouncer 및 Praefect (Gitaly 클러스터)와 같은 GitLab 환경에서 필요한 내부 연결을 균형잡기 위해 사용됩니다.
외부 로드 밸런서와 별개로 외부 액세스 권한을 가지지 않아야합니다.
다음 IP가 예제로 사용됩니다.
-
10.6.0.40
: 내부 로드 밸런서
다음은 HAProxy를 사용하여 수행하는 방법입니다:
global
log /dev/log local0
log localhost local1 notice
log stdout format raw local0
defaults
log global
default-server inter 10s fall 3 rise 2
balance leastconn
frontend internal-pgbouncer-tcp-in
bind *:6432
mode tcp
option tcplog
default_backend pgbouncer
frontend internal-praefect-tcp-in
bind *:2305
mode tcp
option tcplog
option clitcpka
default_backend praefect
backend pgbouncer
mode tcp
option tcp-check
server pgbouncer1 10.6.0.31:6432 check
server pgbouncer2 10.6.0.32:6432 check
server pgbouncer3 10.6.0.33:6432 check
backend praefect
mode tcp
option tcp-check
option srvtcpka
server praefect1 10.6.0.131:2305 check
server praefect2 10.6.0.132:2305 check
server praefect3 10.6.0.133:2305 check
자세한 내용은 선호하는 로드 밸런서의 문서를 참조하십시오.
Consul 구성
다음으로, Consul 서버를 설정합니다.
다음 IP들은 예시로 사용됩니다:
-
10.6.0.11
: Consul 1 -
10.6.0.12
: Consul 2 -
10.6.0.13
: Consul 3
Consul을 구성하려면:
- Consul을 호스팅할 서버에 SSH로 로그인합니다.
- 선택한 Linux 패키지를 다운로드하고 설치합니다. 페이지에서 설치 단계 1과 2를 따로 따르고, 현재 설치 중인 버전 및 유형(Community 또는 Enterprise Editions)과 동일한 올바른 Linux 패키지를 선택하세요.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 아래 내용을 추가합니다:roles(['consul_role']) ## Prometheus용 서비스 디스커버리를 활성화합니다 consul['monitoring_service_discovery'] = true ## Consul 서버 노드의 IP ## FQDN(Fully Qualified Domain Name)을 사용하거나 IP와 혼합하여 사용할 수도 있습니다 consul['configuration'] = { server: true, retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # Exporter가 수신 대기할 네트워크 주소를 설정합니다 node_exporter['listen_address'] = '0.0.0.0:9100' # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지합니다 gitlab_rails['auto_migrate'] = false
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하여 이 서버의 동일한 이름의 파일을 추가하거나 교체하세요. 첫 번째 사용자가 이 서버에 대해 Linux 패키지 노드를 구성하는 경우 이 단계를 건너뛰실 수 있습니다. -
변경 사항이 적용되려면 GitLab을 재구성합니다.
- 다른 Consul 노드에 대해 이러한 단계를 다시 수행하고 올바른 IP를 설정했는지 확인하세요.
세 번째 Consul 서버의 프로비저닝이 완료되면 Consul 리더가 ‘선출’됩니다. Consul 로그를 보면 sudo gitlab-ctl tail consul
명령어를 통해 ...[INFO] consul: New leader elected: ...
와 같은 내용이 표시됩니다.
현재의 Consul 멤버(서버, 클라이언트)를 나열할 수 있습니다:
sudo /opt/gitlab/embedded/bin/consul members
또한 GitLab 서비스가 실행 중인지 확인할 수 있습니다:
sudo gitlab-ctl status
출력은 다음과 유사해야 합니다:
run: consul: (pid 30074) 76834s; run: log: (pid 29740) 76844s
run: logrotate: (pid 30925) 3041s; run: log: (pid 29649) 76861s
run: node-exporter: (pid 30093) 76833s; run: log: (pid 29663) 76855s
PostgreSQL 구성
이 섹션에서는 GitLab과 함께 사용할 고가용성 PostgreSQL 클러스터를 구성하는 방법을 안내합니다.
독자의 PostgreSQL 인스턴스 제공
PostgreSQL을 위해 서드 파티 외부 서비스를 선택적으로 사용할 수 있습니다.
이를 위해 신뢰할 수 있는 제공 업체나 솔루션을 사용해야 합니다. Google Cloud SQL 및 Amazon RDS가 작동하는 것으로 알려져 있습니다. 그러나 Amazon Aurora는 14.4.0부터 기본적으로 활성화된 로드 밸런싱과 호환되지 않습니다. 자세한 내용은 권장되는 클라우드 제공 업체 및 서비스를 참조하세요.
서드 파티 외부 서비스를 사용하는 경우:
- HA Linux 패키지 PostgreSQL 설정에는 PostgreSQL, PgBouncer 및 Consul이 포함됩니다. 이러한 컴포넌트는 서드 파티 외부 서비스를 사용할 경우 더 이상 필요하지 않을 것입니다.
- 데이터베이스 요구 사항 문서에 따라 PostgreSQL을 설정합니다.
- 선택한 비밀번호로
gitlab
사용자를 설정합니다.gitlab
사용자는gitlabhq_production
데이터베이스를 생성할 수 있는 권한이 필요합니다. - GitLab 애플리케이션 서버를 적절한 정보로 구성합니다. 이 단계는 GitLab Rails 애플리케이션 구성에서 다룹니다.
- Linux 패키지와 비교하여 서비스에 필요한 노드 수는 다를 수 있으며, 이에 따라 일치시킬 필요는 없습니다.
- 그러나 성능을 더욱 향상시키기 위해 데이터베이스 로드 밸런싱으로 읽기 복제본을 통한 데이터베이스 로드 밸런싱이 원하는 경우 참조 아키텍처의 노드 수를 따르는 것이 권장됩니다.
Linux 패키지를 사용한 독립형 PostgreSQL
복제 및 장애 조치가 포함된 PostgreSQL 클러스터를 위한 권장 Linux 패키지 구성은 다음을 필요로 합니다:
- 최소 세 개의 PostgreSQL 노드
- 최소 세 개의 Consul 서버 노드
- 기본 데이터베이스 읽기 및 쓰기를 추적하고 처리하는 최소 세 개의 PgBouncer 노드.
- PgBouncer 노드 간 요청을 균형 잡기 위해 내부 로드 밸런서(TCP)가 필요합니다.
-
데이터베이스 로드 밸런싱이 활성화되어 있어야 합니다.
각 PostgreSQL 노드에 로컬 PgBouncer 서비스를 구성해야 합니다. 이는 기본적으로 기본을 추적하는 주요 PgBouncer 클러스터와 별도입니다.
다음 IP들은 예시로 사용됩니다:
-
10.6.0.21
: PostgreSQL 주요 -
10.6.0.22
: PostgreSQL 복제 1 -
10.6.0.23
: PostgreSQL 복제 2
먼저, 각각의 노드에 Linux GitLab 패키지를 설치해야 합니다. 단계를 따라 진행하여 설치에 필요한 의존성을 설치하고, 2단계에서 GitLab 패키지 리포지터리를 추가하세요. 두 번째 단계에서 EXTERNAL_URL
값을 제공하지 않습니다.
PostgreSQL 노드
- PostgreSQL 노드 중 하나에 SSH로 로그인합니다.
-
다음은 PostgreSQL 사용자/암호 쌍의 암호 해시를 생성하는 것입니다. 여기서는
gitlab
사용자 이름(권장)을 사용할 것으로 가정합니다. 명령은 암호 및 확인을 요청할 것입니다. 이 명령에서 출력된 값을 다음 단계의<postgresql_password_hash>
값으로 사용하세요:sudo gitlab-ctl pg-password-md5 gitlab
-
PgBouncer 사용자/암호 쌍의 암호 해시를 생성합니다. 여기서는
pgbouncer
사용자 이름(권장)을 사용할 것으로 가정합니다. 명령은 암호 및 확인을 요청할 것입니다. 이 명령에서 출력된 값을 다음 단계의<pgbouncer_password_hash>
값으로 사용하세요:sudo gitlab-ctl pg-password-md5 pgbouncer
-
데이터베이스 복제 사용자/암호 쌍의 암호 해시를 생성합니다. 여기서는
gitlab_replicator
사용자 이름(권장)을 사용할 것으로 가정합니다. 명령은 암호 및 확인을 요청할 것입니다. 이 명령에서 출력된 값을 다음 단계의<postgresql_replication_password_hash>
값으로 사용하세요:sudo gitlab-ctl pg-password-md5 gitlab_replicator
-
Consul 데이터베이스 사용자/암호 쌍의 암호 해시를 생성합니다. 여기서는
gitlab-consul
사용자 이름(권장)을 사용할 것으로 가정합니다. 명령은 암호 및 확인을 요청할 것입니다. 이 명령에서 출력된 값을 다음 단계의<consul_password_hash>
값으로 사용하세요:sudo gitlab-ctl pg-password-md5 gitlab-consul
-
모든 데이터베이스 노드에서
/etc/gitlab/gitlab.rb
를 편집하여# START user configuration
섹션에 적힌 값들을 대체하세요:# Patroni, PgBouncer 및 Consul 이외의 모든 컴포넌트 비활성화 roles(['patroni_role', 'pgbouncer_role']) # PostgreSQL 구성 postgresql['listen_address'] = '0.0.0.0' # `max_replication_slots`를 데이터베이스 노드 숫자의 두 배로 설정합니다. # Patroni는 복제를 초기화할 때 노드당 하나의 추가 슬롯을 사용합니다. patroni['postgresql']['max_replication_slots'] = 6 # `max_wal_senders`를 클러스터의 복제 슬롯 수보다 하나 더 설정합니다. # 이는 복제가 모든 가능한 데이터베이스 연결을 사용하는 것을 방지하는 데 사용됩니다. patroni['postgresql']['max_wal_senders'] = 7 # 업그레이드 시 자동으로 데이터베이스 마이그레이션 실행 방지 gitlab_rails['auto_migrate'] = false # Consul 에이전트 구성 consul['services'] = %w(postgresql) ## 프로메테우스를 위한 서비스 검색 활성화 consul['monitoring_service_discovery'] = true # ...
PostgreSQL은 Patroni가 장애 조치를 처리하도록 기본적으로 pg_rewind
를 사용합니다.
대부분의 장애 조치 처리 방법과 마찬가지로, 이는 데이터 손실 가능성이 작습니다.
자세한 내용은 다양한 Patroni 복제 방법을 참조하세요.
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하여 이 서버의 동일한 이름의 파일을 추가하거나 대체하세요. 이것이 구성하는 첫 번째 Linux 패키지 노드인 경우 이 단계를 건너뛸 수 있습니다. -
변경 사항이 적용되려면 GitLab을 다시 구성하세요.
필요한 경우 고급 구성 옵션을 지원하며 추가할 수 있습니다.
PostgreSQL 후 구성
주 서버의 Patroni 노드 중 하나에 SSH로 로그인합니다:
-
리더 및 클러스터 상태를 확인합니다:
gitlab-ctl patroni members
출력은 다음과 유사해야 합니다:
| 클러스터 | 멤버 | 호스트 | 역할 | 상태 | TL | Lag in MB | Pending restart | |---------------|-----------------------------------|-----------|--------|---------|-----|-----------|-----------------| | postgresql-ha | <PostgreSQL 주 서버 호스트 이름> | 10.6.0.21 | 리더 | 실행 중 | 175 | | * | | postgresql-ha | <PostgreSQL 보조 서버 1 호스트 이름> | 10.6.0.22 | | 실행 중 | 175 | 0 | * | | postgresql-ha | <PostgreSQL 보조 서버 2 호스트 이름> | 10.6.0.23 | | 실행 중 | 175 | 0 | * |
‘상태’ 열에서 어떤 노드의 경우 “실행 중”이 아닌 경우, 진행하기 전에 PostgreSQL 복제 및 장애 조치 문제 해결을 확인하세요.
PgBouncer 구성
이제 PostgreSQL 서버가 모두 설정되었으므로 주요 데이터베이스로의 읽기/쓰기를 추적하고 처리하기 위해 PgBouncer를 구성해봅시다.
다음과 같은 IP가 예시로 사용될 것입니다:
-
10.6.0.31
: PgBouncer 1 -
10.6.0.32
: PgBouncer 2 -
10.6.0.33
: PgBouncer 3
-
각 PgBouncer 노드에서
/etc/gitlab/gitlab.rb
를 편집하고, 이전에 설정한 비밀 해시로<consul_password_hash>
및<pgbouncer_password_hash>
를 대체하세요:# Pgbouncer 및 Consul 에이전트 이외의 모든 컴포넌트 비활성화 roles(['pgbouncer_role']) # PgBouncer 구성 pgbouncer['admin_users'] = %w(pgbouncer gitlab-consul) pgbouncer['users'] = { 'gitlab-consul': { password: '<consul_password_hash>' }, 'pgbouncer': { password: '<pgbouncer_password_hash>' } } # Consul 에이전트 구성 consul['watchers'] = %w(postgresql) consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13) } # Prometheus를 위한 서비스 검색 활성화 consul['monitoring_service_discovery'] = true # 익스포터가 청취할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100'
-
처음 Linux 패키지 노드로부터
/etc/gitlab/gitlab-secrets.json
파일을 복사하고, 해당 서버의 동일한 이름의 파일을 추가하거나 대체하세요. 처음 설정하는 Linux 패키지 노드인 경우, 이 단계를 건너뛸 수 있습니다. -
변경 사항이 적용되려면 GitLab을 재구성하세요.
execute[generate databases.ini]
오류가 발생하면, 기존의 알려진 문제 때문입니다. 다음 단계 이후에 두 번째reconfigure
를 실행하면 이 문제가 해결됩니다. -
Consul이 PgBouncer를 다시로드할 수 있도록
.pgpass
파일을 생성하세요. 묻는 대로 PgBouncer 비밀번호를 두 번 입력하세요:gitlab-ctl write-pgpass --host 127.0.0.1 --database pgbouncer --user pgbouncer --hostuser gitlab-consul
- 이전 단계에서 잠재적인 오류를 해결하기 위해 GitLab을 다시 구성하세요.
-
각 노드가 현재 주요 데이터베이스와 통신하는지 확인하세요:
gitlab-ctl pgb-console # PGBOUNCER_PASSWORD를 입력하라는 프롬프트가 표시됩니다
-
콘솔 프롬프트를 사용할 수 있게 되면, 다음 쿼리를 실행하세요:
show databases ; show clients ;
출력은 다음과 유사해야 합니다:
name | host | port | database | force_user | pool_size | reserve_pool | pool_mode | max_connections | current_connections ---------------------+-------------+------+---------------------+------------+-----------+--------------+-----------+-----------------+--------------------- gitlabhq_production | MASTER_HOST | 5432 | gitlabhq_production | | 20 | 0 | | 0 | 0 pgbouncer | | 6432 | pgbouncer | pgbouncer | 2 | 0 | statement | 0 | 0 (2 rows) type | user | database | state | addr | port | local_addr | local_port | connect_time | request_time | ptr | link | remote_pid | tls ------+-----------+---------------------+---------+----------------+-------+------------+------------+---------------------+---------------------+-----------+------+------------+----- C | pgbouncer | pgbouncer | active | 127.0.0.1 | 56846 | 127.0.0.1 | 6432 | 2017-08-21 18:09:59 | 2017-08-21 18:10:48 | 0x22b3880 | | 0 | (2 rows)
Redis 구성
확장 가능한 환경에서 Redis를 사용하면 주 Primary x 복제 위상 및 Redis Sentinel 서비스를 사용하여 감시하고 자동으로 장애 조치 절차를 시작할 수 있습니다.
Redis는 Sentinel과 함께 사용될 경우 인증이 필요합니다. 자세한 내용은 Redis 보안 문서를 참조하세요. Redis 서비스를 안전하게 보호하기 위해 Redis 암호 및 엄격한 방화벽 규칙의 조합을 권장합니다. Redis를 GitLab과 구성하기 전에 Redis Sentinel 문서를 확인하여 위상 및 아키텍처를 완전히 이해하는 것을 권장합니다.
Redis 설정 요구 사항은 다음과 같습니다:
- 모든 Redis 노드는 서로 통신하고 Redis(
6379
) 및 Sentinel(26379
) 포트를 통한 수신 연결을 수락해야 합니다 (기본값을 변경하지 않은 경우). - GitLab 애플리케이션을 호스팅하는 서버는 Redis 노드에 액세스할 수 있어야 합니다.
- 외부 네트워크(인터넷)에서 노드에 접근하지 못하도록 방화벽을 사용하세요.
이 섹션에서는 GitLab과 함께 사용하기 위해 두 개의 외부 Redis 클러스터를 구성하는 방법에 대해 안내합니다. 다음과 같은 IP가 예시로 사용될 것입니다:
-
10.6.0.51
: Redis - 캐시 Primary -
10.6.0.52
: Redis - 캐시 복제 1 -
10.6.0.53
: Redis - 캐시 복제 2 -
10.6.0.61
: Redis - 지속적 Primary -
10.6.0.62
: Redis - 지속적 복제 1 -
10.6.0.63
: Redis - 지속적 복제 2
자체 Redis 인스턴스 제공
다음 안내에 따라 레디스 캐시 및 지속성 인스턴스에 대한 외부 서비스를 선택적으로 사용할 수 있습니다.
- 신뢰할 수 있는 제공 업체나 솔루션을 사용해야 합니다. Google Memorystore 및 AWS ElastiCache가 작동하는 것으로 알려져 있습니다.
- 레디스 클러스터 모드는 특별히 지원되지 않지만, HA를 가진 레디스 단독 모드는 지원됩니다.
- 설정에 따라 레디스 LRU(Last Recently Used) 캐시 모드를 설정해야 합니다.
자세한 내용은 추천되는 클라우드 제공업체 및 서비스를 참조하세요.
Redis 캐시 클러스터 구성
이 섹션은 새로운 Redis 캐시 인스턴스를 설치하고 설정하는 곳입니다.
기본 및 복제 Redis 노드는 모두 redis['password']
에서 정의된 동일한 암호가 필요합니다. 장애 조치(failover) 중에 언제든지 Sentinels는 노드를 다시 구성하고 그 상태를 기본 노드에서 복제 노드로 변경할 수 있습니다(그 반대도 마찬가지).
기본 Redis 캐시 노드 구성
- 기본 Redis 서버에 SSH로 접속합니다.
- 선택한 Linux 패키지를 다운로드하고 설치합니다. 페이지의 설치 단계 1과 2만 따르고 현재 설치된 것과 동일한 버전 및 타입(Community 또는 Enterprise 버전)의 올바른 Linux 패키지를 선택하세요.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 다음 내용을 추가하세요:# 서버 역할을 'redis_sentinel_role' 및 'redis_master_role'로 지정 roles ['redis_sentinel_role', 'redis_master_role', 'consul_role'] # Redis Sentinel 서비스의 IP 바인딩 주소 및 퀘러럼 번호를 설정 sentinel['bind'] = '0.0.0.0' sentinel['quorum'] = 2 # 다른 기계에서 접속할 수 있는 로컬 IP를 가리키는 IP 주소 # 모든 인터페이스에서 수신 대기하도록 bind를 '0.0.0.0'로 설정할 수도 있습니다. # 외부 접근 가능한 IP에 바인딩해야 하는 경우 무단 액세스를 방지하기 위해 추가 방화벽 규칙을 설정해야 합니다. redis['bind'] = '10.6.0.51' # Redis가 TCP 요청을 수신하도록 포트를 정의하여 기타 기계가 연결할 수 있게 합니다. redis['port'] = 6379 # Sentinel을 위한 주 기본 Redis 서버 포트, 기본값은 `6379` # redis['master_port'] = 6379 # Redis에 대한 암호 인증 설정(모든 노드에서 동일한 암호를 사용하세요). redis['master_password'] = '첫 번째 클러스터의 REDIS_PRIMARY_PASSWORD' # 모든 Redis 노드에서 동일해야 합니다. redis['master_name'] = 'gitlab-redis-cache' # 이 기본 Redis 노드의 IP redis['master_ip'] = '10.6.0.51' # Redis 캐시 인스턴스를 LRU로 설정 # 사용 가능한 RAM의 90%에 해당하는 MB redis['maxmemory'] = '13500mb' redis['maxmemory_policy'] = "allkeys-lru" redis['maxmemory_samples'] = 5 ## Prometheus용 서비스 검색 활성화 consul['monitoring_service_discovery'] = true ## Consul 서버 노드의 IP ## FQDN(Fully Qualified Domain Name)을 사용하고 IP와 혼합하여 사용할 수도 있습니다. consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # 내보내기가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' redis_exporter['listen_address'] = '0.0.0.0:9121' redis_exporter['flags'] = { 'redis.addr' => 'redis://10.6.0.51:6379', 'redis.password' => '여기에 레디스 암호를 입력하세요', } # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지 gitlab_rails['auto_migrate'] = false
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하여 이 서버의 동일한 이름의 파일을 추가하거나 교체합니다. 이것이 구성 중인 첫 번째 Linux 패키지 노드인 경우에는 이 단계를 건너뛸 수 있습니다. - 변경 사항이 적용되려면 GitLab을 다시 구성하세요.
복제 Redis 캐시 노드 구성
- 복제 Redis 서버에 SSH로 접속합니다.
- 선택한 Linux 패키지를 다운로드하고 설치합니다. 페이지의 설치 단계 1과 2만 따르고 현재 설치된 것과 동일한 버전 및 타입(Community 또는 Enterprise 버전)의 올바른 Linux 패키지를 선택하세요.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 이전 섹션의 기본 노드와 동일한 내용을 추가하되redis_master_node
를redis_replica_node
로 바꾸세요:# 서버 역할을 'redis_replica_role'로 지정하고 Consul 에이전트를 활성화 roles ['redis_sentinel_role', 'redis_replica_role', 'consul_role'] # Redis Sentinel 서비스의 IP 바인딩 주소 및 퀘러럼 번호를 설정 sentinel['bind'] = '0.0.0.0' sentinel['quorum'] = 2 # 다른 기계에서 접속할 수 있는 로컬 IP를 가리키는 IP 주소 # 모든 인터페이스에서 수신 대기하도록 bind를 '0.0.0.0'로 설정할 수도 있습니다. # 외부 접근 가능한 IP에 바인딩해야 하는 경우 무단 액세스를 방지하기 위해 추가 방화벽 규칙을 설정해야 합니다. redis['bind'] = '10.6.0.52' # Redis가 TCP 요청을 수신하도록 포트를 정의하여 기타 기계가 연결할 수 있게 합니다. redis['port'] = 6379 # Sentinel을 위한 주 기본 Redis 서버 포트, 기본값은 `6379` #redis['master_port'] = 6379 # Redis 및 복제본에 대한 암호 인증 설정(모든 노드에서 동일한 암호를 사용하세요). redis['master_password'] = '첫 번째 클러스터의 REDIS_PRIMARY_PASSWORD' # 모든 Redis 노드에서 동일해야 합니다 redis['master_name'] = 'gitlab-redis-cache' # 기본 Redis 노드의 IP redis['master_ip'] = '10.6.0.51' # Redis 캐시 인스턴스를 LRU로 설정 # 사용 가능한 RAM의 90%에 해당하는 MB redis['maxmemory'] = '13500mb' redis['maxmemory_policy'] = "allkeys-lru" redis['maxmemory_samples'] = 5 ## Prometheus용 서비스 검색 활성화 consul['monitoring_service_discovery'] = true ## Consul 서버 노드의 IP ## FQDN(Fully Qualified Domain Name)을 사용하고 IP와 혼합하여 사용할 수도 있습니다. consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # 내보내기가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' redis_exporter['listen_address'] = '0.0.0.0:9121' redis_exporter['flags'] = { 'redis.addr' => 'redis://10.6.0.52:6379', 'redis.password' => '여기에 레디스 암호를 입력하세요', } # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지 gitlab_rails['auto_migrate'] = false
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하여 이 서버의 동일한 이름의 파일을 추가하거나 교체합니다. 이것이 구성 중인 첫 번째 Linux 패키지 노드인 경우에는 이 단계를 건너뛸 수 있습니다. -
변경 사항이 적용되려면 GitLab을 다시 구성하세요.
-
다른 복제 노드에 대해 모든 단계를 다시 진행하고 IP를 올바르게 설정했는지 확인하세요.
필요한 경우 구성 옵션을 변경하고 추가할 수 있습니다.
Redis 지속 클러스터 구성
이는 새로운 Redis 지속 인스턴스를 설치하고 설정하는 섹션입니다.
기본 및 복제 Redis 노드는 언제든지 장애 조치 중에 Sentinel이 노드를 다시 구성하고 주 또는 복제 상태로 변경할 수 있는 동일한 패스워드가 redis['password']
에 정의되어야 합니다.
기본 Redis 지속 노드 구성
- 주 Redis 서버에 SSH로 접속합니다.
- 선호하는 Linux 패키지를 다운로드하고 설치합니다. 페이지에서 설치 단계 1 및 2만 따르고 현재 설치된 버전 및 유형(커뮤니티 또는 엔터프라이즈 버전)과 동일한 Linux 패키지를 선택해야 합니다.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 아래 내용을 추가합니다:# 서버 역할을 'redis_sentinel_role' 및 'redis_master_role'로 지정 roles ['redis_sentinel_role', 'redis_master_role', 'consul_role'] # Redis Sentinel 서비스의 IP 바인드 주소 및 쿼럼 번호 설정 sentinel['bind'] = '0.0.0.0' sentinel['quorum'] = 2 # 다른 머신이 연결할 수 있는 로컬 IP를 가리키는 IP 주소 # 모든 인터페이스에서 수신하는 '0.0.0.0'으로 바인드하거나 # 외부 접근 가능한 IP로 바인드해야 하는 경우 # 무단 액세스를 방지하기 위해 추가 방화벽 규칙을 추가해야 합니다. redis['bind'] = '10.6.0.61' # 다른 머신이 이에 연결할 수 있도록 Redis가 TCP 요청을 수신할 수 있는 포트 설정 redis['port'] = 6379 ## Sentinel 용 주 Redis 서버 포트, 기본값에서 변경하려면 주석 처리. 기본값은 `6379`입니다. #redis['master_port'] = 6379 # Redis 및 복제본에 대한 패스워드 인증 설정(모든 노드에서 동일한 패스워드 사용) redis['password'] = '두 번째 클러스터의 기본 Redis 패스워드' redis['master_password'] = '두 번째 클러스터의 기본 Redis 패스워드' ## 모든 Redis 노드에서 동일해야 함 redis['master_name'] = 'gitlab-redis-persistent' ## 주 Redis 노드의 IP redis['master_ip'] = '10.6.0.61' ## Prometheus를 위한 서비스 검색 활성화 consul['monitoring_service_discovery'] = true ## Consul 서버 노드의 IP ## FQDN 및 IP를 혼합하여 사용할 수도 있음 consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # 익스포터가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' redis_exporter['listen_address'] = '0.0.0.0:9121' # 업그레이드시 자동으로 데이터베이스 마이그레이션 방지 gitlab_rails['auto_migrate'] = false
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하고 이 서버의 동일한 이름의 파일에 추가하거나 대체합니다. 이것이 구성하는 첫 번째 Linux 패키지 노드이면 이 단계를 건너뛰어도 됩니다. - 변경 사항이 적용되려면 GitLab을 다시 구성하십시오.
복제 Redis 지속 노드 구성
- 복제 Redis 지속 서버에 SSH로 접속합니다.
- 선호하는 Linux 패키지를 다운로드하고 설치합니다. 페이지에서 설치 단계 1및 2만 따르고 현재 설치된 버전 및 유형(커뮤니티 또는 엔터프라이즈 버전)과 동일한 Linux 패키지를 선택해야 합니다.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 아래 내용을 추가합니다:# 서버 역할을 'redis_replica_role'로 지정하고 Consul 에이전트를 활성화 roles ['redis_sentinel_role', 'redis_replica_role', 'consul_role'] # Redis Sentinel 서비스의 IP 바인드 주소 및 쿼럼 번호 설정 sentinel['bind'] = '0.0.0.0' sentinel['quorum'] = 2 # 다른 머신이 연결할 수 있는 로컬 IP를 가리키는 IP 주소 # 모든 인터페이스에서 수신하는 '0.0.0.0'으로 바인드하거나 # 외부 접근 가능한 IP로 바인드해야 하는 경우 # 무단 액세스를 방지하기 위해 추가 방화벽 규칙을 추가해야 합니다. redis['bind'] = '10.6.0.62' # 다른 머신이 이에 연결할 수 있도록 Redis가 TCP 요청을 수신할 수 있는 포트 설정 redis['port'] = 6379 ## Sentinel 용 주 Redis 서버 포트, 기본값에서 변경하려면 주석 처리. 기본값은 `6379`입니다. #redis['master_port'] = 6379 # 주 노드에 설정한 Redis 인증을 위한 동일한 패스워드 redis['master_password'] = '두 번째 클러스터의 기본 Redis 패스워드' ## 모든 Redis 노드에서 동일해야 함 redis['master_name'] = 'gitlab-redis-persistent' # 주 Redis 노드의 IP redis['master_ip'] = '10.6.0.61' ## Prometheus를 위한 서비스 검색 활성화 consul['monitoring_service_discovery'] = true ## Consul 서버 노드의 IP ## FQDN 및 IP를 혼합하여 사용할 수도 있음 consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # 익스포터가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' redis_exporter['listen_address'] = '0.0.0.0:9121' redis_exporter['flags'] = { 'redis.addr' => 'redis://10.6.0.62:6379', 'redis.password' => '여기에 Redis 패스워드 입력', } # 업그레이드시 자동으로 데이터베이스 마이그레이션 방지 gitlab_rails['auto_migrate'] = false
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하고 이 서버의 동일한 이름의 파일에 추가하거나 대체합니다. 이것이 구성하는 첫 번째 Linux 패키지 노드이면 이 단계를 건너뛰어도 됩니다. -
변경 사항이 적용되려면 GitLab을 다시 구성하십시오.
- 다른 복제 노드에 대해 같은 단계를 반복하고 IP를 올바르게 설정했는지 확인하십시오.
필요한 경우 고급 구성 옵션을 지원하며 추가할 수 있습니다.
Gitaly Cluster 구성
Gitaly Cluster은 Git 리포지터리를 저장하기 위한 GitLab에서 제공하고 권장하는 고장 허용 솔루션입니다. 이 구성에서 각 Git 리포지터리는 클러스터의 모든 Gitaly 노드에 저장되며 한 대는 기본으로 지정되며 주요 노드가 다운되면 장애 조치가 자동으로 발생합니다.
Gitaly Cluster는 고장 허용의 장점을 제공하지만 추가된 설정 및 관리의 복잡성을 수반합니다. Gitaly Cluster를 배포하기 전에 기술적 제한 및 고려 사항을 검토하세요.
구성 가이드는 다음을 포함합니다:
- 별도의 Gitaly 설명서](../gitaly/configure_gitaly.md)를 사용하실 경우, 동일한 Gitaly 사양을 사용하는 대신 분할된 Gitaly를 구현하세요.
- Gitaly Cluster에서 관리되지 않는 기존 리포지터리를 이전하려면, Gitaly Cluster로 마이그레이션을 확인하세요.
권장 클러스터 구성에는 다음 컴포넌트가 포함됩니다:
- 3개의 Gitaly 노드: Git 리포지터리의 복제된 리포지터리.
- 3개의 Praefect 노드: Gitaly Cluster의 라우터 및 트랜잭션 관리자.
- 1개의 Praefect PostgreSQL 노드: Praefect의 데이터베이스 서버입니다. Praefect 데이터베이스 연결을 높은 가용성으로 유지하려면 타사 솔루션이 필요합니다.
- 1개의 로드 밸런서: Praefect에는 로드 밸런서가 필요합니다. 내부 로드 밸런서가 사용됩니다.
이 섹션에서는 순서대로 권장 표준 구성 방법을 설명합니다. 더 고급 구성에 대해서는 독립 Gitaly Cluster 설명서를 참조하세요.
Praefect PostgreSQL 구성
Gitaly Cluster의 라우팅 및 트랜잭션 관리자인 Praefect는 Gitaly Cluster 상태 데이터를 저장하기 위해 자체 데이터베이스 서버가 필요합니다.
고가용성 구성이 필요한 경우, Praefect에는 타사 PostgreSQL 데이터베이스가 필요합니다. 내장 솔루션이 진행 중입니다.
Linux 패키지를 사용한 Praefect HA PostgreSQL 스탠드얼론 구성
다음 IP가 예시로 사용됩니다:
-
10.6.0.141
: Praefect PostgreSQL
먼저, Praefect PostgreSQL 노드에 Linux GitLab 패키지를 설치하세요. 단계 1에서 필요한 의존성을 설치하고, 단계 2에서 GitLab 패키지 리포지터리를 추가합니다. 두 번째 단계에서 GitLab을 설치할 때는 EXTERNAL_URL
값을 제공하지 마세요.
- Praefect PostgreSQL 노드에 SSH로 로그인합니다.
- Praefect PostgreSQL 사용자에 대한 강력한 암호를 생성하세요. 이 암호를
<praefect_postgresql_password>
로 사용할 예정이므로 이를 메모해 두세요. -
Praefect PostgreSQL 사용자/암호 쌍의 암호 해시를 생성하세요. 이때 기본 사용자
praefect
를 사용할 것을 가정합니다(권장함). 명령은 암호<praefect_postgresql_password>
와 확인을 요청할 것입니다. 이 명령으로 출력된 값은 다음 단계에서<praefect_postgresql_password_hash>
값으로 사용하세요:sudo gitlab-ctl pg-password-md5 praefect
-
/etc/gitlab/gitlab.rb
파일을 편집하여# START user configuration
섹션에 기록된 값으로 대체하십시오:# PostgreSQL 외의 모든 컴포넌트 비활성화 roles(['postgres_role', 'consul_role']) # PostgreSQL 구성 postgresql['listen_address'] = '0.0.0.0' # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지 gitlab_rails['auto_migrate'] = false # Consul 에이전트 구성 ## Prometheus를 위한 서비스 검색 활성화 consul['monitoring_service_discovery'] = true # START user configuration # 필요한 정보 섹션에 설명된대로 실제 값을 설정하십시오 # # 생성된 md5 값을 가진 PRAEFECT_POSTGRESQL_PASSWORD_HASH로 대체 postgresql['sql_user_password'] = "<praefect_postgresql_password_hash>" # 네트워크 주소로 XXX.XXX.XXX.XXX/YY를 대체 postgresql['trust_auth_cidr_addresses'] = %w(10.6.0.0/24 127.0.0.1/32) # 모니터링을 위해 수출자가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' postgres_exporter['listen_address'] = '0.0.0.0:9187' ## Consul 서버 노드의 IP ## FQDN을 사용하거나 IP와 혼용하여 사용할 수 있습니다 consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # # END user configuration
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하고 이 서버의 동일한 이름의 파일에 추가하거나 덮어씁니다. 이게 처음 구성하는 Linux 패키지 노드인 경우 이 단계를 생략할 수 있습니다. -
변경 내용이 적용되려면 GitLab을 다시 구성하세요.
- 후속 구성을 수행하세요.
Praefect HA PostgreSQL 제3자 솔루션
Praefect PostgreSQL 구성에서 언급했듯이, 전체 고가용성을 목표로 한다면 Praefect의 데이터베이스에 대한 제3자 PostgreSQL 솔루션이 권장됩니다.
PostgreSQL HA를 위한 많은 제3자 솔루션이 있습니다. Praefect와 작동하려면 다음이 필요합니다:
- 장애 조치(Failover) 시 변경되지 않는 모든 연결에 대한 정적 IP.
-
LISTEN
SQL 기능 지원.
이에 대한 신뢰할 수 있는 공급업체나 솔루션이 사용되어야 합니다. Google Cloud SQL 및 Amazon RDS가 작동하는 것으로 알려져 있습니다. 그러나 Amazon Aurora는 14.4.0에서 기본적으로 활성화된 로드 밸런싱과 호환되지 않습니다. 자세한 정보는 추천하는 클라우드 공급업체 및 서비스를 참조하십시오.
데이터베이스가 설정된 후, 포스트 구성을 따릅니다.
Praefect PostgreSQL 포스트 구성
Praefect PostgreSQL 서버를 설정한 후, Praefect가 사용할 사용자 및 데이터베이스를 구성해야 합니다.
우리는 사용자를 praefect
로, 데이터베이스를 praefect_production
으로 지정하는 것을 권장합니다. 이는 PostgreSQL에서 표준으로 구성할 수 있습니다.
사용자의 암호는 이전에 <praefect_postgresql_password>
로 구성한 것과 동일해야 합니다.
Linux 패키지 PostgreSQL 설정 시 다음과 같이 작동합니다:
- Praefect PostgreSQL 노드에 SSH 연결합니다.
-
관리 권한으로 PostgreSQL 서버에 연결합니다. Linux 패키지에서는 기본적으로
gitlab-psql
사용자가 추가되므로 해당 사용자를 사용해야 합니다.template1
데이터베이스를 사용합니다./opt/gitlab/embedded/bin/psql -U gitlab-psql -d template1 -h POSTGRESQL_SERVER_ADDRESS
-
<praefect_postgresql_password>
를 대체하여 새 사용자praefect
를 생성합니다.CREATE ROLE praefect WITH LOGIN CREATEDB PASSWORD '<praefect_postgresql_password>';
-
이번에는
praefect
사용자로 PostgreSQL 서버에 다시 연결합니다./opt/gitlab/embedded/bin/psql -U praefect -d template1 -h POSTGRESQL_SERVER_ADDRESS
-
새 데이터베이스
praefect_production
을 생성합니다.CREATE DATABASE praefect_production WITH ENCODING=UTF8;
Gitaly 구성
클러스터를 구성하는 Gitaly 서버 노드는 데이터 및 부하에 의존하는 요구 사항이 있습니다.
Gitaly는 중요한 입력 및 출력 요구 사항이 있으므로, 모든 Gitaly 노드가 SSD(Solid-State Drive)를 사용하는 것을 강력히 권장합니다. 이러한 SSD는 읽기 작업에 대해 초당 최소 8,000개의 입출력 작업(IOPS)과 쓰기 작업에 대해 2,000 IOPS를 가져야 합니다. 환경을 클라우드 제공업체에서 실행 중이라면, 해당 업체의 설명서를 참조하여 IOPS를 올바르게 구성해야 합니다.
Gitaly 서버는 기본적으로 네트워크 트래픽이 암호화되지 않기 때문에 공개 인터넷에 노출되어서는 안 됩니다. 방화벽의 사용이 강력히 권장되며, 다른 옵션은 TLS 사용하는 것입니다.
Gitaly 구성을 위해 다음 사항을 주의해야 합니다:
-
gitaly['configuration'][:storage]
는 특정 Gitaly 노드의 저장 경로를 반영하도록 구성되어야 합니다. -
auth_token
은praefect_internal_token
과 동일해야 합니다.
다음 IP 주소는 예시로 사용됩니다:
-
10.6.0.91
: Gitaly 1 -
10.6.0.92
: Gitaly 2 -
10.6.0.93
: Gitaly 3
각 노드에서:
-
선택한 Linux 패키지의 다운로드 및 설치를 완료합니다. 페이지에서 설치 단계 1 및 2에 따르기만 하고,
EXTERNAL_URL
값을 제공하지 않도록 주의하세요. -
Gitaly 서버 노드의
/etc/gitlab/gitlab.rb
파일을 수정하여 저장 경로를 구성하고 네트워크 리스너를 활성화하고 토큰을 구성합니다:# Gitaly 서버에서 불필요한 서비스를 실행하지 않도록 설정 postgresql['enable'] = false redis['enable'] = false nginx['enable'] = false puma['enable'] = false sidekiq['enable'] = false gitlab_workhorse['enable'] = false prometheus['enable'] = false alertmanager['enable'] = false gitlab_exporter['enable'] = false gitlab_kas['enable'] = false # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지 gitlab_rails['auto_migrate'] = false # GitLab URL 또는 내부 로드 밸런서로 설정하는 gitlab-shell API 콜백 URL 구성 gitlab_rails['internal_api_url'] = 'https://gitlab.example.com' # Gitaly gitaly['enable'] = true # Consul 에이전트 구성 consul['enable'] = true ## Prometheus를 위한 서비스 디스커버리 활성화 consul['monitoring_service_discovery'] = true # 시작 사용자 구성 # 요구되는 정보 섹션에 설명된 대로 실제 값으로 설정하세요 # ## Consul 서버 노드의 IP ## FQDN을 사용하거나 IP와 혼합하여 사용할 수도 있습니다 consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13), } # 모니터링을 위해 노드 익스포터가 청취할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' gitaly['configuration'] = { # Gitaly가 모든 네트워크 인터페이스에서 연결을 수락하도록 설정합니다. 이 주소/포트에 대한 액세스를 제한하기 위해 방화벽을 사용해야 합니다. # TLS 연결만 지원하려면 다음 줄을 주석 처리하세요 listen_addr: '0.0.0.0:8075', # Gitaly가 모니터링을 위해 청취할 네트워크 주소 설정 prometheus_listen_addr: '0.0.0.0:9236', auth: { # Gitaly 인증 토큰 # praefect_internal_token과 동일해야 합니다 token: '<praefect_internal_token>', }, pack_objects_cache: { # Gitaly Pack-objects 캐시 # 성능 향상을 위해 활성화하는 것이 권장되지만, 디스크 I/O를 두드러지게 증가시킬 수 있습니다 # 자세한 내용은 https://docs.gitlab.com/ee/administration/gitaly/configure_gitaly.html#pack-objects-cache를 참조하세요 enabled: true, }, } # # 끝 사용자 구성
- 각 해당 서버에 대해
/etc/gitlab/gitlab.rb
에 다음을 추가합니다:-
Gitaly 노드 1:
gitaly['configuration'] = { # ... storage: [ { name: 'gitaly-1', path: '/var/opt/gitlab/git-data', }, ], }
-
Gitaly 노드 2:
gitaly['configuration'] = { # ... storage: [ { name: 'gitaly-2', path: '/var/opt/gitlab/git-data', }, ], }
-
Gitaly 노드 3:
gitaly['configuration'] = { # ... storage: [ { name: 'gitaly-3', path: '/var/opt/gitlab/git-data', }, ], }
-
-
첫 번째 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하고 해당 서버에서 동일한 이름의 파일을 추가하거나 교체합니다. 이것이 구성하는 첫 번째 Linux 패키지 노드라면, 이 단계는 건너뛰어도 됩니다. - 파일을 저장한 다음 GitLab 재구성을 수행하세요.
Gitaly 클러스터 TLS 지원
Praefect는 TLS 암호화를 지원합니다. 안전한 연결을 위해 Praefect 인스턴스와 통신하려면 다음을 수행해야 합니다:
- GitLab 구성에서 해당 리포지터리 항목의
gitaly_address
에tls://
URL scheme을 사용합니다. - 자동으로 제공되지 않으므로 별도의 인증서를 사용해야 합니다. 각 Praefect 서버에 해당하는 인증서를 설치해야 합니다.
또한 인증서 또는 해당 인증 기관은 모든 Gitaly 서버 및 해당 서버와 통신하는 모든 Praefect 클라이언트에 설치되어야 하며, GitLab 사용자 정의 인증서 구성에 설명된 절차를 따라야 합니다.
다음 사항을 참고하세요:
- 인증서에는 Praefect 서버에 액세스하는 데 사용하는 주소를 지정해야 합니다. 호스트 이름 또는 IP 주소를 인증서의 대체 이름으로 추가해야 합니다.
- Praefect 서버는 암호화되지 않는 수신 주소
listen_addr
와 암호화된 수신 주소tls_listen_addr
를 동시에 구성할 수 있습니다. 필요한 경우 암호화되지 않은 트래픽에서 암호화된 트래픽으로 점진적으로 전환할 수 있습니다. 암호화되지 않은 수신기를 비활성화하려면praefect['configuration'][:listen_addr] = nil
로 설정합니다. - 내부 로드 밸런서는 또한 인증서에 액세스해야 하며 TLS 통과를 허용하도록 구성해야 합니다. 이에 대해 자세한 내용은 로드 밸런서 문서를 참조하세요.
TLS로 Praefect를 구성하려면 다음을 수행하세요:
-
Praefect 서버용 인증서를 생성합니다.
-
Praefect 서버에서
/etc/gitlab/ssl
디렉터리를 만들고 키와 인증서를 복사합니다:sudo mkdir -p /etc/gitlab/ssl sudo chmod 755 /etc/gitlab/ssl sudo cp key.pem cert.pem /etc/gitlab/ssl/ sudo chmod 644 key.pem cert.pem
-
/etc/gitlab/gitlab.rb
를 편집하고 다음을 추가합니다:praefect['configuration'] = { # ... tls_listen_addr: '0.0.0.0:3305', tls: { # ... certificate_path: '/etc/gitlab/ssl/cert.pem', key_path: '/etc/gitlab/ssl/key.pem', }, }
-
파일을 저장하고 GitLab을 재구성하세요.
-
Praefect 클라이언트(각 Gitaly 서버를 포함)에서 인증서 또는 해당 인증 기관을
/etc/gitlab/trusted-certs
로 복사합니다:sudo cp cert.pem /etc/gitlab/trusted-certs/
-
Praefect 클라이언트(단, Gitaly 서버 제외)에서
/etc/gitlab/gitlab.rb
의git_data_dirs
을 다음과 같이 편집합니다:git_data_dirs({ "default" => { "gitaly_address" => 'tls://LOAD_BALANCER_SERVER_ADDRESS:3305', "gitaly_token" => 'PRAEFECT_EXTERNAL_TOKEN' } })
-
파일을 저장하고 GitLab을 재구성하세요.
Sidekiq 구성
Sidekiq는 Redis, PostgreSQL 및 Gitaly 인스턴스에 연결해야 합니다. 또한 권장사항대로 Object Storage에도 연결해야 합니다.
-
10.6.0.101
: Sidekiq 1 -
10.6.0.102
: Sidekiq 2 -
10.6.0.103
: Sidekiq 3 -
10.6.0.104
: Sidekiq 4
Sidekiq 노드를 구성하려면 각각 다음을 수행하세요:
- Sidekiq 서버에 SSH로 액세스합니다.
- 선택한 리눅스 패키지의 다운로드 및 설치를 진행합니다. 페이지의 설치 단계 1과 2만을 따르세요.
-
/etc/gitlab/gitlab.rb
를 생성하거나 편집하고 다음 구성을 사용합니다:# https://docs.gitlab.com/omnibus/roles/#sidekiq-roles roles(["sidekiq_role"]) # 외부 URL ## 외부 로드 밸런서의 URL과 일치해야 합니다. external_url 'https://gitlab.example.com' # Redis ## Redis 연결 세부 정보 ## 캐시 데이터를 호스팅할 첫 번째 클러스터 gitlab_rails['redis_cache_instance'] = 'redis://:<첫 번째 클러스터의 REDIS_PRIMARY_PASSWORD>@gitlab-redis-cache' gitlab_rails['redis_cache_sentinels'] = [ {host: '10.6.0.51', port: 26379}, {host: '10.6.0.52', port: 26379}, {host: '10.6.0.53', port: 26379}, ] ## 모든 기타 영구 데이터를 호스팅할 두 번째 클러스터 redis['master_name'] = 'gitlab-redis-persistent' redis['master_password'] = '<두 번째 클러스터의 REDIS_PRIMARY_PASSWORD>' gitlab_rails['redis_sentinels'] = [ {host: '10.6.0.61', port: 26379}, {host: '10.6.0.62', port: 26379}, {host: '10.6.0.63', port: 26379}, ] # Gitaly 클러스터 ## git_data_dirs은 Praefect 가상 리포지터리용으로 구성됩니다. ## 주소는 Praefect의 내부 로드 밸런서 ## 토큰은 praefect_external_token git_data_dirs({ "default" => { "gitaly_address" => "tcp://10.6.0.40:2305", # 내부 로드 밸런서 IP "gitaly_token" => '<praefect_external_token>' } }) # PostgreSQL gitlab_rails['db_host'] = '10.6.0.20' # 내부 로드 밸런서 IP gitlab_rails['db_port'] = 6432 gitlab_rails['db_password'] = '<postgresql_user_password>' gitlab_rails['db_load_balancing'] = { 'hosts' => ['10.6.0.21', '10.6.0.22', '10.6.0.23'] } # PostgreSQL IP ## 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지합니다. gitlab_rails['auto_migrate'] = false # Sidekiq sidekiq['enable'] = true sidekiq['listen_address'] = "0.0.0.0" ## 사용 가능한 CPU 수와 동일한 수의 Sidekiq 대기열 프로세스 수 설정 sidekiq['queue_groups'] = ['*'] * 4 # 모니터링 consul['enable'] = true consul['monitoring_service_discovery'] = true consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13) } ## 수집기가 수신 대기할 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' ## 모니터링 노드의 IP 주소를 모니터링 화이트리스트에 추가 gitlab_rails['monitoring_whitelist'] = ['10.6.0.151/32', '127.0.0.0/8'] # 객체 리포지터리 # GCP에 대한 객체 리포지터리 구성 예시 # 원하는 객체 리포지터리 제공업체로 이 구성을 대체합니다 gitlab_rails['object_store']['enabled'] = true gitlab_rails['object_store']['connection'] = { 'provider' => 'Google', 'google_project' => '<gcp-project-name>', 'google_json_key_location' => '<path-to-gcp-service-account-key>' } gitlab_rails['object_store']['objects']['artifacts']['bucket'] = "<gcp-artifacts-bucket-name>" gitlab_rails['object_store']['objects']['external_diffs']['bucket'] = "<gcp-external-diffs-bucket-name>" gitlab_rails['object_store']['objects']['lfs']['bucket'] = "<gcp-lfs-bucket-name>" gitlab_rails['object_store']['objects']['uploads']['bucket'] = "<gcp-uploads-bucket-name>" gitlab_rails['object_store']['objects']['packages']['bucket'] = "<gcp-packages-bucket-name>" gitlab_rails['object_store']['objects']['dependency_proxy']['bucket'] = "<gcp-dependency-proxy-bucket-name>" gitlab_rails['object_store']['objects']['terraform_state']['bucket'] = "<gcp-terraform-state-bucket-name>" gitlab_rails['backup_upload_connection'] = { 'provider' => 'Google', 'google_project' => '<gcp-project-name>', 'google_json_key_location' => '<path-to-gcp-service-account-key>' } gitlab_rails['backup_upload_remote_directory'] = "<gcp-backups-state-bucket-name>" gitlab_rails['ci_secure_files_object_store_enabled'] = true gitlab_rails['ci_secure_files_object_store_remote_directory'] = "gcp-ci_secure_files-bucket-name" gitlab_rails['ci_secure_files_object_store_connection'] = { 'provider' => 'Google', 'google_project' => '<gcp-project-name>', 'google_json_key_location' => '<path-to-gcp-service-account-key>' }
-
첫 번째로 구성한 Linux 패키지 노드에서
/etc/gitlab/gitlab-secrets.json
파일을 복사하고 이 서버의 해당 파일을 추가하거나 교체합니다. 이게 처음 구성하는 Linux 패키지 노드라면 이 단계는 건너뛰셔도 됩니다. -
자동으로 업그레이드 시 데이터베이스 마이그레이션이 실행되지 않고 재구성 중에만 실행되도록 하려면 다음을 실행합니다:
sudo touch /etc/gitlab/skip-auto-reconfigure
지정된 노드는 GitLab Rails 후 구성 섹션에서 설명한 대로 처리해야 합니다.
- 변경 사항이 적용되려면 GitLab을 재구성하세요.
GitLab Rails 구성
이 부분에서는 GitLab 애플리케이션 (Rails) 구성 방법에 대해 설명합니다.
Rails는 Redis, PostgreSQL, Gitaly 인스턴스에 연결이 필요합니다. 또한 Object Storage에 연결하는 것이 권장됩니다.
다음은 예시로 사용될 IP 주소입니다:
-
10.6.0.111
: GitLab 애플리케이션 1 -
10.6.0.112
: GitLab 애플리케이션 2 -
10.6.0.113
: GitLab 애플리케이션 3 -
10.6.0.114
: GitLab 애플리케이션 4 -
10.6.0.115
: GitLab 애플리케이션 5
각 노드에서 다음을 수행하세요:
-
선택한 리눅스 패키지를 다운로드하고 설치하세요. 페이지에서 설치 단계 1과 2만 따르도록 하세요.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 다음 구성을 사용하세요. 노드 간 링크의 일관성을 유지하기 위해, 응용 프로그램 서버의external_url
은 사용자가 GitLab에 액세스할 URL로 지정해야 합니다. 이는 GitLab 애플리케이션 서버로 트래픽을 라우팅할 외부 로드 밸런서의 URL일 것입니다:external_url 'https://gitlab.example.com' # git_data_dirs는 Praefect 가상 스토리지를 위해 구성됩니다 # 주소는 Praefect의 내부 로드 밸런서 # 토큰은 praefect_external_token git_data_dirs({ "default" => { "gitaly_address" => "tcp://10.6.0.40:2305", # 내부 로드 밸런서 IP "gitaly_token" => '<praefect_external_token>' } }) ## GitLab 애플리케이션 서버에 없을 컴포넌트 비활성화 roles(['application_role']) gitaly['enable'] = false nginx['enable'] = true sidekiq['enable'] = false ## PostgreSQL 연결 세부 정보 # 응용 프로그램 노드에서 PostgreSQL 비활성화 postgresql['enable'] = false gitlab_rails['db_host'] = '10.6.0.20' # 내부 로드 밸런서 IP gitlab_rails['db_port'] = 6432 gitlab_rails['db_password'] = '<postgresql_user_password>' gitlab_rails['db_load_balancing'] = { 'hosts' => ['10.6.0.21', '10.6.0.22', '10.6.0.23'] } # PostgreSQL IPs # 업그레이드 시 자동으로 데이터베이스 마이그레이션을 방지 gitlab_rails['auto_migrate'] = false ## Redis 연결 세부 정보 ## 캐시 데이터를 호스팅할 첫 번째 클러스터 gitlab_rails['redis_cache_instance'] = 'redis://:<REDIS_PRIMARY_PASSWORD_OF_FIRST_CLUSTER>@gitlab-redis-cache' gitlab_rails['redis_cache_sentinels'] = [ {host: '10.6.0.51', port: 26379}, {host: '10.6.0.52', port: 26379}, {host: '10.6.0.53', port: 26379}, ] ## 다른 모든 영구 데이터를 호스팅하는 두 번째 클러스터 redis['master_name'] = 'gitlab-redis-persistent' redis['master_password'] = '<REDIS_PRIMARY_PASSWORD_OF_SECOND_CLUSTER>' gitlab_rails['redis_sentinels'] = [ {host: '10.6.0.61', port: 26379}, {host: '10.6.0.62', port: 26379}, {host: '10.6.0.63', port: 26379}, ] # 모니터링에 사용되는 네트워크 주소 설정 node_exporter['listen_address'] = '0.0.0.0:9100' gitlab_workhorse['prometheus_listen_addr'] = '0.0.0.0:9229' puma['listen'] = '0.0.0.0' # 모니터링 노드의 IP 주소를 모니터링 화이트리스트에 추가하고 NGINX 메트릭 수집을 허용 gitlab_rails['monitoring_whitelist'] = ['10.6.0.151/32', '127.0.0.0/8'] nginx['status']['options']['allow'] = ['10.6.0.151/32', '127.0.0.0/8'] ############################# ### 오브젝트 스토리지 ### ############################# # Google Cloud Platform에서 Object Storage를 구성하는 예시 # 원하는 Object Storage 제공업체로 이 구성을 대체하세요 gitlab_rails['object_store']['enabled'] = true gitlab_rails['object_store']['connection'] = { 'provider' => 'Google', 'google_project' => '<gcp-project-name>', 'google_json_key_location' => '<path-to-gcp-service-account-key>' } ...
(이하 생략)
— 외부로 나가기 위한 이하 생략 —
…
(이하 생략)
— 외부로 나가기 위한 이하 생략 —
…
(이하 생략)
— 외부로 나가기 위한 이하 생략 —
…
(원본 문서의 공간 제한으로 일부 내용이 생략되었습니다)
GitLab Rails 포스트 구성
-
설치 및 업데이트 중에 데이터베이스 마이그레이션을 실행할 응용 프로그램 노드를 지정하세요. GitLab 데이터베이스를 초기화하고 모든 마이그레이션이 실행되었는지 확인하세요:
sudo gitlab-rake gitlab:db:configure
레일스 노드가 기본 데이터베이스에 직접 연결하도록 구성되어 있어야하며, PgBouncer 우회가 필요합니다. 마이그레이션이 완료되면 노드를 다시 PgBouncer로 전달하도록 구성해야합니다.
-
데이터베이스에서 SSH 키를 빠르게 조회하도록 구성하세요.
../operations/fast_ssh_key_lookup.md를 참조하십시오.
프로메테우스 구성
Linux 패키지를 사용하여 프로메테우스를 실행하는 독립형 모니터링 노드를 구성할 수 있습니다.
다음 IP가 예시로 사용됩니다:
-
10.6.0.151
: 프로메테우스
모니터링 노드를 구성하려면 다음을 수행하세요:
- 모니터링 노드에 SSH로 로그인합니다.
-
설치하고 설치의 Linux 패키지를 다운로드하십시오. 페이지의 설치 단계 1과 2 만 따르십시오.
-
/etc/gitlab/gitlab.rb
파일을 편집하고 다음 내용을 추가하십시오:roles(['monitoring_role', 'consul_role']) external_url 'http://gitlab.example.com' # 프로메테우스 prometheus['listen_address'] = '0.0.0.0:9090' prometheus['monitor_kubernetes'] = false # 프로메테우스를 위한 서비스 디스커버리 활성화 consul['monitoring_service_discovery'] = true consul['configuration'] = { retry_join: %w(10.6.0.11 10.6.0.12 10.6.0.13) } # 프로메테우스 구성하여 디스커버리로 포함되지 않은 서비스 스크랩 prometheus['scrape_configs'] = [ { 'job_name': 'pgbouncer', 'static_configs' => [ 'targets' => [ "10.6.0.31:9188", "10.6.0.32:9188", "10.6.0.33:9188", ], ], }, { 'job_name': 'praefect', 'static_configs' => [ 'targets' => [ "10.6.0.131:9652", "10.6.0.132:9652", "10.6.0.133:9652", ], ], }, ] nginx['enable'] = false
- 파일을 저장하고 GitLab 다시 구성을 수행하십시오.
객체 리포지터리 구성
GitLab은 다양한 유형의 데이터를 보유하기 위해 객체 리포지터리 서비스를 사용하는 것을 지원합니다. 데이터 객체를 위해 NFS보다 권장되며 일반적으로 성능, 신뢰성 및 확장성 면에서 훨씬 뛰어납니다. 자세한 내용은 추천 클라우드 제공 업체 및 서비스를 참조하십시오.
GitLab에서 객체 리포지터리 구성을 지정하는 두 가지 방법이 있습니다:
통합된 형식은 사용 가능한 경우 다음 예시에서 사용됩니다.
각 데이터 유형에 대해 별도의 버킷을 사용하는 것이 권장됩니다. 이는 GitLab이 저장하는 다양한 유형의 데이터 간에 충돌이 없도록 보장합니다. 미래에는 단일 버킷 사용을 가능하게하는 계획이 있습니다.
증분 로깅 활성화
GitLab Runner는 작업 로그를 청크 단위로 반환하며, Linux 패키지가 나중에 일시적으로 /var/opt/gitlab/gitlab-ci/builds
에 캐시합니다. 기본 설정에서는 모든 GitLab Rails 및 Sidekiq 노드에서 NFS를 통해 이 디렉터리를 공유해야 합니다.
NFS를 통해 작업 로그를 공유하는 것은 지원되지만, NFS 노드를 배포하지 않아도 되도록 증분 로깅을 활성화하는 것이 좋습니다(공유 스토리지 미배포 시 필요). 증분 로깅은 임시 작업 로그 캐싱을 위해 디스크 공간 대신 Redis를 사용합니다.
고급 검색 구성
Elasticsearch를 활용하여 전체 GitLab 인스턴스에서 더 빠르고 더 고급 코드 검색을 활성화할 수 있습니다.
Elasticsearch 클러스터 디자인 및 요구 사항은 특정 데이터에 따라 달라집니다. 인스턴스 옆에 Elasticsearch 클러스터를 설정하는 권장 최상의 방법에 대해 자세히 알아보려면 최적의 클러스터 구성 선택에 관한 지침을 읽으십시오.
Helm 차트를 사용한 클라우드 네이티브 하이브리드 참조 아키텍처 (대체)
Kubernetes에서 클라우드 네이티브 GitLab의 선택된 컴포넌트를 실행합니다. 이 설정에서는 Kubernetes 클러스터인 Webservice에서 GitLab Rails의 동등한 버전을 실행할 수 있습니다. 또한 Kubernetes 클러스터인 Sidekiq에서 Sidekiq 노드의 동등한 버전을 실행할 수도 있습니다. 추가로 다음과 같은 다른 지원 서비스도 지원됩니다: NGINX, Toolbox, 마이그레이션, Prometheus 및 Grafana.
하이브리드 설치는 클라우드 네이티브 및 전통적인 컴퓨팅 배포의 이점을 모두 활용합니다. 이를 통해 무상태 컴포넌트는 클라우드 네이티브 워크로드 관리의 이점을 누리는 동시에 상태 유지 컴포넌트는 Linux 패키지 설치를 통해 컴퓨팅 VM에 배포되어 증가된 영속성의 이점을 누릅니다.
설정 방법과 함께 GitLab 시크릿을 Kubernetes와 백엔드 컴포넌트 간에 동기화하는데 필요한 지침을 포함한 Helm 차트 고급 구성 문서를 참조하십시오.
클러스터 토폴로지
다음 표와 다이어그램은 일반 환경과 동일한 형식을 사용하여 하이브리드 환경을 설명합니다.
먼저 Kubernetes에서 실행되는 컴포넌트입니다. 이러한 컴포넌트는 여러 노드 그룹에 걸쳐 실행되지만 최소 CPU 및 메모리 요구 사항을 준수하는 한 전체적인 구성을 원하는대로 변경할 수 있습니다.
서비스 노드 그룹 | 노드 수 | 구성 | GCP | AWS | 최소 할당 가능 CPU 및 메모리 |
---|---|---|---|---|---|
Webservice | 7 | 32 vCPU, 28.8 GB 메모리 | n1-highcpu-32
| c5.9xlarge
| 223 vCPU, 206.5 GB 메모리 |
Sidekiq | 4 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
| 15.5 vCPU, 50 GB 메모리 |
지원 서비스 | 2 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
| 7.75 vCPU, 25 GB 메모리 |
- 이 설정에 대해, 우리는 권장하며 정기적으로 테스트를 진행합니다 Google Kubernetes Engine (GKE) 및 Amazon Elastic Kubernetes Service (EKS)를. 다른 Kubernetes 서비스도 작동할 수 있지만 실제 결과는 달라질 수 있습니다.
- 노드 구성은 성능 테스트 중에 Pod vCPU/메모리 비율을 보장하고 스케일링을 피하기 위해 강제로 표시됩니다.
- 프로덕션 배포에서는 특정 노드에 Pod를 할당할 필요가 없습니다. 세 가지 다른 가용 영역에 각각 세 개의 노드를 강력하게 권장하여 견고한 클라우드 아키텍처를 준수하는 것이 좋습니다.
다음으로 정적 컴퓨트 VM에서 실행되는 백엔드 컴포넌트입니다. 이는 Linux 패키지를 사용하여 배포되거나 (적용 가능한 경우) 외부 PaaS 서비스를 사용합니다.
서비스 | 노드 수 | 구성 | GCP | AWS |
---|---|---|---|---|
Consul1 | 3 | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
|
PostgreSQL1 | 3 | 16 vCPU, 60 GB 메모리 | n1-standard-16
| m5.4xlarge
|
PgBouncer1 | 3 | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
|
내부 로드 밸런서3 | 1 | 8 vCPU, 7.2 GB 메모리 | n1-highcpu-8
| c5.2xlarge
|
Redis/Sentinel - Cache2 | 3 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
|
Redis/Sentinel - Persistent2 | 3 | 4 vCPU, 15 GB 메모리 | n1-standard-4
| m5.xlarge
|
Gitaly5 | 3 | 32 vCPU, 120 GB 메모리6 | n1-standard-32
| m5.8xlarge
|
Praefect5 | 3 | 4 vCPU, 3.6 GB 메모리 | n1-highcpu-4
| c5.xlarge
|
Praefect PostgreSQL1 | 1+ | 2 vCPU, 1.8 GB 메모리 | n1-highcpu-2
| c5.large
|
객체 리포지터리4 | - | - | - | - |
각주:
- 신뢰할 수 있는 타사 외부 PaaS PostgreSQL 솔루션에서 선택적으로 실행할 수 있습니다. 자세한 정보는 Provide your own PostgreSQL instance를 참조하십시오.
- 신뢰할 수 있는 타사 외부 PaaS Redis 솔루션에서 선택적으로 실행할 수 있습니다. 자세한 정보는 Provide your own Redis instances를 참조하십시오.
- Redis는 주로 싱글 스레드이며 CPU 코어의 증가에서 큰 이점을 얻지 못합니다. 이러한 크기의 아키텍처의 경우 최적의 성능을 달성하기 위해 별도의 캐시 및 지속적인 인스턴스를 구분하는 것이 강력히 권장됩니다.
- 신뢰할 수 있는 클라우드 제공 업체나 직접 관리되는 솔루션에서 실행해야 합니다. 자세한 정보는 Configure the object storage를 참조하십시오.
- Gitaly 클러스터는 고장 허용의 장점을 제공하지만 추가적인 설정 및 관리의 복잡성을 동반합니다.
Gitaly를 배포하기 전에 기존 기술적 한계 및 고려 사항을 검토하십시오. 샤드 Gitaly를 원하면
Gitaly
에 대한 동일한 사양을 사용하십시오. - Gitaly 사양은 건강한 상태에서의 사용량 패턴 및 리포지터리 크기의 높은 백분위에 기반합니다. 그러나 대형 단일 리포지터리 (몇 기가바이트보다 큰) 또는 추가 워크로드가 있다면 Git 및 Gitaly 성능에 상당한 영향을 미칠 수 있으며 추가 조정이 필요할 수 있습니다.
리소스 사용량 설정
다음 수식들은 리소스 제약 내에서 배포할 수 있는 파드 수를 계산하는 데 도움을 줍니다. 25k 참조 아키텍처 예제 값 파일 은 계산된 구성을 Helm 차트에 적용하는 방법을 문서화합니다.
웹서비스
웹서비스 파드는 일반적으로 각 작업자 당 약 1 CPU 및 1.25GB의 메모리가 필요합니다. 각 웹서비스 파드는 기본적으로 4개의 워커 프로세스가 생성되며 각 파드에는 다른 작은 프로세스가 실행되기 때문에 권장된 토폴로지를 사용하는 경우 약 4 CPU 및 5GB의 메모리를 소비합니다.
25,000명의 사용자를 대상으로 권장하는 총 퓨마 워커 수는 약 140개입니다. 제공된 권장 사항에 따라 기본 설정으로 각각 4개의 워커를 가진 총 35개의 웹서비스 파드를 배포할 수 있습니다. 추가 웹서비스 파드마다 각각 1 CPU에 1.25GB의 메모리 비율을 사용하여 사용 가능한 리소스를 확장하세요.
리소스 사용에 대한 자세한 정보는 웹서비스 리소스를 참조하세요.
Sidekiq
Sidekiq 파드는 일반적으로 0.9 CPU와 2GB의 메모리가 필요합니다.
제공된 시작 지점을 통해 최대 14개의 Sidekiq 파드를 배포할 수 있습니다. 추가 파드마다 0.9 CPU에 2GB 메모리의 비율을 사용하여 사용 가능한 리소스를 확장하세요.
리소스 사용에 대한 자세한 정보는 Sidekiq 리소스를 참조하세요.
지원
지원 노드 풀은 웹서비스 및 Sidekiq 풀에 있을 필요가 없는 모든 지원 배포를 수용할 수 있도록 설계되었습니다.
이에는 클라우드 공급자의 구현 및 지원 GitLab 배포(예: NGINX 또는 GitLab Shell)와 관련된 다양한 배포가 포함됩니다.
모니터링과 같은 추가 배포를 원하는 경우 가능한 경우 이러한 배포를 가능한 한 이 풀에 배포하는 것이 좋으며 웹서비스 또는 Sidekiq 풀에 배포하지 않는 것이 좋습니다. Supporting 풀은 몇 가지 추가 배포를 수용하도록 특별히 설계되었기 때문입니다. 그러나 배포가 주어진 풀에 맞지 않는 경우 노드 풀을 그에 맞게 늘릴 수 있습니다.