🐾
개발자국
  • 🐶ABOUT
  • 🚲프로그래밍
    • 객체 지향 프로그래밍
    • 오브젝트
      • 1장: 객체, 설계
      • 2장: 객체지향 프로그래밍
      • 3장: 역할, 책임, 협력
      • 4장: 설계 품질과 트레이드오프
      • 5장: 책임 할당하기
      • 6장: 메시지와 인터페이스
      • 7장: 객체 분해
      • 8장: 의존성 관리하기
      • 9장: 유연한 설계
      • 10장: 상속과 코드 재사용
      • 11장: 합성과 유연한 설계
      • 12장: 다형성
      • 13장: 서브클래싱과 서브타이핑
      • 14장: 일관성 있는 협력
      • 15장: 디자인 패턴과 프레임워크
    • 도메인 주도 개발 시작하기
      • 1장: 도메인 모델 시작하기
      • 2장: 아키텍처 개요
      • 3장: 애그리거트
      • 4장: 리포지토리와 모델 구현
      • 5장: 스프링 데이터 JPA를 이용한 조회 기능
      • 6장: 응용 서비스와 표현 영역
      • 7장: 도메인 서비스
      • 8장: 애그리거트 트랜잭션 관리
      • 9장: 도메인 모델과 바운디드 컨텍스트
      • 10장: 이벤트
      • 11장: CQRS
    • 클린 아키텍처
      • 만들면서 배우는 클린 아키텍처
        • 계층형 아키텍처의 문제와 의존성 역전
        • 유스케이스
        • 웹 어댑터
        • 영속성 어댑터
        • 아키텍처 요소 테스트
        • 경계 간 매핑 전략
        • 애플리케이션 조립
        • 아키텍처 경계 강제하기
        • 지름길 사용하기
        • 아키텍처 스타일 결정하기
    • 디자인 패턴
      • 생성(Creational) 패턴
        • 팩토리 패턴
        • 싱글톤 패턴
        • 빌더 패턴
        • 프로토타입 패턴
      • 행동(Behavioral) 패턴
        • 전략 패턴
        • 옵저버 패턴
        • 커맨드 패턴
        • 템플릿 메서드 패턴
        • 반복자 패턴
        • 상태 패턴
        • 책임 연쇄 패턴
        • 인터프리터 패턴
        • 중재자 패턴
        • 메멘토 패턴
        • 비지터 패턴
      • 구조(Structural) 패턴
        • 데코레이터 패턴
        • 어댑터 패턴
        • 퍼사드 패턴
        • 컴포지트 패턴
        • 프록시 패턴
        • 브리지 패턴
        • 플라이웨이트 패턴
      • 복합 패턴
  • 시스템 설계
    • 1. 사용자 수에 따른 규모 확장성
    • 2. 개략적 규모 추정
    • 3. 시스템 설계 접근법
    • 4. 처리율 제한 장치
    • 5. 안정 해시
    • 6. 키-값 저장소
    • 7. 유일한 ID 생성기
    • 8. URL 단축기
    • 9. 웹 크롤러
    • 10. 알림 시스템
    • 11. 뉴스 피드
    • 12. 채팅 시스템
    • 13. 검색어 자동완성
    • 14. 유튜브 스트리밍
    • 15. 구글 드라이브
    • ⭐️. 캐싱 전략
    • ⭐️. 재고 시스템으로 알아보는 동시성이슈 해결방법
    • ⭐️. 실습으로 배우는 선착순 이벤트 시스템
  • 🏝️자바
    • 자바의 내부 속으로
      • Java 언어의 특징
      • JDK
      • JVM
        • 메모리 관리
        • Garbage Collector
          • 기본 동작
          • Heap 영역을 제외한 GC 처리 영역
          • (WIP) GC 알고리즘
        • 클래스 로더
      • 자바 실행 방식
      • 메모리 모델과 관리
      • 바이트 코드 조작
      • 리플렉션
      • 다이나믹 프록시
      • 어노테이션 프로세서
    • 자바의 기본
      • 데이터 타입, 변수, 배열
    • 이펙티브 자바
      • 2장: 객체의 생성과 파괴
        • item 1) 생성자 대신 정적 팩토리 메서드를 고려하라
        • item2) 생성자에 매개변수가 많다면 빌더를 고려하라
        • item3) private 생성자나 열거 타입으로 싱글톤임을 보증하라
        • item4) 인스턴스화를 막으려면 private 생성자를 사용
        • item5) 자원을 직접 명시하는 대신 의존 객체 주입 사용
        • item6) 불필요한 객체 생성 지양
        • item7) 다 쓴 객체는 참조 해제하라
        • item8) finalizer와 cleaner 사용 자제
        • item9) try-with-resources를 사용하자
      • 3장: 모든 객체의 공통 메서드
        • item 10) equals는 일반 규약을 지켜 재정의 하자
        • item 11) equals 재정의 시 hashCode도 재정의하라
        • item 12) 항상 toString을 재정의할 것
        • item 13) clone 재정의는 주의해서 진행하라
        • item 14) Comparable 구현을 고려하라
      • 4장: 클래스와 인터페이스
        • item 15) 클래스와 멤버의 접근 권한을 최소화하라
        • item 16) public 클래스에서는 public 필드가 아닌 접근자 메서드를 사용하라
        • item 17) 변경 가능성을 최소화하라
        • item 18) 상속보다는 컴포지션을 사용하라
        • item 19) 상속을 고려해 설계하고 문서화하고, 그러지 않았다면 상속을 금지하라
        • item 20) 추상 클래스보다는 인터페이스를 우선하라
        • item 21) 인터페이스는 구현하는 쪽을 생각해 설계하라
        • item 22) 인터페이스는 타입을 정의하는 용도로만 사용하라
        • item 23) 태그 달린 클래스보다는 클래스 계층구조를 활용하라
        • item 24) 멤버 클래스는 되도록 static으로 만들라
        • item 25) 톱레벨 클래스는 한 파일에 하나만 담으라
      • 5장: 제네릭
        • item 26) 로 타입은 사용하지 말 것
        • item 27) unchecked 경고를 제거하라
        • item 28) 배열보다 리스트를 사용하라
        • item 29) 이왕이면 제네릭 타입으로 만들라
        • item 30) 이왕이면 제네릭 메서드로 만들라
        • item 31) 한정적 와일드카드를 사용해 API 유연성을 높이라
        • item 32) 제네릭과 가변 인수를 함께 사용
        • item 33) 타입 안전 이종 컨테이너를 고려하라
      • 6장: 열거 타입과 어노테이션
        • item 34) int 상수 대신 열거 타입을 사용하라
        • item 35) ordinal 메서드 대신 인스턴스 필드를 사용하라
        • item 36) 비트 필드 대신 EnumSet을 사용하라
        • item 37) ordinal 인덱싱 대신 EnumMap을 사용하라
        • item 38) 확장할 수 있는 열거 타입이 필요하면 인터페이스를 사용하라
        • item 39) 명명 패턴보다 어노테이션을 사용하라
        • item 40) @Override 어노테이션을 일관되게 사용하라
        • item 41) 정의하려는 것이 타입이라면 마커 인터페이스를 사용하라
      • 7장: 람다와 스트림
        • item 42) 익명 클래스보다는 람다를 사용하라
        • item 43) 람다보다는 메서드 참조를 사용하라
        • item 44) 표준 함수형 인터페이스를 사용하라
        • item 45) 스트림은 주의해서 사용하라
        • item 46) 스트림에서는 부작용 없는 함수를 사용하라
        • item 47) 반환 타입으로는 스트림보다 컬렉션이 낫다
        • item 48) 스트림 병렬화는 주의해서 적용하라
      • 8장: 메서드
        • item 49) 매개변수가 유효한지 검사하라
        • item 50) 적시에 방어적 복사본을 만들라
        • item 51) 메서드 시그니처를 신중히 설계하라
        • item 52) 다중정의는 신중히 사용하라
        • item 53) 가변인수는 신중히 사용하라
        • item 54) null이 아닌, 빈 컬렉션이나 배열을 반환하라
        • item 55) 옵셔널 반환은 신중히 하라
        • item 56) 공개된 API 요소에는 항상 문서화 주석을 작성하라
      • 9장: 일반적인 프로그래밍 원칙
        • item 57) 지역 변수의 범위를 최소화하라
        • item 58) 전통적인 for문보다 for-each문을 사용하기
        • item 59) 라이브러리를 익히고 사용하라
        • item 60) 정확한 답이 필요하다면 float, double은 피하라
        • item 61) 박싱된 기본타입보단 기본 타입을 사용하라
        • item 62) 다른 타입이 적절하다면 문자열 사용을 피하라
        • item 63) 문자열 연결은 느리니 주의하라
        • item 64) 객체는 인터페이스를 사용해 참조하라
        • item 65) 리플렉션보단 인터페이스를 사용
        • item 66) 네이티브 메서드는 신중히 사용하라
        • item 67) 최적화는 신중히 하라
        • item 68) 일반적으로 통용되는 명명 규칙을 따르라
      • 10장: 예외
        • item 69) 예외는 진짜 예외 상황에만 사용하라
        • item 70) 복구할 수 있는 상황에서는 검사 예외를, 프로그래밍 오류에는 런타임 예외를 사용하라
        • item 71) 필요 없는 검사 예외 사용은 피하라
        • item 72) 표준 예외를 사용하라
        • item 73) 추상화 수준에 맞는 예외를 던지라
        • item 74) 메서드가 던지는 모든 예외를 문서화하라
        • item 75) 예외의 상세 메시지에 실패 관련 정보를 담으라
        • item 76) 가능한 한 실패 원자적으로 만들라
        • item 77) 예외를 무시하지 말라
      • 11장: 동시성
        • item 78) 공유 중인 가변 데이터는 동기화해 사용하라
        • item 79) 과도한 동기화는 피하라
        • item 80) 스레드보다는 실행자, 태스크, 스트림을 애용하라
        • item 81) wait와 notify보다는 동시성 유틸리티를 애용하라
        • item 82) 스레드 안전성 수준을 문서화하라
        • item 83) 지연 초기화는 신중히 사용하라
        • item 84) 프로그램의 동작을 스레드 스케줄러에 기대지 말라
      • 12장: 직렬화
        • item 85) 자바 직렬화의 대안을 찾으라
        • item 86) Serializable을 구현할지는 신중히 결정하라
        • item 87) 커스텀 직렬화 형태를 고려해보라
        • item 88) readObject 메서드는 방어적으로 작성하라
        • item 89) 인스턴스 수를 통제해야 한다면 readResolve보다는 열거 타입을 사용하라
        • item 90) 직렬화된 인스턴스 대신 직렬화 프록시 사용을 검토하라
    • 모던 자바 인 액션
      • 1장: 자바의 역사
      • 2장: 동작 파라미터화
      • 3장: 람다
      • 4장: 스트림
      • 5장: 스트림 활용
      • 6장: 스트림으로 데이터 수집
      • 7장: 병렬 데이터 처리와 성능
      • 8장: 컬렉션 API 개선
      • 9장: 람다를 이용한 리팩토링, 테스팅, 디버깅
      • 10장: 람다를 이용한 DSL
      • 11장: null 대신 Optional
      • 12장: 날짜와 시간 API
      • 13장: 디폴트 메서드
      • 14장: 자바 모듈 시스템
      • 15장: CompletableFuture와 Reactive 개요
      • 16장: CompletableFuture
      • 17장: 리액티브 프로그래밍
      • 18장: 함수형 프로그래밍
      • 19장: 함수형 프로그래밍 기법
      • 20장: 스칼라 언어 살펴보기
    • 자바의 이모저모
      • Javax
      • Objects
      • NIO
      • Thread
      • Concurrent
        • Atomic
        • Executor, ExecutorService
        • Interrupt
      • Assertions
    • Netty
      • 네티 맛보기
      • 네티의 주요 특징
      • 채널 파이프라인
      • 이벤트 루프
      • 바이트 버퍼
      • 부트스트랩
      • 네티 테스트
      • 코덱
      • 다양한 ChannelHandler와 코덱
      • 웹소켓
      • UDP 브로드캐스팅
    • 자바 병렬 프로그래밍
      • 2장: 스레드 안전성
      • 15장: 단일 연산 변수와 논블로킹 동기화
  • 🏖️코틀린
    • 코틀린 인 액션
      • 코틀린 언어의 특징
      • 코틀린 기초
      • 함수 정의와 호출
      • 클래스, 객체, 인터페이스
      • 람다
      • 타입 시스템
      • 연산자 오버로딩과 기타 관례
      • 고차 함수
      • 제네릭스
      • 어노테이션과 리플렉션
      • DSL 만들기
  • 🌸스프링
    • Spring Core
      • Cron Expression
      • Bean
        • Lifecycle
        • Aware
    • Spring MVC
    • Spring Security
      • 로그인 처리
      • 로그아웃 처리
      • JWT 인증 방식
      • 메소드별 인가 처리
    • Spring Data
      • Pageable
      • Spring Data Couchbase
      • Spring Data Redis
        • Serializer
    • Spring REST Docs
    • Spring Annotations
    • Spring Cloud
      • Service Discovery
      • API Gateway
      • Spring Cloud Config
      • MicroService Communication
      • Data Synchronization
    • Test
      • 테스트 용어 정리
      • JUnit
      • Spring Boot Test
      • Mockito
    • QueryDSL
      • 프로젝트 환경설정
      • 기본 문법
      • 중급 문법
      • 순수 JPA와 QueryDSL
      • 스프링 데이터 JPA와 QueryDSL
    • Lombok
      • @Data
      • @Builder
      • Log Annotations
  • 🕋DB
    • MySQL
      • CentOS7에서 MySQL 8 버전 설치하기
    • MongoDB
      • 
    • Redis
      • Sentinel
      • Cluster
      • Transaction
      • 자료구조
        • String
        • List
        • Set
        • Hash
        • Bitmaps
        • SortedSet
      • Lettuce 단일 서버, 클러스터 서버, 풀링 사용 방법
  • 📽️인프라
    • 리눅스
      • 주요 명령어 모음
    • Docker
      • Docker
      • Docker Compose
      • Docker Swarm
      • Docker Network
      • Linux에서 root 아닌 유저로 docker 실행하기
    • Kubernetes
      • 기초 개념
      • Pod
      • Configuration
      • ReplicationSet
      • Network
      • ConfigMap & Secret
      • Volume, Mount, Claim
      • Controller
      • Multi Container Pod
      • StatefulSet & Job
      • Rollout & Rollback
      • Helm
      • 개발 워크플로우와 CI/CD
      • Container Probes
      • Resource Limit
      • Logging & Monitoring
      • Ingress
      • Security
      • Multi Node/Architecture Cluster
      • Workload & Pod management
      • CRD & Operator
      • Serverless Function
      • K8S Cheat Sheet
    • Kafka
      • 카프카 개요
      • 카프카 설치 및 실습
      • Kafka Broker
      • Topic, Partition, Record
      • Producer
      • Consumer
      • Kafka Streams
      • Kafka Connect
      • MirrorMaker
  • AWS
    • AWS Console / CLI / SDK
    • IAM
    • EC2
      • EC2 Advanced
    • ELB / ASG
    • RDS / Aurora / ElastiCache
    • DynamoDB
    • DocumentDB / Neptune / Keyspaces / QLDB / Timestream
    • Route 53
    • Beanstalk
    • Solution Architect
    • S3
      • 보안
    • CloudFront
    • Global Accelerator
    • AWS Storage
    • Messaging
    • Container
    • Serverless
    • Data Analysis
    • Machine Learning
    • Monitoring
    • Security
    • VPC
    • Data Migration
    • 기타 서비스
  • 🏔️CS
    • 운영 체제
      • Introduction
      • System Structures
      • Process
      • Synchronization
      • Muitithreaded Programming
      • Process Scheduling
      • Memory Management
      • Virtual Memory
    • 네트워크
      • 네트워크 기초
      • 네트워크 통신 방식
      • OSI 7계층
        • 1계층: 물리계층
        • 2계층: 데이터 링크 계층
        • 3계층: 네트워크 계층
        • 4계층: 전송 계층
        • 5계층: 세션 계층
        • 6계층: 표현 계층
        • 7계층: 응용 계층
      • TCP/IP 스택
      • ARP
      • 데이터 크기 조절
      • WDM
      • NAT
      • DNS
      • DHCP
      • VPN
      • 네이글 알고리즘
      • 서버 네트워크
      • 네트워크 보안
        • 보안의 기본
        • 보안 장비
      • 이중화
    • 데이터베이스
      • 트랜잭션
    • 컴퓨터 구조
      • 개요
      • Instruction Set Architecture
      • Procedure Call & Return
      • Linking
      • Pipeline
      • Memory Hierarchy
      • Virtual Memory
      • Interrupt / Exception, IO
    • 자료 구조
      • Array
      • List
      • Map
      • Set
      • Queue
      • PriorityQueue
      • Stack
    • 웹 기술
      • HTTP
        • 쿠키와 세션
  • 🪂Big Data
    • Apache Hadoop
  • 🕹️ETC
    • Git
      • 내부 구조
      • 내가 자주 사용하는 명령어 모음
      • Commit Convention
    • 이력서 작성하기
    • Embedded
      • 라즈베리파이에서 네오픽셀 적용기
    • 기술블로그 모음집
Powered by GitBook
On this page
  • 개념
  • 주요 특징
  • Gossip Protocol
  • Cluster Bus
  • Sharding
  • Hash Slot
  • Hash Tag
  • Failover
  • Replica Migration
  • resharding
  • 관련 명령어
  • Docker로 Cluster 구동하기
  • Docker Compose로 여러 컨테이너 구동
  • Failover 테스트
  • 노드 추가/삭제 및 리샤딩 테스트
  • Spring Data Redis에 Cluster 연결하기
  • 노드에 요청 보내기
  • 요청 리다이렉션
  • multi key 연산
  • topologyRefreshOptions
  1. DB
  2. Redis

Cluster

개념

  • Replication, Failover, Sharding 기능을 제공하여 Redis 운영 시 고가용성을 보장해주는 방식이다.

  • 클러스터의 모든 노드는 서로 연결된 Full Mesh 구조를 이룬다.

  • 클러스터를 구성하기 위해 최소 세 개의 마스터 노드가 필요하다.

주요 특징

Gossip Protocol

  • 클러스터를 관리하거나 클러스터 상태를 확인하는 노드는 따로 존재하지 않는다.

  • 대신 각 노드끼리 TCP 연결을 맺고 Gossip Protocol으로 통신한다.

  • 주변에 있는 일부 node에만 데이터를 송신하면 node간의 데이터 정합성이 시간이 지나면서 확률적으로 맞추어지는 protocol 방식이다.

Cluster Bus

  • 구성 노드들 외에 추가로 채널을 사용한다.

  • 구성 노드의 장애 감지, 구성 업데이트, 페일오버 권한 부여 등에 사용된다.

  • 노드 간 데이터 교환에 있어 바이너리 프로토콜을 사용하는데, 이는 대역폭과 처리시간을 거의 사용하지 않고 노드간 정보를 교환하는 데에 적합하다.

  • 모든 레디스 클러스터 노드에는 두 개의 TCP 연결이 열려있어야 한다.

    • 클라이언트와 통신하는 서비스 포트

    • 노드 간 통신을 위한 클러스터 버스 포트 (서비스 포트 + 10000번)

      • 모든 클러스터 노드와 통신이 가능해야 하며 노드의 장애 감지, 구성 업데이트, failover 권한 부여 등에 사용된다. 바이너리 프로토콜을 사용해 대역폭과 처리 시간을 거의 사용하지 않고 노드 간 정보를 교환한다.

    • 예를 들어 6379, 6380, 6381 포트로 클러스터를 구성한다면, 16379, 16380, 16381 포트도 방화벽에서 열어주어야 한다.

Sharding

  • 최대 1000개 노드까지 Scale Out할 수 있다.

Client-side 샤딩

  • Sharded Jedis는 사용중에 노드를 추가/삭제할 수 없어 노드가 고정된 경우에만 사용이 가능하므로 Redis Cluster를 사용하는 것이 좋다.

Hash Slot

  • 클러스터 사용 시 데이터를 여러 노드에 자동으로 분산시키기 위한 방식이다.

  • consistent hashing을 사용하지 않는 대신 모든 노드에 분산될 수 있는 16384개의 해시 슬롯을 두고, key 값에 대해 CRC16(key) mod 16384 연산을 사용한다.

  • 리샤딩 또는 리밸런싱 작업을 통해 노드 간 slot을 이동시킬 수 있다.

  • 노드 간 해시 슬롯을 이동할 때는 다운 타임이 필요하지 않다.

  • 다중 키 작업(MULTI , RPOPLPUSH …) 요청 시 키들이 같은 노드에 존재해야만 정상적으로 수행할 수 있다. 같은 노드에 키를 위치시키기 위해 Hash Tag를 사용하기도 한다.

  • 만약 서로 다른 노드에 존재하는 키들에 대해 작업 요청을 보내면 아래와 같은 에러가 발생한다.

    ERR CROSSSLOT Keys in request don't hash to the same slot

  • cluster-require-full-coverage

    • 여러 노드에 분산되어 있는 상황에서 한 노드에 장애가 발생해 모든 hash slot을 커버할 수 없는 상황이 발생했을 때 클러스터에 접근할 수 없게 만들 지에 대한 여부

    • 기본값은 true이므로, 모든 hash slot을 커버할 수 없는 상황이면 클러스터를 사용할 수 없게 된다.

Hash Tag

  • 여러 키가 동일한 해시 슬롯에 할당되게 하기 위해 괄호로 { } 해싱될 문자열을 한정하는 방식이다.

  • 키가 user-profile:1234, user-session:1234 인 캐시 아이템이 존재할 경우 두 아이템은 다른 해시 슬롯에 할당된다.

  • 두 키를 user-profile:{1234}, user-session:{1234} 로 저장하면 동일 해시 슬롯에 할당되어 MULTI 명령을 수행할 수 있게 된다.

  • Redis Enterprise 사용 시 정규식으로 해싱 함수에서 사용될 문자열을 지정할 수 있다.

    ex) /user-.*:(?<tag>.+)/

Failover

  • Sentinel 구조에서는 Sentinel 프로세스가 노드들을 감시했지만, Cluster 구조에서는 모든 노드가 서로서로 감시한다. 즉, 클러스터의 노드들은 매 초 임의의 일부 노드에게 heartbeat(ping, pong) 패킷을 교환한다.

  • node timeout

    • 클러스터 노드 중 node timeout 시간의 절반 이상동안 heartbeat 패킷을 교환하지 않은 노드에게 패킷을 보낸다.

    • 따라서 node timeout이 짧고 노드 수가 매우 큰 경우, 교환되는 패킷 양이 상당히 커질 수 있다.

    • ms 단위로 설정한 node timeout 시간 내에 master 노드와 연결할 수 없으면 failover가 발생하여 replica 노드가 master 노드로 승격된다.

    • 지정된 시간 동안 과반수의 master 노드에 접근할 수 없는 노드는 요청을 받지 못하도록 한다.

    • 기본값은 15000ms이다.

  • repl ping replica period

    • master 노드에서 replica 노드로 핑을 보내는 주기를 초단위로 지정할 수 있다.

    • 기본값은 10초이다.

  • cluster replica validity factor

    • master 노드와 replica 노드의 마지막 통신으로부터 (node timeout) * (cluster replica validity factor) + (repl ping replica period) 초 이상 경과했다면, 해당 replica 노드는 master 노드로의 승격 대상에서 제외된다.

    • 예를 들어 node timeout이 30초, cluster replica validity factor가 10, repl ping replica period가 10초라면, 310초 이상 master 노드와 연결되지 않은 replica 노드는 failover를 시도하지 않을 것이다.

    • 이렇게 제한하는 이유는 연결이 오래 끊길수록 데이터 최신화가 불가능하여 데이터 손실이 발생할 수도 있다.

    • 만약 더 이상 master 노드로 승격할 replica 노드가 없을 경우, 기존 master 노드가 다시 클러스터에 합류할 때 까지 클러스터는 사용할 수 없게 된다.

    • 기본값은 10이다.

Replica Migration

  • master 노드와 replica 노드 간의 연결이 고정되어있을 경우, 단일 노드에 여러 오류가 발생하면 시간이 지나면서 가용성이 제한된다.

  • 이를 해결하기 위해 replica 노드는 여러 master 노드를 유동적으로 복제하도록 하는 기능을 제공한다.

  • migration barrier

    • master 노드가 가져야 할 최소한의 replica 노드 개수를 지정할 수 있다.

    • master 노드 A, B, C 가 있고 각각 A1, B1, C1, C2 라는 replica 노드를 가지며 migration barrier 값이 1인 상황을 가정한다. A 노드에 장애가 발생해 A1이 master로 승격된다. 이를 그대로 두면 나중에 A1에 장애가 발생하면 A노드의 데이터가 모두 손실된다. 이를 방지하기 위해 C의 replica 노드 중 하나를 A1 노드의 replica 노드로 마이그레이션 시킨다.

resharding

  • cluster가 동작하는 동안 노드가 추가되거나 삭제될 수 있다. 이 과정에서 노드 간 해시 슬롯이 이동(resharding)되어야 한다.

  • resharding 도중에 들어오는 요청을 어떻게 처리할 지 지정하기 위해 redis는 CLUSTER SETSLOT <slot> MIGRATING | IMPORTING <node> 명령을 제공한다.

  • 노드의 특정 슬롯이 MIGRATING으로 설정되었을 때 노드는 해당 슬롯으로 요청이 들어왔을 때 키가 존재할 때만 응답을 줄 수 있다. 키가 존재하지 않으면 ASK 리다이렉션을 이용해서 마이그레이션 대상 노드로 전달된다.

  • 노드의 특정 슬롯이 IMPORTING으로 설정되었을 때 요청 앞에 ASKING 커맨드가 주어지지 않는다면, 쿼리는 보통 발생하는 것처럼 MOVED 에러를 통해서 실제 해시 슬롯의 주인으로 리다이렉트된다.

관련 명령어

  • cluster info

    • 클러스터 상태, 클러스터에 할당된 slot들의 상태 등을 확인할 수 있다.

  • cluster nodes

    • 현 노드가 속한 cluster의 노드 정보(address, role, connect 여부)를 조회할 수 있다.

Docker로 Cluster 구동하기

Docker Compose로 여러 컨테이너 구동

  • 아래는 Master 3대, Slave 3대로 구성된 Redis Cluster를 구동하기 위한 docker-compose.yml 파일이다.

  • redis-cluster-entry 컨테이너를 구동함으로써 여러 redis 노드들을 클러스터로 구성할 수 있다.

    • --cluster-replicas 1을 통해 6개의 노드 중 3개는 master, 3개는 slave로 수행되도록 한다.

services:
  redis-cluster:
    platform: linux/x86_64
    image: redis
    container_name: redis-test
    volumes:
      - ./redis.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf
    ports:
      - 6379:6379
      - 6380:6380
      - 6381:6381
      - 6382:6382
      - 6383:6383
      - 6384:6384

  redis-node-1:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-test1
    volumes:
      - ./redis1.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf

  redis-node-2:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-test2
    volumes:
      - ./redis2.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf

  redis-node-3:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-test3
    volumes:
      - ./redis3.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf

  redis-node-4:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-test4
    volumes:
      - ./redis4.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf

  redis-node-5:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-test5
    volumes:
      - ./redis5.conf:/usr/local/etc/redis/redis.conf
    command: redis-server /usr/local/etc/redis/redis.conf

  redis-cluster-entry:
    network_mode: "service:redis-cluster"
    platform: linux/x86_64
    image: redis
    container_name: redis-cluster-entry
    command: redis-cli --cluster create 127.0.0.1:6379 127.0.0.1:6380 127.0.0.1:6381 127.0.0.1:6382 127.0.0.1:6383 127.0.0.1:6384 --cluster-replicas 1 --cluster-yes
    depends_on:
      - redis-cluster
      - redis-node-1
      - redis-node-2
      - redis-node-3
      - redis-node-4
      - redis-node-5
  • docker compose up 하기 전 아래와 같이 redis.conf 파일을 같은 경로에 생성해준다. redis.conf~redis5.conf 까지 총 6개의 파일을 생성해주어야 하며, 포트만 서로 다르게 설정하면 된다.

port 6379 
cluster-enabled yes
cluster-config-file node.conf
cluster-node-timeout 5000
  • docker compose up -d 명령으로 구동 시 아래와 같이 컨테이너가 동작한다. (클러스터링이 잘 안될 경우 redis-cluster-entry 컨테이너를 재구동한다.)

Failover 테스트

  • 모두 정상적으로 띄워진 클러스터에서 master 노드 하나를 중지시키면, 해당 master 노드의 replica 노드는 election과정을 거친 후 master 노드로 승격된다.

  • 아래는 승격 과정이 담긴 로그이다. master 노드에 연결이 되지 않기 시작하면 election 과정을 거쳐 replica 노드가 새로운 master가 되는 것을 확인할 수 있다.

* FAIL message received from d0359ab5d77da5f01ae7b61560d2640db49eb3ce () about 09e5829cf2c0a5653759b2d56871ffc3452caed5 ()
# Cluster state changed: fail
* Start of election delayed for 591 milliseconds (rank #0, offset 98).
* Starting a failover election for epoch 7.
* Failover election won: I'm the new master.
* configEpoch set to 7 after successful failover
* Discarding previously cached master state.
* Setting secondary replication ID to ff13ae4f90b76853c6255ad30ac2bc0ddeaae7a0, valid up to offset: 99. New replication ID is 2aec83beaa9528a9ded84fd7f78d058d1c3c6b88
* Cluster state changed: ok
* Replication backlog freed after 3600 seconds without connected replicas.
* Clear FAIL state for node 09e5829cf2c0a5653759b2d56871ffc3452caed5 ():master without slots is reachable again.
* Replica 192.168.144.4:6379 asks for synchronization
* Partial resynchronization not accepted: Replication ID mismatch (Replica asked for 'b236364cc74c50c3e73170c88fdde45c8e1e6654', my replication IDs are '56d4c427e3bdb251e977ad3d4286d04b61d8e362' and '0000000000000000000000000000000000000000')
* Replication backlog created, my new replication IDs are 'ec6ca0a3584f388ec62616e14e9f466edf0800ff' and '0000000000000000000000000000000000000000'

노드 추가/삭제 및 리샤딩 테스트

  • 기본적으로 3대의 마스터 노드를 띄우면 아래와 같이 해시 슬롯이 분배된다. 각 라인의 끝부분을 보면 3개의 노드에 고르게 해시슬롯이 분배되어있는 것을 확인할 수 있다.

    5cb45d9aff563254626375e3a7f1189378214cdb 127.0.0.1:6379@16379 myself,master - 0 1705652580000 1 connected 0-5460
    bfa9f985a3882bee909d155985834b2405be68a7 127.0.0.1:6380@16380 master - 0 1705652581562 2 connected 5461-10922
    9cef3427669857f4164143921b22faa60b1d00c2 127.0.0.1:6381@16381 master - 0 1705652581562 3 connected 10923-16383

노드 추가

  • 이 상황에서 6382번 마스터를 추가해 총 4대의 마스터가 되도록 구성한다.

    redis-cli --cluster add-node <new host:port> <existing host:port>
    redis-cli --cluster add-node 127.0.0.1:6390 127.0.0.1:6379

리밸런싱

  • 새로 추가된 노드를 포함해 리밸런싱 명령을 수행하면 아래와 같이 기존 노드의 일부 해시 슬롯이 자동으로 새로 추가된 노드에 옮겨진다.

    redis-cli --cluster rebalance 127.0.0.1:6379 --cluster-use-empty-masters
    fb946c7f99f326d86e7324a01eb4c16d5207516d 127.0.0.1:6390@16390 master - 0 1705654987000 7 connected 0-1364 5461-6826 10923-12287
    11f59794ab8ef9bd6d0365fc76a85384675d3b14 127.0.0.1:6379@16379 myself,master - 0 1705654985000 1 connected 1365-5460
    1c1476bad0f4c4bfece0d611573c4af511aa724c 127.0.0.1:6380@16380 master - 0 1705654987778 2 connected 6827-10922
    a5729357678563491c132b2178763fa1b6d76752 127.0.0.1:6381@16381 master - 0 1705654986752 3 connected 12288-16383

리샤드

  • 6381번 마스터의 해시 슬롯들을 리샤드 명령을 수행해 제거한다.

    redis-cli --cluster reshard <host:port> --cluster-from <node_id> --cluster-to <node_id> --cluster-slots <number of slots> --cluster-yes
    
    redis-cli --cluster reshard 127.0.0.1:6379 --cluster-from a5729357678563491c132b2178763fa1b6d76752 --cluster-to fb946c7f99f326d86e7324a01eb4c16d5207516d --cluster-slots 1000 --cluster-yes
    redis-cli --cluster reshard 127.0.0.1:6379 --cluster-from a5729357678563491c132b2178763fa1b6d76752 --cluster-to 11f59794ab8ef9bd6d0365fc76a85384675d3b14 --cluster-slots 1000 --cluster-yes
    redis-cli --cluster reshard 127.0.0.1:6379 --cluster-from a5729357678563491c132b2178763fa1b6d76752 --cluster-to 1c1476bad0f4c4bfece0d611573c4af511aa724c --cluster-slots 2500 --cluster-yes
  • 아무 데이터도 저장하지 않게 된 6381번 노드는 6380번 노드의 slave 노드로 변경되었음을 아래 로그로 확인할 수 있다.

    2024-01-22 11:32:06 1:M 22 Jan 2024 02:32:06.256 * Configuration change detected. Reconfiguring myself as a replica of 1c1476bad0f4c4bfece0d611573c4af511aa724c ()
    2024-01-22 11:32:06 1:S 22 Jan 2024 02:32:06.259 * Before turning into a replica, using my own master parameters to synthesize a cached master: I may be able to synchronize with the new master with just a partial transfer.
    2024-01-22 11:32:06 1:S 22 Jan 2024 02:32:06.260 * Connecting to MASTER 127.0.0.1:6380

노드 제거

  • 노드를 제거하려면 아래 명령을 수행하면 된다.

    redis-cli --cluster del-node <host:port> <node_id>
    redis-cli --cluster del-node 127.0.0.1:6379 a5729357678563491c132b2178763fa1b6d76752

Spring Data Redis에 Cluster 연결하기

노드에 요청 보내기

  • 클러스터를 구성하는 노드를 입력해 RedisClusterConfiguration 객체를 생성하고 이를 기반으로 LettuceConnectionFactory 객체를 생성해 Redis 서버와 연결할 수 있도록 한다.

  • 초기 노드 정보는 전부 입력하지 않아도 된다.

LettuceConnectionFactory lettuceConnectionFactory = new LettuceConnectionFactory(new RedisClusterConfiguration()
	.clusterNode("localhost", 6379)
        .clusterNode("localhost", 6380)
        .clusterNode("localhost", 6381)
        .clusterNode("localhost", 6382)
        .clusterNode("localhost", 6383)
        .clusterNode("localhost", 6384),
	LettuceClientConfiguration.builder()
	    .commandTimeout(Duration.ofSeconds(10))
	    .shutdownTimeout(Duration.ofSeconds(30))
            .readFrom(ReadFrom.REPLICA_PREFERRED)
	    .build());
lettuceConnectionFactory.afterPropertiesSet();

RedisTemplate<String, Object> redisTemplate = new RedisTemplate<>();
...
redisTemplate.setConnectionFactory(lettuceConnectionFactory);
redisTemplate.afterPropertiesSet();
  • 사용자가 RedisTemplate을 사용해 요청을 보내는 시점에 Redis 서버와 연결을 맺고 요청을 보내게 된다.

redisTemplate.opsForValue().get("key", "value");

요청 리다이렉션

  • 특정 키에 대한 요청이 들어왔을 경우 ClusterDistributionChannelWriter를 사용해 단일 Key에 대한 hash slot 번호를 연산하고, 해당 해시 슬롯을 가지는 캐시 노드에 명령어를 보낸다.

  1. SlotHash 클래스에서 getSlot() 메서드를 통해 CRC16(key) % 16384 로 hash slot을 찾는다.

  2. PooledClusterConnectionProvider 클래스에서 getConnectionAsync() 메서드를 통해 명령어가 READ인지 WRITE인지 여부와 hash slot 번호를 통해 명령을 보낼 캐시 노드와 연결을 맺고 정보를 반환한다.

  3. ClusterNodeEndPoint 클래스에서 write() 메서드를 통해 데이터를 전송한다. 내부적으로는 네티의 AbstractChannel#writeAndFlush 메서드가 사용된다.

multi key 연산

  • multiGet(List.of(”k1”, “k2”, “k3”)) 같은 multi key 연산을 기본 Redis 명령어로 수행하려면 반드시 동일한 해시 슬롯 안에 존재해야만 수행 가능하다.

  • 하지만 lettuce를 사용하면, 입력된 각 key마다 요청을 나누어 보내기 때문에 여러 해시 슬롯에서 multi key 연산을 수행할 수 있다.

topologyRefreshOptions

  • topology란 클러스터 구성을 의미하며, 각 노드들의 IP 정보 등이 포함된다.

  • Spring Data Redis에서는 topologyRefreshOptions 을 통해 클러스터 topology가 변경되었을 때를 감지하고 변경된 노드에 접속할 수 있도록 설정할 수 있다.

  • Redis Cluster에서 failover 등으로 토폴로지에 변화가 생겼을 때 이를 어떻게 Refresh할 지 옵션을 주어 설정할 수 있다.

@Bean
public RedisConnectionFactory redisConnectionFactory() {
    return new LettuceConnectionFactory(new RedisClusterConfiguration()
        .clusterNode("localhost", 6379),
        LettuceClientConfiguration.builder()
            .clientOptions(getClientOptions())
            .build());
}

@Bean
public ClientOptions getClientOptions() {
    return ClusterClientOptions.builder()
        .autoReconnect(true)
        .topologyRefreshOptions(ClusterTopologyRefreshOptions
            .builder()
            .dynamicRefreshSources(true)
            .enablePeriodicRefresh(Duration.ofSeconds(60)) 
            .enableAllAdaptiveRefreshTriggers() 
            .adaptiveRefreshTriggersTimeout(Duration.ofSeconds(30))
            .build())
        .build();
}
  • dynamicRefreshSources

    • 클러스터 토폴로지 정보를 얻기 위해 CLUSTER NODES 명령으로 얻은 노드들을 사용할 지, 아니면 사용자로부터 입력받은 노드들만 사용할지에 대해 설정할 수 있다.

  • periodicRefresh

    • 입력된 주기마다 토폴로지 정보가 변경되었는지 감지한다.

  • adaptiveRefreshTrigger

    • 특정 응답이 왔을 때 topology 갱신을 실행한다. (MOVED_REDIRECT, ASK_REDIRECT, PERSISTENT_RECONNECTS, UNCOVERED_SLOT, UNKNOWN_NODE)

    • Redis cluster에서 refresh trigger 이벤트가 많이 발생하는 경우 계속 topology를 갱신하려 해 성능 이슈가 발생할 수가 있다.

  • adaptiveRefreshTriggersTimeout

    • adaptive refresh trigger를 실행할 때 timeout을 설정한다. timeout이 발생하면 topology 갱신을 중단한다.

PreviousSentinelNextTransaction

Last updated 1 year ago

Redis Cluster를 사용하지 않고 Arcus Java Client처럼 Client쪽에서 Sharding 기능을 사용할 수 있다. Jedis의 경우 Sharded Jedis를 통해 hash function과 consistent hashing을 통해 여러 master 노드에 키를 분배할 수 있다. (하지만 현재 로, Sharding 기능을 다음 major release에서 제거한다고 한다.)

과반수의 master 노드에서 heartbeat 패킷이 교환되지 않아 FAIL 플래그가 세워진 노드의 경우 장애가 있다고 간주하여, replica 노드가 master 노드로 승격된다. 자세한 사항은 참조한다.

어떤 API에 multi key 연산을 제공하는지 확인하려면 를 참고하면 된다.

🕋
Jedis에서 Deprecated된 상태
링크
문서