NLP Blog

채팅 시스템 설계

|

채팅 시스템 설계

1. 문제 이해 및 설계 범위 확정

채팅앱 유형 결정
  • 페이스북 메신저, 카톡과 같이 1:1 채팅에 집중하는 앱
  • slack 같은 그룹 채팅에 중점을 둔 앱
  • Discord와 같이 대규모 그룹의 소통과 latency가 낮은 음성 채팅에 집중하는 앱
  • 유형마다 시스템 설계가 달라지므로, 위 유형 중 어떤 앱을 설계 해야하는지 면접관과 소통을 해야 함
설계 범위 확인
  • 1:1 및 그룹 채팅 지원 필요
  • 모바일/웹 앱 지원
  • DAU (Daily Active User) 기준 50M 명 처리 필요
  • 100 명의 그룹채팅 인원 제한
  • 사용자 접속상태 지원, 텍스트 메시지만 처리
  • 메시지 길이는 최대 100.000자
  • 채팅 이력은 영원히 보관

2. 개략적 설계안 제시 및 동의 구하기

  • 채팅 시스템의 경우 클라이언트는 서로 직접 통신 X
  • 위에 나열한 모든 기능을 지원하는 채팅 서비스와 통신

채팅 서비스가 지원하는 기능

  • 그림 12-2 참고
  • 클라이언트들로부터 메시지 수신
  • 메시지 수신자 (recipient) 결정 및 전달
  • 수신자가 online 상태가 아닌 경우에는 접속할 때까지 해당 메시지 보관

통신 프로토콜 결정

  • 채팅 서비스의 경우 어떤 통신 프로토콜을 사용할 것인가는 아주 중요한 문제
  • 메시지 발신의 경우, HTTP 프로토콜을 사용하는 것이 검증되어있는 방법, Keep Alive 헤더를 사용하면 TCP 접속 과정에서 발생하는 핸드셰이크 횟수를 줄일 수 있어 효과적
  • 메시지 수신의 경우, 복잡함. HTTP는 클라이언트가 연결을 만드는 프로토콜이므로, 서버에서 클라이언트로 임의 시점에 메시지를 보내는 것이 어려움
  • 여러 우회 방안이 제시되는데 다음과 같다.
    • 폴링 (polling)
    • 롱 폴링 (long polling)
    • 웹소켓 (WebSocket)

폴링

  • 그림 12-3
  • 클라이언트가 주기적으로 서버에게 새 미시지가 있냐고 물어봄
  • 자주하면 자원을 많이 씀, 메시지가 없는 경우 자원낭비

롱 폴링

  • 그림 12-4
  • 폴링의 개선안
  • 클라이언트는 새 메시지가 반환되거나 타임아웃 될 때까지 연결을 유지함
  • 클라이언트는 새 메시지를 받으면 기존 연결을 종료하고 서버에 새로운 요청을 보내어 모들 절차를 다시 시작
  • 약점
    • 메시지를 보내는 클라이언트와 수신하는 클라이언트가 같은 채팅 서버에 접속하지 않을 수 있음, HTTP 서버들은 보통 stateless 서버 이므로, load balancer에 의해 수신 클라이언트와 송신 클라이언트가 다른 서버에 할당될 수 있다.
    • 서버 입장에서는 클라이언트가 연결을 해제했는지 아닌지 알 좋은 방법이 없음
    • 여전히 비효율적, 메시지를 많이 받지 않는 클라이언트도 타임아웃이 일어날 때마다 주기적으로 서버에 다시 접속함

웹소켓

  • 그림 12-5
  • 서버가 클라이언트에게 비동기(async) 메시지를 보낼 때 가장 널리 사용하는 기술
  • 웹소켓 연결은 클라이언트가 시작, 한번 맺어진 연결은 항구적이며 양방향이다.
  • 처음에는 HTTP 연결이지만 특정 핸트셰이크 절차를 거쳐 웹소켓 연결로 업그레이드
  • 연결이 만들어지고 나면, 서버는 클라이언트에게 비동기적으로 메시지 전송 가능
  • HTTP 또는 HTTPS 프로토콜이 쓰는 포트번호를 쓰므로, 방화벽이 있는 환경에서도 잘 동작함
  • 메시지 발신 서비스 시에 HTTP 연결이 좋다고했지만, 웹소켓이 있는 이상, 수신 발신 서비스에 웹소켓을 사용하면 된다. (그림 12-6)
  • 유의할 점은 웹소켓 연결은 항구적으로 유지 (dedicated)되어야 하므로, 서버 측에서 연결 관리를 효율적으로 해야 함

개략적 설계안

  • 방금 클라이언트와 서버 사이의 주 통신 프로토콜로 웹소켓을 사용하기로 결정
  • 하지만 다른 부분에서는 굳이 웹소켓 필요 X
  • 회원가입, 로그인, 사용자 프로파일등의 대부분의 기능은 HTTP로 구현해도 무방함
  • 점체 시스템의 개략적 설계안은 그림 12-7 참고
    • stateless 서비스
    • stateful 서비스
    • 제3자 서비스 연동

Stateless 서비스

  • 로그인, 회원가입, 사용자 프로파일 표시등을 처리하는 전통적인 request/response 서비스
  • 무상태 서비스는 로드밸런서 뒤에 위치, monolithic 일수도, micro-service일수도 있음
  • 이 서비스들 가운데 상당수가 시장에 완제품으로 나와 있어서, 쉽게 사서 쓸 수 있음
  • 이들 가운데 주목할 서비스는 서비스 탐색 (service discovery) 서비스 : 클라이언트가 접속할 채팅 서버의 DNS 호스트명을 클라이언트에게 알려주는 역할

Stateful 서비스

  • 채팅 서비스만이 상태 유지가 필요한 서비스
  • 각 클라이언트가 채팅 서버와 독립적인 네트워크 연결을 유지해야 함
  • 보통 서버가 살아있는 한 다른 서버로 연결을 변경하지 않음
  • service discovery 서비스는 채팅 서비스와 긴밀히 협력하여 특정 서버에 부하가 몰리지 않도록 함

제3자 서비스 연동

  • 채팅 앱에서 가장 중요한 서드파티 서비스는 푸시 알림
  • 새 메시지를 받았다면 설사 앱이 실행 중이지 않더라도 알림을 받아야 함
  • 10장 알림 시스템 설계 참고

규모 확장성

  • 트래픽 규모가 얼마 되지 않을 때는 위 기능을 서버 한대로 구현 가능하나, SPOF 및 분산 처리등을 위해 다중 서버로의 규모확장을 해야 함
  • 그림 12-8 참고하여 개략적 설계안 확인
    • 채팅 서버는 클라이언트 사이에 메시지를 중계하는 역할
    • 접속상태 서버 (presence server)는 사용자의 접속 여부를 관리
    • API 서버는 로그인, 회원가입, 프로파일 변경 등 그 외 나머지 전부를 처리
    • 알림 서버는 푸시 알림을 보냄
    • key-value 저장소에는 채팅 이력(chat history)을 보관, 시스템에 접속한 사용자는 이전 채팅 이력을 전부 보게 될 것임

저장소

  • 어떤 데이터 베이스를 쓸까? - RDBMS vs NoSQL
  • 따져야 할 것은, 데이터의 유형과 읽기/쓰기 연산의 패턴
  • 채팅 시스템이 다루는 데이터는 보통 두가지
    • 사용자 프로파일, 설정, 친구 목록과 같은 일반적인 데이터
      • 다중화(replication)와 샤딩(sharding)은 이런 데이터의 가용성과 규모확장성을 보증하기 위해 보편적으로 사용
    • 채팅 시스템의 고유한 데이터인 채팅 이력 (chat history)
      • 채팅 이력 데이터의 양은 엄청남, 페이스북 메신저나 왓츠앱은 매일 60B 개의 메시지를 처리
      • 빈번하게 사용되는 것은 주로 최근에 주고받은 메시지, 대부분의 사용자는 오래된 메시지는 들여다보지 않음
      • 하지만 검색 기능을 이용하거나, 특정 사용자가 언급된 메시지를 보거나, 특정 메시지로 점프하는 일도 있으므로 이도 지원해야함
      • 1:1 채팅 앱의 경우 읽기:쓰기 비율은 대략 1:1 정도
  • 이 모두를 지원하기 위해 본 설계안에서는 key-value 저장소를 추천함
    • key-value 저장소는 수평적 규모확장(horizontal scaling)이 쉬움
    • 데이터 접근 지연시간(latency)이 낮음
    • 관계형 데이터 베이스는 데이터 가운데 롱 테일에 해당하는 부분을 잘 처리하지 못하는 경향이 있음. 인덱스가 커지면 데이터에 대한 random access를 처리하는 비용이 늘어남
    • 페이스북 메신저 (HBase), 디스코드(Cassandra) 등이 이미 key-value 저장소 사용 중

데이터 모델

1:1 채팅을 위한 메시지 테이블

message
-------
message_id : bigint (PK)
messge_from : bigint 
message_to : bigint
content : text
created_at : timestamp
  • 위는 1:1 채팅을 지원하기 위한 메시지 테이블의 사례
  • PK (Primary Key)는 message_id, 메시지 순서를 쉽게 정할 수 있는 역할도 담당
  • created_at을 사용해서는 순서를 명확히 정할 수 없음, 서로 다른 두 메시지가 server time상으로 같은 시점에 생길 수도 있기 때문

그룹 채팅을 위한 메시지 테이블

group message
-------------
channel_id : bigint (PK)
message_id : bigint (PK)
message_to(from?) : bigint
content : text
created_at : timestamp
  • (channel_id, message_id)의 복합키(composite key)를 PK로 사용
  • 채널은 채팅 그룹과 같은 뜻, partition key로도 사용 : 그룹 채팅에 적용될 모든 질의는 특정 채널을 대상으로 할 것이기 때문 (exclusive)

메시지 ID

  • message_id를 만드는 기법은 자세히 논의할 만한 가치가 있는 흥미로운 주제 (분산환경의 key-value store의 경우)
    • message_id의 값은 고유해야 함 (uniqueness).
    • ID 값은 정령 가능해야 하며 시간 순서와 일치해야 함. 즉, 새로운 ID는 이전 ID보다 큰 값이어야 함
  • RDBMS는 auto_increment가 대안이나, NoSQL은 보통 해당 기능 제공 X
  • Snowflake 사용 (7장 참고)
  • 지역적 순서 번호 생성기 (local sequence number generator) 이용
    • 지역적 : ID의 유일성은 같은 그룹 안에서만 보증하면 충분
    • 메시지 사이의 순서는 같은 채널, 혹은 같은 1:1 채팅 세션 안에서만 유지되면 충분함
    • 구현하기 쉬운 접근법

3. 상세 설계

  • 채팅 시스템의 경우 가장 먼저 상세 설계를 진행할 부분은 서비스 탐색, 메시지 전달 흐름, 사용자 접속 상태 표시 방법 이다.

서비스 탐색

  • 서비스 탐색 기능의 주된 역할은 클라이언트에게 가장 적합한 채팅 서버를 추천하는 것
  • 이 때 사용되는 기준
    • 클라이언트의 위치 (geographical location)
    • 서버의 용량 (capacity)
  • 널리 쓰이는 오픈 소스 솔루션 : 아파치 주키퍼 (Apache Zookeeper)
    • 사용 가능한 모든 채팅 서버를 여기 등록시켜 두고, 클라이언트가 접속을 시도하면 사전에 정한 기준에 따라 최적의 채팅 서버를 골라줄 수 있음
주키퍼로 구현한 서비스 탐색기능 (그림 12-11 참고)
  1. 사용자 A가 시스템에 고르인을 시도
  2. 로드밸런서가 로그인 요청을 API 서버들 가운데 하나로 보냄
  3. API 서버가 사용자 인증을 처리하고 나면 서비스 탐색 기능 동작
  4. 해당 사용자를 서비스할 최적의 채팅 서버 탐색 (geological location, server capacity 고려) 예제에서는 서버 2가 선택됨
  5. 사용자 A는 채팅 서버 2와 웹소켓 연결을 맺음

메시지 흐름

  • 채팅 시스템에 있어 종단 간 (end to end) 메시지 흐름을 이해하는 것은 흥미로운 주제
    • 1:1 채팅 메시지 처리 흐름
    • 여러 단말 간 메시지 동기화
    • 그룹 채팅 메시지의 처리흐름
1:1 채팅 메시지 처리 흐름
  • 그림 12-12 참고
  1. 사용자 A가 채팅 서버 1로 메시지 전송
  2. 채팅 서버 1은 ID 생성기를 통해 해당 메시지의 ID 결정
  3. 채팅 서버 1은 해당 메시지를 메시지 동기화 큐로 전송
  4. 메시지가 키-값 저장소에 보관됨
  5. 사용자 B의 접속 유무에 따라 a. 사용자 B가 접속중인 경우 : 메시지는 사용자 B가 접속 중인 채팅 서버 (예제에서는 채팅 서버 2)로 전송 b. 사용자 B가 접속중이 아닌 경우 : 푸시 알림 메시지를 푸시 알림 서버로 보냄
  6. 채팅 서버 2는 메시지를 사용자 B에게 전송. 사용자 B와 채팅 서버 2 사이는 웹소켓으로 연결되어 있음
여러 단말 사이의 메시지 동기화
  • 그림 12-13 참고
  • 그림 12-13에서 사용자 A는 전화기와 랩톱의 두 대 단말을 이용 중
  • 사용자 A가 전화기에서 채팅 앱에 로그인한 결과로 채팅 서버 1과 해당 단말 사이에 웹소켓 연결이 만들어져 있음
  • 랩톱도 로그인 결과로 채팅 서버 1에 웹소켓 연결이 되어 있음
  • 각 단말은 cur_max_message_id라는 변수 유지, 해당 단말에서 관측된 가장 최신 메시지의 ID를 추적하는 용도
  • 아래 두 조건을 만족하는 메시지는 새 메시지로 간주
    • 수신자 ID가 현재 로그인한 사용자 ID와 같다
    • 키-값 저장소에 보관된 메시지로서, 그 ID가 cur_max_message_id보다 크다
  • cur_max_message_id는 단말마다 별도로 유지 관리하면 되는 값이라, key-value 저장소에서 새 메시지를 가져오는 동기화 작업도 쉽게 구현할 수 있다.
소규모 그룹 채팅에서의 메시지 흐름
  • 발신자 입장 (그림 12-14 참고)
    • 사용자 A가 그룹 채팅 방에서 메시지를 보냈을 때 어떤 일이 벌어지는지 보여 줌
    • 해당 그룹에 3명의 사용자가 있다고 할 때
    • 사용자 A가 보낸 메시지가 사용자 B와 C의 메시지 동기화 큐 (message sync queue) 에 복사
    • 이 큐는 사용자 각각에 할당된 메시지 수신함 같은 것
    • 이 설계안은 소규모 그룹 채팅에 적합한데, 이유는 다음과 같음
      • 새로운 메시지가 왔는지 확인하려면 자기 큐만 보면 되니까, 메시지 동기화 플로가 단순함
      • 그룹이 크지 않으면 메시지를 수신자별로 복사해서 큐에 넣는 작업의 비용이 문제가 되지 않음
    • 위챗(WeChat)이 이런 접근법을 쓰고 있음, 그룹의 크기는 500명으로 제한됨
  • 수신자 입장 (그림 12-15 참고)
    • 한 수신자는 여러 사용자로부터 오는 메시지를 수신할 수 있어야 함
    • 메시지 동기화 큐는 여러 사용자로부터 오는 메시지를 받을 수 있어야 함

접속상태 표시

  • 사용자의 접속 상태를 표시하는 것은 채팅 어플리케이션의 핵심적 기능 (카톡은 안됨…)
  • 채팅 프로필에 녹색 점이 붙어있는 기능을 어떻게 구현할 수 있는지 살펴본다.
  • 개략적 설계안에서는 접속상태 서버 (presense server)를 통해 사용자의 상태를 관리한다고 했었음
  • 접속상태 서버는 클라이언트와 웹소켓으로 통신하는 실시간 서비스의 일부라는 점 유의
사용자 로그인
  • 그림 12-16 참고
  • 사용자 로그인 절차에 대해서는 “서비스 탐색” 절에서 설명한 바 있음
  • 클라이언트와 실시간 서비스 사이에 웹소켓 연결이 맺어지고 나면 접속샅애 서버는 A의 상태와 las_active_at 타임스탬프 값을 key-value 저장소에 보관
  • 이 절차가 끝나고 나면 해당 사용자는 접속 중인 것으로 표시될 것
로그 아웃
  • 그림 12-17 참고
  • key-value 저장소에 보관된 사용자 상태가 online에서 offline으로 바뀌게 됨
접속 장애
  • 인터넷 연결은 언제든지 끊길 수 있음, 따라서 그런 상황에 대응할 수 있는 설계를 준비해야 함
  • Naive하게 생각해보았을 때, 연결이 끊기면 offline, 다시 접속하면 online으로 바꾸면 됨
  • 하지만, 연결이 짧은 시간 동안 끊기는 일은 너무 흔하다. 이럴 때마다 접속 상태가 변경된다면 UX적으로 좋지 않음
  • 본 설계안에서는 heartbeat 검사를 통해 이 문제를 해결 (그림 12-18)
  • 온라인 상태의 클라이언트로 하여근 주기적인 heartbeat event를 접속상태 서버로 보내도록 함
상태 정보의 전송
  • 그림 12-19 참고
  • 사용자 A의 친구들은 어떻게 해당 사용자의 상태 변화를 알게 될 것인가?
  • 상태정보 서버는 publish-subscribe model을 사용, 즉 각각의 친구관계마다 채널을 하나씩 둔다.
  • 위 방안은 그룹 크기가 작을 때는 효과적임, 위챗은 그룹 크기 상한을 500으로 제한하고 있어서 이 접근법 사용할 수 있으나, 그룹 크기가 더 커지면 이런 식으로 접속상태 변화를 알려서는 비용이나 시간이 많이 들게 됨
  • 위 문제를 해소하는 방법은 사용자가 그룹 채팅에 입장하는 순간에만 상태 정보를 읽어가게 하거나, 친구 리스트에 있는 사용자의 접속상태를 갱신하고 싶으면 수동으로 하도록 유도

4. 마무리

정리

  • 1:1 채팅과 그룹 태칭을 전부 지원하는 채팅 시스템의 아키텍처를 살펴 봄
    • 클라이언트 - 서버 사이의 실시간 통신을 가능하도록 웹소켓 사용
    • 실시간 메시징을 지원하는 채팅 서버
    • 접속 상태 서버
    • 푸시 알림 서버
    • 채팅 이력을 보관할 key-value 저장소
    • 이를 제외한 나머지 기능을 구현하는 데 쓰일 API 서버

추가 논의 가능 사항

  • 사진이나 비디오 등의 미디어를 지원하도록 하는 방법 : 미디어 파일은 크기 크므로, 압축 방식, 클라우드 저장소, 썸네일 생성 등을 논의 가능
  • 종단 간 암호화 : 왓츠앱은 메시지 전소엥 있어 종단 간 암호화 지원, 메시지 발신인과 수신자 이외에는 아무도 메시지 내용을 볼 수 없다
  • 캐시 : 클라이언트에 이미 읽은 메시지를 캐시해 두면 서버와 주고받는 데이터 양을 줄일 수 있음
  • 로딩 속도 개선 : slack은 사용자의 데이터, 채널 등을 지역적으로 분산하는 네트워크를 구축하여 앱 로딩 속도를 개선 함 (참고)
  • 오류 처리
    • 채팅 서버 오류 : 채팅 서버 하나가 죽으면 서비스 탐색 기능이 동작하여 클라이언트에게 새로운 서버를 배정하고 다시 접속할 수 있도록 해야 함
    • 메시지 재전송 : 재시도(retry)나 큐(queue)는 메시지의 안정적 전송을 보장하기 위해 사용되는 기법

참고자료

  • 알렉스 쉬, 가상 면접 사례로 배우는 대규모 시스템 설계 기초 12장

Comment  Read more

뉴스피드 시스템 설계

|

뉴스 피드 시스템 설계

  • 뉴스 피드 (news feed) : sns에서 개인 홈 페이지 중앙에 지속적으로 업데이트되는 스토리들
  • 시스템 디자인 면접 문제로 아주 많이 나옴

1. 문제 이해 및 설계 범위 확정

문제 이해 방법
  • 면접관의 의도 파악을 위해 질문을 해야 함
  • 최소한 어떤 기능을 지원해야 할지 반드시 파악이 필요
설계 범위 확정
  • 모바일과 웹 둘 다 지원 필요
  • 사용자는 뉴스 피드 페이지에 새로운 스토리를 올릴 수 있어야 함 (피드 발행)
  • 친구들이 올리는 스토리를 볼 수 있어야 함 (뉴스 피드 생성, 피드 읽기)
  • 뉴스 피드 순서는 시간 흐름 역순 (토픽 점수, 가까운 친구의 포스트를 좀 더 위 와 같은 방식도 가능하나, 설계의 단순화를 위해 시간 역순 산정)
  • 한 명의 사용자는 최대 5000명의 친구 맺기 가능
  • 스토리에는 이미지나 비디오 등의 미디어 파일 포함 가능

2. 개략적 설계안 제시 및 동의 구하기

  • (1) 피드 발행 (feed publishing)과 (2) 뉴스 피드 생성 (news feed building)으로 개략적 설계 진행

뉴스 피드 API

  • 뉴스 피드 API는 클라이언트가 서버와 통신하기 위해 사용하는 수단
  • HTTP 프로토콜 기반
  • 상태 정보 업데이트, 뉴스 피드 가져오기, 친구 추가 등의 작업 수행

피드 발행 API

  • 새 스토리를 포스팅하기 위한 API
  • HTTP POST 형태로 요청을 보냄
  • POST /v1/me/feed
  • parameter:
    • body : 포스팅 내용
    • Authorization 헤더 : API 호출을 인증하기 위해 사용

피드 읽기 API

  • 뉴스 피드를 가져오는 API
  • GET /v1/me/feed
  • parameter
    • Authorization 헤더 : API 호출을 인증하기 위해 사용

피드 발행 시스템

  • 그림 11-2 참고
  • 사용자 : 모바일 앱이나 브라우저에서 새 포스팅을 올리는 주체, POST /v1/me/feed API를 사용
  • 로드밸런서 (load balancer) : 트래픽을 웹 서버들로 분산
  • 웹 서버 : HTTP 요청을 내부 서비스로 중계하는 역할
  • 포스팅 저장 서비스 (post service) : 새 포스팅을 데이터베이스와 캐시에 저장
  • 포스팅 전송 서비스 (fanout service) : 새 포스팅을 친구의 뉴스피드에 push한다. 뉴스 피드 데이터는 캐시에 보관하여 빠르게 읽어갈 수 있도록 한다.
  • 알림 서비스 (notification service) : 친구들에게 새 포스팅이 올라왔음을 알리거나, 푸시 알림을 보내는 역할

뉴스 피드 생성 시스템

  • 그림 11-3 참고
  • 사용자 : 뉴스 피드를 읽는 주체, GET /v1/me/feed API를 이용
  • 로드 밸런서 : 트래픽을 웹 서버들로 분산
  • 뉴스 피드 서비스 (news feed service) : 캐시에서 뉴스 피드를 가져오는 서비스
  • 뉴스 피드 캐시 (news feed cache) : 뉴스 피드를 렌더링할 때 필요한 피드 ID를 보관

3. 상세 설계

피드 발행 흐름 및 상세 설계

  • 그림 11-4는 피드 발행 흐름의 상세 설계안
  • 웹 서버와 포스팅 전송 서비스 (fanout service)에 초점
  • 나머지는 개략적 설계안 정도로 충분

웹 서버

  • 클라이언트와 통신
  • 인증 기능 : 올바른 인증 토큰을 Authorization 헤더에 넣고 API를 호출하는 사용자만 포스팅 가능
  • 처리율 제한 (rate limiter) : 스팸 차단, 유해한 콘텐츠가 자주 올라오는 것을 방지하기 위한 처리율 제한기 필요

포스팅 전송(팬아웃) 서비스

  • 팬아웃(fanout) : 어떤 사용자의 새 포스팅을 그 사용자와 친구 관계에 있는 모든 사용자에게 전달하는 과정
  • 쓰기 시점에 팬아웃 (fanout-on-write or push model)과 읽기 시점에 팬아웃 (fanout-on-read or pull model) 이 있음
fanout-on-write (push) model
  • 새로운 포스팅을 기록하는 시점에 뉴스 피드 갱신. 즉, 포스팅이 완료되면 바로 해당 사용자의 캐시에 해당 포스팅을 기록
  • 장점
    • 뉴스 피드가 실시간으로 갱신되며 친구 목록에 있는 사용자에게 즉시 전송
    • 새 포스팅이 기록되는 순간에 뉴스 피드가 이미 갱신되므로 (pre-computed) 뉴스 피드를 읽는 데 드는 시간이 짧아짐
  • 단점
    • 친구가 많은 사용자의 경우 친구 목록을 가져오고 그 목록에 있는 사용자 모두의 뉴스 피드를 갱신하는 데 많은 시간이 소요될 수 있음 (hotkey 문제)
    • 서비스를 자주 이용하지 않는 사용자의 피드까지 갱신해야 하므로 컴퓨팅 자원이 낭비됨
fanout-on-read (pull) model
  • 피드를 읽어야 하는 시점에 뉴스 피드를 갱신, 요청 기반 (on-demand) 모델. 사용자가 본인 홈페이지나 타임라인은 로딩하는 시점에 새로운 포스트를 가져오게 됨
  • 장점
    • 비활성화된 사용자, 또는 서비스에 거의 로그인하지 않는 사용자의 경우에는 이 모델이 유리함. 로그인 전까지는 어떤 컴퓨팅 자원도 소모하지 않아서임
    • 데이터를 친구 각각에 푸시하는 작업이 필요 없으므로 hotkey 문제도 생기지 않음
  • 단점
    • 뉴스 피드를 읽는데 많은 시간이 소요될 수 있음
타협안
  • 뉴스 피드를 빠르게 가져오는 것은 아주 중요하므로, 대부분의 사용자는 푸시 모델을 사용함
  • 친구나 팔로워가 아주 많은 사용자의 경우에는 팔로워로 하여금 해당 사용자의 포스팅을 필요할 때 가져가도록 풀 모델 사용
  • 안정 해시를 통해 요청과 데이터를 보다 고르게 분산하여 핫키 문제 완화

타협안의 flow

  • 그림 11-5 참고
  1. 그래프 DB에서 친구 ID 목록을 가져옴
  2. 사용자 정보 캐시에서 친구들의 정보를 가져옴. 사용자 설정에 따라 친구 가운데 일부를 걸러냄 (일부 친구 feed mute 기능 지원 or 스토리를 일부 사용자에게만 공개하는 기능)
  3. 친구 목록과 새 스토리의 포스팅 ID를 메시지 큐에 넣는다.
  4. 팬아웃 작업 서버가 메시지 큐에서 데이터를 꺼내어 뉴스피드 데이터를 뉴스 피드 캐시에 넣는다. (그림 11-6 참고) - 사용자는 대부분 최신 스토리를 보기 때문에, 캐시의 크기를 한정하여도 캐시 미스가 많이 나지 않는다.

피드 읽기 흐름 상세 설계

  • 그림 11-7 참고

설계안 flow

  1. 사용자가 뉴스 피드를 읽으려는 요청을 보냄 요청은 GET /v1/me/feed
  2. 로드밸런서가 요청을 웹 서버 가운데 하나로 보낸다.
  3. 웹 서버는 피드를 가져오기 위해 뉴스 피드 서비스를 호출
  4. 뉴스 피드 서비스는 뉴스 피드 캐시에서 포스팅 ID 목록을 가져옴
  5. 뉴스 피드에서 표시할 사용자 이름, 사용자 사진, 포스팅 콘텐츠, 이미지 등을 사용자 캐시와 포스팅 캐시에서 가져와 완전한 뉴스 피드를 만듦
  6. 생성된 뉴스 피드를 JSON 형태로 클라이언트에게 보내고, 클라이언트는 해당 피드를 렌더링 함

캐시 구조

  • 캐시는 뉴스 피드 시스템의 핵심 컴포넌트, 5 계층으로 나눈다.
  • 그림 11-8 참고
  • 뉴스 피드 : 뉴스 피드의 ID를 보관
  • 콘텐츠 : 포스팅 데이터를 보관, 인기 콘텐츠는 따로 보관
  • 소셜 그래프 : 사용자 간 관계 정보를 보관
  • 행동 (action) : 포스팅에 대한 사용자의 행위에 관한 정보를 보관. (좋아요, 답글 등등)
  • 횟수 (counter) : 좋아요 횟수, 응답 수, 팔로어 수, 팔로잉 수 등의 정보 보관

4. 마무리

  • 시스템 설계 면접은 정답이 없으므로, trade-off가 있는지 잘 이해하고 설명할 수 있어야 함
  • 설계를 마친 후에도 시간이 남으면, 규모 확장성 이슈를 논의하는 것도 좋음

규모 확장성 이슈

  • 데이터베이스 규모 확장
    • 수직적 규모 확장 vs 수평적 규모 확장
    • SQL vs NoSQL
    • master-slave 다중화
    • replica 읽기 연산
    • 일관성 모델
    • 데이터베이스 sharding
  • 추가 논의 주제
    • 웹 계층을 stateless로 운영하기
    • 가능한 한 많은 데이터를 캐시할 방법
    • 여러 데이터 센터를 지원할 방법
    • 메시지 큐를 사용하여 컴포넌트 사이의 결합도 낮추기
    • 핵심 메트릭 (key metric)에 대한 모니터링 (peak QPS, refresh시 지연시간 등)

참고자료

  • 알렉스 쉬, 가상 면접 사례로 배우는 대규모 시스템 설계 기초 11장

Comment  Read more

키-값 저장소 설계

|

키-값 저장소 설계안

  • key-value store는 NoSQL 데이터베이스이다.
  • 이 저장소에 저장되는 값은 고유 식별자(identifier)를 키로 가져야 한다.
  • 키-값 쌍에서의 키는 유일해야 하며 해당 키에 매달린 값은 키를 통해서만 접근 가능
  • 키는 일반 텍스트, 해시 값 모두 가능하지만, 성능상의 이유로 키는 짧을수록 좋다
  • 값은 문자열, list, object… 가능 (보통 무엇이 되든 상관x)
  • 널리 알려진 제품
    • Amazon DynamoDB
    • memcached
    • Redis

문제 이해 및 설계 범위 확정

  • 이번 글에서는 다음 특성을 갖는 키-값 저장소를 설계할 것
    • 키-값 쌍의 크기는 10KB 이하
    • 큰 데이터를 저장할 수 있어야 함
    • 높은 가용성을 제공해야함, 장애가 생기더라도 빠른 응답 필요
    • 높은 규모 확정성 제공, 트래픽 양에 따라 자동적으로 서버 증설/삭제가 이루어져야 함
    • 데이터 일관성 수준은 조정 가능해야 함
    • 응답 지연시간(latency)이 짧아야 함

1. 단일 서버 키-값 저장소

  • 단일서버 설계는 어렵지 않다.

    가장 직관적인 방법

  • 키-값 쌍 전부를 메모리에 해시 테이블로 저장
  • 하지만, 데이터가 많아지면, 모든 데이터를 메모리 안에 두는 것이 불가능할 수 있음
해결책
  • 데이터 압축
  • 자주 쓰이는 데이터만 메모리에 두고 나머지는 티스크에 저장

그러나 한 대 서버로 부족한 때가 찾아오므로, 분산 키-값 저장소 (distributed key-value store)를 설계해야 함

2. 분산 키-값 저장소

  • 분산 키-값 저장소는 분산 해시 테이블이라고도 불림
  • 분산 시스템 설계시에는 CAP 정리 (Consistency, Availibility, Partition Torlerance theorem)을 이해해야 함

2.1 CAP 정리

  • CAP 정리는 데이터 일관성, 가용성, 파티션 감내(여기서 파티션은 DB 테이블 파티션이 아니다! 네트워크 단절에 의한 partition을 의미함)라는 세 가지 요구사항을 동시에 만족하는 분산 시스템을 설계하는 것은 불가능하다는 정리
    • 데이터 일관성 : 분산 시스템에 접속하는 모든 클라이언트는 어떤 노드에 접속했느냐에 관계없이 언제나 같은 데이터를 보게 되어야 함
    • 가용성 : 분산 시스템에 접속하는 클라이언트는 일부 노드에 장애가 발생하더라도 항상 응답을 받을 수 있어야 함
    • 파티션 감내 : 파티션은 두 노드 사이에 통신 장애가 발생하였음을 의미, 파티션 감내는 네트워크에 파티션이 생기더라도 시스템은 계속 동작하여야 하는 것을 뜻함
  • 위 조건 가운데 어떤 두가지를 충족하려면, 나머지 하나는 반드시 포기해야함
CP 시스템
  • 일관성과 파티션 감내를 지원하는 키-값 저장소, 가용성을 희생
AP 시스템
  • 가용성과 파티션 감내를 지원하는 키-값 저장소, 데이터 일관성을 희생
CA 시스템 (실제로 존재하지 않음)
  • 일관성과 가용성을 지원하느 키-값 저장소
  • 파티션 감내를 지원하지 않으나, 통산 네트워크 장애는 피할 수 없으므로, 실세계에 CA 시스템은 존재하지 않음

구체적인 예

  • 정의만으로는 이해하지 어려우니, 구체적인 예를 살펴보자
  • 그림 6-2와 같이 세 대의 복제 노드 n1, n2, n3에 데이터를 복제한다고 가정
이상적 상태
  • 이상적 환경이라면 네트워크가 파티션되는 상황은 일어나지 않음
  • n1에 기록된 데이터는 자동적으로 n2와 n3에 복제
  • 데이터 일관성과 가용성도 만족
실세계의 분산 시스템
  • 분산 시스템은 파티션 문제를 피할 수 없음
  • 파티션 문제가 발생하면 일관성과 가용성 사이에서 하나를 선택해야 함
  • 그림 6-3은 n3에 장애가 발생하여 n1, n2와 통신할 수 없는 상황
    • 클라이언트가 n1, n2에 저장한 데이터는 n3에 저장되지 않음
    • n3에 기록되었으나 n1, n2로 전달되지 않은 데이터가 있다면 n1과 n2는 오래된 사본을 갖고있음
  • 선택 1 : 일관성 선택 (CP 시스템)
    • 세 서버 사이에 생길 수 있는 데이터 불일치 문제를 피하기 위해 n1과 n2에 대해 쓰기 연산을 중단 (가용성 깨짐)
    • ex) 은행권 시스템은 데이터 일관성을 양보하지 않음, 온라인 뱅킹 시스템이 계좌 최신 정보를 출력하지 못하면 큰 사고
  • 선택 2 : 가용성 선택 (AP 시스템)
    • 낡은 데이터를 반환할 위험이 있더라도 읽기 연산 허용
    • n1, n2에도 쓰기 연산허용
    • 파티션 문제가 해결된 뒤에 새 데이터를 n3에 전송

2.2 시스템 컴포넌트

  • 데이터 파티션
  • 데이터 다중화 (replication)
  • 일관성 (consistency)
  • 일관성 불일치 해소 (inconsistency resolution)
  • 장애 처리
  • 시스템 아키텍처 다이어그램
  • 쓰기 경로 (write path)
  • 읽기 경로 (read path)

2.2.1 데이터 파티션

  • 대규모 애플리케이션의 경우 모든 데이터를 하나의 서버에 저장하는 것은 불가능
  • 데이터를 작은 파티션으로 분할한 다음 여러 서버에 저장한다.
고려해야할 점
  • 데이터를 여러 서버에 고르게 분산할 수 있는가
  • 노드가 추가되거나 삭제될 때 데이터의 이동을 최소화할 수 있는가
해결법
  • 5장에서 배운 안정 해시 사용
    • 규모 확장 자동화 (automatic scaling) : 시스템 부하에 따라 서버가 자동으로 추가/삭제
    • 다양성 (heterogeneity) : 각 서버의 용량에 맞게 가상 노드의 수를 조정 가능, 다시 말해, 다른 노드보다 고성능의 노드는 더 많은 가상 노드를 갖도록 설정 가능

2.2.2 데이터 다중화

  • 높은 가용성과 안정성을 확보하기 위해서는 테이터를 N개 서버(N은 튜닝가능)에 비동기적으로 다중화 (replication)할 필요가 있음
  • 2.2.1에서 설명한 안정 해시의 해시링 위에서 링은 순회하며 만나는 첫 N개의 서버에 데이터 사본 저장
  • 같은 데이터 센터에 속한 노드는 물리적 이슈로 인해 문제를 동시에 겪을 가능성이 있으므로, 사본을 다른 센터의 서버에 저장해야 할 필요가 있음

2.2.3 데이터 일관성

  • 여러 노드에 다중화된 데이터는 적절히 동기화가 되어야 함
  • 정족수 합의 (Quorum Consensus) 프로토콜을 사용하여 읽기/쓰기 연산 모두에 일관성 보장 가능
    • N = 사본 개수
    • W = 쓰기 연산에 대한 정족수. 쓰기 연산이 성공한 것으로 간주되려면 적어도 W개의 서버로부터 쓰기 연산이 성공했다는 응답을 받아야 한다.
    • R = 읽기 연산에 대한 정족수. 읽기 연산이 성공한 것으로 간주되려면 적어도 R개의 서버로부터 응답을 받아야 함
N = 3 인 경우에 대한 그림 6-6 예제
  • W = 1 은 데이터가 한 대 서버에만 기록된다는 뜻 X. 쓰기 연산이 성공했다고 판단하기 위해 중재자(coordinator)는 최소 한 대 서버로부터 쓰기 성공 응답을 받아야 함
  • 따라서 s1으로 부터 성공 응답을 받으면, 다른 서버로부터의 응답은 기다릴 필요 없음
  • 중재자는 클라이언트와 노드 사이에서 프록시(proxy) 역할
W, R, N 값 정하기
  • W, R, N의 값을 정하는 것은 응답 지연과 데이터 일관성 사이의 타협점을 찾는 것
  • W=1 or R=1 구성의 경우 중재자는 한 대 서버로 부터 응답만 받으면 되니 응답속도는 빠름
  • W or R > 1 인경우, 시스템이 보여주는 데이터 일관성의 수준은 향상될 테지만, 중재자의 응답 속도는 느린 서버로부터의 응답을 기다려야 하므로 느려짐
  • W + R > N 인 경우에는 강한 일관성 (strong consistency) 보장, 일관성을 보증할 최신 데이터를 가진 노드가 최소 하나는 겹칠 것
  • 몇 가지 구성 가능 예제
    • R=1, W=N : 빠른 읽기 연산에 최적화
    • W=1, R=N : 빠른 쓰기 연산에 최적화
    • W+R>N : 강한 일관성이 보장됨 (보통 N=3, W=R=2)
    • W+R<=N : 강한 일관성이 보장되지 않음
일관성 모델
  • 강한 일관성(strong consistency) : 모든 읽기 연산을 가장 최근에 갱신된 결과를 반환, 클라이언트는 절대로 낡은 (out-of-date) 데이터를 보지 못함
  • 약한 일관성(weak consistency) : 읽기 연산은 가장 최근에 갱신된 결과를 반환하지 못할 수 있음
  • 최종 일관성(eventual consistency) : 약한 일관성의 한 형태로, 갱신 결과가 결국에는 모든 사본에 반영 (즉, 동기화)되는 모델
비 일관성 해소 기법 : 데이터 버저닝
  • 데이터를 다중화하면 가용성은 높아지지만 사본 간 일관성이 깨진 가능성은 높아짐
  • 해결책으로 버저닝(versioning), 벡터 시계(vector clock) 기술 사용
    • 버저닝 : 데이터를 변경할 때마다 해당 데이터의 새로운 버전을 만듦, 각 버전의 데이터는 immutable, conflict 발생 가능
    • 벡터 시계 : [서버, 버전]의 순서쌍을 데이터에 태깅
      • 어떤 버전이 선행 버전인지, 후행 버전인지, 아니면 다른 버전과 충돌이 있는지 판별
      • 두 버전 사이에 충돌을 확인하는 방법은, 모든 구성요소 값이 같거나 큰지만 보면 됨
        • D([s0,1],[s1,1])D([s0,1],[s1,2])의 이전 버전 (충돌 x)
        • D([s0,1],[s1,2])D([s0,2],[s1,1])는 서로 충돌
      • 단점
        • 충돌 감지 및 해소 로직이 클라이언트에 들어가야해서 구현이 복잡해짐
        • [서버:버전]의 순서쌍 갯수가 굉장히 빨리 늘어나므로, threshold 설정 필요

2.2.4 장애 처리

  • 대다수 대규모 시스템에서 장애는 아주 흔하게 발생
  • 장애 방지가 아닌 장애 감지 (failure detection)장애 해소 (failure resolution) 전략이 필요
장애 감지
  • 분산 시스템에서는 보통 두 대 이상의 서버가 똑같이 서버 A의 장애를 보고해야 해당 서버에 실제로 장애가 발생했다고 간주.
  • 하지만 그림 6-10의 multicasting 채널을 구축하는 것은 비효율적 ($O(n^2)$)
  • 가십 프로토콜(gossip protocol)같은 분산형 장애 감지(decentrailized failure detection) 솔루션을 채택하는 것이 효율적
가십 프로토콜 (gossip protocol)
  • 각 노드는 멤버십 목록(membership list)를 유지, 멤버십 목록은 각 멤버 ID와 박동 카운터(heartbeat counter) 쌍의 목록
  • 각 노드는 주기적으로 자신의 박동 카운터 증가
  • 각 노드는 무작위로 선정된 노드들에게 주기적으로 자기 박동 카운터 목록을 보냄
  • 박동 카운터 목록을 받은 노드는 멤버십 목록을 최신 값으로 갱신
  • 어떤 멤버의 박동 카운터 값이 지정된 시간 동안 갱신되지 않으면 해당 멤버는 장애(offline) 상태인 것으로 간주
일시적 장애 처리
  • 느슨한 정족수 (sloppy quorum) 접근법 사용
  • 정족수 요구사항을 강제하는 대신, 쓰기 연산을 수행할 W개의 건강한 서버와 읽기 연산을 수행할 R개의 건강한 서버를 해시 링에서 고름 (장애 서버는 무시)
  • 장애 상태인 서보로 가는 요청은 다른 서버가 잠시 맡아 처리
  • 그동안 발생한 변경사항은 해당 서버가 복귀되었을 때 일괄 반영하여 데이터 일관성 보존 (hint를 남겨놓음) -> 단서 후 임시위탁 (hinted handoff) (그림 6-12 예제)
영구적 장애 처리
  • 반-엔트로피(anti-entropy) 프로토콜을 구현하여 사본들을 동기화
  • 반-엔트로피 프로토콜
    • 사본들을 비교하여 최신 버전으로 갱신하는 과정 포함
    • 사본 간의 일관성이 망가진 상태를 탐지하고 전송 데이터의 양을 줄이기 위해서는 머클(Merkle) 트리를 사용
머클 트리 (Merkle Tree)
  • 정의
    • 해시 트리(hash tree)라고도 불리는 머클 트리는 각 노드에 그 자식 노드들에 보관된 값의 해시(자식 노드가 leaf 노드인 경우), 또는 자식 노드들의 레이블로부터 계산되 해시 값을 레이블로 붙여두는 트리
    • 대규모 자료 구조의 내용을 효과적이면서도 보안상 안전한 방법으로 검증(verification)할 수 있음
  • 사용 예제
    • 머클 트리 생성 과정
      • 키 공간을 버킷(bucket)으로 나눔
      • 버킷에 포함된 각각의 키에 균등 분포 해시 (uniform hash) 함수를 적용하여 해시 값 계산
      • 버킷별로 해시값을 계산 후, 해당 해시 값을 레이블로 갖는 노드 생성
      • 자식 노드의 레이블로부터 새로운 해시 값 계산 -> 이진 트리를 상향식으로 구성
    • 비교과정
      • 루트(root) 노드의 해시값을 비교
        • 루트 노드의 해시 값이 일치한다면 두 서버는 같은 데이터를 가짐
      • 값이 다른 경우 왼쪽 자식 노드의 해시 값을 비교, ㄷ그 다음으로 오른쪽 자식 노드의 해시 값 비교
      • 이렇게 하면서 아래쪽으로 탐색해 나가다 보면 다른 데이터를 갖는 버킷을 찾을 수 있으므로, 그 버킷들만 동기화 하면 된다
  • 이점
    • 동기화 해야하는 데이터의 양이 실제로 존재하는 차이의 크기에 비례할 뿐, 두 서버에 보관된 데이터의 총량과는 무관
    • 차이가 존재하는 데이터를 찾는 시간이 $O(log_2 n)$
데이터 센터 장애 처리
  • 정전, 네트워크 장애, 자연재해 등 다양한 이유로 발생 가능
  • 데이터를 여러 데이터 센터에 다중화하는 것이 중요함

2.2.5 시스템 아키텍처 다이어그램

아키텍처의 기능 (그림 6-17)
  • 클라이언트는 키-값 저장소가 제공하는 두 가지 단순한 API, 즉 get(key)put(key, value)와 통신
  • 중재자(coordinator)는 클라이언트에게 키-값 저장소에 대한 프록시(proxy)역할을 하는 노드
  • 노드는 안정 해시(consistent hash)의 해시 링(hash ring)위에 분포
  • 노드를 자동으로 추가/삭제 할 수 있도록 시스템은 완전히 분산 (decentralized)
  • 데이터는 여러 노드에 다중화
  • 모든 노드가 같은 책임을 지므로, SPOF(Single Point of Failure)는 존재하지 않음
  • 모든 노드는 다음 기능 전부를 지원해야 함
    • 클라이언트 API
    • 장애 감지
    • 데이터 충돌 해소
    • 장애 복구 메커니즘
    • 다중화
    • 저장소 엔진

2.2.6 쓰기 경로

  • 그림 6-19는 쓰기 요청이 특정 노드에 전달되었을 때의 상황을 보여줌 (Cassandra 예제)
  1. 쓰기 요청이 커밋 로그(commit log)파일에 기록
  2. 데이터가 메모리 캐시에 기록
  3. 메모리 캐시가 가득차거나 사전에 정의된 어떤 임게치에 도달하면 데이터는 디스크에 있는 SSTable(Sorted-String Table)에 기록

2.2.7 읽기 경로

  • 읽기 요청을 받은 노드는 데이터가 메모리 캐시에 있는지부터 살핌
  • 있는 경우에는 그림6-20과 같이 해당 데이터를 클라이언트에게 반환
  • 메모리에 없을 경우에는 디스크에서 가져와야함
    • 어느 SSTable에 찾는 키가 있는지 알아낼 효율적인 방법이 필요 -> Bloom filter 사용!
      • cf) 블룸필터 : 있다고 한 곳에 없을수는 있지만, 없다고 한 곳에 있는 경우는 없음
그림 6-21
  1. 데이터가 메모리에 있는지 검사. 없으면 2로 간다
  2. 데이터가 메모리에 없으므로 블룸 필터를 검사
  3. 블룸 필터를 통해 어떤 SSTable에 키가 보관되어 있는지 알아냄
  4. SSTable에서 데이터를 가져옴
  5. 해당 데이터를 클라이언트에게 반환

3.요약

목표/문제 기술
대규모 데이터 저장 안정 해시를 사용해 서버들에 부하 분산
읽기 연산에 대한 높은 가용성 보장 데이터를 여러 데이터센터에 다중화
쓰기 연산에 대한 높은 가용성 보장 버저닝 및 벡터 시계를 사용한 충돌 해소
데이터 파티션 안정 해시
점진적 규모 확장성 안정 해시
다양성(heteroheneity) 안정 해시
조절 가능한 데이터 일관성 정족수 합의(quorum concensus)
일시적 장애 처리 느슨한 정족수 프로토콜(sloppy quorum)과 단서 후 임시 위탁(hinted handoff)
영구적 장애 처리 머클 트리(Merkle tree)
데이터 센터 장애 대응 여러 데이터 센터에 걸친 데이터 다중화

참고자료

  • 알렉스 쉬, 가상 면접 사례로 배우는 대규모 시스템 설계 기초 6장

Comment  Read more

안정 해시 설계

|

안정 해시 설계

  • 수평적 규모 확장성을 달성하기 위해서는 요청 또는 데이터를 서버 간 균등하게 나누는 것이 중요

1. 해시 키 재배치(rehash) 문제

  • N개의 캐시 서버가 있을때, 해당 서버에 부하를 균등하게 나누는 보편적 방법은 해시 함수를 사용하는 것
    • serverIndex = hash(key) % N (N은 서버의 갯수)
  • 위 방법은 서버 풀 (server pool)의 크기가 고정되어 있을 때, 그리고 데이터 분포가 균등할 때 잘 동작
  • 하지만 서버가 추가 or 삭제되면, 문제 발생
    • moudular 값을 N -> N-1 or N+1 로 변경
    • 기존 키가 대부분 재분배 -> 캐시 미스 발생

2. 안정 해시

안정 해시는 해시 테이블 크기가 조정될 때 평균적으로 오직 k/n (k = number of keys, n = number of slots)의 키만 재배치하는 해시 기술이다. 이와 달리 대부분의 전통적 해시 테이블은 슬롯의 수가 바뀌면 거의 대부분 키를 재배치한다. - wikipedia

해시 공간과 해시 링
  • 해시 함수 f로 SHA-1을 사용한다고 가정했을 때, 출력 값의 범위는 $0$ ~ $2^{160}-1$ 이라고 알려져 있음 -> 해시 공간 (hash space)
  • 해당 출력의 양 끝단을 이어서 ring 형태로 만들면 그것을 해시 링 (hash ring)이라고 한다.
해시 서버
  • 해시 서버 f를 사용하면 서버 IP나 이름을 링 위의 어떤 위치에 대응 시킬 수 있다. (그림 5-5)
해시 키
  • 캐시할 키 key0, key1, key2, key3또한 해시 링 위의 어느 지점에 배치 가능 (그림 5-6)
서버 조회
  • 어떤 키가 저장되는 서버는 해당 키의 위치로부터 시계방향으로 링을 탐색해 나가면서 만나는 첫 서버 (그림 5-7)
서버 추가
  • 위 2. 안정 해시 설명에 의하면 서버 추가 시 일부 키만 재할당 되어야 함
  • 그림 5-8을 보면 서버 4가 추가된 이후 key0만 재배치되는 것을 알 수 있다.
서버 제거
  • 서버 제거시에도 일부 키만 재배치
  • 그림 5-9를 보면 서버1이 제거 되었을 때, key1만이 서버 2로 재배치 됨

기본 구현법의 2가지 문제

  • 안정 해시 알고리즘은 MIT에서 처음 제안
기본 절차
  • 서버와 키를 균등 분포(uniform distribution) 해시 함수를 사용해 해시 링에 배치
  • 키의 위치에서 링을 시계 방향으로 탐색하다 만나는 최초의 서버가 키가 저장 될 서버다
문제점
  1. 서버가 추가되거나 삭제되는 상황을 감안하면, 파티션의 크기를 균등하게 유지하는 것이 불가능
  2. 키의 균등 분포(uniform distribution)를 달성하기 어렵다.

해결법 : 가상 노드

  • 가상 노드(virtual node)는 실제 노드 또는 서버를 가리키는 노드로써, 하나의 서버는 링 위에 여러 개의 가상 노드를 가질 수 있다.
  • 가상 노드의 개수를 늘리면 키의 분포는 점점더 균등해짐
    • 표준편차(standard deviation)가 작아져서 데이터가 고르게 분포되기 때문
  • 문헌에 따르면, 100~200개의 가상 노드를 사용했을 경우 표준 편차 값은 평균의 5~10% 사이임
  • 가상 노드 개수 증가 -> 표준 편차 감소하지만, 데이터를 저장할 공간은 줄어듦
    • tradeoff 결정이 필요

3. 마치며

안정 해시의 이점

  • 서버가 추가되거나 삭제될 때 재배치되는 키의 수가 최소화
  • 데이터가 보다 균등하게 분포하므로, 수평적 규모 확장성 달성 용이
  • 특정 샤드에 대한 접근이 지나치게 발생하는 핫스팟(hotspot) 키 문제를 줄임

안정해시를 사용하는 제품

  • Amazon DynamoDB의 파티셔닝 관련 컴포넌트
  • Apache Cassandra 클러스터에서의 데이터 파티셔닝
  • Discord 채팅 어플리케이션
  • Akamai CDM
  • Meglev 네트워크 부하 분산기

참고자료

  • 알렉스 쉬, 가상 면접 사례로 배우는 대규모 시스템 설계 기초 5장

Comment  Read more

chap1. 사용자 수에 따른 규모 확장성

|

사용자 수에 따른 규모 확장성

  • 수많은 사용자를 지원하는 시스템은 지속적인 계량과 끝없는 개선이 필요
  • 1 user -> ~M users 를 지원하는 시스템 설계

1. 단일 서버

  • 단일 서버는 하나의 서버에 웹 앱, 데이터베이스, 캐시 등을 모두 실행 fig1-1 fig1-1 fig1-2 fig1-2

1-1. 사용자 요청 처리 흐름

  1. 사용자는 도메인 이름 (ex: naver.com)을 이용하여 웹사이트에 접속
    • 도메일 이름을 IP주소로 변환하는 과정 : DNS (Domain Name Service) 질의
    • DNS는 third party 유료 서비스이므로 우리 시스템의 일부는 아님
  2. DNS 조회 결과로 IP주소 반환 (ex: 123.123.123.123)
  3. 해당 IP주소로 HTTP 요청 전달
  4. 요청을 받은 웹서버가 응답 반환 (HTML, JSON, …)

1-2. 실제 요청 유형

  • 웹 애플리케이션 (Web Application)
    • 비즈니스 로직, 데이터 저장 … : 서버 구현용 언어 (Python, Java …)
    • 프레젠테이션 : 클라이언트 구현용 언어 (HTML(…언어?), javascript)
  • 모바일 앱 (Mobile Application)
    • 모바일 앱과 웹 서버간 통신 필요
      • 프로토콜 : HTTP
      • 데이터 포맷 : JSON이 널리 사용

2. 데이터베이스

  • 사용자가 늘면 서버를 늘려야 함
    1. 웹/모바일 트래픽 처리 용도
    2. 데이터베이스 용도
  • 분리 후 각각을 독립적으로 확장 fig1-3 fig1-3

2-1. 데이터베이스 선택

  • 데이터베이스는 크게 2가지
    • RDBMS(Relational Database Management System) : MySQL, Oracle Database, PostgreSQL, …
      • 자료를 table, row, column으로 표현
      • 여러 테이블에 있는 자료를 join 가능
    • NoSQL : CouchDB, Neo4j, Cassandra, HBase, …
      • NoSQL은 다시 4가지로 분류 가능
        • key-value store
        • graph store
        • column store
        • document store
  • 보통 RDBMS를 많이 선택
  • 하지만 다음과 같은 경우 NoSQL이 좋은 선택일 수 있음
    • 아주 낮은 응답 지연시간 요구
    • 다루는 데이터가 정형 데이터가 아닌 비정형 데이터 (unstructured data)인 경우
    • 데이터 (JSON, YAML, XML 등)를 직렬화(serialize)하거나 역직렬화(deserialize)할 수 있기만 하면 됨
    • 아주 많은 양의 데이터를 저장할 필요가 없음

3. Scale Up vs Scale Out

Scale Up

  • 수직적 규모 확장 (vertical scaling) 프로세스
  • 단일 서버에 고사양 자원 (더 좋은 CPU, 더 많은 RAM 등)을 추가하는 행위

Scale Out

  • 수평적 규모 확장 프로세스
  • 더 많은 서버를 추가하여 성능을 개선

선택 기준은?

  • 서버로 유입되는 트래픽이 많지 않을때는 scale up이 좋은 선택 (단순하게 확장 가능)
  • 하지만 scale up에는 심각한 단점이 존재
    • 확장의 한계 존재 (단일 서버에 CPU, RAM을 무한정 증설할 수 없음)
    • 자동복구(failover) 방안이나 다중화(redundancy) 방안을 제시하지 않음
      • 단일 서버 운영시, 서버에 장애가 발생하면 웹사이트/앱은 완전히 중단됨
  • 위 단점들로 인해, 대규모 애플리케이션의 경우 수평적 규모 확장법이 적절함
  • 위 설계 (fig1-1)의 경우, 사용자가 많아져 웹서버가 한계 상황에 도달하게 되면 응답속도가 느려지거나, 서버 접속이 불가능해질 수도 있다.
  • 문제 해결을 위해서 로드밸런서(Load Balancer)를 도입

3-1. 로드밸런서(Load Balancer)

  • 로드밸런서는 load balancing set에 속한 웹 서버들에게 트래픽 부하를 고르게 분산함

fig1-4 fig1-4

  • fig 1-4와 같이 user는 LB의 Public IP 주소로 접속
  • 웹서버는 user의 요청 직접 처리 x
  • 보안을 위해 서버간 통신은 private IP 주소 사용
  • load balancing set에 또 하나의 웹 서버를 추가하고나면 failover 가능, availibility 향상
    • 서버 1이 다운되면 모든 트래픽은 서버 2로 전송 (failover)
      • 사이트 전체 다운 x
      • 부하를 나누기 위해 새로운 서버를 추가 가능
    • 웹사이트로 유입되는 트래픽이 가파르게 증가하면, 간단하게 LB에 붙어있는 LB set에 새로운 서버를 추가하여 트래픽 분산 가능 (avaliliblity 향상)
  • 웹 계층은 OK, 하지만 데이터 계층은? 데이터 계층도 다중화가 필요하다.

3-2. 데이터베이스 다중화

fig1-5 fig1-5 (TODO:)

  • 많은 DBMS가 다중화를 지원 : 서버 사이 master - slave 관계 설정, 원본은 master, 사본은 slave에 저장
  • 쓰기 연산 (write operation - insert, delete, update 등)은 master에서만 지원
  • 읽기 연산 (read opreration)은 slave에서 지원
  • 대부분의 애플리케이션은 읽기 연산 » 쓰기 연산 이므로 통상 slave가 master보다 많음

DB 다중화로 인한 이득

  • 더 나은 성능 : read operation이 부 데이터베이스 서버들로 분산되므로, 병렬 처리 가능한 query가 늘어남
  • 안정성 (reliability) : 데이터베이스 서버 가운데 일부가 crash되어도 다른 서버 덕분에 데이터는 보존
  • 가용성 (availibility) : 데이터를 여러 지역에 복제해 둠으로써, 하나의 데이터 서버에 장애가 발생해도 다른 서버에 있는 데이터를 가져와 계속 서비스 가능

DB 다중화시 장애 상황 시나리오

  • 부 서버 다운 시나리오
    • 부 서버가 한 대 뿐인데 다운된 경우
      • 읽기 연산은 한시적으로 주 데이터베이스로 전달
      • 새로운 부 데이터 서버가 장애 서버 대체
    • 부 서버가 여러대인 경우
      • 읽기 연산은 나머지 부 데이터 베이스로 전달
      • 새로분 부 데이터베이스 서버 추가하여 대체
  • 주 서버 다운 시나리오
    • 부 데이터베이스 서버가 새로운 주 서버가 됨
    • 모든 db연산은 일시적으로 새로운 서버상에서 수행
    • 새로운 부 서버 추가
    • production 환경에서 주 서버 다운 장애는 위 보다 훨씬 복잡함
      • 부 서버에 보관된 데이터가 최신 상태가 아닐 수 있음
      • 없는 데이터는 recovery script를 돌려서 추가해야함
      • 다중 마스터 (multi-masters)나 원형 다중화(circular replication) 방식 도입 가능
      • 위에 대한 자세한 논의는 참고문헌 (multi-master replication, NDB Cluster Replication)을 참고

3-3. 로드밸런서 + DB 다중화

fig1-6 fig1-6 (TODO:)

  • user는 DNS로부터 LB의 Public IP주소를 받음
  • 해당 IP주소를 사용해 LB에 접속
  • HTTP요청은 서버 1 또는 서버 2로 전달
  • 웹 서버는 사용자의 데이터를 부 데이터베이스 서버에서 읽음
  • 웹 서버는 데이터 변경 연산은 주 데이터 베이스로 전달 (insert, delete, update)

3-4. 마무리

  • 웹 계층과 데이터 계층에 대해서 정리해보았음
  • 다음으로는 응답시간(latency) 개선
    • Cache
    • Contents Delivery Network, CDN

4. 캐시 (Cache)

  • 값비싼 연산 결과 또는 자주 참조되는 데이터를 메모리에 저장 -> 같은 요청을 메모리에 있는 값으로 빨리 처리
  • fig1-6에서는 웹 페이지를 새로고침 할 때 마다 표시되는 데이터를 가져오기 위해 데이터베이스 호출이 발생
  • 어플리케이션의 성능은 데이터베이스를 얼마나 자주 호출하느냐에 좌우되는데, 캐시는 이를 완화시켜 줌

4-1. 캐시 계층 (Cache Tier)

fig1-8 fig1-8 (TODO:)

  • 캐시 계층(cache tier)은 데이터가 잠시 보관되는 곳으로, DB보다 훨씬 빠름
  • 별도의 캐시 계층을 두면 성능 개선 뿐만 아니라 DB의 부하를 줄일 수 있음
  • 캐시 계층의 규모를 독립적으로 확장시키는 것도 가능

캐시계층의 작동 방식

  • 읽기 주도형 캐시 전략(read-through caching strategy)
    • 요청을 받은 웹서버는 캐시에 응답이 저장되어 있는지 확인
      • 저장되어 있다면 해당 데이터를 client에 반환
      • 없는 경우에는 db query를 통해 데이터를 찾아 캐시에 저장 -> client에 반환
  • 이외에도 다양한 캐시 전략 존재
  • 캐시 서버는 널리쓰이는 프로그래밍 언어로 API를 제공하여 사용하기 간단하다.

캐시 사용 시 유의할 점

  • 캐시는 어떤 상황에 바람직한가?
    • 데이터 갱신은 자주 일어나지 않지만, 참조는 빈번하게 일어날 때
  • 어떤 데이터를 캐시에 두어야 하는가?
    • 캐시는 데이터를 휘발성 메모리에 두므로, persistent data를 캐시에 두면 안된다.
  • 데이터 만료(expire)는 어떻게 하는가?
    • 만료 정책을 세워야한다. 만료 정책이 없으면 데이터는 캐시에 계속 남게 된다.
    • 만료 기한이 너무 짧을 때 : 데이터베이스를 너무 자주 읽게 됨
    • 만료 기한이 너무 길 때 : 원본과 차이가 날 가능성이 높아짐
  • 일관성(consistency) 유지는?
    • 일관성 : 데이터 저장소의 원본과 캐시 내의 사본이 같은지 여부
    • 저장소의 원본을 갱신하는 연산과 캐시를 갱신하는 연산이 단일 트랜잭션으로 처리되지 않는 경우, 이 일관성은 깨질 수 있음
    • 여러 지역에 걸쳐 시스템을 확장해 나가는 경우 캐시와 저장소 사이의 일관성을 유지하는 것을 어려운 문제, Scaling Memcache at Facebook참고
  • 장애 대처는?
    • 캐시 서버를 한 대만 두는 경우 해당 서버는 단일 장애 지점(Single Point of Failure, SPOF)이 되어버릴 가능성이 있다.
    • 따라서 SPOF를 피하려면 여러 지여기에 걸쳐 캐시 서버를 분산해야 함
  • 캐시 메모리는 얼마나 크게 잡을 것인가?
    • 캐시 메모리가 너무 작을 때 : 데이터가 너무 빨리 캐시에서 밀려나버려(eviction), 캐시의 성능이 하락
      • 캐시 메모리 과할당 (overprovision)으로 해결
  • 데이터 방출(eviction) 정책은?
    • 캐시가 꽉 차버리면 추가로 캐시에 데이터를 넣어야 할 경우 기존 데이터를 내보내야 함
    • LRU(Least Recently Used) : 마지막으로 사용된 시점이 가장 오래된 데이터를 내보내는 정책
    • LFU(Least Frequently Used) : 사용된 빈도가 가장 낮은 데이터를 내보내는 정책
    • FIFO(First In Fisrt Out) : 가장 먼저 캐시에 들어온 데이터를 가장 먼저 내보내는 정책

5. 콘텐츠 전송 네트워크 (CDN)

  • CDN : 정적 콘텐츠를 전송하는 데 쓰이는, 지리적으로 분산된 서버의 네트워크
    • 이미지, 비디오, CSS, JavaScript 파일 등을 캐시 가능
  • 동적 콘텐츠 캐싱은 상대적으로 새로운 개념으로써, 자세한 설명은 Amazon CloudFront Dynamic Content Delivery 참고

5-1. CDN 동작 방식

fig1-9 fig1-9 (TODO:)

  • user가 웹사이트 방문 시, user와 가장 가까운 CDN 서버가 정적 콘텐츠 전달
  • user가 CDN에서 멀면 멀수록 웹사이트는 천천히 로딩 됨

fig1-10 fig1-10 (TODO:)

  1. user A가 이미지 URL을 이용해 image.png에 접근. URL의 도메인은 CDN 서비스 사업자가 제공
    • url ex: https://mysite.cloudfront.net/logo.net
  2. CDN 서버의 캐시에 해당 이미지가 없는 경우, 서버는 원본(origin) 서버에 요청하여 파일을 가져온다.
  3. 원본 서버가 파일을 CDN 서버에 반환, 응답의 HTTP 헤더에는 해당 파일이 얼마나 오래 캐시될 수 있는지를 설명하는 TTL(Time-To-Live)값이 들어있음.
  4. CDN 서버는 파일을 캐시하고 user A에게 반환, 이미지는 TTL에 명시된 시간이 끝날 때까지 캐시됨
  5. user B가 같은 이미지에 대한 요청을 CDN 서버에 전송
  6. 만료되지 않은 이미지에 대한 요청은 캐시를 통해 처리

5-2. CDN 사용 시 고려해야 할 사항

  • 비용
    • CDN은 보통 third-party provider에 의해 운영되며, CDN으로 들어가고 나가는 데이터 전송 양에 따라 요금을 내게 된다.
    • 자주 사용되지 않는 콘텐츠를 캐싱하는 것은 이득이 크지 않으므로, CDN에서 빼는 것을 고려하자
  • 적절한 만료 시한 설정
    • time-sensitive 콘텐츠의 경우 만료시점을 잘 정해야 함
    • 너무 길면 콘텐츠의 신선도가 떨어지고, 너무 짧으면 원본에 빈번하게 접속됨
  • CDN 장애에 대한 대처 방안
    • 일시적으로 CDN이 응답하지 않을 경우, 해당 문제를 감지하여 원본 서버로부터 직접 콘텐츠를 가져오도록 클라이언트를 구성하는 것이 필요
  • 콘텐츠 무효화(invalidation) 방법
    • 아직 만료되지 않은 콘텐츠여도 CDN에서 제거 가능
    • CDN 서비스 사업자가 제공하는 API를 이용하여 콘텐츠 무효화
    • 콘텐츠의 다른 버전을 서비스하도록 오브젝트 버저닝(object versioning) 이용. URL 마지막에 버전 번호를 인자로 주면 됨 (ex: image.png?v=2)

fig1-11 fig1-11 (TODO:) CDN과 캐시가 추가된 설계

  1. 정적 콘텐츠(JS, CSS, 이미지 등)는 더 이상 웹 서버를 통해 서비스하지 않으며, CDN을 통해 제공하여 더 나은 성능 보장
  2. 캐시가 데이터베이스 부하를 줄여줌

6. 무상태(stateless) 웹 계층

  • 웹 계층을 수평적으로 확장하는 방법을 고민해보자
  • 상태 정보(사용자 세션 데이터와 같은)를 웹 계층에서 제거해야 함
  • 바람직한 전략은 상태 정보를 RDBMS나 NoSQL 같은 지속성 저장소에 보관하고, 필요할 때 가져오는 것
  • 이렇게 구성된 웹 계층을 무상태 웹 계층이라 부름

6-1. 상태 정보 의존적인(stateful) 아키텍처

fig1-12 fig1-12 (TODO:)

  • user A의 세션 정보나 프로파일 이미지 같은 상태 정보는 서버 1에 저장
  • user A를 인증하기 위해 HTTP 요청은 반드시 버서1로 전송
  • 요청이 서버 2로 전송되면 인증은 실패, 서버 2에 user A의 정보는 보관 x
  • 위와 같이 문제는 같은 client로 부터 오는 요청은 항상 같은 서버로 전송 시켜야 함
  • 대부분의 LB가 이를 지원하기 위해 sticky session이라는 기능 제공하지만, 이는 LB에 부담을 주고, LB에 서버를 추가하거나 제거하기도 까다로워짐

6-2. 무상태 (stateless) 아키텍처

fig1-13 fig1-13 (TODO:)

  • 이 구조에서 사용자로부터의 HTTP요청은 어떤 웹 서버로도 전달 가능
  • 상태 정보가 필요할 경우 공유 저장소(shared storage)로부터 데이터를 가져옴
  • 상태 정보는 웹 서버로부터 물리적으로 분리되어 있음
  • 이 구조는 단순하며, 안정적이며, 규모 확장이 쉬움

fig1-14 fig1-14 (TODO:) 기존 설계 -> stateless 아키텍처

  • 세션 데이터를 웹 계층에서 분리하고 지속성 데이터를 보관소에 저장
    • Relational DBMS
    • Memcached/Redis와 같은 캐시 시스템
    • NoSQL
  • 자동 규모 확장(autoscaling) : 트래픽 양에 따라 웹 서버를 자동으로 추가하거나 삭제 기능
    • 상태 정보가 웹 서버들로부터 제거되었으므로, 트래픽 양에 따라 웹 서버만 추가, 삭제 하면 됨

더 규모 확장?

  • 전세계 서비스 제공을 위해서는 여러 데이터 센터를 지원하는 것이 필수

7. 데이터 센터

fig1-15 fig1-15 (TODO:)

  • 지리적 라우팅 (geoDNS-routing or geo-routing) : user는 가장 가까운 데이터 센터로 안내
    • 사용자의 위치에 따라 도메인 이름은 어떤 IP 주소로 변환할지 결정

fig1-16 fig1-16 (TODO:)

  • 위 그림은 데이터센터2에 장애가 발생하여 모든 트래픽이 데이터센터 1로 전송되는 상황

7-1. 다중 데이터센터 아키텍처 고려사항

  • 트래픽 우회
    • 올바른 데이터 센터로 트래픽을 보내는 효과적인 방법을 찾아야 함
    • GeoDNS는 사용자에게서 가장 가까운 데이터센터로 트래픽을 보낼 수 있도록 해줌
  • 데이터 동기화(synchronization)
    • 데이터 센터마다 별도의 데이터베이스를 사용한다면, 장애가 자동으로 복구되어(failover) 트래픽이 다른 데이터베이스로 우회된다해도, 해당 데이터센터에는 찾는 데이터가 없을 수 있음.
    • 이런 상황을 막는 보편적 전략은 데이터를 여러 데이터센터에 걸쳐 다중화 하는 것
    • Active-Active for Multi-Regional Resiliency 참고
  • 테스트와 배포(deployment)
    • 웹 사이트 또는 애플리케이션을 여러 위치에서 테스트 해보는 것이 중요
    • 자동화된 배포 도구는 모든 데이터 센터에 동일한 서비스가 설치되도록 하는데 중요한 역할을 함

더 큰 규모?

  • 시스템을 더 큰 규모로 확장하기 위해서는 컴포넌트들을 더 분리하여 각각이 독립적으로 확장할 수 있어야 함
  • Message Queue는 많은 실제 분산 시스템이 이 문제를 풀기 위해 채용하고 있는 핵심적 전략 가운데 하나임

8. 메시지 큐 (Message Queue)

fig1-17 fig1-17 (TODO:)

8-1. 메시지 큐의 특성

  • 메시지의 무손실(durability)을 보장하는 비동기 통신(asynchronous communication)을 지원하는 컴포넌트
    • durability : 메시지 큐에 일단 보관된 메시지는 소비자가 꺼낼 때까지 안전히 보관되는 특성
  • 메시지의 버퍼 역할을 하며, 비동기적으로 전송

8-2. 메시지 큐의 아키텍처

  • 생산자 또는 발행자(producer/publisher)라고 불리는 입력 서비스가 메시지를 만들어 메시지 큐에 발행(publish)
  • 큐에는 보통 소비자 혹은 구독자(consumer/subscriber)라 불리는 서비스 혹은 서버가 연결되어 있는데, 메시지를 받아 그에 맞는 동작을 수행

메시지 큐의 효과

  • 서버 간 결합이 느슨해져서, 규모 확장성이 보장되어야 하는 안정적 애플리케이션 구성 가능
  • 생산자는 소비자 프로세스가 다운되어 있어서 메시지 발행 가능
  • 소비자는 생산자 서비스가 가용한 상태가 아니더라도 메시지를 수신 가능

9. 로그, 메트릭 그리고 자동화

  • 몇 개 서버에서 실행되는 소규모 웹 사이트를 만들 때는 로그나 메트릭(metric), 자동화(automation) 같은 것은 하면 좋지만 꼭 할 필요는 x
  • 하지만, 규모가 커지고 나면 그런 도구는 필수적
로그
  • 에러 로그를 모니터링하는 것은 중요
  • 시스템의 오류와 문제들을 보다 쉽게 찾아낼 수 있도록 함
  • 서버 단위로도 모티너링 가능하지만, 로그를 단일 서비스로 모아주는 도구를 활용하면 더 편리
메트릭
  • 메트릭을 잘 수집하면 사업 현황에 관한 유용한 정보 획득 가능
  • 시스템의 현재 상태를 손쉽게 파악 가능
  • 메트릭 중에 특별히 유용한 것들
    • 호스트 단위 메트릭 : CPU, 메모리, 디스크I/O에 관한 메트릭
    • 종합(aggregated) 메트릭 : 데이터베이스 계층의 성능, 캐시 계층의 성능 등
    • 핵심 비즈니스 메트릭 : 일별 능동 사용자(daily active user), 수익(revenue), 재방문(retention) 등
자동화
  • 생상성을 높이기 위해 자동화 도구 활용 필요
  • CI/CD등

메시지 큐, 로그, 메트릭, 자동화 등을 반영하여 수정한 설계안

fig1-19 fig1-19 (TODO:)

  1. 메시지 큐는 각 컴포넌트가 보다 느슨히 결합(loosely coupled)될 수 있도록 하고, 결함에 대한 내성을 높인다.
  2. 로그, 모니터링, 메트릭, 자동화 등을 지원하기 위한 장치 추가

10. 데이터베이스의 규모 확장

10-1. 수직적 확장

  • 기존서버에 더 많은, 더 고성능의 자원(CPU, RAM, 디스크 등)을 증설하는 방법
  • 한계
    • 데이터베이스 서버 하드웨어에는 한계가 있으므로 CPU, RAM등을 무한 증설 불가
    • SPOF(Single Point of Failure)로 인한 위험성이 큼
    • 비용이 많이 든다

10-2. 수평적 확장

fig1-20 fig1-20 (TODO:)

  • 데이터베이스의 수평적 확장은 샤딩(sharding)이라고도 부름, 서버를 추가함으로써 성능을 향상 시킬 수 있도록 함
  • 대규모 데이터베이스를 샤드(shard)라고 부르는 작은 단위로 분할
  • 모든 샤드는 같은 스키마를 쓰지만 샤드에 보관되는 데이터 사이에는 중복이 없음
  • 샤딩 전략 구현 시 고려해야 할 점
    • 샤딩키 설정 : 데이터가 어떻게 분산될지 정하는 하나 이상의 칼럼으로 구성

샤딩 도입 시 고려해야 할 점

  • 데이터의 재 샤딩(resharding)
    1. 데이터가 너무 많아져서 하나의 샤드로는 더 이상 감당하기 어려울 때
    2. 샤드 간 데이터 분포가 균등하지 못하여, 특정 샤드에 할당된 공간 소모가 다른 샤드에 비해 빨리 진행 될 떄 (샤드 소진, shard exhaustion)
      • 샤드 소진 시 : 샤드 키를 계산하는 함수를 변경하고 데이터 재배치, 5장에서 다룰 안정 해시(consistent hashing) 기법을 활용하여 해결 가능
  • 유명인사 문제
    • hotspot key 라고도 하는데, 특정 샤드에 질의가 집중되어 서버에 과부하가 걸리는 문제
    • SNS 앱에서 특정 셀럽들에게 read 연산 과부하가 걸릴 수 있음
  • 조인과 비정규화 (join and denornalization)
    • 일단 하나의 데이터베이스를 여러 샤드 서버로 쪼개고 나면, 여러 샤드에 걸친 데이터를 조인하기가 힘들어짐
    • 데이터베이스를 비정규과하여 하나의 테이블에서 질의가 수행될 수 있도록 해야함(??)

fig1-23 fig1-23 (TODO:)

11. 백만 사용자, 그리고 그 이상

  • 시스템 규모를 확장하는 것은 지속적이고 반복적(iterative)한 과정
  • 수백만 사용자를 지원하기 위해서는 더욱 새로운 전략을 도입해야할 수도 있음

기법 정리

  • 웹 계층은 무상태(stateless) 게층으로
  • 모든 계층에 다중화 도입
  • 가능한 한 많은 데이터를 캐싱할 것
  • 여러 데이터 센터를 지원할 것
  • 정적 콘텐츠는 CDN을 통해 서비스할 것
  • 데이터 계층은 샤딩을 통해 그 규모를 확장할 것
  • 각 계층은 독립적 서비스로 분할할 것
  • 시스템을 지속적으로 모니터링하고, 자동화 도구들을 활용할 것

참고자료

  • 알렉스 쉬, 가상 면접 사례로 배우는 대규모 시스템 설계 기초 1장

Comment  Read more