VMware NSX [Lab 14] - Thực hiện cấu hình HA cho NSX Manager

dungnh

Intern
Thực hiện cấu hình HA cho NSX Manager
Tài liệu này sẽ hướng dẫn cấu hình HA cho NSX Manager

1. Kiến trúc Cluster 3 Node​

Để đảm bảo tính sẵn sàng cao, VMware yêu cầu triển khai một cụm gồm 3 node NSX Manager cho môi trường Production.
  • Cơ sở dữ liệu phân tán (Corfu DB): Cả 3 node này chạy trên một nền tảng dữ liệu phân tán gọi là Corfu. Mọi thay đổi cấu hình bạn thực hiện trên một node sẽ được đồng bộ hóa tức thời (synchronous replication) sang 2 node còn lại.​
  • Yêu cầu độ trễ (Latency): Do việc đồng bộ diễn ra liên tục và tức thời, độ trễ mạng giữa các node NSX Manager trong cụm không được vượt quá 10ms.

2. Cơ chế hoạt động của HA (Nguyên tắc Quorum)​

Khả năng hoạt động của NSX Manager dựa trên nguyên tắc Quorum.
  • Điều kiện hoạt động: Để cụm hoạt động bình thường và cho phép ghi dữ liệu (thêm/sửa/xóa cấu hình), phải có ít nhất 2 trên 3 node đang hoạt động.
    • Kịch bản 1 Node chết: Nếu 1 node bị hỏng, 2 node còn lại vẫn duy trì được Quorum. Hệ thống vẫn hoạt động bình thường, bạn vẫn có thể đăng nhập, cấu hình mạng và Control Plane vẫn ổn định.
    • Kịch bản 2 Node chết (Mất Quorum): Nếu 2 node bị hỏng cùng lúc hoặc mất kết nối, cụm sẽ mất Quorum. Lúc này:
      • NSX Manager sẽ bị vô hiệu hóa hoặc chuyển sang chế độ Read-Only (chỉ đọc).
      • Không thể thực hiện vc thêm cấu hình mới,...
      • Tuy nhiên ác máy ảo vẫn gửi nhận dữ liệu được vì Data Plane nằm trên các ESXi Host và Edge Node, hoạt động độc lập với Manager

3. Cách truy cập Cluster (VIP or Load Balancer)​

Để quản trị Cluster hoặc truy cập vào thì có 2 cách chính là
  • Virtual IP (VIP) : Cấu hình một địa chỉ IP ảo (VIP) chung cho cả cụm. Tại một thời điểm, VIP này chỉ được gán cho một node duy nhất đóng vai trò là Leader
    • Cơ chế Failover: Nếu node Leader bị chết, các node còn lại sẽ bầu ra một Leader mới và Leader mới sẽ nhận lấy VIP này. Quá trình chuyển đổi có thể mất vài phút (khoảng 1-3 phút)
    • Hạn chế: Tất cả 3 node NSX Manager bắt buộc phải nằm trong cùng một subnet. Nó không thực hiện cân bằng tải thực sự mà chỉ là cơ chế Active-Standby cho địa chỉ IP quản lý.
  • NSX Advanced Load Balancer (Avi) : Load Balancer sẽ nhận yêu cầu và phân phối đều cho cả 3 node NSX Manager (Active-Active)
    • Cho phép các node NSX Manager nằm ở các subnet khác nhau (ví dụ trải dài trên các Rack hoặc L3 domain khác nhau để an toàn hơn)
    • Thời gian phát hiện lỗi và chuyển hướng nhanh hơn so với VIP.
    • Hiệu năng tốt hơn do tận dụng được cả 3 node để xử lý API.

4. Cấu hình Cluster NSX Manager​

Để triển khai được một cụm Cluster NSX Manager, chúng ta cần thêm 2 node nửa, ta tiến hành tạo như đã trình bày ở Lab 2 Cấu hình cơ bản.

1770214987575.png
1770214992258.png
1770214996397.png

Sau khi đã deploy thành công 3 node thì ta tiến hành add 2 node kia vào node đã tạo đầu tiên ở bài 1 thành một cụm cluster 3 node NSX Manager
Tiến hành join NSX Manager vào cluster : Ta có câu lệnh join như ở bên dưới dùng để join node hiện tại vào một node chỉ định bằng cluster-id cùng với thumbprint để tạo thành cụm cluster.
1770215093428.png

Đầu tiên ta phải tiến hành lấy cluster-id của node đã được chỉ định làm primary

1770215114453.png
Sau đó ta tiếp tục tiến hành lấy certificate
1770215136993.png
Sau đó ta thực thi câu lệnh như đã nói ở bên trên với 2 node mà ta muốn add vào chung Cluster với các tham số đã có và enter, tới bước bên dưới ta chọn yes.

1770215192011.png

Và kết qủa
1770215242344.png

Ta tiếp tục đặt VIP
1770215259790.png

1770215284368.png
Done
 

Đính kèm

  • 1770214976111.png
    1770214976111.png
    61.6 KB · Lượt xem: 0
Back
Top