SIECIOWY SYSTEM ARCHIWIZACJI I BACKUPU DANYCH
Program do backupu - Ferro Backup System
       
Identyfikator artykułu : FS-FBS-20111117-I01
Ostatnia weryfikacja : 17 listopad 2011
Wersja : 1.0


Maksymalna wydajność serwera backupu

W artykule przedstawiono sposoby na zwiększenie wydajności serwera backupu. Wdrożenie wymienionych porad pozwoli na bezproblemowy backup serwerów i komputerów zawierających bardzo dużo plików.

Zakup nawet najnowocześniejszego komputera przeznaczonego na serwer backupu może okazać się niewystarczający, aby zapewnić płynną i bezproblemową archiwizację wielu komputerów jednocześnie. Do osiągnięcia maksymalnej wydajności konieczna jest odpowiednia konfiguracja systemu operacyjnego oraz samego oprogramowania do archiwizacji danych. Bez odpowiedniej optymalizacji ustawień komputer może działać powoli, a praca na nim nie będzie należeć do przyjemności. W przypadku serwera backupu zadowolenie użytkownika, czyli administratora, może nie mieć dużego znaczenia, ale niewykonane w terminie zadania backupu lub powolne generowanie raportów na pewno będą powodem do narzekań.

Poniżej znajduje się lista wskazówek (uporządkowanych wg ważności), których zastosowanie pozwoli zwiększyć wydajność serwera backupu.

1. Oprogramowanie antywirusowe

Monitory antywirusowe (tzw. ochrona rezydentna) bardzo spowalniają operacje zapisu i odczytu danych z dysku. Wspominamy o tym na każdym kroku, ponieważ złe ustawienie programu antywirusowego zmarnuje korzyści płynące ze stosowania nawet najnowocześniejszego sprzętu i porad wymienionych w kolejnych punktach. Aby zadania backupu były wykonywane płynnie i bez błędów, koniecznie trzeba odpowiednio skonfigurować programy antywirusowe i antyszpiegowskie. Nie należy również zapominać o wbudowanym w system operacyjny oprogramowaniu Windows Defender. O tym, jak skonfigurować programy ochrony rezydentnej i czy w ogóle warto je instalować na serwerze backupu, można przeczytać w artykule "Uwaga antywirus!".

2. Zapora sieciowa

Podobnie jak monitory antywirusowe działają niektóre zapory, które analizują ruch sieciowy. Oprogramowanie tego typu może zmniejszyć szybkość transferu oraz powodować błędy sieciowe i odłączanie stacji roboczych od serwera backupu. Ferro Backup System do poprawnego działania wymaga otwarcia tylko jednego portu dla połączeń przychodzących - TCP 4531. Wszystkie inne porty na serwerze backupu mogą być zablokowane. Można też wyłączyć usługi sieciowe, które mogłyby ewentualnie stanowić cel ataku. Przy otwartym jednym porcie ochrona komputera nie stanowi dużego problemu i dlatego najczęściej nie ma potrzeby stosowania dodatkowych zabezpieczeń poza tymi, które są wbudowane w system operacyjny. Korzystanie z wbudowanej zapory sieciowej lub reguł IPSec będzie w większości wypadków wystarczającym zabezpieczeniem, które nie wpłynie negatywnie na wydajność systemu archiwizacji.

3. Dyski sieciowe (NAS)

Stosowanie zmapowanych dysków sieciowych jako głównego magazynu przechowywania archiwów nie jest dobrym rozwiązaniem z dwóch powodów. Po pierwsze dyski sieciowe są przeważnie dużo wolniejsze niż dyski stałe podłączone bezpośrednio do serwera backupu. Po drugie połączenie z takim dyskiem może nie być stabilne w dłuższym czasie, co może prowadzić do błędów odczytu i zapisu danych. Dyski sieciowe powinny być zatem stosowane tylko jako magazyn zapasowy. Więcej informacji na ten temat można odnaleźć w artykule "Backup na dysk sieciowy".

4. Dyski USB

Podobnie jest w przypadku dysków zewnętrznych podłączanych przez port USB. Dyski tego typu działają zazwyczaj wolniej niż dyski stałe, zwłaszcza wtedy, gdy korzystają z portu USB 2.0 lub gdy do tego samego kontrolera USB jest podłączonych kilka urządzeń. Innym problemem jest automatyczne przypisywanie przez system operacyjnym liter do napędów dyskowych. Może się zdarzyć, że w przyszłości system przypisze do dysku USB inną literę niż ta, która była przypisana w momencie konfigurowania programu. W efekcie zadania backupu nie będą wykonywane, ponieważ ustawiony dysk docelowy nie będzie dostępny pod wskazaną literą. Tę niedogodność można w dosyć prosty sposób wyeliminować poprzez odpowiednie skonfigurowanie systemu operacyjnego, ale trzeba o tym pamiętać, ponieważ nie jest to ustawienie standardowe.

5. Format systemu plików i rozmiar klastra

Przygotowując dysk twardy pod magazyn służący do przechowywania archiwów, należy go sformatować w systemie NTFS i wybrać największy możliwy rozmiar klastra. Zastosowanie formatu NTFS jest niezbędne do tego, aby można było przechowywać archiwa większe niż 4 GB. Stosowanie dużego rozmiaru klastra pozwoli osiągnąć maksymalną wydajność operacji IO, jednak to nie szybkość jest główną przyczyną, dla której rozmiar klastra powinien być duży.

W systemie NTFS podczas zapisu pliku do tablicy alokacji (MFT) zapisywane są informacje na temat położenia poszczególnych jego fragmentów. Przy małym rozmiarze klastra do opisu położenia pliku na dysku wymagana jest większa liczba wpisów w MFT niż przy dużym rozmiarze. Stosowanie dużego rozmiaru klastra zmniejszy mogącą występować fragmentację archiwów oraz wyeliminuje problem związany z ograniczeniem maksymalnej liczby fragmentów na plik.

6. Kilka dysków zamiast jednego

Podczas backupu wielu komputerów jednocześnie serwer wykonuje dużo nakładających się na siebie operacji zapisu. Jeśli zsumowana ilość zapisywanych danych na sekundę jest zbliżona do maksymalnego transferu danego dysku (lub kontrolera), to szybkość backupu poszczególnych komputerów spada. Aby zwiększyć wydajność backupu, można rozłożyć zapis na kilka dysków twardych. W ustawieniach poszczególnych stacji roboczych należy tylko przedefiniować miejsce przechowywania archiwów, wskazując różne dyski twarde. Osiągnięty w ten sposób wzrost wydajności będzie podobny do tego, jaki można by osiągnąć, stosując stripping, czyli macierz RAID 0.

7. Replikacja o ustalonej porze

Ferro Backup System wyposażony jest w funkcję automatycznej replikacji archiwów na dodatkowy dysk twardy, napęd taśmowy lub napęd optyczny. Replikacja automatyczna jest wykonywana zaraz po zakończeniu backupu. Jeśli w tym samym czasie trwa backup lub replikacja archiwów należących do innego komputera, nakładające się na siebie operacje odczytu i zapisu mogą spowolnić archiwizację. Z tego względu warto rozważyć przełączenie replikacji z automatycznej na replikację wykonywaną wg harmonogramu. Replikacja będzie wtedy wykonywana tylko o ustalonej porze, którą można zaplanować na okres mniejszego obciążenia serwera backupu i sieci komputerowej.

8. Podział zadań na mniejsze

Na serwerach często przechowywana jest bardzo duża liczba plików, nierzadko jest to co najmniej 500 tys. plików. Jeśli backup takiego serwera wykonywany jest metodą różnicową lub delta, obsługa powstałych archiwów może stanowić duże wyzwanie dla serwera backupu, zwłaszcza jeśli zostaną włączone kopie rotacyjne z optymalizacją miejsca na dysku. Chodzi tu o obciążenie procesora, dysków twardych i wykorzystanie pamięci RAM. W przypadku pamięci RAM nie chodzi tylko o to, że może jej zabraknąć, ale o większe prawdopodobieństwo występowania fragmentacji pamięci. Dobrym rozwiązaniem w takich sytuacjach jest rozbicie jednego dużego zadania archiwizacji na kilka mniejszych, tak aby generowane archiwa były mniejsze i zawierały mniej plików.

9. Okresowy restart

Ze względu na możliwość występowania wymienionej już fragmentacji pamięci RAM, a także fragmentacji dysku twardego, dobrze jest okresowo wykonywać restart programu FBS Server połączony z defragmentacją dysku twardego i kompaktowaniem bazy danych.

Polecenia służące do zamknięcia programu (taskkill, net stop), defragmentacji dysku (defrag, contig) i kompaktowania bazy danych (compactdb) można umieścić w jednym skrypcie lub pliku wsadowym. Skrypt taki może być automatycznie uruchamiany przez Harmonogram zadań Windows w określonych odstępach czasu. Przy małym obciążeniu serwera backupu w zupełności wystarczy jeden restart na miesiąc. W przypadku dużego obciążenia zalecane jest wykonanie restartu raz w tygodniu.


Warto przeczytać


Maksymalna wydajność serwera backupu
Wszelkie prawa zastrzeżone. © 2000-2024 FERRO Software