Centrum danych zdefiniowane programowo

Centrum danych definiowane programowo ( SDDC ; także: wirtualne centrum danych, VDC) to termin marketingowy, który rozszerza koncepcje wirtualizacji , takie jak abstrakcja, łączenie i automatyzacja, na wszystkie zasoby i usługi centrum danych w celu osiągnięcia IT jako usługi (ITaaS). W centrum danych zdefiniowanym programowo „wszystkie elementy infrastruktury — sieć, pamięć masowa, procesor i zabezpieczenia — są zwirtualizowane i dostarczane jako usługa”.

O wsparcie SDDC można ubiegać się na wiele różnych sposobów. Krytycy postrzegają centrum danych definiowane programowo jako narzędzie marketingowe i „szum reklamowy definiowany programowo”, zwracając uwagę na tę zmienność.

W 2013 roku analityk [ który? ] przewidywał, że przynajmniej niektóre komponenty centrum danych definiowane programowo odnotują wzrost rynku. Oczekuje się, że rynek sieci definiowanych programowo będzie wart około 3,7 miliarda USD do 2016 r., w porównaniu z 360 milionami USD w 2013 r. IDC szacuje, że rynek pamięci masowej definiowanej programowo będzie rozwijał się szybciej niż jakikolwiek inny rynek pamięci masowej.

Opis i podstawowe elementy

Centrum danych definiowane programowo obejmuje różnorodne koncepcje i komponenty infrastruktury centrum danych, przy czym każdy komponent jest potencjalnie udostępniany , obsługiwany i zarządzany za pośrednictwem interfejsu programowania aplikacji (API). Podstawowe komponenty architektury, które składają się na centrum danych definiowane programowo, obejmują:

Centrum danych definiowane programowo różni się od chmury prywatnej , ponieważ chmura prywatna musi oferować jedynie samoobsługę maszyny wirtualnej , w ramach której mogłaby korzystać z tradycyjnego udostępniania i zarządzania. Zamiast tego koncepcje SDDC wyobrażają sobie centrum danych, które może obejmować chmury prywatne, publiczne i hybrydowe.

Geneza i rozwój

Centrom danych tradycyjnie brakowało możliwości dostosowania się do całkowitej wirtualizacji. Do 2013 r. firmy zaczęły kłaść podwaliny pod definiowane programowo centra danych za pomocą wirtualizacji. Ben Cherian z Midokura uważał Amazon Web Services za katalizator przejścia w kierunku centrów danych definiowanych programowo, ponieważ „przekonał świat, że centrum danych można podzielić na znacznie mniejsze jednostki i traktować jako elementy technologii jednorazowego użytku, które z kolei można wycenić jako narzędzie”.

Potencjalny wpływ

W 2013 roku termin centrum danych definiowane programowo był promowany jako zmiana paradygmatu. Według Steve'a Herroda obietnica centrum danych definiowanego programowo polegała na tym, że firmy nie będą już musiały polegać na specjalistycznym sprzęcie ani zatrudniać konsultantów do instalowania i programowania sprzętu w jego specjalistycznym języku. Zamiast tego dział IT definiowałby aplikacje i wszystkie wymagane przez nie zasoby — w tym moc obliczeniową, pamięć masową, sieć, zabezpieczenia i dostępność — i grupowałby wszystkie wymagane komponenty w celu utworzenia „aplikacji logicznej”.

Powszechnie wymieniane zalety centrów danych zdefiniowanych programowo obejmują zwiększoną wydajność dzięki rozszerzeniu wirtualizacji na całe centrum danych; zwiększona elastyczność dzięki szybkiemu udostępnianiu aplikacji; ulepszona kontrola nad dostępnością i bezpieczeństwem aplikacji dzięki zarządzaniu opartemu na zasadach; oraz elastyczność uruchamiania nowych i istniejących aplikacji na wielu platformach iw chmurach.

Ponadto implementacja centrum danych definiowanego programowo może zmniejszyć zużycie energii w firmie, umożliwiając serwerom i innym urządzeniom centrum danych pracę z obniżonym poziomem energii lub wyłączenie. Niektórzy uważają, że definiowane programowo centra danych poprawiają bezpieczeństwo, dając organizacjom większą kontrolę nad hostowanymi danymi i poziomami bezpieczeństwa w porównaniu z zabezpieczeniami zapewnianymi przez dostawców hostowanej chmury.

Centrum danych definiowane programowo zostało wprowadzone na rynek, aby obniżyć ceny sprzętu do centrów danych i rzucić wyzwanie tradycyjnym dostawcom sprzętu, aby opracowali nowe sposoby wyróżnienia swoich produktów za pomocą oprogramowania i usług.

Wyzwania

Koncepcje definiowane programowo, aw szczególności centra danych definiowane programowo, zostały przez niektórych odrzucone jako „nonsens”, „ marketing ” i „szum programowy”. Niektórzy krytycy uważają, że tylko mniejszość firm posiada już „całkowicie jednorodne systemy informatyczne”, takie jak Yahoo! i Google mogą przejść do centrów danych definiowanych programowo.

Według niektórych obserwatorów centra danych definiowane programowo niekoniecznie wyeliminują wyzwania związane z radzeniem sobie z różnicami między środowiskami programistycznymi i produkcyjnymi; zarządzanie mieszanką starszych i nowych aplikacji; lub dostarczanie umów o poziomie usług (SLA).

Sieć definiowana programowo była postrzegana jako niezbędna dla centrum danych definiowanego programowo, ale jest również uważana za „najmniej dojrzałą technologię” wymaganą do uruchomienia centrum danych definiowanego programowo. Jednak kilka firm, w tym Arista Networks , Cisco , Microsoft i VMware , wprowadza na rynek produkty umożliwiające udostępnianie, rozszerzanie i przenoszenie wirtualnych sieci w istniejących sieciach fizycznych.

Do 2012 roku istniało już kilka konkurencyjnych standardów wirtualizacji sieci. Neutron, sieciowy komponent projektu OpenStack , zapewnia abstrakcję zasobów sieciowych na poziomie aplikacji i zawiera interfejs do konfigurowania przełączników wirtualnych.

Podejście do centrów danych definiowanych programowo zmusi organizacje IT do dostosowania się. Środowiska zdefiniowane programowo wymagają ponownego przemyślenia wielu procesów IT — w tym automatyzacji, pomiarów i rozliczeń — oraz realizacji świadczenia usług, aktywacji usług i zapewniania usług. Powszechne przejście na SDDC może zająć lata.

Linki zewnętrzne