Badania w chmurze
Wiele uniwersytetów, dostawców, instytutów i organizacji rządowych inwestuje w badania nad przetwarzaniem w chmurze :
- W październiku 2007 r. ogłoszono Academic Cloud Computing Initiative (ACCI) jako wielouczelniany projekt mający na celu poszerzenie wiedzy technicznej studentów w celu sprostania wyzwaniom związanym z przetwarzaniem w chmurze.
- W kwietniu 2009 r. Uniwersytet Kalifornijski w Santa Barbara udostępnił pierwszą platformę typu open source jako usługę, AppScale , która umożliwia uruchamianie aplikacji Google App Engine na dużą skalę w wielu różnych infrastrukturach.
- W kwietniu 2009 r. uruchomiono St Andrews Cloud Computing Co-laboratory, skupiające się na badaniach w ważnym nowym obszarze przetwarzania w chmurze. Unikalny w Wielkiej Brytanii StACC ma na celu stać się międzynarodowym centrum doskonałości w zakresie badań i nauczania w zakresie przetwarzania w chmurze oraz zapewnia porady i informacje firmom zainteresowanym usługami w chmurze.
- W październiku 2010 r. wystartował projekt TClouds (Trustworthy Clouds), finansowany z 7. Programu Ramowego Komisji Europejskiej. Celem projektu jest zbadanie i sprawdzenie podstaw prawnych i projektu architektonicznego w celu zbudowania odpornej i godnej zaufania infrastruktury typu cloud-of-cloud. W ramach projektu opracowano również prototyp w celu zademonstrowania jego wyników.
- W styczniu 2011 r. w ramach finansowanego ze środków UE projektu IRMOS opracowano działającą w czasie rzeczywistym platformę chmurową, umożliwiającą uruchamianie interaktywnych aplikacji w infrastrukturze chmurowej.
- W lutym 2011 r. Enterprise Ireland i Irish Industrial Development Authority uruchomiły Irlandzkie Centrum Przetwarzania w Chmurze i Handlu w celu prowadzenia prowadzonych przez branżę badań dotyczących architektur chmur, jakości usług, bezpieczeństwa oraz kwestii biznesowych i prawnych.
- W lipcu 2011 r. rozpoczęto projekt High Performance Computing Cloud (HPCCLoud), którego celem było znalezienie możliwości zwiększenia wydajności w środowiskach chmurowych podczas uruchamiania aplikacji naukowych – opracowanie HPCCLoud Performance Analysis Toolkit, który został sfinansowany przez CIM-Returning Experts Program – pod koordynacją prof. dr Shajulina Benedicta.
- W czerwcu 2011 r. Stowarzyszenie Przemysłu Telekomunikacyjnego opracowało białą księgę dotyczącą przetwarzania w chmurze, aby przeanalizować wyzwania i możliwości integracji między usługami w chmurze a tradycyjnymi amerykańskimi standardami telekomunikacyjnymi.
- W grudniu 2011 r. w ramach finansowanego przez UE projektu VISION Cloud zaproponowano architekturę wraz z wdrożeniem środowiska chmurowego dla usług intensywnie korzystających z danych, których celem jest zapewnienie zwirtualizowanej infrastruktury Cloud Storage .
- W październiku 2012 r. Center for Development of Advanced Computing udostępniło pakiet oprogramowania open source, kompletnej usługi w chmurze, o nazwie „Meghdoot”.
- W październiku 2012 r. rozpoczęto finansowany przez UE projekt ECO2Clouds, którego celem jest analiza wpływu aplikacji w chmurze na środowisko oraz optymalizacja ich wdrażania i harmonogramowania w oparciu o infrastrukturę monitorowania opartą na ekometrii sprawdzającej BonFIRE
- W lutym 2013 r. w ramach projektu BonFIRE uruchomiono narzędzie do eksperymentowania i testowania chmury obejmujące wiele lokalizacji. Obiekt zapewnia przejrzysty dostęp do zasobów w chmurze, z kontrolą i możliwością obserwowania niezbędną do projektowania przyszłych technologii chmurowych, w sposób, który nie jest ograniczony, na przykład, przez obecne modele biznesowe.
- W październiku 2013 r. uruchomiono projekt CACTOS (skrót od Content-Aware Cloud Simulation and Optimisation), którego celem jest rozwiązanie konkretnych problemów, z jakimi borykają się operatorzy centrów danych w związku z rosnącą heterogenicznością podstawowego sprzętu.
- W lutym 2015 r. uruchomiono CloudLightning , finansowany przez Komisję Europejską projekt Horyzont 2020 , mający na celu rozwiązanie problemu efektywności energetycznej i wysokiej wydajności poprzez opracowanie samoorganizującego się, samooptymalizującego heterogenicznego modelu świadczenia usług przetwarzania w chmurze. Jego początkowe domeny zastosowań: przetwarzanie genomu, eksploracja ropy i gazu oraz ray tracing.
- W styczniu 2017 r. uruchomiono finansowany przez UE projekt RECAP w ramach programu Horyzont 2020 , którego celem jest rozwój technologii przetwarzania w chmurze i przetwarzania brzegowego. Opracowuje mechanizmy niezawodnego udostępniania pojemności, aby rozmieszczanie aplikacji, zarządzanie infrastrukturą i udostępnianie pojemności było autonomiczne, przewidywalne i zoptymalizowane.
badania europejskie
W 2012 r. Komisja Europejska opublikowała analizę znaczenia otwartych kwestii badawczych dla stabilizacji handlowej, w której różni eksperci z przemysłu i środowiska akademickiego identyfikują w szczególności następujące główne problemy:
- otwartą interoperacyjność (własnych) rozwiązań chmurowych na poziomie IaaS, PaaS i SaaS
- zarządzanie wielodostępnością na dużą skalę iw heterogenicznych środowiskach
- dynamiczna i bezproblemowa elastyczność, od chmur wewnętrznych po chmury publiczne dla nietypowych (skala, złożoność) i/lub rzadkich wymagań
- zarządzanie danymi w środowisku chmurowym z uwzględnieniem ograniczeń technicznych i prawnych
Odkrycia te zostały uszczegółowione w planie badawczym zaproponowanym przez Cloud Computing Expert Group on Research w grudniu 2012 r., który stara się wytyczyć harmonogram dla zidentyfikowanych tematów badawczych zgodnie z ich znaczeniem komercyjnym. Za pomocą 8. Programu Ramowego Badań i Rozwoju Technologicznego Komisja Europejska stara się wspierać odpowiednie prace badawcze zgodne ze strategią „Europa 2020” .