Prognozy
Prognostyka to dziedzina inżynierii skupiająca się na przewidywaniu czasu, w którym system lub komponent przestanie spełniać swoją zamierzoną funkcję. Ten brak wydajności jest najczęściej awarią, po przekroczeniu której system nie może już być używany do osiągnięcia pożądanej wydajności. Przewidywany czas staje się wówczas pozostałym okresem użytkowania ( RUL ), co jest ważną koncepcją przy podejmowaniu decyzji dotyczących łagodzenia sytuacji awaryjnych. Prognostyka przewiduje przyszłą wydajność komponentu, oceniając stopień odchylenia lub degradacji systemu od oczekiwanych normalnych warunków pracy. Nauka prognostyczna opiera się na analizie trybów awarii, wykrywaniu wczesnych oznak zużycia i starzenia oraz warunków usterek. Skuteczne rozwiązanie prognostyczne jest wdrażane, gdy istnieje solidna wiedza na temat mechanizmów awarii, które mogą powodować degradację prowadzącą do ewentualnych awarii systemu. Dlatego konieczne jest posiadanie wstępnych informacji o możliwych awariach (w tym o miejscu, trybie, przyczynie i mechanizmie) produktu. Wiedza taka jest istotna przy identyfikacji parametrów systemu, które mają być monitorowane. Istnieją potencjalne zastosowania prognostyczne konserwacja oparta na stanie . Dyscyplina łącząca badania mechanizmów awarii z zarządzaniem cyklem życia systemu jest często określana jako prognozowanie i zarządzanie stanem zdrowia ( PHM ), czasami także zarządzanie stanem systemu ( SHM ) lub – w zastosowaniach transportowych – zarządzanie stanem pojazdu ( VHM ) lub zarządzanie stanem silnika ( EHM ). Techniczne podejścia do budowania modeli w prognostyce można ogólnie podzielić na podejścia oparte na danych, podejścia oparte na modelach i podejścia hybrydowe.
Prognozy oparte na danych
Prognozy oparte na danych zwykle wykorzystują techniki rozpoznawania wzorców i uczenia maszynowego do wykrywania zmian w stanach systemu. Klasyczne metody przewidywania systemów nieliniowych oparte na danych obejmują wykorzystanie modeli stochastycznych, takich jak model autoregresyjny (AR), model progowy AR, model dwuliniowy, dążenie do projekcji, wielowymiarowe krzywe regresji adaptacyjnej i rozwinięcie szeregu Volterra. Od ostatniej dekady coraz większe zainteresowanie prognozowaniem stanu systemu w oparciu o dane skupia się na wykorzystaniu elastycznych modeli, takich jak różne typy sieci neuronowych (NN) i systemy neuronowe rozmyte (NF). Podejścia oparte na danych są odpowiednie, gdy zrozumienie podstawowych zasad działania systemu nie jest kompleksowe lub gdy system jest na tyle złożony, że opracowanie dokładnego modelu jest zbyt drogie. Dlatego też główną zaletą podejść opartych na danych jest to, że często można je wdrożyć szybciej i taniej w porównaniu z innymi podejściami oraz że mogą zapewnić pokrycie całego systemu (por. modele oparte na fizyce, których zakres może być dość wąski). Główną wadą jest to, że podejścia oparte na danych mogą mieć szersze przedziały ufności niż inne podejścia i wymagają znacznej ilości danych do szkolenia. Podejścia oparte na danych można dalej podzielić na statystyki oparte na flocie i kondycjonowanie oparte na czujnikach. Ponadto techniki oparte na danych obejmują również techniki liczenia cykli, które mogą obejmować wiedza domenowa .
Dwie podstawowe strategie oparte na danych obejmują (1) modelowanie skumulowanych szkód (lub, równoważnie, zdrowia), a następnie ekstrapolację do progu szkód (lub zdrowia) lub (2) uczenie się bezpośrednio na podstawie danych pozostałego okresu użytkowania. Jak wspomniano, głównym wąskim gardłem są trudności w uzyskiwaniu danych od uruchomienia do awarii, szczególnie w przypadku nowych systemów, ponieważ uruchamianie systemów do awarii może być długim i dość kosztownym procesem. Kiedy przyszłe użytkowanie nie będzie takie samo jak w przeszłości (jak w przypadku większości systemów niestacjonarnych), gromadzenie danych obejmujących wszystkie możliwe przyszłe zastosowania (zarówno obciążenie, jak i warunki środowiskowe) staje się często prawie niemożliwe. Nawet jeśli istnieją dane, skuteczność podejść opartych na danych zależy nie tylko od ilości, ale także od jakości danych operacyjnych systemu. Te źródła danych mogą obejmować temperaturę, ciśnienie, pozostałości oleju, prądy, napięcia, moc, wibracje i sygnał akustyczny, dane spektrometryczne, a także dane kalibracyjne i kalorymetryczne. Dane często wymagają wstępnego przetworzenia, zanim będą mogły zostać wykorzystane. Zwykle przeprowadza się dwie procedury: i) odszumianie i ii) ekstrakcja cech. Odszumianie odnosi się do zmniejszania lub eliminowania wpływu szumu na dane. Ekstrakcja funkcji jest ważna, ponieważ w dzisiejszym świecie głodnym danych za pomocą czujników zbiera się ogromne ilości danych, których wykorzystanie może nie być łatwe. Dlatego też wiedza dziedzinowa i statystyczne przetwarzanie sygnałów są stosowane w celu wyodrębnienia ważnych cech z (najczęściej) zaszumionych, wielowymiarowych danych.
Prognozy oparte na fizyce
Prognozy oparte na fizyce (czasami nazywane prognozami opartymi na modelach) próbują włączyć zrozumienie fizyczne (modele fizyczne) systemu do szacowania pozostałego okresu użytkowania (RUL). Modelowanie fizyki można realizować na różnych poziomach, na przykład na poziomie mikro i makro. Na poziomie mikro (zwanym także poziomem materiału) modele fizyczne są ucieleśnione za pomocą szeregu równań dynamicznych, które definiują zależności, w danym czasie lub cyklu obciążenia, pomiędzy uszkodzeniem (lub degradacją) systemu/elementu a warunkami środowiskowymi i operacyjnymi, w których system/element są obsługiwane. Modele na poziomie mikro są często nazywane modelami propagacji uszkodzeń. Na przykład model trwałości zmęczeniowej łożysk kulkowych Yu i Harrisa, który wiąże trwałość zmęczeniową łożyska z naprężeniem indukowanym, model wzrostu pęknięć Parisa i Erdogana oraz stochastyczny model propagacji defektów to inne przykłady modeli na poziomie mikro. Ponieważ pomiary krytycznych właściwości uszkodzeń (takich jak naprężenie lub odkształcenie elementu mechanicznego) są rzadko dostępne, do wywnioskowania wartości naprężenia/odkształcenia należy wykorzystać wykryte parametry systemu. Modele na poziomie mikro muszą uwzględniać w zarządzaniu niepewnością założenia i uproszczenia, co może stwarzać istotne ograniczenia tego podejścia.
Modele na poziomie makro to model matematyczny na poziomie systemu, który definiuje relację między zmiennymi wejściowymi systemu, zmiennymi stanu systemu i zmiennymi/wyjściami miar systemu, przy czym model jest często nieco uproszczoną reprezentacją systemu, na przykład modelem parametrów skupionych . Kompromis polega na zwiększeniu zasięgu i możliwym zmniejszeniu dokładności określonego trybu degradacji. Tam, gdzie taki kompromis jest dopuszczalny, efektem może być szybsze prototypowanie. Jednakże w przypadku złożonych systemów (np. silnik z turbiną gazową) nawet model na poziomie makro może być procesem dość czasochłonnym i pracochłonnym. W rezultacie modele na poziomie makro mogą nie być dostępne szczegółowo dla wszystkich podsystemów. Powstałe uproszczenia należy uwzględnić w zarządzaniu niepewnością.
Podejścia hybrydowe
Podejścia hybrydowe próbują wykorzystać zalety zarówno podejść opartych na danych, jak i podejść opartych na modelach. W rzeczywistości rzadko zdarza się, aby stosowane podejścia opierały się wyłącznie na danych lub wyłącznie na modelach. Najczęściej podejścia oparte na modelach obejmują pewne aspekty podejść opartych na danych, a podejścia oparte na danych gromadzą dostępne informacje z modeli. Przykładem tego pierwszego może być dostrajanie parametrów modelu przy użyciu danych terenowych. Przykładem tego ostatniego jest sytuacja, w której wartość zadana, odchylenie lub współczynnik normalizacji dla podejścia opartego na danych są podawane przez modele. Podejścia hybrydowe można ogólnie podzielić na dwie kategorie: 1) fuzję wstępnie oszacowaną i 2.) fuzję po oszacowaniu.
Wstępnie oszacuj fuzję modeli i danych
Motywacją do wstępnej agregacji może być fakt, że nie są dostępne żadne podstawowe dane. Może się to zdarzyć w sytuacjach, gdy diagnostyka dobrze radzi sobie z wykrywaniem usterek, które można usunąć (poprzez konserwację), zanim wystąpi awaria systemu. Dlatego prawie nie ma danych o okresie działania do awarii. Istnieje jednak zachęta, aby wiedzieć lepiej, kiedy systemowi nie uda się lepiej wykorzystać pozostałego okresu użytkowania, jednocześnie unikając nieplanowanej konserwacji (nieplanowana konserwacja jest zazwyczaj droższa niż planowa konserwacja i powoduje przestoje systemu). Garga i in. opisują koncepcyjnie podejście hybrydowe z wstępnie oszacowaną agregacją, w którym wiedza dziedzinowa jest wykorzystywana do zmiany struktury sieci neuronowej, co skutkuje bardziej oszczędną reprezentacją sieci. [ potrzebne źródło ] Innym sposobem osiągnięcia agregacji wstępnej jest połączenie procesu off-line i on-line: W trybie off-line można zastosować model symulacyjny oparty na fizyce, aby zrozumieć zależności między odpowiedzią czujnika a stanem błędu; W trybie on-line można wykorzystać dane do identyfikacji aktualnego stanu uszkodzenia, następnie śledzić dane w celu scharakteryzowania propagacji uszkodzeń, a na koniec zastosować zindywidualizowany model propagacji oparty na danych do przewidywania pozostałego czasu życia. Na przykład Khorasgani i in. modelowali fizykę uszkodzeń kondensatorów elektrolitycznych. Następnie wykorzystali podejście oparte na filtrze cząstek, aby wyprowadzić dynamiczną postać modelu degradacji i oszacować bieżący stan kondycji kondensatora. Model ten jest następnie używany do dokładniejszego oszacowania pozostałego okresu użytkowania (RUL) kondensatorów poddawanych warunkom naprężenia termicznego.
Poszacowana fuzja podejść opartych na modelach z podejściami opartymi na danych
Motywacją do fuzji po oszacowaniu jest często uwzględnienie zarządzania niepewnością. Oznacza to, że fuzja po oszacowaniu pomaga zawęzić przedziały niepewności podejść opartych na danych lub modelu. Jednocześnie poprawia się dokładność. Podstawowym założeniem jest to, że wiele źródeł informacji może pomóc w poprawie wydajności estymatora. Zasadę tę z powodzeniem zastosowano w kontekście łączenia klasyfikatorów, gdzie wyniki wielu klasyfikatorów są wykorzystywane do uzyskania lepszego wyniku niż jakikolwiek inny klasyfikator. W kontekście prognostyki fuzję można osiągnąć poprzez zastosowanie ocen jakości przypisanych do poszczególnych estymatorów w oparciu o różne dane wejściowe, na przykład heurystyki, znaną a priori wydajność, horyzont przewidywania lub solidność przewidywania [ potrzebne źródło ] .
Prognostyczna ocena wydajności
Ocena wydajności prognostycznej ma kluczowe znaczenie dla pomyślnego wdrożenia systemu PHM. Wczesny brak standardowych metod oceny wyników i zestawów danych porównawczych spowodował poleganie na konwencjonalnych wskaźnikach wydajności zapożyczonych ze statystyk. Metryki te opierały się przede wszystkim na dokładności i precyzji, gdzie wydajność ocenia się na podstawie końca okresu eksploatacji, zwykle znanego a priori w trybie offline. Niedawno wysiłki zmierzające do udoskonalenia technologii prognostycznej położyły znaczny nacisk na standaryzację metod prognostycznych, w tym oceny wyników. Kluczowym aspektem, którego brakuje w konwencjonalnych metrykach, jest możliwość śledzenia wydajności w czasie. Jest to ważne, ponieważ prognostyka jest procesem dynamicznym, w ramach którego prognozy są aktualizowane z odpowiednią częstotliwością w miarę udostępniania większej liczby danych obserwacyjnych z systemu operacyjnego. Podobnie skuteczność przewidywania zmienia się w czasie, co należy śledzić i określać ilościowo. Innym aspektem, który wyróżnia ten proces w kontekście PHM, jest wartość czasowa predykcji RUL. W miarę zbliżania się awarii systemu okno czasowe na podjęcie działań naprawczych staje się coraz krótsze, w związku z czym dokładność przewidywań staje się coraz ważniejsza przy podejmowaniu decyzji. Wreszcie, losowość i szum w procesie, pomiarach i modelach prognostycznych są nieuniknione, dlatego prognozowanie nieuchronnie wiąże się z niepewnością w swoich szacunkach. Solidna ocena wyników prognostycznych musi uwzględniać skutki tej niepewności.
Biorąc pod uwagę te kwestie, ewoluowało kilka wskaźników wydajności prognostycznej:
- Horyzont prognostyczny (PH) określa ilościowo, z jakim wyprzedzeniem algorytm może przewidzieć z pożądaną dokładnością, zanim wystąpi awaria. Preferowany jest dłuższy horyzont prognostyczny, ponieważ wówczas jest więcej czasu na działania naprawcze.
- α-λ dodatkowo zaostrza pożądane poziomy dokładności przy użyciu kurczącego się stożka o pożądanej dokładności w miarę zbliżania się końca okresu użytkowania. Aby zawsze zachować zgodność z pożądanymi specyfikacjami α-λ, algorytm musi z czasem być ulepszany, aby pozostać w obrębie stożka.
- Dokładność względna określa ilościowo dokładność w odniesieniu do rzeczywistego czasu pozostałego do awarii.
- Zbieżność określa, jak szybko osiągana jest zbieżność wydajności algorytmu w miarę zbliżania się końca jego cyklu życia.
Wizualną reprezentację tych wskaźników można wykorzystać do zobrazowania wyników prognostycznych w długim horyzoncie czasowym.
Niepewność w prognozach
Istnieje wiele parametrów niepewności, które mogą wpływać na dokładność prognozy. Można je sklasyfikować jako:
- Niepewność parametrów układu: dotyczy niepewności wartości parametrów fizycznych układu (rezystancja, indukcyjność, sztywność, pojemność itp.). Ta niepewność jest spowodowana warunkami środowiskowymi i operacyjnymi, w których system ewoluuje. Można temu zaradzić stosując odpowiednie metody, np. interwałowe.
- Niepewność w nominalnym modelu systemu: dotyczy niedokładności w modelach matematycznych generowanych w celu przedstawienia zachowania systemu. Te niedokładności (lub niepewności) mogą wynikać z zestawu założeń stosowanych podczas procesu modelowania i prowadzić do modeli, które nie pasują dokładnie do rzeczywistego zachowania systemu.
- Niepewność w modelu degradacji systemu: model degradacji można uzyskać na podstawie przyspieszonych testów trwałości przeprowadzanych na różnych próbkach danych komponentu. W praktyce dane uzyskane w wyniku przyspieszonych testów trwałości przeprowadzonych w tych samych warunkach eksploatacyjnych mogą wykazywać różną tendencję degradacji. Tę różnicę w trendach degradacji można następnie uznać za niepewność modeli degradacji uzyskanych z danych związanych z testami przyspieszonej trwałości.
- Niepewność w przewidywaniu: niepewność jest nieodłączną częścią każdego procesu przewidywania. Wszelkie przewidywania modelu nominalnego i/lub degradacji są niedokładne, na co wpływa szereg niepewności, takich jak niepewność co do parametrów modelu, warunków środowiskowych i przyszłych profili misji. Niepewność przewidywania można rozwiązać za pomocą narzędzi estymacji i przewidywania bayesowskiego oraz narzędzi internetowych (np. filtrów cząstek i filtru Kalmana itp.).
- Niepewność progów awarii: próg awarii jest ważny we wszelkich metodach wykrywania i przewidywania usterek. Określa czas, w którym system ulegnie awarii, a co za tym idzie pozostały okres użytkowania. W praktyce wartość progu awarii nie jest stała i może zmieniać się w czasie. Może się również zmieniać w zależności od charakteru systemu, warunków pracy i środowiska, w którym ewoluuje. Wszystkie te parametry powodują niepewność, którą należy uwzględnić przy definiowaniu progu awarii.
Przykłady kwantyfikacji niepewności można znaleźć w.
Komercyjne platformy sprzętowe i programowe
W przypadku większości zastosowań przemysłowych PHM, najbardziej praktyczny i powszechny jest dostępny na rynku sprzęt i czujniki do gromadzenia danych. Przykładowi komercyjni dostawcy sprzętu do gromadzenia danych to National Instruments i Advantech Webaccess; jednakże w przypadku niektórych zastosowań sprzęt można w razie potrzeby dostosować lub wzmocnić. Typowe typy czujników do zastosowań PHM obejmują akcelerometry, temperaturę, ciśnienie, pomiary prędkości obrotowej za pomocą enkoderów lub tachometrów, elektryczne pomiary napięcia i prądu, emisję akustyczną, ogniwa obciążnikowe do pomiarów siły oraz pomiary przemieszczenia lub położenia. Istnieje wielu dostawców czujników do tego typu pomiarów, a niektórzy mają konkretną linię produktów, która jest bardziej odpowiednia do monitorowania stanu i zastosowań PHM.
Algorytmy analizy danych i technologia rozpoznawania wzorców są obecnie oferowane na niektórych komercyjnych platformach oprogramowania lub jako część pakietu oprogramowania. Firma National Instruments posiada obecnie wersję próbną (z komercyjną premierą w nadchodzącym roku) zestawu narzędzi prognostycznych Watchdog Agent, będącego zbiorem algorytmów PHM opartych na danych, opracowanych przez Centrum Inteligentnych Systemów Utrzymania. Ten zbiór ponad 20 narzędzi umożliwia konfigurowanie i dostosowywanie algorytmów ekstrakcji sygnatur, wykrywania anomalii, oceny stanu, diagnozowania awarii i przewidywania awarii dla danej aplikacji, zgodnie z potrzebami. Dostosowane do indywidualnych potrzeb komercyjne rozwiązania w zakresie monitorowania predykcyjnego wykorzystujące zestaw narzędzi Watchdog Agent są obecnie oferowane przez niedawno powstałą firmę o nazwie Predictronics Corporation, której założyciele odegrali kluczową rolę w rozwoju i zastosowaniu technologii PHM w Centrum Inteligentnych Systemów Utrzymania. Innym przykładem jest MATLAB oraz jego Predictive Maintenance Toolbox, który zapewnia funkcje i interaktywną aplikację do eksploracji, wyodrębniania i rankingu funkcji przy użyciu technik opartych na danych i modelach, w tym analizy statystycznej, spektralnej i szeregów czasowych. Ten zestaw narzędzi zawiera także przykłady referencyjne silników, skrzyń biegów, akumulatorów i innych maszyn, które można ponownie wykorzystać do opracowania niestandardowych algorytmów konserwacji predykcyjnej i monitorowania stanu. Inne oferty oprogramowania komercyjnego skupiają się na kilku narzędziach do wykrywania anomalii i diagnozowania usterek i są zazwyczaj oferowane jako rozwiązanie pakietowe, a nie zestaw narzędzi. Przykład obejmuje metodę analityczną wykrywania anomalii Smart Signals, opartą na modelach typu autoasocjacyjnego (modelowanie oparte na podobieństwie), która wyszukuje zmiany w nominalnej relacji korelacji w sygnałach, oblicza reszty między oczekiwaną a rzeczywistą wydajnością, a następnie przeprowadza testowanie hipotez na reszcie sygnały (sekwencyjny test współczynnika prawdopodobieństwa). Podobne typy metod analizy oferuje również Expert Microsystems, który wykorzystuje podobną metodę jądra autoasocjacyjnego do obliczania reszt i posiada inne moduły do diagnozowania i przewidywania.
Prognozy na poziomie systemu
Chociaż większość podejść prognostycznych koncentruje się na dokładnym obliczeniu szybkości degradacji i pozostałego okresu użytkowania (RUL) poszczególnych komponentów, to tempo, z jakim pogarsza się wydajność podsystemów i systemów, budzi większe zainteresowanie operatorów i personelu zajmującego się konserwacją tych systemów. systemy.
Zobacz też
Notatki
Linki zewnętrzne
- Prognostics Journal jest czasopismem o otwartym dostępie, które stanowi międzynarodowe forum elektronicznej publikacji oryginalnych artykułów z badań i doświadczeń przemysłowych we wszystkich obszarach prognozowania systemów.
- International Journal of prognostyki i zarządzania zdrowiem
- Towarzystwo Prognostyki i Zarządzania Zdrowiem (PHM Society) to międzynarodowa organizacja non-profit, której celem jest rozwój PHM jako dyscypliny inżynierskiej.
- Centrum prognozowania i zarządzania stanem systemu na Uniwersytecie Miejskim w Hongkongu zajmuje się rozwojem technologii PHM, które mogą przynieść korzyści branżom poprzez zwiększenie ich konkurencyjności i rentowności.
- China PHM Society to organizacja non-profit założona w celu zaspokajania kluczowych potrzeb społeczności chińskiej w zakresie jakości, niezawodności, łatwości konserwacji, bezpieczeństwa i zrównoważonego rozwoju.
- Doroczna Konferencja Towarzystwa PCH jest coroczną międzynarodową konferencją skupiającą się wyłącznie na PCH.
- programu Joint Strike Fighter poczyniono znaczne inwestycje w PHM i powiązane technologie [1] .
- W Centrum Zaawansowanej Inżynierii Cyklu Życia (CALCE) na Uniwersytecie Maryland w College Park działa grupa zajmująca się zapewnianiem bazy badawczej i wiedzy w celu wspierania rozwoju zarządzania zdrowiem, ze szczególnym uwzględnieniem elektroniki.
- Konferencja IEEE Aerospace zawiera jeden z najstarszych utworów na temat prognozowania i zarządzania zdrowiem.
- Towarzystwo Technologii Zapobiegania Awariom Maszyn (MFPT) organizuje coroczne spotkanie poświęcone najnowszym osiągnięciom w praktycznych zastosowaniach w dziedzinie PHM.
- Centrum Doskonałości Prognostyki (PCoE) w Centrum Badawczym NASA Ames zapewnia parasol dla rozwoju technologii prognostycznych stosowanych w zastosowaniach lotniczych. Utrzymuje także repozytorium danych zawierające publicznie dostępne zestawy danych działające od uruchomienia do awarii.
- Grupa Badawcza PHM francuskiego Instytutu FEMTO-ST opracowuje metody i eksperymenty do prognozowania systemów przemysłowych.