Multidyscyplinarna optymalizacja projektu

Multidyscyplinarna optymalizacja projektu ( MDO ) to dziedzina inżynierii , która wykorzystuje metody optymalizacji do rozwiązywania problemów projektowych obejmujących wiele dyscyplin. Jest również znany jako multidyscyplinarna optymalizacja projektu systemu (MSDO) oraz multidyscyplinarna analiza i optymalizacja projektu (MDAO).

MDO umożliwia projektantom jednoczesne włączenie wszystkich odpowiednich dyscyplin. Optimum problemu jednoczesnego jest lepsze od projektu znalezionego przez sekwencyjną optymalizację każdej dyscypliny, ponieważ może wykorzystywać interakcje między dyscyplinami. Jednak jednoczesne uwzględnienie wszystkich dyscyplin znacznie zwiększa złożoność problemu.

Techniki te były stosowane w wielu dziedzinach, w tym w projektowaniu samochodów , architekturze okrętów , elektronice , architekturze , komputerach i dystrybucji energii elektrycznej . Jednak największa liczba zastosowań dotyczyła inżynierii lotniczej , takiej jak projektowanie samolotów i statków kosmicznych . Na przykład proponowany korpus skrzydła typu blended Boeing (BWB) samolot koncepcyjny szeroko wykorzystywał MDO na etapie koncepcyjnym i wstępnym. Dyscypliny uwzględnione w projekcie BWB to aerodynamika , analiza strukturalna , napęd , teoria sterowania i ekonomia .

Historia

Tradycyjnie inżynieria była zwykle wykonywana przez zespoły, z których każdy posiadał wiedzę specjalistyczną w określonej dyscyplinie, takiej jak aerodynamika lub konstrukcje. Każdy zespół wykorzystałby doświadczenie i osąd swoich członków, aby opracować wykonalny projekt, zwykle sekwencyjnie. Na przykład eksperci od aerodynamiki zarysowaliby kształt nadwozia, a eksperci od konstrukcji mieliby dopasować swój projekt do określonego kształtu. Cele zespołów były na ogół związane z wydajnością, takie jak maksymalna prędkość, minimalny opór lub minimalna masa konstrukcyjna.

W latach 1970-1990 dwa główne wydarzenia w przemyśle lotniczym zmieniły podejście inżynierów zajmujących się projektowaniem samolotów do ich problemów projektowych. Pierwszym z nich było projektowanie wspomagane komputerowo , które pozwalało projektantom na szybką modyfikację i analizę swoich projektów. Drugim były zmiany w polityce zakupowej większości linii lotniczych i organizacji wojskowych, zwłaszcza wojska Stanów Zjednoczonych , z podejścia skoncentrowanego na wydajności do podejścia kładącego nacisk na koszty cyklu życia . Doprowadziło to do zwiększonej koncentracji na czynnikach ekonomicznych i atrybutach znanych jako „ właściwości ”, w tym możliwości produkcyjne , niezawodność , łatwość konserwacji itp.

Od 1990 roku techniki rozszerzyły się na inne branże. Globalizacja doprowadziła do powstania bardziej rozproszonych, zdecentralizowanych zespołów projektowych. Wysokowydajny komputer osobisty w dużej mierze zastąpił scentralizowany superkomputer , a Internet i sieci lokalne ułatwiły wymianę informacji projektowych. Dyscyplinarne oprogramowanie do projektowania w wielu dziedzinach (takie jak OptiStruct lub NASTRAN , analiza elementów skończonych program do projektowania konstrukcji) stały się bardzo dojrzałe. Ponadto wiele algorytmów optymalizacyjnych, w szczególności algorytmy populacyjne, znacznie się rozwinęło.

Geneza optymalizacji strukturalnej

Podczas gdy metody optymalizacji są prawie tak stare jak rachunek różniczkowy i sięgają czasów Isaaca Newtona , Leonharda Eulera , Daniela Bernoulliego i Josepha Louisa Lagrange'a , którzy używali ich do rozwiązywania problemów, takich jak kształt krzywej łańcuchowej , optymalizacja numeryczna osiągnęła rozgłos w erze cyfrowej . Jej systematyczne stosowanie w projektowaniu konstrukcyjnym datuje się na jej poparcie przez Schmita w 1960 r. Sukces optymalizacji strukturalnej w latach 70. zmotywował pojawienie się multidyscyplinarnej optymalizacji projektu (MDO) w latach 80. Jarosław Sobieski był orędownikiem metod dekompozycji zaprojektowanych specjalnie dla zastosowań MDO. Poniższe streszczenie koncentruje się na metodach optymalizacji dla MDO. Po pierwsze, dokonano przeglądu popularnych metod opartych na gradiencie, używanych przez wczesną optymalizację strukturalną i społeczność MDO. Następnie podsumowano metody wypracowane w ciągu ostatnich kilkunastu lat.

Metody oparte na gradiencie

W latach sześćdziesiątych i siedemdziesiątych XX wieku istniały dwie szkoły praktyków optymalizacji strukturalnej stosujące metody oparte na gradientach : kryteria optymalności i programowanie matematyczne . Szkolne formuły rekurencyjne wyprowadzone z kryteriów optymalności oparte na warunkach koniecznych Karusha – Kuhna – Tuckera (KKT) dla optymalnego projektu. Warunki KKT zastosowano do klas problemów konstrukcyjnych, takich jak projekt o minimalnej masie z ograniczeniami dotyczącymi naprężeń, przemieszczeń, wyboczeń lub częstotliwości [Rozvany, Berke, Venkayya, Khot i in.] w celu uzyskania wyrażeń zmiany rozmiaru właściwych dla każdej klasy. Szkoła programowania matematycznego wykorzystywała klasyczne metody oparte na gradiencie do problemów optymalizacji strukturalnej. Metoda możliwych do wykorzystania kierunków, metoda projekcji gradientu Rosena (uogólniona redukcja gradientu), techniki sekwencyjnej nieograniczonej minimalizacji, sekwencyjne programowanie liniowe i ostatecznie metody sekwencyjnego programowania kwadratowego były powszechnymi wyborami. Schittkowskiego i in. dokonał przeglądu metod obecnych na początku lat 90.

Metody gradientowe unikalne dla społeczności MDO wywodzą się z połączenia kryteriów optymalności z programowaniem matematycznym, po raz pierwszy rozpoznanym w przełomowej pracy Fleury'ego i Schmita, którzy stworzyli ramy koncepcji aproksymacji do optymalizacji strukturalnej. Uznali, że kryteria optymalności były tak skuteczne w przypadku ograniczeń naprężeń i przemieszczeń, ponieważ takie podejście sprowadzało się do rozwiązania podwójnego problemu dla mnożników Lagrange'a przy użyciu przybliżeń liniowych szeregów Taylora w odwrotnej przestrzeni projektowej. W połączeniu z innymi technikami poprawiającymi efektywność, takimi jak usuwanie ograniczeń, regionalizacja i łączenie zmiennych projektowych, udało im się zjednoczyć pracę obu szkół. To podejście oparte na koncepcjach aproksymacji stanowi podstawę modułów optymalizacyjnych w nowoczesnym oprogramowaniu do projektowania konstrukcji, takim jak Altair – Optistruct, ASTROS, MSC.Nastran, PHX ModelCenter , Genesis, iSight i I-DEAS.

Aproksymacje optymalizacji strukturalnej zostały zapoczątkowane przez wzajemne przybliżenie Schmita i Miury dla funkcji odpowiedzi na naprężenie i przemieszczenie. W przypadku płytek zastosowano inne zmienne pośrednie. Łącząc zmienne liniowe i odwrotne, Starnes i Haftka opracowali konserwatywne przybliżenie, aby poprawić przybliżenia wyboczenia. Fadel wybrał odpowiednią pośrednią zmienną projektową dla każdej funkcji w oparciu o warunek dopasowania gradientu dla poprzedniego punktu. Vanderplaats zapoczątkował drugą generację przybliżeń wysokiej jakości, kiedy opracował przybliżenie siły jako przybliżenie odpowiedzi pośredniej w celu poprawy przybliżenia ograniczeń naprężeń. Canfield opracował ilorazu Rayleigha w celu poprawy dokładności przybliżeń wartości własnych. Barthelemy i Haftka opublikowali obszerny przegląd przybliżeń w 1993 roku.

Metody nieoparte na gradiencie

pojawiły się metody ewolucyjne nieoparte na gradiencie, w tym algorytmy genetyczne , symulowane wyżarzanie i algorytmy kolonii mrówek . Obecnie wielu badaczy dąży do osiągnięcia konsensusu co do najlepszych trybów i metod rozwiązywania złożonych problemów, takich jak uszkodzenia spowodowane uderzeniem, uszkodzenia dynamiczne i analizy w czasie rzeczywistym . W tym celu badacze często stosują wielokryterialne i wielokryterialne metody projektowania.

Najnowsze metody MDO

Praktycy MDO badali metody optymalizacji w kilku szerokich obszarach w ciągu ostatnich kilkunastu lat. Należą do nich metody dekompozycji, aproksymacji , algorytmy ewolucyjne , algorytmy memetyczne , metodologia powierzchni odpowiedzi , optymalizacja oparta na niezawodności i podejścia do optymalizacji wielokryterialnej .

Eksploracja metod dekompozycji była kontynuowana w ciągu ostatnich kilkunastu lat wraz z rozwojem i porównaniem wielu podejść, klasyfikowanych różnie jako hierarchiczne i niehierarchiczne lub kolaboracyjne i niekolaboracyjne. Metody aproksymacji obejmowały różnorodne podejścia, w tym opracowywanie aproksymacji opartych na modelach zastępczych (często określanych jako metamodele), modelach o zmiennej wierności i strategiach zarządzania regionami zaufania. Rozwój przybliżeń wielopunktowych zatarł rozróżnienie z metodami powierzchni odpowiedzi. Niektóre z najpopularniejszych metod to kriging i tzw najmniejszych kwadratów ruchu .

Metodologia powierzchni odpowiedzi , szeroko rozwijana przez społeczność statystyczną, cieszyła się dużym zainteresowaniem społeczności MDO w ciągu ostatnich kilkunastu lat. Siłą napędową ich wykorzystania był rozwój masowo równoległych systemów do obliczeń o wysokiej wydajności, które naturalnie nadają się do dystrybucji ocen funkcji z wielu dziedzin, które są wymagane do budowy powierzchni odpowiedzi. Przetwarzanie rozproszone jest szczególnie przydatne w procesie projektowania złożonych systemów, w których analiza różnych dyscyplin może być wykonywana naturalnie na różnych platformach obliczeniowych, a nawet przez różne zespoły.

Metody ewolucyjne utorowały drogę w eksploracji metod niegradientowych do zastosowań MDO. Skorzystali również z dostępności masowo równoległych komputerów o wysokiej wydajności, ponieważ z natury wymagają one znacznie większej liczby ocen funkcji niż metody oparte na gradiencie. Ich główna zaleta polega na zdolności do obsługi dyskretnych zmiennych projektowych i możliwości znalezienia globalnie optymalnych rozwiązań.

Optymalizacja oparta na niezawodności (RBO) to rosnący obszar zainteresowania MDO. Podobnie jak metody powierzchni odpowiedzi i algorytmy ewolucyjne, RBO korzysta z obliczeń równoległych, ponieważ całkowanie numeryczne w celu obliczenia prawdopodobieństwa niepowodzenia wymaga wielu ocen funkcji. Jedno z pierwszych podejść wykorzystywało koncepcje aproksymacji do całkowania prawdopodobieństwa niepowodzenia. Nadal popularna jest klasyczna metoda niezawodności pierwszego rzędu (FORM) i metoda niezawodności drugiego rzędu (SORM). Profesor Ramana Grandhi użył odpowiednich znormalizowanych zmiennych dotyczących najbardziej prawdopodobnego punktu awarii, znalezionego za pomocą dwupunktowego adaptacyjnego przybliżenia nieliniowego, aby poprawić dokładność i wydajność. Southwest Research Institute odegrał znaczącą rolę w rozwoju RBO, wdrażając najnowocześniejsze metody niezawodności w oprogramowaniu komercyjnym. RBO osiągnęło wystarczającą dojrzałość, aby pojawiać się w komercyjnych programach do analizy strukturalnej, takich jak Optistruct firmy Altair i Nastran firmy MSC .

Maksymalizacja prawdopodobieństwa oparta na użyteczności została opracowana w odpowiedzi na pewne problemy logiczne (np. dylemat Blaua) z optymalizacją projektu opartą na niezawodności. Podejście to koncentruje się na maksymalizacji łącznego prawdopodobieństwa zarówno przekroczenia pewnej wartości przez funkcję celu, jak i spełnienia wszystkich ograniczeń. Gdy nie ma funkcji celu, maksymalizacja prawdopodobieństwa oparta na użyteczności sprowadza się do problemu maksymalizacji prawdopodobieństwa. Gdy nie ma niepewności w ograniczeniach, sprowadza się to do problemu maksymalizacji użyteczności z ograniczeniami. (Ta druga równoważność powstaje, ponieważ użyteczność funkcji można zawsze zapisać jako prawdopodobieństwo przekroczenia przez tę funkcję jakiejś zmiennej losowej). Ponieważ zmienia problem optymalizacji z ograniczeniami związany z optymalizacją opartą na niezawodności w problem optymalizacji nieograniczonej, często prowadzi do bardziej przystępne obliczeniowo sformułowania problemów.

W dziedzinie marketingu istnieje ogromna literatura na temat optymalnego projektowania wieloatrybutowych produktów i usług, opartego na analizie eksperymentalnej w celu oszacowania modeli funkcji użyteczności konsumentów. Metody te są znane jako analiza połączona . Respondentom przedstawia się alternatywne produkty, mierząc preferencje dotyczące alternatyw przy użyciu różnych skal, a funkcję użyteczności szacuje się różnymi metodami (od regresji i metod odpowiedzi powierzchniowej po modele wyboru). Najlepszy projekt powstaje po oszacowaniu modelu. Projekt eksperymentu jest zwykle optymalizowany w celu zminimalizowania wariancji estymatorów. Metody te są szeroko stosowane w praktyce.

Sformułowanie problemu

Sformułowanie problemu jest zwykle najtrudniejszą częścią procesu. Jest to wybór zmiennych projektowych, ograniczeń, celów i modeli dyscyplin. Kolejną kwestią jest siła i zakres interdyscyplinarnego powiązania problemu.

Zmienne projektowe

Zmienna projektowa to specyfikacja, którą można kontrolować z punktu widzenia projektanta. Na przykład grubość elementu konstrukcyjnego można uznać za zmienną projektową. Innym może być wybór materiału. Zmienne projektowe mogą być ciągłe (takie jak rozpiętość skrzydeł), dyskretne (takie jak liczba żeber w skrzydle) lub logiczne (takie jak to, czy zbudować jednopłatowiec, czy dwupłatowiec ) . Problemy projektowe ze zmiennymi ciągłymi są zwykle rozwiązywane łatwiej.

Zmienne projektowe są często ograniczone, to znaczy często mają wartości maksymalne i minimalne. W zależności od metody rozwiązania, ograniczenia te można traktować jako ograniczenia lub oddzielnie.

Jedną z ważnych zmiennych, które należy uwzględnić, jest niepewność. Niepewność, często nazywana niepewnością epistemiczną, powstaje na skutek braku wiedzy lub niepełnych informacji. Niepewność jest zasadniczo nieznaną zmienną, ale może powodować awarię systemu.

Ograniczenia

Ograniczenie to warunek, który musi być spełniony, aby projekt był wykonalny. Przykładem ograniczenia w konstrukcji samolotu jest to, że siła nośna generowana przez skrzydło musi być równa masie samolotu. Oprócz praw fizycznych ograniczenia mogą odzwierciedlać ograniczenia zasobów, wymagania użytkowników lub ograniczenia dotyczące ważności modeli analitycznych. Ograniczenia mogą być użyte jawnie przez algorytm rozwiązania lub mogą być włączone do celu za pomocą mnożników Lagrange'a .

Cele

Cel to wartość liczbowa, którą należy zmaksymalizować lub zminimalizować. Na przykład projektant może chcieć zmaksymalizować zysk lub zminimalizować wagę. Wiele metod rozwiązania działa tylko z pojedynczymi celami. Korzystając z tych metod, projektant zwykle waży różne cele i sumuje je, tworząc jeden cel. Inne metody umożliwiają wielokryterialną optymalizację, taką jak obliczenie frontu Pareto .

modele

Projektant musi również wybrać modele, aby powiązać ograniczenia i cele ze zmiennymi projektowymi. Modele te są zależne od danej dyscypliny. Mogą to być modele empiryczne, takie jak analiza regresji cen samolotów, modele teoretyczne, takie jak z obliczeniowej dynamiki płynów , lub modele o zredukowanym rzędzie dowolnego z nich. Przy wyborze modeli projektant musi pogodzić wierność z czasem analizy.

Multidyscyplinarny charakter większości problemów projektowych komplikuje wybór i wdrożenie modelu. Często konieczne jest wykonanie kilku iteracji między dyscyplinami, aby znaleźć wartości celów i ograniczeń. Na przykład obciążenia aerodynamiczne na skrzydle wpływają na strukturalne odkształcenie skrzydła. Odkształcenie strukturalne z kolei zmienia kształt skrzydła i obciążenia aerodynamiczne. Dlatego analizując skrzydło, należy przeprowadzić kilka razy po kolei analizę aerodynamiczną i strukturalną, aż do zbieżności obciążeń i odkształceń.

Forma standardowa

Po wybraniu zmiennych projektowych, ograniczeń, celów i relacji między nimi, problem można wyrazić w następującej postaci:

znajdź , który minimalizuje z zastrzeżeniem , i

gdzie celem, wektorem zmiennych projektowych, jest wektorem ograniczeń nierówności, wektorem ograniczeń równości, a u są wektorami niższych i górne granice zmiennych projektowych. Problemy maksymalizacji można przekształcić w problemy minimalizacji, mnożąc cel przez -1. Ograniczenia można odwrócić w podobny sposób. Ograniczenia równościowe można zastąpić dwoma ograniczeniami nierównościowymi.

Rozwiązanie problemu

Problem jest zwykle rozwiązywany przy użyciu odpowiednich technik z zakresu optymalizacji. Należą do nich gradiencie , algorytmy oparte na populacji lub inne. Bardzo proste problemy można czasem wyrazić liniowo; zastosowanie mają techniki programowania liniowego .

Metody oparte na gradiencie

Metody bezgradientowe

Metody populacyjne

Inne metody

Większość z tych technik wymaga dużej liczby ocen celów i ograniczeń. Modele dyscyplinarne są często bardzo złożone i pojedyncza ocena może zająć dużo czasu. Rozwiązanie może być zatem niezwykle czasochłonne. Wiele technik optymalizacji można dostosować do obliczeń równoległych . Wiele obecnych badań koncentruje się na metodach zmniejszania wymaganego czasu.

Ponadto żadna istniejąca metoda rozwiązania nie gwarantuje znalezienia globalnego optimum ogólnego problemu (patrz Brak darmowego lunchu w wyszukiwaniu i optymalizacji ). Metody oparte na gradiencie znajdują lokalne optyma z wysoką niezawodnością, ale zwykle nie są w stanie uciec od lokalnego optimum. Metody stochastyczne, takie jak symulowane wyżarzanie i algorytmy genetyczne, pozwolą znaleźć dobre rozwiązanie z dużym prawdopodobieństwem, ale bardzo niewiele można powiedzieć o matematycznych właściwościach rozwiązania. Nie ma gwarancji, że będzie to nawet lokalne optimum. Te metody często znajdują inny projekt za każdym razem, gdy są uruchamiane.

Zobacz też