Globalne ryzyko katastroficzne

Wizja artysty dotycząca dużego uderzenia asteroidy . Asteroida spowodowała wyginięcie nieptasich dinozaurów .

Globalne ryzyko katastrofy lub scenariusz zagłady to hipotetyczne przyszłe wydarzenie, które może zaszkodzić dobrobytowi ludzkości w skali globalnej, a nawet zagrozić lub zniszczyć współczesną cywilizację . Zdarzenie, które może spowodować wyginięcie ludzkości lub trwale i drastycznie ograniczyć potencjał ludzkości, jest znane jako „ ryzyko egzystencjalne ”.

W ciągu ostatnich dwóch dekad powstało wiele organizacji akademickich i organizacji non-profit, które badają globalne zagrożenia katastroficzne i egzystencjalne, formułują potencjalne środki łagodzące oraz opowiadają się za tymi środkami lub je wdrażają.

Definicja i klasyfikacja

Siatka zakresu / intensywności z artykułu Bostroma „Zapobieganie zagrożeniom egzystencjalnym jako priorytet globalny”

Definiowanie globalnych zagrożeń katastroficznych

Termin globalne ryzyko katastroficzne „brakuje ostrej definicji” i ogólnie odnosi się (luźno) do ryzyka, które może spowodować „poważne szkody dla dobrobytu ludzi w skali globalnej”.

Ludzkość już wcześniej doświadczyła wielkich katastrof. Niektóre z nich spowodowały poważne szkody, ale miały jedynie zasięg lokalny — np. czarna śmierć mogła spowodować śmierć jednej trzeciej populacji Europy, czyli 10% ówczesnej populacji świata. Niektóre miały zasięg globalny, ale nie były tak poważne — np. pandemia grypy z 1918 r. zabiła szacunkowo 3–6% światowej populacji. Większość globalnych zagrożeń katastroficznych nie byłaby tak intensywna, aby zabić większość życia na Ziemi, ale nawet gdyby tak się stało, ekosystem i ludzkość ostatecznie odrodziłyby się (w przeciwieństwie do zagrożeń egzystencjalnych ).

Podobnie w Catastrophe: Risk and Response Richard Posner wyróżnia i grupuje wydarzenia, które przynoszą „całkowite obalenie lub ruinę” w skali globalnej, a nie „lokalnej lub regionalnej” . Posner podkreśla, że ​​takie wydarzenia zasługują na szczególną uwagę ze względu na koszty i korzyści, ponieważ mogą bezpośrednio lub pośrednio zagrozić przetrwaniu rasy ludzkiej jako całości.

Definiowanie zagrożeń egzystencjalnych

Ryzyko egzystencjalne definiuje się jako „ryzyko grożące zniszczeniem długoterminowego potencjału ludzkości”. Urzeczywistnienie egzystencjalnego ryzyka ( egzystencjalna katastrofa ) spowodowałoby albo całkowite wyginięcie ludzkości, albo nieodwracalne zablokowanie drastycznie gorszego stanu rzeczy. Ryzyka egzystencjalne to podklasa globalnych zagrożeń katastroficznych, w przypadku których szkoda jest nie tylko globalna , ale także śmiertelna i trwała, uniemożliwiająca odbudowę, a tym samym wpływająca zarówno na obecne, jak i na wszystkie przyszłe pokolenia.

Ryzyko niewymierania

Podczas gdy wyginięcie jest najbardziej oczywistym sposobem zniszczenia długoterminowego potencjału ludzkości, istnieją inne, w tym nieodwracalny upadek i nieodwracalna dystopia . Katastrofa na tyle poważna, że ​​spowodowała trwały, nieodwracalny upadek cywilizacji ludzkiej, stanowiłaby katastrofę egzystencjalną, nawet gdyby nie groziła jej wyginięcie. Podobnie, gdyby ludzkość znalazła się pod reżimem totalitarnym i nie było szans na odrodzenie, to taka dystopia byłaby również egzystencjalną katastrofą. Bryana Caplana pisze, że „być może wieczność totalitaryzmu byłaby gorsza niż wyginięcie”. ( Powieść George'a Orwella Rok 1984 sugeruje przykład). Scenariusz dystopijny ma kluczowe cechy wyginięcia i nieodwracalnego upadku cywilizacji - przed katastrofą ludzkość miała do wyboru szeroki wachlarz świetlanych przyszłości; po katastrofie ludzkość zostaje na zawsze zamknięta w strasznym stanie.

Potencjalne źródła ryzyka

Potencjalne globalne zagrożenia katastroficzne są tradycyjnie klasyfikowane jako zagrożenia antropogeniczne lub nieantropogeniczne. Przykłady zagrożeń nieantropogenicznych to uderzenie asteroidy , erupcja superwulkanu , śmiercionośny rozbłysk promieniowania gamma , burza geomagnetyczna niszcząca sprzęt elektroniczny, naturalna długoterminowa zmiana klimatu , wrogie życie pozaziemskie lub przewidywalna przemiana Słońca w czerwonego olbrzyma gwiazda otaczająca Ziemię.

Zagrożenia antropogeniczne to zagrożenia powodowane przez ludzi i obejmują zagrożenia związane z technologią, zarządzaniem i zmianami klimatycznymi. Zagrożenia technologiczne obejmują tworzenie sztucznej inteligencji niedostosowanej do ludzkich celów, biotechnologię i nanotechnologię . Niewystarczające lub złośliwe globalne zarządzanie stwarza zagrożenia w sferze społecznej i politycznej, takie jak globalna wojna i nuklearny holokaust , bioterroryzm wykorzystujący genetycznie zmodyfikowane organizmy , cyberterroryzm niszczący infrastruktura krytyczna , taka jak sieć elektryczna , lub niepowodzenie w zarządzaniu pandemią naturalną lub sztuczną . Globalne zagrożenia katastroficzne w dziedzinie zarządzania systemem ziemskim obejmują globalne ocieplenie , degradację środowiska , wymieranie gatunków , głód w wyniku niesprawiedliwej dystrybucji zasobów, przeludnienie , nieurodzaj i niezrównoważone rolnictwo .

Wyzwania metodologiczne

Badania nad naturą i łagodzeniem globalnych zagrożeń katastroficznych i zagrożeń egzystencjalnych podlegają wyjątkowemu zestawowi wyzwań, w wyniku czego niełatwo poddają się zwykłym standardom rygoru naukowego. Na przykład eksperymentalne badanie tych zagrożeń nie jest ani wykonalne, ani etyczne. Carla Sagana wyraził to w odniesieniu do wojny nuklearnej: „Zrozumienie długoterminowych konsekwencji wojny nuklearnej nie jest problemem, który można zweryfikować eksperymentalnie”. Co więcej, wiele zagrożeń związanych z katastrofami zmienia się szybko wraz z postępem technologicznym i zmianami warunków otoczenia, takich jak warunki geopolityczne. Kolejnym wyzwaniem jest ogólna trudność w dokładnym przewidywaniu przyszłości w długich ramach czasowych, zwłaszcza w przypadku zagrożeń antropogenicznych, które zależą od złożonych ludzkich systemów politycznych, gospodarczych i społecznych. Oprócz znanych i namacalnych zagrożeń mogą wystąpić nieprzewidywalne czarnego łabędzia , co stanowi dodatkowy problem metodologiczny.

Brak historycznego precedensu

Ludzkość nigdy nie doświadczyła katastrofy egzystencjalnej, a gdyby do niej doszło, byłaby to z konieczności bezprecedensowa. Dlatego zagrożenia egzystencjalne stanowią wyjątkowe wyzwanie dla przewidywania, nawet większe niż inne zdarzenia długoterminowe, ze względu na efekty selekcji obserwacji . W przeciwieństwie do większości wydarzeń, niepowodzenie całkowitego wyginięcia w przeszłości nie jest dowodem na prawdopodobieństwo ich wystąpienia w przyszłości, ponieważ każdy świat, który doświadczył takiego wyginięcia, nie ma obserwatorów, więc niezależnie od ich częstotliwości żadna cywilizacja nie obserwuje egzystencjalnych zagrożeń w swojej historii. Te antropiczne problemów można częściowo uniknąć, przyglądając się dowodom, które nie mają takiego efektu selekcji, takim jak kratery uderzeniowe asteroid na Księżycu, lub bezpośrednio oceniając prawdopodobny wpływ nowej technologii.

Aby zrozumieć dynamikę bezprecedensowego, nieodwracalnego globalnego upadku cywilizacyjnego (rodzaj ryzyka egzystencjalnego), pouczające może być zbadanie różnych lokalnych upadków cywilizacyjnych , które miały miejsce w całej historii ludzkości. Na przykład cywilizacje takie jak Cesarstwo Rzymskie zakończyły się utratą scentralizowanego zarządzania i poważną utratą infrastruktury i zaawansowanej technologii w całej cywilizacji. Jednak te przykłady pokazują, że społeczeństwa wydają się być dość odporne na katastrofy; na przykład średniowieczna Europa przetrwała Czarną Śmierć bez cierpień przypominających a upadek cywilizacji pomimo utraty od 25 do 50 procent ludności.

Zachęty i koordynacja

Istnieją przyczyny ekonomiczne, które mogą wyjaśnić, dlaczego tak mało wysiłku wkłada się w redukcję ryzyka egzystencjalnego. Jest to globalne dobro publiczne , więc należy spodziewać się niedostatecznej podaży rynków. Nawet jeśli duży naród zainwestuje w środki ograniczające ryzyko, odniesie z tego tylko niewielki ułamek korzyści. Co więcej, redukcja ryzyka egzystencjalnego jest międzypokoleniowym globalnym dobrem publicznym, ponieważ większość korzyści z redukcji ryzyka egzystencjalnego odniosłaby większość przyszłych pokoleń i chociaż ci przyszli ludzie być może byliby skłonni zapłacić znaczne sumy za redukcję ryzyka egzystencjalnego, żaden mechanizm dla takiej transakcji istnieje.

Błędy poznawcze

Liczne błędy poznawcze mogą wpływać na ludzką ocenę znaczenia zagrożeń egzystencjalnych, w tym niewrażliwość na zakres , dyskontowanie hiperboliczne , heurystyka dostępności , błąd koniunkcji , heurystyka afektu i efekt nadmiernej pewności siebie .

Niewrażliwość na zakres wpływa na to, jak źli ludzie postrzegają wyginięcie rasy ludzkiej. Na przykład, kiedy ludzie są zmotywowani do ofiarowania pieniędzy na cele altruistyczne, ilość, którą są skłonni przekazać, nie rośnie liniowo wraz ze skalą problemu: ludzie są mniej więcej tak samo chętni do zapobieżenia śmierci 200 000 lub 2000 ptaków. Podobnie, ludzie często bardziej przejmują się zagrożeniami dla jednostek niż dla większych grup.

Eliezer Yudkowsky teoretyzuje, że zaniedbanie zakresu odgrywa rolę w społecznym postrzeganiu zagrożeń egzystencjalnych:

Znacznie większe liczby, takie jak 500 milionów zgonów, a zwłaszcza jakościowo różne scenariusze, takie jak wyginięcie całego gatunku ludzkiego, wydają się uruchamiać inny sposób myślenia… Ludzie, którzy nigdy nie marzyliby o skrzywdzeniu dziecka, słyszą o ryzyku egzystencjalnym, i powiedzieć: „Cóż, może gatunek ludzki tak naprawdę nie zasługuje na przetrwanie”.

Wszystkie wcześniejsze prognozy wyginięcia ludzkości okazały się fałszywe. Niektórym sprawia to, że przyszłe ostrzeżenia wydają się mniej wiarygodne. Nick Bostrom argumentuje, że brak wymierania ludzi w przeszłości jest słabym dowodem na to, że w przyszłości nie będzie wymierania ludzi, z powodu uprzedzeń ocalałych i innych skutków antropicznych .

Socjobiolog EO Wilson argumentował, że: „Przyczyną tej krótkowzrocznej mgły, twierdzą biolodzy ewolucyjni, jest to, że była ona rzeczywiście korzystna przez wszystkie, z wyjątkiem kilku ostatnich tysiącleci z dwóch milionów lat istnienia rodzaju Homo… Premię położono na zwrócenie szczególnej uwagi na najbliższą przyszłość i wczesną reprodukcję i niewiele więcej. Katastrofy o skali, które zdarzają się tylko raz na kilka stuleci, zostały zapomniane lub przekształcone w mit ”.

Proponowane łagodzenie

Obrona wielowarstwowa

Dogłębna obrona to przydatne ramy do kategoryzowania środków ograniczania ryzyka na trzy poziomy obrony:

  1. Zapobieganie : Przede wszystkim zmniejszanie prawdopodobieństwa wystąpienia katastrofy. Przykład: Środki zapobiegające wybuchom nowych wysoce zakaźnych chorób.
  2. Odpowiedź : Zapobieganie skalowaniu katastrofy do poziomu globalnego. Przykład: Środki zapobiegające eskalacji wymiany nuklearnej na małą skalę w wojnę nuklearną na wielką skalę.
  3. Resilience : Zwiększanie odporności ludzkości (przed wyginięciem) w obliczu globalnych katastrof. Przykład: Środki mające na celu zwiększenie bezpieczeństwa żywnościowego podczas nuklearnej zimy.

Wyginięcie człowieka jest najbardziej prawdopodobne, gdy wszystkie trzy mechanizmy obronne są słabe, to znaczy „z powodu ryzyka, któremu prawdopodobnie nie zapobiegniemy, na które nie uda się zareagować i na które nie będziemy odporni”.

Bezprecedensowy charakter zagrożeń egzystencjalnych stanowi szczególne wyzwanie przy projektowaniu środków ograniczających ryzyko, ponieważ ludzkość nie będzie w stanie wyciągnąć wniosków z dotychczasowych wydarzeń.

Finansowanie

Niektórzy badacze twierdzą, że zarówno badania, jak i inne inicjatywy związane z ryzykiem egzystencjalnym są niedofinansowane. Nick Bostrom twierdzi, że przeprowadzono więcej badań na temat Star Treka , snowboardu lub chrząszczy gnojowych niż na temat zagrożeń egzystencjalnych. Porównania Bostroma zostały skrytykowane jako „aroganckie”. Od 2020 r. Konwencji o zakazie broni biologicznej dysponowała rocznym budżetem w wysokości 1,4 mln USD.

Planowanie przetrwania

Niektórzy uczeni proponują utworzenie na Ziemi jednej lub więcej samowystarczalnych, odległych, zamieszkałych na stałe osad, stworzonych specjalnie w celu przetrwania globalnej katastrofy. Ekonomista Robin Hanson twierdzi, że schronienie, w którym na stałe zamieszkałoby zaledwie 100 osób, znacznie zwiększyłoby szanse przetrwania ludzi podczas szeregu globalnych katastrof.

Przechowywanie żywności zostało zaproponowane na całym świecie, ale koszt pieniężny byłby wysoki. Co więcej, prawdopodobnie przyczyniłoby się to do obecnych milionów zgonów rocznie z powodu niedożywienia . W 2022 roku zespół kierowany przez Davida Denkenbergera porównał opłacalność elastycznej żywności z bezpieczeństwem sztucznej inteligencji ogólnej (AGI) i stwierdził „~ 98-99% pewności” dla wyższego marginalnego wpływu pracy nad sprężystą żywnością. Niektórzy survivalowcy oferują rekolekcje przetrwania z wieloletnimi zapasami żywności.

Svalbard Global Seed Vault jest zakopany 400 stóp (120 m) wewnątrz góry na wyspie w Arktyce . Został zaprojektowany, aby pomieścić 2,5 miliarda nasion z ponad 100 krajów jako środek ostrożności w celu zachowania światowych upraw. Otaczająca skała ma temperaturę -6 ° C (21 ° F) (stan na 2015 r.), Ale sklepienie jest utrzymywane w temperaturze -18 ° C (0 ° F) przez lodówki zasilane lokalnym węglem.

Mówiąc bardziej spekulatywnie, jeśli społeczeństwo będzie nadal funkcjonować, a biosfera nadal będzie nadawała się do zamieszkania, zapotrzebowanie kaloryczne obecnej populacji ludzkiej może teoretycznie zostać zaspokojone podczas przedłużonej nieobecności światła słonecznego, przy odpowiednim planowaniu z wyprzedzeniem. Domniemane rozwiązania obejmują uprawę grzybów na martwej biomasie roślinnej pozostałej po katastrofie, przekształcanie celulozy w cukier lub dostarczanie gazu ziemnego bakteriom trawiącym metan.

Globalne zagrożenia katastroficzne i globalne zarządzanie

Niewystarczające zarządzanie globalne stwarza ryzyko w sferze społecznej i politycznej, ale mechanizmy zarządzania rozwijają się wolniej niż zmiany technologiczne i społeczne. Istnieją obawy ze strony rządów, sektora prywatnego, a także ogółu społeczeństwa, co do braku mechanizmów zarządzania umożliwiających skuteczne radzenie sobie z ryzykiem, negocjowanie i rozstrzyganie między różnymi i sprzecznymi interesami. Jest to dodatkowo podkreślone przez zrozumienie wzajemnych powiązań globalnych ryzyk systemowych. W przypadku braku lub przewidywania globalnego zarządzania, rządy krajowe mogą działać indywidualnie, aby lepiej zrozumieć, złagodzić i przygotować się na globalne katastrofy.

Klimatyczne plany awaryjne

W 2018 roku Klub Rzymski wezwał do intensywniejszych działań w zakresie zmian klimatu i opublikował swój klimatyczny plan awaryjny, w którym proponuje dziesięć punktów działań mających na celu ograniczenie wzrostu średniej temperatury na świecie do 1,5 stopnia Celsjusza. Ponadto w 2019 roku Klub opublikował bardziej kompleksowy Planetarny Plan Awaryjny.

Istnieją dowody sugerujące, że zbiorowe angażowanie się w doświadczenia emocjonalne, które pojawiają się podczas rozważania podatności gatunku ludzkiego na zmiany klimatu, pozwala na adaptację tych doświadczeń. Gdy kolektywne angażowanie się i przetwarzanie doświadczeń emocjonalnych jest pomocne, może to prowadzić do wzrostu odporności, elastyczności psychologicznej, tolerancji doświadczeń emocjonalnych i zaangażowania społeczności.

Kolonizacja kosmosu

Kolonizacja kosmosu jest proponowaną alternatywą mającą na celu zwiększenie szans na przetrwanie scenariusza wyginięcia. Rozwiązania tego zakresu mogą wymagać inżynierii w megaskali .

Astrofizyk Stephen Hawking opowiadał się za kolonizacją innych planet w Układzie Słonecznym, gdy technologia wystarczająco się rozwinie, aby zwiększyć szanse przetrwania ludzi po wydarzeniach na całej planecie, takich jak globalna wojna termojądrowa.

Miliarder Elon Musk pisze, że ludzkość musi stać się gatunkiem wieloplanetarnym, aby uniknąć wyginięcia. Musk wykorzystuje swoją firmę SpaceX do opracowania technologii, która, jak ma nadzieję, zostanie wykorzystana w kolonizacji Marsa .

Poruszanie Ziemi

Za kilka miliardów lat Słońce rozszerzy się do postaci czerwonego olbrzyma , pochłaniając Ziemię. Można tego uniknąć, przesuwając Ziemię dalej od Słońca, utrzymując temperaturę w przybliżeniu na stałym poziomie. Można to osiągnąć, modyfikując orbity komet i asteroid, tak aby przelatywały blisko Ziemi w taki sposób, aby dodać energii do orbity Ziemi. Ponieważ ekspansja Słońca jest powolna, wystarczyłoby mniej więcej jedno takie spotkanie na 6000 lat. [ potrzebne źródło ]

Sceptycy i przeciwnicy

Psycholog Steven Pinker nazwał ryzyko egzystencjalne „bezużyteczną kategorią”, która może odwracać uwagę od rzeczywistych zagrożeń, takich jak zmiana klimatu i wojna nuklearna.

Organizacje

The Bulletin of the Atomic Scientists (założony w 1945 r.) jest jedną z najstarszych globalnych organizacji zajmujących się ryzykiem, założoną po tym, jak opinia publiczna została zaalarmowana potencjałem wojny atomowej w następstwie II wojny światowej. Bada zagrożenia związane z wojną nuklearną i energią oraz słynie z utrzymywania Zegara Zagłady ustanowionego w 1947 r. Foresight Institute (założony w 1986 r.) bada zagrożenia związane z nanotechnologią i jej korzyści. Była to jedna z pierwszych organizacji, która zbadała niezamierzone konsekwencje nieszkodliwej technologii, która zbłądziła na skalę globalną. Została założona przez K. Erica Drexlera który postulował „ szarą mazię ”.

Począwszy od roku 2000, rosnąca liczba naukowców, filozofów i miliarderów technologicznych tworzyła organizacje zajmujące się badaniem globalnych zagrożeń zarówno w środowisku akademickim, jak i poza nim.

Do niezależnych organizacji pozarządowych (NGO) należy Machine Intelligence Research Institute (założony w 2000 r.), którego celem jest zmniejszenie ryzyka katastrofy spowodowanej przez sztuczną inteligencję, z darczyńcami, w tym Peterem Thielem i Jedem McCalebem . Nuclear Threat Initiative (założona w 2001 r.) ma na celu zmniejszenie globalnych zagrożeń związanych z zagrożeniami nuklearnymi, biologicznymi i chemicznymi oraz powstrzymanie szkód po zdarzeniu. Utrzymuje indeks bezpieczeństwa materiałów jądrowych. Lifeboat Foundation (założona w 2009 r.) finansuje badania nad zapobieganiem katastrofie technologicznej. Większość pieniędzy na badania finansuje projekty na uniwersytetach. Globalny Instytut Ryzyka Katastroficznego (założony w 2011 r.) to bezpartyjny think tank non-profit z siedzibą w USA, założony przez Setha Bauma i Tony'ego Barretta. GCRI prowadzi badania i prace polityczne dotyczące różnych zagrożeń, w tym sztucznej inteligencji, wojny nuklearnej, zmian klimatycznych i uderzeń asteroid. Fundacja Global Challenges Foundation (założona w 2012 r.) z siedzibą w Sztokholmie, założona przez Laszlo Szombatfalvy'ego , publikuje coroczny raport na temat stanu globalnych zagrożeń. Instytut Przyszłości Życia (zał. 2014) działa na rzecz ograniczenia ekstremalnych zagrożeń na dużą skalę związanych z technologiami transformacyjnymi, a także steruje rozwojem i wykorzystaniem tych technologii z korzyścią dla każdego życia, poprzez udzielanie dotacji, rzecznictwo polityczne w Stanach Zjednoczonych, Unii Europejskiej i Organizacji Narodów Zjednoczonych, i zasięg edukacyjny. Elon Musk , Vitalik Buterin i Jaan Tallinn to jedni z największych darczyńców. Center on Long-Term Risk (zał. 2016), dawniej znany jako Foundational Research Institute, to brytyjska organizacja skupiająca się na zmniejszaniu ryzyka astronomicznego cierpienia ( s-ryzyka ) związanego z pojawiającymi się technologiami.

Do organizacji uniwersyteckich należy Instytut Przyszłości Ludzkości (założony w 2005 r.), który bada kwestie długoterminowej przyszłości ludzkości, w szczególności ryzyka egzystencjalnego. Została założona przez Nicka Bostroma i ma siedzibę na Uniwersytecie Oksfordzkim. Center for the Study of Existential Risk (założone w 2012 r.) to organizacja z siedzibą na Uniwersytecie Cambridge, która bada cztery główne zagrożenia technologiczne: sztuczną inteligencję, biotechnologię, globalne ocieplenie i działania wojenne. Wszystkie są ryzykiem spowodowanym przez człowieka, jak Huw Price wyjaśnił agencji prasowej AFP: „Wydaje się rozsądną prognozą, że kiedyś w tym lub następnym stuleciu inteligencja ucieknie od ograniczeń biologii”. Dodał, że kiedy to się stanie, „nie jesteśmy już najmądrzejszymi rzeczami w okolicy” i ryzykujemy, że znajdziemy się na łasce „maszyn, które nie są złośliwe, ale maszyn, których interesy nas nie obejmują”. Stephen Hawking był doradcą aktorskim. Sojusz Milenijny na rzecz Ludzkości i Biosfery to organizacja z siedzibą na Uniwersytecie Stanforda, skupiająca się na wielu zagadnieniach związanych z globalną katastrofą, zrzeszająca przedstawicieli środowisk akademickich zajmujących się naukami humanistycznymi. Założył ją m.in. Paul Ehrlich . Uniwersytet Stanforda ma również Centrum Bezpieczeństwa i Współpracy Międzynarodowej, które koncentruje się na współpracy politycznej w celu zmniejszenia globalnego ryzyka katastrof. Centrum Bezpieczeństwa i Nowych Technologii została założona w styczniu 2019 roku w Walsh School of Foreign Service w Georgetown i będzie koncentrować się na badaniach politycznych nad nowymi technologiami, z początkowym naciskiem na sztuczną inteligencję. Zgodnie z sugestią Open Philanthropy otrzymali grant w wysokości 55 mln USD od Good Ventures .

Inne grupy zajmujące się oceną ryzyka mają siedzibę w organizacjach rządowych lub są ich częścią. Światowa Organizacja Zdrowia (WHO) obejmuje oddział o nazwie Global Alert and Response (GAR), który monitoruje i reaguje na globalny kryzys epidemiczny. GAR pomaga państwom członkowskim w szkoleniu i koordynacji reagowania na epidemie. Agencja Stanów Zjednoczonych ds. Rozwoju Międzynarodowego (USAID) ma swój program Emerging Pandemic Threats Program, którego celem jest zapobieganie i powstrzymywanie naturalnie generowanych pandemii u ich źródła. Narodowe Laboratorium Lawrence'a Livermore'a ma oddział o nazwie Global Security Principal Directorate, który prowadzi badania w imieniu rządu w kwestiach takich jak bezpieczeństwo biologiczne i zwalczanie terroryzmu.

Zobacz też

Dalsza lektura

Linki zewnętrzne