Historia przypadkowości

Starożytny fresk graczy w kości w Pompejach

W historii starożytnej pojęcia przypadku i przypadkowości przeplatały się z pojęciem losu. Wiele starożytnych ludów rzucało kośćmi, aby określić los, co później przekształciło się w gry losowe . Jednocześnie większość starożytnych kultur stosowała różne metody wróżenia , próbując ominąć przypadkowość i przeznaczenie. Poza religią i grami losowymi , losowość została potwierdzona przy sortowaniu co najmniej od czasów starożytnej demokracji ateńskiej w formie kleroterionu .

Formalizacja prawdopodobieństwa i prawdopodobieństwa została prawdopodobnie najwcześniej dokonana przez Chińczyków 3000 lat temu. Filozofowie greccy obszernie dyskutowali o przypadkowości, ale tylko w formach nieilościowych. Dopiero w XVI wieku matematycy włoscy zaczęli formalizować szanse związane z różnymi grami losowymi. Wynalezienie nowoczesnego rachunku różniczkowego miało pozytywny wpływ na formalne badanie losowości. W XIX wieku do fizyki wprowadzono pojęcie entropii .

Na początku XX wieku nastąpił gwałtowny rozwój formalnej analizy losowości i wprowadzono matematyczne podstawy prawdopodobieństwa, co doprowadziło do jego aksjomatyzacji w 1933 r. Jednocześnie pojawienie się mechaniki kwantowej zmieniło naukowe spojrzenie na determinację . Od połowy do końca XX wieku idee algorytmicznej teorii informacji wprowadziły nowe wymiary w tej dziedzinie poprzez koncepcję losowości algorytmicznej .

Chociaż losowość była często postrzegana jako przeszkoda i uciążliwość przez wiele stuleci, w XX wieku informatycy zaczęli zdawać sobie sprawę, że celowe wprowadzenie losowości do obliczeń może być skutecznym narzędziem do projektowania lepszych algorytmów. W niektórych przypadkach takie losowe algorytmy są w stanie przewyższyć najlepsze metody deterministyczne.

Od starożytności do średniowiecza

Przedstawienie rzymskiej bogini Fortuny , która decydowała o losie, autorstwa Hansa Behama , 1541

Przedchrześcijańscy mieszkańcy basenu Morza Śródziemnego rzucali kośćmi, aby ustalić los, co później przekształciło się w gry losowe. Istnieją również dowody na gry losowe, w które grali starożytni Egipcjanie, Hindusi i Chińczycy, datowane na 2100 pne. Chińczycy używali kości przed Europejczykami i mają długą historię grania w gry losowe.

Ponad 3000 lat temu problemy związane z rzucaniem kilkoma monetami zostały omówione w I Ching , jednym z najstarszych chińskich tekstów matematycznych, który prawdopodobnie pochodzi z 1150 roku pne. Dwa główne elementy yin i yang zostały połączone w I Ching w różnych formach, tworząc permutacje orła i reszki typu HH, TH, HT itd. Wydaje się, że Chińczycy byli świadomi istnienia trójkąta Pascala na długo przed sformalizowaniem go przez Europejczyków w XVII wieku. Jednak filozofia zachodnia aż do XVI wieku koncentrowała się na pozamatematycznych aspektach przypadku i przypadkowości.

Rozwój koncepcji przypadku w całej historii był bardzo stopniowy. Historycy zastanawiali się, dlaczego postęp w dziedzinie przypadkowości był tak powolny, biorąc pod uwagę, że ludzie spotykali się z przypadkiem od starożytności. Deborah J. Bennett sugeruje, że zwykli ludzie mają nieodłączną trudność w zrozumieniu przypadkowości, chociaż koncepcja ta jest często traktowana jako oczywista i oczywista. Cytuje badania Kahnemana i Tversky'ego ; doszli do wniosku, że zasad statystycznych nie uczy się z codziennego doświadczenia, ponieważ ludzie nie zwracają uwagi na szczegóły niezbędne do zdobycia takiej wiedzy.

Filozofowie greccy byli pierwszymi zachodnimi myślicielami, którzy zajmowali się przypadkiem i losowością. Około 400 roku p.n.e. Demokryt przedstawił światopogląd rządzący się jednoznacznymi prawami porządku, a losowość uznał za pojęcie subiektywne, które wywodzi się jedynie z niemożności zrozumienia przez człowieka natury zdarzeń. Posłużył się przykładem dwóch mężczyzn, którzy w tym samym czasie wysyłali swoje sługi po wodę, aby mogli się spotkać. Słudzy, nieświadomi planu, uznali spotkanie za przypadkowe.

Arystoteles postrzegał przypadek i konieczność jako przeciwstawne siły. Twierdził, że natura ma bogate i stałe wzorce, które nie mogą być wynikiem samego przypadku, ale wzorce te nigdy nie wykazywały maszynowej jednolitości koniecznego determinizmu. Postrzegał przypadkowość jako autentyczną i powszechną część świata, ale podporządkowaną konieczności i porządkowi. Arystoteles podzielił wydarzenia na trzy typy: pewne zdarzenia, które mają miejsce w sposób konieczny; prawdopodobne zdarzenia, które mają miejsce w większości przypadków; i niepoznawalne wydarzenia, które dzieją się przez czysty przypadek. Uważał wynik gier losowych za niepoznawalny.

Około 300 rpne Epikur zaproponował koncepcję, że losowość istnieje sama z siebie, niezależnie od ludzkiej wiedzy. Wierzył, że w świecie atomowym atomy będą losowo skręcać wzdłuż swoich ścieżek, powodując losowość na wyższych poziomach.

Hotei , bóstwo fortuny obserwujące walkę kogutów w XVI-wiecznej japońskiej rycinie

Przez kilka następnych stuleci idea przypadku nadal splatała się z przeznaczeniem. Wróżenie było praktykowane w wielu kulturach, przy użyciu różnych metod. Chińczycy analizowali spękania pancerzy żółwi, a Niemcy, którzy według Tacyta mieli najwyższe poważanie dla losów i znaków, używali pasków kory. W Cesarstwie Rzymskim uosobieniem przypadku była bogini Fortuna . Rzymianie brali udział w grach losowych, aby symulować, co zdecydowałby Fortuna. W 49 roku p.n.e. Juliusz Cezar rzekomo zdecydował o swojej brzemiennej w skutki decyzji o przekroczeniu Rubikonu po rzucie kostką. [ niewiarygodne źródło? ]

Arystotelesowski podział zdarzeń na trzy klasy: pewne , prawdopodobne i niepoznawalne przyjęli filozofowie rzymscy, musieli go jednak pogodzić z deterministycznymi naukami chrześcijańskimi , w których nawet zdarzenia niepoznawalne dla człowieka uznawane były za z góry ustalone przez Boga. Około 960 biskup Wibold z Cambrai poprawnie wyliczył 56 różnych wyników (bez permutacji) gry trzema kośćmi. Przed 1350 rokiem w Europie nie znaleziono żadnej wzmianki o kartach do gry. Kościół głosił przeciwko graniu w karty, a gry karciane rozprzestrzeniały się znacznie wolniej niż gry oparte na kościach. Kościół chrześcijański wyraźnie zakazał wróżenie ; gdziekolwiek dotarło chrześcijaństwo, wróżbiarstwo straciło większość swojej dawnej mocy.

Przez wieki wielu chrześcijańskich uczonych zmagało się z konfliktem między wiarą w wolną wolę i wynikającą z niej przypadkowość a ideą, że Bóg wie wszystko, co się dzieje. Święci Augustyn i Akwinata próbowali znaleźć kompromis między wiedzą uprzednią a wolną wolą, ale Marcin Luter sprzeciwiał się przypadkowości i stanął na stanowisku, że wszechwiedza Boga czyni ludzkie działania nieuniknionymi i zdeterminowanymi. W XIII wieku Tomasz z Akwinu postrzegał przypadkowość nie jako wynik pojedynczej przyczyny, ale przypadkowego połączenia kilku przyczyn. Chociaż wierzył w istnienie przypadkowości, odrzucił ją jako wyjaśnienie ukierunkowania natury na cel, ponieważ widział w naturze zbyt wiele wzorców, aby mogły być uzyskane przez przypadek.

Grecy i Rzymianie nie zauważyli wielkości względnych częstotliwości gier losowych. Przez wieki w Europie dyskutowano o przypadku bez podstaw matematycznych i dopiero w XVI wieku włoscy matematycy zaczęli omawiać wyniki gier losowych jako proporcje. W swoim Liber de Lude Aleae z 1565 roku (podręcznik hazardzisty opublikowany po jego śmierci) Gerolamo Cardano napisał jeden z pierwszych formalnych traktatów analizujących szanse na wygraną w różnych grach.

XVII – XIX wiek

Około 1620 roku Galileusz napisał artykuł zatytułowany O odkryciu dotyczącym kości , w którym wykorzystano wczesny model probabilistyczny do odpowiedzi na określone pytania. W 1654 roku, pod wpływem Kawalera de Méré hazardem, Blaise Pascal korespondował z Pierre'em de Fermatem i położono podwaliny pod teorię prawdopodobieństwa. Zakład Pascala był znany z wczesnego użycia pojęcia nieskończoności i pierwszego formalnego zastosowania teorii decyzji . Wpływ na to miały prace Pascala i Fermata Prace Leibniza nad rachunkiem nieskończenie małym , co z kolei dostarczyło dalszego rozmachu formalnej analizie prawdopodobieństwa i przypadkowości.

Pierwszą znaną sugestię dotyczącą postrzegania losowości w kategoriach złożoności przedstawił Leibniz w niejasnym XVII-wiecznym dokumencie odkrytym po jego śmierci. Leibniz pytał, skąd można wiedzieć, czy zestaw punktów na kartce papieru został wybrany przypadkowo (np. przez rozpryskiwanie atramentu), czy nie. Biorąc pod uwagę, że dla dowolnego zbioru skończonych punktów zawsze istnieje równanie matematyczne, które może je opisać (np. za pomocą interpolacji Lagrange'a ), pytanie koncentruje się na sposobie matematycznego wyrażania punktów. Leibniz uważał punkty za przypadkowe, jeśli opisująca je funkcja musiała być niezwykle złożona. Trzy wieki później ta sama koncepcja została sformalizowana jako losowość algorytmiczna AN Kołmogorowa i Gregory'ego Chaitina jako minimalna długość programu komputerowego potrzebna do opisania skończonego łańcucha jako losowego.

The Doctrine of Szances , pierwszy podręcznik teorii prawdopodobieństwa, został opublikowany w 1718 roku, a później dziedzina ta nadal się rozwijała. Podejście na teorii częstotliwości zostało po raz pierwszy opracowane przez Roberta Ellisa i Johna Venna pod koniec XIX wieku.

Wróżka, Vouet , 1617

Podczas gdy matematyczna elita robiła postępy w zrozumieniu losowości od XVII do XIX wieku, ogół społeczeństwa nadal polegał na praktykach takich jak wróżenie w nadziei na ujarzmienie przypadku. Wróżby były przepowiadane na wiele sposobów zarówno na Wschodzie (gdzie wróżenie zostało później nazwane nałogiem), jak iw Europie przez Cyganów i innych. Angielskie praktyki, takie jak czytanie jaj wrzuconych do szklanki, zostały wyeksportowane do społeczności purytańskich w Ameryce Północnej.

Termin entropia , który jest obecnie kluczowym elementem w badaniu losowości, został ukuty przez Rudolfa Clausiusa w 1865 roku, kiedy badał silniki cieplne w kontekście drugiej zasady termodynamiki . Clausius był pierwszym, który stwierdził, że „entropia zawsze rośnie”.

Od czasów Newtona do około 1890 roku powszechnie uważano, że jeśli zna się stan początkowy układu z dużą dokładnością i jeśli wszystkie siły działające na układ można sformułować z równą dokładnością, to w zasadzie można by , aby przewidywać stan wszechświata na nieskończenie długi czas. Granice takich przewidywań w systemach fizycznych stały się jasne już w 1893 roku, kiedy Henri Poincaré wykazał, że w problemie trzech ciał w astronomii niewielkie zmiany stanu początkowego mogą skutkować dużymi zmianami trajektorii podczas numerycznego całkowania równań.

W XIX wieku, gdy teoria prawdopodobieństwa została sformalizowana i lepiej zrozumiana, zaczęto kwestionować stosunek do „losowości jako uciążliwości”. Goethe napisał:

Tkanka świata zbudowana jest z konieczności i przypadkowości; intelekt ludzi sytuuje się pomiędzy nimi i może ich kontrolować; rozważa konieczność i rację swego istnienia; wie, jak można zarządzać, kontrolować i wykorzystywać losowość.

  Słowa Goethego okazały się prorocze, gdy w XX wieku odkryto losowe algorytmy jako potężne narzędzia. Pod koniec XIX wieku model mechanicznego wszechświata Newtona zanikał, gdy Maxwell i Boltzmann badali statystyczny pogląd na zderzenia cząsteczek w gazach . Równanie Boltzmanna S = k log e W (wpisane na jego nagrobku) jako pierwsze powiązało entropię z logarytmami .

XX wiek

Quantum Cloud autorstwa Antony'ego Gormleya w Londynie została zaprojektowana przez komputer przy użyciu algorytmu błądzenia losowego .

W XX wieku pięć głównych interpretacji teorii prawdopodobieństwa (np. klasyczna , logiczna , częstotliwościowa , skłonnościowa i subiektywna ) zostało lepiej zrozumianych, omówiono je, porównano i zestawiono. W tym stuleciu opracowano znaczną liczbę obszarów zastosowań, od finansów po fizykę. W 1900 roku Louis Bachelier zastosował ruchy Browna do wyceny opcji na akcje , skutecznie zapoczątkowując dziedziny matematyki finansowej i procesy stochastyczne .

Émile Borel był jednym z pierwszych matematyków, który formalnie zajął się losowością w 1909 roku i wprowadził liczby normalne . W 1919 roku Richard von Mises podał pierwszą definicję losowości algorytmicznej poprzez niemożliwość istnienia systemu hazardowego . Rozwinął częstościową teorię losowości w kategoriach tego, co nazwał kolektywem , czyli przypadkowej sekwencji . Von Mises uważał przypadkowość zbiorowości za prawo empiryczne, ustanowione przez doświadczenie. Powiązał „nieporządek” lub przypadkowość kolektywu z brakiem powodzenia prób systemów hazardowych. To podejście doprowadziło go do zaproponowania definicji losowości, która została później udoskonalona i matematycznie rygorystyczna Alonzo Churcha za pomocą funkcji obliczeniowych w 1940 roku. Von Mises porównał zasadę niemożliwości systemu hazardowego do zasady zachowania energii , prawa, którego nie można udowodnić, ale sprawdziło się w wielokrotnych eksperymentach.

Von Mises nigdy całkowicie nie sformalizował swoich zasad wyboru podsekwencji, ale w swoim artykule z 1940 r. „O koncepcji sekwencji losowej” Alonzo Church zasugerował, że funkcje używane do ustawiania miejsc w formalizmie von Misesa są funkcjami obliczalnymi, a nie funkcjami arbitralnymi początkowych segmentów sekwencji, odwołując się do tezy Churcha-Turinga o skuteczności.

Pojawienie się mechaniki kwantowej na początku XX wieku i sformułowanie zasady nieoznaczoności Heisenberga w 1927 roku zakończyło newtonowski sposób myślenia fizyków dotyczący determinacji natury . W mechanice kwantowej nie ma nawet możliwości jednoczesnego uwzględnienia wszystkich obserwowalnych elementów w systemie jako zmiennych losowych , ponieważ wiele obserwowalnych elementów nie podlega komutacji.

Café Central , jedno z pierwszych miejsc spotkań kręgu wiedeńskiego

We wczesnych latach czterdziestych XX wieku podejście do prawdopodobieństwa oparte na teorii częstotliwości było dobrze akceptowane w kręgu wiedeńskim , ale w latach pięćdziesiątych Karl Popper zaproponował teorię skłonności . Biorąc pod uwagę, że podejście częstotliwościowe nie może dotyczyć „pojedynczego rzutu” monetą i może odnosić się tylko do dużych zespołów lub zbiorowości, prawdopodobieństwa pojedynczego przypadku były traktowane jako skłonności lub szanse. Koncepcja skłonności była również podyktowana chęcią radzenia sobie z ustawieniami prawdopodobieństwa pojedynczego przypadku w mechanice kwantowej, np. prawdopodobieństwem rozpadu określonego atomu w określonym momencie. Mówiąc bardziej ogólnie, podejście częstotliwościowe nie może zajmować się prawdopodobieństwem śmierci konkretnej osoby, biorąc pod uwagę, że śmierci tej osoby nie można powtórzyć wiele razy. Karol Popper powtórzył ten sam pogląd, co Arystoteles, uznając przypadkowość za podporządkowaną porządkowi, kiedy napisał, że „koncepcja przypadku nie jest sprzeczna z koncepcją prawa” w naturze, pod warunkiem, że weźmie się pod uwagę prawa przypadku.

Rozwój teorii informacji Claude'a Shannona w 1948 roku dał początek entropijnemu poglądowi na losowość. Z tego punktu widzenia losowość jest przeciwieństwem determinizmu w procesie stochastycznym . Dlatego jeśli system stochastyczny ma entropię zerową, nie ma losowości, a każdy wzrost entropii zwiększa losowość. Sformułowanie Shannona jest domyślne dla XIX-wiecznego sformułowania entropii Boltzmanna w przypadku, gdy wszystkie prawdopodobieństwa są równe . Entropia jest obecnie szeroko stosowana w różnych dziedzinach nauki, od termodynamiki po chemia kwantowa .

Martingales do badania strategii losowych i zakładów zostały wprowadzone przez Paula Lévy'ego w latach trzydziestych XX wieku i sformalizowane przez Josepha L. Dooba w latach pięćdziesiątych. Zastosowanie hipotezy błądzenia losowego w teorii finansów zostało po raz pierwszy zaproponowane przez Maurice'a Kendalla w 1953 r. Później promowali ją Eugene Fama i Burton Malkiel .

Losowe struny zostały po raz pierwszy zbadane w latach 60. XX wieku przez AN Kołmogorowa (który dostarczył pierwszej aksjomatycznej definicji teorii prawdopodobieństwa w 1933 r.), Chaitina i Martina-Löfa . Algorytmiczna losowość ciągu znaków została zdefiniowana jako minimalna wielkość programu (np. w bitach) wykonywanego na uniwersalnym komputerze , który zwraca ciąg znaków. Liczba Omega Chaitina powiązana później z losowością i prawdopodobieństwem zatrzymania programów.

W 1964 roku Benoît Mandelbrot zasugerował, że większość modeli statystycznych zbliżała się tylko do pierwszego etapu radzenia sobie z indeterminizmem i ignorowała wiele aspektów turbulencji w świecie rzeczywistym. W swoim 1997 roku zdefiniował siedem stanów losowości , od „łagodnej do dzikiej”, przy czym tradycyjna losowość znajdowała się na łagodnym końcu skali.

w XX wieku nadal polegano na innych metodach radzenia sobie z przypadkiem, takich jak wróżenie i astrologia . Rząd Mjanmy podobno kształtował XX-wieczną politykę gospodarczą w oparciu o wróżby i planował przeniesienie stolicy kraju na podstawie rad astrologów. Szef sztabu Białego Domu Donald Regan skrytykował zaangażowanie astrologa Joan Quigley w decyzje podejmowane za prezydentury Ronalda Reagana w 1980. Quigley twierdzi, że był astrologiem Białego Domu przez siedem lat.

W XX wieku lepiej zrozumiano ograniczenia w radzeniu sobie z przypadkowością. Najbardziej znanym przykładem zarówno teoretycznych, jak i operacyjnych ograniczeń przewidywalności jest prognozowanie pogody, po prostu dlatego, że modele są stosowane w terenie od lat pięćdziesiątych XX wieku. Prognozy pogody i klimatu są z konieczności niepewne. Obserwacje pogody i klimatu są niepewne i niekompletne, a modele, do których wprowadzane są dane, są niepewne. W 1961 roku Edward Lorenz zauważył, że bardzo niewielka zmiana początkowych danych przesłanych do programu komputerowego do symulacji pogody może skutkować zupełnie innym scenariuszem pogody. To później stało się znane jako efekt motyla , często sparafrazowany jako pytanie: „ Czy trzepot skrzydeł motyla w Brazylii wywołuje tornado w Teksasie? ”. Kluczowym przykładem poważnych praktycznych ograniczeń przewidywalności jest geologia, gdzie możliwość przewidywania trzęsień ziemi na poziomie indywidualnym lub statystycznym pozostaje odległą perspektywą.

Pod koniec lat 70. i na początku lat 80. informatycy zaczęli zdawać sobie sprawę, że celowe wprowadzenie losowości do obliczeń może być skutecznym narzędziem do projektowania lepszych algorytmów. W niektórych przypadkach takie losowe algorytmy przewyższają najlepsze metody deterministyczne.

Notatki

  •   Adkins, Lesley (lipiec 1998). Podręcznik życia w starożytnym Rzymie . Oxford University Press. ISBN 0-19-512332-8 .
  •   Beltrami, Edward J. (1999). Co to jest losowe ?: szansa i porządek w matematyce i życiu . Skoczek. ISBN 0-387-98737-1 .
  •   Chaitin, Gregory J. (2007). MYŚLĄC O GÖDLU I TURINGU: Eseje o złożoności, 1970-2007 . Światowe Wydawnictwo Naukowe. ISBN 978-981-270-896-0 .
  •   Cropper, William H. (2004). Wielcy fizycy: życie i czasy czołowych fizyków od Galileusza do Hawkinga . Oxford University Press. ISBN 9780195173246 .
  •   Crowe, David M. (styczeń 1996). Historia Cyganów Europy Wschodniej i Rosji . Palgrave'a Macmillana. ISBN 0-312-12946-7 .
  •   Daintith, Jan; Gjertsen, Derek (1999). Słownik naukowców . Oxford University Press. ISBN 0-19-280086-8 .
  • David, HA.; Edwards, AWF (grudzień 2001).   Odczyty z adnotacjami w historii statystyki . Skoczek. ISBN 9780387988443 .
  •   Znalezienie, John E.; Thackeray, Frank W. (2000). Wydarzenia, które zmieniły Amerykę w XVII wieku . Greenwood. ISBN 0-313-29083-0 .
  • Graham, E. (1909). Wróżenie . Encyklopedia katolicka . Źródło 15 kwietnia 2022 r .
  • Grattan-Guinness, Ivor (sierpień 2003). Companion Encyklopedia historii i filozofii . Tom. 2. Wydawnictwo Uniwersytetu Johnsa Hopkinsa. ISBN   9780801873973 .
  •   Hald, Anders (wrzesień 2003). Historia prawdopodobieństwa i statystyki oraz ich zastosowania przed 1750 rokiem . Wiley-Interscience. ISBN 0-471-47129-1 .
  • Hromkovič, Juraj (grudzień 2005).   Projektowanie i analiza algorytmów losowych: wprowadzenie do paradygmatów projektowania . Skoczek. ISBN 3-540-23949-9 .
  •   Jenkins, John Michael (2004). Encyklopedia wypoczynku i rekreacji na świeżym powietrzu . Routledge'a. ISBN 0-415-25226-1 .
  •   Kendall, MG; Hill, AB (1953). „Analiza ekonomicznych szeregów czasowych – część I: ceny”. Dziennik Królewskiego Towarzystwa Statystycznego . Seria A (ogólna) . 116 (1): 11–34. doi : 10.2307/2980947 . JSTOR 2980947 .
  • Keuth, Herbert (grudzień 2004).   Filozofia Karla Poppera . Wydawnictwo Uniwersytetu Cambridge. ISBN 9780521548304 .
  •   Kramer, Edna Ernestine (1983). Natura i rozwój współczesnej matematyki . Wydawnictwo Uniwersytetu Princeton. ISBN 9780691023724 .
  •   Lach, Donald Frederick; Van Kley, Edwin J. (grudzień 1998). Azja w tworzeniu Europy, tom III: stulecie postępu. Księga 4: Azja Wschodnia . Tom. 3. Wydawnictwo Uniwersytetu Chicagowskiego. ISBN 0-226-46769-4 .
  • Lipkowitz, Kenneth B. (grudzień 2007).   Recenzje z chemii obliczeniowej (tom 23, wyd.). Wiley-VCH. ISBN 978-0-470-08201-0 .
  • Mathis, Nancy (marzec 2007). Ostrzeżenie przed burzą: historia zabójczego tornada   . Kamień probierczy. ISBN 978-0-7432-8053-2 .
  •   McGrath, Kimberley A.; Traverspage, Bridget (grudzień 1999). Świat odkryć naukowych . Nauka Gale'a / Cengage'a. ISBN 0-7876-2760-7 .
  •   Mirowski, Filip (2004). Ekonomia nauki bez wysiłku? . Książki prasowe Uniwersytetu Duke'a. ISBN 0-8223-3322-8 .
  •   Pemberton, William E. (grudzień 1997). Wyjdź z honorem: życie i prezydentura Ronalda Reagana (prawica w Ameryce) . Routledge'a. ISBN 0-7656-0095-1 .
  • Popper, Karl Raimund (1957). „Interpretacja skłonności rachunku prawdopodobieństwa i teorii kwantowej”. W Stephan Körner (red.). Obserwacja i interpretacja . Butterworthy. s. 65–70.
  • Priestley, Józef (1804). Ogólna historia Kościoła chrześcijańskiego, tom. 2 z 2: Do upadku zachodniego imperium . Tom. 2.
  • Quigley, Joan Ceciel (1 marca 1990). Co mówi Joan ?: Moje siedem lat jako astrolog Białego Domu dla Nancy i Ronalda Reagana . Grupa Wydawnicza Karol. Nowy Jork, NY.
  •   Reith, Gerda (2000). on Age of Chance: Gambling in Western Culture (Routledge Studies in Social and Political Thought) . Routledge'a. ISBN 0-415-17997-1 .
  • Marynarz, Barrett (16 maja 1988). Wielkie nieba! . Czasopismo . Źródło 17 kwietnia 2022 .
  •   Zambrini, Jean-Claude; Chung, Kai Lai (2003). Wprowadzenie do czasu losowego i losowości kwantowej . World Scientific Publishing Comp. ISBN 981-238-415-4 .

Zobacz też

Chaparro, Luis F. (kwiecień 2020). „Krótka historia losowości” .

Sheynin, OB (1991). „Pojęcie losowości od Arystotelesa do Poincarégo” (PDF) . Mathématiques et sciences humanes . 114 : 41–55.