Słowniczek sztucznej inteligencji
Ten glosariusz sztucznej inteligencji to lista definicji terminów i pojęć związanych z badaniem sztucznej inteligencji , jej subdyscyplin i dziedzin pokrewnych. Powiązane glosariusze obejmują Słownik informatyki , Słownik robotyki i Słownik widzenia maszynowego .
Część serii o |
sztucznej inteligencji |
---|
A
- programowanie w logice abdukcyjnej (ALP)
- Struktura reprezentacji wiedzy wysokiego poziomu, której można używać do deklaratywnego rozwiązywania problemów w oparciu o rozumowanie abdukcyjne . Rozszerza normalne programowanie logiczne , umożliwiając niepełne zdefiniowanie niektórych predykatów, zadeklarowanych jako predykaty abducible.
- rozumowanie abdukcyjne
- Forma logicznego wnioskowania , która zaczyna się od obserwacji lub zestawu obserwacji, ma na celu znalezienie najprostszego i najbardziej prawdopodobnego wyjaśnienia. Proces ten, w przeciwieństwie do wnioskowania dedukcyjnego , prowadzi do wiarygodnego wniosku, ale go nie weryfikuje pozytywnie . wnioskowanie abdukcyjne lub retrodukcja
- abstrakcyjny typ danych
- Model matematyczny dla typów danych , w którym typ danych jest definiowany przez jego zachowanie ( semantykę ) z punktu widzenia użytkownika danych, w szczególności w zakresie możliwych wartości, możliwych operacji na danych tego typu oraz zachowania się tych operacji.
- abstrakcja
- Proces usuwania fizycznych, przestrzennych lub czasowych szczegółów lub atrybutów w badaniu obiektów lub systemów w celu dokładniejszego przyjrzenia się innym interesującym szczegółom
- przyspieszanie zmian
- Postrzegany wzrost tempa zmian technologicznych na przestrzeni dziejów, co może sugerować szybsze i głębszych zmian w przyszłości i mogą, ale nie muszą, towarzyszyć im równie głębokie zmiany społeczne i kulturowe.
- język akcji
- Język służący do określania systemów przejść między stanami i jest powszechnie używany do tworzenia formalnych modeli skutków działań na świat. Języki akcji są powszechnie używane w sztucznej inteligencji i robotyki , gdzie opisują, w jaki sposób działania wpływają na stany systemów w czasie i mogą być wykorzystywane do automatycznego planowania .
- uczenie się modelu działania
- Obszar uczenia maszynowego zajmujący się tworzeniem i modyfikacją wiedzy agenta oprogramowania o efektach i warunkach wstępnych działań, które mogą być wykonywane w jego środowisku. Wiedza ta jest zwykle reprezentowana w języku opisu działań opartym na logice i wykorzystywana jako dane wejściowe dla automatycznych planistów.
- wybór akcji
- Sposób scharakteryzowania najbardziej podstawowego problemu systemów inteligentnych: co dalej. W sztucznej inteligencji i kognitywistyce obliczeniowej „problem wyboru akcji” jest zwykle kojarzony z inteligentnymi agentami i animatami - sztucznymi systemami, które wykazują złożone zachowanie w środowisku agenta.
- funkcja aktywacji
- W sztucznych sieciach neuronowych funkcja aktywacji węzła definiuje wyjście tego węzła przy danych wejściowych lub zbiorze danych wejściowych.
- algorytm adaptacyjny
- Algorytm, który zmienia swoje zachowanie w momencie uruchomienia, w oparciu o a priori określony mechanizm lub kryterium nagrody.
- adaptacyjny neurorozmyty system wnioskowania (ANFIS)
- Rodzaj sztucznej sieci neuronowej opartej na rozmytym systemie wnioskowania Takagi-Sugeno . Technika została opracowana na początku lat 90. Ponieważ integruje zarówno sieci neuronowe, jak i logiki rozmytej , ma potencjał, aby uchwycić zalety obu w jednym środowisku . Jego system wnioskowania odpowiada zbiorowi rozmytych reguł JEŻELI – TO , które mają zdolność uczenia się w celu przybliżenia funkcji nieliniowych. Stąd ANFIS jest uważany za uniwersalny estymator. Do efektywniejszego i optymalnego wykorzystania ANFIS można wykorzystać najlepsze parametry uzyskane za pomocą algorytmu genetycznego.
- dopuszczalna heurystyka
- W informatyce , a szczególnie w algorytmach związanych z wyszukiwaniem ścieżek , funkcja heurystyczna jest uważana za dopuszczalną, jeśli nigdy nie przeszacowuje kosztu osiągnięcia celu, tj. szacowany przez nią koszt osiągnięcia celu nie jest wyższy niż najniższy możliwy koszt z bieżący punkt na ścieżce.
- przetwarzanie afektywne
- Badanie i rozwój systemów i urządzeń, które mogą rozpoznawać, interpretować, przetwarzać i symulować wpływ człowieka . Obliczenia afektywne to interdyscyplinarna dziedzina obejmująca informatykę , psychologię i kognitywistykę .
- architektura agentów
- Plan agentów programowych i inteligentnych systemów kontroli, przedstawiający rozmieszczenie komponentów . Architektury realizowane przez inteligentnych agentów są określane jako architektury kognitywne .
- Akcelerator AI
- Klasa mikroprocesora lub systemu komputerowego zaprojektowana jako akcelerator sprzętowy dla aplikacji sztucznej inteligencji , zwłaszcza sztucznych sieci neuronowych , widzenia maszynowego i uczenia maszynowego .
- AI-kompletny
- W dziedzinie sztucznej inteligencji najtrudniejsze problemy są nieformalnie określane jako AI-kompletne lub AI-trudne, co sugeruje, że trudność tych problemów obliczeniowych jest równoważna trudności rozwiązania głównego problemu sztucznej inteligencji - uczynienia komputerów tak inteligentnymi jak ludzie, lub silna AI . Nazywanie problemu AI-complete odzwierciedla postawę, że nie można go rozwiązać za pomocą prostego, określonego algorytmu.
- algorytm
- Jednoznaczna specyfikacja sposobu rozwiązywania klasy problemów. Algorytmy mogą wykonywać obliczenia, przetwarzanie danych i zautomatyzowane zadania wnioskowania.
- efektywność algorytmiczna
- Właściwość algorytmu związana z liczbą zasobów obliczeniowych używanych przez algorytm. Algorytm musi zostać przeanalizowany , aby określić wykorzystanie zasobów, a efektywność algorytmu można zmierzyć na podstawie wykorzystania różnych zasobów. Efektywność algorytmiczna może być traktowana jako analogiczna do produktywności inżynierskiej dla powtarzalnego lub ciągłego procesu.
- prawdopodobieństwo algorytmiczne
- W algorytmicznej teorii informacji , prawdopodobieństwo algorytmiczne, znane również jako prawdopodobieństwo Solomonowa, jest matematyczną metodą przypisywania wcześniejszego prawdopodobieństwa danej obserwacji. Został wynaleziony przez Raya Solomonoffa w latach 60.
- AlphaGo
- Program komputerowy odtwarzający grę planszową Go . Został opracowany przez Google DeepMind firmy Alphabet Inc. w Londynie. AlphaGo ma kilka wersji, w tym AlphaGo Zero , AlphaGo Master , AlphaGo Lee itd. W październiku 2015 r. AlphaGo stał się pierwszym komputerowym programem Go , który pokonał profesjonalnego gracza Go bez utrudnień na pełnowymiarowej planszy 19 × 19.
- inteligencja otoczenia (AmI)
- Środowiska elektroniczne, które są wrażliwe i reagują na obecność ludzi.
- analiza algorytmów
- Określenie złożoności obliczeniowej algorytmów, czyli ilości czasu, pamięci i/lub innych zasobów niezbędnych do ich wykonania . Zwykle wiąże się to z określeniem funkcji który wiąże długość danych wejściowych algorytmu z liczbą kroków, które wykonuje (jego złożoność czasowa ) lub liczbą używanych przez niego miejsc przechowywania (jego złożoność przestrzenna ).
- analityka
- Odkrywanie, interpretacja i przekazywanie znaczących wzorców w danych.
- programowanie zestawu odpowiedzi (ASP)
- Forma programowania deklaratywnego ukierunkowana na trudne (głównie NP-trudne ) problemy wyszukiwania . Opiera się na programowania w logice stabilnego modelu (zbioru odpowiedzi). . W ASP problemy wyszukiwania sprowadzają się do obliczania stabilnych modeli, a rozwiązujące zestawy odpowiedzi — programy do generowania stabilnych modeli — są używane do wyszukiwania.
- algorytm w każdej chwili
- Algorytm , który może zwrócić prawidłowe rozwiązanie problemu, nawet jeśli zostanie przerwany przed jego zakończeniem .
- Application Programming Interface (API)
- Zestaw definicji podprogramów, protokołów komunikacyjnych i narzędzi do tworzenia oprogramowania. Ogólnie rzecz biorąc, jest to zestaw jasno określonych metod komunikacji pomiędzy różnymi komponentami. Dobre API ułatwia tworzenie aplikacji program komputerowy poprzez dostarczenie wszystkich elementów konstrukcyjnych, które następnie programista składa w całość . Interfejs API może dotyczyć systemu internetowego, systemu operacyjnego , systemu bazy danych , sprzętu komputerowego lub biblioteki oprogramowania .
- przybliżone dopasowanie ciągów
- Technika znajdowania ciągów pasujących do wzorca w przybliżeniu (a nie dokładnie). Problem przybliżonego dopasowania ciągów jest zwykle podzielony na dwa podproblemy: znalezienie przybliżonych podłańcuchów wewnątrz danego ciągu i znalezienie ciągów słownikowych, które w przybliżeniu pasują do wzorca.
- błąd przybliżenia
- Rozbieżność między dokładną wartością a jej przybliżeniem.
- ramy argumentacji
- Sposób radzenia sobie z spornymi informacjami i wyciągania z nich wniosków. W ramach abstrakcyjnej argumentacji informacje podstawowe to zestaw abstrakcyjnych argumentów, które na przykład reprezentują dane lub twierdzenie. Konflikty między argumentami są reprezentowane przez relację binarną na zbiorze argumentów. Mówiąc konkretnie, reprezentujesz strukturę argumentacji z ukierunkowanym wykresem , w którym węzły są argumentami, a strzałki reprezentują relację ataku. Istnieją pewne rozszerzenia struktury Dunga, takie jak ramy argumentacji opartej na logice lub ramy argumentacji opartej na wartościach.
- sztuczna inteligencja ogólna (AGI)
- sztuczny układ odpornościowy (AIS)
- Klasa inteligentnych obliczeniowo, opartych na regułach systemów uczenia maszynowego inspirowanych zasadami i procesami układu odpornościowego kręgowców . Algorytmy są zazwyczaj wzorowane na charakterystyce uczenia się i pamięci układu odpornościowego do wykorzystania w rozwiązywaniu problemów .
- sztuczna inteligencja (AI)
- Każda inteligencja wykazywana przez maszyny , w przeciwieństwie do naturalnej inteligencji wykazywanej przez ludzi i inne zwierzęta. W informatyce badania AI definiuje się jako badanie „ inteligentnych agentów ”: dowolnego urządzenia, które postrzega swoje otoczenie i podejmuje działania, które maksymalizują jego szanse na pomyślne osiągnięcie swoich celów. Potocznie termin „sztuczna inteligencja” jest stosowany, gdy maszyna naśladuje funkcje „poznawcze”, które ludzie kojarzą z innymi ludzkimi umysłami , takie jak „uczenie się” i „rozwiązywanie problemów”.
- Sztuczna inteligencja Markup Language
- Dialekt XML do tworzenia agentów oprogramowania w języku naturalnym .
- sztuczna sieć neuronowa (SSN)
- Dowolny system komputerowy inspirowany w pewnym stopniu biologicznymi sieciami neuronowymi , z których składają się mózgi zwierząt .
- Association for the Advancement of Artificial Intelligence (AAAI)
- Międzynarodowe stowarzyszenie naukowe non-profit zajmujące się promowaniem badań nad sztuczną inteligencją i odpowiedzialnym jej wykorzystaniem . AAAI ma również na celu zwiększenie publicznego zrozumienia sztucznej inteligencji (AI), poprawę nauczania i szkolenia praktyków AI oraz zapewnienie wskazówek dla planistów i sponsorów badań dotyczących znaczenia i potencjału obecnego rozwoju AI i przyszłych kierunków.
- asymptotyczna złożoność obliczeniowa
- W teorii złożoności obliczeniowej asymptotyczna złożoność obliczeniowa to wykorzystanie analizy asymptotycznej do szacowania złożoności obliczeniowej algorytmów i problemów obliczeniowych , często związane z użyciem notacji dużego O.
- rachunek atrybucyjny
- System logiki i reprezentacji zdefiniowany przez Ryszarda S. Michalskiego . Łączy w sobie elementy logiki predykatów , rachunku zdań i logika wielowartościowa . Rachunek atrybucyjny zapewnia formalny język indukcji naturalnej , indukcyjnego procesu uczenia się, którego wyniki są w formach naturalnych dla ludzi.
- Rzeczywistość rozszerzona (AR)
- Interaktywne doświadczenie środowiska świata rzeczywistego, w którym obiekty znajdujące się w świecie rzeczywistym są „wzmacniane” przez generowane komputerowo informacje percepcyjne, czasem w wielu modalnościach sensorycznych, w tym wizualnych , słuchowych , dotykowych , somatosensorycznych i węchowych .
- teoria automatów
- Badanie abstrakcyjnych maszyn i automatów , a także problemów obliczeniowych , które można za ich pomocą rozwiązać. Jest to teoria w informatyka teoretyczna i matematyka dyskretna (przedmiot studiów zarówno na kierunku matematyka , jak i informatyka ).
- automatyczne uczenie maszynowe (AutoML)
- Dziedzina uczenia maszynowego , której celem jest automatyczne konfigurowanie systemu uczenia maszynowego w celu maksymalizacji jego wydajności (np. dokładność klasyfikacji).
- automatyczne planowanie i harmonogramowanie
- Gałąź sztucznej inteligencji , która dotyczy realizacji strategii lub sekwencji działań, zazwyczaj do wykonania przez inteligentnych agentów , autonomiczne roboty i pojazdy bezzałogowe . W przeciwieństwie do klasycznych sterowania i klasyfikacji , rozwiązania są złożone i muszą być odkrywane i optymalizowane w przestrzeni wielowymiarowej. Planowanie jest również związane z teorią decyzji .
- rozumowanie automatyczne
- Dziedzina informatyki i logika matematyczna poświęcona zrozumieniu różnych aspektów rozumowania . Badanie zautomatyzowanego rozumowania pomaga tworzyć programy komputerowe , które pozwalają komputerom rozumować całkowicie lub prawie całkowicie automatycznie. Chociaż automatyczne rozumowanie jest uważane za poddziedzinę sztucznej inteligencji , ma również powiązania z informatyką teoretyczną , a nawet filozofią .
- przetwarzanie autonomiczne (AC)
- Samozarządzające się cechy przetwarzania rozproszonego zasoby, dostosowując się do nieprzewidywalnych zmian, jednocześnie ukrywając wewnętrzną złożoność przed operatorami i użytkownikami. Inicjatywa ta, zapoczątkowana przez IBM w 2001 roku, ostatecznie miała na celu opracowanie systemów komputerowych zdolnych do samodzielnego zarządzania, przezwyciężenie szybko rosnącej złożoności zarządzania systemami komputerowymi oraz zmniejszenie bariery, jaką złożoność stanowi dla dalszego rozwoju.
- samochód autonomiczny
- Pojazd zdolny do wyczuwania otoczenia i poruszania się przy niewielkim lub zerowym udziale człowieka .
- autonomiczny robot
- Robot , który wykonuje zachowania lub zadania z dużym stopniem autonomii . Autonomiczna robotyka jest zwykle uważana za poddziedzinę sztucznej inteligencji , robotyki i inżynierii informacyjnej .
B
- propagacja wsteczna
- Metoda używana w sztucznych sieciach neuronowych do obliczania gradientu, który jest potrzebny do obliczenia wag stosowanych w sieci. Propagacja wsteczna jest skrótem oznaczającym „wsteczną propagację błędów”, ponieważ błąd jest obliczany na wyjściu i rozprowadzany wstecz w warstwach sieci. Jest powszechnie używany do uczenia głębokich sieci neuronowych , termin odnoszący się do sieci neuronowych z więcej niż jedną ukrytą warstwą.
- wsteczna propagacja w czasie (BPTT)
- Oparta na gradiencie technika do trenowania pewnych typów rekurencyjne sieci neuronowe . Może być używany do uczenia sieci Elmana . Algorytm został niezależnie wyprowadzony przez wielu badaczy
- wstecznego łańcucha
- Metoda wnioskowania określana potocznie jako działanie wstecz od celu. Jest używany w zautomatyzowanych dowodach twierdzeń , silnikach wnioskowania , asystentach dowodowych i innych aplikacjach sztucznej inteligencji .
- model worka słów
- Upraszczająca reprezentacja używana w przetwarzaniu języka naturalnego i wyszukiwaniu informacji (IR). W tym modelu tekst (taki jak zdanie lub dokument) jest reprezentowany jako worek (multiset) swoich słów, pomijając gramatykę, a nawet szyk wyrazów, ale zachowując wielość . Model worka słów został również wykorzystany do widzenia komputerowego . Model worka słów jest powszechnie stosowany w metodach klasyfikacji dokumentów , w których (częstotliwość) występowania każdego słowa jest wykorzystywana jako cecha do szkolenia klasyfikatora .
- model worka słów w wizji komputerowej
- W wizji komputerowej model worka słów (model BoW) można zastosować do klasyfikacji obrazów , traktując cechy obrazu jako słowa. W klasyfikacji dokumentów zbiór słów jest rzadkim wektorem liczby wystąpień słów; to znaczy rzadki histogram nad słownictwem. W wizji komputerowej worek słów wizualnych jest wektorem liczby wystąpień słownictwa lokalnych cech obrazu.
- normalizacja wsadowa
- Technika poprawy wydajności i stabilności sztucznych sieci neuronowych . Jest to technika dostarczania dowolnej warstwie w sieci neuronowej danych wejściowych o zerowej wariancji średniej/jednostkowej. Normalizacja wsadowa została wprowadzona w artykule z 2015 roku. Służy do normalizacji warstwy wejściowej poprzez dostosowanie i skalowanie aktywacji.
- Programowanie bayesowskie
- Formalizm i metodologia mająca technikę określania modeli probabilistycznych i rozwiązywania problemów, gdy dostępnych jest mniej informacji niż jest to konieczne.
- algorytm pszczół
- Algorytm wyszukiwania oparty na populacji który został opracowany przez Pham, Ghanbarzadeh i et al. w 2005 r. Naśladuje zachowanie kolonii pszczół miodnych w poszukiwaniu pożywienia. Algorytm w swojej podstawowej wersji wykonuje swego rodzaju przeszukiwanie sąsiedztwa połączone z przeszukiwaniem globalnym i może być stosowany zarówno do optymalizacji kombinatorycznej , jak i optymalizacji ciągłej . Jedynym warunkiem zastosowania algorytmu pszczół jest zdefiniowanie pewnej miary odległości między rozwiązaniami. Skuteczność i specyficzne możliwości algorytmu pszczół zostały udowodnione w wielu badaniach.
- informatyka behawioralna (BI)
- Informatyka zachowań w celu uzyskania inteligencji behawioralnej i wglądu w zachowanie.
- drzewo zachowań (BT)
- Matematyczny model wykonania planu stosowany w informatyce , robotyce , systemach sterowania i grach wideo . Opisują przełączanie między skończonym zestawem zadań w sposób modułowy. Ich siła bierze się z umiejętności tworzenia bardzo złożonych zadań składających się z prostych zadań, bez martwienia się o to, jak proste zadania zostaną zrealizowane. BT wykazują pewne podobieństwa do hierarchiczne maszyny stanowe z tą kluczową różnicą, że głównym budulcem zachowania jest zadanie, a nie stan. Łatwość zrozumienia przez człowieka sprawia, że BT są mniej podatne na błędy i bardzo popularne w społeczności twórców gier. Wykazano, że BT uogólniają kilka innych architektur sterowania.
- model oprogramowania wiara-pragnienie-intencja (BDI)
- Model oprogramowania opracowany do programowania inteligentnych agentów . Powierzchownie charakteryzuje się realizacją przekonań , pragnień i intencji agenta , faktycznie wykorzystuje te koncepcje do rozwiązania określonego problemu w programowaniu agentów. Zasadniczo zapewnia mechanizm oddzielania czynności wyboru planu (z biblioteki planów lub zewnętrznej aplikacji do planowania) od wykonywania aktualnie aktywnych planów. W konsekwencji agenci BDI są w stanie zrównoważyć czas poświęcony na rozważanie planów (wybór, co zrobić) i wykonanie tych planów (zrobienie tego). Trzecia czynność, tworzenie planów w pierwszej kolejności (planowanie), nie wchodzi w zakres modelu i jest pozostawiona projektantowi systemu i programiście.
- kompromis między odchyleniami a wariancją
- W statystykach i uczenie maszynowe , kompromis między odchyleniem a wariancją jest właściwością zestawu modeli predykcyjnych, w których modele z niższym obciążeniem w szacowaniu parametrów mają wyższą wariancję oszacowań parametrów w próbkach i odwrotnie.
- duże zbiory danych
- Termin używany w odniesieniu do zbiorów danych , które są zbyt duże lub złożone, aby tradycyjne aplikacje do przetwarzania danych mogły je odpowiednio obsłużyć. Dane z wieloma obserwacjami (wierszami) oferują większą moc statystyczną , podczas gdy dane o większej złożoności (więcej atrybutów lub kolumn) mogą prowadzić do wyższego wskaźnika fałszywych odkryć .
- Notacja dużego O Notacja
- matematyczna opisująca ograniczające zachowanie funkcji , gdy argument dąży do określonej wartości lub nieskończoności. Jest członkiem rodziny notacji wymyślonych przez Paula Bachmanna , Edmunda Landaua i innych, zwanych wspólnie notacją Bachmanna-Landaua lub notacją asymptotyczną.
- binarne
- drzewo Drzewna struktura danych w którym każdy węzeł ma co najwyżej dwoje dzieci , które są określane jako lewe dziecko i prawe dziecko . Rekurencyjna definicja wykorzystująca tylko pojęcia teorii mnogości jest taka, że (niepuste) drzewo binarne jest krotką ( L , S , R ), gdzie L i R to drzewa binarne lub zbiór pusty , a S to zbiór singleton . Niektórzy autorzy pozwalają, aby drzewo binarne było również pustym zbiorem.
- blackboard system
- Podejście oparte na sztucznej inteligencji oparte na modelu architektonicznym tablicy , w którym wspólna baza wiedzy, „tablica”, jest iteracyjnie aktualizowana przez zróżnicowaną grupę specjalistycznych źródeł wiedzy, począwszy od specyfikacji problemu, a skończywszy na rozwiązaniu. Każde źródło wiedzy aktualizuje tablicę o częściowe rozwiązanie, gdy jego wewnętrzne ograniczenia odpowiadają stanowi tablicy. W ten sposób specjaliści współpracują ze sobą, aby rozwiązać problem.
- Maszyna Boltzmanna
- Rodzaj stochastycznej rekurencyjnej sieci neuronowej i losowego pola Markowa . Maszyny Boltzmanna można postrzegać jako stochastyczny , generatywny odpowiednik sieci Hopfielda .
- Boolowski problem spełnialności
- Problem ustalenia, czy istnieje interpretacja spełniająca zadaną formułę boolowską . Innymi słowy, pyta, czy zmienne danej formuły boolowskiej można konsekwentnie zastąpić wartościami PRAWDA lub FAŁSZ w taki sposób, aby formuła miała wartość PRAWDA. W takim przypadku formuła nazywa się spełnialna . Z drugiej strony, jeśli takie przypisanie nie istnieje, funkcja wyrażona wzorem jest FAŁSZA dla wszystkich możliwych przypisań zmiennych i formuła jest niespełnialna . Na przykład formuła „ a AND NOT b ” jest spełniona, ponieważ można znaleźć wartości a = PRAWDA i b = FAŁSZ, które sprawiają, że ( a ORAZ NIE b ) = PRAWDA. Natomiast „ a AND NOT a ” jest niespełnialne.
- technologia mózgu
- Technologia wykorzystująca najnowsze odkrycia neuronauki . Termin ten został po raz pierwszy wprowadzony przez Laboratorium Sztucznej Inteligencji w Zurychu w Szwajcarii w kontekście projektu ROBOY . Brain Technology może być stosowana w robotach, systemach zarządzania know-how i innych aplikacjach z możliwością samouczenia się. W szczególności aplikacje Brain Technology umożliwiają wizualizację podstawowej architektury uczenia się, często określanej jako „mapy know-how”.
- czynnik rozgałęzienia
- W informatyce struktury danych drzewiastych i teoria gier , liczba dzieci w każdym węźle , stopień wyjściowy . Jeśli ta wartość nie jest jednolita, można obliczyć średni współczynnik rozgałęzienia .
- wyszukiwanie siłowe
- Bardzo ogólna technika rozwiązywania problemów i paradygmat algorytmiczny polegający na systematycznym wyliczaniu wszystkich możliwych kandydatów do rozwiązania i sprawdzaniu, czy każdy z kandydatów spełnia sformułowanie problemu.
C
- kapsułka sieci neuronowej (CapsNet)
- System uczenia maszynowego, który jest rodzajem sztucznej sieci neuronowej (ANN), która może być wykorzystana do lepszego modelowania relacji hierarchicznych. Podejście to jest próbą bliższego naśladowania biologicznej organizacji neuronów.
- rozumowanie oparte na przypadkach (CBR)
- Szeroko rozumiany proces rozwiązywania nowych problemów w oparciu o rozwiązania podobnych problemów z przeszłości.
- chatbot
- Program komputerowy lub sztuczna inteligencja , która prowadzi rozmowę za pomocą metod słuchowych lub tekstowych.
- robotyka w chmurze
- Dziedzina robotyki , która próbuje przywołać technologie chmury, takie jak przetwarzanie w chmurze , przechowywanie w chmurze i inne technologie internetowe, koncentrujące się na korzyściach płynących z konwergentnej infrastruktury i wspólnych usług dla robotyki. Po podłączeniu do chmury roboty mogą korzystać z potężnych zasobów obliczeniowych, pamięci masowej i komunikacji nowoczesnych centrów danych w chmurze, która może przetwarzać i udostępniać informacje z różnych robotów lub agentów (inne maszyny, inteligentne obiekty, ludzie itp.). Ludzie mogą również przekazywać zadania robotom zdalnie za pośrednictwem sieci . Technologie przetwarzania w chmurze umożliwiają wyposażenie systemów robotów w potężne możliwości przy jednoczesnym obniżeniu kosztów dzięki technologiom chmurowym. Dzięki temu możliwe jest budowanie lekkich, tanich, inteligentniejszych robotów z inteligentnym „mózgiem” w chmurze. „Mózg” składa się z centrum danych , bazy wiedzy , planistów zadań, głębokiego uczenia , przetwarzanie informacji, modele środowiska, wsparcie komunikacji itp.
- analiza skupień
- Zadanie polegające na pogrupowaniu zbioru obiektów w taki sposób, aby obiekty w tej samej grupie (zwanej klastrem) były bardziej (w pewnym sensie) podobne do siebie niż do innych grup (klastrów). Jest to główne zadanie eksploracji danych i powszechna technika statystycznej analizy danych , stosowana w wielu dziedzinach, w tym w uczeniu maszynowym , rozpoznawaniu wzorców , analizie obrazu , wyszukiwaniu informacji , bioinformatyce , kompresji danych i grafice komputerowej .
- Cobweb
- Przyrostowy system hierarchicznego grupowania pojęciowego . PAJĘCZYNA została wynaleziona przez profesora Douglasa H. Fishera , obecnie na Uniwersytecie Vanderbilt. COBWEB stopniowo organizuje obserwacje w drzewo klasyfikacyjne . Każdy węzeł w drzewie klasyfikacyjnym reprezentuje klasę (koncepcję) i jest oznaczony koncepcją probabilistyczną, która podsumowuje rozkłady atrybut-wartość obiektów sklasyfikowanych w węźle. To drzewo klasyfikacyjne może służyć do przewidywania brakujących atrybutów lub klasy nowego obiektu.
- kognitywna
- architektura Instytut Technologii Kreatywnych definiuje architekturę kognitywną jako: „hipotezę o stałych strukturach, które dostarczają umysłowi, czy to w systemach naturalnych, czy sztucznych, oraz o tym, jak one współpracują – w połączeniu z wiedzą i umiejętnościami zawartymi w architekturze – w celu uzyskania inteligentnego zachowania w różnorodność złożonych środowisk”.
- obliczenia kognitywne
- Ogólnie termin przetwarzanie kognitywne jest używany w odniesieniu do nowego sprzętu i/lub oprogramowania, które naśladuje funkcjonowanie ludzkiego mózgu i pomaga usprawnić podejmowanie decyzji przez ludzi. W tym sensie CC jest nowym rodzajem obliczeń, którego celem jest dokładniejsze modele tego, jak ludzki mózg/ umysł wyczuwa, rozumuje i reaguje na bodźce.
- kognitywistyka
- Interdyscyplinarne naukowe badanie umysłu i jego procesów.
- optymalizacja kombinatoryczna
- W badaniach operacyjnych , matematyce stosowanej i informatyce teoretycznej optymalizacja kombinatoryczna to temat polegający na znalezieniu optymalnego obiektu z skończony zbiór obiektów.
- maszyna komitetowa
- Rodzaj sztucznej sieci neuronowej wykorzystujący strategię „dziel i zwyciężaj” , w której odpowiedzi wielu sieci neuronowych (ekspertów) są łączone w jedną odpowiedź. Połączona reakcja machiny komitetu ma być lepsza niż reakcji jej ekspertów. Porównaj zespoły klasyfikatorów .
- wiedza zdroworozsądkowa
- W sztucznej inteligencji badań, wiedza zdroworozsądkowa składa się z faktów dotyczących codziennego świata, takich jak „Cytryny są kwaśne”, które wszyscy ludzie powinni znać. Pierwszym programem AI, który zajął się zdroworozsądkową wiedzą, był Advice Taker w 1959 roku autorstwa Johna McCarthy'ego.
- zdroworozsądkowe rozumowanie
- Gałąź sztucznej inteligencji zajmująca się symulowaniem zdolności człowieka do formułowania przypuszczeń na temat rodzaju i istoty zwykłych sytuacji, z którymi spotyka się na co dzień.
- chemia obliczeniowa
- Gałąź chemii wykorzystująca symulacje komputerowe do rozwiązywania problemów chemicznych.
- Teoria złożoności obliczeniowej
- Skupia się na klasyfikowaniu problemów obliczeniowych zgodnie z ich naturalną trudnością i powiązaniu tych klas ze sobą. Problem obliczeniowy to zadanie rozwiązywane przez komputer. Problem obliczeniowy można rozwiązać przez mechaniczne zastosowanie kroków matematycznych, takich jak algorytm.
- kreatywność obliczeniowa
- Multidyscyplinarne przedsięwzięcie, które obejmuje dziedziny sztucznej inteligencji , psychologii poznawczej , filozofii i sztuki .
- cybernetyka obliczeniowa
- Integracja technik cybernetyki i inteligencji obliczeniowej .
- humor obliczeniowy
- Gałąź lingwistyki komputerowej i sztucznej inteligencji , która wykorzystuje komputery do badań nad humorem .
- Inteligencji obliczeniowej (CI)
- Zwykle odnosi się do zdolności komputera do uczenia się określonego zadania na podstawie danych lub obserwacji eksperymentalnych.
- obliczeniowa teoria uczenia się
- W informatyce teoria obliczeniowego uczenia się (lub po prostu teoria uczenia się) jest poddziedziną sztucznej inteligencji poświęconą studiowaniu projektowania i analizy algorytmów uczenia maszynowego .
- lingwistyka komputerowa
- Interdyscyplinarna dziedzina zajmująca się statystycznym lub opartym na regułach modelowaniem języka naturalnego z perspektywy obliczeniowej, a także badanie odpowiednich podejść obliczeniowych do zagadnień językowych.
- matematyka obliczeniowa
- Badania matematyczne w dziedzinach nauki, w których informatyka odgrywa zasadniczą rolę.
- neuronauka obliczeniowa
- Gałąź neuronauki , która wykorzystuje modele matematyczne, analizę teoretyczną i abstrakcje mózgu do zrozumienia zasad rządzących rozwojem , strukturą , fizjologią i zdolnościami poznawczymi układu nerwowego .
- obliczeniowa teoria liczb
- Badanie algorytmów wykonywania obliczeń z zakresu teorii liczb .
- problem obliczeniowy
- W informatyce teoretycznej problem obliczeniowy to obiekt matematyczny reprezentujący zbiór pytań, które komputery mogą rozwiązać.
- statystyki obliczeniowe
- Interfejs między statystyką a informatyką .
- projektowanie zautomatyzowane komputerowo (CAutoD)
- Automatyzacja projektowania zwykle odnosi się do automatyzacji projektowania elektronicznego lub automatyzacji projektowania , która jest konfiguratorem produktów . Rozszerzone projektowanie wspomagane komputerowo (CAD), projektowanie zautomatyzowane i projektowanie zautomatyzowane komputerowo dotyczą szerszego zakresu zastosowań, takich jak inżynieria samochodowa , inżynieria lądowa , projektowanie materiałów kompozytowych , inżynieria sterowania , dynamiczna identyfikacja i optymalizacja systemów, systemy finansowe , sprzęt przemysłowy, systemy mechatroniczne , konstrukcje stalowe , optymalizacja strukturalna oraz wynalezienie nowych systemów. Niedawno tradycyjna symulacja CAD została przekształcona w CAutoD przez inspirowane biologią uczenie maszynowe , w tym heurystyczne techniki wyszukiwania , takie jak obliczenia ewolucyjne i algorytmy inteligencji roju .
- przesłuchanie komputerowe (CA)
- Zobacz słuchanie maszyn .
- informatyka
- Teoria, eksperymenty i inżynieria, które stanowią podstawę projektowania i użytkowania komputerów . Obejmuje badanie algorytmów , które przetwarzają, przechowują i przekazują informacje cyfrowe . Informatyk się w teorii obliczeń i projektowaniu systemów obliczeniowych.
- wizja komputerowa
- Interdyscyplinarna dziedzina nauki która zajmuje się tym, jak komputery mogą uzyskać wysoki poziom zrozumienia z cyfrowych obrazów lub filmów . Z perspektywy inżynierii dąży do automatyzacji zadań, które może wykonać ludzki układ wzrokowy .
- dryf koncepcji
- W analityce predykcyjnej i uczeniu maszynowym dryf koncepcji oznacza, że właściwości statystyczne zmiennej docelowej, którą model próbuje przewidzieć, zmieniają się w czasie w nieprzewidziany sposób. Powoduje to problemy, ponieważ prognozy stają się mniej dokładne w miarę upływu czasu.
- koneksjonizm
- Podejście z dziedziny kognitywistyki , które ma na celu wyjaśnienie zjawisk psychicznych za pomocą sztucznych sieci neuronowych .
- spójna heurystyka
- W badaniu problemów ze znajdowaniem ścieżek w sztucznej inteligencji mówi się , że funkcja heurystyczna jest spójna lub monotoniczna, jeśli jej oszacowanie jest zawsze mniejsze lub równe szacowanej odległości od dowolnego sąsiedniego wierzchołka do celu powiększonej o koszt dotarcia do tego sąsiada.
- ograniczony model warunkowy (CCM)
- A uczenie maszynowe i ramy wnioskowania, które rozszerzają uczenie się modeli warunkowych (probabilistycznych lub dyskryminacyjnych) z deklaratywnymi ograniczeniami.
- programowanie w logice z ograniczeniami
- Forma programowania z ograniczeniami , w której programowanie w logice jest rozszerzone o pojęcia z zakresu spełniania ograniczeń . Program logiczny z ograniczeniami to program logiczny, który zawiera ograniczenia w treści klauzul. Przykład klauzuli zawierającej ograniczenie to
A ( X , Y ) :- X + Y 0 > , B ( X ), C ( Y )
. W tej klauzuliX + Y > 0
jest ograniczeniem;A(X,Y)
,B(X)
iC(Y)
są literałami , tak jak w zwykłym programowaniu logicznym. Ta klauzula określa jeden warunek, pod którym zachodzi zdanieA(X,Y)
:X+Y
jest większe od zera i zarównoB(X),
jak iC(Y)
są prawdziwe. - programowanie z ograniczeniami
- A paradygmat programowania , w którym relacje między zmiennymi są określone w postaci ograniczeń . Ograniczenia różnią się od typowych prymitywów imperatywnych języków programowania tym, że nie określają kroku ani sekwencji kroków do wykonania, ale raczej właściwości rozwiązania, które należy znaleźć.
- skonstruowany język
- Język, którego fonologia , gramatyka i słownictwo są świadomie tworzone, zamiast rozwijać się naturalnie . Języki sztuczne mogą być również określane jako języki sztuczne, planowane lub wymyślone.
- teoria sterowania
- W inżynierii systemów sterowania jest poddziedziną matematyki, która zajmuje się sterowaniem systemami dynamicznymi działającymi w sposób ciągły w procesach konstrukcyjnych i maszynach. Celem jest opracowanie modelu sterowania do sterowania takimi systemami za pomocą działania sterującego w sposób optymalny bez opóźnienie lub przeregulowanie oraz zapewnienie stabilności sterowania .
- konwolucyjna sieć neuronowa
- W uczeniu głębokim konwolucyjna sieć neuronowa (CNN lub ConvNet) to klasa głębokich sieci neuronowych , najczęściej stosowana do analizy obrazów wizualnych. Sieci CNN używają odmian perceptronów wielowarstwowych zaprojektowanych tak, aby wymagały minimalnego przetwarzania wstępnego . Są one również znane jako sztuczne sieci neuronowe niezmienne z przesunięciem lub niezmienne przestrzennie (SIANN), w oparciu o ich architekturę współdzielonych wag i niezmienności translacji .
- krzyżowanie
- W algorytmach genetycznych i obliczeniach ewolucyjnych operator genetyczny używany do łączenia informacji genetycznych dwojga rodziców w celu wygenerowania nowego potomstwa. Jest to jeden ze sposobów stochastycznego generowania nowych rozwiązań z istniejącej populacji i analogiczny do krzyżowania , które ma miejsce podczas rozmnażania płciowego w organizmach biologicznych. Rozwiązania można również generować przez klonowanie istniejącego rozwiązania, co jest analogiczne do rozmnażania bezpłciowego . Nowo wygenerowane rozwiązania są zazwyczaj mutowane przed dodaniem do populacji.
D
- Darkforest
- Program komputerowy go opracowany przez Facebooka , oparty na technikach głębokiego uczenia się z wykorzystaniem konwolucyjnej sieci neuronowej . Jego zaktualizowana wersja Darkfores2 łączy techniki swojego poprzednika z przeszukiwaniem drzewa Monte Carlo . MCTS skutecznie wykorzystuje metody wyszukiwania drzew powszechnie spotykane w komputerowych programach szachowych i losuje je. Wraz z aktualizacją system jest znany jako Darkfmcts3.
- Warsztaty w Dartmouth
- The Dartmouth Summer Research Project on Artificial Intelligence to nazwa letnich warsztatów z 1956 roku, obecnie przez wielu (choć nie wszystkich) uważanych za przełomowe wydarzenie dla sztucznej inteligencji jako dziedziny.
- augmentacja danych
- Augmentacja danych w analizie danych to techniki stosowane w celu zwiększenia ilości danych. Pomaga zmniejszyć nadmierne dopasowanie podczas szkolenia uczenia maszynowego .
- fuzja danych
- Proces integrowania wielu źródeł danych w celu uzyskania bardziej spójnych, dokładnych i użytecznych informacji niż dostarczane przez pojedyncze źródła danych.
- integracja danych
- Proces łączenia danych rezydujące w różnych źródłach i zapewniające użytkownikom ujednolicony widok na nie. Proces ten staje się istotny w różnych sytuacjach, zarówno komercyjnych (np. gdy dwie podobne firmy muszą połączyć swoje bazy danych ), jak i naukowych (np. połączenie wyników badań z różnych repozytoriów bioinformatycznych ). Integracja danych pojawia się coraz częściej wraz ze wzrostem wolumenu (czyli big data ) i konieczności udostępniania istniejących danych . Stało się przedmiotem szeroko zakrojonych prac teoretycznych, a wiele otwartych problemów pozostaje nierozwiązanych.
- eksploracja danych
- Proces odkrywania wzorców w dużych zbiorach danych, obejmujący metody z pogranicza uczenia maszynowego, statystyki i systemów bazodanowych.
- nauka o danych
- Interdyscyplinarna dziedzina, która wykorzystuje metody, procesy, algorytmy i systemy naukowe do wydobywania wiedzy i spostrzeżeń z danych w różnych formach, zarówno ustrukturyzowanych, jak i nieustrukturyzowanych, podobnie jak eksploracja danych . Nauka o danych to „koncepcja ujednolicenia statystyki, analizy danych, uczenia maszynowego i powiązanych z nimi metod” w celu „zrozumienia i przeanalizowania rzeczywistych zjawisk” za pomocą danych. Wykorzystuje techniki i teorie zaczerpnięte z wielu dziedzin w kontekście matematyki , statystyki , informatyki i informatyki .
- zbiór danych
- Zbiór danych . Najczęściej zestaw danych odpowiada zawartości pojedynczej tabeli bazy danych lub pojedynczej macierzy danych statystycznych , w której każda kolumna tabeli reprezentuje określoną zmienną, a każdy wiersz odpowiada danemu elementowi danego zestawu danych. Zestaw danych zawiera listę wartości dla każdej ze zmiennych, takich jak wzrost i waga obiektu, dla każdego elementu zestawu danych. Każda wartość jest znana jako odniesienie. Zestaw danych może zawierać dane dla jednego lub większej liczby elementów, odpowiadające liczbie wierszy.
- hurtownia danych (DW lub CWH)
- System służący do raportowania i analizy danych . DW to centralne repozytoria zintegrowanych danych z jednego lub kilku różnych źródeł. Przechowują bieżące i historyczne dane w jednym miejscu
- Datalog
- Język programowania w logice deklaratywnej , który pod względem składni jest podzbiorem Prologu . Jest często używany jako język zapytań dla dedukcyjnych baz danych . W ostatnich latach Datalog znalazł nowe zastosowanie w integracji danych , ekstrakcji informacji , networkingu , analiza programów , bezpieczeństwo i przetwarzanie w chmurze .
- granica decyzyjna
- W przypadku sztucznych sieci neuronowych lub perceptronów opartych na propagacji wstecznej typ granicy decyzyjnej, której sieć może się nauczyć, jest określony przez liczbę warstw ukrytych w sieci. Jeśli nie ma ukrytych warstw, może uczyć się tylko problemów liniowych. Jeśli ma jedną warstwę ukrytą, to może nauczyć się dowolnej funkcji podzbiorach ciągłej na zwartych Rn jak pokazuje twierdzenie o uniwersalnym przybliżeniu , może więc mieć dowolną granicę decyzyjną.
- system wspomagania decyzji (DSS)
- System informacyjny wspomagający podejmowanie decyzji biznesowych lub organizacyjnych zajęcia. DSS obsługują poziomy zarządzania, operacji i planowania organizacji (zwykle średniego i wyższego kierownictwa) i pomagają ludziom podejmować decyzje dotyczące problemów, które mogą szybko się zmieniać i niełatwo je z góry określić – tj. nieustrukturyzowane i częściowo ustrukturyzowane problemy decyzyjne. Systemy wspomagania decyzji mogą być w pełni skomputeryzowane lub napędzane przez człowieka lub mogą być kombinacją obu.
- teoria decyzji
- Badanie rozumowania leżącego u podstaw wyborów agenta . Teorię decyzji można podzielić na dwie gałęzie: normatywną teorię decyzji, która udziela porad, jak podejmować najlepsze decyzje , biorąc pod uwagę zestaw niepewnych przekonań i zestaw wartości , oraz opisową teorię decyzji, która analizuje, w jaki sposób istniejący, być może irracjonalni agenci faktycznie podejmują decyzje .
- uczenie się drzewa decyzyjnego
- Wykorzystuje drzewo decyzyjne (jako model predykcyjny ), aby przejść od obserwacji przedmiotu (reprezentowanych w gałęziach) do wniosków dotyczących wartości docelowej przedmiotu (reprezentowanej w liściach). Jest to jedno z podejść do modelowania predykcyjnego stosowane w statystyce , eksploracji danych i uczeniu maszynowym .
- programowanie deklaratywne
- Paradygmat programowania — styl budowania struktury i elementów programów komputerowych — który wyraża logikę obliczeń bez opisywania przepływu sterowania .
- klasyfikator dedukcyjny
- Rodzaj silnik wnioskowania sztucznej inteligencji . Jako dane wejściowe przyjmuje zestaw deklaracji w języku ramkowym dotyczący dziedziny, takiej jak badania medyczne lub biologia molekularna. Na przykład nazwy klas, podklas , właściwości i ograniczenia dotyczące dopuszczalnych wartości.
- Deep Blue
- był komputerem do gry w szachy opracowanym przez IBM . Jest znany jako pierwszy komputerowy system do gry w szachy, który wygrał zarówno grę w szachy, jak i mecz szachowy z panującym mistrzem świata w regularnych kontrolach czasu.
- głęboka nauka
- Część szerszej rodziny metod uczenia maszynowego opartych na reprezentacji danych uczenia się , w przeciwieństwie do algorytmów specyficznych dla zadania. Nauka może być nadzorowana , częściowo nadzorowana lub nienadzorowana .
- DeepMind Technologies
- Brytyjska firma zajmująca się sztuczną inteligencją założona we wrześniu 2010 r., obecnie należąca do Alphabet Inc. Siedziba firmy znajduje się w Londynie , a centra badawcze znajdują się w Kanadzie , Francji i Stany Zjednoczone . Przejęta przez Google w 2014 roku firma stworzyła sieć neuronową , która uczy się grać w gry wideo w sposób podobny do ludzkiego, a także neuronową maszynę Turinga , czyli sieć neuronową, która może mieć dostęp do pamięci zewnętrznej jak konwencjonalna maszyna Turinga , w wyniku czego powstał komputer naśladujący pamięć krótkotrwałą ludzkiego mózgu. Firma trafiła na pierwsze strony gazet w 2016 roku po tym, jak jej AlphaGo pokonał profesjonalistów Go gracz Lee Sedol , mistrz świata, w pięciomeczowym meczu , który był tematem filmu dokumentalnego. Bardziej ogólny program, AlphaZero , pokonał najpotężniejsze programy grające w Go , szachy i shogi (japońskie szachy) po kilku dniach gry przeciwko sobie przy użyciu uczenia się przez wzmacnianie .
- default logic (logika domyślna
- ) Niemonotoniczna logika zaproponowana przez Raymonda Reitera w celu sformalizowania rozumowania z domyślnymi założeniami.
- logika opisu (DL)
- Rodzina formalnych języków reprezentacji wiedzy . Wiele DL jest bardziej wyrazistych niż logika zdań , ale mniej wyrazistych niż logika pierwszego rzędu . W przeciwieństwie do tego ostatniego, podstawowe problemy rozumowania dla DL są (zwykle) rozstrzygalne , a dla tych problemów zaprojektowano i wdrożono wydajne procedury decyzyjne. Istnieją ogólne, przestrzenne, czasowe, czasoprzestrzenne i rozmyte logiki opisu, a każda logika opisu charakteryzuje się inną równowagą między ekspresją DL a złożonością rozumowania poprzez obsługę różnych zestawów konstruktorów matematycznych.
- robotyka rozwojowa (DevRob)
- Dziedzina naukowa, która ma na celu badanie mechanizmów rozwojowych, architektur i ograniczeń, które umożliwiają ustawiczne i otwarte uczenie się nowych umiejętności i nowej wiedzy w ucieleśnionych maszynach .
- diagnoza
- Zainteresowana rozwojem algorytmów i technik, które są w stanie określić, czy zachowanie systemu jest prawidłowe. Jeśli system nie działa poprawnie, algorytm powinien być w stanie określić, tak dokładnie, jak to możliwe, która część systemu zawodzi i jakiego rodzaju jest to usterka. Obliczenia opierają się na obserwacjach , które dostarczają informacji o aktualnym zachowaniu.
- systemie dialogowym
- System komputerowy przeznaczony do rozmowy z człowiekiem o spójnej strukturze. Systemy dialogowe wykorzystywały tekst, mowę, grafikę, haptykę, gesty i inne tryby komunikacji zarówno w kanale wejściowym, jak i wyjściowym.
- redukcja wymiarowości
- Proces zmniejszania liczby rozważanych zmiennych losowych poprzez uzyskanie zestawu zmiennych głównych. Można go podzielić na selekcję cech i ekstrakcję cech .
- system dyskretny
- Dowolny system z policzalną liczbą stanów. Systemy dyskretne można przeciwstawić systemom ciągłym, które można również nazwać systemami analogowymi. Ostateczny system dyskretny jest często modelowany za pomocą skierowanego wykresu i analizowany pod kątem poprawności i złożoności zgodnie z teorią obliczeniową . Ponieważ systemy dyskretne mają policzalną liczbę stanów, można je opisać za pomocą precyzyjnych modeli matematycznych . Komputer jest skończoną maszyną stanów , którą można postrzegać jako system dyskretny. Ponieważ komputery są często używane do modelowania nie tylko innych systemów dyskretnych, ale także systemów ciągłych, opracowano metody przedstawiania systemów ciągłych świata rzeczywistego jako systemów dyskretnych. Jedna z takich metod polega na próbkowaniu ciągłego sygnału w dyskretnych odstępach czasu.
- rozproszona sztuczna inteligencja (DAI)
- Poddziedzina badań nad sztuczną inteligencją poświęcona opracowywaniu rozproszonych rozwiązań problemów. DAI jest blisko spokrewniony i poprzednik dziedziny systemów wieloagentowych .
- dynamiczna logika epistemiczna (DEL)
- Struktura logiczna zajmująca się zmianą wiedzy i informacji. Zazwyczaj DEL koncentruje się na sytuacjach z udziałem wielu agentów i bada, w jaki sposób zmienia się ich wiedza, gdy występują zdarzenia .
mi
- chętne uczenie się
- Metoda uczenia się, w której system próbuje skonstruować ogólną, niezależną od danych wejściowych funkcję celu podczas uczenia systemu, w przeciwieństwie do leniwego uczenia się , w którym uogólnienie poza danymi uczącymi jest opóźniane do czasu wysłania zapytania do systemu.
- Test Eberta Test, który ocenia, czy syntetyczny
- głos komputerowy jest w stanie opowiedzieć dowcip z umiejętnościami wystarczającymi do wywołania śmiechu u ludzi . Został zaproponowany przez krytyka filmowego Rogera Eberta na konferencji TED w 2011 roku jako wyzwanie programistom , aby skomputeryzowany głos opanował modulację, przekaz, synchronizację i intonację mówiącego człowieka. Test jest podobny do testu Turinga zaproponowanego przez Alana Turinga w 1950 roku jako sposób na zmierzenie zdolności komputera do wykazywania inteligentnego zachowania poprzez generowanie wydajności nie do odróżnienia od człowieka .
- Sieć stanu echa (ESN)
- Rekurencyjna sieć neuronowa z słabo połączoną warstwą ukrytą (zazwyczaj z łącznością 1%). Łączność i wagi ukrytych neuronów są stałe i losowo przydzielane. Wagi neuronów wyjściowych można się nauczyć, aby sieć mogła (od)tworzyć określone wzorce czasowe. Głównym celem tej sieci jest to, że chociaż jej zachowanie jest nieliniowe, jedyne wagi, które są modyfikowane podczas uczenia, dotyczą synaps, które łączą neurony ukryte z neuronami wyjściowymi. Zatem funkcja błędu jest kwadratowa w odniesieniu do wektora parametrów i można ją łatwo rozróżnić do układu liniowego.
- wcielony agent
- Inteligentny agent , który wchodzi w interakcję ze środowiskiem za pośrednictwem ciała fizycznego w tym środowisku. Agenci, którzy są graficznie reprezentowani przez ciało, na przykład człowieka lub zwierzę z kreskówki, są również nazywani agentami ucieleśnionymi, chociaż mają tylko wirtualne, a nie fizyczne ucieleśnienie.
- ucieleśniona kognitywistyka
- Interdyscyplinarna dziedzina badań, której celem jest wyjaśnienie mechanizmów leżących u podstaw inteligentnych zachowań. Obejmuje trzy główne metodologie: 1) modelowanie systemów psychologicznych i biologicznych w sposób holistyczny, który traktuje umysł i ciało jako jedną całość, 2) tworzenie wspólnego zestawu ogólnych zasad inteligentnego zachowania oraz 3) eksperymentalne wykorzystanie agentów robotów w kontrolowanych środowiskach.
- error-driven learning ( uczenie się oparte
- na błędach) Podobszar uczenia maszynowego zajmujący się tym, jak agent powinien podejmować działania w środowisku tak, aby zminimalizować niektóre informacje zwrotne o błędach. Jest to rodzaj uczenia się przez wzmacnianie .
- uśrednianie zespołowe
- W uczeniu maszynowym , szczególnie przy tworzeniu sztucznych sieci neuronowych , uśrednianie zespołowe to proces tworzenia wielu modeli i łączenia ich w celu uzyskania pożądanego wyniku, w przeciwieństwie do tworzenia tylko jednego modelu.
- etyka sztucznej inteligencji
- Część etyki technologii specyficzna dla sztucznej inteligencji.
- algorytm ewolucyjny (EA)
- Podzbiór obliczeń ewolucyjnych , ogólny algorytm optymalizacji metaheurystycznej oparty na populacji . EA wykorzystuje mechanizmy inspirowane ewolucją biologiczną , takie jak reprodukcja , mutacja , rekombinacja i selekcja . Kandydujące rozwiązania problemu optymalizacyjnego odgrywają rolę jednostek w populacji, a funkcja dopasowania określa jakość rozwiązań (patrz także funkcja strat ). Ewolucja populacji następuje wtedy po wielokrotnym zastosowaniu powyższych operatorów.
- obliczenia ewolucyjne
- Rodzina algorytmów globalnej optymalizacji inspirowana ewolucją biologiczną oraz poddziedzina sztucznej inteligencji i miękkich obliczeń badająca te algorytmy. Z technicznego punktu widzenia są to rodzina populacyjnych rozwiązań prób i błędów o metaheurystycznym lub stochastycznym charakterze optymalizacyjnym .
- ewoluująca funkcja klasyfikacji (ECF)
- Ewoluujące funkcje klasyfikatora lub ewoluujące klasyfikatory są używane do klasyfikowania i grupowania w dziedzinie uczenia maszynowego i sztucznej inteligencji , zwykle wykorzystywane do zadań eksploracji strumienia danych w dynamicznych i zmieniających się środowiskach.
- ryzyko egzystencjalne
- Hipoteza, że znaczny postęp w sztucznej inteligencji ogólnej (AGI) może pewnego dnia doprowadzić do wyginięcia ludzkości lub innej nieodwracalnej globalnej katastrofy .
- system ekspercki
- System komputerowy, który naśladuje zdolność decyzyjną ludzkiego eksperta. Systemy eksperckie są zaprojektowane do rozwiązywania złożonych problemów poprzez wnioskowanie za pomocą zasobów wiedzy, reprezentowanych głównie w formie reguł „jeśli-to”, a nie za pomocą konwencjonalnego kodu proceduralnego .
F
- szybkie i oszczędne drzewa
- Typ drzewa klasyfikacyjnego . Szybkie i oszczędne drzewa mogą być używane jako narzędzia decyzyjne, które działają jako klasyfikatory leksykograficzne i, w razie potrzeby, wiążą akcję (decyzję) z każdą klasą lub kategorią.
- ekstrakcja cech
- W uczeniu maszynowym , rozpoznawaniu wzorców i przetwarzaniu obrazów ekstrakcja cech rozpoczyna się od początkowego zestawu zmierzonych danych i buduje wartości pochodne ( cechy ) ma mieć charakter informacyjny i nie jest zbędny, ułatwiając kolejne etapy uczenia się i uogólniania, aw niektórych przypadkach prowadząc do lepszych interpretacji przez ludzi.
- uczenie się cech
- W uczeniu maszynowym uczenie się cech lub uczenie się reprezentacji to zestaw technik, które pozwalają systemowi automatycznie wykrywać reprezentacje potrzebne do wykrywania cech lub klasyfikacji na podstawie nieprzetworzonych danych. Zastępuje to ręczną inżynierię funkcji i pozwala maszynie zarówno nauczyć się funkcji, jak i wykorzystać je do wykonania określonego zadania.
- wybór funkcji
- w uczeniu maszynowym i statystyki , wybór cech, znany również jako wybór zmiennych, wybór atrybutów lub wybór podzbioru zmiennych, to proces wyboru podzbioru odpowiednich cech (zmiennych, predyktorów) do wykorzystania w konstrukcji modelu.
- uczenie federacyjne
- Rodzaj uczenia maszynowego, który umożliwia szkolenie na wielu urządzeniach ze zdecentralizowanymi danymi, pomagając w ten sposób zachować prywatność poszczególnych użytkowników i ich danych.
- logika pierwszego rzędu
- Zbiór systemów formalnych używanych w matematyce , filozofii , językoznawstwie i informatyce . Logika pierwszego rzędu wykorzystuje skwantyfikowane zmienne zamiast obiektów nielogicznych i pozwala na użycie zdań zawierających zmienne, dzięki czemu zamiast zdań takich jak Sokrates to człowiek można mieć wyrażenia w postaci „istnieje X takie, że X to Sokrates i X jest człowiekiem” i istnieje kwantyfikator, podczas gdy X jest zmienną. To odróżnia ją od logiki zdań , która nie używa kwantyfikatorów ani relacji.
- biegły
- Stan, który może zmieniać się w czasie. W logicznych podejściach do wnioskowania o działaniach płynność może być reprezentowana w logice pierwszego rzędu przez predykaty mające argument zależny od czasu.
- język formalny
- Zbiór słów , których litery pochodzą z alfabetu i są dobrze uformowane zgodnie z określonym zestawem reguł.
- łańcuchowanie do przodu
- Jedna z dwóch głównych metod wnioskowania przy użyciu silnika wnioskowania i może być opisana logicznie jako wielokrotne stosowanie modus ponens . Forward chaining jest popularną strategią implementacji systemów eksperckich , biznesowych i systemów reguł produkcyjnych . Przeciwieństwem łańcuchowania do przodu jest łańcuchowanie do tyłu . Łączenie w przód rozpoczyna się od dostępnych danych i wykorzystuje reguły wnioskowania w celu wyodrębnienia większej ilości danych (na przykład od użytkownika końcowego), aż do osiągnięcia celu . Jakiś Mechanizm wnioskowania wykorzystujący łączenie w przód przeszukuje reguły wnioskowania, dopóki nie znajdzie takiej, w której poprzednik (klauzula If) jest prawdziwy. Gdy taka reguła zostanie znaleziona, silnik może wywnioskować lub wywnioskować następnik (klauzula Then), co skutkuje dodaniem nowych informacji do swoich danych.
- rama
- Struktura danych sztucznej inteligencji używana do dzielenia wiedzy na podstruktury poprzez reprezentowanie „ sytuacji stereotypowych ”. Ramki to podstawowa struktura danych używana w sztucznej inteligencji język ramki .
- język ramek
- Technologia wykorzystywana do reprezentacji wiedzy w sztucznej inteligencji. Ramki są przechowywane jako ontologie zbiorów i podzbiorów pojęć ramek . Są podobne do hierarchii klas w językach zorientowanych obiektowo, chociaż ich podstawowe cele projektowe są inne. Ramki koncentrują się na jawnej i intuicyjnej reprezentacji wiedzy, podczas gdy obiekty koncentrują się na enkapsulacji i ukrywaniu informacji . Ramki powstały w badaniach nad sztuczną inteligencją, a obiekty głównie w inżynierii oprogramowania . Jednak w praktyce techniki i możliwości języków zorientowanych ramowo i obiektowo znacznie się pokrywają.
- problem ramowy
- Problem znalezienia odpowiednich zbiorów aksjomatów dla wykonalnego opisu środowiska robota.
- przyjazna sztuczna inteligencja
- Hipotetyczna sztuczna inteligencja ogólna (AGI), która miałaby pozytywny wpływ na ludzkość. Jest częścią etyki sztucznej inteligencji i jest ściśle powiązana z etyką maszynową . Podczas gdy etyka maszyn dotyczy tego, jak powinien zachowywać się sztucznie inteligentny agent, przyjazne badania nad sztuczną inteligencją koncentrują się na tym, jak praktycznie wywołać to zachowanie i zapewnić, że jest ono odpowiednio ograniczone.
- futures studies
- Badanie postulowania możliwych, prawdopodobnych i preferowanych przyszłości oraz światopoglądów i mitów, które leżą u ich podstaw.
- rozmyty system sterowania
- System sterowania oparty na logice rozmytej — systemie matematycznym , który analizuje analogowe wartości wejściowe w kategoriach zmiennych logicznych , które przyjmują ciągłe wartości od 0 do 1, w przeciwieństwie do logiki klasycznej lub cyfrowej , która działa na dyskretnych wartościach 1 lub 0 (odpowiednio prawda lub fałsz).
- logika rozmyta
- Prosta postać logiki wielowartościowej , w której prawdziwości zmiennych mogą mieć dowolny stopień „ Prawdomówność ”, którą można przedstawić za pomocą dowolnej liczby rzeczywistej z zakresu od 0 (jak w Całkowicie fałsz) do 1 (jak w Całkowicie prawda) włącznie. W związku z tym jest wykorzystywana do obsługi koncepcji częściowej prawdy, gdzie wartość prawdy może wahać się między całkowitą prawdą a całkowitym fałszem W przeciwieństwie do logiki boolowskiej , gdzie wartości prawdy zmiennych mogą mieć tylko wartości całkowite 0 lub 1.
- reguła rozmyta
- Reguła używana w systemach logiki rozmytej do wnioskowania o wyjściu na podstawie zmiennych
- wejściowych
- . klasyczna teoria mnogości , przynależność elementów do zbioru oceniana jest binarnie według warunku dwuwartościowego — element albo należy do zbioru, albo nie. Natomiast teoria zbiorów rozmytych pozwala na stopniową ocenę przynależności elementów do zbioru; jest to opisane za pomocą funkcji przynależności o wartości w rzeczywistym przedziale jednostek [0, 1]. Zbiory rozmyte uogólniają zbiory klasyczne, ponieważ funkcje wskaźnika (inaczej funkcje charakterystyczne ) zbiorów klasycznych są szczególnymi przypadkami funkcji przynależności zbiorów rozmytych, jeśli te ostatnie przyjmują tylko wartości 0 lub 1. W teorii mnogości rozmytych klasyczne zbiory biwalentne są zwykle nazywane zbiorami ostrymi . Teoria zbiorów rozmytych może być stosowana w wielu dziedzinach, w których informacje są niekompletne lub nieprecyzyjne, takich jak bioinformatyka .
G
- teoria gier
- Badanie modeli matematycznych interakcji strategicznych między racjonalnymi decydentami.
- ogólne granie w gry (GGP)
- Ogólne granie w gry to projektowanie programów opartych na sztucznej inteligencji, aby móc z powodzeniem uruchamiać i grać w więcej niż jedną grę.
- generative adversarial network (GAN)
- Klasa systemów uczenia maszynowego . Dwie sieci neuronowe rywalizują ze sobą w ramach gry o sumie zerowej .
- algorytm genetyczny (GA
- ) Metaheurystyka inspirowane procesem doboru naturalnego , który należy do większej klasy algorytmów ewolucyjnych (EA). Algorytmy genetyczne są powszechnie stosowane do generowania wysokiej jakości rozwiązań optymalizacji i wyszukiwania , opierając się na operatorach inspirowanych biologią, takich jak mutacja , krzyżowanie i selekcja .
- operator genetyczny
- Operator używany w algorytmach genetycznych aby poprowadzić algorytm w kierunku rozwiązania danego problemu. Istnieją trzy główne typy operatorów ( mutacja , krzyżowanie i selekcja ), które muszą ze sobą współpracować, aby algorytm odniósł sukces.
- optymalizacja roju świetlików
- Algorytm optymalizacji inteligencji roju oparty na zachowaniu świetlików (znanych również jako świetliki lub błyskawice ).
- graph (abstrakcyjny typ danych)
- W informatyce wykres jest abstrakcyjnym typem danych który ma zaimplementować koncepcje grafów nieskierowanych i grafów skierowanych z matematyki ; w szczególności dziedzina teorii grafów .
- graf (matematyka dyskretna)
- W matematyce, a dokładniej w teorii grafów , graf jest strukturą odpowiadającą zbiorowi obiektów, w których niektóre pary obiektów są w pewnym sensie „powiązane”. Obiekty odpowiadają abstrakcjom matematycznym zwanym wierzchołkami (zwanymi także węzłami lub punktami ), a każda z powiązanych par wierzchołków nazywana jest krawędzią ( zwaną także łukiem lub linią ).
- graph database (GDB)
- Baza danych , która wykorzystuje struktury grafu do zapytań semantycznych z węzłami , krawędziami i właściwościami do reprezentowania i przechowywania danych. Kluczową koncepcją systemu jest wykres (lub krawędź lub relacja ), która bezpośrednio wiąże elementy danych w sklepie z kolekcją węzłów danych i krawędziami reprezentującymi relacje między węzłami. Relacje umożliwiają bezpośrednie łączenie danych w sklepie, aw wielu przypadkach pobieranie ich za pomocą jednej operacji. Grafowe bazy danych traktują relacje między danymi jako priorytet. Wyszukiwanie relacji w bazie danych wykresów jest szybkie, ponieważ są one stale przechowywane w samej bazie danych. Relacje można intuicyjnie wizualizować za pomocą grafowych baz danych, dzięki czemu jest to przydatne w przypadku silnie powiązanych ze sobą danych.
- teoria grafów
- Nauka o grafach , które są strukturami matematycznymi używanymi do modelowania relacji parami między obiektami.
- przechodzenie wykresu
- Proces odwiedzania (sprawdzania i/lub aktualizowania) każdego wierzchołka grafu . Takie przejścia są klasyfikowane według kolejności odwiedzania wierzchołków. Przechodzenie przez drzewo jest szczególnym przypadkiem przechodzenia przez graf.
H
- halting problem
- heurystyka
- Technika przeznaczona do szybszego rozwiązywania problemu , gdy klasyczne metody są zbyt wolne, lub do znajdowania przybliżonego rozwiązania, gdy klasyczne metody nie znajdują dokładnego rozwiązania. Osiąga się to poprzez zamianę optymalności, kompletności, dokładności lub precyzji na szybkość. W pewnym sensie można to uznać za skrót. Funkcja heurystyczna, zwana także po prostu heurystyką, to funkcja , która szereguje alternatywy w algorytmach wyszukiwania na każdym etapie rozgałęzienia w oparciu o dostępne informacje, aby zdecydować, za którym rozgałęzieniem podążać. Na przykład może przybliżać dokładne rozwiązanie.
- Wewnętrzna warstwa neuronów w sztucznej sieci neuronowej , nieprzeznaczona do wejścia lub wyjścia.
- Neuron w warstwie ukrytej w sztucznej sieci neuronowej .
- hiper-
- heurystyka Heurystyka metoda wyszukiwania, która ma na celu zautomatyzowanie procesu wybierania, łączenia, generowania lub dostosowywania kilku prostszych heurystyk (lub elementów takich heurystyk) w celu wydajnego rozwiązywania problemów wyszukiwania obliczeniowego, często poprzez włączenie technik uczenia maszynowego . Jedną z motywacji do studiowania hiperheurystyk jest budowanie systemów, które mogą obsługiwać klasy problemów, a nie rozwiązywać tylko jeden problem.
I
- IEEE Computational Intelligence Society
- Stowarzyszenie zawodowe Instytutu Inżynierów Elektryków i Elektroników (IEEE) skupiające się na „teorii, projektowaniu, stosowaniu i rozwoju paradygmatów obliczeniowych motywowanych biologicznie i językowo, kładących nacisk na sieci neuronowe , systemy koneksjonistyczne, algorytmy genetyczne , programowanie ewolucyjne , systemy rozmyte i hybrydowe systemy inteligentne, w których zawarte są te paradygmaty”.
- uczenie przyrostowe
- Metoda uczenia maszynowego , w którym dane wejściowe są stale wykorzystywane do poszerzania wiedzy istniejącego modelu, tj. do dalszego uczenia modelu. Reprezentuje dynamiczną technikę uczenia nadzorowanego i uczenia nienadzorowanego , którą można zastosować, gdy dane uczące stają się dostępne stopniowo w czasie lub gdy ich rozmiar przekracza limity pamięci systemowej. Algorytmy, które mogą ułatwiać uczenie przyrostowe, są znane jako przyrostowe algorytmy uczenia maszynowego.
- silnik wnioskowania
- Składnik systemu, który stosuje reguły logiczne do bazy wiedzy w celu wydedukowania nowych informacji.
- integracja informacji (II)
- Łączenie informacji z heterogenicznych źródeł z różnymi reprezentacjami pojęciowymi, kontekstowymi i typograficznymi. Jest używany w eksploracji danych i konsolidacji danych z zasobów nieustrukturyzowanych lub częściowo ustrukturyzowanych. Zazwyczaj integracja informacji odnosi się do tekstowych reprezentacji wiedzy, ale czasami jest stosowana do treści multimedialnych . Fuzja informacji, która jest terminem pokrewnym, obejmuje łączenie informacji w nowy zestaw informacji w celu zmniejszenia redundancji i niepewności.
- Język przetwarzania informacji (IPL)
- A język programowania , który zawiera funkcje przeznaczone do pomocy w programach wykonujących proste działania związane z rozwiązywaniem problemów, takie jak listy, dynamiczna alokacja pamięci , typy danych , rekurencja , funkcje jako argumenty, generatory i kooperacyjna wielozadaniowość . IPL wynalazł koncepcję przetwarzania list, aczkolwiek w asemblera .
- wzmocnienie inteligencji (IA)
- Efektywne wykorzystanie technologii informacyjnej w zwiększaniu ludzkiej inteligencji .
- eksplozja inteligencji
- Możliwy wynik budowania przez ludzkość sztucznej inteligencji ogólnej (AGI). AGI byłaby zdolna do rekurencyjnego samodoskonalenia prowadzącego do szybkiego pojawienia się ASI ( sztucznej superinteligencji ), której granice są nieznane w czasach technologicznej osobliwości.
- inteligentny agent (IA)
- Autonomiczny podmiot, który działa, kierując swoją aktywność na osiąganie celów (tzn . jest agentem ), na środowisku wykorzystującym obserwację za pomocą czujników iw konsekwencji aktuatorów (czyli jest ono inteligentne). Inteligentni agenci mogą również uczyć się lub wykorzystywać wiedzę , aby osiągnąć swoje cele. Mogą być bardzo proste lub bardzo złożone .
- Inteligentne sterowanie
- Klasa technik sterowania wykorzystujących różne podejścia obliczeniowe oparte na sztucznej inteligencji, takie jak sieci neuronowe , prawdopodobieństwo bayesowskie , logika rozmyta , uczenie maszynowe , uczenie się przez wzmacnianie , obliczenia ewolucyjne i algorytmy genetyczne .
- inteligentny osobisty asystent
- Agent programowy , który może wykonywać zadania lub usługi dla osoby na podstawie poleceń słownych. Czasami termin „ chatbot ” jest używany w odniesieniu do wirtualnych asystentów ogólnie lub konkretnie, do których dostęp uzyskuje się za pośrednictwem czatu online (lub w niektórych przypadkach programów czatu online, które służą wyłącznie do celów rozrywkowych). Niektórzy wirtualni asystenci są w stanie interpretować ludzką mowę i odpowiadać za pomocą syntetyzowanych głosów. Użytkownicy mogą zadawać pytania asystentom, sterować automatyką domową urządzenia i odtwarzanie multimediów za pomocą poleceń głosowych oraz zarządzanie innymi podstawowymi zadaniami, takimi jak poczta e-mail, listy rzeczy do zrobienia i kalendarze za pomocą poleceń głosowych.
- interpretacja
- Przypisanie znaczenia symbolom języka formalnego . Wiele języków formalnych używanych w matematyce , logice i informatyce teoretycznej jest zdefiniowanych wyłącznie w terminach składniowych i jako takie nie mają żadnego znaczenia, dopóki nie zostaną zinterpretowane. Ogólne badanie interpretacji języków formalnych nazywa się semantyką formalną .
- motywacja wewnętrzna
- Inteligentny agent jest wewnętrznie zmotywowany do działania, jeśli sama treść informacji, doświadczenia wynikającego z działania, jest czynnikiem motywującym. Zawartość informacji w tym kontekście jest mierzona w teorii informacji jako kwantyfikująca niepewność. Typową motywacją wewnętrzną jest poszukiwanie nietypowych (zaskakujących) sytuacji, w przeciwieństwie do typowej motywacji zewnętrznej, takiej jak poszukiwanie pożywienia. Wewnętrznie zmotywowani sztuczni agenci przejawiają zachowania zbliżone do eksploracji i ciekawości .
- drzewo emisyjne
- Graficzny podział pytania, który dzieli je pionowo na różne komponenty i przechodzi do szczegółów w miarę czytania po prawej stronie. Drzewa problemów są przydatne w rozwiązywaniu problemów , aby zidentyfikować podstawowe przyczyny problemu, a także zidentyfikować jego potencjalne rozwiązania. Stanowią również punkt odniesienia, aby zobaczyć, jak każdy element pasuje do całego obrazu problemu.
J
- algorytm drzewa skrzyżowań
- Metoda używana w uczeniu maszynowym do wydobywania marginalizacji z ogólnych wykresów . Zasadniczo polega to na przeprowadzeniu propagacji przekonań na zmodyfikowanym grafie zwanym drzewem połączeń . Wykres nazywany jest drzewem, ponieważ rozgałęzia się na różne sekcje danych; węzłami zmiennych są gałęzie.
k
- metoda jądra
- W uczeniu maszynowym metody jądra są klasą algorytmów do analizy wzorców , których najbardziej znanym elementem jest maszyna wektorów nośnych (SVM). Ogólnym zadaniem analizy wzorców jest znajdowanie i badanie ogólnych typów relacji (na przykład skupień , rankingów , głównych składowych , korelacji , klasyfikacji ) w zbiorach danych.
- KL-ONE
- Znany system reprezentacji wiedzy wywodzący się z tradycji sieci i ramy semantyczne ; to znaczy jest to język ramki . System jest próbą przezwyciężenia semantycznej niewyraźności w reprezentacjach sieci semantycznej i wyraźnego przedstawienia informacji pojęciowych jako ustrukturyzowanej sieci dziedziczenia.
- zdobywanie wiedzy
- Proces używany do definiowania reguł i ontologii wymaganych dla systemu opartego na wiedzy . Wyrażenie to zostało po raz pierwszy użyte w połączeniu z systemami eksperckimi do opisania początkowych zadań związanych z tworzeniem systemu eksperckiego, a mianowicie znajdowania i przeprowadzania wywiadów z domeną ekspertów i zdobywanie ich wiedzy za pomocą reguł , obiektów i ontologii opartych na ramkach .
- system oparty na wiedzy (KBS)
- Program komputerowy , który uzasadnia i wykorzystuje bazę wiedzy do rozwiązywania złożonych problemów . Termin ten jest szeroki i odnosi się do wielu różnych rodzajów systemów. Jedynym wspólnym tematem, który łączy wszystkie systemy oparte na wiedzy, jest próba jawnego przedstawienia wiedzy i system wnioskowania co pozwala mu zdobywać nową wiedzę. Zatem system oparty na wiedzy ma dwie wyróżniające cechy: bazę wiedzy i silnik wnioskowania .
- inżynieria wiedzy (KE)
- Wszystkie aspekty techniczne, naukowe i społeczne związane z budowaniem, utrzymywaniem i używaniem systemów opartych na wiedzy .
- ekstrakcja wiedzy
- Tworzenie wiedzy z ustrukturyzowanej ( relacyjne bazy danych , XML ) i nieustrukturyzowanej ( tekst , dokumenty, obrazy ) źródła. Uzyskana wiedza musi być w formacie nadającym się do odczytu maszynowego i interpretacji maszynowej oraz musi reprezentować wiedzę w sposób ułatwiający wnioskowanie. Chociaż jest metodycznie podobny do ekstrakcji informacji ( NLP ) i ETL (hurtowni danych), głównym kryterium jest to, że wynik ekstrakcji wykracza poza tworzenie ustrukturyzowanej informacji lub przekształcenie w schemat relacyjny . Wymaga ponownego wykorzystania istniejącej wiedzy formalnej (ponowne wykorzystanie identyfikatorów lub ontologii ) lub wygenerowanie schematu na podstawie danych źródłowych.
- Knowledge Interchange Format (KIF)
- Język komputerowy zaprojektowany w celu umożliwienia systemom udostępniania i ponownego wykorzystywania informacji z systemów opartych na wiedzy . KIF jest podobny do języków ramowych, takich jak KL-ONE i LOOM , ale w przeciwieństwie do takich języków, jego podstawowa rola nie jest pomyślana jako ramy do wyrażania lub używania wiedzy, ale raczej do wymiany wiedzy między systemami. Projektanci KIF porównali go do PostScriptu . PostScript nie został zaprojektowany przede wszystkim jako język do przechowywania dokumentów i manipulowania nimi, ale raczej jako format wymiany dla systemów i urządzeń do udostępniania dokumentów. W ten sam sposób KIF ma ułatwiać dzielenie się wiedzą między różnymi systemami, które używają różnych języków, formalizmów, platform itp.
- reprezentacja wiedzy i wnioskowanie (KR² lub KR&R)
- Dziedzina sztucznej inteligencji zajmująca się reprezentacją informacji o świecie w postaci które system komputerowy może wykorzystać do rozwiązywania złożonych zadań, takich jak diagnozowanie stanu zdrowia lub prowadzenie dialogu w języku naturalnym . Reprezentacja wiedzy obejmuje ustalenia psychologii dotyczące tego, jak ludzie rozwiązują problemy i reprezentują wiedzę w celu zaprojektowania formalizmów , które ułatwią projektowanie i budowanie złożonych systemów. Reprezentacja wiedzy i wnioskowanie obejmuje również wnioski z logiki w celu zautomatyzowania różnych rodzajów rozumowania , takich jak stosowanie reguł lub relacje zbiorów i podzbiorów . Przykłady formalizmów reprezentacji wiedzy obejmują sieci semantyczne , architektura systemów , ramy , reguły i ontologie . Przykłady zautomatyzowanych silników wnioskowania obejmują silniki wnioskowania , dowodzenia twierdzeń i klasyfikatory.
Ł
- leniwe uczenie się
- W uczeniu maszynowym leniwe uczenie się jest metodą uczenia się, w której generalizacja danych treningowych jest teoretycznie opóźniona do momentu wysłania zapytania do systemu, w przeciwieństwie do szybkiego uczenia się , w którym system próbuje uogólnić dane treningowe przed otrzymaniem zapytania.
- LISP (język programowania) (LISP)
- Rodzina języków programowania o długiej historii i wyróżniającej się notacji przedrostkowej w nawiasach .
- programowanie logiczne
- Rodzaj paradygmat programowania , który w dużej mierze opiera się na logice formalnej . Każdy program napisany w języku programowania logicznego jest zbiorem zdań w formie logicznej, wyrażających fakty i reguły dotyczące jakiejś dziedziny problemowej. Główne rodziny języków programowania logiki obejmują Prolog , programowanie zestawów odpowiedzi (ASP) i Datalog .
- long short-term memory (LSTM)
- Sztuczna rekurencyjna architektura sieci neuronowej stosowana w dziedzinie głębokiego uczenia się . W przeciwieństwie do standardu wyprzedzające sieci neuronowe , LSTM ma połączenia sprzężenia zwrotnego, które czynią go „komputerem ogólnego przeznaczenia” (to znaczy może obliczyć wszystko, co potrafi maszyna Turinga ). Może przetwarzać nie tylko pojedyncze punkty danych (takie jak obrazy), ale także całe sekwencje danych (takie jak mowa lub wideo).
M
- wizja maszynowa (MV)
- Technologia i metody wykorzystywane do zapewniania opartej na obrazowaniu automatycznej inspekcji i analizy do takich zastosowań, jak automatyczna inspekcja, sterowanie procesami i kierowanie robotami, zazwyczaj w przemyśle. Wizja maszynowa to termin obejmujący dużą liczbę technologii, produktów oprogramowania i sprzętu, zintegrowanych systemów, działań, metod i wiedzy specjalistycznej. Wizja maszynowa jako inżynierii systemów może być uważana za odrębną od wizji komputerowej , formy informatyki . Próbuje zintegrować istniejące technologie w nowy sposób i zastosować je do rozwiązywania rzeczywistych problemów. Termin ten jest dominujący dla tych funkcji w środowiskach automatyki przemysłowej, ale jest również używany dla tych funkcji w innych środowiskach, takich jak bezpieczeństwo i naprowadzanie pojazdów.
- Łańcuch Markowa
- Model stochastyczny opisujący ciąg możliwych zdarzeń, w którym prawdopodobieństwo każdego zdarzenia zależy tylko od stanu osiągniętego w zdarzeniu poprzednim.
- Proces decyzyjny Markowa (MDP)
- Sterowanie stochastyczne w czasie dyskretnym proces. Zapewnia ramy matematyczne do modelowania podejmowania decyzji w sytuacjach, w których wyniki są częściowo losowe , a częściowo pod kontrolą decydenta. MDP są przydatne do badania problemów optymalizacyjnych rozwiązywanych za pomocą programowania dynamicznego i uczenia się przez wzmacnianie .
- optymalizacja matematyczna
- W matematyce , informatyce i badaniach operacyjnych wybór najlepszego elementu (w odniesieniu do jakiegoś kryterium) z pewnego zestawu dostępnych alternatyw.
- uczenie maszynowe (ML)
- Naukowe badanie algorytmów i modeli statystycznych wykorzystywanych przez systemy komputerowe do skutecznego wykonywania określonych zadań bez używania wyraźnych instrukcji, polegających zamiast tego na wzorcach i wnioskowaniu .
- słuchanie maszyny
- Ogólna dziedzina badań nad algorytmami i systemami rozumienia dźwięku przez maszynę.
- postrzeganie maszynowe
- Zdolność systemu komputerowego do interpretowania danych w sposób podobny do sposobu, w jaki ludzie używają swoich zmysłów, aby odnosić się do otaczającego ich świata.
- projektowanie mechanizmów
- Dziedzina ekonomii i teorii gier , która przyjmuje inżynierskie podejście do projektowania mechanizmów ekonomicznych lub bodźców , zmierzających do pożądanych celów, w ustawieniach strategicznych , w których gracze działają racjonalnie . Ponieważ zaczyna się na końcu gry, a następnie cofa, jest również nazywana teorią gier odwróconych. Ma szerokie zastosowania, od ekonomii i polityki (rynki, aukcje, procedury głosowania) po systemy sieciowe (trasowanie między domenami internetowymi, sponsorowane aukcje wyszukiwania).
- mechatronika
- Multidyscyplinarna gałąź inżynierii, która koncentruje się na inżynierii systemów elektrycznych i mechanicznych , a także obejmuje połączenie robotyki , elektroniki , informatyki , telekomunikacji , systemów , sterowania i inżynierii produktu .
- rekonstrukcja i symulacja sieci metabolicznej
- Pozwala na dogłębny wgląd w mechanizmy molekularne konkretnego organizmu. W szczególności modele te korelują genom z fizjologią molekularną.
- metaheurystyka
- W informatyce i optymalizacji matematycznej metaheurystyka to procedura wyższego poziomu lub heurystyka przeznaczona do znajdowania, generowania lub wybierania heurystyki (częściowego algorytmu wyszukiwania ), która może zapewnić wystarczająco dobre rozwiązanie problemu optymalizacji , zwłaszcza w przypadku niekompletnych lub niedoskonałych informacji lub ograniczone możliwości obliczeniowe. Metaheurystyka próbkuje zestaw rozwiązań, który jest zbyt duży, aby można go było w całości pobrać.
- sprawdzanie modelu
- W informatyce sprawdzanie modelu lub sprawdzanie właściwości to dla danego modelu systemu wyczerpujące i automatyczne sprawdzenie, czy ten model spełnia zadaną specyfikację . Zazwyczaj ma się na myśli systemy sprzętowe lub programowe, podczas gdy specyfikacja zawiera wymagania bezpieczeństwa, takie jak brak zakleszczeń i podobnych stanów krytycznych, które mogą spowodować awarię systemu . Sprawdzanie modelu to technika automatycznego weryfikowania właściwości poprawności skończonych .
- modus ponens
- W logice zdań , modus ponens jest regułą wnioskowania . Można to podsumować w następujący sposób: „ P implikuje Q , a P jest prawdziwe, dlatego Q musi być prawdziwe”.
- modus tollens
- W logice zdań modus tollens jest ważną formą argumentowania i regułą wnioskowania . Jest to zastosowanie ogólnej prawdy, że jeśli zdanie jest prawdziwe, to prawdziwe jest również jego przeciwieństwo . Reguła wnioskowania modus tollens twierdzi, że wnioskowanie z P implikuje Q do negacji Q implikuje, że negacja P jest ważna.
- Przeszukiwanie drzewa Monte Carlo
- W informatyce przeszukiwanie drzewa Monte Carlo (MCTS) to heurystyczny algorytm przeszukiwania niektórych rodzajów procesów decyzyjnych .
- system wieloagentowy (MAS)
- Skomputeryzowany system składający się z wielu współpracujących ze sobą inteligentnych agentów . Systemy wieloagentowe mogą rozwiązywać problemy, które są trudne lub niemożliwe do rozwiązania dla pojedynczego agenta lub systemu monolitycznego . Inteligencja może obejmować podejście metodyczne , funkcjonalne , proceduralne , wyszukiwanie algorytmiczne lub uczenie się przez wzmacnianie .
- optymalizacja wielu rojów
- Wariant optymalizacji roju cząstek (PSO) w oparciu o wykorzystanie wielu podgrup zamiast jednego (standardowego) roju. Ogólne podejście w optymalizacji wielu rojów polega na tym, że każdy rój podrzędny koncentruje się na określonym regionie, podczas gdy określona metoda dywersyfikacji decyduje o tym, gdzie i kiedy uruchomić podroje. Struktura wielu rojów jest szczególnie dostosowana do optymalizacji problemów multimodalnych, w których istnieje wiele (lokalnych) optimów.
- mutacja
- Operator genetyczny używany do utrzymania różnorodności genetycznej z jednego pokolenia populacji chromosomów algorytmu genetycznego do następnego. Jest to analogiczne do biologicznego mutacja . Mutacja zmienia jedną lub więcej wartości genów w chromosomie ze stanu początkowego. W przypadku mutacji rozwiązanie może całkowicie zmienić się w stosunku do poprzedniego rozwiązania. Stąd AH może dojść do lepszego rozwiązania poprzez zastosowanie mutacji. Mutacja zachodzi podczas ewolucji zgodnie z prawdopodobieństwem mutacji zdefiniowanym przez użytkownika. Prawdopodobieństwo to należy ustawić na niskim poziomie. Jeśli jest ustawiony zbyt wysoko, wyszukiwanie zmieni się w prymitywne wyszukiwanie losowe.
- Mycin
- Wczesny system ekspercki oparty na łańcuchu wstecznym , który wykorzystywał sztuczną inteligencję do identyfikowania bakterii powodujących ciężkie infekcje, takie jak bakteriemia i bakteriemia zapalenie opon mózgowo-rdzeniowych oraz zalecanie antybiotyków z dawkowaniem dostosowanym do masy ciała pacjenta – nazwa pochodzi od samych antybiotyków, ponieważ wiele antybiotyków ma przyrostek „-mycyna”. System MYCIN wykorzystano również do diagnostyki chorób krzepnięcia krwi.
N
- naiwny klasyfikator Bayesa
- W uczeniu maszynowym naiwne klasyfikatory Bayesa to rodzina prostych klasyfikatorów probabilistycznych opartych na zastosowaniu twierdzenia Bayesa z silnymi (naiwnymi) założeniami o niezależności między cechami.
- semantyka naiwna
- Podejście stosowane w informatyce do przedstawiania podstawowej wiedzy o określonej domenie i był używany w aplikacjach, takich jak reprezentacja znaczenia zdań języka naturalnego w aplikacjach sztucznej inteligencji. W ogólnym kontekście termin ten był używany w odniesieniu do korzystania z ograniczonego zasobu ogólnie rozumianej wiedzy o określonej domenie na świecie i był stosowany w takich dziedzinach, jak projektowanie schematów danych w oparciu o wiedzę.
- wiązanie nazw
- W językach programowania wiązanie nazw to powiązanie jednostek (danych i/lub kodu) z identyfikatorami . Mówi się, że identyfikator powiązany z obiektem odwołuje się do tego obiektu. Języki maszynowe nie mają wbudowanego pojęcia identyfikatorów, ale powiązania nazwa-obiekt jako usługa i notacja dla programisty są implementowane przez języki programowania. Wiązanie jest ściśle związane z zakresem , ponieważ zakres określa, które nazwy wiążą się z jakimi obiektami — w których miejscach w kodzie programu ( leksykalnie ) iw której jednej z możliwych ścieżek wykonania ( tymczasowo ). Użycie identyfikatora
id
w kontekście ustanawiającym powiązanie dlaid
nazywa się wystąpieniem wiążącym (lub definiującym). We wszystkich innych wystąpieniach (np. w wyrażeniach, przypisaniach i wywołaniach podprogramów) identyfikator oznacza to, z czym jest związany; takie wystąpienia nazywane są wystąpieniami stosowanymi. - rozpoznawanie nazwanych jednostek (NER)
- Podzadanie ekstrakcji informacji , które ma na celu zlokalizowanie i sklasyfikowanie nazwanych wzmianek o jednostkach w nieustrukturyzowanym tekście do wcześniej zdefiniowanych kategorii, takich jak nazwiska osób, organizacje, lokalizacje, kody medyczne , wyrażenia czasowe, ilości, wartości pieniężne, procenty itp.
- o nazwie wykres
- A kluczowa koncepcja architektury sieci semantycznej , w której zestaw instrukcji Resource Description Framework ( graf ) jest identyfikowany za pomocą URI , umożliwiając tworzenie opisów tego zestawu stwierdzeń, takich jak kontekst, informacje o pochodzeniu lub inne tego typu metadane . Nazwane grafy są prostym rozszerzeniem modelu danych RDF, za pomocą którego można tworzyć grafy, ale modelowi brakuje skutecznego sposobu rozróżniania ich po opublikowaniu w sieci .
- generowanie języka naturalnego (NLG)
- Proces programowy, który przekształca dane strukturalne w treść w prostym języku angielskim. Może być używany do tworzenia długich treści dla organizacji w celu automatyzacji niestandardowych raportów, a także do tworzenia niestandardowych treści dla aplikacji internetowych lub mobilnych. Może być również używany do generowania krótkich fragmentów tekstu w interaktywnych rozmowach (chatbot ) , które mogą być nawet odczytywane na głos przez system zamiany tekstu na mowę .
- przetwarzanie języka naturalnego (NLP)
- Poddziedzina informatyki, inżynierii informacyjnej i sztucznej inteligencji zajmująca się interakcjami między komputerami a ludzkimi (naturalnymi) językami, w szczególności programowaniem komputerów do przetwarzania i analizowania dużych ilości danych w języku naturalnym .
- programowanie w języku naturalnym
- Wspomagany ontologicznie sposób programowania w kategoriach zdań języka naturalnego , np. angielskiego .
- motyw sieciowy
- Wszystkie sieci, w tym sieci biologiczne, sieci społecznościowe, sieci technologiczne (np. sieci komputerowe i obwody elektryczne) i inne, można przedstawić jako grafy , które zawierają szeroką gamę podgrafów. Jedną z ważnych właściwości lokalnych sieci są tak zwane motywy sieciowe, które definiuje się jako powtarzające się i statystycznie istotne podgrafy lub wzorce.
- neuronowe tłumaczenie maszynowe (NMT)
- Podejście do tłumaczenia maszynowego wykorzystujące dużą sztuczną sieć neuronową przewidzieć prawdopodobieństwo sekwencji słów, zazwyczaj modelując całe zdania w jednym zintegrowanym modelu.
- neuronowa maszyna Turinga (NTM)
- Rekurencyjny model sieci neuronowej . NTM łączą możliwości rozmytego dopasowywania wzorców sieci neuronowych z algorytmiczną mocą programowalnych komputerów . NTM ma kontroler sieci neuronowej połączony z pamięcią zewnętrzną zasobów, z którymi oddziałuje poprzez mechanizmy uwagi. Interakcje pamięci są różniczkowalne od końca do końca, co umożliwia ich optymalizację za pomocą gradientu . NTM z o długiej pamięci krótkotrwałej (LSTM) może wywnioskować proste algorytmy, takie jak kopiowanie, sortowanie i przywoływanie asocjacyjne na podstawie samych przykładów.
- neuro-fuzzy
- Kombinacje sztucznych sieci neuronowych i logiki rozmytej .
- neurocybernetyka
- Bezpośrednia ścieżka komunikacji między wzmocnionym lub przewodowym mózgiem a urządzeniem zewnętrznym. BCI różni się od neuromodulacji tym, że umożliwia dwukierunkowy przepływ informacji. BCI są często ukierunkowane na badanie, mapowanie, wspomaganie, wzmacnianie lub naprawę funkcji poznawczych lub czuciowo-motorycznych człowieka.
- inżynieria neuromorficzna
- Koncepcja opisująca wykorzystanie systemów integracji na bardzo dużą skalę (VLSI) zawierających elektroniczne obwody analogowe do naśladowania architektur neurobiologicznych obecnych w układzie nerwowym. W ostatnim czasie termin neuromorficzny był używany do opisania analogowych, cyfrowych, analogowych / cyfrowych VLSI w trybie mieszanym oraz systemów oprogramowania, które implementują modele systemów neuronowych ( do percepcji , sterowania silnikiem lub integracji multisensorycznej ). Implementacja obliczeń neuromorficznych na poziomie sprzętowym może być realizowana na bazie tlenków memrystory , pamięci spintroniczne, przełączniki progowe i tranzystory .
- węzeł
- Podstawowa jednostka struktury danych , taka jak połączona lista lub struktura danych drzewa . Węzły zawierają dane , a także mogą łączyć się z innymi węzłami. Połączenia między węzłami są często realizowane za pomocą wskaźników .
- algorytm Algorytm , który nawet dla tych samych danych wejściowych może wykazywać różne zachowania w różnych przebiegach, w przeciwieństwie do algorytmu deterministycznego .
- niedeterministyczny
- nouvelle AI
- Nouvelle AI różni się od klasycznej sztucznej inteligencji tym, że dąży do stworzenia robotów o poziomie inteligencji zbliżonym do owadów. Naukowcy uważają, że inteligencja może wyłaniać się organicznie z prostych zachowań, gdy te inteligencje wchodziły w interakcje z „prawdziwym światem”, zamiast wykorzystywać skonstruowane światy, które zwykle musiały w nich zaprogramować symboliczne AI.
- NP
- W teorii złożoności obliczeniowej NP (niedeterministyczny czas wielomianowy) to klasa złożoności używana do klasyfikowania problemów decyzyjnych . NP to zbiór problemów decyzyjnych, dla których instancje problemu , w których odpowiedź brzmi „tak”, mają dowody weryfikowalne w czasie wielomianowym .
- NP-zupełność
- W teorii złożoności obliczeniowej problem jest NP-zupełny, gdy można go rozwiązać za pomocą ograniczonej klasy algorytmów wyszukiwania siłowego i można go użyć do symulacji dowolnego innego problemu za pomocą podobnego algorytmu. Dokładniej, każde wejście do problemu powinno być powiązane ze zbiorem rozwiązań o długości wielomianu, których trafność można szybko przetestować (w czasie wielomianowym ), tak że wyjściem dla dowolnego wejścia jest „tak”, jeśli zbiór rozwiązań nie jest pusty, i „nie”, jeśli jest pusty.
- NP-twardość
- W teorii złożoności obliczeniowej właściwość definiująca klasę problemów, które nieformalnie są „co najmniej tak trudne, jak najtrudniejsze problemy w NP”. Prostym przykładem problemu NP-trudnego jest problem sumy podzbioru .
O
- Brzytwa Ockhama
- Zasada rozwiązywania problemów, która mówi, że w przypadku przedstawienia konkurencyjnych hipotez , które zawierają te same prognozy, należy wybrać rozwiązanie z najmniejszą liczbą założeń; zasada nie ma na celu odfiltrowania hipotez, które zawierają różne prognozy. Pomysł przypisuje się angielskiemu franciszkaninowi bratu Williamowi z Ockham ( ok. 1287–1347), scholastycznemu filozofowi i teologowi .
- uczenie offline
- uczenie maszynowe online
- Metoda uczenia maszynowego w którym dane stają się dostępne w kolejności sekwencyjnej i są wykorzystywane do aktualizacji najlepszego predyktora dla przyszłych danych na każdym etapie, w przeciwieństwie do technik uczenia się wsadowego, które generują najlepszy predyktor, ucząc się jednocześnie na całym zbiorze danych szkoleniowych. Uczenie się online jest powszechną techniką stosowaną w obszarach uczenia maszynowego, w których szkolenie całego zestawu danych jest obliczeniowo niewykonalne, co wymaga zastosowania algorytmów spoza rdzenia . Jest również używany w sytuacjach, gdy algorytm musi dynamicznie dostosowywać się do nowych wzorców w danych lub gdy same dane są generowane w funkcji czasu.
- uczenie się ontologii
- Automatyczne lub półautomatyczne tworzenie ontologii , w tym wyodrębnianie odpowiednich terminów domeny i relacji między pojęciami , które te terminy reprezentują z korpusu tekstu języka naturalnego, oraz kodowanie ich za pomocą języka ontologii w celu łatwego wyszukiwania.
- OpenAI
- Korporacja nastawiona na zysk OpenAI LP, której organizacją macierzystą jest organizacja non-profit OpenAI Inc, prowadząca badania w dziedzinie sztucznej inteligencji (AI) z deklarowanym celem promowania i rozwijania przyjaznej sztucznej inteligencji w taki sposób, aby przynieść korzyści całej ludzkości.
- OpenCog
- Projekt, którego celem jest zbudowanie platformy sztucznej inteligencji typu open source . OpenCog Prime to architektura dla robota i wirtualnego ucieleśnionego poznania , która definiuje zestaw współdziałających komponentów zaprojektowanych w celu stworzenia równoważnej człowiekowi sztucznej inteligencji ogólnej (AGI) jako wyłaniającego się zjawiska całego systemu.
- Open Mind Common Sense
- Projekt sztucznej inteligencji oparty na Massachusetts Institute of Technology (MIT) Media Lab , którego celem jest budowanie i wykorzystywanie dużej zdroworozsądkowej bazy wiedzy na podstawie wkładu wielu tysięcy ludzi w sieci.
- open source software (OSS)
- Rodzaj oprogramowania komputerowego , w którym kod źródłowy jest udostępniany na podstawie licencji , w ramach której właściciel praw autorskich przyznaje użytkownikom prawa do studiowania, zmieniania i rozpowszechniania oprogramowania wśród wszystkich osób iw dowolnym celu. Oprogramowanie typu open source mogą być rozwijane w sposób publiczny oparty na współpracy . Oprogramowanie typu open source jest wybitnym przykładem otwartej współpracy .
P
- częściowa redukcja rzędu
- Technika zmniejszania rozmiaru przestrzeni stanów, która ma być przeszukiwana przez sprawdzanie modelu lub automatyczny algorytm planowania i szeregowania . Wykorzystuje przemienność współbieżnie wykonywanych przejść , które skutkują tym samym stanem, gdy są wykonywane w różnych rzędach.
- częściowo obserwowalny proces decyzyjny Markowa (POMDP)
- Uogólnienie procesu decyzyjnego Markowa (MDP). POMDP modeluje proces decyzyjny agenta, w którym zakłada się, że dynamika systemu jest określana przez MDP, ale agent nie może bezpośrednio obserwować stanu bazowego. Zamiast tego musi utrzymywać rozkład prawdopodobieństwa w zbiorze możliwych stanów, w oparciu o zbiór obserwacji i prawdopodobieństw obserwacji oraz bazowy MDP.
- optymalizacja roju cząstek (PSO)
- Metoda obliczeniowa, która optymalizuje problem poprzez iteracyjne próby ulepszenia potencjalnego rozwiązania w odniesieniu do danej miary jakości. Rozwiązuje problem, mając populację kandydujących rozwiązań, tutaj nazwanych cząstkami , i przesuwając te cząstki w przestrzeni poszukiwań zgodnie z prostymi wzorami matematycznymi określającymi położenie i prędkość cząstki. Na ruch każdej cząstki wpływa jej najlepiej znana lokalna pozycja, ale jest on również prowadzony w kierunku najbardziej znanych pozycji w przestrzeni poszukiwań, które są aktualizowane w miarę znajdowania lepszych pozycji przez inne cząstki. Oczekuje się, że przesunie to rój w kierunku najlepszych rozwiązań.
- Znalezienie drogi
- Wykreślanie przez aplikację komputerową najkrótszej trasy między dwoma punktami. Jest to bardziej praktyczny wariant rozwiązywania labiryntów . Ta dziedzina badań opiera się w dużej mierze na algorytmie Dijkstry służącym do znajdowania najkrótszej ścieżki na grafie ważonym .
- rozpoznawanie wzorców
- Zajmuje się automatycznym wykrywaniem prawidłowości w danych za pomocą algorytmów komputerowych i wykorzystywaniem tych prawidłowości do podejmowania działań, takich jak klasyfikowanie danych do różnych kategorii.
- Logika predykatów
- Zbiór systemów formalnych używanych w matematyce , filozofii , językoznawstwie i informatyce . Logika pierwszego rzędu wykorzystuje skwantyfikowane zmienne zamiast obiektów nielogicznych i pozwala na użycie zdań zawierających zmienne, dzięki czemu zamiast zdań takich jak Sokrates to człowiek można mieć wyrażenia w postaci „istnieje x takie, że x to Sokrates i x jest człowiekiem” i istnieje kwantyfikator, podczas gdy x jest zmienną. To odróżnia go od logika zdaniowa , która nie używa kwantyfikatorów ani relacji ; w tym sensie logika zdań jest podstawą logiki pierwszego rzędu.
- analityka predykcyjna
- Różnorodne techniki statystyczne, od eksploracji danych , modelowania predykcyjnego i uczenia maszynowego , które analizują bieżące i historyczne fakty w celu przewidywania przyszłych lub w inny sposób nieznanych zdarzeń.
- analiza głównych składowych (PCA)
- Procedura statystyczna wykorzystująca transformację ortogonalną przekształcenie zbioru obserwacji potencjalnie skorelowanych zmiennych (obiektów, z których każdy przyjmuje różne wartości liczbowe) na zbiór wartości liniowo nieskorelowanych zmiennych, zwanych składowymi głównymi. Transformacja ta jest zdefiniowana w taki sposób, że pierwsza składowa główna ma największą możliwą wariancję (tj. ograniczenie, że jest prostopadłe do poprzednich składników. Wynikowe wektory (każdy będący kombinacją liniową zmiennych i zawierające n obserwacji) są nieskorelowanym ortogonalnym zbiorem bazowym . PCA jest wrażliwa na względne skalowanie oryginalnych zmiennych.
- zasada racjonalności
- Zasada wymyślona przez Karla R. Poppera w jego wykładzie na Harvardzie w 1963 roku i opublikowana w jego książce Myth of Framework . Jest to związane z tym, co nazwał „logiką sytuacji” w Economica z lat 1944/1945, opublikowanym później w jego książce The Poverty of Historicism . Zgodnie z zasadą racjonalności Poppera agenci działają w sposób najbardziej adekwatny do obiektywnej sytuacji. Jest to wyidealizowana koncepcja ludzkiego zachowania, której użył do kierowania swoim modelem analizy sytuacyjnej .
- programowanie probabilistyczne (PP)
- Paradygmat programowania , w którym określone są modele probabilistyczne i wnioskowanie dla tych modeli jest przeprowadzane automatycznie. Stanowi próbę ujednolicenia modelowania probabilistycznego i tradycyjnego programowania ogólnego przeznaczenia, aby uczynić to pierwsze łatwiejszym i szerzej stosowanym. Może służyć do tworzenia systemów, które pomagają podejmować decyzje w obliczu niepewności. Języki programowania używane do programowania probabilistycznego są określane jako „probabilistyczne języki programowania” (PPL).
- język programowania
- systemu produkcyjnego
- Język formalny , który zawiera zestaw instrukcji generujących różne rodzaje danych wyjściowych . Języki programowania są używane w programowaniu komputerów do implementacji algorytmów .
- Prolog
- Język programowania logicznego związany ze sztuczną inteligencją i lingwistyką komputerową . Prolog ma swoje korzenie w logice pierwszego rzędu , logice formalnej , i w przeciwieństwie do wielu innych języków programowania , Prolog jest pomyślany przede wszystkim jako deklaratywny język programowania: logika programu jest wyrażona w kategoriach relacji, reprezentowanych jako fakty i reguły . Obliczenia są inicjowane przez uruchomienie zapytania dotyczącego tych relacji.
- rachunek zdań
- Gałąź logiki zajmująca się zdaniami (które mogą być prawdziwe lub fałszywe) i przepływem argumentów. Zdania złożone są tworzone przez łączenie zdań spójnikami logicznymi . Zdania bez spójników logicznych nazywane są zdaniami atomowymi. W przeciwieństwie do logiki pierwszego rzędu , logika zdań nie zajmuje się obiektami nielogicznymi, predykatami na ich temat ani kwantyfikatorami. Jednak cała maszyneria logiki zdań jest zawarta w logice pierwszego i wyższego rzędu. W tym sensie logika zdań jest podstawą logiki pierwszego rzędu i logiki wyższego rzędu.
- Python
- Interpretowany język programowania wysokiego poziomu ogólnego przeznaczenia , stworzony przez Guido van Rossuma i wydany po raz pierwszy w 1991 roku . Filozofia projektowania Pythona kładzie nacisk na czytelność kodu dzięki znacznemu wykorzystaniu białych znaków . Jego konstrukcje językowe i podejście zorientowane obiektowo mają na celu pomóc programistom w pisaniu jasnego, logicznego kodu dla małych i dużych projektów.
Q
- problem kwalifikacji
- W filozofii i sztucznej inteligencji (zwłaszcza w systemach opartych na wiedzy ) problem kwalifikacji dotyczy niemożności wymienienia wszystkich warunków wstępnych wymaganych, aby działanie w świecie rzeczywistym przyniosło zamierzony skutek. Może to być postawione jako sposób radzenia sobie z rzeczami, które uniemożliwiają mi osiągnięcie zamierzonego rezultatu . Jest silnie powiązany i przeciwny do strony rozgałęzienia problemu z ramą .
- kwantyfikator
- W logice kwantyfikacja określa liczbę okazów w domenie dyskursu , które spełniają otwartą formułę . Dwa najczęstsze kwantyfikatory oznaczają „ dla wszystkich ” i „ istnieje ”. Na przykład w arytmetyce kwantyfikatory pozwalają powiedzieć, że liczby naturalne ciągną się w nieskończoność, pisząc, że dla wszystkich n (gdzie n jest liczbą naturalną) istnieje inna liczba (powiedzmy następnik n), która jest o jeden większa niż n.
- obliczenia kwantowe
- Wykorzystanie zjawisk mechaniki kwantowej, takich jak superpozycja i splątanie do wykonywania obliczeń . Do wykonywania takich obliczeń wykorzystywany jest komputer kwantowy, który można zrealizować teoretycznie lub fizycznie.
- język zapytań
- Języki zapytań lub języki zapytań o dane (DQL) to języki komputerowe używane do tworzenia zapytań w bazach danych i systemach informacyjnych . Zasadniczo języki zapytań można sklasyfikować według tego, czy są to języki zapytań do baz danych, czy języki zapytań do wyszukiwania informacji . Różnica polega na tym, że język zapytań do bazy danych próbuje udzielić rzeczowych odpowiedzi na pytania dotyczące faktów, podczas gdy język zapytań do wyszukiwania informacji próbuje znaleźć dokumenty zawierające informacje istotne dla danego obszaru zapytania.
R
- Język programowania R
- Język programowania i środowisko wolnego oprogramowania do obliczeń statystycznych i grafiki wspierane przez R Foundation for Statistical Computing. Język R jest szeroko stosowany wśród statystyków i eksploratorów danych do tworzenia oprogramowania statystycznego i analizy danych .
- sieć radialnych funkcji bazowych
- W dziedzinie modelowania matematycznego sieć radialnych funkcji bazowych to sztuczna sieć neuronowa , która wykorzystuje radialne funkcje bazowe jako funkcje aktywacji . Wyjście sieci jest liniową kombinacją promieniowych funkcji bazowych wejść i parametrów neuronu. Sieci radialnych funkcji bazowych mają wiele zastosowań, w tym aproksymację funkcji , przewidywanie szeregów czasowych , klasyfikację i kontrolę systemu . Zostały one po raz pierwszy sformułowane w 1988 roku przez Broomheada i Lowe'a, badaczy z Royal Signals i Radar Establishment .
- przypadkowy las
- Metoda uczenia zespołowego do celów klasyfikacji , regresji i innych zadań, która polega na konstruowaniu wielu drzew decyzyjnych w czasie szkolenia i wyprowadzaniu klasy, która jest trybem klas (klasyfikacja) lub przewidywaniem średniej (regresja) poszczególnych drzew. Losowe lasy decyzyjne korygują nawyk drzew decyzyjnych polegający na nadmiernym dopasowaniu do ich zbioru uczącego .
- system rozumowania
- W informatyce systemem rozumowania jest system oprogramowania , który generuje wnioski z dostępnej wiedzy przy użyciu technik logicznych , takich jak dedukcja i indukcja . Systemy wnioskowania odgrywają ważną rolę we wdrażaniu sztucznej inteligencji i systemów opartych na wiedzy .
- rekurencyjna sieć neuronowa (RNN)
- Klasa sztucznych sieci neuronowych , w których połączenia między węzłami tworzą graf skierowany wzdłuż sekwencji czasowej. To pozwala mu wykazywać dynamiczne zachowanie w czasie. w odróżnieniu sprzężone sieci neuronowe RNN mogą wykorzystywać swój stan wewnętrzny (pamięć) do przetwarzania sekwencji danych wejściowych. Dzięki temu mają zastosowanie do zadań takich jak niesegmentowane, połączone rozpoznawanie pisma ręcznego lub rozpoznawanie mowy .
- region connection calculus
- wzmacnianie uczenia się (RL)
- Obszar uczenia maszynowego zajmujący się tym, jak agenci oprogramowania powinni podejmować działania w środowisku, aby zmaksymalizować pojęcie skumulowanej nagrody. Uczenie ze wzmocnieniem jest jednym z trzech podstawowych paradygmatów uczenia maszynowego, obok uczenia nadzorowanego i uczenia bez nadzoru . Różni się od nadzorowanego uczenia się tym, że nie trzeba przedstawiać oznaczonych par wejście/wyjście, a nieoptymalne działania nie muszą być wyraźnie korygowane. Zamiast tego skupiamy się na znalezieniu równowagi między eksploracją (niezbadanego terytorium) a eksploatacją (aktualnej wiedzy).
- obliczenia zbiorników
- Ramy obliczeniowe, które można postrzegać jako rozszerzenie sieci neuronowych . Zazwyczaj sygnał wejściowy jest podawany do stałego (losowego) układu dynamicznego zwanego rezerwuarem , a dynamika rezerwuaru odwzorowuje wejście na wyższy wymiar. Następnie prosty odczytu jest szkolony w celu odczytania stanu zbiornika i odwzorowania go na żądane wyjście. Główną korzyścią jest to, że trening odbywa się tylko na etapie odczytu, a zbiornik jest stały. Maszyny w stanie ciekłym i sieci stanu echa to dwa główne typy obliczeń zbiornikowych.
- Struktura opisu zasobów (RDF)
- Rodzina Specyfikacje konsorcjum World Wide Web Consortium (W3C) pierwotnie zaprojektowane jako model danych metadanych . Zaczęło być używane jako ogólna metoda opisu pojęciowego lub modelowania informacji, która jest implementowana w zasobach sieciowych , przy użyciu różnych notacji składniowych i formatów serializacji danych . Jest również używany w aplikacjach do zarządzania wiedzą .
- ograniczona maszyna Boltzmanna (RBM)
- generatywna stochastyczna sztuczna sieć neuronowa , która może się uczyć rozkład prawdopodobieństwa w zbiorze danych wejściowych.
- Algorytm Rete Algorytm
- dopasowywania wzorców do implementacji systemów opartych na regułach . Algorytm został opracowany w celu efektywnego zastosowania wielu reguł lub wzorców do wielu obiektów lub faktów w bazie wiedzy . Służy do określenia, które z reguł systemu powinny zostać uruchomione na podstawie jego magazynu danych, jego faktów.
- robotyka
- Interdyscyplinarna dziedzina nauki i inżynierii obejmująca inżynierię mechaniczną , inżynieria elektroniczna , inżynieria informatyczna , informatyka i inne. Robotyka zajmuje się projektowaniem, budową, obsługą i użytkowaniem robotów , a także systemami komputerowymi do ich sterowania, sensorycznego sprzężenia zwrotnego i przetwarzania informacji .
- system oparty na regułach
- W informatyce system oparty na regułach jest używany do przechowywania i manipulowania wiedzą w celu interpretacji informacji w użyteczny sposób. Jest często używany w aplikacjach i badaniach sztucznej inteligencji. Normalnie termin system oparty na regułach jest stosowany do systemów obejmujących zestawy reguł stworzone przez ludzi lub wyselekcjonowane. Systemy oparte na regułach zbudowane przy użyciu automatycznego wnioskowania o regułach, takie jak oparte na regułach uczenie maszynowe , są zwykle wyłączone z tego typu systemów.
S
- spełnialność
- W logice matematycznej spełnialność i trafność są podstawowymi pojęciami semantyki . Formuła jest spełnialna , jeśli można znaleźć interpretację ( model ), która sprawia, że formuła jest prawdziwa. Formuła jest ważna , jeśli wszystkie interpretacje sprawiają, że formuła jest prawdziwa. Przeciwieństwami tych pojęć są niespełnialność i nieważność, to znaczy formuła jest niespełnialna, jeśli żadna z interpretacji nie czyni formuły prawdziwą i nieważną jeśli jakaś taka interpretacja czyni formułę fałszywą. Te cztery pojęcia są ze sobą powiązane w sposób dokładnie analogiczny do kwadratu opozycji Arystotelesa .
- algorytm wyszukiwania
- Dowolny algorytm , który rozwiązuje problem wyszukiwania , a mianowicie pobiera informacje przechowywane w jakiejś strukturze danych lub obliczone w przestrzeni poszukiwań dziedziny problemowej , z wartościami dyskretnymi lub ciągłymi .
- selekcja
- Etap algorytmu genetycznego w którym poszczególne genomy są wybierane z populacji do późniejszej hodowli (za pomocą operatora krzyżowania ).
- self-management (samozarządzanie)
- Proces, w ramach którego systemy komputerowe zarządzają własnym działaniem bez udziału człowieka.
- sieć semantyczna
- Baza wiedzy reprezentująca relacje semantyczne między pojęciami w sieci. Jest to często używane jako forma reprezentacji wiedzy . Jest to skierowany lub nieskierowany graf składający się z wierzchołków reprezentujących koncepcje i krawędzi reprezentujących semantyczne relacje między pojęciami, mapujące lub łączące pola semantyczne .
- rozumowanie semantyczne
- Program zdolny do wyciągania logicznych konsekwencji ze zbioru ustalonych faktów lub aksjomatów . Pojęcie semantycznego wnioskodawcy uogólnia pojęcie mechanizmu wnioskowania , zapewniając bogatszy zestaw mechanizmów do pracy. Reguły wnioskowania są zwykle określane za pomocą języka ontologii , a często języka logiki opisu . Wielu rozumujących używa logiki predykatów pierwszego rzędu do przeprowadzania rozumowania; wnioskowanie zwykle przebiega przez łańcuchowe do przodu i do tyłu .
- zapytanie semantyczne
- Umożliwia zapytania i analizy o charakterze asocjacyjnym i kontekstowym . Zapytania semantyczne umożliwiają wyszukiwanie zarówno jawnych, jak i niejawnych informacji uzyskanych na podstawie informacji składniowych, semantycznych i strukturalnych zawartych w danych. Zostały zaprojektowane tak, aby dostarczać precyzyjnych wyników (być może wyróżniającego się wyboru pojedynczej informacji) lub odpowiadać na bardziej rozmyte i szeroko otwarte pytania poprzez dopasowywanie wzorców i rozumowanie cyfrowe .
- semantyka
- W teorii języków programowania semantyka jest dziedziną zajmującą się rygorystycznymi matematycznymi badaniami znaczenia języków programowania . Robi to, oceniając znaczenie składniowo poprawnych łańcuchów zdefiniowany przez określony język programowania, pokazujący wymagane obliczenia. W takim przypadku, gdy ocena byłaby składniowo niepoprawnych ciągów, wynikiem byłby brak obliczeń. Semantyka opisuje procesy, które wykonuje komputer podczas wykonywania programu w tym konkretnym języku. Można to pokazać, opisując związek między wejściem a wyjściem programu lub wyjaśnienie, w jaki sposób program będzie wykonywany na określonej platformie , tworząc w ten sposób model obliczeń .
- sensor fusion
- Połączenie zmysłów dane lub dane pochodzące z różnych źródeł, w taki sposób, że otrzymane informacje są obarczone mniejszą niepewnością niż byłoby to możliwe, gdyby źródła te były wykorzystywane indywidualnie.
- logika separacji
- Rozszerzenie logiki Hoare'a , sposób rozumowania o programach. Język asercji logiki separacji jest szczególnym przypadkiem logiki skupionych implikacji (BI).
- uczenie podobieństw
- Obszar nadzorowanego uczenia maszynowego w sztucznej inteligencji. Jest to ściśle związane z regresją i klasyfikacją , ale celem jest uczenie się na podstawie funkcji podobieństwa, która mierzy, jak podobne lub powiązane są dwa obiekty. Ma zastosowanie w rankingach , systemach rekomendacji , śledzeniu tożsamości wizualnej, weryfikacji twarzy i weryfikacji mówcy.
- symulowane wyżarzanie (SA)
- probabilistyczna technika aproksymacji globalnego optimum danej funkcji . W szczególności jest to metaheurystyka przybliżająca globalną optymalizację w dużej przestrzeni wyszukiwania dla problem z optymalizacją .
- Podejście usytuowane
- W badaniach nad sztuczną inteligencją podejście usytuowane buduje agentów, których zaprojektowano tak, aby skutecznie zachowywali się w swoim środowisku. Wymaga to zaprojektowania sztucznej inteligencji „od dołu do góry”, skupiając się na podstawowych umiejętnościach percepcyjnych i motorycznych niezbędnych do przetrwania. Podejście usytuowane nadaje znacznie niższy priorytet abstrakcyjnemu rozumowaniu lub umiejętnościom rozwiązywania problemów.
- rachunek sytuacji
- Formalizm logiczny przeznaczony do przedstawiania i wnioskowania o domenach dynamicznych.
- Selektywne rozwiązanie klauzuli Linear Definite
- Podstawowa reguła wnioskowania używana w programowaniu logicznym . Jest to udoskonalenie rozdzielczości , która jest zarówno poprawna , jak i kompletna w przypadku klauzul Horna .
- oprogramowanie
- Zbiór danych lub instrukcji komputerowych , które mówią komputerowi, jak ma pracować. Jest to w przeciwieństwie do fizycznego sprzętu , z którego zbudowany jest system i faktycznie wykonuje pracę. W informatyce i inżynierii oprogramowania oprogramowanie komputerowe to wszystkie informacje przetwarzane przez systemy komputerowe , programy i dane . Oprogramowanie komputerowe obejmuje programy komputerowe , biblioteki i powiązane dane niewykonywalne , takie jak dokumentacja online lub media cyfrowe .
- inżynieria Zastosowanie inżynierii do tworzenia oprogramowania w sposób systematyczny.
- oprogramowania
- rozumowanie przestrzenno-czasowe
- Dziedzina sztucznej inteligencji, która czerpie z dziedzin informatyki , kognitywistyki i psychologii poznawczej . Cel teoretyczny – po stronie poznawczej – polega na reprezentowaniu i rozumowaniu wiedzy przestrzenno-czasowej w umyśle. Zastosowany cel – po stronie obliczeniowej – polega na opracowaniu wysokopoziomowych systemów sterowania automatami do nawigacji i rozumienia czasu i przestrzeni.
- SPARQL
- Język zapytań RDF — czyli semantyczny język zapytań do baz danych — potrafi pobierać i przetwarzać dane przechowywane w formacie Resource Description Framework (RDF) .
- rozpoznawanie mowy
- Interdyscyplinarna poddziedzina lingwistyki komputerowej , która rozwija metodologie i technologie umożliwiające rozpoznawanie i tłumaczenie języka mówionego na tekst przez komputery. Jest również znany jako automatyczne rozpoznawanie mowy (ASR), komputerowe rozpoznawanie mowy lub mowa na tekst (STT). Obejmuje wiedzę i badania z zakresu językoznawstwa , informatyki i elektrotechniki pola.
- szczytowa sieć neuronowa (SNN)
- Sztuczna sieć neuronowa , która bardziej naśladuje naturalną sieć neuronową. Oprócz neuronalnego i synaptycznego , sieci SNN uwzględniają pojęcie czasu w swoim modelu operacyjnym .
- stan
- W informatyce i informatyce program jest określany jako stanowy, jeśli ma zapamiętywać poprzednie zdarzenia lub interakcje użytkownika; zapamiętana informacja nazywana jest stanem systemu.
- klasyfikacja statystyczna
- W uczeniu maszynowym i statystyce klasyfikacja to problem polegający na określeniu, do którego zestawu kategorii ( subpopulacji) należy nowa obserwacja, na podstawie uczącego zestawu danych zawierającego obserwacje (lub instancje), których przynależność do kategorii jest znana. Przykładami są przypisanie danej wiadomości e-mail do „spam” lub „niespam” oraz przypisanie diagnozy danemu pacjentowi na podstawie zaobserwowanych cech pacjenta (płeć, ciśnienie krwi, obecność lub brak pewnych objawów itp.) . Klasyfikacja jest przykładem rozpoznawanie wzorców .
- statystyczne uczenie relacyjne (SRL)
- Subdyscyplina sztucznej inteligencji i uczenia maszynowego zajmująca się modelami dziedzin , które wykazują zarówno niepewność (z którą można sobie poradzić za pomocą metod statystycznych), jak i złożoną, relacyjną strukturę. Należy zauważyć, że SRL jest czasami nazywany relacyjnym uczeniem maszynowym (RML) w literaturze. Zazwyczaj reprezentacji wiedzy opracowane w SRL wykorzystują (podzbiór) logiki pierwszego rzędu opisywać relacyjne właściwości dziedziny w sposób ogólny ( kwantyfikacja uniwersalna ) i korzystać z probabilistycznych modeli graficznych (takich jak sieci bayesowskie lub sieci Markowa ) do modelowania niepewności; niektóre opierają się również na metodach programowania w logice indukcyjnej .
- optymalizacja stochastyczna (SO)
- Każda metoda optymalizacji generująca i wykorzystująca zmienne losowe . W przypadku problemów stochastycznych zmienne losowe pojawiają się w sformułowaniu samego problemu optymalizacji, który obejmuje losowe funkcje celu lub losowe ograniczenia. Stochastyczne metody optymalizacji obejmują również metody z losowymi iteracjami. Niektóre metody optymalizacji stochastycznej wykorzystują losowe iteracje do rozwiązywania problemów stochastycznych, łącząc oba znaczenia optymalizacji stochastycznej. Metody optymalizacji stochastycznej uogólniają deterministyczne dla problemów deterministycznych.
- stochastyczna analiza semantyczna
- Podejście stosowane w informatyce jako semantyka składnik rozumienia języka naturalnego . Modele stochastyczne na ogół wykorzystują definicję segmentów słów jako podstawowych jednostek semantycznych dla modeli semantycznych, aw niektórych przypadkach obejmują podejście dwuwarstwowe.
- Stanford Research Institute Problem Solver (STRIPS)
- ekspert w danej dziedzinie
- superinteligencja
- Hipotetyczny agent , który posiada inteligencję znacznie przewyższającą inteligencję najbystrzejszych i najbardziej utalentowanych ludzkie umysły. Superinteligencja może również odnosić się do właściwości systemów rozwiązywania problemów (np. superinteligentnych tłumaczy językowych lub asystentów inżynierów), niezależnie od tego, czy te kompetencje intelektualne wysokiego poziomu są ucieleśnione w agentach działających w świecie fizycznym. Superinteligencja może, ale nie musi, powstać w wyniku eksplozji inteligencji i być powiązana z osobliwością technologiczną .
- uczenie nadzorowane
- Zadanie uczenia maszynowego polegające na uczeniu się funkcji, która odwzorowuje wejście na wyjście na podstawie przykładowych par wejście-wyjście. Wnioskuje funkcję z labelled dane treningowe składające się z zestawu przykładów treningowych . W uczeniu nadzorowanym każdy przykład jest parą składającą się z obiektu wejściowego (zwykle wektora) i pożądanej wartości wyjściowej (zwanej także sygnałem nadzorczym ). Algorytm uczenia nadzorowanego analizuje dane treningowe i tworzy wywnioskowaną funkcję, której można użyć do mapowania nowych przykładów. Optymalny scenariusz pozwoli algorytmowi poprawnie określić etykiety klas dla niewidocznych instancji. Wymaga to od algorytmu uczenia się uogólnienia danych treningowych na niewidoczne sytuacje w „rozsądny” sposób (zob. odchylenie indukcyjne ).
- maszyny wektorów nośnych
- W uczeniu maszynowym maszyny wektorów nośnych (SVM, także sieci wektorów nośnych) to nadzorowane modele uczenia się z powiązanymi algorytmami uczenia się , które analizują dane wykorzystywane do analizy klasyfikacji i regresji .
- inteligencja roju SI)
- ( Zbiorowe zachowanie zdecentralizowanych , samoorganizujących się systemów naturalnych lub sztucznych. Wyrażenie zostało wprowadzone w kontekście komórkowych systemów robotycznych.
- symboliczna sztuczna inteligencja
- Termin określający zbiór wszystkich metod badań nad sztuczną inteligencją , które są oparte na „symbolicznych” (czytelnych dla człowieka) reprezentacjach wysokiego poziomu problemów, logiki i wyszukiwania .
- syntetyczna inteligencja (SI)
- Alternatywne określenie sztucznej inteligencji który podkreśla, że inteligencja maszyn nie musi być imitacją ani w żaden sposób sztuczna; może to być autentyczna forma inteligencji.
- system neuronauka
- Subdyscyplina neuronauki i biologii systemowej , która bada strukturę i funkcję obwodów i systemów neuronowych. Jest to termin ogólny obejmujący wiele obszarów badań dotyczących zachowania komórek nerwowych , gdy są połączone ze sobą w celu utworzenia ścieżek neuronowych , obwodów nerwowych i większych sieci mózgowych .
T
- osobliwość technologiczna
- Hipotetyczny punkt w przyszłości, w którym rozwój technologiczny staje się niekontrolowany i nieodwracalny, powodując niezgłębione zmiany w ludzkiej cywilizacji .
- uczenie się różnic czasowych
- Klasa bezmodelowych metod uczenia się przez wzmacnianie , które uczą się przez ładowanie z bieżącego oszacowania funkcji wartości. Metody te pobierają próbki ze środowiska, takie jak metody Monte Carlo , i wykonują aktualizacje w oparciu o bieżące szacunki, takie jak metody programowania dynamicznego .
- teoria sieci tensorowych
- Teoria mózgu (zwłaszcza móżdżku ) , która zapewnia matematyczny model transformacji czuciowych współrzędnych czasoprzestrzennych na współrzędne motoryczne i odwrotnie przez sieci neuronalne móżdżku . Teoria została rozwinięta jako geometryzacja funkcji mózgu (zwłaszcza ośrodkowego układu nerwowego ) za pomocą tensorów .
- TensorFlow
- Bezpłatna biblioteka oprogramowania typu open source do przepływu danych i programowanie różniczkowalne w zakresie różnych zadań. Jest to symboliczna biblioteka matematyczna, która jest również używana w uczenia maszynowego, takich jak sieci neuronowe .
- informatyka teoretyczna (TCS)
- Podzbiór informatyki ogólnej i matematyki , który koncentruje się na bardziej matematycznych zagadnieniach obliczeniowych i obejmuje teorię obliczeń .
- teoria obliczeń
- W informatyce teoretycznej i matematyce , teoria obliczeń jest gałęzią, która zajmuje się tym, jak efektywnie można rozwiązywać problemy na modelu obliczeniowym , używając algorytmu . Dziedzina jest podzielona na trzy główne gałęzie: teorię automatów i języki, teorię obliczalności i teorię złożoności obliczeniowej , które łączy pytanie: „Jakie są podstawowe możliwości i ograniczenia komputerów?”.
- Próbkowanie Thompsona
- Heurystyka wyboru działań, która rozwiązuje dylemat eksploracja-eksploatacja w wielorękiego bandyty . Polega na wybraniu akcji, która maksymalizuje oczekiwaną nagrodę w odniesieniu do losowo wylosowanego przekonania.
- złożoność czasowa
- Złożoność obliczeniowa opisująca ilość czasu potrzebnego do wykonania algorytmu . Złożoność czasową zwykle szacuje się, licząc liczbę elementarnych operacji wykonywanych przez algorytm, zakładając, że wykonanie każdej elementarnej operacji zajmuje określoną ilość czasu. Zatem przyjmuje się, że czas potrzebny i liczba podstawowych operacji wykonywanych przez algorytm różnią się co najwyżej o stały współczynnik .
- transhumanizm
- Międzynarodowy ruch filozoficzny , który opowiada się za przemianą ludzkiej kondycji poprzez rozwój i szeroko dostępne wyrafinowane technologie w celu znacznego wzmocnienia ludzkiego intelektu i fizjologii.
- system przejściowy
- W informatyce teoretycznej system przejściowy jest pojęciem używanym w badaniu obliczeń . Służy do opisu potencjalnego zachowania systemów dyskretnych . Składa się ze stanów oraz przejścia między stanami, które można oznaczyć etykietami wybranymi ze zbioru; ta sama etykieta może pojawić się na więcej niż jednym przejściu. Jeśli zestaw etykiet jest singletonem , system jest zasadniczo nieoznaczony i możliwa jest prostsza definicja, która pomija etykiety.
- przeprawa po drzewie
- Forma przechodzenia przez graf i odnosi się do procesu odwiedzania (sprawdzania i/lub aktualizowania) każdego węzła w drzewiastej strukturze danych dokładnie raz. Takie przejścia są klasyfikowane według kolejności, w jakiej odwiedzane są węzły.
- prawdziwa skwantyfikowana formuła boolowska
- W teorii złożoności obliczeniowej język TQBF jest językiem formalnym składającym się z prawdziwych skwantyfikowanych formuł boolowskich. (W pełni) skwantyfikowana formuła logiczna to formuła w skwantyfikowanej logice zdań , w której każda zmienna jest skwantyfikowana (lub związana ), używając kwantyfikatorów egzystencjalnych lub uniwersalnych na początku zdania. Taka formuła jest równoważna z prawdą lub fałszem (ponieważ nie ma wolnych zmiennych). Jeśli taka formuła ma wartość prawda, to ta formuła jest w języku TQBF. Jest również znany jako QSAT (Quantified SAT ).
- Maszyna Turinga
- Test Turinga
- Test zdolności maszyny do wykazywania inteligentnego zachowania równoważnego lub nieodróżnialnego od zachowania człowieka, opracowany przez Alana Turinga w 1950 r. Turing zaproponował, że oceniający człowiek oceniać konwersacje w języku naturalnym między człowiekiem a maszyną zaprojektowaną w celu generowania odpowiedzi podobnych do ludzkich. Oceniający byłby świadomy, że jeden z dwóch partnerów rozmowy jest maszyną, a wszyscy uczestnicy byliby oddzieleni od siebie. Rozmowa byłaby ograniczona do kanału tekstowego, takiego jak klawiatura komputera i ekran więc wynik nie zależałby od zdolności maszyny do renderowania słów jako mowy. Jeśli oceniający nie może wiarygodnie odróżnić maszyny od człowieka, mówi się, że maszyna przeszła test. Wyniki testu nie zależą od zdolności maszyny do udzielania poprawnych odpowiedzi na pytania, a jedynie od tego, jak bardzo jej odpowiedzi przypominają te, których udzieliłby człowiek.
- system typów
- W językach programowania zestaw reguł, który przypisuje właściwość zwaną typem różnym konstrukcjom programu komputerowego , takim jak zmienne , wyrażenia , funkcje lub moduły . Te typy formalizują i wymuszają ukryte kategorie, których programista używa dla algebraicznych typów danych , struktur danych lub innych komponentów (np. „string”, „array of float”, „funkcja zwracająca wartość logiczną”). Głównym celem systemu typów jest zmniejszenie możliwości wystąpienia błędów w programach komputerowych poprzez zdefiniowanie interfejsów między różnymi częściami programu komputerowego, a następnie sprawdzenie, czy części zostały połączone w spójny sposób. To sprawdzanie może odbywać się statycznie (w czasie kompilacji ), dynamicznie (w czasie wykonywania ) lub jako połączenie sprawdzania statycznego i dynamicznego. Systemy typów mają również inne cele, takie jak wyrażanie reguł biznesowych, umożliwianie pewnych optymalizacji kompilatora, zezwalanie na wielokrotne wysyłanie , zapewnianie formy dokumentacji itp.
u
- uczenie bez nadzoru
- Rodzaj samoorganizującego się uczenia hebbowskiego , które pomaga znaleźć nieznane wcześniej wzorce w zbiorze danych bez wcześniej istniejących etykiet. Jest również znany jako samoorganizacja i umożliwia modelowanie gęstości prawdopodobieństwa danych danych wejściowych. Jest to jedna z trzech głównych kategorii uczenia maszynowego, obok nadzorowanego i uczenia ze wzmocnieniem . Opisano również uczenie się częściowo nadzorowane, które jest hybrydyzacją technik nadzorowanych i nienadzorowanych.
V
- Vision Processing Unit (VPU)
- Typ mikroprocesora przeznaczony do przyspieszania zadań związanych z widzeniem maszynowym . Kompletne wyrównanie wartości — analogicznie do problemu z kompletną sztuczną inteligencją , problem z całkowitym wyrównaniem wartości to problem, w którym problem sterowania AI musi zostać w pełni rozwiązany, aby go rozwiązać. [ potrzebne źródło ]
W
- Watson
- Odpowiadający na pytania system komputerowy zdolny do odpowiadania na pytania zadawane w języku naturalnym , opracowany w ramach projektu IBM DeepQA przez zespół badawczy kierowany przez głównego badacza Davida Ferrucciego . Watson został nazwany na cześć pierwszego dyrektora generalnego IBM, przemysłowca Thomasa J. Watsona .
- słaba SI
- Sztuczna inteligencja skupiona na jednym wąskim zadaniu.
- World Wide Web Consortium (W3C)
- Główna międzynarodowa organizacja normalizacyjna dla sieci World Wide Web (w skrócie WWW lub W3).