Megahercowy mit

Mit megahercowy , aw nowszych przypadkach mit gigahercowy , odnosi się do błędnego przekonania, że ​​częstotliwość zegara (na przykład mierzona w megahercach lub gigahercach ) jest używana tylko do porównywania wydajności różnych mikroprocesorów . Podczas gdy częstotliwości taktowania są prawidłowym sposobem porównywania wydajności różnych prędkości tego samego modelu i typu procesora, inne czynniki, takie jak liczba jednostek wykonawczych , głębokość potoku , hierarchia pamięci podręcznej , przewidywanie rozgałęzień i zestawy instrukcji mogą znacząco wpłynąć na wydajność przy rozważaniu różnych procesorów. Na przykład jeden procesor może potrzebować dwóch cykli zegara , aby dodać dwie liczby i innego cyklu zegara, aby pomnożyć przez trzecią liczbę, podczas gdy inny procesor może wykonać te same obliczenia w dwóch cyklach zegara. Porównania między różnymi typami procesorów są trudne, ponieważ wydajność różni się w zależności od rodzaju zadania. Test porównawczy to dokładniejszy sposób mierzenia i porównywania wydajności komputera .

Mit powstał około 1984 roku, kiedy porównano Apple II z IBM PC . Argumentem było to, że komputer IBM był pięć razy szybszy niż Apple II, ponieważ jego Intel 8088 miał taktowanie około 4,7 razy szybsze niż technologia MOS 6502 stosowany w tym ostatnim. Jednak tak naprawdę liczy się nie to, jak dokładnie podzielone są instrukcje maszyny, ale ile czasu zajmuje wykonanie danego zadania. Rozważ instrukcję LDA # (Załaduj akumulator natychmiastowo). Na 6502 ta instrukcja wymaga dwóch cykli zegara lub 2 μs przy 1 MHz. Chociaż cykle zegara 4,77 MHz 8088 są krótsze, LDA # potrzebuje co najmniej 4 z nich, więc zajmuje co najmniej 4/4,77 MHz = 0,84 μs. Tak więc w najlepszym przypadku ta instrukcja działa tylko nieco ponad 2 razy szybciej na oryginalnym IBM PC niż na Apple II.

Historia

Tło

Architektura procesora oparta na architekturze x86 CISC , którą Intel wprowadził w 1978 roku, była używana jako standard dla komputerów IBM PC opartych na systemie DOS , a jej rozwój nadal dominuje na rynku Microsoft Windows . Architektura na IBM RISC została wykorzystana w procesorze PowerPC , który został wypuszczony w 1992 roku. W 1994 roku firma Apple Computer wprowadziła komputer Macintosh komputerów korzystających z tych procesorów PowerPC. Początkowo ta architektura spełniała nadzieje na wydajność i opracowano różne serie procesorów PowerPC, często zapewniające różne wydajności przy tej samej częstotliwości taktowania. Podobnie, w tym czasie Intel 80486 sprzedawał się obok Pentium , który zapewniał prawie dwukrotnie wyższą wydajność niż 80486 przy tej samej częstotliwości taktowania.

Powstanie mitu

Mit powstał, ponieważ częstotliwość taktowania była powszechnie traktowana jako prosta miara wydajności procesora i była promowana w reklamach oraz przez entuzjastów bez uwzględnienia innych czynników. Termin ten pojawił się w kontekście porównywania Apple Macintosh z procesorami PowerPC z komputerami PC z procesorami Intel . Marketing oparty na micie doprowadził do nadania częstotliwości zegara wyższego priorytetu niż rzeczywista wydajność i doprowadził do powstania AMD wprowadzenie numerów modeli podających hipotetyczną częstotliwość taktowania w oparciu o porównawczą wydajność, aby przezwyciężyć postrzegany niedobór ich rzeczywistej częstotliwości taktowania.

Nowoczesne adaptacje mitu

Wraz z pojawieniem się procesorów wielowątkowych i wielordzeniowych mit wywołał więcej nieporozumień dotyczących pomiaru wydajności procesorów wielordzeniowych. Niektórzy ludzie bez odpowiedniej wiedzy uważają, że czterordzeniowy procesor pracujący z częstotliwością 3 GHz dałby ogólną wydajność procesora o wartości 12 GHz. Inni mogą powiedzieć, że ogólna wydajność wynosi w rzeczywistości 3 GHz, przy czym każdy rdzeń pracuje z częstotliwością 750 MHz. Oba te pomysły są błędne. Często ten sam użytkownik dokonujący tych porównań będzie porównywał procesory wielu marek, które i tak nie wykonają takiej samej ilości pracy na cykl. Podczas gdy cechy mikroarchitektury, takie jak głębokość potoku, odgrywają tę samą rolę w wydajności, projekt przetwarzania równoległego uwzględnia inny czynnik: wydajność oprogramowania.

To prawda, że ​​źle napisany program będzie działał słabo nawet w systemie jednordzeniowym , ale nawet dobrze napisany program, który został zaprojektowany w sposób liniowy, często (jeśli nie zawsze) będzie działał lepiej w systemie jednordzeniowym niż wielordzeniowy , gdy jest uruchamiany samodzielnie. Nie wszystkie programy wykorzystują wszystkie dostępne rdzenie, nie wszystkie zadania mogą lub muszą być rozdzielone na kilka rdzeni, a dodatkowo użycie kilku rdzeni może wprowadzić dodatkową złożoność w programie, więc wielowątkowość jest zwykle wykonywany tylko wtedy, gdy korzyści z takiego postępowania są oczywiste. Ogólnej wydajności systemu nie można ocenić po prostu porównując liczbę rdzeni procesora i częstotliwości zegara, oprogramowanie działające w systemie jest również głównym czynnikiem obserwowanej szybkości. Mit o znaczeniu częstotliwości zegara zmylił wiele osób co do tego, jak oceniają szybkość systemu komputerowego.

Wyzwania dla mitu

  Porównania między PowerPC i Pentium stały się podstawą prezentacji Apple. Podczas przemówienia Keynote Macworld Expo w Nowym Jorku 18 lipca 2001 r. Steve Jobs opisał G4 867 MHz jako wykonujący zadanie w 45 sekund, podczas gdy Pentium 4 1,7 GHz potrzebował 82 sekund na wykonanie tego samego zadania, mówiąc, że „nazwa, którą my” biorąc pod uwagę, że jest to mit megahercowy”. Następnie przedstawił starszego wiceprezesa ds. sprzętu, Jona Rubinsteina , który wygłosił samouczek opisujący krótsze potoki dawał lepszą wydajność przy połowie częstotliwości zegara. Internetowa kreskówka Joy of Tech przedstawiła następnie serię kreskówek inspirowanych samouczkiem Rubinsteina.

Ograniczenia prędkości procesora

Od około 1995 do 2005 roku Intel reklamował swoje główne procesory Pentium głównie na podstawie samej szybkości zegara, w porównaniu z produktami konkurencji, takimi jak AMD. Artykuły prasowe przewidywały, że w ciągu następnych kilkudziesięciu lat procesory komputerowe mogą ostatecznie działać z prędkością od 10 do 20 gigaherców.

Trwało to do około 2005 roku, kiedy Pentium Extreme Edition osiągał granice rozpraszania ciepła przy prędkościach prawie 4 gigaherców. Procesor nie mógłby działać szybciej bez konieczności wprowadzenia skomplikowanych zmian w projekcie chłodzenia, takich jak mikroprzepływowe kanały chłodzące wbudowane w sam układ w celu szybkiego odprowadzania ciepła.

Następnie w 2006 roku wprowadzono procesor Core 2 do komputerów stacjonarnych, który był główną zmianą w stosunku do poprzednich procesorów Intel do komputerów stacjonarnych, umożliwiając prawie 50% zmniejszenie zegara procesora przy zachowaniu tej samej wydajności.

Core 2 miał swoje początki w mobilnym procesorze Pentium M , gdzie efektywność energetyczna była ważniejsza niż surowa moc, i początkowo oferował opcje oszczędzania energii niedostępne w Pentium 4 i Pentium D.

Wyższe częstotliwości

W kolejnych latach po upadku mikroarchitektury NetBurst i jej procesorów 3+ GHz, zegary mikroprocesorów powoli rosły, po początkowym spadku o około 1 GHz. Kilkuletnie postępy w procesach produkcyjnych i zarządzaniu energią (w szczególności możliwość ustawiania taktowania dla każdego rdzenia) pozwoliły na tak wysokie lub wyższe taktowania niż stare NetBurst Pentium 4s i Pentium Ds, ale przy znacznie wyższej wydajności i wydajności . Od 2018 roku wiele mikroprocesorów Intela jest w stanie przekroczyć podstawową częstotliwość taktowania 4 GHz (na przykład Intel Core i7-7700K i i3-7350K mają podstawową częstotliwość taktowania 4,20 GHz).

W 2011 roku firma AMD po raz pierwszy była w stanie przełamać barierę 4 GHz dla mikroprocesorów x86 , wprowadzając pierwsze procesory AMD FX oparte na Bulldozerze . W czerwcu 2013 r. AMD wypuściło FX-9590, który może osiągać prędkości do 5,0 GHz, ale powróciły podobne problemy ze zużyciem energii i emisją ciepła.

Ani Intel, ani AMD nie wyprodukowały pierwszego w branży mikroprocesora, który przekroczyłby bariery 4 GHz i 5 GHz. IBM z10 osiągnął 4,4 GHz w 2008 r., a IBM z196 osiągnął 5,2 GHz w 2010 r., a następnie z12 osiągnął 5,5 GHz jesienią 2012 r.

Zobacz też

Linki zewnętrzne