Ekspert wyjaśnia: oto dlaczego chip Apple M1 może być początkiem czegoś wielkiego
Apple M1 stworzył zintegrowany chip z procesorem, procesorem graficznym i pamięcią RAM, a wszystko to spakowane w jeden o niewielkich rozmiarach przy użyciu 5-nanometrowej produkcji. Ta ścisła integracja w mniejszych rozmiarach sprawia, że jest to najbardziej wydajny chip dostępny do tej pory dla konsumentów.

W tym miesiącu nastąpiła kolejna rewolucja w informatyce. Tym razem Apple zrobiło to bez swojego głównego gawędziarza Steve'a Jobsa i może dlatego Jabłko Krzem M1 nie przyciągnęła tak dużej uwagi, jak niektóre poprzednie przełomy Apple. Dlatego ważne jest, aby zrozumieć znaczenie tego nowego procesora z Cupertino.
Procesor lub układ mikroprocesorowy to mózg każdego komputera. Intel jest obecnie najpopularniejszą marką procesorów, chociaż nowoczesny procesor — połączenie sprzętu i oprogramowania — został wprowadzony przez IBM w 1964 roku jako System/360. Przełomem było wówczas wprowadzenie instrukcji programowych za pośrednictwem komputera złożonego zestawu instrukcji (CISC) znajdującego się w procesorze. W tych wczesnych dniach byli tylko Japończycy, którzy mieli podobną technologię. W 1968 roku japoński inżynier Masatoshi Shima z Busicom zaczął projektować procesor, który został następnie przejęty przez Intela. Obie firmy wspólnie wypuściły pierwszy 4-bitowy procesor Intela oparty na układzie CISC w 1970 roku, prawie sześć lat po IBM.
To zapoczątkowało wyścig w branży, aby stworzyć nowy, potężny procesor mózgu. IBM, Intel, Motorola, NEC, Zilog, Toshiba, Fujitsu i kilku innych weszło do tego wyścigu, który ograniczał się przede wszystkim do Amerykanów i Japończyków. Japończycy byli dobrzy w sprzęcie elektronicznym, możliwościach produkcyjnych, podczas gdy Amerykanie mieli oprogramowanie i łatwy dostęp do kapitału jako swoją zaletę.
Równolegle rozgrywał się wyścig w technologii pamięci RAM, drugiej najważniejszej części komputera. Ale nie miał komponentu oprogramowania, a przewaga ostatecznie przypadła Japończykom i Koreańczykom.
CISC został zaadoptowany i opracowany przez Intela i stanowił podstawę ich architektury X86, używanej również przez AMD. W 1984 roku, w oparciu o prace IBM, Stanford wprowadził nową, bardziej wydajną architekturę komputera z ograniczonym zestawem instrukcji (RISC). W 1985 roku ARM (Acorn RISC Machine, później zmieniona na Advanced Risc Machine), bardzo ważna architektura przyszłości oparta na RISC, została wprowadzona przez brytyjską firmę Acorn Computers Ltd.
Ekspert
Nikhil Bhaskaran jest założycielem startupu Shunya OS, wbudowanego systemu operacyjnego AI dla nowej generacji urządzeń, który ma zostać uruchomiony w 2021 roku. Jest uznawany przez ARM wśród 40 globalnych Innowatorów.
ARM ma znaczenie z dwóch powodów. Po pierwsze, sam nie tworzył procesorów, tylko napisał oprogramowanie dla procesora i licencjonował je. Tak więc każda firma może produkować procesory przy użyciu swojego oprogramowania. Po drugie, zużywał bardzo mało energii w porównaniu z systemami opartymi na Intelu i CISC.
Przeczytaj także | Dlaczego Apple robi własne chipy komputerowe to wielka sprawa

Ale to był okres rozkwitu Doliny Krzemowej, kiedy amerykańskie pieniądze i potęga oprogramowania napędzały przemysł komputerowy. Gdy Microsoft i Intel napędzały rewolucję komputerów PC, tak naprawdę nie obchodziły ich ślady węglowe ani efektywność energetyczna. Potem chodziło o upakowanie większej liczby tranzystorów w procesorze i zmniejszenie jego rozmiaru, aby uzyskać większą prędkość przy mniejszych rozmiarach. Microsoft i Intel wygrały wyścig na PC. Nawet Apple krótko eksperymentował z ARM, ale nie powiodło się, a architektura ARM i RISC w końcu znalazła się na backburner.
Ale czasy się zmieniają, zmieniają się sytuacje. Steve Jobs wszedł do annałów historii, kiedy przedstawił mały podręczny komputer z telefonem, iPhone, który postawił wszystko na głowie. Nagle wydajność energetyczna i żywotność baterii urządzeń stały się kluczowe i to sprawiło, że Apple wybrał ARM. Smartfony mają tę samą architekturę co komputer — niezwykle ważny procesor z pamięcią RAM, procesorem graficznym i pamięcią masową, połączonymi przez system operacyjny.
Era smartfonów zapoczątkowała nowy wyścig procesorów, w którym wszyscy, od Apple po Qualcomm, Samsung, Huawei i Hitachi, licencjonują rdzeń ARM, aby tworzyć własne procesory do smartfonów. Wraz z rozwojem segmentu smartfonów ARM wprowadził więcej funkcji, dzięki czemu jest to bardzo wydajna, a jednocześnie wydajna energetycznie architektura. W tym samym czasie odbywały się równoległe wyścigi w celu stworzenia systemów operacyjnych i aplikacji, które synchronizują się z tymi urządzeniami.

Jak więc rewolucyjny jest Apple M1? M1 jest wynikiem odwrotnego zakłócenia, które sprawdziło się w smartfonach, które trafiły do branży PC. M1 korzysta z ARM i wreszcie wprowadza wydajność energetyczną do domeny PC, która była od dawna spóźniona. Ale co z wydajnością? Komputery PC muszą robić o wiele więcej jednocześnie w porównaniu ze smartfonami. Wydajność systemu komputera zależy nie tylko od procesora, a dane muszą być wymieniane w systemie między procesorem, kartą graficzną i pamięcią RAM. Wszystkie te elementy muszą zostać zoptymalizowane pod kątem ogólnej optymalnej wydajności systemu. M1 stworzył zintegrowany chip z procesorem, procesorem graficznym i pamięcią RAM, a wszystko to spakowane w jeden o niewielkich rozmiarach przy użyciu 5-nanometrowej produkcji. Ta ścisła integracja w mniejszych rozmiarach sprawia, że jest to najbardziej wydajny chip dostępny do tej pory dla konsumentów. Wręcz przeciwnie, Intel nadal ma większy rozmiar 14 nm dla tego samego. Ekspresowe wyjaśnienie jest teraz na Telegramie
Czy jest coś więcej do M1?
Systemy te będą również miały wbudowaną sztuczną inteligencję (AI). AI naśladuje i tworzy w tych chipach sieci neuronowe podobne do ludzkiego mózgu. To właśnie Apple nazywa procesorami Bionic lub jednostkami przetwarzania neuronowego (NPU) w bardziej technicznym ujęciu. NPU M1 sprawia, że jest on w pełni gotowy na przyszłość, jednocześnie optymalnie pakując cały system w jeden chip. Po raz pierwszy w historii komputerów procesor głównego nurtu ma pełny system na jednym chipie plus NPU dla AI.
Czy to trend przyszłości? Czy coraz więcej chipów będzie zintegrowanych i energooszczędnych? Czy transformacja cyfrowa z AI będzie również napędzana przez marketing dużych firm na rzecz szybkości. Czy sprawność energetyczna i ślad węglowy znów zejdą na dalszy plan? Na odpowiedzi będziemy musieli poczekać i zobaczyć.

Tym razem jednak wyścig toczy się między Ameryką a Chinami. Chińskie firmy, takie jak Huawei, Bitmain i Phytium, mają własne zintegrowane chipy oparte na ARM. Chińczycy stawiają na wydajność w niższej cenie, podczas gdy amerykańskie firmy wykorzystują swoją siłę marketingową, aby zahipnotyzować nas najnowszymi możliwościami.
Gdzie w tym wszystkim stoją Indie?
Indie mają Shakti. Zaprojektowany przez IIT Madras, jest to układ wykorzystujący tylko procesor, wykorzystujący RISC V, który nie jest tym samym RISC, który jest używany przez ARM. Podczas gdy Apple M1 jest na 5 nm, Intel na 14 nm, Shakti jest na 22 nm. Tak więc Indie wciąż mają przed sobą długą drogę i może byłoby lepiej, gdyby kraj skupił się na oprogramowaniu i poprowadził wyścig, który jest również prowadzony w przestrzeni sprzętowej.
Nie przegap Objaśnionego | Royal Society przedstawia portret astrofizyka Jocelyn Burnell. Oto dlaczego jej odkrycie pulsarów było ważne
Podziel Się Z Przyjaciółmi: