półprzewodnik Realizacja tych propozycji w tamtych latach nie mogła nastąpić ze względu na niewystarczający rozwój technologii.

Pod koniec 1958 roku i w pierwszej połowie 1959 roku nastąpił przełom w przemyśle półprzewodników. Trzej mężczyźni, reprezentujący trzy prywatne amerykańskie korporacje, rozwiązali trzy podstawowe problemy, które uniemożliwiały powstanie układów scalonych. Jack Kilby z Instrumenty z Teksasu opatentował zasadę łączenia, stworzył pierwsze, niedoskonałe, prototypy własności intelektualnej i wprowadził je do masowej produkcji. Kurt Legovets z Firma Elektryczna Sprague wynalazł metodę izolowania elektrycznego elementów utworzonych na pojedynczym chipie półprzewodnikowym (izolacja złącza p-n). Izolacja złącza P–n)). Roberta Noyce’a z Półprzewodnik Fairchilda wynalazł metodę elektrycznego łączenia elementów układów scalonych (metalizacja aluminium) i zaproponował ulepszoną wersję izolacji podzespołów w oparciu o najnowszą technologię planarną Jeana Herniego. Jean Hoerni). 27 września 1960 roku zespół Jaya Lasta Jay Ostatni) utworzony dnia Półprzewodnik Fairchilda pierwszy działający półprzewodnik IP oparte na pomysłach Noyce'a i Erniego. Instrumenty Teksasu, która była właścicielem patentu na wynalazek Kilby'ego, rozpoczęła wojnę patentową z konkurentami, która zakończyła się w 1966 r. globalnym porozumieniem w sprawie technologii wzajemnego licencjonowania.

Wczesne układy logiczne wspomnianej serii zostały dosłownie zbudowane standard komponentów, których rozmiary i konfiguracje zostały określone w procesie technologicznym. Projektanci obwodów, którzy zaprojektowali układy logiczne określonej rodziny, używali tych samych standardowych diod i tranzystorów. W latach 1961-1962 wiodący deweloper złamał paradygmat projektowania Sylwania Tom Longo po raz pierwszy zastosował różne układy scalone w jednym konfiguracje tranzystorów w zależności od ich funkcji w obwodzie. Pod koniec 1962 r Sylwania wprowadziła na rynek pierwszą rodzinę logiki tranzystorowo-tranzystorowej (TTL) opracowaną przez Longo - historycznie pierwszy typ zintegrowanej logiki, który przez długi czas zdołał zdobyć przyczółek na rynku. W obwodach analogowych przełomu na tym poziomie dokonał w latach 1964-1965 twórca wzmacniaczy operacyjnych Fairchilda Bob Vidlar.

Pierwszy domowy mikroukład powstał w 1961 roku w TRTI (Taganrog Radio Engineering Institute) pod przewodnictwem L. N. Kolesova. Wydarzenie to przyciągnęło uwagę środowiska naukowego kraju, a TRTI zostało zatwierdzone jako lider w systemie Ministerstwa Szkolnictwa Wyższego dotyczącym problemu tworzenia wysoce niezawodnych urządzeń mikroelektronicznych i automatyzacji ich produkcji. Sam L.N. Kolesov został mianowany przewodniczącym Rady Koordynacyjnej ds. tego problemu.

Pierwszy hybrydowy grubowarstwowy układ scalony w ZSRR (seria 201 „Trail”) został opracowany w latach 1963-65 w Instytucie Badawczym Technologii Precyzyjnej („Angstrem”), produkcja masowa od 1965 roku. W opracowaniu wzięli udział specjaliści z NIEM (obecnie Instytut Naukowo-Badawczy Argon).

Pierwszy półprzewodnikowy układ scalony w ZSRR powstał w oparciu o technologię planarną, opracowaną na początku 1960 roku w NII-35 (wówczas przemianowanym na Instytut Badawczy Pulsar) przez zespół przeniesiony później do NIIME (Mikron). Tworzenie pierwszego krajowego krzemowego układu scalonego koncentrowało się na opracowaniu i produkcji po wojskowej akceptacji zintegrowanych układów krzemowych serii TS-100 (37 elementów - odpowiednik złożoności obwodu przerzutnika, analogu amerykańskiego Seria IC SN-51 firm Instrumenty z Teksasu). Próbki prototypowe i produkcyjne krzemowych układów scalonych do reprodukcji pozyskano z USA. Prace prowadzono w NII-35 (dyrektor Trutko) i Zakładach Półprzewodników Fryazino (dyrektor Kołmogorow) w ramach zamówienia obronnego do zastosowania w autonomicznym wysokościomierzu dla systemu naprowadzania rakiet balistycznych. Opracowanie obejmowało sześć standardowych scalonych krzemowych obwodów planarnych serii TS-100 i wraz z organizacją produkcji pilotażowej zajęło w NII-35 trzy lata (od 1962 do 1965). Rozwój produkcji fabrycznej z akceptacją wojskową we Fryazino (1967) zajął kolejne dwa lata.

Równolegle prowadzono prace nad opracowaniem układu scalonego w centralnym biurze projektowym w Woroneskiej Fabryce Urządzeń Półprzewodnikowych (obecnie -). W 1965 roku podczas wizyty w WZPP Ministra Przemysłu Elektronicznego A.I. Szokina zakład otrzymał polecenie przeprowadzenia prac badawczych nad stworzeniem krzemowego obwodu monolitycznego – B+R „Tytan” (Zarządzenie Ministra nr 92 z 16 sierpnia 1965 r.). 1965), który ukończono przed terminem ukończonym do końca roku. Temat został pomyślnie zgłoszony do Komisji Państwowej, a seria 104 mikroukładów logicznych diodowo-tranzystorowych stała się pierwszym trwałym osiągnięciem w dziedzinie mikroelektroniki półprzewodnikowej, co znalazło odzwierciedlenie w zarządzeniu posła nr 403 z dnia 30 grudnia 1965 r.

Poziomy projektowania

Obecnie (2014 rok) większość układów scalonych projektuje się przy użyciu specjalizowanych systemów CAD, które pozwalają zautomatyzować i znacznie przyspieszyć procesy produkcyjne, np. uzyskanie fotomasek topologicznych.

Klasyfikacja

Stopień integracji

W zależności od stopnia integracji stosuje się następujące nazwy układów scalonych:

  • mały układ scalony (MIS) - do 100 elementów w chipie,
  • średni układ scalony (SIS) – do 1000 elementów na chip,
  • duży układ scalony (LSI) – do 10 tys. elementów w jednym chipie,
  • układ scalony o bardzo dużej skali (VLSI) - ponad 10 tysięcy elementów w krysztale.

Wcześniej używano również przestarzałych nazw: układ scalony o bardzo dużej skali (ULSI) - od 1-10 milionów do 1 miliarda elementów w krysztale, a czasami giga-wielkoskalowy układ scalony (GBIC) - ponad 1 miliard pierwiastków w krysztale. Obecnie w 2010 roku nazwy „UBIS” i „GBIS” praktycznie nie są używane, a wszystkie mikroukłady zawierające ponad 10 tysięcy elementów są klasyfikowane jako VLSI.

Technologia produkcji

  • Układ półprzewodnikowy - wszystkie elementy i połączenia międzyelementowe wykonane są na jednym krysztale półprzewodnikowym (np. krzem, german, arsenek galu, tlenek hafnu).
  • Filmowy układ scalony - wszystkie elementy i połączenia międzyelementowe wykonane są w postaci folii:
    • grubowarstwowy układ scalony;
    • cienkowarstwowy układ scalony.
  • Układ hybrydowy (często nazywany mikromontaż), zawiera kilka diod, tranzystorów i/lub innych aktywnych elementów elektronicznych. Mikrozespół może obejmować także nieopakowane układy scalone. Pasywne elementy mikromontażu (rezystory, kondensatory, cewki indukcyjne) są zwykle wytwarzane przy użyciu technologii cienkowarstwowych lub grubowarstwowych na zwykłym, zwykle ceramicznym podłożu chipa hybrydowego. Całe podłoże wraz z komponentami umieszczone jest w jednej szczelnej obudowie.
  • Mikroukład mieszany - oprócz kryształu półprzewodnika zawiera cienkowarstwowe (grubopowłokowe) elementy pasywne umieszczone na powierzchni kryształu.

Rodzaj przetwarzanego sygnału

Technologie produkcyjne

Rodzaje logiki

Głównym elementem mikroukładów analogowych są tranzystory (bipolarne lub polowe). Różnica w technologii produkcji tranzystorów znacząco wpływa na charakterystykę mikroukładów. Dlatego w opisie mikroukładu często wskazuje się technologię produkcji, podkreślając w ten sposób ogólną charakterystykę właściwości i możliwości mikroukładu. Nowoczesne technologie łączą technologie tranzystorów bipolarnych i polowych, aby osiągnąć lepszą wydajność mikroukładów.

  • Najbardziej ekonomiczne (pod względem zużycia prądu) są mikroukłady oparte na tranzystorach unipolarnych (efektu polowego):
    • Logika MOS (logika metal-tlenek-półprzewodnik) - mikroukłady powstają z tranzystorów polowych N-MOS lub P-typ MOS;
    • Logika CMOS (komplementarna logika MOS) - każdy element logiczny mikroukładu składa się z pary komplementarnych (komplementarnych) tranzystorów polowych ( N-MOS i P-WYCIERAĆ).
  • Mikroukłady oparte na tranzystorach bipolarnych:
    • RTL - logika rezystorowo-tranzystorowa (przestarzała, zastąpiona przez TTL);
    • DTL - logika diodowo-tranzystorowa (przestarzała, zastąpiona przez TTL);
    • TTL - logika tranzystorowo-tranzystorowa - mikroukłady zbudowane są z tranzystorów bipolarnych z tranzystorami wieloemiterowymi na wejściu;
    • TTLSh - logika tranzystorowo-tranzystorowa z diodami Schottky'ego - ulepszony TTL wykorzystujący tranzystory bipolarne z efektem Schottky'ego;
    • ECL - logika sprzężona z emiterem - na tranzystorach bipolarnych, których tryb pracy dobiera się tak, aby nie przechodziły w tryb nasycenia - co znacznie zwiększa wydajność;
    • IIL - integralna logika wtrysku.
  • Mikroukłady wykorzystujące zarówno tranzystory polowe, jak i bipolarne:

Używając tego samego typu tranzystorów, chipy można tworzyć przy użyciu różnych metod, takich jak statyczne lub dynamiczne.

Najpopularniejszymi układami logicznymi są technologie CMOS i TTL (TTLS). Tam, gdzie konieczne jest oszczędzanie prądu, stosuje się technologię CMOS, tam, gdzie ważniejsza jest prędkość i nie jest wymagane oszczędzanie na poborze prądu, stosuje się technologię TTL. Słabym punktem mikroukładów CMOS jest ich podatność na elektryczność statyczną - wystarczy dotknąć ręką wyjścia mikroukładu, a jego integralność nie jest już gwarantowana. Wraz z rozwojem technologii TTL i CMOS parametry mikroukładów zbliżają się do siebie i w efekcie np. mikroukłady serii 1564 wykonane są w technologii CMOS, a funkcjonalność i umiejscowienie w obudowie są zbliżone do technologii TTL.

Mikroukłady produkowane w technologii ESL są najszybsze, ale też najbardziej energochłonne i znalazły zastosowanie w produkcji sprzętu komputerowego w przypadkach, gdzie najważniejszym parametrem była szybkość obliczeń. W ZSRR najbardziej produktywne komputery typu ES106x zostały wyprodukowane na mikroukładach ESL. Obecnie technologia ta jest rzadko stosowana.

Proces technologiczny

Do produkcji mikroukładów wykorzystuje się metodę fotolitografii (projekcyjną, kontaktową itp.), w której obwód tworzony jest na podłożu (najczęściej krzemie) uzyskanym poprzez pocięcie monokryształów krzemu dyskami diamentowymi na cienkie płytki. Ze względu na małe wymiary liniowe elementów mikroukładów do oświetlenia zrezygnowano ze stosowania światła widzialnego, a nawet bliskiego ultrafioletu.

Następujące procesory zostały wyprodukowane przy użyciu promieniowania UV (laser ekscymerowy ArF, długość fali 193 nm). Liderzy branży wprowadzali średnio co 2 lata nowe procesy technologiczne zgodnie z planem ITRS, podwajając liczbę tranzystorów na jednostkę powierzchni: 45 nm (2007), 32 nm (2009), 22 nm (2011), rozpoczęto produkcję 14 nm w 2014 r. rozwój procesów 10 nm przewidywany jest około 2018 r.

W 2015 roku szacowano, że wprowadzanie nowych procesów technologicznych ulegnie spowolnieniu.

Kontrola jakości

Do kontroli jakości układów scalonych powszechnie stosuje się tzw. struktury testowe.

Zamiar

Układ scalony może mieć pełną, niezależnie od stopnia złożoności, funkcjonalność - aż do całego mikrokomputera (mikrokomputera jednoukładowego).

Obwody analogowe

  • Filtry (w tym efekt piezoelektryczny).
  • Analog mnożniki.
  • Tłumiki analogowe i wzmacniacze zmienne.
  • Stabilizatory zasilania: stabilizatory napięcia i prądu.
  • Przełączanie mikroukładów sterujących zasilaniem.
  • Przetworniki sygnału.
  • Obwody synchronizacyjne.
  • Różne czujniki (na przykład temperatura).

Obwody cyfrowe

  • Konwertery buforowe
  • (Mikro)procesory (w tym procesory do komputerów)
  • Chipy i moduły pamięci
  • Układy FPGA (programowalne układy scalone logiczne)

Cyfrowe układy scalone mają szereg zalet w porównaniu z analogowymi:

  • Zmniejszone zużycie energii związane z wykorzystaniem impulsowych sygnałów elektrycznych w elektronice cyfrowej. Podczas odbierania i przetwarzania takich sygnałów aktywne elementy urządzeń elektronicznych (tranzystory) działają w trybie „kluczowym”, to znaczy tranzystor jest albo „otwarty” - co odpowiada sygnałowi wysokiego poziomu (1), albo „zamknięty ” - (0), w pierwszym przypadku o Na tranzystorze nie ma spadku napięcia, w drugim nie przepływa przez niego prąd. W obu przypadkach pobór mocy jest bliski 0, w przeciwieństwie do urządzeń analogowych, w których tranzystory przez większość czasu znajdują się w stanie pośrednim (aktywnym).
  • Wysoka odporność na zakłócenia urządzeń cyfrowych wiąże się z dużą różnicą między sygnałami o wysokim (na przykład 2,5–5 V) i niskim (0–0,5 V) sygnale. Błąd stanu jest możliwy przy takim poziomie zakłóceń, że wysoki poziom jest interpretowany jako niski i odwrotnie, co jest mało prawdopodobne. Dodatkowo w urządzeniach cyfrowych możliwe jest zastosowanie specjalnych kodów pozwalających na korektę błędów.
  • Duża różnica poziomów stanów sygnałów wysokiego i niskiego poziomu (logiczne „0” i „1”) oraz dość szeroki zakres ich dopuszczalnych zmian sprawia, że ​​technologia cyfrowa jest niewrażliwa na nieuniknione rozproszenie parametrów elementów w technologii zintegrowanej, eliminuje konieczność doboru komponentów i konfiguracji elementów regulacyjnych w urządzeniach cyfrowych.

Obwody analogowo-cyfrowe

  • przetworniki cyfrowo-analogowe (DAC) i analogowo-cyfrowe (ADC);
  • transceivery (na przykład konwerter interfejsu Ethernetu);
  • modulatory i demodulatory;
    • modemy radiowe
    • telegazeta, dekodery tekstu radiowego VHF
    • Transceivery Fast Ethernet i optyczne
    • Wykręcić numer modemy
    • odbiorniki telewizji cyfrowej
    • optyczny czujnik myszy
  • mikroukłady zasilające urządzenia elektroniczne - stabilizatory, przetworniki napięcia, wyłączniki mocy itp.;
  • tłumiki cyfrowe;
  • obwody z pętlą synchronizacji fazowej (PLL);
  • generatory i przywracacze częstotliwości synchronizacji zegarów;
  • kryształy z matrycą podstawową (BMC): zawierają zarówno obwody analogowe, jak i cyfrowe;

Seria chipów

Mikroukłady analogowe i cyfrowe produkowane są szeregowo. Seria to grupa mikroukładów, które mają jedną konstrukcję i konstrukcję technologiczną i są przeznaczone do wspólnego użytku. Mikroukłady tej samej serii z reguły mają te same napięcia zasilania i są dopasowane pod względem rezystancji wejściowych i wyjściowych oraz poziomów sygnału.

Obudowy

Konkretne nazwy

Legalna ochrona

Rosyjskie ustawodawstwo zapewnia ochronę prawną topologii układów scalonych. Topologia układu scalonego to przestrzenno-geometryczny układ zbioru elementów układu scalonego oraz połączeń między nimi zapisany na nośniku materialnym (art. 1448

Mikroukłady analogowe i cyfrowe produkowane są szeregowo. Seria to grupa mikroukładów, które mają jedną konstrukcję i konstrukcję technologiczną i są przeznaczone do wspólnego użytku. Mikroukłady tej samej serii z reguły mają te same napięcia zasilania i są dopasowane pod względem rezystancji wejściowych i wyjściowych oraz poziomów sygnału.

    1. Obudowy

Mikroukłady są dostępne w dwóch wersjach konstrukcyjnych - w opakowaniu i bez obudowy.

Obudowa mikroukładu jest systemem nośnym i częścią konstrukcji zaprojektowaną w celu ochrony przed wpływami zewnętrznymi i połączenia elektrycznego z obwodami zewnętrznymi za pomocą kołków. Obudowy są standaryzowane w celu uproszczenia technologii wytwarzania gotowych produktów.

Mikroukład bez opakowania to kryształ półprzewodnikowy przeznaczony do montażu w mikroukładzie hybrydowym lub mikrozespole (możliwy jest bezpośredni montaż na płytce drukowanej).

    1. Konkretne nazwy

Intel jako pierwszy wyprodukował chip pełniący funkcje mikroprocesora (angielski mikroprocesor) - Intel 4004. W oparciu o ulepszone mikroprocesory 8088 i 8086 IBM wypuścił swoje słynne komputery osobiste)

Mikroprocesor stanowi rdzeń komputera, a dodatkowe funkcje, takie jak komunikacja z urządzeniami peryferyjnymi, realizowane były za pomocą specjalnie zaprojektowanych chipsetów (chipsetów). W przypadku pierwszych komputerów liczba mikroukładów w zestawach sięgała dziesiątek i setek, w nowoczesnych systemach jest to zestaw jednego, dwóch lub trzech mikroukładów. Ostatnio pojawiła się tendencja do stopniowego przenoszenia funkcji chipsetów (kontrolera pamięci, kontrolera magistrali PSI Express) na procesor.

Mikroprocesory z wbudowaną pamięcią RAM i ROM, kontrolerami pamięci i wejścia/wyjścia oraz innymi dodatkowymi funkcjami nazywane są mikrokontrolerami.

    1. Legalna ochrona

Rosyjskie ustawodawstwo zapewnia ochronę prawną topologii układów scalonych. Topologia układu scalonego to przestrzenno-geometryczny układ zbioru elementów układu scalonego i połączeń między nimi zapisany na nośniku materialnym (art. 1448 Kodeksu cywilnego Federacji Rosyjskiej).

Wyłączne prawo do topologii ważne jest przez dziesięć lat. W tym okresie właściciel praw autorskich może według własnego uznania zarejestrować topologię w Federalnej Służbie Własności Intelektualnej, Patentów i Znaków Towarowych.

  1. Historia stworzenia

7 maja 1952 roku brytyjski inżynier radiowy Geoffrey Dummer po raz pierwszy zaproponował pomysł zintegrowania wielu standardowych komponentów elektronicznych w monolityczny chip półprzewodnikowy, a rok później Harwick Johnson złożył pierwszy w historii wniosek patentowy na prototypowy układ scalony (IC). . Realizacja tych propozycji w tamtych latach nie mogła nastąpić ze względu na niewystarczający rozwój technologii.

Pod koniec 1958 roku i w pierwszej połowie 1959 roku nastąpił przełom w przemyśle półprzewodników. Trzej mężczyźni, reprezentujący trzy prywatne amerykańskie korporacje, rozwiązali trzy podstawowe problemy, które uniemożliwiały powstanie układów scalonych. Jack Kilby z Texas Instruments opatentował zasadę integracji, stworzył pierwsze, niedoskonałe prototypy układów scalonych i wprowadził je do masowej produkcji. Kurt Legowec ze Sprague Electric Company wynalazł metodę izolowania elektrycznego elementów utworzonych na pojedynczym chipie półprzewodnikowym (izolacja złącza p-n). Robert Noyce z Fairchild Semiconductor wynalazł metodę elektrycznego łączenia elementów układów scalonych (metalizacja aluminium) i zaproponował ulepszoną wersję izolacji komponentów w oparciu o najnowszą technologię planarną Jeana Erny'ego. 27 września 1960 roku grupa Jaya Lasta stworzyła pierwszy wykonalny półprzewodnik IP oparte na pomysłach Noyce'a i Erniego. Firma Texas Instruments, będąca właścicielem patentu na wynalazek Kilby'ego, rozpoczęła wojnę patentową ze swoimi konkurentami, która zakończyła się w 1966 roku ugodą w sprawie technologii wzajemnego licencjonowania.

Wczesne układy logiczne wspomnianej serii zostały dosłownie zbudowane standard komponentów, których rozmiary i konfiguracje zostały określone w procesie technologicznym. Projektanci obwodów, którzy zaprojektowali układy logiczne określonej rodziny, używali tych samych standardowych diod i tranzystorów. W latach 1961-1962 czołowy programista Sylvanii, Tom Longo, przełamał paradygmat projektowania, używając go po raz pierwszy w jednym układzie scalonym. różny konfiguracje tranzystorów w zależności od ich funkcji w obwodzie. Pod koniec 1962 roku Sylvania wypuściła na rynek pierwszą rodzinę logiki tranzystorowo-tranzystorowej (TTL) opracowaną przez firmę Longo – historycznie pierwszy typ zintegrowanej logiki, któremu udało się zdobyć długoterminową pozycję na rynku. W obwodach analogowych przełomu na tym poziomie dokonał w latach 1964-1965 Bob Widlar, projektant wzmacniaczy operacyjnych Fairchild.

Pierwszy półprzewodnikowy układ scalony w ZSRR powstał w oparciu o technologię planarną opracowaną na początku 1960 roku w NII-35 (wówczas przemianowanym na Pulsar Research Institute) przez zespół przeniesiony później do NIIME (Mikron). Tworzenie pierwszego krajowego krzemowego układu scalonego koncentrowało się na opracowaniu i produkcji po wojskowej akceptacji zintegrowanych układów krzemowych serii TC-100 (37 elementów - odpowiednik złożoności obwodu przerzutnika, analogu amerykańskiego Układy scalone serii SN-51 firmy Texas Instruments). Próbki prototypowe i produkcyjne krzemowych układów scalonych do reprodukcji pozyskano z USA. Prace prowadzono w NII-35 (dyrektor Trutko) i Zakładach Półprzewodników Fryazino (dyrektor Kołmogorow) na zamówienie obronne do zastosowania w autonomicznym wysokościomierzu dla systemu naprowadzania rakiet balistycznych. Opracowanie obejmowało sześć standardowych scalonych krzemowych obwodów planarnych serii TS-100 i wraz z organizacją produkcji pilotażowej zajęło w NII-35 trzy lata (od 1962 do 1965). Rozwój produkcji fabrycznej z akceptacją wojskową we Fryazino zajął kolejne dwa lata (1967)

Układ scalony (IC, mikroukład), chip, mikrochip (angielski mikrochip, krzemowy chip, chip - cienka płytka - pierwotnie termin odnosił się do płytki kryształu mikroukładu) - urządzenie mikroelektroniczne - obwód elektroniczny o dowolnej złożoności (kryształ), wyprodukowany na podłożu półprzewodnikowym (płytka lub folia) i umieszczony w nierozłącznej obudowie lub bez niej, jeśli wchodzi w skład mikrozespołu.

Mikroelektronika jest najważniejszym i, jak wielu uważa, najważniejszym osiągnięciem naukowym i technicznym naszych czasów. Można go porównać do takich punktów zwrotnych w historii techniki, jak wynalezienie druku w XVI wieku, powstanie maszyny parowej w XVIII wieku i rozwój elektrotechniki w XIX wieku. A kiedy dziś mówimy o rewolucji naukowo-technologicznej, mamy na myśli przede wszystkim mikroelektronikę. Jak żadne inne osiągnięcie techniczne naszych czasów, przenika wszystkie sfery życia i urzeczywistnia to, co jeszcze wczoraj było po prostu niewyobrażalne. Aby się o tym przekonać, wystarczy przypomnieć sobie kalkulatory kieszonkowe, miniaturowe radia, elektroniczne urządzenia sterujące w sprzęcie AGD, zegarki, komputery i komputery programowalne. A to tylko niewielka część obszaru jego zastosowań!

Mikroelektronika swoje powstanie i samo istnienie zawdzięcza stworzeniu nowego subminiaturowego elementu elektronicznego – układu scalonego. Pojawienie się tych obwodów w rzeczywistości nie było jakimś zasadniczo nowym wynalazkiem - wynikało bezpośrednio z logiki rozwoju urządzeń półprzewodnikowych. Początkowo, gdy elementy półprzewodnikowe dopiero wchodziły do ​​użytku, każdy tranzystor, rezystor czy dioda stosowano osobno, to znaczy zamykano go w swojej indywidualnej obudowie i włączano do obwodu za pomocą poszczególnych styków. Dokonano tego nawet w przypadkach, gdy konieczne było złożenie wielu podobnych obwodów z tych samych elementów.

Stopniowo doszło do zrozumienia, że ​​bardziej racjonalne jest nie składanie takich urządzeń z pojedynczych elementów, ale natychmiastowe wytwarzanie ich na jednym wspólnym krysztale, zwłaszcza że elektronika półprzewodnikowa stworzyła ku temu wszystkie warunki. W rzeczywistości wszystkie elementy półprzewodnikowe są do siebie bardzo podobne w swojej budowie, mają tę samą zasadę działania i różnią się jedynie względnym położeniem obszarów p-n.

Te obszary p-n, jak pamiętamy, powstają w wyniku wprowadzenia zanieczyszczeń tego samego rodzaju do warstwy powierzchniowej kryształu półprzewodnika. Ponadto niezawodną i pod każdym względem zadowalającą pracę zdecydowanej większości elementów półprzewodnikowych zapewnia grubość wierzchniej warstwy roboczej rzędu tysięcznych części milimetra. Najmniejsze tranzystory zwykle wykorzystują tylko górną warstwę chipa półprzewodnikowego, która stanowi tylko 1% jego grubości. Pozostałe 99% pełni rolę nośnika lub podłoża, ponieważ bez podłoża tranzystor mógłby po prostu zapaść się przy najmniejszym dotknięciu. Dzięki temu, stosując technologię wytwarzania poszczególnych elementów elektronicznych, można od razu stworzyć kompletny obwód składający się z kilkudziesięciu, setek, a nawet tysięcy takich elementów na jednym chipie.

Korzyści z tego będą ogromne. Po pierwsze, koszty natychmiast spadną (koszt mikroukładu jest zwykle setki razy niższy niż całkowity koszt wszystkich elementów elektronicznych jego komponentów). Po drugie, takie urządzenie będzie znacznie bardziej niezawodne (jak pokazuje doświadczenie tysiące i dziesiątki tysięcy razy), a to ma ogromne znaczenie, ponieważ znalezienie usterki w obwodzie składającym się z dziesiątek lub setek tysięcy elementów elektronicznych zamienia się w niezwykle złożony problem. Po trzecie, w związku z tym, że wszystkie elementy elektroniczne układu scalonego są setki i tysiące razy mniejsze niż ich odpowiedniki w układzie konwencjonalnym, ich zużycie energii jest znacznie niższe, a ich wydajność jest znacznie wyższa.

Kluczowym wydarzeniem zwiastującym nadejście integracji w elektronice była propozycja amerykańskiego inżyniera J. Kilby'ego z Texas Instruments, aby uzyskać równoważne elementy dla całego obwodu, takie jak rejestry, kondensatory, tranzystory i diody, w monolitycznym kawałku czystego krzemu . Kilby stworzył pierwszy zintegrowany obwód półprzewodnikowy latem 1958 roku. Już w 1961 roku Fairchild Semiconductor Corporation wypuściła pierwsze seryjne chipy do komputerów: obwód koincydencji, rejestr półprzesuwny i wyzwalacz. W tym samym roku firma z Teksasu opanowała produkcję półprzewodnikowych scalonych układów logicznych.

W następnym roku pojawiły się układy scalone innych firm. W krótkim czasie powstały różnego rodzaju wzmacniacze w konstrukcji zintegrowanej. W 1962 roku firma RCA opracowała zintegrowane układy matrycy pamięci do komputerowych urządzeń pamięci masowej. Stopniowo we wszystkich krajach rozpoczęto produkcję mikroukładów - rozpoczęła się era mikroelektroniki.

Materiałem wyjściowym układu scalonego jest zwykle surowa płytka z czystego krzemu. Ma stosunkowo duży rozmiar, ponieważ jednocześnie wytwarza się na nim kilkaset mikroukładów tego samego typu. Pierwsza operacja polega na tym, że pod wpływem tlenu o temperaturze 1000 stopni na powierzchni tej płytki tworzy się warstwa dwutlenku krzemu. Tlenek krzemu charakteryzuje się dużą odpornością chemiczną i mechaniczną oraz posiada właściwości doskonałego dielektryka, zapewniającego niezawodną izolację znajdującego się pod nim krzemu.

Kolejnym krokiem jest wprowadzenie zanieczyszczeń w celu wytworzenia pasm przewodnictwa p lub n. W tym celu usuwa się warstwę tlenku z tych miejsc na płycie, które odpowiadają poszczególnym elementom elektronicznym. Selekcja pożądanych obszarów odbywa się za pomocą procesu zwanego fotolitografią. Najpierw cała warstwa tlenku zostaje pokryta związkiem światłoczułym (fotomasą), który pełni rolę kliszy fotograficznej - można ją naświetlać i wywoływać. Następnie, poprzez specjalną fotomaskę zawierającą wzór powierzchni kryształu półprzewodnika, płytkę naświetla się promieniami ultrafioletowymi.

Pod wpływem światła na warstwie tlenku tworzy się płaski wzór, przy czym obszary nienaświetlone pozostają jasne, a wszystkie pozostałe przyciemnione. W miejscu wystawienia fotorezystora na działanie światła tworzą się nierozpuszczalne obszary folii, które są odporne na działanie kwasu. Następnie płytkę poddaje się działaniu rozpuszczalnika, który usuwa fotomaskę z naświetlonych obszarów. Z odsłoniętych miejsc (i tylko z nich) warstwa tlenku krzemu jest wytrawiana kwasem.

Dzięki temu tlenek krzemu rozpuszcza się we właściwych miejscach i otwierają się „okna” czystego krzemu, gotowe na wprowadzenie zanieczyszczeń (ligacja). W tym celu powierzchnię podłoża w temperaturze 900-1200 stopni poddaje się działaniu pożądanych zanieczyszczeń, na przykład fosforu lub arsenu, w celu uzyskania przewodności typu n. Atomy zanieczyszczeń wnikają głęboko w czysty krzem, ale są odpychane przez jego tlenek. Po potraktowaniu płytki jednym rodzajem domieszki przygotowuje się ją do ligacji z innym rodzajem - powierzchnię płytki ponownie pokrywa się warstwą tlenku, przeprowadza się nową fotolitografię i trawienie, w wyniku czego powstają nowe „okna” krzemu są otwarte.

Następnie następuje nowa ligacja, na przykład z borem, w celu uzyskania przewodności typu p. Zatem obszary p i n powstają na całej powierzchni kryształu w odpowiednich miejscach. Izolację pomiędzy poszczególnymi elementami można wykonać na kilka sposobów: taką izolacją może służyć warstwa tlenku krzemu lub można też utworzyć w odpowiednich miejscach blokujące złącza p-n.

Kolejny etap obróbki wiąże się z zastosowaniem połączeń przewodzących (linii przewodzących) pomiędzy elementami układu scalonego, a także pomiędzy tymi elementami a stykami do łączenia obwodów zewnętrznych. W tym celu na podłoże natryskuje się cienką warstwę aluminium, która osiada w postaci cienkiej warstwy. Poddawany jest obróbce fotolitograficznej i trawieniu podobnemu do opisanych powyżej. W rezultacie z całej warstwy metalu pozostają jedynie cienkie linie przewodzące i pola stykowe.

Na koniec całą powierzchnię chipa półprzewodnikowego pokrywa się warstwą ochronną (najczęściej szkła krzemianowego), którą następnie usuwa się z pól stykowych. Wszystkie wyprodukowane mikroukłady poddawane są najsurowszym testom na stanowisku kontrolno-testowym. Wadliwe obwody są oznaczone czerwoną kropką. Na koniec kryształ cięty jest na pojedyncze płytki wiórowe, z których każda zamknięta jest w trwałej obudowie z przewodami umożliwiającymi podłączenie do obwodów zewnętrznych.

Złożoność układu scalonego charakteryzuje się wskaźnikiem zwanym stopniem integracji. Układy scalone zawierające więcej niż 100 elementów nazywane są obwodami o niskiej integracji; układy zawierające do 1000 elementów - układy scalone o średnim stopniu integracji; obwody zawierające do kilkudziesięciu tysięcy elementów nazywane są dużymi układami scalonymi. Produkowane są już obwody zawierające nawet milion elementów (nazywa się je ultradużymi). Stopniowy wzrost integracji doprowadził do tego, że z każdym rokiem schematy stają się coraz bardziej miniaturowe, a co za tym idzie, coraz bardziej złożone.

Ogromna liczba urządzeń elektronicznych, które kiedyś miały duże wymiary, teraz mieści się na maleńkiej płytce krzemowej. Niezwykle ważnym wydarzeniem na tej drodze było stworzenie w 1971 roku przez amerykańską firmę Intel pojedynczego układu scalonego do wykonywania operacji arytmetycznych i logicznych – mikroprocesora. Pociągnęło to za sobą imponujący przełom mikroelektroniki w dziedzinie technologii komputerowej.

Czytaj i pisz użyteczne

Wstęp

Od czasu pojawienia się pierwszych komputerów twórcy oprogramowania marzyli o sprzęcie zaprojektowanym tak, aby dokładnie rozwiązać ich problem. Dlatego już od dłuższego czasu pojawił się pomysł stworzenia specjalnych układów scalonych, które można dostosować tak, aby skutecznie wykonywały określone zadanie. Istnieją tu dwie ścieżki rozwoju:

  • Zastosowanie tzw. specjalizowanych, niestandardowych układów scalonych (ASIC – ApplicationSpecific Integrated Circuit). Jak sama nazwa wskazuje, chipy te są tworzone na zamówienie przez producentów sprzętu w celu wydajnego wykonywania określonego zadania lub zakresu zadań. Nie mają wszechstronności konwencjonalnych mikroukładów, ale rozwiązują powierzone im zadania wielokrotnie szybciej, czasem o rzędy wielkości.
  • Tworzenie mikroukładów o rekonfigurowalnej architekturze. Pomysł jest taki, że takie chipy docierają do programisty lub użytkownika oprogramowania w stanie niezaprogramowanym, a on może zaimplementować na nich architekturę, która najbardziej mu odpowiada. Przyjrzyjmy się bliżej procesowi ich powstawania.

Z biegiem czasu pojawiła się duża liczba różnych chipów o rekonfigurowalnej architekturze (ryc. 1).


Ryc. 1 Różnorodność chipów o rekonfigurowalnej architekturze

Przez dość długi czas na rynku istniały jedynie urządzenia PLD (Programmable Logic Device). Do tej klasy zaliczają się urządzenia realizujące funkcje niezbędne do rozwiązania zadanych problemów w postaci doskonałej dysjunktywnej postaci normalnej (doskonały DNF). Jako pierwsze pojawiły się w 1970 roku chipy EEPROM, które należą konkretnie do klasy urządzeń PLD. Każdy obwód miał stałą tablicę funkcji logicznych AND, połączoną z programowalnym zestawem funkcji logicznych OR. Rozważmy na przykład PROM z 3 wejściami (a, b i c) i 3 wyjściami (w, x i y) (ryc. 2).



Ryż. 2. Układ PROM

Za pomocą predefiniowanej tablicy AND implementowane są wszystkie możliwe spójniki zmiennych wejściowych, które można następnie dowolnie łączyć za pomocą elementów OR. Zatem na wyjściu można zaimplementować dowolną funkcję trzech zmiennych w postaci doskonałego DNF. Na przykład, jeśli zaprogramujesz te elementy OR, które są zakreślone na czerwono na rysunku 2, wówczas na wyjściach zostaną wygenerowane funkcje w=a x=(a&b) ; y=(a&b)^c.

Początkowo chipy PROM miały za zadanie przechowywać instrukcje programu i wartości stałe, tj. do wykonywania funkcji pamięci komputera. Jednak programiści używają ich również do implementowania prostych funkcji logicznych. Tak naprawdę pamięć PROM chipa można wykorzystać do implementacji dowolnego bloku logicznego, pod warunkiem, że ma on niewielką liczbę wejść. Warunek ten wynika z faktu, że w mikroukładach EEPROM macierz elementów AND jest ściśle określona - realizowane są w niej wszystkie możliwe koniunkcje z wejść, czyli liczba elementów AND jest równa 2 * 2 n, gdzie n jest liczba wejść. Oczywiste jest, że wraz ze wzrostem liczby n rozmiar tablicy rośnie bardzo szybko.

Następnie w 1975 roku pojawiły się tak zwane programowalne tablice logiczne (PLM). Stanowią kontynuację idei PROM-ów mikroukładów - PLM również składają się z tablic AND i OR, jednakże w odróżnieniu od PROMów obie tablice są programowalne. Zapewnia to większą elastyczność takim chipom, ale nigdy nie były one powszechne, ponieważ sygnały podróżują przez programowalne połączenia znacznie dłużej niż przez ich predefiniowane odpowiedniki.

Aby rozwiązać problem prędkości charakterystyczny dla PLM, pod koniec lat siedemdziesiątych XX wieku pojawiła się kolejna klasa urządzeń zwanych programowalną logiką tablicową (PAL). Dalszym rozwinięciem idei chipów PAL było pojawienie się urządzeń GAL (Generic Array Logic) – bardziej złożonych odmian PAL wykorzystujących tranzystory CMOS. Zastosowany tu pomysł jest całkowitym przeciwieństwem idei chipów PROM – programowalna tablica elementów AND jest połączona z predefiniowaną tablicą elementów OR (rys. 3).



Ryż. 3. Niezaprogramowane urządzenie PAL

Narzuca to ograniczenie funkcjonalności, jednakże urządzenia takie wymagają macierzy o znacznie mniejszych rozmiarach niż w układach EPROM.

Logiczną kontynuacją prostych PLD było pojawienie się tak zwanych złożonych PLD, składających się z kilku bloków prostych PLD (zwykle urządzenia PAL są używane jako proste PLD), połączonych programowalną matrycą przełączającą. Oprócz samych bloków PLD możliwe było również zaprogramowanie połączeń między nimi za pomocą tej matrycy przełączającej. Pierwsze złożone PLD pojawiły się na przełomie lat 70. i 80. XX wieku, jednak główny rozwój w tej dziedzinie nastąpił w 1984 r., kiedy Altera wprowadziła złożone PLD oparte na połączeniu technologii CMOS i EPROM.

Pojawienie się FPGA

Na początku lat 80. w cyfrowym środowisku ASIC powstała przepaść pomiędzy głównymi typami urządzeń. Z jednej strony były PLD, które można zaprogramować do każdego konkretnego zadania i są dość łatwe w produkcji, ale nie można ich używać do realizacji skomplikowanych funkcji. Z drugiej strony istnieją układy ASIC, które mogą realizować niezwykle złożone funkcje, ale mają sztywno ustaloną architekturę, a ich produkcja jest czasochłonna i kosztowna. Potrzebne było łącze pośrednie i takim łączem stały się urządzenia FPGA (Field Programmable Gate Arrays).

Układy FPGA, podobnie jak PLD, są urządzeniami programowalnymi. Główną zasadniczą różnicą między FPGA i PLD jest to, że funkcje w FPGA są implementowane nie przy użyciu DNF, ale przy użyciu programowalnych tablic przeglądowych (LUT). W tabelach tych wartości funkcji określa się za pomocą tabeli prawdy, z której za pomocą multipleksera wybierany jest wymagany wynik (ryc. 4):



Ryż. 4. Tabela korespondencji

Każde urządzenie FPGA składa się z programowalnych bloków logicznych (Configurable Logic Blocks - CLB), które są połączone ze sobą za pomocą połączeń, które również są programowalne. Każdy taki blok przeznaczony jest do programowania określonej funkcji lub jej części, ale można go wykorzystać do innych celów, na przykład jako pamięć.

W pierwszych układach FPGA, opracowanych w połowie lat 80., blok logiczny był bardzo prosty i zawierał jeden 3-wejściowy LUT, jeden przerzutnik i niewielką liczbę elementów pomocniczych. Nowoczesne układy FPGA są znacznie bardziej złożone: każdy blok CLB składa się z 1-4 „plastrów”, z których każdy zawiera kilka tablic LUT (zwykle 6-wejściowych), kilka wyzwalaczy i dużą liczbę elementów usługowych. Oto przykład nowoczesnego „kawałka”:


Ryż. 5. Urządzenie o nowoczesnym „kroju”

Wniosek

Ponieważ urządzenia PLD nie mogą realizować złożonych funkcji, nadal są używane do realizacji prostych funkcji w urządzeniach przenośnych i komunikacji, podczas gdy urządzenia FPGA o wielkości od 1000 bramek (pierwsze FPGA opracowane w 1985 r.) przekraczają obecnie granicę 10 milionów bramek ( rodziny Virtex-6). Aktywnie się rozwijają i już wypierają układy ASIC, umożliwiając realizację różnorodnych, niezwykle skomplikowanych funkcji bez utraty możliwości przeprogramowania.

Wróćmy do historii procesorów.

W latach 60. nikt nie przypuszczał, że wkrótce rozpocznie się rewolucja informacyjna. Co więcej, nawet sami entuzjaści komputerów, przekonani, że komputery są przyszłością, mieli dość niejasne pojęcie o tej najbardziej kolorowej przyszłości. Wiele odkryć, które praktycznie wywróciły do ​​góry nogami świat i społeczne rozumienie współczesnego porządku świata, pojawiło się jakby samotnie, za pomocą magii, bez żadnego wcześniejszego planowania. Charakterystyczna pod tym względem jest historia rozwoju pierwszego na świecie mikroprocesora.

Po opuszczeniu Fairchild Semiconductor Robert Noyce i autor cieszącego się złą sławą prawa Gordon Moore postanowili założyć własną firmę (więcej informacji na temat Fairchild Semiconductor można znaleźć w artykule „The Blonde Child” w aktualizacji nr 39 (129) na rok 2003). . Noyce zasiadł do maszyny do pisania i przepisał biznesplan dla przyszłego wieloryba branży IT, który miał zmienić świat. Oto pełny tekst tego biznesplanu.

„Firma będzie zajmować się badaniami, rozwojem, produkcją i sprzedażą zintegrowanych struktur elektronicznych, aby zaspokoić potrzeby branży w zakresie systemów elektronicznych. Będą one obejmować cienko i grubo platerowane urządzenia półprzewodnikowe oraz inne komponenty półprzewodnikowe stosowane w hybrydowych i monolitycznych strukturach zintegrowanych .

Na poziomie laboratoryjnym i produkcyjnym zostaną ustanowione różnorodne procesy. Należą do nich: wzrost kryształów, cięcie, docieranie, polerowanie, dyfuzja w stanie stałym, maskowanie i trawienie fotolitograficzne, osadzanie próżniowe, powlekanie, montaż, pakowanie, testowanie. A także opracowywanie i produkcja specjalnych technologii oraz testowanie sprzętu niezbędnego do realizacji tych procesów.

Produkty mogą obejmować diody, tranzystory, urządzenia z efektem polowym, elementy światłoczułe, urządzenia emitujące promieniowanie, układy scalone i podsystemy zwykle określane mianem „integracji skalowalnych opóźnień”. Oczekuje się, że głównymi użytkownikami tych produktów będą producenci zaawansowanych systemów elektronicznych do celów łączności, radarów, sterowania i przetwarzania danych. Oczekuje się, że większość tych klientów będzie zlokalizowana poza Kalifornią.

Jasne jest, że Noyce i Moore byli optymistami, zakładając, że przynajmniej ktoś na podstawie tego tekstu będzie w stanie zrozumieć, co tak naprawdę będzie robić firma. Z tekstu biznesplanu jasno wynika jednak, że nie miał on zajmować się produkcją mikroprocesorów. Jednak nikt inny w tamtym czasie nie myślał o jakichkolwiek mikroprocesorach. A samo słowo wtedy nie istniało, ponieważ centralny procesor każdego komputera tamtego okresu był dość złożoną jednostką o znacznych rozmiarach, składającą się z kilku węzłów.

W momencie sporządzania tego projektu nikt nie mógł oczywiście przewidzieć, jakie dochody przyniesie. Tak czy inaczej, w poszukiwaniu pożyczki Noyce i Moore zwrócili się do Arthura Rocka, finansisty, który wcześniej pomógł stworzyć Fairchild Semiconductor. A dwa dni później, jak w bajce, wspólnicy otrzymali dwa i pół miliona dolarów. Nawet jak na dzisiejsze standardy są to ogromne pieniądze, ale w latach 60. ubiegłego wieku była to dosłownie fortuna. Gdyby nie dobra reputacja Noyce'a i Moore'a, jest mało prawdopodobne, aby tak łatwo otrzymali wymaganą kwotę. Ale to, co jest dobre w USA, to to, że zawsze są tam dostępni inwestorzy kapitału ryzyka, którzy są gotowi zainwestować dolara lub dwa w obiecujące biznesy związane z nowymi technologiami. Właściwie na tym opiera się siła tego kraju. We współczesnej Rosji, która z jakiegoś powodu uważa się, że podąża drogą Stanów Zjednoczonych, tacy kapitaliści są na co dzień...

Można więc powiedzieć, że umowa była w worku. Nadszedł czas na najprzyjemniejszy moment – ​​wybór na przyszłego flagowca branży IT. Pierwsza nazwa, która przyszła mi na myśl, to nazwa utworzona z imion ojców założycieli firmy – Moore Noyce’a. Jednak ich towarzysze śmiali się z nich. W opinii „ekspertów” taką nazwę wszyscy wymówiliby jako „więcej hałasu”, co dla firmy, której produkty miały znaleźć zastosowanie w branży radiowej, nie mogło być gorsze. Sporządzili listę zawierającą słowa takie jak COMPTEK, CALCOMP, ESTEK, DISTEK itp. W rezultacie Moore i Noyce wybrali nazwę będącą skrótem od „zintegrowanej elektroniki” – Intel.

Byli zawiedzeni – ktoś już wcześniej zarejestrował tę nazwę dla sieci moteli. Ale mając dwa i pół miliona dolarów, nie jest trudno odkupić tytuł, który ci się podoba. Tak postąpili partnerzy.

Pod koniec lat 60. większość komputerów była wyposażona w pamięć na rdzeniach magnetycznych, a firmy takie jak Intel za swoją misję uznawały powszechne wprowadzenie „pamięci krzemowej”. Dlatego pierwszym produktem, który firma wprowadziła do produkcji, był „chip 3101” - 64-bitowa bipolarna statyczna pamięć o dostępie swobodnym oparta na diodzie barierowej Schottky'ego (patrz pasek boczny „Walter Schottky”).

Waltera Schottky'ego

Binarne diody Schottky'ego zostały nazwane na cześć urodzonego w Szwajcarii niemieckiego fizyka Waltera Shottky'ego (1886-1976). Schottky przez długi czas i owocnie pracował w dziedzinie przewodności elektrycznej. W 1914 roku odkrył zjawisko narastania prądu nasycenia pod wpływem zewnętrznego przyspieszającego pola elektrycznego („efekt Schottky’ego”) i opracował teorię tego efektu. W 1915 roku wynalazł rurę próżniową z siatką ekranową. W 1918 roku Schottky zaproponował zasadę wzmocnienia superheterodynowego. W 1939 roku badał właściwości bariery potencjału występującej na granicy faz półprzewodnik-metal. W wyniku tych badań Schottky opracował teorię diod półprzewodnikowych z taką barierą, które nazwano diodami Schottky'ego. Walter Schottky wniósł ogromny wkład w badanie procesów zachodzących w lampach elektrycznych i półprzewodnikach. Badania Waltera Schottky'ego dotyczą fizyki ciała stałego, termodynamiki, statystyki, elektroniki i fizyki półprzewodników.

W pierwszym roku od powstania (1969) Intel przyniósł swoim właścicielom nie mniej niż 2672 dolarów zysku. Do całkowitej spłaty pożyczki pozostało bardzo mało czasu.

4 zamiast 12

Obecnie Intel (podobnie jak AMD) produkuje chipy w oparciu o sprzedaż rynkową, ale w początkach swojej działalności firma często produkowała chipy na zamówienie. W kwietniu 1969 roku z Intelem skontaktowali się przedstawiciele japońskiej firmy Busicom, produkującej kalkulatory. Japończycy usłyszeli, że Intel ma najbardziej zaawansowaną technologię produkcji chipów. Do swojego nowego kalkulatora biurkowego firma Busicom chciała zamówić 12 mikroukładów do różnych celów. Problem polegał jednak na tym, że zasoby Intela w tamtym momencie nie pozwalały na realizację takiego zamówienia. Dzisiejsza metodologia opracowywania mikroukładów nie różni się zbytnio od tej z końca lat 60. XX wieku, chociaż narzędzia różnią się dość zauważalnie.

W tych dawno, dawno temu bardzo pracochłonne operacje, takie jak projektowanie i testowanie, wykonywano ręcznie. Projektanci rysowali szkice na papierze milimetrowym, a kreślarze przenieśli je na specjalny papier woskowany (papier woskowany). Prototyp maski wykonano poprzez ręczne narysowanie linii na ogromnych arkuszach folii Mylar. Nie było jeszcze komputerowych systemów obliczania obwodu i jego elementów. Poprawność sprawdzano „przejeżdżając” po wszystkich liniach zielonym lub żółtym flamastrem. Sama maska ​​powstała poprzez przeniesienie rysunku z folii lavsan na tzw. rubilit – ogromne dwuwarstwowe arkusze w kolorze rubinu. Grawerowanie na rubilicie również wykonano ręcznie. Następnie przez kilka dni musieliśmy dwukrotnie sprawdzać dokładność graweru. W przypadku konieczności usunięcia lub dodania niektórych tranzystorów, ponownie robiono to ręcznie, za pomocą skalpela. Dopiero po dokładnym sprawdzeniu arkusz rubilitu został przekazany producentowi maski. Najmniejszy błąd na dowolnym etapie – i wszystko musiało zacząć się od nowa. Na przykład pierwsza kopia testowa „produktu 3101” okazała się 63-bitowa.

Krótko mówiąc, Intel fizycznie nie był w stanie obsłużyć 12 nowych układów. Ale Moore i Noyce byli nie tylko wspaniałymi inżynierami, ale także przedsiębiorcami i dlatego naprawdę nie chcieli stracić dochodowego zamówienia. I wtedy jednemu z pracowników Intela, Tedowi Hoffowi, przyszło do głowy, że skoro firma nie miała możliwości zaprojektowania 12 chipów, musiała stworzyć tylko jeden uniwersalny chip, który zastąpiłby je wszystkie pod względem funkcjonalności. Inaczej mówiąc, Ted Hoff sformułował ideę mikroprocesora – pierwszego na świecie. W lipcu 1969 roku utworzono zespół projektowy i przystąpiono do prac. We wrześniu do zespołu dołączył również Stan Mazor. Kontroler klienta włączył do grupy Japończyka Masatoshi Shima. Aby w pełni zapewnić działanie kalkulatora, konieczne było wyprodukowanie nie jednego, ale czterech mikroukładów. Zatem zamiast 12 chipów trzeba było opracować tylko cztery, ale jeden z nich był uniwersalny. Nikt wcześniej nie produkował tak skomplikowanych mikroukładów.

Wspólnota Włosko-Japońska

W kwietniu 1970 roku do zespołu realizacji zamówień Busicom dołączył nowy pracownik. Pochodził z kuźni talentów dla Intela – Fairchild Semiconductor. Nowy pracownik nazywał się Federico Faggin. Miał 28 lat, ale konstruował komputery od prawie dziesięciu lat. Mając dziewiętnaście lat Fagin brał udział w budowie minikomputera dla włoskiej firmy Olivetti. Następnie trafił do włoskiego przedstawicielstwa Fairchild, gdzie zajmował się rozwojem kilku mikroukładów. W 1968 roku Fagin opuścił Włochy i przeniósł się do Stanów Zjednoczonych, do laboratorium Fairchild Semiconductor w Palo Alto.
Stan Mazor pokazał nowemu członkowi zespołu ogólne specyfikacje projektowanego chipsetu i powiedział, że przedstawiciel klienta przyleci następnego dnia.


Federico Faggina

Rano Mazor i Fagin udali się na lotnisko w San Francisco, aby spotkać się z Masatoshim Shimą. Japończyk chciał zobaczyć, co dokładnie ludzie z Intela zrobili podczas kilku miesięcy jego nieobecności. Po przybyciu do biura Mazor zostawił Włochów i Japończyków w spokoju i mądrze zniknął. Kiedy Sima spojrzał na dokumenty, które wręczył mu Fagin, Kondraty prawie go złapał: przez cztery miesiące „ludzie z Intela” nie zrobili absolutnie nic. Sima spodziewał się, że do tego czasu rysunek obwodu chipowego zostanie ukończony, ale zobaczył jedynie koncepcję w takiej formie, w jakiej był w momencie jego wyjazdu w grudniu 1969 roku. Duch samuraja się zagotował, a Masatoshi Shima dał upust swemu oburzeniu. Nie mniej temperamentny Fagin wyjaśnił Simie, że jeśli się nie uspokoi i nie zrozumie, że jadą na tym samym wózku, projekt zakończy się całkowitym fiaskiem. Japończyk był pod wrażeniem argumentacji Fagina i faktu, że tak naprawdę pracował w firmie zaledwie kilka dni i nie był odpowiedzialny za zakłócenie harmonogramu. W ten sposób Federico Fagin i Masatoshi Shima rozpoczęli wspólną pracę nad projektowaniem obwodów chipowych.

W tym czasie jednak kierownictwo Intela, które potraktowało zamówienie Busicom jako bardzo ciekawy i nieco ryzykowny, ale wciąż nie najważniejszy eksperyment, przestawiło grupę Hoff i Mazor na produkcję „produktu 1103” – pamięci DRAM pojemność chipa 1 kbit.


Układ Intel 1103 DRAM, ok. 1970

W tym czasie kierownictwo Intela powiązało przyszły dobrobyt firmy z produkcją układów pamięci. Okazało się, że Federico Fagin był kierownikiem projektu, w którym nie było nikogo poza nim (Sima, jako przedstawiciel klienta, brał udział tylko okazjonalnie). Fagin w ciągu tygodnia stworzył nowy, bardziej realistyczny harmonogram projektu i pokazał go Simie. Poleciał do Japonii do siedziby Busicom. Japończycy, poznawszy wszystkie szczegóły, chcieli odmówić współpracy z Intelem, ale mimo to zmienili zdanie i wysłali Masatoshi Shimę z powrotem do USA, aby jak najwięcej pomóc i przyspieszyć tworzenie chipsetu.

Ostatecznie grupę, oprócz Fagina, uzupełniono o jednego inżyniera elektryka i trzech kreślarzy. Ale główny ciężar pracy nadal spadał na menedżera. Początkowo grupa Fagina zajęła się opracowaniem chipa 4001, chipa ROM.
Sytuacja była bardzo nerwowa, ponieważ nikt wcześniej nie tworzył tak skomplikowanych produktów. Wszystko trzeba było od podstaw zaprojektować ręcznie. Oprócz zaprojektowania chipa konieczne było równoległe wyprodukowanie sprzętu testowego i opracowanie programów testowych.

Czasami Fagin spędzał w laboratorium 70–80 godzin tygodniowo, nawet nie wracając na noc do domu. Jak później wspominał, miał dużo szczęścia, że ​​w marcu 1970 roku urodziła mu się córka, a żona wyjechała na kilka miesięcy do Włoch. Inaczej nie uniknąłby skandalu rodzinnego.

W październiku 1970 roku zakończono prace nad produkcją chipa 4001. Chip działał bez zarzutu. Zwiększyło to poziom zaufania do Intela z Busicom. W listopadzie gotowy był także chip 4003 – układ interfejsu z urządzeniami peryferyjnymi, najprostszy z całego zestawu. Nieco później gotowy był 320-bitowy moduł pamięci dynamicznej 4002. I wreszcie pod koniec grudnia 1970 roku otrzymano z fabryki do testów „płytki” (jak amerykańscy eksperci nazywają płytki krzemowe, na których „hodowano mikroukłady”, ale jeszcze nie wycięte). Był późny wieczór i nikt nie widział, jak trzęsły się ręce Fagina, gdy ładował pierwsze dwa „gofry” do sondy (specjalne urządzenie do testowania i testowania). Usiadł przed oscyloskopem, włączył przycisk napięcia i… nic, linia na ekranie nawet nie drgnęła. Fagin załadował kolejny „gofr” - ten sam wynik. Był całkowicie zagubiony.

Nie, oczywiście, nikt nie spodziewał się, że pierwszy prototyp urządzenia, którego nikt wcześniej na świecie nie zrobił, od razu pokaże wyliczone wyniki. Ale brak sygnału na wyjściu był po prostu ciosem. Po dwudziestu minutach palpitacji serca Fagin zdecydował się zbadać płytki pod mikroskopem. I wtedy wszystko od razu stało się jasne: naruszenia w procesie technologicznym, które doprowadziły do ​​​​tego, że w obwodach brakowało niektórych zworek międzywarstwowych! Było bardzo źle, harmonogram się nie zgadzał, ale Fagin wiedział: błąd nie był jego winą. Kolejna partia „wafli” przybyła w styczniu 1971 r. Fagin ponownie zamknął się w laboratorium i przesiedział tam do czwartej nad ranem. Tym razem wszystko zadziałało bez zarzutu. Podczas intensywnych testów w ciągu następnych kilku dni wykryto kilka drobnych błędów, ale zostały one szybko naprawione. Niczym artysta podpisujący obraz, Fagin stemplował chip 4004 swoimi inicjałami FF.

Mikroprocesor jako towar

W marcu 1971 roku Intel wysłał do Japonii zestaw kalkulatora składający się z jednego mikroprocesora (4004), dwóch 320-bitowych modułów pamięci dynamicznej (4002), trzech układów interfejsu (4003) i czterech układów ROM. W kwietniu Busicom poinformował, że kalkulator działa doskonale. Można było rozpocząć produkcję. Jednak Federico Fagin zaczął z pasją przekonywać kierownictwo Intela, że ​​głupotą jest ograniczanie się wyłącznie do kalkulatorów. Jego zdaniem mikroprocesor mógłby znaleźć zastosowanie w wielu obszarach współczesnej produkcji. Uważał, że chipset 400x ma swoją wartość i można go sprzedać samodzielnie. Jego pewność siebie odbiła się na zarządzie. Był jednak jeden haczyk – pierwszy na świecie mikroprocesor nie należał do Intela, lecz do japońskiej firmy Busicom! No cóż, co było do zrobienia? Pozostało tylko pojechać do Japonii i rozpocząć negocjacje w sprawie zakupu praw do naszego własnego rozwoju. To właśnie zrobili ludzie z Intela. W rezultacie Busicom sprzedał prawa do mikroprocesora 4004 i powiązanych układów za sześćdziesiąt tysięcy dolarów.

Obie strony były zadowolone. Busicom nadal sprzedaje kalkulatory, a Intel... Zarząd Intela początkowo traktował mikroprocesory jako produkt uboczny, który przyczynił się jedynie do sprzedaży głównego produktu - modułów RAM. Intel wprowadził swój rozwój na rynek w listopadzie 1971 roku pod nazwą MCS-4 (Micro Computer Set).


Nieco później Gordon Moore, patrząc wstecz, powiedział na ten temat: „Gdyby przemysł samochodowy rozwijał się z prędkością przemysłu półprzewodników, dziś Rolls-Royce kosztowałby trzy dolary, mógłby przejechać pół miliona mil na jednym galonie benzyny i taniej byłoby ją wyrzucić” niż płacić za parkowanie. Oczywiście w porównaniu z obecnymi wymaganiami, MCS-4 nie osiągał oszałamiających wyników. A na początku lat 70. nikt nie był szczególnie podekscytowany pojawieniem się tych produktów. W sumie system obliczeniowy oparty na zestawie MCS-4 nie ustępował pierwszym komputerom z lat 50. XX wieku, ale to były inne czasy, a w centrach komputerowych stały maszyny, których moc obliczeniowa poszła daleko do przodu.

Intel rozpoczął specjalną kampanię propagandową skierowaną do inżynierów i programistów. Intel w swoich reklamach przekonywał, że mikroprocesory oczywiście nie są czymś bardzo poważnym, ale można je zastosować w różnych specyficznych obszarach, np. w automatyce przemysłowej. Oprócz kalkulatorów zestaw MCS-4 znalazł zastosowanie jako sterowniki urządzeń takich jak pompy gazowe, automatyczne analizatory krwi, urządzenia kontroli ruchu...
Jeśli zaś chodzi o ojca pierwszego na świecie mikroprocesora, to bardzo zmartwił go fakt, że Intel nie chciał patrzeć na nowe urządzenie jak na produkt główny. Fagin odbył kilka tournee po Stanach Zjednoczonych i Europie, przemawiając w ośrodkach badawczych i zaawansowanych fabrykach, promując mikroprocesory. Czasami wyśmiewano go i Intela.

Rzeczywiście, cały ten pomysł z mikroprocesorem wydawał się wtedy boleśnie niepoważny. Fagin brał także udział w projekcie 8008 - stworzeniu ośmiobitowego mikroprocesora, który pod wieloma względami powtarzał architekturę 4004. Stopniowo jednak narastało w nim poczucie niechęci, że firma traktowała go po prostu jak dobrego inżyniera, który poradził sobie ze złożoną, ale niezbyt ważną pracą. Wiedział jednak, że faktycznie dokonał światowej rewolucji.

W październiku 1974 Federico Fagin opuścił Intel i założył własną firmę Zilog, Inc. W kwietniu następnego roku Masatoshi Shima przeniósł się z Busicom do Zilog. I przyjaciele zaczęli projektować nowy procesor, który miał być najlepszy na świecie. W maju 1976 roku na rynku pojawił się mikroprocesor Z80 firmy Zilog.

Procesor Z80 okazał się bardzo udanym projektem i poważnie wyparł na rynku procesory Intel 8008 i 8080. W połowie lat 70. i na początku lat 80. Zilog był dla Intela mniej więcej tym samym, czym jest dzisiaj AMD – poważnym konkurentem zdolnym do produkcji tańszych i wydajne modele tej samej architektury. Tak czy inaczej, większość obserwatorów zgadza się, że Z80 był najbardziej niezawodnym i odnoszącym sukcesy mikroprocesorem w historii technologii mikroprocesorowej. Nie powinniśmy jednak zapominać, że ta historia dopiero się zaczęła…

MCS-4 – prototyp przyszłości

Artykuł o powstaniu pierwszego na świecie mikroprocesora byłby niepełny bez powiedzenia choć kilku słów na temat cech technicznych zestawu MCS-4. Federico Fagin nalegał na wprowadzenie cyfry 4 do systemu kodowania Intela. Działowi marketingu Intela spodobał się ten pomysł – czwórka wskazywała zarówno pojemność bitową procesora, jak i całkowitą liczbę chipów. Zestaw składał się z czterech następujących chipów: 4001 - maskowalny chip ROM o pojemności 2048 bitów; 4002 - układ RAM o pojemności 320 bitów; 4003 - układ interfejsu, który jest 10-bitowym rejestrem przesuwnym; 4004 to czterobitowy procesor z zestawem 45 instrukcji. W rzeczywistości był to prototyp komputera osobistego najbliższej przyszłości. Przyjrzyjmy się bliżej działaniu tych mikroukładów, ponieważ podstawowe zasady ich działania można znaleźć nawet w nowoczesnych mikroprocesorach.


Pamięć o dostępie swobodnym (RAM) współczesnego komputera przechowuje jednocześnie uruchomione programy i przetwarzane przez nie dane. W związku z tym procesor musi za każdym razem wiedzieć, co dokładnie aktualnie wybiera z pamięci - polecenie lub dane. Pierwszy mikroprocesor 4004 był prostszy - instrukcje były przechowywane wyłącznie w pamięci ROM (chip 4001), a dane w pamięci RAM (chip 4002).

Ponieważ instrukcje dla procesora 4004 były ośmiobitowe, chip 4001 został zorganizowany jako tablica 256 ośmiobitowych słów (termin „bajt” nie był jeszcze używany). Innymi słowy, w jednym takim chipie mogłoby zmieścić się maksymalnie 256 instrukcji procesora centralnego. Mikroprocesor 4004 mógł współpracować z maksymalnie czterema chipami 4001, dlatego maksymalna liczba instrukcji, które można było zapisać, nie przekraczała 1024. Co więcej, „Asembler” 4004 był bardzo prosty - tylko 45 instrukcji i nie było tak skomplikowanych instrukcje takie jak mnożenie lub dzielenie. Cała matematyka opierała się na poleceniach ADD (dodaj) i SUB (odejmij). Każdy, kto zna algorytm dzielenia binarnego, z łatwością zrozumie trudności, jakie napotykają programiści pracujący z procesorem 4004.

Adres i dane przesyłano multipleksowaną czterobitową magistralą. Ponieważ układ 4001 był pamięcią EPROM, można go było ponownie flashować, nagrywając określone programy. Tym samym MCS-4 został skonfigurowany do wykonywania określonych zadań.
Rolę pamięci RAM przypisano układowi 4002. Wymiana danych z układem 4002 odbywała się również za pośrednictwem czterobitowej magistrali. W systemie opartym na MCS-4 można było zastosować maksymalnie cztery kości 4002, czyli maksymalny rozmiar pamięci RAM w takim systemie wynosił 1 kilobajt (4 x 320 bitów). Pamięć była zorganizowana w cztery rejestry, z których każdy mógł pomieścić dwadzieścia czterobitowych znaków (4 x 20 x 4). Ponieważ przy użyciu kodu czterobitowego można zakodować maksymalnie 16 znaków (24), użycie MCS-4 w edytorze tekstu byłoby trudne. Jeśli mówimy o kalkulatorze, zakodowano dziesięć znaków od 0 do 9, cztery znaki arytmetyczne, przecinek dziesiętny i jeden znak pozostały jako rezerwa. Odbiór danych z pamięci odbywał się przez procesor zgodnie z instrukcją SRC.

Procesor wysłał dwie czterobitowe sekwencje X2 (D3D2D1D0) i X3 (D3D2D1D0). W sekwencji X2 bity D3D2 wskazywały numer banku pamięci (numer chipa 4002), a bity D1D0 wskazywały numer żądanego rejestru w tym banku (nawiasem mówiąc, współczesne procesory wskazują również numer banku pamięci, gdy praca z pamięcią). Cała sekwencja X3 wskazywała numer znaku w rejestrze. Żetony i rejestry ponumerowano: 00 - 1; 01 - 2; 10 - 3; 11 - 4. Przykładowo instrukcja SRC 01010000 mówiła procesorowi, że w drugim chipie, drugim rejestrze, należy wybrać pierwszy znak.

Wszelka wymiana danych z urządzeniami zewnętrznymi, takimi jak klawiatury, wyświetlacze, drukarki, dalekopisy, różnego rodzaju przełączniki, liczniki – jednym słowem z urządzeniami peryferyjnymi, odbywała się poprzez układ interfejsu 4003. Łączył on w sobie równoległy port wyjściowy, a także szeregowy port wejścia/wyjścia. Zasadniczo taki mechanizm wymiany danych z urządzeniami peryferyjnymi istniał do czasu pojawienia się portów USB itp.

Podstawą zestawu – chipem 4004 – był prawdziwy mikroprocesor. Procesor zawierał czterobitowy sumator, rejestr akumulatora, 16 rejestrów indeksowych (oczywiście czterobitowych), 12 liczników programu i stosu (czterobitowych) oraz ośmiobitowy rejestr poleceń i dekoder. Rejestr poleceń został podzielony na dwa rejestry czterobitowe - OPR i OPA.

Cykl pracy przebiegał następująco. Procesor wygenerował sygnał synchronizacji SYNC. Następnie wysłano 12 bitów adresu do pobrania z ROM (4001), co odbyło się w trzech cyklach pracy: A1, A2, A3. Zgodnie z otrzymanym żądaniem do procesora odsyłano ośmiobitowe polecenie w dwóch cyklach: M1 i M2. Rozkaz umieszczany był w rejestrach OPR i OPA, interpretowany i wykonywany w trzech cyklach: X1, X2, X3. Rysunek pokazuje cykl pracy procesora Intel 4004. Częstotliwość procesora 4004 pierwszej wersji wynosiła 0,75 MHz, więc wszystko to nie stało się zbyt szybko jak na dzisiejsze standardy. Cały cykl trwał około 10,8 sekundy. Dodanie dwóch ośmiocyfrowych liczb dziesiętnych zajęło 850 sekund. Intel 4004 wykonywał 60 000 operacji na sekundę.

Już z krótkiego opisu technicznego widać, że był to bardzo słaby procesor. Nic więc dziwnego, że niewiele osób na początku lat siedemdziesiątych ubiegłego wieku było zaniepokojonych pojawieniem się na rynku zestawu MCS-4. Sprzedaż nadal nie była zbyt wysoka. Ale propaganda Intela odbiła się echem wśród młodych entuzjastów, takich jak Bill Gates i jego przyjaciel Paul Allen, którzy natychmiast zdali sobie sprawę, że pojawienie się mikroprocesorów otworzyło im osobiście drzwi do nowego świata.

Schemat kodowania Intela

(Napisane w UPgrade i NNM)
Schemat kodowania cyfrowego firmy Intel został wynaleziony przez Andy'ego Grove'a i Gordona Moore'a. W pierwotnej formie było to bardzo proste, do kodowania używano jedynie cyfr 0, 1, 2 i 3. Federico Fagin po stworzeniu mikroprocesora zaproponował wprowadzenie liczby 4, aby odzwierciedlić czterobitową strukturę jego rejestrów w kod. Wraz z pojawieniem się procesorów ośmiobitowych dodano liczbę 8. W tym systemie każdy produkt otrzymywał kod składający się z czterech cyfr. Pierwsza cyfra kodu (po lewej stronie) wskazywała kategorię: 0 - chipy kontrolne; 1 - chipy PMOS; 2 - chipy NMOS; 3 - mikroukłady bipolarne; 4 - procesory czterobitowe; 5 - chipy CMOS; 7 - pamięć na domenach magnetycznych; 8 - ośmiobitowe procesory i mikrokontrolery. Cyfry 6 i 9 nie zostały użyte.

Druga cyfra w kodzie wskazywała typ: 0 - procesory; 1 - statyczne i dynamiczne układy RAM; 2 - kontrolery; 3 - chipy ROM; 4 - rejestry przesuwne; 5 - mikroukłady EPLD; 6 - chipy PROM; 7 - chipy EPROM; 8 - obwody synchronizacyjne dla generatorów zegarowych; 9 - chipy dla telekomunikacji (pojawiły się później). Dwie ostatnie cyfry oznaczały numer seryjny tego typu produktu. Tak więc pierwszy chip wyprodukowany przez firmę Intel, kod 3101, oznaczał „pierwszą wersję dwubiegunowego statycznego lub dynamicznego układu RAM”.

Kontynuuj czytanie tej historii, korzystając z poniższych linków:
Historia architektury procesorów x86 Część 2. Osiem bitów
Historia architektury procesorów x86 Część 3. Odległy przodek


Zamknąć