Autorem opisu jest Paweł Boguś

Intel Corporation


Powstanie firmy

18 lipca 1968 Gordon E. Moore i Robert W. Noyce założyli w kalifornijskim Mountain View w hrabstwie Santa Clara (zaledwie kilka mil od Palo Alto), firmę N M Electronics, wkrótce przemianowaną na Intel (Intel = Integrated Electronics). Dziesięć lat wcześniej wraz z sześcioma innymi kolegami zakładali Fairchild Semiconductor (FS), który w owym czasie był największym producentem półprzewodników na świecie.

Noyce i Moore nie byli zadowoleni z pracy w FS, mimo iż pełnili tam odpowiedzialne funkcje: Robert Noyce był Dyrektorem Generalnym (General Manager), Gordon Moore kierował działem R&D (Research and Development). Nie odpowiadała im strategia firmy (FS był częścią koncernu Fairchild Camera and Instruments, który miał swoje własne cele i priorytety), częste zmiany w zarządzie czy chociażby kłopoty z wprowadzaniem nowych produktów na rynek. W chwili gdy ich niezadowolenie z pracy w FS sięgało zenitu obaj mieli po 41 lat. Podobno pomysł stworzenia własnej firmy zrodził się w pewien wiosenny weekend roku 1968. Moore podał decydujący impuls. Chciał wykorzystać opracowany przez siebie proces fotochemiczny do wytwarzania układów scalonych by wepchnąć technologię MOS na nowe tory (Metal Oxid Semiconductor - oznacza trzy podstawowe warstwy przy budowie tranzystora wg tej technologii: metal jako przewodnik, tlenek krzemu jako izolator i krzem jako półprzewodnik). Moment wybrany był doskonale. Elektronika przeżywała właśnie poważny zwrot od ciężkich i dużych pamięci ferromagnetycznych do zwartych i szybkich technologii półprzewodnikowych ze zintegrowanymi układami scalonymi wytrawionymi w silikonowym podłożu.
Biznesplan Intela mieścił się na jednej stronie maszynopisu. Zawierał jednak najważniejsze cele: opracować i wprowadzić na rynek tanie pamięci półprzewodnikowe dla komputerów (największą przeszkodą były koszty - najtańszy element pamięci na bazie półprzewodnika był wówczas (po przeliczeniu na bit) ponad stukrotnie droższy od tradycyjnej pamięci ferromagnetycznej; sposobem na obniżenie kosztów miało być zwiększenie pojemności układów pamięci). W zdobyciu kapitału pomógł im Art Rock, który wspierał ich wcześniej również przy tworzeniu Fairchild Semiconductor i któremu znalezienie 2.5 miliona dolarów venture capital zajęło 2 dni. Do tego dodali własne wkłady po $250 000 każdy.

Wkrótce po powstaniu firmy dołączył do nich także szef produkcji FS - Andrew S. Grove. Firma ulokowała się w Mountain View w budynku przejętym po Union Carbide Electronics.

Układy VLSI w roku 1968 tkwiły jeszcze w powijakach. Intel napotkał na podobne kłopoty z technologią MOS, z jakimi borykał się dotychczas FS. We wrześniu 1968 podstawowym problemem było uzyskanie stabilnego tranzystora MOS, którego napięcie progowe nie wahałoby się więcej niż o jedną dziesiątą volta. Podejrzewano, że problemy związane są z zanieczyszczeniami w produkcji półprzewodników, jako że wynajęta fabryka nie dysponowała nawet wodą destylowaną do produkcji. Inżynier odpowiedzialny za produkcję, Tom Rowe, zaczął przywozić wodę destylowaną w butelkach, ponadto wpadł na pomysł dodania do materiału odrobiny fosforu i usunął dzięki temu podstawowe źródło problemów. Wkrótce udało się zbudować stabilny tranzystor w technologii MOS.

Pierwsze produkty

Firma rozpoczęła od pracy nad technologią MOS, ale jej pierwszym produktem rynkowym był układ pamięci w technologii bipolarnej, którą Noyce i Moore poznali od niemieckiego pioniera półprzewodników Waltera Schottky podczas wspólnej pracy (jeszcze przed FS) w Shockley Semiconductur Laboratory William'a Shockley'a w Palo Alto, uważanego za pierwszy zakład produkcyjny półprzewodników na świecie. Bipolar 64-bit-Schottky-SRAM został wprowadzony w kwietniu 1969 pod oznaczeniem Intel 3101. Dochód firmy w 1969 roku wyniósł $2 672.

Przełomu w torującej sobie drogę technologii półprzewodnikowej Moore po początkowych trudnościach oczekiwał nie wcześniej niż po pięciu latach. Ale już trzy miesiące po przedstawieniu pierwszego układu pamięci półprzewodnikowej i rok po powstaniu firmy, w lipcu 1969, Intel pokazał układ 1101 (256 x 1-bit SRAM, 1.5 µs) - statyczny RAM - pierwszy układ w technologii MOS na świecie. Podczas pierwszego lądowania na księżycu misji Apollo 11, w lipcu 1969, zespół Intela dokonywał ostatnich poprawek layout'u chipa. Produkt ten nie miał znaczenia rynkowego, ale demonstrował potencjalne możliwości nowej technologii. W przeciwieństwie do technologii bipolarnej, MOS umożliwiał stworzenie układów o dużej pojemności przy rozsądnych kosztach i niskim zużyciu energii (co wiązało się z akceptowalną emisją ciepła - zbyt wiele ciepła oznaczało konieczność instalowania agregatów chłodzących, a to kłóciło się z trendem miniaturyzacji układów oraz podwyższało koszty).

Pierwszy DRAM

W październiku 1970, czyli już w połowie zamierzonego czasu, powiódł się pierwszy duży skok do przodu. Intel wprowadził na rynek produkt o oznaczeniu 1103, 1k x 1-bit pierwszy DRAM (Dynamic Random Access Memory), wykonany w technologii MOS i oferujący związane z tym zalety wysokiego stopnia integracji. Pierwsze zamówienie na 1103 zostało zrealizowane za jedną trzecią ceny, którą planował osiągnąć Intel. Okazało się, że branża ta jest wyjątkowo specyficzna i wymusza słały spadek cen. Jednakże 1103 stał się rynkowym przebojem. Dzięki swojej doskonałej wydajności i wyjątkowo małym rozmiarom (jak na owe czasy oczywiście) zdeklasował będące wówczas standardem pamięci ferromagnetyczne. Niecałe półtora roku po wprowadzeniu do sprzedaży 1103 stał się najczęściej sprzedawanym elementem półprzewodnikowym na świecie.

Grodon Moore już w 1965 roku rozpoznał pojawiający się trend i sformułował prawo, zwane od tego czasu prawem Moore'a, które potwierdza się od bez mała 40 lat: gęstość upakowania elementów układów scalonych podwaja się co 24 miesiące. Jedyną jego modyfikacją było skrócenie okresu do 18 miesięcy.

Pierwszy EPROM

Po pierwszym sukcesie drugi przyszedł niespodziewanie. Jego "ojcem" był Dov Frohman, który podobnie jak wcześniej w Fairchild pracował nad pamięciami nieulotnymi (nonvolatile memories). Niestety, układ przez niego opracowany był niestabilny. Nie podłączone elektrycznie linie uzyskiwały ładunek elektryczny bez wyraźnego źródła napięcia. Frohman początkowo skoncentrował swoje wysiłki na próbach usunięcia przyczyn tej niestabilności, jednak w pewnym momencie doznał olśnienia i zamiast usuwać, postanowił wykorzystać zachodzące zjawisko. Skonstruował układ w technologii MOS z dodatkową, nie podłączoną, bramką floating gate (sorry, nie jestem elektronikiem, nie wiem jak się to nazywa po polsku - może ktoś pomoże?) nad bramką sterującą (control gate). Przyłożenie odpowiednio wysokiego napięcie do kanału source-to-drain powodowało pojawienie się ładunku elektrycznego w bramce floating gate, który to ładunek pozostawał tam po odłączeniu źródła napięcia. Rozładowanie bramki następowało poprzez naświetlenie odpowiednim promieniowaniem (początkowo rentgenowskim - co powodowało jednak zmiany a strukturze materiału, później ultrafioletowym).

Powstał pierwszy EPROM (Erasable Programmable Read-Only Memory). Układ we wrześniu 1970 zaprezentowano kierownictwu firmy. Początkowo spotkał się ze znacznym sceptycyzmem, który przerodził się w dziki entuzjazm. 10 maja 1971 r. Dov Frohman opisał swoje odkrycie na łamach Electronics Magazine. Tego samego roku na Solid State Circuits Conference Frohman pokazał film obrazujący bitowy wzór komórek EPROM. Po naświetleniu promieniami UV, komórki traciły swoją zawartość, tak że w efekcie końcowym na ekranie pozostało logo Intela. Układ EPROM oznaczony symbolem 1702 (256 x 8-bit, 1 µs) stał się wielkim sukcesem i był produkowany aż do połowy lat osiemdziesiątych w dużych ilościach, m.in. dlatego, że Intel przez długi czas był jedyną firmą potrafiącą masowo wytwarzać tego typu układy. Z drugie strony w 1977 Intel wprowadził układ EPROM o symbolu 2716 (2K x 8 bit). Był on pojemniejszy, szybszy (n-channel zamiast p-channel) i wygodniejszy w użyciu (napięcia potrzebne do pracy i programowania).

Pierwszy mikroprocesor

Także to odkrycie nie było planowane. Japońska firma Busicom zleciła Intelowi w roku 1969 wykonanie zestawu 8 lub 12 chipów (różne źródła podają różne ilości) do programowalnego kalkulatora. Plany japończyków przewidywały skonstruowanie 12 układów scalonych. Inżynier odpowiedzialny za projekt - Ted Hoff - był jednak przekonany, że znacznie prostszym i ciekawszym rozwiązaniem niż projektowanie 12 chipów wykonujących 12 różnych zadań będzie architektura oparta o centralną jednostkę obliczeniową wspomaganą kilkoma prostszymi układami i wykonującą samodzielnie wszystkie zadania. Ponadto takie rozwiązanie pozwalałoby na zastosowanie układów w wielu różnych urządzeniach. Praktyczną realizacją pomysłu zajął się zespół pod kierownictwem Federico Faggin. Opracowano projekty czterech układów. Jesienią 1971 układ oznaczony jako i4004 był gotowy do seryjnej produkcji. Posiadał 4-bitową magistralę, składał się z ok. 2300 tranzystorów MOS i był taktowany zegarem 108 kHz. Był to pierwszy mikroprocesor. Posiadł moc obliczeniową porównywalną z ENIAC'em, pierwszym elektronicznym komputerem z 1946 roku.

15 listopada 1971 fachowe pismo Electronic News zamieściło reklamę, wówczas istniejącej od 3 lat i jeszcze mało znanej firmy Intel, przedstawiającą mikroprocesor. Nagłówki były imponujące i wydawały się przesadzone. Mówienie o a new era of integrated electronics okazało się z dłuższej perspektywy prawdą. Zapowiadana era zintegrowanej elektroniki wraz z wprowadzeniem i4004 stała się faktem. Układ i4004 był skonstruowany dla Japończyków na zasadach wyłączności i jego komercyjnemu wykorzystaniu przez Intela na przeszkodzie stały prawa autorskie. Po długich dyskusjach w gronie kierownictwa firmy, Intel zdecydował się odkupić od Busicom'u prawa do układu. Było to tym łatwiejsze, że Busicom znajdował się akurat w finansowych tarapatach i potrzebował gotówki. Za 60 000$ Intel odkupił prawa do i4004, a Busicom rok później zbankrutował.

Inżynierowie konstruujący urządzenia elektroniczne musieli zostać nauczeni nowego podejścia do zasad konstrukcji, właściwych układom programowalnym. Aby im to ułatwić Intel skonstruował tzw. Blue Box. Było to urządzenie pozwalające testować procesor i4004 i jego oprogramowanie (nazwane później Intellec 4). Przez wiele lat Intel czerpał ze sprzedaży tych zestawów testowych (które były praktycznie samodzielnymi mikrokomputerami) większe zyski niż z samych procesorów. Jedna z promocyjnych ofert sprzedaży procesora 4004 zainteresowała Gary Kildall'a, późniejszego współpracownika Intela i twórcę pierwszego systemu operacyjnego dla mikrokomputerów - CP/M.

Już w styczniu 1972 pojawił się następca i4004 - i8008. Jego magistrala została rozszerzona z 4 do 8 bitów, a taktowanie podniesione ze 108 do 200 kHz.

MITS Altair

W roku 1974 ukazał się kolejny model mikroprocesora - i8080. Posiadał wydajność dziesięciokrotnie większą od swojego poprzednika (8008). W tym czasie pojawił się w Intelu pomysł wyposażenia jednostki i8080 w klawiaturę i monitor. Produkt taki, określono jako komputer domowy. Na pytanie Moore'a, do czego urządzenie takie mogłoby być przydatne, padła odpowiedź, że np. gospodynie domowe mogłyby zarządzać w ten sposób swoimi przepisami kulinarnymi. Nie przekonało to Moore'a, który postanowił nie zawracać sobie głowy takimi niedorzecznościami. Okazało się to sporym błędem. To właśnie i8080 zapoczątkował burzliwy rozwój komputerów osobistych (patrz MITS Altair).


Głównymi konkurentami Intela na rynku mikroprocesorów stosowanych w mikrokomputerach były w drugiej połowie lat 70 i na początku lat 80:
  • Motorola 680x
  • Zilog Z80
  • MOS 650x
Na początku 1976 Apple przedstawił swój pierwszy komputer - Apple I. Rok później pojawił się Apple II, który m.in. dzięki rewolucyjnemu arkuszowi kalkulacyjnemu Visicalc stał się prawdziwym przebojem nie tylko wśród hobbystów, ale także w zastosowaniach biznesowych. Oba komputery Apple pracowały z 8-bitowymi procesorami firmy MOS Technology (6502). W 1979 roku Motorola wprowadziła układ 68000 (zastosowany w Apple Macintosh), który stanowił bezpośrednią konkurencje dla linii 8086/8088.

Zestawienie parametrów procesorów Intela z lat '70.


W roku 1975 Intel opracował procesor oznaczony jako iAPX 432 (Intel Advanced Processor Architecture). Był to pierwszy 32-bitowy procesor, który potrafił dokonać oceny sprawności własnej oraz układów pomocniczych. Od iAPX prowadziła prosta droga do procesorów klasy dzisiejszego Pentium. Niestety, jak to często z różnymi przełomowymi wynalazkami bywało, klienci nie potrzebowali jeszcze tak potężnego i skomplikowanego urządzenia. Skok z procesorów 8-bitowych na 32-bitowe przerósł zapotrzebowanie i ambitny projekt nie odniósł rynkowego sukcesu.

Intel, nauczony doświadczeniem, w grudniu 1975 zdecydował się opracować procesor 16-bitowy i8086, który ostatecznie trafił do sprzedaży w roku 1978. Jego wydajność przewyższała poprzednika (i8080) o faktor 10. Intel cierpliwie czekał na sukces nowego procesora, kiedy jednak sprzedaż nie zwyżkowała, ponownie uczynił technologiczny krok wstecz i opracował uproszczoną wersję i8086 oznaczoną jako i8088, która różniła się tym, że pracowała z zewnętrzną magistralą 8-bitową zamiast jak w i8086 16-bitową. Pozwoliło to obniżyć cenę (kosztem wydajności). i8088 trafił na rynek w maju 1979.

Współpraca z IBM

Sprzedaż i8088 pozostawał na stosunkowo niskim poziomie aż do momentu, gdy gigant na rynku komputerowym - firma IBM zdecydowała zainteresować się również mikrokomputerami. W sierpniu 1981 IBM wprowadził IBM PC, który stał się niekwestionowanym standardem. Po raz pierwszy IBM zdecydował się skorzystać z komponentów obcej produkcji. W IBM PC pracował procesor Intel i8088.

Negocjacje pomiędzy IBM i Intelem przebiegły bardzo tajemniczo. Inżynierowie Intela i konstruktorzy IBM'a siedzieli w pomieszczeniu przedzielonym czarną zasłoną, Zespół IBM stawiał pytania, zespół Intel'a starała się odpowiedzieć. W ostateczności pozwalano inżynierom Intela włożyć rękę za zasłonę i sprawdzić dotykiem, gdzie może "leżeć" problem. Decyzję IBM o wykorzystaniu i8088 w IBM PC ostatecznie przypieczętowało zobowiązanie Intela do wykorzystywania architektury i8086/88 w konstrukcji kolejnych mikroprocesorów. IBM zażądał wglądu w plany produkcyjne Intela i sprawdził, czy Intel jest w stanie zapewnić produkcję w odpowiedniej ilości na odpowiednim poziomie jakości. Ostatecznie podpisana umowa mówiła o dostawach rzędu 10 000 sztuk procesorów rocznie. Nikt w najśmielszych snach nie przypuszczał, że w przyszłości obroty osiągną rozmiary kilkudziesięciu milionów procesorów rocznie.
O popularności architektury IBM PC przesądziło posunięcie IBM, który udostępnił specyfikację techniczną i umożliwił innym firmom tworzenie maszyn kompatybilnych z własnymi - powstał rynek klonów.

W roku 1982 Intel zaprezentował 16-bitowy mikroprocesor i80286. Układ ten zawierał wiele zintegrowanych podzespołów, m.in. zarządzanie pamięcią, posiadał również możliwość multitaskingu. Został on zastosowany w IBM AT. Ocenia się, że w roku 1988 na świecie pracowało około 15 milionów komputerów z układem i80286.

W połowie lat 80 Japończycy rozpoczęli wojnę cenową szczególnie w zakresie pamięci DRAM i EPROM. W latach 1985-86 Intel musiał zrezygnować z wielu przedsięwzięć, obniżyć wynagrodzenia, zamknąć siedem fabryk oraz zwolnić jedną trzecią pracowników. W roku 1987 wkroczył rząd Stanów Zjednoczonych. Dwanaście największych amerykańskich firm półprzewodnikowych (Intel, Motorola, National Semiconductor i in.) zjednoczyły swoje siły aby przeciwstawić się japońskiej ekspansji i utworzyły SEM ANTECH (for SEmiconductor MANufacturing TECHnology). Prezesem i CEO został Robert Noyce.

Bliżej współczesności

W kolejnych latach Intel wprowadzał:
  • w 1985 - procesor Intel386,
  • w 1989 - procesor i486 zawierający m.in. zintegrowany koprocesor matematyczny i 8 kB szybkiej pamięci cache,
  • w 1993 - procesor Pentium.
W latach 90 (i obecnie) głównymi konkurentami Intela są:
  • AMD (Advanced Micro Devices, Inc.)
  • Cyrix Inc. (VIA Technologies, Inc.)

Nie tylko mikroprocesory

Innym, mniej znanym użytkownikom pecetów polem działania firmy Intel jest przetwarzanie równoległe na superkomputerach zbudowanych z tysięcy mikroprocesorów. W roku 1992 Intel opracował jeden z najpotężniejszych wówczas superkomputerów - Intel Paragon X/PS. Inny superkomputer, Intel ASCI (Accelerated Strategic Computing Initiative) Red pracuje w Sandia National Laboratories, gdzie jest wykorzystywany do symulowania testów nuklearnych.


Główny spis treści

Masz uwagi? Napisz.