Streszczenie na temat dyscypliny koncepcyjne podstawy informatyki.

TEMAT: Wybitni naukowcy krajowi i zagraniczni, którzy wnieśli znaczący wkład w rozwój i ugruntowanie informatyki


Grupa: AM-216

Uczeń: Saraev V.Yu.

Nowosybirsk 2002

    Wstęp

    Blaise Pascal

    Karola Ksawerego Thomasa de Colmar

    Charles Babbage

    Hermana Hollerita

    Komputer elektromechaniczny „Mark 1”

    Wykonanie tranzystora

    M-1

    M-2

    Dalszy rozwój informatyki

    Bibliografia

Informatyka to nauka zajmująca się ogólnymi właściwościami i wzorami informacji, a także metodami jej wyszukiwania, przesyłania, przechowywania, przetwarzania i wykorzystania w różnych dziedzinach działalności człowieka. Jak powstała nauka w wyniku pojawienia się komputerów. Obejmuje teorię kodowania informacji, rozwój metod i języków programowania oraz matematyczną teorię procesów przesyłania i przetwarzania informacji.

W rozwoju technologii komputerowej zwykle wyróżnia się kilka generacji komputerów: na lampach próżniowych (lata 40.-początek lat 50.), dyskretnych urządzeniach półprzewodnikowych (połowa lat 50.-60.), układach scalonych (połowa lat 60.).

Historia komputera jest ściśle związana z próbami człowieka, aby ułatwić automatyzację dużych ilości obliczeń. Nawet proste operacje arytmetyczne na dużych liczbach są trudne dla ludzkiego mózgu. Dlatego już w starożytności pojawiło się najprostsze urządzenie liczące, liczydło. W XVII wieku wynaleziono suwak logarytmiczny, aby ułatwić skomplikowane obliczenia matematyczne.

Urządzenie liczące Blaise'a Pascala (1623 - 1662).

W 1641 roku francuski matematyk Blaise Pascal, mając 18 lat, wynalazł maszynę liczącą – „babcię” nowoczesnych maszyn sumujących. Wcześniej zbudował 50 modeli. Każdy kolejny był doskonalszy od poprzedniego. W 1642 roku francuski matematyk Blaise Pascal zaprojektował urządzenie liczące, które miało ułatwić pracę jego ojcu, inspektorowi podatkowemu, który musiał dokonywać wielu skomplikowanych obliczeń. Urządzenie Pascala było jedynie „umiejętne” w dodawaniu i odejmowaniu. Ojciec i syn włożyli dużo pieniędzy w stworzenie swojego urządzenia, ale kalkulatorowi Pascala sprzeciwili się urzędnicy, którzy bali się utraty z tego powodu pracy, a także pracodawcy, którzy uważali, że lepiej zatrudnić tanich księgowych niż kupić nową maszynę. Młody projektant pisze, nie wiedząc jeszcze, że jego myśl wyprzedza swoją epokę o stulecia: „Komputer wykonuje czynności bliższe myśli niż cokolwiek, co robią zwierzęta”. Samochód przynosi mu popularność. Tylko nieliczni potrafią ocenić jego wzory i twierdzenia, a tutaj - wystarczy pomyśleć! Maszyna liczy się sama!! Każdy śmiertelnik mógłby to docenić, dlatego tłumy ludzi pędzą do Ogrodu Luksemburskiego, aby popatrzeć na cudowną maszynę, pisze się o niej wiersze, przypisuje się jej fantastyczne cnoty. Blaise Pascal staje się sławną osobą.

Dwa wieki później, w 1820 r., Francuz Charles Xavier Thomas de Colmar (1785...1870) stworzył arytmometr, pierwszy kalkulator produkowany masowo. Umożliwiał mnożenie zgodnie z zasadą Leibniza i pomagał użytkownikowi w dzieleniu liczb. W tamtych czasach był to najbardziej niezawodny samochód; Nie bez powodu zajął miejsce na stołach księgowych w Europie Zachodniej. Maszyna sumująca ustanowiła także rekord świata w długości sprzedaży: ostatni model został sprzedany na początku XX wieku.


Charles Babbage (1791-1871)

Charles Babbage bardzo szeroko pokazał swój talent jako matematyk i wynalazca. Lista wszystkich innowacji zaproponowanych przez naukowców będzie dość długa, ale jako przykład możemy podać, że to Babbage wpadł na takie pomysły, jak instalowanie w pociągach „czarnych skrzynek” rejestrujących okoliczności wypadku, przejście na wykorzystanie energii przypływów morskich po wyczerpaniu się zasobów węgla w kraju, a także badanie warunków pogodowych minionych lat według rodzaju słojów na ściętym drzewie. Oprócz poważnych studiów matematycznych, którym towarzyszył szereg znaczących prac teoretycznych i kierowanie wydziałem w Cambridge, naukowiec przez całe życie pasjonował się różnego rodzaju kluczami, zamkami, szyframi i lalkami mechanicznymi.

W dużej mierze dzięki tej pasji można powiedzieć, że Babbage przeszedł do historii jako projektant pierwszego pełnoprawnego komputera. Już w XVII-XVIII wieku powstały różnego rodzaju mechaniczne maszyny liczące, jednak urządzenia te były bardzo prymitywne i zawodne. Babbage zaś, jako jeden z założycieli Królewskiego Towarzystwa Astronomicznego, odczuł pilną potrzebę stworzenia potężnego kalkulatora mechanicznego, zdolnego do automatycznego wykonywania długich, niezwykle żmudnych, ale bardzo ważnych obliczeń astronomicznych. Tabele matematyczne były wykorzystywane w wielu różnych dziedzinach, ale podczas żeglugi po pełnym morzu liczne błędy w ręcznie obliczanych tabelach mogły kosztować ludzi życie. Istniały trzy główne źródła błędów: błędy ludzkie w obliczeniach; błędy skrybów przy przygotowywaniu tabel do druku; błędy zecera.

Będąc jeszcze bardzo młodym człowiekiem, na początku lat dwudziestych XIX wieku Charles Babbage napisał specjalną pracę, w której wykazał, że pełna automatyzacja procesu tworzenia tablic matematycznych gwarantuje dokładność danych, gdyż wyeliminuje wszystkie trzy etapy generowania błędów. Tak naprawdę reszta życia naukowca była związana z realizacją tego kuszącego pomysłu. Pierwsze urządzenie obliczeniowe opracowane przez Babbage'a nazwano „silnikiem różnicowym”, ponieważ w swoich obliczeniach opierało się na dobrze rozwiniętej metodzie różnic skończonych. Dzięki tej metodzie wszystkie trudne do zrealizowania w mechanice operacje mnożenia i dzielenia zostały sprowadzone do łańcuchów prostych dodawań znanych różnic liczb.

Chociaż dzięki funduszom rządowym szybko zbudowano wykonalny prototyp weryfikujący koncepcję, zbudowanie pełnoprawnej maszyny okazało się sporym wyzwaniem, ponieważ wymagana była ogromna liczba identycznych części, a przemysł dopiero zaczynał odchodzić od rzemiosła do masowej produkcji. Po drodze Babbage sam musiał wynaleźć maszyny do tłoczenia części. Do 1834 r., kiedy „silnik różnicowy nr 1” nie był jeszcze ukończony, naukowiec wymyślił już całkowicie nowe urządzenie - „silnik analityczny”, który w rzeczywistości był prototypem nowoczesnych komputerów. Do roku 1840 Babbage prawie całkowicie ukończył prace nad „silnikiem analitycznym”, po czym zdał sobie sprawę, że ze względu na problemy technologiczne nie będzie możliwe natychmiastowe jego wdrożenie w praktyce. Dlatego zaczął projektować „maszynę różnicową nr 2” – jakby krok pośredni pomiędzy pierwszym komputerem, nastawionym na wykonanie ściśle określonego zadania, a drugą maszyną, zdolną automatycznie obliczyć niemal każdą funkcję algebraiczną.

Siła ogólnego wkładu Babbage'a w informatykę polega przede wszystkim na kompletności sformułowanych przez niego pomysłów. Naukowiec zaprojektował system, którego działanie programowano poprzez wprowadzenie sekwencji kart perforowanych. System był w stanie wykonywać różnego rodzaju obliczenia i był tak elastyczny, jak pozwalały na to instrukcje dostarczane w ramach danych wejściowych. Inaczej mówiąc, elastyczność „silnika analitycznego” została zapewniona dzięki „oprogramowaniu”. Opracowując niezwykle zaawansowaną konstrukcję drukarki, Babbage był pionierem idei komputerowego wejścia i wyjścia, ponieważ jego drukarka i stosy kart perforowanych zapewniały w pełni automatyczne wprowadzanie i wysyłanie informacji podczas obsługi urządzenia komputerowego.

Podjęto dalsze kroki, które przewidywały projektowanie nowoczesnych komputerów. Silnik analityczny Babbage'a może przechowywać pośrednie wyniki obliczeń (poprzez dziurkowanie ich na kartach) w celu późniejszego przetwarzania lub wykorzystywać te same dane pośrednie do kilku różnych obliczeń. Wraz z oddzieleniem „procesora” i „pamięci”, „Silnik Analityczny” zaimplementował możliwości skoków warunkowych, rozgałęziania algorytmu obliczeniowego i organizowania pętli w celu wielokrotnego powtarzania tego samego podprogramu. Bez prawdziwego kalkulatora Babbage posunął się tak bardzo w swoim teoretycznym rozumowaniu, że był w stanie głęboko zainteresować i zaangażować córkę George'a Byrona, Augustine Adę King, hrabinę Lovelace, która miała niezaprzeczalny talent matematyczny i przeszła do historii jako „pierwsza programista” w programowaniu swojej hipotetycznej maszyny.

Niestety, Charlesowi Babbage’owi nie udało się urzeczywistnić większości swoich rewolucyjnych pomysłów. Pracy naukowca zawsze towarzyszyło kilka bardzo poważnych problemów. Jego niezwykle żywy umysł zupełnie nie był w stanie usiedzieć w miejscu i czekać na zakończenie kolejnego etapu. Gdy tylko dostarczył rzemieślnikom rysunki produkowanego urządzenia, Babbage natychmiast zaczął wprowadzać do niego poprawki i uzupełnienia, stale szukając sposobów na uproszczenie i usprawnienie działania urządzenia. Głównie z tego powodu prawie wszystkie przedsięwzięcia Babbage'a nigdy nie zostały ukończone za jego życia. Kolejnym problemem jest jej wysoce konfliktowy charakter. Zmuszony do ciągłego wyciągania pieniędzy od rządu na projekt, Babbage mógł od razu wydać takie sformułowania: „Dwukrotnie [przez parlamentarzystów] zostałem poproszony: „Powiedz mi, panie Babbage, jeśli włożysz do maszyny błędne liczby, czy mimo to wyjdzie z poprawną odpowiedzią?” „Nie jestem w stanie pojąć, jaki trzeba mieć bałagan w głowie, żeby rodzić tego typu pytania”... Wiadomo, że przy takim charakterze i skłonność do surowych ocen, naukowiec nieustannie pozostawał w tarciach nie tylko z kolejnymi rządami, ale także z władzami duchowymi, które nie podobały się wolnomyślicielowi, oraz z rzemieślnikami wytwarzającymi elementy jego maszyn.

Jednak aż do początku lat 90 Dawno, dawno temu powszechnie panowała opinia, że ​​idee Charlesa Babbage'a zbytnio wyprzedzały możliwości techniczne jego czasów i dlatego projektowane komputery w zasadzie nie mogły być budowane w tamtej epoce. I dopiero w 1991 r., w dwusetną rocznicę urodzin naukowca, pracownicy Londyńskiego Muzeum Nauki odtworzyli według jego rysunków 2,6-tonowy „silnik różnicowy nr 2”, a w 2000 r. także 3,5-tonową drukarkę Babbage’a. Obydwa urządzenia, stworzone przy użyciu technologii z połowy XIX wieku, działają znakomicie i wyraźnie pokazują, że historia komputerów mogła zacząć się sto lat wcześniej.

W 1888 roku amerykański inżynier Herman Hollerith zaprojektował pierwszą elektromechaniczną maszynę liczącą. I było tak. Rodzice Hermana byli imigrantami z Niemiec, którzy w 1848 roku opuścili ojczyznę, uciekając przed koszmarem, jaki panował w kraju dzięki wysiłkom rewolucyjnych mas. Budowa domu w Buffalo, znalezienie przyzwoitej pracy i urodzenie syna zajęło im dwanaście długich lat. Chłopiec okazał się sukcesem, a już sama data urodzin – 29 lutego 1860 roku – zapowiadała mu życie pełne niezwykłych wydarzeń. O wczesnych latach Hermana nic nie wiadomo (to sprawa rodzinna). Do szkoły chodził z wyraźną niechęcią, a wśród nauczycieli miał opinię dziecka uzdolnionego, lecz nie wychowanego i leniwego. Nie był dobry w gramatyce ani kaligrafii, nie zachwycała go ani historia narodowa, ani twórczość założycieli młodego demokratycznego państwa. Znacznie lepiej było z naukami przyrodniczymi i ścisłymi. Poza tym młody człowiek rysował z przyjemnością i nie bez talentu. Kłopoty w nauce tłumaczono faktem, że Herman cierpiał na dość powszechną chorobę – dysgrafię i miał poważne trudności, gdy trzeba było coś odręcznie zapisać. Dysgrafia w różnych momentach zrujnowała życie wielu wspaniałych ludzi, wśród nich słynnego fizyka Lwa Davidowicza Landaua, słynnego hollywoodzkiego aktora Toma Cruise'a i wielu innych. Być może to właśnie ta wada wywołała zainteresowanie Hermana maszynami i mechanizmami, które skutecznie zastępują pracę fizyczną.

Tymczasem nauczyciele naszego bohatera nie przejmowali się medyczną stroną problemu. „Patyczki muszą być prostopadłe!” I pewnego dnia, po wielokrotnym przepisaniu tej samej strony tekstu na polecenie upartego Pestalozziego (w celu opracowania eleganckiego i czytelnego pisma), Herman raz na zawsze opuścił mury miejskiego gimnazjum, starannie zamykając front drzwi za nim. Miał wtedy 14 lat. Przez rok jedynym nauczycielem Hermana był luterański ksiądz, który nie tylko uczył się u niego psalmów, ale także przygotowywał go do przyjęcia do prestiżowego City College of New York. W ciągu następnych czterech lat młody człowiek ukończył z wyróżnieniem wyżej wymienioną placówkę edukacyjną i rozpoczął służbę na Uniwersytecie Columbia, na wydziale matematyki słynnego profesora Trowbridge'a. Wkrótce jego patron został powołany na stanowisko szefa Biura Narodowego Spisu Powszechnego USA, które zajmowało się w szczególności gromadzeniem i statystycznym przetwarzaniem informacji na potrzeby spisu powszechnego USA. Trowbridge zaprosił Holleritha, aby do niego dołączył. Nowe zadanie było bardzo atrakcyjne, ponieważ zapowiadało pracę nad rozwiązaniem ogromnych problemów obliczeniowych związanych ze zbliżającym się kolejnym spisem obywateli amerykańskich w roku 1880. Ale praca wśród skrybów nie sprawiała Hermanowi żadnej radości. Już sam widok tych skarabeuszy, zawsze ćwierkających piórami, wprawiał go w nieuniknioną melancholię. Patyki, haczyki, patyki, haczyki: Co dziesięć lat, według ustalonej kiedyś zasady, urzędnicy papierów państwowych wszystkich krajów rozpoczynali kolejny spis swoich współobywateli, który za każdym razem ciągnął się latami i dawał wynik bardzo odbiegający od prawdziwy stan rzeczy. Z roku na rok rosły między innymi wymagania dotyczące przekazywanych informacji. Teraz nie wystarczyło już powiedzieć, że Nowy Jork liczy 100 tysięcy mieszkańców. Statystycy musieli dokładnie ustalić, że 85% z nich mówiło po angielsku, 55% to kobiety, 35% to katolicy, 5% to rdzenni Amerykanie, a 0,05% pamięta pierwszego prezydenta Stanów Zjednoczonych.

Wtedy właśnie narodził się pomysł zmechanizowania pracy skrybów za pomocą maszyny przypominającej krosno żakardowe. W rzeczywistości tę samą ideę po raz pierwszy wyraził kolega Holleritha, doktor nauk przyrodniczych John Shaw. Niestety, pomysł wisiał w powietrzu i nie zmaterializował się w sprzęcie. Oczywiście w tamtym czasie cała postępowa ludzkość znała już niesamowitą maszynę liczącą Anglika Charlesa Babbage'a, ale ona też istniała w jednym egzemplarzu i nie znalazła żadnego praktycznego zastosowania. Ambitnego Hermana niepokoiły perspektywy, jakie otworzyłyby się przed twórcą tego rodzaju maszyny liczącej, gdyby została ona oddana do użytku publicznego. Szczerze wierzył, że Amerykanów można przekonać o perspektywach wykorzystania maszyn liczących, zwłaszcza że jedno praktyczne zastosowanie – spis współobywateli – było oczywiste. A poza tym bardzo chciał zrobić tych wszystkich przeciętniaków, którzy zawsze naśmiewali się z niego, że nie potrafił nawet poprawnie napisać na bibule swojego charakterystycznego duszenia.

W 1882 roku Hollerith został nauczycielem mechaniki stosowanej w Massachusetts Institute of Technology. Do pracy jechał pociągiem. I pewnego dnia, gdy wynalazca, zmęczony myśleniem o swoim mechanicznym dziecku, spokojnie drzemał, jego spokój został zakłócony przez kontroler. Hollerith automatycznie wręczył mu kartę podróżną, inspektor z melancholijną miną, uderzył ją kilkakrotnie i zwrócił właścicielowi. Właściciel jeszcze przez chwilę patrzył na beznadziejnie zniszczony kawałek kartonu, zdziwiony, po czym zachichotał i z idiotycznym uśmiechem na ustach pojechał do stacji docelowej. Gdy tylko wysiadł z powozu, skoczył do drzwi laboratorium i zamknął się tam na kilka dni.

Przerwijmy naszą opowieść dla niezwykle ciekawej notatki: w tamtych latach amerykańscy konduktorzy wymyślili bardzo oryginalny sposób walki z oszustwami na kolei i kradzieżą biletów podróżnych, które (w celu zaoszczędzenia pieniędzy) nie posiadały ani numerów seryjnych, ani nazwiska właścicieli. Kontroler za pomocą dziurkacza zrobił dziurki w wyznaczonych miejscach na bilecie, zaznaczając w ten sposób płeć, kolor włosów i oczu pasażera. W rezultacie powstał rodzaj karty dziurkowanej, która w pewnym stopniu umożliwiła identyfikację prawdziwego właściciela biletu. Wróćmy jednak do naszego bohatera...

Wkrótce w laboratorium zamieszkał niezdarny potwór, złożony głównie ze złomu znalezionego na luksusowych śmietnikach uniwersyteckich. Niektóre części trzeba było zamawiać z Europy. Warto zauważyć, że w swoim pierwszym wcieleniu maszyna sumująca Holleritha korzystała z taśmy perforowanej. Taśma przesuwała się po izolowanym metalowym stole, dociśnięta była do niej metalową listwą z rzędem luźno wbitych i zaokrąglonych gwoździ. W przypadku n Gdy „gwóźdź” wpadł w otwór w taśmie, styk elektryczny został zwarty, a impuls elektryczny wprawił w ruch mechanizm zliczający. W tak prymitywny, ale bardzo skuteczny sposób odczytywano informacje. Ale Hollerith szybko rozczarował się taśmą, ponieważ szybko się zużywała i pękała, a ponadto dość często ze względu na dużą prędkość taśmy informacje nie miały czasu na przeczytanie. Dlatego ostatecznie, pod naciskiem teścia Johna Billingsa, Hollerith jako nośnik informacji wybrał karty dziurkowane. Sto lat później informatycy ponownie uznali pomysł odczytywania informacji z taśmy za bardziej obiecujący. Ale to, jak mówią, to zupełnie inna historia.

Działalność wynalazcza tak bardzo zawładnęła Hollerithem, że nie mogła nie wpłynąć na jakość jego nauczania. Poza tym nie lubił pojawiać się przed uczniami i na wszelkie możliwe sposoby starał się uniknąć konieczności pisania kredą na tablicy. Dlatego też, gdy w 1884 roku zaproponowano mu stanowisko starszego pracownika Krajowego Urzędu Patentowego, nie wahał się ani chwili. Kilka miesięcy później Hollerith złożył w swoim imieniu patent na stworzony przez siebie tabulator kart dziurkowanych. Maszyna była testowana w urzędach statystycznych w Nowym Jorku, New Jersey i Baltimore. Władze były zachwycone i zarekomendowały wynalazek Holleritha jako konkurencję wśród systemów uznawanych przez rząd USA za podstawę mechanizacji pracy spisowców podczas zbliżającego się spisu powszechnego w roku 1890. Maszyna Holleritha nie miała sobie równych, dlatego w biurze projektowym firmy Pratt and Whitney (która później zbudowała słynny silnik lotniczy) pospiesznie zorganizowano stworzenie przemysłowego prototypu tabulatora kart perforowanych. Produkcję powierzono firmie Western Electric Company. I już w czerwcu 1890 r. rozpoczął się pierwszy w historii „zmechanizowany” spis ludności. Ogółem w tym roku w Stanach Zjednoczonych zarejestrowano 62 622 250 obywateli; cała procedura przetwarzania wyników trwała niecałe trzy miesiące, oszczędzając 5 milionów dolarów budżetowych (cały budżet stanu USA w tym roku wyniósł zaledwie kilkadziesiąt milionów dolarów). . Dla porównania spis powszechny z 1880 r. trwał siedem lat. Oprócz szybkości nowy system umożliwił porównanie danych statystycznych dotyczących różnych parametrów. Przykładowo po raz pierwszy uzyskano realne dane operacyjne dotyczące śmiertelności dzieci w różnych stanach.


W życiu Holleritha rozpoczął się gwiezdny okres. Otrzymał niespotykane wówczas wynagrodzenie w wysokości dziesięciu tysięcy dolarów, uzyskał stopień naukowy doktora nauk przyrodniczych, jego system został przyjęty (płacąc ogromne pieniądze za prawo do korzystania z patentu) przez Kanadyjczyków, Norwegów, Austriaków, a później Brytyjczycy. Instytut Franklina przyznał mu prestiżowy Medal Elliota Cressona. Francuzi przyznali mu złoty medal na wystawie paryskiej w 1893 roku. Prawie wszystkie towarzystwa naukowe w Europie i Ameryce zapisały go jako „członka honorowego”. Później historiografowie światowej nauki nazwali go „pierwszym na świecie inżynierem statystycznym”. W 1896 roku Herman Hollerith zainwestował bez śladu fundusze uzyskane dzięki swojej zasłużonej sławie w utworzenie firmy Tabulated Machine Company (TMC). Do tego czasu maszyny liczące zostały znacznie ulepszone: procedury podawania i sortowania kart dziurkowanych zostały zautomatyzowane. W 1900 roku Departament Stanu ponownie zatwierdził system TMC jako podstawę Jubileuszowego Spisu Ludności. Chociaż Hollerith zażądał za swój patent niespotykanej sumy 1 miliona dolarów. Wszystkie te pieniądze zamierzał przeznaczyć na rozwój produkcji.


Ale byli urzędnicy, którzy oskarżyli Holleritha o karczowanie pieniędzy, zagrażające interesom publicznym Ameryki. Zdecydowano się zbudować nowy stanowy system spisu ludności, wykorzystując technologie TMC, ale z pominięciem patentów Holleritha. Jest w tej historii znaczący tunel czasoprzestrzenny, gdyż patenty na „nowe” maszyny zostały zarejestrowane na nazwisko niejakiego inżyniera Jamesa Powersa, jednego z pracowników Narodowego Biura Spisu Powszechnego i byłego kolegi Holleritha. I zaraz po zakończeniu kolejnego spisu ludności w 1911 r. Powersowi udało się stworzyć własną firmę Powers Tabulated Machine Company (PTMC) – bezpośredniego konkurenta TMC. Eksperci wciąż spierają się o źródła finansowania tego „start-upu”. Nowe przedsiębiorstwo wkrótce zbankrutowało, jednak TMC nie było w stanie podnieść się po utracie zamówienia rządowego.


W 1911 roku bardzo nienaukowy biznesmen Charles Flint założył firmę Computer Tabulated Recording Company (CTRC), której integralną częścią była dość zniszczona firma Holleritha. Dotychczasowy dyrektor TMC został przeniesiony na stanowisko konsultanta technicznego. Niestety, nowa firma również nie prosperowała. CTRC powstało dopiero w 1920 roku, rok przed dymisją Holleritha, dzięki sprawnym działaniom nowego dyrektora, Thomasa Watsona. W 1924 roku Watson zmienił nazwę CTRC na słynną obecnie IBM (International Machines Corporation). Dlatego to właśnie on uważany jest za ojca założyciela IBM.


Pięć lat później dyrektor IBM podpisał dokument zapewniający niezbędne fundusze na rytuał pogrzebowy pożegnania ciała kolegi, pana Hermana Holleritha. Ponadto podpisano dokument o zakończeniu wypłaty miesięcznej emerytury i zerowych wydatkach na zapłatę roszczeń materialnych od osób bliskich, z uwagi na ich brak. (Kije, haczyki, patyki, haczyki:) W pogrzebie uczestniczyli członkowie zarządu IBM i kilka innych osób. Surowy młodzieniec trzymał aksamitną poduszkę ze złotymi, srebrnymi i brązowymi medalami. Tę podkładkę i liczne patenty (ponad 30) na nazwisko Hollerith można dziś oglądać w IBM Fame Museum.


Nawiasem mówiąc, nigdy nie dostał ani jednej akcji IBM, chociaż to jego maszyny do tworzenia tabel ostatecznie przyniosły szczęśliwym akcjonariuszom wspaniałe dywidendy. Dalszy rozwój nauki i techniki pozwolił na zbudowanie pierwszych komputerów w latach czterdziestych XX wieku. W lutym 1944 roku w jednym z przedsiębiorstw IBM, we współpracy z naukowcami z Uniwersytetu Harvarda, na zamówienie Marynarki Wojennej USA powstała maszyna Mark-1. Był to potwór ważący 35 ton.

Komputer elektromechaniczny „Mark 1”

„Mark-1” opierał się na zastosowaniu przekaźników elektromechanicznych i działał z liczbami dziesiętnymi zakodowanymi na taśmie dziurkowanej. Maszyna mogła manipulować liczbami o długości do 23 cyfr. Pomnożenie dwóch liczb 23-bitowych zajęło jej 4 sekundy.

Ale przekaźniki elektromechaniczne nie działały wystarczająco szybko. Dlatego już w 1943 roku Amerykanie rozpoczęli prace nad alternatywną wersją komputera opartego na

oparte na lampach elektronowych. Pierwszy komputer elektroniczny ENIAC powstał w 1946 roku. Jego waga wynosiła 30 ton, aby go pomieścić, potrzeba było 170 metrów kwadratowych powierzchni. Zamiast tysięcy części elektromechanicznych ENIAC zawierał 18 000 lamp próżniowych. Maszyna liczyła w systemie binarnym i wykonywała 5000 operacji dodawania lub 300 operacji mnożenia na sekundę.

Maszyny wykorzystujące lampy próżniowe działały znacznie szybciej, ale same lampy próżniowe często zawodziły. Aby je zastąpić w 1947 roku, Amerykanie John Bardeen, Walter Brattain i William Bradford Shockley zaproponowali zastosowanie wymyślonych przez siebie stabilnych półprzewodnikowych elementów tranzystorowych.

wynalazki: Shockley (siedzi),

Bardeen (po lewej) i Britten (po prawej)


Johna BARDINA(23.V 1908) – fizyk amerykański, członek Narodowej Akademii Nauk (1954). Urodzony w Madisonie. Ukończył studia na Uniwersytecie Wisconsin (1828) i Uniwersytecie Princeton. W latach 1935 - 1938 pracował na Uniwersytecie Harvarda, w latach 1938 - 1941 - na Uniwersytecie w Minnesocie, w latach 1945 - 1951 - w Bell Telephone Laboratories, a od 1951 - profesor na Uniwersytecie Illinois.

Prace poświęcone są fizyce ciała stałego i nadprzewodnictwu. Wraz z W. Brattainem odkrył w 1948 r. efekt tranzystorowy i stworzył triodę kryształową ze stykiem punktowym – pierwszy tranzystor półprzewodnikowy (Nagroda Nobla, 1956). Razem z J. Pearsonem badał dużą liczbę próbek krzemu o różnej zawartości fosforu i siarki oraz badał mechanizm rozpraszania przez donory i akceptory (1949). W 1950 roku W. Shockley wprowadził koncepcję potencjału odkształcenia. Niezależnie od G. Fröhlicha przewidział (1950) przyciąganie między elektronami na skutek wymiany wirtualnych fotonów, a w 1951 przeprowadził obliczenia przyciągania między elektronami na skutek wymiany wirtualnych fononów. W 1957 roku wraz z L. Cooperem i J. Schriefferem zbudował mikroskopową teorię nadprzewodnictwa (teoria Bardeena – Coopera – Schrieffera) (Nagroda Nobla, 1972). Opracował teorię efektu Meissnera w oparciu o model z przerwą energetyczną, a w 1958 roku niezależnie od innych uogólnił teorię właściwości elektromagnetycznych nadprzewodników na przypadek pól o dowolnej częstotliwości. W 1961 zaproponował efektywną metodę Hamiltona (model tunelowy Bardeena) w teorii tunelowania, a w 1962 obliczył pola krytyczne i prądy dla cienkich warstw.

W latach 1968 - 1969 był prezesem Amerykańskiego Towarzystwa Fizycznego. Medal F. Londyński (1962), Medal Narodowy za

    Historia wejścia ludzkości w społeczeństwo informacyjne. Rozwój działalności informacyjnej a stopień zaangażowania i wpływu na globalną infrastrukturę informacyjną. Rozwój narzędzi i metod obliczeniowych „w osobach” i przedmiotach.

    Charakterystyka przeznaczenia mikroprocesora, magistrali systemowej, pamięci głównej i zewnętrznej, portów wejścia/wyjścia urządzeń zewnętrznych i adapterów. Analiza porównawcza bazy elementów i oprogramowania komputerów osobistych różnych generacji.

    Historia rozwoju komputerów. Historia rozwoju IBM. Pierwsze komputery elektroniczne. Komputery kompatybilne z IBM. Jak zrobić Maca z jabłka. Historia powstania pierwszego komputera osobistego, Macintosha.

    Liczenie urządzeń przed pojawieniem się komputerów. Okres przedmechaniczny. Liczenie na palcach, na kamieniach. Laski Napiera. Władca logarytmiczny. Okres mechaniczny. Maszyna Blaise'a Pascala, Gottfried Leibniz. Karty dziurkowane Jaccarda. Komputery analogowe (AVM).

    „MESM”, mała elektroniczna maszyna licząca, była pierwszym krajowym uniwersalnym komputerem lampowym w ZSRR. Rozpoczęcie prac nad stworzeniem – 1948, 1950 – zakończenie prac, 1950 – oficjalne uruchomienie.

    Charles Babbage i jego wspaniałe maszyny. Ada to nazwa zunifikowanego języka programowania amerykańskiej armii. Metoda rozdzielania obliczeń matematycznych. Zaangażowanie Ady Lovelace w rozwój wielofunkcyjnego narzędzia do rozwiązywania stosowanych problemów.

    Periodyzacja rozwoju komputerów elektronicznych. Maszyny liczące Pascala i Leibniza. Opisy ewolucyjnego rozwoju krajowych i zagranicznych pięciu generacji komputerów elektronicznych. Istota wprowadzenia mediów wirtualnych.

    Mechaniczne środki obliczeniowe. Komputery elektromechaniczne, lampy próżniowe. Cztery generacje rozwoju komputerów, charakterystyka ich cech. Układy scalone bardzo dużej skali (VLSI). Komputer czwartej generacji. Projekt komputerowy piątej generacji.

    Informatyka to nauka zajmująca się ogólnymi właściwościami i wzorcami informacji. Pojawienie się komputerów elektronicznych. Matematyczna teoria procesów przesyłania i przetwarzania informacji. Historia komputera. Globalna sieć informacyjna.

    Jaki był pierwszy komputer i kto go zbudował? To kwestia definicji, a nie faktu. Komputer w obecnym rozumieniu tego słowa jest produktem długiej ewolucji, a nie tylko wynalazkiem.

    U POczątków Rewolucji Komputerowej Przez cały czas ludzie musieli liczyć. W mrocznej, prehistorycznej przeszłości liczyli na palcach lub robili nacięcia na kościach. Około 4000 lat temu, u zarania cywilizacji ludzkiej, wynaleziono dość złożone systemy liczbowe, które umożliwiły...

    Sushko Sergey Kłajpeda Litwa Ludzie nauczyli się liczyć na własnych palcach. Gdy tego było mało, pojawiły się najprostsze urządzenia liczące. Wśród nich szczególne miejsce zajmował

Wyślij swoją dobrą pracę do bazy wiedzy jest prosta. Skorzystaj z poniższego formularza

Studenci, doktoranci, młodzi naukowcy, którzy wykorzystują bazę wiedzy w swoich studiach i pracy, będą Państwu bardzo wdzięczni.

Opublikowano na http://www.allbest.ru/

Wstęp

1.Wyczyn naukowy S.A. Lebiediewa

2. Wkład w rozwój komputerów I.S. Brooka

3. Wkład w stworzenie komputera V.M. Głuszkowa

4. Wkład w rozwój komputerów A.P. Erszowa

Wstęp

Komputery i technologie cyfrowe stały się tak częścią naszego życia, że ​​są obecnie uważane za coś oczywistego. I niewiele osób zadaje sobie pytania o to, kto i jaką pracą utorował drogę nowoczesnym technologiom informacyjnym. Niestety, przez lata sztucznie tworzonej tajemnicy informacyjnej państwa, w świadomości wielu osób uformował się stereotyp narodowego nihilizmu komputerowego. Tymczasem znając z pierwszej ręki fakty dotyczące rozwoju nauki i techniki, możemy śmiało powiedzieć, że rodzima inżynieria komputerowa ma głębokie korzenie i tradycje oraz że mamy w tym zakresie osiągnięcia na światowym poziomie. Opowieść o wkładzie akademika Siergieja Aleksiejewicza Lebiediewa w rozwój elektroniki i techniki komputerowej zarówno w naszym kraju, jak i na świecie ma na celu uświadomienie prawdziwej skali udziału naszych rodaków w światowej historii komputerów.

Zdaniem Prezydenta Rosyjskiej Akademii Nauk, akademika Yu.S. Osipova, unikalne rozwiązania S.A. Lebiediew „zdefiniował główną drogę światowej inżynierii komputerowej na kilka nadchodzących dziesięcioleci”. To akademik Lebiediew stworzył pierwszy komputer domowy i kolejne, coraz bardziej produktywne komputery w trudnych latach powojennych. Pojawienie się komputerów elektronicznych było rewolucją naukową i technologiczną, która radykalnie zmieniła rozwój społeczeństwa.

1. Wyczyn naukowy S.A. Lebiediewa (1902 - 1974)

Siergiej Aleksiejewicz zaczął studiować projektowanie technologii komputerowej w wieku 45 lat, będąc już znanym elektrykiem. W tym czasie uzyskał znaczące wyniki naukowe w dziedzinie stabilności układów elektrycznych. W 1939 roku uzyskał stopień doktora nauk ścisłych (z pominięciem stopnia kandydata) za opracowanie teorii „sztucznej stabilności” układów elektrycznych. W latach wojny SA Lebiediew zajmował się automatyzacją sterowania złożonymi systemami. Pod jego kierownictwem opracowano system stabilizacji działa czołgowego podczas celowania oraz system automatycznego naprowadzania torpedy lotniczej.

Aby opracować system stabilizacji działa czołgowego i automatycznego urządzenia naprowadzającego dla celu torpedowego samolotu, konieczne było przeprowadzenie dużych obliczeń. Rozwijając ten kierunek, S. A. Lebedev stworzył w 1945 roku komputer analogowy do rozwiązywania układu równań różniczkowych zwyczajnych. Pod koniec wojny S. A. Lebiediew powrócił do pracy nad zwiększeniem stabilności systemów elektroenergetycznych. Za prace z tego cyklu otrzymał w 1950 roku Nagrodę Państwową ZSRR. EVM Lebiediew Brook Głuszkow Erszow

Jak wiadomo, zasady budowy komputerów i liczenia elektronicznego opracował za granicą von Neumann; klasyczna architektura komputerów nazywa się „von Neumann”. Naukowy wyczyn Lebiediewa polega na tym, że w warunkach izolacji informacyjnej tamtych lat Siergiej Aleksiejewicz doszedł do tych samych wniosków, co von Neumann, ale sześć miesięcy wcześniej. Opracowane obliczenia teoretyczne pozwoliły Siergiejowi Aleksiejewiczowi przejść do pracy praktycznej. Pierwszym znaczącym rezultatem była mała elektroniczna maszyna licząca (MESM). W swojej pierwszej maszynie Lebiediew zastosował podstawowe zasady budowy komputerów, takie jak:

· dostępność urządzeń arytmetycznych, pamięci, urządzeń wejścia/wyjścia i urządzeń sterujących;

· kodowanie i przechowywanie programu w pamięci, np. liczb;

· Binarny system liczbowy do kodowania liczb i poleceń;

· automatyczne wykonywanie obliczeń na podstawie zapisanego programu;

· obecność zarówno operacji arytmetycznych, jak i logicznych;

· hierarchiczna zasada budowy pamięci;

· wykorzystanie metod numerycznych do realizacji obliczeń.

W 1951 r. Został przyjęty przez komisję do eksploatacji, aw 1952 r. Rozwiązywano już na nim ważne problemy naukowe i techniczne z zakresu procesów termojądrowych, lotów kosmicznych, technologii rakietowej, dalekobieżnych linii przesyłowych i innych. W Kijowie, w Narodowej Akademii Nauk Ukrainy, gdzie powstał MESM, zachowała się dokumentacja projektowa i teczki z materiałami dotyczącymi pierwszego domowego komputera, których większość opracował S. A. Lebiediew.

Równolegle z końcowym etapem prac nad MESM, w 1950 roku rozpoczęto prace nad pierwszą dużą (później przemianowaną na szybką) elektroniczną maszynę liczącą. Rozwój BESM był już prowadzony w Moskwie, w laboratorium ITMiVT, kierowanym przez S.A. Lebiediew. W tamtych latach nie było autorskiej bazy elementów, niezbędnych konstrukcji dla jednostek obliczeniowych, czy systemów chłodzenia. Musieliśmy wykonać własne podwozia i stojaki, wiercić i nitować, instalować i debugować różne wersje wyzwalaczy i liczników sumatorów oraz sprawdzać ich niezawodność działania.

W najkrótszym możliwym czasie powstała taka maszyna. W kwietniu 1953 roku Komisja Państwowa przyjęła do eksploatacji szybki komputer elektroniczny BESM-1. Miała 5 tysięcy lamp próżniowych, wykonujących 8 – 10 tysięcy operacji na sekundę i była jedną z najszybszych maszyn na świecie. Samochód został przyjęty, ale nie wszedł do produkcji. Było to konsekwencją sprzeciwu Ministerstwa Budowy Maszyn i Instrumentów, które z całych sił starało się „przebić” swoją słabszą i mniej niezawodną maszynę.

W październiku 1955 roku w Darmstadt (Niemcy) na Międzynarodowej Konferencji Elektronicznych Maszyn Obliczeniowych, raport o naszych osiągnięciach wywołał sensację – BESM został uznany za najszybszą maszynę w Europie. Jego wydajność okazała się rekordowa – 8000 op/s. Po triumfalnym zwycięstwie BESM pod przewodnictwem Lebiediewa natychmiast rozpoczęto prace nad kolejną wersją komputera o ulepszonych cechach: zwiększonej szybkości, większej pamięci, zwiększonym czasie stabilnej pracy. Tak pojawiły się kolejne wersje rodziny BESM – BESM-2, BESM-3M, BESM-4. Maszyny te były już produkowane masowo w Zakładach Maszyn Obliczeniowych i Analitycznych ZSAMM, najpierw w kilkudziesięciu egzemplarzach, potem w setkach. MESM, „Strela” i pierwsze maszyny serii BESM to technologia komputerowa pierwszej generacji. Podstawa elementarna pierwszych komputerów – lampy próżniowe – determinowała ich duże wymiary, znaczne zużycie energii, niską niezawodność, a w konsekwencji małe wolumeny produkcji i wąski krąg użytkowników, głównie ze świata nauki. Na takich maszynach praktycznie nie było możliwości łączenia operacji wykonywanego programu i równoległości działania różnych urządzeń; polecenia były wykonywane jedna po drugiej, ALU pozostawała bezczynna podczas wymiany danych z urządzeniami zewnętrznymi, których zestaw był bardzo ograniczony.

Na przykład pojemność RAM BESM-2 wynosiła 2048 39-bitowych słów, a jako pamięć zewnętrzną zastosowano bębny magnetyczne i napędy taśm magnetycznych. Najlepszy z serii BESM słusznie stał się słynnym BESM-6 - pierwszym na świecie seryjnym „milionerem” (1 milion operacji). Główny konstruktor zastosował w tym czasie wiele rewolucyjnych rozwiązań, dzięki czemu maszyna przetrwała trzy generacje techniki komputerowej i była produkowana przez 17 lat. Niezawodność i łatwość obsługi, wydajność, niskie zużycie energii, rozbudowane oprogramowanie, dobra wydajność, to właśnie ją charakteryzuje. To zapewniło jego popularność i konkurencyjność, nawet gdy pojawiły się nieporęczne potwory z UE. W tym czasie wyprodukowano około 450 maszyn, co jest absolutnym rekordem jak na komputer klasy superkomputerowej. Do dziś zachował się ostatni egzemplarz BESM-6, działający pod Petersburgiem w Centrum Szkolenia Marynarki Wojennej. Na bazie BESM-6 stworzono wielomaszynowy kompleks obliczeniowy AS-6, który przez 15 lat był wykorzystywany w centrach kontroli lotów statków kosmicznych do przetwarzania informacji w czasie rzeczywistym. Tak więc w 1975 roku, podczas wspólnego lotu statku kosmicznego Sojuz i Apollo, nasz AS-6 przetwarzając informacje, obliczył dane dotyczące trajektorii lotu w ciągu 1 minuty, podczas gdy dla strony amerykańskiej takie obliczenia trwały pół godziny. Żaden z typów maszyn S.A Lebiediew nie był kopią żadnego obcego komputera, wszystko powstało na własnych podstawach naukowych, stosując oryginalne podejścia do rozwiązywania problemów teoretycznych i stosowanych. I to jest przejaw wysokich zdolności intelektualnych naprawdę wybitnego rosyjskiego naukowca i jego wyczynu naukowego.

Dla naszego kraju dużym przełomem było stworzenie własnych technologii obliczeniowych. Siergiej Aleksiejewicz już w odległych latach 60. zrozumiał, że elektroniczna technologia komputerowa będzie jednym z najpotężniejszych środków postępu naukowo-technicznego i będzie miała ogromny wpływ na rozwój nauki, ekonomii i obronności kraju. Następnie w jednym ze swoich artykułów napisze: „Wprowadzenie takich maszyn, reorganizacja ludzkiej pracy umysłowej na podstawie ich wyników można porównać jedynie z takim etapem w historii ludzkości, jak wprowadzenie pracy maszynowej w celu zastąpienia Praca fizyczna." Pierwszy BESM stał się podstawą serii 6 generacji maszyn, które wniosły ogromny wkład w rozwój krajowej nauki i technologii: w eksploracji kosmosu, w przemyśle nuklearnym, w tworzeniu obrony przeciwrakietowej. Bez wątpienia bez technologii komputerowej Lebiediewa w tych branżach trudno byłoby osiągnąć takie wyniki. Wkład ten był na tyle znaczący, że został wysoko oceniony przez samych projektantów, w interesie których stworzono komputery. S. A. Lebiediew wniósł zasadniczy wkład w powstanie i rozwój nauk obliczeniowych w byłym ZSRR. Opracował główne zasady budowy i strukturę uniwersalnych elektronicznych komputerów cyfrowych, zorganizował pracę zespołów konstruktorów komputerów o dużej wydajności, przemysłową produkcję tych komputerów i ich wdrażanie oraz szkolenie personelu.

S.A. Lebiediew nazywany jest w ZSRR „ojcem technologii komputerowej”.

2. Wkład w rozwój komputerów I.S. Potok (1902-1974)

W naszym kraju w 1948 roku problemy rozwoju techniki komputerowej stały się zadaniem narodowym. W tym roku rozpoczął się rozwój pierwszego projektu cyfrowego komputera elektronicznego w ZSRR. W sierpniu 1948 wraz ze swoim pracownikiem, młodym inżynierem B.I. Rameev (późniejszy znany projektant sprzętu komputerowego, twórca serii Ural) przedstawił projekt automatycznego komputera. W październiku tego samego roku przedstawili szczegółowe propozycje zorganizowania w Akademii Nauk laboratorium opracowania i budowy komputera cyfrowego.

Nieco później Państwowy Komitet Rady Ministrów ZSRR ds. wprowadzenia zaawansowanych technologii do gospodarki narodowej wydał I.S. Brook i B.I. Certyfikat autorski Rameeva nr 10475 na wynalezienie komputera cyfrowego z pierwszeństwem z dnia 4 grudnia 1948 r. Jest to pierwszy oficjalnie zarejestrowany dokument dotyczący rozwoju technologii komputerowej w naszym kraju. Możemy słusznie ogłosić ten dzień urodzinami rosyjskiej informatyki. Wkrótce jednak Rameev został powołany do wojska i tempo tworzenia komputerów uległo spowolnieniu. W kraju nie było specjalistów w dziedzinie tworzenia elektronicznej technologii komputerowej, a Brook zaprosił do pracy absolwentów i dyplomantów N. Matyukhina, T. Alexandridi, M. Kartseva. Wszyscy później zostali wybitnymi naukowcami i projektantami technologii komputerowej. Tym samym prace nad stworzeniem nowego kierunku naukowego połączono z kształceniem specjalistów w nowej dziedzinie.

W kwietniu 1950 r. I.S. Brook sporządza uchwałę Prezydium Akademii Nauk ZSRR w sprawie opracowania cyfrowego komputera elektronicznego M-1. Maszyna pod przewodnictwem I.S. Brooka została zaprojektowana i zmontowana przez absolwentów uczelni wyższych i studentów. Wszyscy później zostali głównymi specjalistami w dziedzinie technologii komputerowej. Zainspirowany sukcesem, w kwietniu 1952 roku Brook rozpoczął nowy projekt - opracowanie komputera M-2, który zapoczątkował tworzenie ekonomicznych maszyn klasy średniej. Maszyna M-2 zużywała 1879 lamp, mniej niż w Streli, a średnia wydajność wynosiła 2000 operacji na sekundę. M-2 posiadał trójadresowy system instrukcji, format 34-bitowy, zmiennoprzecinkową i stałoprzecinkową reprezentację liczb, pamięć kineskopową (CRT) o pojemności 512 liczb oraz dodatkowy bęben magnetyczny pamięć o pojemności 512 numerów. Zastosowano 3 rodzaje pamięci: elektrostatyczną na 34 lampach Williamsa, na bębnie magnetycznym i na taśmie magnetycznej za pomocą powszechnego wówczas magnetofonu MAG-8I, w ciągu sześciu miesięcy nową maszynę zainstalowano i oddano do debugowania, a przez latem przyszłego roku był w pełni sprawny. Na maszynie tej wykonywano obliczenia badań jądrowych dla Instytutu Energii Atomowej, przeprowadzano obliczenia wytrzymałości budowanych wówczas zapór w elektrowniach wodnych Kujbyszew i Wołżska oraz przeprowadzano obliczenia parametrów termodynamicznych i gazodynamicznych elektrowni jądrowych. powietrze do zadań związanych ze startem rakiet. O wysokiej wydajności maszyny świadczy fakt, że pracuje ona od 15 lat. Prawdopodobnie po raz pierwszy w M-2 M.A. Kartsev wdrożył pomysł skróconych adresów w poleceniach i skróconych kodów operacji. Pomysł ten był poprzednikiem metod tworzenia adresów wykonawczych w komputerach drugiej i trzeciej generacji. Jednak maszyna ta nie została wprowadzona do produkcji.

Stało się tak wskutek sprzeciwu Ministerstwa Budowy Maszyn i Przyrządów, które jako monopolista w produkcji sprzętu elektronicznego nie dostarczało podzespołów niezbędnych do montażu maszyny i ze wszystkich sił starało się „wypchnąć” jej słabsze i mniej niezawodna maszyna. Niemal równocześnie z projektowaniem M-2 Brook rozpoczął prace nad maszyną M-3, która pracowała z 30-bitowymi binarnymi liczbami stałoprzecinkowymi, miała format poleceń dwuadresowych, pojemność pamięci 2048 liczb na bębnie magnetycznym i wydajność 30 op/s. Podczas pracy z pamięcią ferrytową o tej samej pojemności wydajność M-3 wzrosła do 1,5 tys. Ops/s. Miała tylko 770 lamp próżniowych i 3 tys. diody Cuprox i zajmowały powierzchnię 3 mkw. Główne pomysły na budowę M-3 sformułowali I.S. Bruk, N.Ya. Matyukhin i V.V. Belynsky. Ale wdrożenie tej maszyny również napotkało poważne przeszkody. Twórcom zarzucono, że maszyna ta pojawiła się „nielegalnie”. Powstał jako osobista inicjatywa. Jednak ten samochód miał więcej szczęścia. Stał się podstawą do rozwoju bazujących na nim maszyn w Armenii, Białorusi, Węgrzech i Chinach.

W tradycji szkoły małych komputerów I.S. Brook opracował maszynę Setun, która była masowo produkowana przez Kazańskie Zakłady Komputerowe. Autorem maszyny Setun jest N.P. Brusentsov współpracował z I.S. Brooka podczas tworzenia M-2 i opracował podejścia inżynieryjne do projektowania małych komputerów, które były charakterystyczne dla szkoły I.S. Brooka. Maszyna Setun jest interesująca, ponieważ została oparta na trójskładnikowym systemie liczbowym. Interesujące jest także doświadczenie w zakresie zadań programistycznych na maszynie Setun, które dało wgląd w podejścia do programowania strukturalnego i interaktywnego trybu działania. W 1956 roku I.S. Brook wygłosił prezentację na posiedzeniu Akademii Nauk, podczas której nakreślił główne kierunki przemysłowego zastosowania komputerów. W 1958 roku pod jego kierownictwem opracowano notę ​​problemową „Rozwój teorii, zasad budowy i zastosowania specjalistycznych maszyn liczących i sterujących”. Dokumenty te stały się impulsem do zorganizowania w ZSRR szeregu organizacji badawczych i biur projektowych maszyn i systemów sterowania.

W szczególności utworzono Instytut Elektronicznych Maszyn Sterujących (INEUM) Akademii Nauk, którego pierwszym dyrektorem został mianowany I.S. Brooke. Jednocześnie został zatwierdzony przez Prezydium Akademii Nauk ZSRR jako opiekun naukowy problemu „Rozwój teorii, zasad budowy i stosowania maszyn sterujących”. W 1957 roku w INEUM zespół kierowany przez M.A. Kartseva rozpoczął prace nad elektroniczną maszyną sterującą M-4, jedną z pierwszych maszyn tranzystorowych przeznaczonych do sterowania w czasie rzeczywistym zespołem stacji radarowych (radarami), stworzoną przez Inżynierię Radiową Instytut Akademii Nauk ZSRR (akademik A.L. Mints).

W 1958 roku opracowano projekt wstępny i techniczny M-4, a w 1959 roku w zakładzie wyprodukowano już 2 komplety M-4. Testy fabrycznego modelu M-4 na doświadczalnym kompleksie radarowym przeprowadzono w 1962 roku. Była to maszyna, która została wykonana po raz pierwszy według specyfikacji konkretnego klienta, co umożliwiło podejmowanie decyzji technicznych odpowiadających proponowanym informacjom algorytmy przetwarzania. M-4 pracował z 23-bitowymi liczbami stałoprzecinkowymi (liczby ujemne były reprezentowane w uzupełnieniu do dwójki), posiadał pamięć RAM o pojemności 1024 liczb 24-bitowych oraz pamięć programową tylko do odczytu o pojemności 1280 liczb 30-bitowych ( poprzez oddzielenie pamięci programu i danych). Dodatkowo zawierał węzły do ​​odbioru i wydawania informacji, posiadał własną pamięć buforową oraz posiadał równoległe wejście/wyjście informacji 14 kanałami z szybkością ponad 6 tys. liczb/s. Rzeczywista prędkość M-4 wynosiła 30 tysięcy operacji na sekundę. (w przypadku operacji dodawania).

Decyzja o wprowadzeniu M-4 do masowej produkcji zapadła w 1962 roku. Konstruktorzy nalegali jednak na jego modernizację, pamiętając, że dzięki postępowi technologii elektronicznej w latach 1957-62 udało się radykalnie poprawić jego właściwości i wyprodukować maszynę o rząd wielkości potężniejszą od maszyn produkowanych wówczas w latach 1957-1962. ZSRR. Zmodernizowany M4 (M4M) zawierał także nowe podstawowe jednostki przetwarzania informacji (urządzenie rejestrujące, urządzenie wyznaczające współrzędne) oraz pamięć buforową. W grudniu 1964 roku fabryka wyprodukowała 5 maszyn M-4M, które osiągały prędkość 220 tys. operacji na sekundę na programach zapisanych w pamięci trwałej i 110 tysięcy operacji na sekundę na programach zapisanych w głównej pamięci RAM. Pojemność pamięci RAM wahała się od 4096 do 16384 29-bitowych słów, a pojemność pamięci stałej wahała się od 4096 do 8192 instrukcji i stałych (również 29-bitowych).

W tej formie M-4M był produkowany masowo przez 15 lat. W tym celu w 1968 roku opracowano system urządzeń zewnętrznych do wprowadzania, przechowywania, dokumentowania, częściowego przetwarzania i dostarczania informacji abonentom zewnętrznym przy jednoczesnej asynchronicznej pracy wszystkich systemów i urządzeń abonenckich. Kolejny rozwój INEUM, przeprowadzony pod przewodnictwem I.S. Brook, była tam maszyna sterująca M-7. Maszyna ta miała cechy, które stawiały ją w innej klasie w porównaniu do M-4. M-7 przeznaczony był do układów sterowania potężnych bloków cieplnych elektrowni („kocioł-turbina-generator”). Realizował funkcje utrzymania normalnych trybów pracy bloku energetycznego poprzez ich optymalizację pod kątem minimalizacji zużycia paliwa, wydawanie odpowiednich nastaw dla regulatorów, a także złożone programy logiczne rozruchu i zatrzymywania bloku energetycznego, analizując kombinacje parametrów pracy bloku energetycznego w w celu wykrycia sytuacji przedawaryjnych i wyświetlenia niezbędnych informacji operatorowi bloku energetycznego. Ukierunkowanie architektury maszyny na oczekiwane algorytmy rozwiązywania problemów umożliwiło wybór rozwiązań technicznych, które najlepiej spełniają wymagania niezawodnościowe. M-7 była klasyczną sekwencyjną maszyną sterującą cyfrowo, posiadającą pamięć na bębnie magnetycznym i rozbudowaną aparaturą komunikacyjną z obiektem, zapewniającą wprowadzanie sygnałów analogowych z ich konwersją do postaci cyfrowej oraz informację dyskretną z czujników przekaźnikowych. Działał z 12-bitowymi liczbami stałoprzecinkowymi.

Podobne zasady konstrukcyjne zastosowano w maszynach firmy Librascope (USA). Opracowanie M-7 i jego wdrożenie w latach 1966-69 w blokach energetycznych 200 MW Konakovskaya GRES i 800 MW Slavyanskaya GRES przeprowadziły grupy N.N. Lenova i N.V. Pautina. W 1958 roku IS Brook rozpoczął prace nad maszyną M-5. Na początkowym etapie prac M.A. Kartsev brał udział w wyborze architektury M-5, a opracowaniem kierował zespół kierowany przez V.V. Biełyński. M-5 był komputerem wieloprogramowym i wieloterminalowym, który implementował zarówno przetwarzanie wsadowe, jak i tryby współdzielenia czasu. Jego konstrukcja opierała się na wspólnym szkielecie łączącym centralny procesor, bloki pamięci RAM, urządzenia sterujące wejścia-wyjścia oraz pamięć zewnętrzną (która pełniła rolę kanałów charakterystycznych dla maszyn trzeciej generacji). Podkreślono arytmetykę adresu, która zapewniała wykonanie operacji na rejestrach indeksowych i konwersję. M-5 obsługuje 37-bitowe liczby stałe i zmiennoprzecinkowe. 37-bitowy format instrukcji emisji pojedynczej zawierał pola adresu, klucza, indeksu i kodu operacji. Przewidziano możliwość organizacji pamięci stron. Maszyna M-5, zrealizowana na elementach tranzystorowych i pamięci ferrytowej (czyli na bazie technicznej komputera drugiej generacji), w swojej architekturze była pod wieloma względami poprzedniczką komputera trzeciej generacji. Został wyprodukowany przez mińską fabrykę nazwaną imieniem. S. Ordżonikidze w jednym egzemplarzu w 1961 r. i niestety nie doczekała się dalszego opracowania ze względów nie technicznych, lecz organizacyjnych.

3. Wkład w stworzenie komputera V.M. Głuszkowa (1923-1982)

Prace V.M. Głuszkow stworzył podstawy teoretyczne, na podstawie których w Kijowie opracowano nowe zasady budowy komputerów. Te nowe zasady konstruowania komputerów o rozwiniętej architekturze i podwyższonym poziomie „inteligencji” znalazły odzwierciedlenie w znanych wówczas maszynach Kijów, DNEPR-2 i MIR. Maszyny serii MIR przewidywały wiele funkcji komputerów osobistych, które pojawiły się znacznie później. O większości opracowań przeprowadzonych zgodnie z pomysłami V. M. Głuszkowa. można powiedzieć, że wykonano je po raz pierwszy. Należą do nich zdalne komputerowe sterowanie konwerterem zakładu metalurgicznego i produkcją chemiczną, optymalne cięcie blach stalowych w stoczniach oraz zautomatyzowane sterowanie całymi przedsiębiorstwami przemysłowymi. Pierwszeństwo w zaproponowaniu idei jednorazowego wprowadzenia danych do systemów przetwarzania informacji i systemów informatycznych ma Wiktor Michajłowicz. Idea ta leży u podstaw metody „technologii bez papieru”, która eliminuje konieczność ręcznego sporządzania dużego strumienia dokumentów, co prowadzi do wszelkiego rodzaju błędów, uzupełnień i zniekształceń. Informacje krążące w sieciach danych, przechowywane w bazach danych i wiedzy okazują się znacznie lepiej chronione przed zniekształceniami i zatajeniem niż te krążące w normalnym obiegu dokumentów. Głuszkow wierzył, że era „technologii bez papieru” nadejdzie bardzo szybko. A jego prognoza stopniowo staje się rzeczywistością.

W 1958 roku pod przewodnictwem V. M. Głuszkowa w Instytucie Cybernetyki Ukraińskiej Akademii Nauk powstał komputer kijowski, który osiągał wydajność 6–10 tysięcy operacji na sekundę. Po raz pierwszy w naszym kraju do zdalnego sterowania procesami technologicznymi zastosowano komputer „Kijów”. W 1960 r. Powstała pierwsza wielofunkcyjna maszyna sterująca półprzewodnikami w ZSRR, Dniepr, liderami projektu byli V.M. Głuszkow i B.N. Malinowski. Komputer zawierał przetworniki analogowo-cyfrowe i cyfrowo-analogowe. Produkowany był przez 10 lat. W 1961 roku V.M. Głuszkow opracował teorię automatów cyfrowych i wyraził ideę struktur komputerowych przypominających mózg. Zastosowanie sterowania mikroprogramowego po raz pierwszy w ZSRR w komputerze Tetiva, który wykorzystuje wyłącznie bezpośrednie kody operandów, kierownik projektu - N.Ya Matyukhin. Komputer Bowstring był używany w systemach obrony powietrznej. Opracowano język programowania Alpha, który jest rozwinięciem Algol-60 i zawiera szereg istotnych innowacji: inicjowanie zmiennych, wprowadzanie wartości wielowymiarowych i operacji na nich, co zostało później powtórzone w Algol-68, PL /1, Ada. Menedżer rozwoju - A.P. Ershov.

4. Wkład w rozwój komputerów A. P. Ershova (1931-1988)

Andrey Petrovich Ershov jest jednym z twórców programowania teoretycznego i systemowego, twórcą Syberyjskiej Szkoły Informatyki. Jego znaczący wkład w rozwój informatyki jako nowej gałęzi nauki i nowego zjawiska życia społecznego jest powszechnie uznawany w kraju i za granicą. Podstawowe badania A.P. Erszowa w dziedzinie diagramów programów i teorii kompilacji wywarły zauważalny wpływ na wielu jego uczniów i naśladowców. Książka A.P. Ershova „Programowanie komputera elektronicznego BESM” była jedną z pierwszych na świecie monografii na temat automatyzacji programowania.

Za znaczący wkład w teorię obliczeń mieszanych A.P. Ershov otrzymał Nagrodę Akademika A.N. Kryłowa. Język programowania ALPHA i optymalizujący tłumacz Alpha, pierwszy radziecki system podziału czasu AIST-0, edukacyjny system informatyczny Shkolnitsa, system drukujący Rubin, wieloprocesorowa stacja robocza MRAMOR - wszystkie te projekty zostały zainicjowane przez A.P. Ershova i zostały zrealizowane pod jego kierownictwem. Dzięki swoim wyjątkowym zdolnościom przewidywania naukowego A.P. Ershov jako jeden z pierwszych w naszym kraju zdał sobie sprawę z kluczowej roli technologii komputerowej w postępie nauki i społeczeństwa. Jego genialne pomysły położyły podwaliny pod rozwój w Rosji takich dziedzin nauki, jak programowanie równoległe i sztuczna inteligencja. Ponad 20 lat temu rozpoczął eksperymenty z nauczaniem programowania w szkołach średnich, co doprowadziło do wprowadzenia zajęć z informatyki i informatyki w szkołach średnich w całym kraju i wzbogaciło nas tezą „programowanie to druga umiejętność czytania i pisania”.

Opublikowano na Allbest.ru

Podobne dokumenty

    Badanie praktyk zagranicznych i krajowych w rozwoju technologii komputerowej oraz perspektyw rozwoju komputerów w najbliższej przyszłości. Technologie obsługi komputerów. Etapy rozwoju branży komputerowej w naszym kraju. Połączenie komputera PC i komunikacji.

    praca na kursie, dodano 27.04.2013

    Technologia komputerowa pojawiła się dawno temu, gdyż potrzeba różnego rodzaju obliczeń istniała już u zarania rozwoju cywilizacji. Szybki rozwój technologii komputerowej. Tworzenie pierwszych komputerów PC, minikomputerów od lat 80-tych XX wieku.

    streszczenie, dodano 25.09.2008

    Główne etapy rozwoju urządzeń obliczeniowych do początku lat 50. XX wieku (pojawienie się komputerów szeregowych z zapisanym programem). Historia powstania nowych, w pełni elektronicznych komputerów cyfrowych. Zasady Neumanna jako podstawowe koncepcje budowy komputerów.

    streszczenie, dodano 12.07.2012

    Pierwsze kroki automatyzacji pracy umysłowej. Mechaniczne i elektromechaniczne zasady obliczeń. Wykorzystanie komputerów i baz danych, programy sterujące. Klasyfikacja komputerów ze względu na zasadę działania, przeznaczenie, wielkość i funkcjonalność.

    prezentacja, dodano 19.05.2016

    Analiza historii rozwoju technologii komputerowej. Charakterystyka porównawcza komputerów różnych generacji. Cechy rozwoju współczesnych systemów komputerowych. Charakterystyka kompilatorów ze wspólną bazą semantyczną. Etapy rozwoju technologii komputerowej.

    prezentacja, dodano 15.11.2012

    Ręczny etap rozwoju technologii komputerowej. Pozycyjny system liczbowy. Rozwój mechaniki w XVII wieku. Elektromechaniczny etap rozwoju technologii komputerowej. Komputery piątej generacji. Parametry i cechy charakterystyczne superkomputera.

    praca na kursie, dodano 18.04.2012

    Etapy rozwoju informatyki i technologii komputerowej. Sprzęt komputerów osobistych. Zewnętrzne urządzenia pamięci masowej komputera osobistego. Oprogramowanie użytkowe dla komputerów osobistych. Edytory tekstu i grafiki.

    test, dodano 28.09.2012

    Historia rozwoju systemu rachunku różniczkowego, pierwszych specjalnych urządzeń do realizacji najprostszych operacji obliczeniowych. Pierwsze generacje komputerów, zasada działania, budowa i funkcje. Obecny etap rozwoju technologii komputerowej i jego perspektywy.

    prezentacja, dodano 28.10.2009

    Opracowanie systemu informacyjno-analitycznego do analizy i optymalizacji konfiguracji sprzętu komputerowego. Struktura automatycznego sterowania sprzętem komputerowym. Oprogramowanie, uzasadnienie efektywności ekonomicznej projektu.

    teza, dodano 20.05.2013

    Historia sprzętu komputerowego, klasyfikacja komputerów osobistych. Zasady von Neumanna. Rozwój pierwszych komputerów osobistych firmy IBM. Koncepcja „otwartej architektury”. IBM PS/2 i 386 kompatybilne z IBM. Zastosowanie nowego mikroprocesora w komputerze PC.

Wilhelma Schickarda

(1592 - 1635)

Historia komputerów rozpoczyna się w 1623 roku, kiedy Wilhelm Schickard zbudował pierwszy w historii ludzkości automatyczny kalkulator.
Automat do gier Schickard może wykonywać podstawowe operacje arytmetyczne na wejściach liczb całkowitych. Jego listy do Keplera, który odkrył prawa ruchu planet, wyjaśniają zastosowanie jego „obliczeń zegarów” do obliczania tablic astronomicznych.
Nieprogramowalna maszyna Schickarda została zbudowana w oparciu o tradycyjny dziesiętny system liczbowy. Później Leibniz odkrył wygodniejszy system binarny (1679), ważny element pierwszego na świecie programu pracy sterowanego komputerowo, za sprawą Zuse (1941).



Gottfrieda Wilhelma von Leibniza

(1646-1716)

Leibniz, nazywany czasem ostatnim uniwersalnym geniuszem, wynalazł co najmniej dwie rzeczy ważne dla współczesnego świata: rachunek różniczkowy i arytmetykę binarną opartą na bitach.

Współczesna fizyka, matematyka i inżynieria byłyby nie do pomyślenia bez tej pierwszej: podstawowej metody pracy z liczbami nieskończenie małymi. Pierwszym, który go opublikował, był Leibniz. Opracował go około 1673 r. W 1679 r. udoskonalił obowiązującą do dziś notację całkowania i różniczkowania.

Arytmetyka binarna oparta na systemie dualnym została wynaleziona około 1679 r. i opublikowana w 1701 r. Stało się to podstawą prawie wszystkich współczesnych komputerów.

Charles Babbage

Brytyjski matematyk i wynalazca, autor prac z teorii funkcji, mechanizacji obliczeń w ekonomii; zagraniczny członek korespondent Akademii Nauk w Petersburgu (1832). W 1833 ropracował projekt uniwersalnego komputera cyfrowego- prototyp komputera. Babbage przewidział możliwość wprowadzania instrukcji do maszyny za pomocą kart dziurkowanych. Jednak ta maszyna nie została ukończona, ponieważ niski poziom technologii w tamtym czasie stał się główną przeszkodą w jej stworzeniu. Charles Babbage nazywany jest często „ojcem komputera” za wynalezienie silnika analitycznego, chociaż jego prototyp powstał wiele lat po jego śmierci.



Lovelace Augusta Ada

A.Lovelace opracował pierwsze programy dla Bubbage Analytical Engine, kładąc w ten sposób teoretyczne podstawy programowania. Jako pierwsza wprowadziła pojęcie cyklu operacyjnego. W jednej z notatek wyraziła główną myśl, że silnik analityczny może rozwiązywać problemy, które ze względu na trudność obliczeń są prawie niemożliwe do rozwiązania ręcznie. Zatem po raz pierwszy maszynę uznano nie tylko za mechanizm zastępujący człowieka, ale także za urządzenie zdolne do wykonywania pracy przekraczającej możliwości człowieka. Chociaż Bubbage Analytical Engine nie został zbudowany, a programy Lovelace nigdy nie były debugowane i nie działały, szereg ogólnych postanowień przez nią wyrażonych zachowało swoje fundamentalne znaczenie dla współczesnego programowania. Dziś A. Lovelace słusznie nazywany jest pierwszym programistą na świecie.

Alana Turinga
(1912-1954) Alan Mathieson Turing przeformułował wyniki niemożności do udowodnienia Kurta Goedela w kategoriach maszyn Turinga (TMS). Ściśle powiązany z wcześniejszą pracą, wykonał doradca Turinga, Alonso Church. TM stały się później najpowszechniej używanymi abstrakcyjnymi modelami obliczeniowymi. Universal TM może emulować dowolną inną bazę TM lub dowolny inny znany komputer.
Podczas II wojny światowej Turing pomógł (wraz z Welchmanem) złamać nazistowski kod. Niektóre źródła podają, że dzieło to zadecydowało o zwycięstwie nad III Rzeszą.
Turing zaproponował później swój słynny test pozwalający ocenić, czy komputer jest inteligentny (więcej w artykule Historia sztucznej inteligencji). Najbardziej pożądana nagroda w informatyce nosi jego imię: Nagroda Turinga.


Kurta Gödla

(1906-1978)

W 1931 roku, zaledwie kilka lat po opatentowaniu tranzystora przez Juliusa Lilienfelda, Kurt Gödel (lub „Goedel” zamiast „Godel”) opracowałpodstawy teoretycznej informatykiz jego pracą nad uniwersalnymi językami formalnymi i ograniczeniami dowodu i obliczeń. Konstruuje systemy formalne, które pozwalają na twierdzenia samoodnoszące się, które mówią same o sobie, w szczególności o tym, czy można je uzyskać z przeliczalnego danego zbioru aksjomatów przy użyciu procedury dowodzenia twierdzeń obliczeniowych. Gödel poszedł dalej, konstruując rachunki, które twierdzą, że są niemożliwe do udowodnienia, aby wykazać, że tradycyjna matematyka jest albo wadliwa w pewnym sensie algorytmicznym, albo zawiera stwierdzenia, których nie można udowodnić, ale są prawdziwe.

Wynik niekompletności Gödla jest powszechnie uważany za najbardziej niezwykłe osiągnięcie matematyki XX wieku, chociaż niektórzy matematycy twierdzą, że jest to raczej logika niż matematyka, a inni nazywają go podstawowym wynikiem informatyki teoretycznej (przeformułowany przez Churcha, Posta i Turinga około 1936 r.), dyscyplina, która wówczas jeszcze oficjalnie nie istniała, ale faktycznie powstała dzięki twórczości Gödla. Miał ogromny wpływ nie tylko na informatykę, ale także na filozofię i inne dziedziny.

Johna von Neumanna
(28.12.1903, Budapeszt, - 8.2.1957, Waszyngton)

Amerykański matematyk, członek Narodowej Akademii Nauk Stanów Zjednoczonych (1937). W 1926 ukończył studia na uniwersytecie w Budapeszcie. Od 1927 wykładał na uniwersytecie w Berlinie, w latach 1930-33 - na Uniwersytecie Princeton (USA), od 1933 profesor w Princeton Institute for Advanced Study. Od 1940 r. był konsultantem różnych instytucji wojskowych i morskich (N. brał udział m.in. w pracach nad stworzeniem pierwszej bomby atomowej). Od 1954 członek Komisji Energii Atomowej.
Główne prace naukowe poświęcone są analizie funkcjonalnej i jej zastosowaniom do zagadnień mechaniki klasycznej i kwantowej. N. zajmował się także logiką matematyczną i teorią grup topologicznych. W ostatnich latach życia zajmował się głównie opracowywaniem zagadnień dot teoria gier, teoria automatów; wniósł wielki wkład w powstanie pierwszych komputerów i opracowanie metod ich wykorzystania. Najbardziej znany jest jako osoba, której nazwisko kojarzy się z architekturą większości współczesnych komputerów (tzw architektury von Neumanna)

Konrad Zuse
(22 czerwca 1910, Berlin - 18 grudnia 1995, Hünfeld)

Niemiecki inżynier, pionier komputerów. Najbardziej znany jako twórca pierwszego naprawdę działającego, programowalnego komputera(1941) i pierwszy język programowania wysokiego poziomu (1945).
Brał udział w tworzeniu programowalnej maszyny liczącej.

1935-1938 : Konrad Zuse buduje Z1, pierwszy na świecie komputer sterowany programowo. Pomimo szeregu problemów inżynieryjnych posiadał wszystkie podstawowe podzespoły nowoczesnych obrabiarek, wykorzystując binarny system liczbowy i współcześnie standardowy rozdział przechowywania i sterowania. Zgłoszenie patentowe Zuse z 1936 r. (Z23139/GMD nr 005/021) również potwierdza architekturę von Neumanna (wynalezioną na nowo w 1945 r.) z programami i danymi modyfikowanymi podczas przechowywania.

1941 : Zuse kończy Z3, pierwszy na świecie w pełni funkcjonalny programowalny z komputera.

1945 : Zuse opisuje Plankalkuel, pierwszy na świecie język programowania wysokiego poziomu, który zawiera wiele standardowych funkcji współczesnych języków programowania. FORTRAN pojawił się prawie dziesięć lat później. Zuse wykorzystał także Plankalkuel do zaprojektowania pierwszego na świecie programu szachowego.

1946 : Zuse zakłada pierwszą na świecie firmę zajmującą się start-upem komputerowym: Zuse-Ingenieurbüro Hopferau. Kapitał wysokiego ryzyka pozyskany za pośrednictwem ETH Zürich i opcji IBM na patentach Zuse.

Oprócz komputerów ogólnego przeznaczenia Zuse zbudował kilka komputerów specjalistycznych. W związku z tym do określenia dokładnych wymiarów części w technologii lotniczej wykorzystano kalkulatory S1 i S2. W maszynie S2 oprócz komputera znajdowały się także urządzenia pomiarowe służące do wykonywania pomiarów samolotów. Komputer L1, który pozostał w formie eksperymentalnej, miał Zuse'owi służyć do rozwiązywania problemów logicznych.

1967 : Zuse KG dostarczyła 251 komputerów o wartości około 100 milionów DM.




Kemeny John (Janos)

Matematyk, profesor w Dartmouth College (USA). Z Thomasem Kurtzem opracował język programowania BASIC oraz system sieciowy umożliwiający jednoczesne korzystanie z kilku komputerów („wspólny czas”). Wyemigrował do Stanów Zjednoczonych z Węgier w 1940 roku wraz z rodzicami. Jest absolwentem Uniwersytetu Princeton, gdzie studiował matematykę i filozofię. W 1949 obronił pracę doktorską, a w 1953 został zaproszony do Dartmouth. Będąc dziekanem Wydziału Matematyki w Dartmouth College w latach 1955-1967 i nawet pełniąc funkcję rektora uczelni (1970-1981), nie porzucił pracy pedagogicznej. Był jednym z pionierów nauczania podstaw programowania: uważał, że przedmiot ten powinien być dostępny dla wszystkich uczniów, niezależnie od ich specjalizacji.

Klimat Dijkstry Edsgera
(11 maja 1930 - 6 sierpnia 2002)

Wybitny specjalista w dziedzinie programowania teoretycznego, autor szeregu książek, w tym klasycznej monografii „Dyscyplina programowania”. Cała jego działalność naukowa poświęcona była opracowaniu metod tworzenia „poprawnych” programów, których poprawność można wykazać metodami formalnymi. Być jednym z autorów koncepcje programowania strukturalnego, Dijkstra głosił przeciwko używaniu instrukcji GOTO. W 1972 roku jego osiągnięcia naukowe zostały uhonorowane Nagrodą Turinga. Wręczając nagrodę, jeden z prelegentów tak opisał twórczość Dijkstry: „Jest przykładem naukowca, który programuje bez dotykania komputera i robi wszystko, co w jego mocy, aby jego uczniowie robili to samo i przedstawiali informatykę jako dziedzinę nauki”. matematyka."


Erszow Andriej Pietrowicz
(19 kwietnia 1931 - 8 grudnia 1988)

Wybitny programista i matematyk, pracownik naukowy Akademii Nauk ZSRR, autor pierwsza na świecie monografia poświęcona automatyzacji programowania. Pod przewodnictwem Erszowa opracowano niektóre z pierwszych krajowych programów programistycznych („zintegrowany rozwój” języka i systemu programowania). Sformułował szereg ogólnych zasad programowania jako nowego i unikalnego rodzaju działalności naukowej, poruszył aspekt, który później nazwano przyjaznością dla użytkownika i jako jeden z pierwszych w kraju postawił zadanie stworzenia technologii programistycznej. Stał się jednym z twórców tzw. „informatyki szkolnej” i uznanym liderem krajowej informatyki szkolnej, a także jednym z czołowych światowych ekspertów w tej dziedzinie.

Przedstawił amerykański wynalazca Douglas Engelbart z Instytutu Badawczego Stanforda pierwsza na świecie mysz komputerowa w 1968 roku, 9 grudnia.
Wynalazkiem Douglasa Engelbarta była drewniana kostka na kółkach z jednym przyciskiem. Mysz komputerowa swoją nazwę zawdzięcza drutowi - przypominała wynalazcy ogon prawdziwej myszy.
Później Xerox zainteresował się pomysłem Engelbarta. Jej badacze zmienili konstrukcję myszy i upodobnili ją do współczesnej. We wczesnych latach siedemdziesiątych firma Xerox po raz pierwszy wprowadziła mysz jako część komputera osobistego. Miał trzy przyciski, kulkę i rolki zamiast krążków i kosztował 400 dolarów!
Obecnie istnieją dwa rodzaje myszy komputerowych: mechaniczne i optyczne. Te ostatnie pozbawione są elementów mechanicznych, a do śledzenia ruchu manipulatora względem powierzchni służą czujniki optyczne. Najnowszą innowacją w technologii są myszy bezprzewodowe.

Niklausa Wirtha
(15 lutego 1934) Szwajcarski inżynier i badacz świata programowania. Autor i jeden z twórców Język programowania Pascal. N. Wirth jako jeden z pierwszych wprowadził w praktyce zasadę stopniowego udoskonalania jako klucz do systematycznego tworzenia programów. Oprócz Pascala stworzył inne języki algorytmiczne (m.in. Modula-2 i Oberon). Nie są one dobrze znane programistom „produkcyjnym”, ale są powszechnie wykorzystywane do badań teoretycznych z zakresu programowania. Wirth jest jednym z najbardziej szanowanych informatyków na świecie; jego książka Algorithms + Data Structures = Programs jest uważana za jeden z klasycznych podręczników na temat programowania strukturalnego.

Billa Gatesa

(28 października 1955)
Amerykański przedsiębiorca i programista w dziedzinie informatyki elektronicznej, założyciel wiodącej na świecie firmy programistycznej Microsoft.
W 1980 roku Microsoft opracował system operacyjny MS-DOS, który w połowie lat 80-tych stał się dominującym systemem operacyjnym na amerykańskim rynku mikrokomputerów. Następnie Gates zaczął tworzyć aplikacje, takie jak arkusze kalkulacyjne Excel i Word, a pod koniec lat 80. Microsoft stał się liderem również w tej dziedzinie.
W 1986 roku, wypuszczając akcje firmy na rynek publiczny, Gates w wieku 31 lat stał się miliarderem. W 1990 roku firma wprowadziła system Windows 3.0, w którym polecenia słowne zastąpiono ikonami wybieranymi myszą, co znacznie ułatwiło korzystanie z komputera. Pod koniec lat 90. około 90% wszystkich komputerów osobistych na świecie było wyposażonych w oprogramowanie firmy Microsoft. W 1997 roku Gates znalazł się na szczycie listy najbogatszych ludzi na świecie.

Paula Allena

Amerykański przedsiębiorca, współzałożyciel Microsoft Corporation, którą założył wraz ze swoim szkolnym kolegą Billem Gatesem w 1975 roku.

W 1975 roku Allen i Gates po raz pierwszy użyli nazwy „Micro-Soft”. W kodzie źródłowym interpretera języka BASIC, stworzonego przez nich na zlecenie MITS.

We wspólnym biznesie Paul Allen był zaangażowany w pomysły techniczne i obiecujące rozwiązania; Gates był bliżej negocjacji, umów i innej komunikacji biznesowej. A jednak przyjaciele wspólnie rozwiązali główne problemy - czasami, jak przyznał później Gates, kłótnie trwały 6-8 godzin z rzędu. Najlepszy czas dla Allena i Gatesa przypadł na rok 1980. To właśnie wtedy IBM zwrócił się do niezbyt dużej i niezbyt znanej firmy Microsoft z propozycją przystosowania kilku języków programowania do ich wykorzystania na komputerze osobistym IBM PC, który miał pojawić się na rynku w 1981 roku. . W trakcie negocjacji okazało się, że przedstawicielom IBM nie będzie przeszkadzało znalezienie wykonawcy, który zleci opracowanie systemu operacyjnego dla nowego komputera. Pracę tę podjęli się partnerzy. Jednak Allen i Gates nie opracowali nowego systemu operacyjnego. Wiedzieli, że Tim Paterson, który pracował w Seattle Compute Products, opracował już Q-DOS (Quick Disk Operating System) dla 16-bitowych procesorów Intel. Sztuczka polegała na tym, że podczas negocjacji w sprawie nabycia Q-DOS w żadnym wypadku nie było jasne dla sprzedawców, że Allen i Gates mieli już kupca na ten system. Gates, jako główny negocjator, musiał ciężko nad tym pracować, ale połączenie wyszło znakomicie. To prawda, że ​​​​system musiał zostać przeprojektowany, ponieważ musiał działać na procesorach 8-bitowych. Chcąc dotrzymać terminu, pracowali niemal całą dobę i według samego Allena był taki dzień, kiedy on i Bill bez przerwy siedzieli przy komputerze przez 36 godzin bez przerwy. Za PC-DOS, którego nabycie kosztowało kilkadziesiąt tysięcy dolarów, IBM od razu zapłacił 6 tysięcy dolarów i zgodnie z warunkami podpisanej przez strony umowy IBM zobowiązał się do sprzedaży komputerów wyłącznie z PC-DOS, natomiast płacenie odsetek firmie Microsoft od każdej sprzedanej jednostki sprzętu.



Kaspersky Jewgienij Walentinowicz
(4 października 1965)

Do 1991 roku pracował w multidyscyplinarnym instytucie badawczym Ministerstwa Obrony ZSRR. Zaczął studiować zjawisko wirusów komputerowych w październiku 1989 roku, kiedy na jego komputerze odkryto wirusa Cascade. W latach 1991-1997 pracował w Centrum Naukowo-Technicznym „KAMI”, gdzie wraz z grupą podobnie myślących osób opracowywał projekt antywirusowy „AVP” (obecnie „Kaspersky Anti-Virus”„). W 1997 roku Evgeny Kaspersky został jednym z założycieli Kaspersky Lab.
Dziś Evgeny Kaspersky jest jednym z wiodących na świecie ekspertów w dziedzinie ochrony przed wirusami. Jest autorem wielu artykułów i recenzji na temat problemu wirusologii komputerowej oraz regularnie przemawia na specjalistycznych seminariach i konferencjach w Rosji i za granicą. Jewgienij Walentinowicz Kaspersky jest członkiem Organizacji Badań nad Wirusami Komputerowymi (CARO), która zrzesza ekspertów w tej dziedzinie.
Do najważniejszych i interesujących osiągnięć Jewgienija Walentinowicza i „Laboratorium”, którym kieruje w 2001 r., należy otwarcie corocznej konferencji Virus Bulletin - centralnego wydarzenia w branży antywirusowej, a także skuteczne przeciwdziałanie wszystkim globalnym epidemiom wirusowym, które miały miejsce w 2001.


Jewgienij Roshal
(10 marca 1972, Czelabińsk)

Rosyjski programista, autor słynnego menedżera plików FAR Manager, formatu kompresji RAR, archiwizatorów RAR i WinRAR, szczególnie popularnych w Rosji i krajach byłego ZSRR.

Evgeniy Roshal jest absolwentem Wydziału Inżynierii Instrumentów Politechniki w Czelabińsku, uzyskując dyplom z komputerów, kompleksów, systemów i sieci.

Jesienią 1993 wypuścił pierwszą publiczną wersję archiwizatora RAR 1.3, a jesienią 1996 FAR Manager. Później, wraz ze wzrostem popularności systemu Microsoft Windows, wypuszczono archiwizator dla systemu Windows, WinRAR. Nazwa RAR oznacza Roshal ARchiver.




Siergiej Brin

Siergiej Michajłowicz Brin urodził się w Moskwie w żydowskiej rodzinie matematyków, która przeniosła się na stałe do Stanów Zjednoczonych w 1979 roku, gdy miał 6 lat.
W 1993 roku rozpoczął studia na Uniwersytecie Stanforda w Kalifornii, gdzie uzyskał tytuł magistra i rozpoczął pracę nad swoją rozprawą doktorską. Już w trakcie studiów zainteresował się technologiami internetowymi i wyszukiwarkami, został autorem kilku opracowań na temat wydobywania informacji z dużych tablic tekstowych i danych naukowych oraz napisał program do przetwarzania tekstów naukowych.
W 1995 roku na Uniwersytecie Stanforda Siergiej Brin poznał innego absolwenta matematyki, Larry’ego Page’a, z którym w 1998 roku założyli Google. Początkowo zaciekle się kłócili, dyskutując na dowolny temat naukowy, ale potem zostali przyjaciółmi i połączyli siły, aby stworzyć wyszukiwarkę dla swojego kampusu. Wspólnie napisali artykuł naukowy „The Anatomy of a Large-Scale Hypertextual Web Search Engine”, który, jak się uważa, zawiera prototyp ich przyszłego, niezwykle udanego pomysłu.
Brin i Page udowodnili słuszność swojego pomysłu w uniwersyteckiej wyszukiwarce google.stanford.edu, rozwijając jej mechanizm według nowych zasad. W dniu 14 września 1997 roku została zarejestrowana domena google.com. Nastąpiły próby rozwinięcia pomysłu i przekształcenia go w biznes. Z biegiem czasu projekt opuścił uczelnię i udało się zebrać inwestycje na dalszy rozwój.
Wspólna firma rozwijała się, osiągała zyski, a nawet wykazała godną pozazdroszczenia stabilność podczas krachu internetowego, kiedy zbankrutowały setki innych firm. W 2004 roku założyciele firmy znaleźli się na liście miliarderów magazynu Forbes.

Andrzeja Tanenbauma

(16 marca 1944)
Profesor na Wolnym Uniwersytecie w Amsterdamie, gdzie kieruje grupą twórców systemów komputerowych; uzyskał doktorat z fizyki na Uniwersytecie Kalifornijskim w Berkeley. Znany jest jako autor Minixa (darmowego systemu operacyjnego podobnego do Uniksa dla laboratoriów studenckich), książek z zakresu informatyki i wirusa RFID. Jest także głównym twórcą zestawu Amsterdam Compiler Kit. Za najważniejszą uważa swoją działalność dydaktyczną.
Andrew Tanenbaum urodził się w Nowym Jorku i wychował w White Plains w stanie Nowy Jork. Uzyskał tytuł licencjata z fizyki na MIT w 1965 r. i doktorat z fizyki na Uniwersytecie Kalifornijskim w Berkeley w 1971 r.
Później przeniósł się z rodziną do Holandii, zachowując przy tym obywatelstwo amerykańskie. Andrew Tanenbaum prowadzi kursy z zakresu organizacji komputerów i systemów operacyjnych, a także uzyskał stopień doktora. D. W 2009 roku otrzymał grant w wysokości 2,5 mln euro od Europejskiej Rady ds. Badań Naukowych na rozwój MINIX.



Linus Torvalds
(28 grudnia 1969)
Twórca znanego na całym świecie systemu operacyjnego. Na początku 1991 roku zaczął pisać własną platformę, skierowaną do przeciętnego konsumenta, która mogła być bezpłatnie dystrybuowana przez Internet. Nowy system otrzymał nazwę Linux, wywodzącą się z połączenia nazwiska jego twórcy z nazwą UNIX. W ciągu dziesięciu lat Linux stał się realnym konkurentem dla produktów Microsoftu, zdolnym wyprzeć monopol tej firmy na rynku oprogramowania systemowego i serwerowego.
Tysiące „zainteresowanych programistów”, hakerów i specjalistów od sieci komputerowych z radością podjęło pomysł Linusa i zaczęło pisać, uzupełniać i debugować to, co im zaproponował Torvalds. W ciągu niemal dziesięciu lat Linux zmienił się z zabawki dla kilkuset fanów i entuzjastów, wykonującej kilkadziesiąt poleceń w prymitywnej konsoli, w profesjonalny, wieloużytkownikowy i wielozadaniowy 32-bitowy system operacyjny z okienkowym interfejsem graficznym, który jest wielokrotnie lepszy od Microsoft Windows pod względem zakresu możliwości, stabilności i mocy 95, 98 i NT i może działać na prawie każdym nowoczesnym komputerze kompatybilnym z IBM.
Dzisiaj Linux jest potężną platformą podobną do UNIX-a, która zawiera prawie wszystkie funkcje i cały szereg własnych właściwości, których nie można znaleźć nigdzie indziej. Dzięki swojej wysokiej wydajności i niezawodności stała się jedną z najpopularniejszych platform do organizacji serwerów http.

Bjarne Stroustrup, Bjarne Stroustrup

(11 czerwca 1950 (według innych źródeł 30 grudnia), Aarhus, Dania)
Autor języka programowania C++.
Jest absolwentem matematyki i informatyki na Uniwersytecie w Aarhus (Dania, 1975), a pracę doktorską z informatyki obronił w Cambridge (1979).
Do 2002 roku kierował działem badań w zakresie programowania wielkoskalowego w AT&T (Centrum Badań Informatycznych Bell Telephone Laboratories). Obecnie profesor na Texas A&M University.
Björn urodził się i wychował w Aarhus, drugim co do wielkości mieście w Danii. Wstąpił na państwowy uniwersytet, aby studiować informatykę. Po ukończeniu studiów uzyskał tytuł magistra.
Björn Stroustrup uzyskał stopień doktora podczas pracy nad projektowaniem systemów rozproszonych w Laboratorium Komputerowym Uniwersytetu w Cambridge (Anglia).

Jeśli nie wyjdziesz poza granice metod „obiektowych”,
pozostać w granicach „dobrego programowania”
i projekt”, wówczas efekt końcowy z pewnością będzie taki
jest w zasadzie bez sensu.
Stroustrup Björn

Martina Fowlera

Autor wielu książek i artykułów na temat architektury oprogramowania, analiza i rozwój obiektowy, UML, refaktoryzacja, programowanie ekstremalne.
Urodzony w Anglii, przed przeprowadzką do Ameryki w 1994 mieszkał w Londynie. Obecnie mieszka w Bostonie, Massachusetts.
Jedna z książek, Refactoring: Improving Existing Code: Martin Fowler i jego współautorzy rzucają światło na proces refaktoryzacji, opisując zasady i najlepsze praktyki jej wykonywania oraz wskazując, gdzie i kiedy zacząć zagłębiać się w kod, aby go ulepszyć .
Trzon książki stanowi szczegółowa lista ponad 70 technik refaktoryzacji, z których każda opisuje motywację i technikę transformacji kodu przetestowanej w praktyce z przykładami w Javie.
Metody omówione w książce pozwalają krok po kroku modyfikować kod, dokonując za każdym razem niewielkich zmian, zmniejszając tym samym ryzyko związane z rozwojem projektu.

Każdy głupiec może napisać program, który zrozumie
kompilator. Dobrzy programiści piszą programy
aby inni programiści mogli to zrozumieć.

Fowlera Martina

Sida Meiera

(24 lutego 1954, Detroit)
Amerykański deweloper gry komputerowe. Absolwent Uniwersytetu Stanowego Michigan. W 2002 roku jego nazwisko zostało wpisane w Computer Museum of America's Hall of Fame.
W 1991 roku firma MicroProse zaczęła sprzedawać encyklopedię gier zawierającą historycznie rozpoznawalne obrazy cywilizacji. W 1993 roku duża pionowo zintegrowana firma Spectrum HoloByte, Inc. podejmuje starania o przejęcie MicroProse.
Po zakończeniu postępowania sądowego do 1994 r. Meyer i nowy dyrektor generalny firmy, Louis Gilman Louie, poróżnili się co do tego, gdzie, jak i dlaczego rozwijać wspólną działalność związaną z grami.

„Gra jest sekwencją
ciekawe wybory”

Donalda Erwina Knutha
(10 stycznia 1938)
Amerykański naukowiec, profesor honorowy Uniwersytetu Stanforda i kilku innych uniwersytetów w różnych krajach, członek zagraniczny Rosyjskiej Akademii Nauk, nauczyciel i ideolog programowania, autor 19 monografii (w tym szeregu klasycznych książek o programowaniu) i ponad 160 artykułów , twórca kilku znanych technologii oprogramowania.
Autor znanej na całym świecie serii książek poświęconych podstawowym algorytmom i metodom matematyki obliczeniowej, a także twórca systemów DTP TEX i METAFONT, przeznaczonych do pisania i układania książek o tematyce technicznej (przede wszystkim fizyki i matematyki).
Większy wpływ na młodego Donalda Knutha wywarła twórczość Andrieja Pietrowicza Erszowa, późniejszego jego przyjaciela.
Profesor Knuth jest laureatem licznych nagród i wyróżnień w dziedzinie programowania i matematyki obliczeniowej, m.in. Nagrodę Turinga (1974), Amerykański Narodowy Medal Nauki (1979) oraz Nagrodę AMS Steele za cykl artykułów popularnonaukowych, Nagrodę Harveya (1995), Nagroda Kyoto (1996) za osiągnięcia w dziedzinie zaawansowanych technologii, Nagroda Grace Murray Hopper (1971).
Na koniec lutego 2009 roku Knuth zajmował 20. miejsce na liście najczęściej cytowanych autorów w projekcie CiteSeer.

Najlepszym sposobem na pełne zrozumienie czegoś jest Japoński twórca wolnego oprogramowania i twórca języka programowania Rubin
online W Japan Inc. powiedział, że programowania nauczył się jeszcze przed ukończeniem szkołyJest absolwentem Uniwersytetu Tsukuba, gdzie zajmował się badaniami nad językami programowania i kompilatorami.
Od 2006 roku kieruje działem badawczo-rozwojowym Network Applied Communication Laboratory, japońskiego integratora systemów wolnego oprogramowania.
Urodzony w 1965 roku w prefekturze Osaka, ale w wieku czterech lat przeprowadził się do Yonago City w prefekturze Tottori, dlatego często jest przedstawiany jako mieszkaniec Yonago. Obecnie mieszka w Matsue City w prefekturze Shimane.
Yukihiro jest członkiem Kościoła Jezusa Chrystusa Świętych w Dniach Ostatnich i jest zaangażowany w pracę misjonarską. Jest żonaty i ma czworo dzieci.
Chcę, żeby komputer był moim sługą
a nie mistrz, więc muszę móc
szybko i sprawnie wyjaśnij mu, co ma robić.

Matsumoto Yukihiro

Steve'a Jobsa

(24 lutego 1955, San Francisco, Kalifornia - 5 października 2011, Palo Alto, Santa Clara, Kalifornia)


Amerykański przedsiębiorca, powszechnie uznawany za pioniera ery IT. Jeden z założycieli, prezes zarządu i Dyrektor generalny Apple Corporation . Jeden z założycieli i dyrektor generalny studia filmowego Pixar.
Pod koniec lat 70. Steve i jego przyjaciel Steve Wozniak opracowali jeden z pierwszych komputerów osobistych, który miał ogromny potencjał komercyjny. Komputer Jabłko II stał się pierwszym masowym produktem Apple, powstałym z inicjatywy Steve'a Jobsa. Jobs później dostrzegł komercyjny potencjał interfejsu graficznego sterowanego myszą, co doprowadziło do powstania komputerów Apple Lisa, a rok później Macintosh (Mac).
Po przegranej walce o władzę z zarządem w 1985 r. Jobs opuścił Apple i założył firmę Następny - firma, która opracowała platformę komputerową dla uniwersytetów i przedsiębiorstw. W 1986 roku przejął dział grafiki komputerowej Lucasfilm, przekształcając go w Pixar Studios. Pozostał dyrektorem generalnym i głównym akcjonariuszem Pixara do czasu przejęcia studia przez The Walt Disney Company w 2006 roku, co uczyniło Jobsa największym indywidualnym udziałowcem i członkiem zarządu Disneya.
Trudności w opracowaniu nowego systemu operacyjnego dla komputerów Mac doprowadziły do ​​zakupu przez firmę Apple NeXT w 1996 r. w celu wykorzystania NeXTSTEP jako podstawy dla systemu Mac OS X. W ramach umowy Jobs otrzymał stanowisko doradcy firmy Apple. Transakcja została zaplanowana przez Jobsa. W 1997 roku Jobs odzyskał kontrolę nad Apple, stając na czele korporacji. Pod jego kierownictwem firma została uratowana przed bankructwem i już w ciągu roku zaczęła przynosić zyski. Przez następną dekadę Jobs kierował rozwojemiMac, iTunes, iPod, iPhone i iPad, a także rozwójApple Store, iTunes Store, App Store i iBookstore. Sukces tych produktów i usług, które zapewniły kilkuletnie stabilne zyski finansowe, pozwolił Apple stać się w 2011 roku najcenniejszą spółką giełdową na świecie. Wielu komentatorów nazywa odrodzenie Apple jednym z największych osiągnięć w historii biznesu. Jednocześnie Jobsa krytykowano za autorytarny styl zarządzania, agresywne działania wobec konkurencji i chęć całkowitej kontroli nad produktami nawet po ich sprzedaży kupującemu.

Jobs zdobył uznanie opinii publicznej i szereg nagród za swój wpływ na przemysł technologiczny i muzyczny. Często nazywany jest „wizjonerem”, a nawet „ojcem rewolucji cyfrowej”. Jobs był znakomitym mówcą i przeniósł prezentacje innowacyjnych produktów na wyższy poziom, zamieniając je w ekscytujące pokazy. Jego łatwo rozpoznawalna postać w czarnym golfie, wytartych dżinsach i tenisówkach otacza swoisty kult.



Streszczenie na temat dyscypliny koncepcyjne podstawy informatyki.

TEMAT: Wybitni naukowcy krajowi i zagraniczni, którzy wnieśli znaczący wkład w rozwój i ugruntowanie informatyki

Grupa: AM-216

Uczeń: Saraev V.Yu.

Nowosybirsk 2002


- Wstęp

- Blaise Pascal

- Karola Ksawerego Thomasa de Colmar

- Charles Babbage

- Hermana Hollerita

- Komputer elektromechaniczny „Mark 1”

- Wykonanie tranzystora

- M-1

- M-2

- Dalszy rozwój informatyki

- Bibliografia

Informatyka to nauka zajmująca się ogólnymi właściwościami i wzorami informacji, a także metodami jej wyszukiwania, przesyłania, przechowywania, przetwarzania i wykorzystania w różnych dziedzinach działalności człowieka. Jak powstała nauka w wyniku pojawienia się komputerów. Obejmuje teorię kodowania informacji, rozwój metod i języków programowania oraz matematyczną teorię procesów przesyłania i przetwarzania informacji.

W rozwoju technologii komputerowej zwykle wyróżnia się kilka generacji komputerów: na lampach próżniowych (lata 40.-początek lat 50.), dyskretnych urządzeniach półprzewodnikowych (połowa lat 50.-60.), układach scalonych (połowa lat 60.).

Historia komputera jest ściśle związana z próbami człowieka, aby ułatwić automatyzację dużych ilości obliczeń. Nawet proste operacje arytmetyczne na dużych liczbach są trudne dla ludzkiego mózgu. Dlatego już w starożytności pojawiło się najprostsze urządzenie liczące, liczydło. W XVII wieku wynaleziono suwak logarytmiczny, aby ułatwić skomplikowane obliczenia matematyczne.

Urządzenie liczące Blaise'a Pascala (1623 - 1662).

W 1641 roku francuski matematyk Blaise Pascal, mając 18 lat, wynalazł maszynę liczącą – „babcię” nowoczesnych maszyn sumujących. Wcześniej zbudował 50 modeli. Każdy kolejny był doskonalszy od poprzedniego. W 1642 roku francuski matematyk Blaise Pascal zaprojektował urządzenie liczące, które miało ułatwić pracę jego ojcu, inspektorowi podatkowemu, który musiał dokonywać wielu skomplikowanych obliczeń. Urządzenie Pascala było jedynie „umiejętne” w dodawaniu i odejmowaniu. Ojciec i syn włożyli dużo pieniędzy w stworzenie swojego urządzenia, ale kalkulatorowi Pascala sprzeciwili się urzędnicy, którzy bali się utraty z tego powodu pracy, a także pracodawcy, którzy uważali, że lepiej zatrudnić tanich księgowych niż kupić nową maszynę. Młody projektant pisze, nie wiedząc jeszcze, że jego myśl wyprzedza swoją epokę o stulecia: „Komputer wykonuje czynności bliższe myśli niż cokolwiek, co robią zwierzęta”. Samochód przynosi mu popularność. Tylko nieliczni potrafią ocenić jego wzory i twierdzenia, a tutaj - wystarczy pomyśleć! Maszyna liczy się sama!! Każdy śmiertelnik mógłby to docenić, dlatego tłumy ludzi pędzą do Ogrodu Luksemburskiego, aby popatrzeć na cudowną maszynę, pisze się o niej wiersze, przypisuje się jej fantastyczne cnoty. Blaise Pascal staje się sławną osobą.

Dwa wieki później, w 1820 r., Francuz Charles Xavier Thomas de Colmar (1785...1870) stworzył arytmometr, pierwszy kalkulator produkowany masowo. Umożliwiał mnożenie zgodnie z zasadą Leibniza i pomagał użytkownikowi w dzieleniu liczb. W tamtych czasach był to najbardziej niezawodny samochód; Nie bez powodu zajął miejsce na stołach księgowych w Europie Zachodniej. Maszyna sumująca ustanowiła także rekord świata w długości sprzedaży: ostatni model został sprzedany na początku XX wieku.

Charles Babbage (1791-1871)

Charles Babbage bardzo szeroko pokazał swój talent jako matematyk i wynalazca. Lista wszystkich innowacji zaproponowanych przez naukowców będzie dość długa, ale jako przykład możemy podać, że to Babbage wpadł na takie pomysły, jak instalowanie w pociągach „czarnych skrzynek” rejestrujących okoliczności wypadku, przejście na wykorzystanie energii przypływów morskich po wyczerpaniu się zasobów węgla w kraju, a także badanie warunków pogodowych minionych lat według rodzaju słojów na ściętym drzewie. Oprócz poważnych studiów matematycznych, którym towarzyszył szereg znaczących prac teoretycznych i kierowanie wydziałem w Cambridge, naukowiec przez całe życie pasjonował się różnego rodzaju kluczami, zamkami, szyframi i lalkami mechanicznymi.

W dużej mierze dzięki tej pasji można powiedzieć, że Babbage przeszedł do historii jako projektant pierwszego pełnoprawnego komputera. Już w XVII-XVIII wieku powstały różnego rodzaju mechaniczne maszyny liczące, jednak urządzenia te były bardzo prymitywne i zawodne. Babbage zaś, jako jeden z założycieli Królewskiego Towarzystwa Astronomicznego, odczuł pilną potrzebę stworzenia potężnego kalkulatora mechanicznego, zdolnego do automatycznego wykonywania długich, niezwykle żmudnych, ale bardzo ważnych obliczeń astronomicznych. Tabele matematyczne były wykorzystywane w wielu różnych dziedzinach, ale podczas żeglugi po pełnym morzu liczne błędy w ręcznie obliczanych tabelach mogły kosztować ludzi życie. Istniały trzy główne źródła błędów: błędy ludzkie w obliczeniach; błędy skrybów przy przygotowywaniu tabel do druku; błędy zecera.

Będąc jeszcze bardzo młodym człowiekiem, na początku lat dwudziestych XIX wieku Charles Babbage napisał specjalną pracę, w której wykazał, że pełna automatyzacja procesu tworzenia tablic matematycznych gwarantuje dokładność danych, gdyż wyeliminuje wszystkie trzy etapy generowania błędów. Tak naprawdę reszta życia naukowca była związana z realizacją tego kuszącego pomysłu. Pierwsze urządzenie obliczeniowe opracowane przez Babbage'a nazwano „silnikiem różnicowym”, ponieważ w swoich obliczeniach opierało się na dobrze rozwiniętej metodzie różnic skończonych. Dzięki tej metodzie wszystkie trudne do zrealizowania w mechanice operacje mnożenia i dzielenia zostały sprowadzone do łańcuchów prostych dodawań znanych różnic liczb.

Chociaż dzięki funduszom rządowym szybko zbudowano wykonalny prototyp weryfikujący koncepcję, zbudowanie pełnoprawnej maszyny okazało się sporym wyzwaniem, ponieważ wymagana była ogromna liczba identycznych części, a przemysł dopiero zaczynał odchodzić od rzemiosła do masowej produkcji. Po drodze Babbage sam musiał wynaleźć maszyny do tłoczenia części. Do 1834 r., kiedy „silnik różnicowy nr 1” nie był jeszcze ukończony, naukowiec wymyślił już całkowicie nowe urządzenie - „silnik analityczny”, który w rzeczywistości był prototypem nowoczesnych komputerów. Do roku 1840 Babbage prawie całkowicie ukończył prace nad „silnikiem analitycznym”, po czym zdał sobie sprawę, że ze względu na problemy technologiczne nie będzie możliwe natychmiastowe jego wdrożenie w praktyce. Dlatego zaczął projektować „maszynę różnicową nr 2” – jakby krok pośredni pomiędzy pierwszym komputerem, nastawionym na wykonanie ściśle określonego zadania, a drugą maszyną, zdolną automatycznie obliczyć niemal każdą funkcję algebraiczną.

Siła ogólnego wkładu Babbage'a w informatykę polega przede wszystkim na kompletności sformułowanych przez niego pomysłów. Naukowiec zaprojektował system, którego działanie programowano poprzez wprowadzenie sekwencji kart perforowanych. System był w stanie wykonywać różnego rodzaju obliczenia i był tak elastyczny, jak pozwalały na to instrukcje dostarczane w ramach danych wejściowych. Inaczej mówiąc, elastyczność „silnika analitycznego” została zapewniona dzięki „oprogramowaniu”. Opracowując niezwykle zaawansowaną konstrukcję drukarki, Babbage był pionierem idei komputerowego wejścia i wyjścia, ponieważ jego drukarka i stosy kart perforowanych zapewniały w pełni automatyczne wprowadzanie i wysyłanie informacji podczas obsługi urządzenia komputerowego.

Podjęto dalsze kroki, które przewidywały projektowanie nowoczesnych komputerów. Silnik analityczny Babbage'a może przechowywać pośrednie wyniki obliczeń (poprzez dziurkowanie ich na kartach) w celu późniejszego przetwarzania lub wykorzystywać te same dane pośrednie do kilku różnych obliczeń. Wraz z oddzieleniem „procesora” i „pamięci”, „Silnik Analityczny” zaimplementował możliwości skoków warunkowych, rozgałęziania algorytmu obliczeniowego i organizowania pętli w celu wielokrotnego powtarzania tego samego podprogramu. Bez prawdziwego kalkulatora Babbage posunął się tak bardzo w swoim teoretycznym rozumowaniu, że był w stanie głęboko zainteresować i zaangażować córkę George'a Byrona, Augustine Adę King, hrabinę Lovelace, która miała niezaprzeczalny talent matematyczny i przeszła do historii jako „pierwsza programista” w programowaniu swojej hipotetycznej maszyny.

Niestety, Charlesowi Babbage’owi nie udało się urzeczywistnić większości swoich rewolucyjnych pomysłów. Pracy naukowca zawsze towarzyszyło kilka bardzo poważnych problemów. Jego niezwykle żywy umysł zupełnie nie był w stanie usiedzieć w miejscu i czekać na zakończenie kolejnego etapu. Gdy tylko dostarczył rzemieślnikom rysunki produkowanego urządzenia, Babbage natychmiast zaczął wprowadzać do niego poprawki i uzupełnienia, stale szukając sposobów na uproszczenie i usprawnienie działania urządzenia. Głównie z tego powodu prawie wszystkie przedsięwzięcia Babbage'a nigdy nie zostały ukończone za jego życia. Kolejnym problemem jest jej wysoce konfliktowy charakter. Zmuszony do ciągłego wyciągania pieniędzy od rządu na projekt, Babbage mógł od razu wydać takie sformułowania: „Dwukrotnie [przez parlamentarzystów] zostałem poproszony: „Powiedz mi, panie Babbage, jeśli włożysz do maszyny błędne liczby, czy mimo to wyjdzie z poprawną odpowiedzią?” „Nie jestem w stanie pojąć, jaki trzeba mieć bałagan w głowie, żeby rodzić tego typu pytania”... Wiadomo, że przy takim charakterze i skłonność do surowych ocen, naukowiec nieustannie pozostawał w tarciach nie tylko z kolejnymi rządami, ale także z władzami duchowymi, które nie podobały się wolnomyślicielowi, oraz z rzemieślnikami wytwarzającymi elementy jego maszyn.

Jednak aż do początku lat 90 lat powszechnie panowała opinia, że ​​idee Charlesa Babbage'a zbytnio wyprzedzały możliwości techniczne jego czasów, w związku z czym projektowane komputery w zasadzie nie mogły być budowane w tamtej epoce. I dopiero w 1991 r., w dwusetną rocznicę urodzin naukowca, pracownicy Londyńskiego Muzeum Nauki odtworzyli według jego rysunków 2,6-tonowy „silnik różnicowy nr 2”, a w 2000 r. także 3,5-tonową drukarkę Babbage’a. Obydwa urządzenia, stworzone przy użyciu technologii z połowy XIX wieku, działają znakomicie i wyraźnie pokazują, że historia komputerów mogła zacząć się sto lat wcześniej.

W 1888 roku amerykański inżynier Herman Hollerith zaprojektował pierwszą elektromechaniczną maszynę liczącą. I było tak. Rodzice Hermana byli imigrantami z Niemiec, którzy w 1848 roku opuścili ojczyznę, uciekając przed koszmarem, jaki panował w kraju dzięki wysiłkom rewolucyjnych mas. Budowa domu w Buffalo, znalezienie przyzwoitej pracy i urodzenie syna zajęło im dwanaście długich lat. Chłopiec okazał się sukcesem, a już sama data urodzin – 29 lutego 1860 roku – zapowiadała mu życie pełne niezwykłych wydarzeń. O wczesnych latach Hermana nic nie wiadomo (to sprawa rodzinna). Do szkoły chodził z wyraźną niechęcią, a wśród nauczycieli miał opinię dziecka uzdolnionego, lecz nie wychowanego i leniwego. Nie był dobry w gramatyce ani kaligrafii, nie zachwycała go ani historia narodowa, ani twórczość założycieli młodego demokratycznego państwa. Znacznie lepiej było z naukami przyrodniczymi i ścisłymi. Poza tym młody człowiek rysował z przyjemnością i nie bez talentu. Kłopoty w nauce tłumaczono faktem, że Herman cierpiał na dość powszechną chorobę – dysgrafię i miał poważne trudności, gdy trzeba było coś odręcznie zapisać. Dysgrafia w różnych momentach zrujnowała życie wielu wspaniałych ludzi, wśród nich słynnego fizyka Lwa Davidowicza Landaua, słynnego hollywoodzkiego aktora Toma Cruise'a i wielu innych. Być może to właśnie ta wada wywołała zainteresowanie Hermana maszynami i mechanizmami, które skutecznie zastępują pracę fizyczną.

Tymczasem nauczyciele naszego bohatera nie przejmowali się medyczną stroną problemu. „Patyczki muszą być prostopadłe!” I pewnego dnia, po wielokrotnym przepisaniu tej samej strony tekstu na polecenie upartego Pestalozziego (w celu opracowania eleganckiego i czytelnego pisma), Herman raz na zawsze opuścił mury miejskiego gimnazjum, starannie zamykając front drzwi za nim. Miał wtedy 14 lat. Przez rok jedynym nauczycielem Hermana był luterański ksiądz, który nie tylko uczył się u niego psalmów, ale także przygotowywał go do przyjęcia do prestiżowego City College of New York. W ciągu następnych czterech lat młody człowiek ukończył z wyróżnieniem wyżej wymienioną placówkę edukacyjną i rozpoczął służbę na Uniwersytecie Columbia, na wydziale matematyki słynnego profesora Trowbridge'a. Wkrótce jego patron został powołany na stanowisko szefa Biura Narodowego Spisu Powszechnego USA, które zajmowało się w szczególności gromadzeniem i statystycznym przetwarzaniem informacji na potrzeby spisu powszechnego USA. Trowbridge zaprosił Holleritha, aby do niego dołączył. Nowe zadanie było bardzo atrakcyjne, ponieważ zapowiadało pracę nad rozwiązaniem ogromnych problemów obliczeniowych związanych ze zbliżającym się kolejnym spisem obywateli amerykańskich w roku 1880. Ale praca wśród skrybów nie sprawiała Hermanowi żadnej radości. Już sam widok tych skarabeuszy, zawsze ćwierkających piórami, wprawiał go w nieuniknioną melancholię. Patyki, haczyki, patyki, haczyki: Co dziesięć lat, według ustalonej kiedyś zasady, urzędnicy papierów państwowych wszystkich krajów rozpoczynali kolejny spis swoich współobywateli, który za każdym razem ciągnął się latami i dawał wynik bardzo odbiegający od prawdziwy stan rzeczy. Z roku na rok rosły między innymi wymagania dotyczące przekazywanych informacji. Teraz nie wystarczyło już powiedzieć, że Nowy Jork liczy 100 tysięcy mieszkańców. Statystycy musieli dokładnie ustalić, że 85% z nich mówiło po angielsku, 55% to kobiety, 35% to katolicy, 5% to rdzenni Amerykanie, a 0,05% pamięta pierwszego prezydenta Stanów Zjednoczonych.

Wtedy właśnie narodził się pomysł zmechanizowania pracy skrybów za pomocą maszyny przypominającej krosno żakardowe. W rzeczywistości tę samą ideę po raz pierwszy wyraził kolega Holleritha, doktor nauk przyrodniczych John Shaw. Niestety, pomysł wisiał w powietrzu i nie zmaterializował się w sprzęcie. Oczywiście w tamtym czasie cała postępowa ludzkość znała już niesamowitą maszynę liczącą Anglika Charlesa Babbage'a, ale ona też istniała w jednym egzemplarzu i nie znalazła żadnego praktycznego zastosowania. Ambitnego Hermana niepokoiły perspektywy, jakie otworzyłyby się przed twórcą tego rodzaju maszyny liczącej, gdyby została ona oddana do użytku publicznego. Szczerze wierzył, że Amerykanów można przekonać o perspektywach wykorzystania maszyn liczących, zwłaszcza że jedno praktyczne zastosowanie – spis współobywateli – było oczywiste. A poza tym bardzo chciał zrobić tych wszystkich przeciętniaków, którzy zawsze naśmiewali się z niego, że nie potrafił nawet poprawnie napisać na bibule swojego charakterystycznego duszenia.

W 1882 roku Hollerith został nauczycielem mechaniki stosowanej w Massachusetts Institute of Technology. Do pracy jechał pociągiem. I pewnego dnia, gdy wynalazca, zmęczony myśleniem o swoim mechanicznym dziecku, spokojnie drzemał, jego spokój został zakłócony przez kontroler. Hollerith automatycznie wręczył mu kartę podróżną, inspektor z melancholijną miną, uderzył ją kilkakrotnie i zwrócił właścicielowi. Właściciel jeszcze przez chwilę patrzył na beznadziejnie zniszczony kawałek kartonu, zdziwiony, po czym zachichotał i z idiotycznym uśmiechem na ustach pojechał do stacji docelowej. Gdy tylko wysiadł z powozu, skoczył do drzwi laboratorium i zamknął się tam na kilka dni.

Przerwijmy naszą opowieść dla niezwykle ciekawej notatki: w tamtych latach amerykańscy konduktorzy wymyślili bardzo oryginalny sposób walki z oszustwami na kolei i kradzieżą biletów podróżnych, które (w celu zaoszczędzenia pieniędzy) nie posiadały ani numerów seryjnych, ani nazwiska właścicieli. Kontroler za pomocą dziurkacza zrobił dziurki w wyznaczonych miejscach na bilecie, zaznaczając w ten sposób płeć, kolor włosów i oczu pasażera. W rezultacie powstał rodzaj karty dziurkowanej, która w pewnym stopniu umożliwiła identyfikację prawdziwego właściciela biletu. Wróćmy jednak do naszego bohatera...

Wkrótce w laboratorium zamieszkał niezdarny potwór, złożony głównie ze złomu znalezionego na luksusowych śmietnikach uniwersyteckich. Niektóre części trzeba było zamawiać z Europy. Warto zauważyć, że w swoim pierwszym wcieleniu maszyna sumująca Holleritha korzystała z taśmy perforowanej. Taśma przesuwała się po izolowanym metalowym stole, dociśnięta była do niej metalową listwą z rzędem luźno wbitych i zaokrąglonych gwoździ. Gdy Gdy „gwóźdź” wszedł w otwór w taśmie, styk elektryczny został zwarty, a impuls elektryczny wprawił w ruch mechanizm zliczający. W tak prymitywny, ale bardzo skuteczny sposób odczytywano informacje. Ale Hollerith szybko rozczarował się taśmą, ponieważ szybko się zużywała i pękała, a ponadto dość często ze względu na dużą prędkość taśmy informacje nie miały czasu na przeczytanie. Dlatego ostatecznie, pod naciskiem teścia Johna Billingsa, Hollerith jako nośnik informacji wybrał karty dziurkowane. Sto lat później informatycy ponownie uznali pomysł odczytywania informacji z taśmy za bardziej obiecujący. Ale to, jak mówią, to zupełnie inna historia.

Działalność wynalazcza tak bardzo zawładnęła Hollerithem, że nie mogła nie wpłynąć na jakość jego nauczania. Poza tym nie lubił pojawiać się przed uczniami i na wszelkie możliwe sposoby starał się uniknąć konieczności pisania kredą na tablicy. Dlatego też, gdy w 1884 roku zaproponowano mu stanowisko starszego pracownika Krajowego Urzędu Patentowego, nie wahał się ani chwili. Kilka miesięcy później Hollerith złożył w swoim imieniu patent na stworzony przez siebie tabulator kart dziurkowanych. Maszyna była testowana w urzędach statystycznych w Nowym Jorku, New Jersey i Baltimore. Władze były zachwycone i zarekomendowały wynalazek Holleritha jako konkurencję wśród systemów uznawanych przez rząd USA za podstawę mechanizacji pracy spisowców podczas zbliżającego się spisu powszechnego w roku 1890. Maszyna Holleritha nie miała sobie równych, dlatego w biurze projektowym firmy Pratt and Whitney (która później zbudowała słynny silnik lotniczy) pospiesznie zorganizowano stworzenie przemysłowego prototypu tabulatora kart perforowanych. Produkcję powierzono firmie Western Electric Company. I już w czerwcu 1890 r. rozpoczął się pierwszy w historii „zmechanizowany” spis ludności. Ogółem w tym roku w Stanach Zjednoczonych zarejestrowano 62 622 250 obywateli; cała procedura przetwarzania wyników trwała niecałe trzy miesiące, oszczędzając 5 milionów dolarów budżetowych (cały budżet stanu USA w tym roku wyniósł zaledwie kilkadziesiąt milionów dolarów). . Dla porównania spis powszechny z 1880 r. trwał siedem lat. Oprócz szybkości nowy system umożliwił porównanie danych statystycznych dotyczących różnych parametrów. Przykładowo po raz pierwszy uzyskano realne dane operacyjne dotyczące śmiertelności dzieci w różnych stanach.

W życiu Holleritha rozpoczął się gwiezdny okres. Otrzymał niespotykane wówczas wynagrodzenie w wysokości dziesięciu tysięcy dolarów, uzyskał stopień naukowy doktora nauk przyrodniczych, jego system został przyjęty (płacąc ogromne pieniądze za prawo do korzystania z patentu) przez Kanadyjczyków, Norwegów, Austriaków, a później Brytyjczycy. Instytut Franklina przyznał mu prestiżowy Medal Elliota Cressona. Francuzi przyznali mu złoty medal na wystawie paryskiej w 1893 roku. Prawie wszystkie towarzystwa naukowe w Europie i Ameryce zapisały go jako „członka honorowego”. Później historiografowie światowej nauki nazwali go „pierwszym na świecie inżynierem statystycznym”. W 1896 roku Herman Hollerith zainwestował bez śladu fundusze uzyskane dzięki swojej zasłużonej sławie w utworzenie firmy Tabulated Machine Company (TMC). Do tego czasu maszyny liczące zostały znacznie ulepszone: procedury podawania i sortowania kart dziurkowanych zostały zautomatyzowane. W 1900 roku Departament Stanu ponownie zatwierdził system TMC jako podstawę Jubileuszowego Spisu Ludności. Chociaż Hollerith zażądał za swój patent niespotykanej sumy 1 miliona dolarów. Wszystkie te pieniądze zamierzał przeznaczyć na rozwój produkcji.

Ale byli urzędnicy, którzy oskarżyli Holleritha o karczowanie pieniędzy, zagrażające interesom publicznym Ameryki. Zdecydowano się zbudować nowy stanowy system spisu ludności, wykorzystując technologie TMC, ale z pominięciem patentów Holleritha. Jest w tej historii znaczący tunel czasoprzestrzenny, gdyż patenty na „nowe” maszyny zostały zarejestrowane na nazwisko niejakiego inżyniera Jamesa Powersa, jednego z pracowników Narodowego Biura Spisu Powszechnego i byłego kolegi Holleritha. I zaraz po zakończeniu kolejnego spisu ludności w 1911 r. Powersowi udało się stworzyć własną firmę Powers Tabulated Machine Company (PTMC) – bezpośredniego konkurenta TMC. Eksperci wciąż spierają się o źródła finansowania tego „start-upu”. Nowe przedsiębiorstwo wkrótce zbankrutowało, jednak TMC nie było w stanie podnieść się po utracie zamówienia rządowego.

W 1911 roku bardzo nienaukowy biznesmen Charles Flint założył firmę Computer Tabulated Recording Company (CTRC), której integralną częścią była dość zniszczona firma Holleritha. Dotychczasowy dyrektor TMC został przeniesiony na stanowisko konsultanta technicznego. Niestety, nowa firma również nie prosperowała. CTRC powstało dopiero w 1920 roku, rok przed dymisją Holleritha, dzięki sprawnym działaniom nowego dyrektora, Thomasa Watsona. W 1924 roku Watson zmienił nazwę CTRC na słynną obecnie IBM (International Machines Corporation). Dlatego to właśnie on uważany jest za ojca założyciela IBM.

Pięć lat później dyrektor IBM podpisał dokument zapewniający niezbędne fundusze na rytuał pogrzebowy pożegnania ciała kolegi, pana Hermana Holleritha. Ponadto podpisano dokument o zakończeniu wypłaty miesięcznej emerytury i zerowych wydatkach na zapłatę roszczeń materialnych od osób bliskich, z uwagi na ich brak. (Kije, haczyki, patyki, haczyki:) W pogrzebie uczestniczyli członkowie zarządu IBM i kilka innych osób. Surowy młodzieniec trzymał aksamitną poduszkę ze złotymi, srebrnymi i brązowymi medalami. Tę podkładkę i liczne patenty (ponad 30) na nazwisko Hollerith można dziś oglądać w IBM Fame Museum.

Nawiasem mówiąc, nigdy nie dostał ani jednej akcji IBM, chociaż to jego maszyny do tworzenia tabel ostatecznie przyniosły szczęśliwym akcjonariuszom wspaniałe dywidendy. Dalszy rozwój nauki i techniki pozwolił na zbudowanie pierwszych komputerów w latach czterdziestych XX wieku. W lutym 1944 roku w jednym z przedsiębiorstw IBM, we współpracy z naukowcami z Uniwersytetu Harvarda, na zamówienie Marynarki Wojennej USA powstała maszyna Mark-1. Był to potwór ważący 35 ton.

Komputer elektromechaniczny „Mark 1”

„Mark-1” opierał się na zastosowaniu przekaźników elektromechanicznych i działał z liczbami dziesiętnymi zakodowanymi na taśmie dziurkowanej. Maszyna mogła manipulować liczbami o długości do 23 cyfr. Pomnożenie dwóch liczb 23-bitowych zajęło jej 4 sekundy.

Ale przekaźniki elektromechaniczne nie działały wystarczająco szybko. Dlatego już w 1943 roku Amerykanie rozpoczęli prace nad alternatywną wersją komputera opartego na

oparte na lampach elektronowych. Pierwszy komputer elektroniczny ENIAC powstał w 1946 roku. Jego waga wynosiła 30 ton, aby go pomieścić, potrzeba było 170 metrów kwadratowych powierzchni. Zamiast tysięcy części elektromechanicznych ENIAC zawierał 18 000 lamp próżniowych. Maszyna liczyła w systemie binarnym i wykonywała 5000 operacji dodawania lub 300 operacji mnożenia na sekundę.

Maszyny wykorzystujące lampy próżniowe działały znacznie szybciej, ale same lampy próżniowe często zawodziły. Aby je zastąpić w 1947 roku, Amerykanie John Bardeen, Walter Brattain i William Bradford Shockley zaproponowali zastosowanie wymyślonych przez siebie stabilnych półprzewodnikowych elementów tranzystorowych.

wynalazki: Shockley (siedzi),

Bardeen (po lewej) i Britten (po prawej)

John BARDIN (23.V 1908) – amerykański fizyk, członek Narodowej Akademii Nauk (1954). Urodzony w Madisonie. Ukończył studia na Uniwersytecie Wisconsin (1828) i Uniwersytecie Princeton. W latach 1935 - 1938 pracował na Uniwersytecie Harvarda, w latach 1938 - 1941 - na Uniwersytecie w Minnesocie, w latach 1945 - 1951 - w Bell Telephone Laboratories, a od 1951 - profesor na Uniwersytecie Illinois.

Prace poświęcone są fizyce ciała stałego i nadprzewodnictwu. Wraz z W. Brattainem odkrył w 1948 r. efekt tranzystorowy i stworzył triodę kryształową ze stykiem punktowym – pierwszy tranzystor półprzewodnikowy (Nagroda Nobla, 1956). Razem z J. Pearsonem badał dużą liczbę próbek krzemu o różnej zawartości fosforu i siarki oraz badał mechanizm rozpraszania przez donory i akceptory (1949). W 1950 roku W. Shockley wprowadził koncepcję potencjału odkształcenia. Niezależnie od G. Fröhlicha przewidział (1950) przyciąganie między elektronami na skutek wymiany wirtualnych fotonów, a w 1951 przeprowadził obliczenia przyciągania między elektronami na skutek wymiany wirtualnych fononów. W 1957 roku wraz z L. Cooperem i J. Schriefferem zbudował mikroskopową teorię nadprzewodnictwa (teoria Bardeena – Coopera – Schrieffera) (Nagroda Nobla, 1972). Opracował teorię efektu Meissnera w oparciu o model z przerwą energetyczną, a w 1958 roku niezależnie od innych uogólnił teorię właściwości elektromagnetycznych nadprzewodników na przypadek pól o dowolnej częstotliwości. W 1961 zaproponował efektywną metodę Hamiltona (model tunelowy Bardeena) w teorii tunelowania, a w 1962 obliczył pola krytyczne i prądy dla cienkich warstw.

W latach 1968 - 1969 był prezesem Amerykańskiego Towarzystwa Fizycznego. F. Medal Londyński (1962), Medal Narodowy dla Nauki (1965) itp.

30 czerwca 1948 roku Ralph Bone, zastępca dyrektora ds. nauki w Bell Telephone Laboratory, powiedział reporterom o nowym wynalazku: „Nazwaliśmy go tranzystorem” – zawahał się nawet nad tym nowym słowem – „ponieważ jest to rezystor. półprzewodnika wzmacniającego sygnał elektryczny.” W porównaniu do nieporęcznych lamp próżniowych tamtych czasów, tranzystor spełniał te same funkcje przy znacznie mniejszym zużyciu energii, a ponadto miał znacznie mniejsze rozmiary.

Ale prasa praktycznie nie zwracała uwagi na ten mały cylinder z wystającymi drutami. Żaden z reporterów zaproszonych na konferencję prasową nie był w stanie wyobrazić sobie rozmiarów przyszłego rozpowszechnienia się tego wynalazku stulecia.

Wydawca takiego superpotwora jak „New York Times” przeznaczył dla tego przesłania miejsce na czterdziestej szóstej stronie swojej publikacji w dziale „Wiadomości radiowe”. Po wiadomości, że cotygodniowy program Teatru Radia zostanie zastąpiony przez Naszą Pannę Brooks, poinformowano, że „wczoraj w Bell Laboratory zademonstrowano nowe urządzenie zwane tranzystorem, mające zastąpić lampy próżniowe. Ten mały, półcalowy metalowy cylinder nie zawiera siatki, elektrod ani szklanego pojemnika. Nie ma potrzeby rozgrzewania się.”

Tego ranka było zbyt wiele innych wiadomości, aby można było zauważyć narodziny tranzystora. Na początku tygodnia wojska radzieckie odmówiły transportu żywności do Berlina Zachodniego. Stany Zjednoczone i Wielka Brytania odpowiedziały strumieniem samolotów na zablokowane miasto, zrzucając tysiące ton żywności i paliwa niezbędnego do normalnego życia ponad dwóch milionów Berlińczyków. Rozpoczęła się zimna wojna...

Nawet dla samych wynalazców tranzystor od samego początku był jedynie kompaktowym i ekonomicznym zamiennikiem lamp próżniowych. W latach powojennych elektroniczne komputery cyfrowe zajmowały ogromne pomieszczenia i wymagały regularnej wymiany przepalonych lamp kilkunastu specjalistów. Tylko siły zbrojne i rząd mogły sobie pozwolić na wydatek takich gigantów.

Ale dzisiaj możemy powiedzieć, że bez tego niesamowitego wynalazku Wiek Informacji nigdy nie mógłby nadejść. Mały cylinder, który został wynaleziony pół wieku temu przez Bardeena, Brattaina i Shockleya, całkowicie zmienił otaczający nas świat. Warto porozmawiać o tym, jak tego dokonali.

Odkrycie efektu tranzystorowego zostało zademonstrowane władzom sześć miesięcy wcześniej, 23 grudnia 1947 r. Szczerze mówiąc, wiadomość była bardzo krótka. Walter Brattain powiedział kilka słów wprowadzających i włączył sprzęt. Na ekranie oscyloskopu wyraźnie widać było gwałtowny wzrost dostarczanego sygnału na wyjściu tranzystora. Następnie Brattain przeczytał kilka wierszy z dziennika testów laboratorium i demonstracja dobiegła końca. Obecne były dwie osoby z kierownictwa Bell: zastępca dyrektora ds. nauki Ralph Bone i ekspert laboratoryjny Harvey Fletcher. Nikt nie może powiedzieć, co myśleli, ale według naocznych świadków ich twarze były dość kwaśne. Prawdopodobnie, jak wszyscy normalni szefowie, Bone i Fletcher czekali na historie o skutkach ekonomicznych i wdrażaniu. Ale nic takiego nie zostało powiedziane, a odkrycie było prawdopodobnie drugim co do ważności. Po 70 latach Alexander Bell zadzwonił do swojego asystenta przez pierwszy na świecie telefon: „Panie Watsonie, potrzebuję pana”.

William Shockley zaczął marzyć o wzmacniaczu półprzewodnikowym dziesięć lat wcześniej, ale nie udało mu się niczego osiągnąć, dopóki genialny teoretyk John Bardeen nie przybył do Bell Labs w 1945 roku. Początkowo siedział w tym samym pokoju z nie mniej genialnym eksperymentatorem Walterem Brattainem, który zajmował się półprzewodnikami od 1930 roku. Będąc całkowitym przeciwieństwem swoich skłonności i temperamentu, zaprzyjaźnili się ze względu na wspólną sprawę i częste gry w golfa. Do odkrycia doprowadziła ich wspólna praca w oddziale Shockleya.

Przez pierwsze miesiące po tym Shockleya dosłownie targały sprzeczne emocje. Z jednej strony dokonano obok niego niezwykłego odkrycia, które nazwano „najlepszym prezentem świątecznym Bell Lab”. Z drugiej strony wkładu do odkrycia nie miał praktycznie żaden, choć zmagał się z nim przez dziesięć lat.

Ale ta sprzeczność bardzo pomogła tranzystorowi. Natychmiast po odkryciu Shockley zapełniał stronę po stronie swoich zeszytów ćwiczeń, łącząc nowy wynalazek (którego istotę i znaczenie prawdopodobnie rozumiał lepiej niż ktokolwiek inny) ze swoimi starymi osiągnięciami. Bardeen i Brattain szybko stracili zainteresowanie czysto technologicznymi ćwiczeniami swojego szefa, a pod koniec lat czterdziestych w ich stosunkach narodził się pewien chłód. W 1951 roku Bardeen wyjechał na stanowisko profesora na Uniwersytecie Illinois, a Brattain odszedł od sztandarowego kursu laboratorium i kontynuował niezależne badania. Drogi trójki odkrywców skrzyżowały się ponownie w Sztokholmie, gdzie otrzymali Nagrodę Nobla za rok 1956.

Dopiero w połowie lat pięćdziesiątych fizycy i inżynierowie zaczęli zdawać sobie sprawę z roli i znaczenia tranzystora, podczas gdy szerokie masy społeczeństwa pozostawały całkowicie nieświadome. Miliony odbiorników radiowych i telewizyjnych nadal były ogromnymi pudłami wypełnionymi lampami próżniowymi. Po ich włączeniu trzeba było odczekać minutę, a nawet dłużej, zanim przystąpiono do pracy, aż lampy się nagrzeją. W 1954 roku tranzystor nadal oznaczał coś drogiego i wyrafinowanego w laboratorium o bardzo specyficznych zastosowaniach, takich jak aparaty słuchowe i łączność wojskowa. Ale w tym roku wszystko się zmieniło: mała firma z Dallas rozpoczęła produkcję tranzystorów do przenośnych radioodbiorników, które sprzedawano za pięćdziesiąt dolarów. W tym samym czasie na rynku tranzystorów pojawiła się mała i nieznana japońska firma o przyjemnej nazwie Sony, oceniająca swoje perspektywy lepiej niż Amerykanie.

Pod koniec lat pięćdziesiątych każdy przyzwoity amerykański nastolatek posiadał radio tranzystorowe. Jednak pierwsze telewizory tranzystorowe zostały wyprodukowane przez firmę Sony i amerykański monopol zaczął topnieć, zanim zdążył się rozwinąć.

Shockley jednak również nie tracił czasu i w 1955 roku założył w północnej Kalifornii firmę produkującą półprzewodniki, która stała się początkiem słynnej na całym świecie „Doliny Krzemowej”. Można powiedzieć, że Bardeen, Brattain i Shockley rzucili pierwszą iskrę, od której rozpalił się wielki elektroniczny ogień informacyjny – wszyscy się nim dziś pławimy.

Pół wieku później być może, jak przystało na wielki wynalazek, historię jego powstania otaczają legendy. Ostatnio nastąpił nieoczekiwany rozwój.

Mała firma ACC z amerykańskiego stanu New Jersey ogłosiła, że ​​jest o krok od stworzenia urządzenia do przechowywania informacji, które nie ma sobie równych na świecie. Jego pojemność wynosi 90 gigabajtów, a prędkość odczytu jest tysiąc razy większa niż najszybszy dysk twardy IBM. Co więcej, nie jest większy niż duża moneta lub żeton kasyna.

Prezes ACC Jack Shulman nazywa technologię zastosowaną do stworzenia urządzenia „transkondensatorem”. Według niego istnieją podstawy, aby sądzić, że informacje umożliwiające jego odtworzenie zostały wydobyte ze szczątków UFO, które rzekomo rozbiło się w 1947 roku w pobliżu miasta Roswell w Nowym Meksyku. Materiały przekazali Shulmanowi jego znajomi, byli wojskowi.

„Na początku byłem bardzo nieufny wobec jego słów i poprosiłem o dowody” – mówi Shulman. „Następnie zwinął cztery wózki z dokumentami z tajnego laboratorium naukowego Ministerstwa Obrony Narodowej. Biegli potwierdzili, że dokumenty pochodzą z połowy lat czterdziestych. Niemal z czystej ciekawości odtworzyliśmy z rysunków urządzenie przypominające urządzenie półprzewodnikowe. Zadziałało! Potrzebujemy 18 do 20 miesięcy, aby dostarczyć próbkę do serii produkcyjnej.” Shulman odrzuca wszelkie prośby o pokazanie próbki ekspertom z dużych firm, powołując się na fakt, że urządzenie nie zostało jeszcze opatentowane.

A więc – znowu „małe zielone ludziki”? Internetowa sieć komputerowa posiada już specjalną stronę (www.accpc.com/roswell.html) poświęconą nowej technologii. Informacje o twórczości Shulmana ukazały się w poważnej amerykańskiej publikacji „PC World Online” i rosyjskiej publikacji „Computer World”. Ponadto redaktor tego ostatniego opublikował obszerny komentarz na temat innego nieoczekiwanego zdarzenia – pojawienia się tranzystora.

W końcu wymyślono go właśnie wtedy, gdy to właśnie „coś” wydarzyło się w amerykańskim Roswell. Istnieją hipotezy, że mógł zostać nam „wrzucony” przez pechowych kosmitów. Argumenty zwolenników takich przemyśleń opierają się na fakcie, że tranzystor został zaprezentowany opinii publicznej niemal równocześnie z pierwszą zapowiedzią w prasie, zapowiadającą prace w zupełnie nowym kierunku. Krążą pogłoski, że w miejscu „śmierci kosmitów” wojsko amerykańskie znalazło fragmenty krzemu o dokładnie takich samych właściwościach, jakie miał pierwszy tranzystor. Jednocześnie w ZSRR, pomimo wysokiego w nim poziomu rozwoju nauki, nic podobnego nie zrobiono…

Jedyne, co jest bardzo mylące: artykuł o nowym napędzie i przemyślenia redaktora na temat tranzystora ukazały się w numerze z 31 marca 1998 roku. Choć to nie pierwszy kwietnia, to wciąż bardzo, bardzo blisko...

Dzisiaj: problemy i poszukiwania
Piszę ten artykuł na komputerze zawierającym dziesięć milionów tranzystorów - spora liczba „duszy” dla właściciela. A kosztują mniej niż dysk twardy i wyświetlacz. Nawet dziesięć milionów spinaczy jest wartych więcej. Tranzystory można sprzedać za grosze, ponieważ inżynierowie przez czterdzieści lat ciężko pracowali, aby zmieścić ich coraz więcej na jednej płytce krzemowej. Co roku liczba tranzystorów na jednej płytce podwaja się – jak długo będzie trwał ten proces?

Niejednokrotnie sceptycy przewidywali, że fizyczna granica miniaturyzacji jest bliska i za każdym razem fakty obalały te ponure przewidywania. Aby nie zostać uznanym ani za sceptyka, ani za marzyciela, chcę jak najbardziej obiektywnie porozmawiać o tym, jak będzie się rozwijać elektronika półprzewodnikowa i jak nauka może w tym pomóc.

W miarę ciągłego zmniejszania się rozmiaru tranzystora nieuchronnie pojawią się pewne ograniczenia fizyczne. Zadanie połączenia tych mikroelementów może okazać się niemożliwe. Zmniejszenie rozmiaru obwodu elektrycznego wiąże się z koniecznością radzenia sobie z silnymi polami elektrycznymi, które wpływają na ruch elektronów wzdłuż przewodników. Ponadto produkcja ciepła stale rośnie. Wreszcie wielkość elementów staje się porównywalna z długością fali promieniowania, z jakiego są wykonane, co stanowi kolejne ograniczenie.

Aby poznać interakcję tych granic, przyjrzyjmy się działaniu nowoczesnego tranzystora polowego. Zasadniczo jest to przekaźnik, który przyjmuje dwie wartości - zero lub jeden. W dużych układach sygnały wejściowe sterują tranzystorami, które przekazują przetworzone sygnały na wyjście. Sygnały przesyłane są przewodnikami, zatem to właśnie one decydują o działaniu tego samego komputera.

Tranzystor polowy zawiera kanał i trzy elektrody: katoda emituje elektrony, anoda je odbiera, a siatka kontroluje przewodność kanału. Jeśli elektrony dotrą od katody do anody, wówczas tranzystor jest otwarty i znajduje się w pozycji „włączony”. Jest to możliwe, jeśli do sieci zostanie przyłożony dodatni potencjał (w języku angielskim termin ten brzmi jak „brama”). To sygnał przychodzący dostarczany do sieci może albo zablokować tranzystor, albo go otworzyć.

Ale wszystko to działa tylko wtedy, gdy przewodniki są wystarczająco dobrze odizolowane od siebie. Wcześniej dziesięć nanometrów uznawano za bezpieczną odległość – na tej odległości nie pojawiają się efekty kwantowe, takie jak tunelowanie elektronów. Jednak w laboratoriach badana jest już odległość trzech nanometrów – oczekuje się, że produkcja przemysłowa zbliży się do niej w ciągu dziesięciu lat.

Niedawno naukowcy z Bell Telephone Laboratory wyprodukowali „najmniejszy działający tranzystor” - jego rozmiar poprzeczny wynosi 60 nanometrów, co odpowiada długości łańcucha składającego się ze 180 atomów. Tranzystor ten jest czterokrotnie mniejszy od najmniejszego dotychczas stworzonego, działa pomyślnie i wykazuje rekordowe wartości wzmocnień. Jego zużycie energii jest sto razy mniejsze niż w przypadku nowoczesnych tranzystorów. I to jest dobra wiadomość.

Ale jednocześnie jest też zła rzecz: naukowcy odkryli, że elektrony tunelują przez podłoże, oddzielając kanał przewodzący od siatki sterującej. Jak dotąd nie ma to wpływu na przepływający prąd, ale jego konsekwencje należy dokładniej zbadać. Zdaniem kierownika prac Stevena Hileniusa dalsze obniżanie parametrów jest niemożliwe: „Wygląda na to, że zrobiliśmy pierwszy z ostatniej generacji tranzystorów”.

Jaki jest powód takiego pesymizmu? Tak, wszystkie w tych samych nazwanych problemach. Przede wszystkim we wzroście wartości lokalnego pola elektrycznego, co nieuchronnie towarzyszy miniaturyzacji. W temperaturze pokojowej elektrony poruszają się w taki sam sposób, jak pod wpływem napięcia 0,026 wolta. Wielkość ta nazywana jest „stresem termicznym”. Dlatego sygnał sterujący musi być zauważalnie większy, aby pokonać przypadkowe wahania. W przypadku tranzystorów krzemowych charakterystyczne wartości przyłożonych napięć wynoszą od pół wolta do wolta. Nawet tak małe napięcie przyłożone na bardzo małe odległości generuje ogromne pola elektryczne (natężenie pola jest równe napięciu podzielonemu przez odległość) i może doprowadzić do przebicia powietrza, co oczywiście zakłóci pracę urządzenia. Obecne tranzystory działają już na granicy takiego przebicia.

Miniaturyzacja zwiększa rozpraszanie ciepła na centymetr kwadratowy. Powód jest czysto geometryczny: rozmiar drutów zmniejsza się w jednym kierunku, a powierzchnia kryształu bardzo dużego układu scalonego (chipu) zmniejsza się w dwóch. Nowoczesne urządzenia emitują do 30 watów na centymetr kwadratowy, co odpowiada podgrzaniu substancji do temperatury 1200 stopni, czyli dziesięciokrotnie wyższej niż w szybkowarze kuchennym. Oczywiście takie przegrzanie w żadnym wypadku nie powinno być dozwolone, dlatego opracowano wiele technologii chłodzenia, które niestety znacznie zwiększają koszt chipów.

Kolejna trudność wiąże się z przemysłową produkcją tranzystorów. Są spalane na podłożach za pomocą promieniowania, po czym różne reakcje chemiczne dopełniają dzieła. Ale promieniowanie jest trudne do skupienia na dużym obszarze, temperatura podłoża może się nieznacznie różnić - prowadzi to do niewielkich różnic we właściwościach różnych tranzystorów, co jest niedopuszczalne. Co więcej, wraz ze zmniejszaniem się rozmiaru, wszystkie trudności rosną.

Koszt urządzeń wytwarzających promieniowanie palące rośnie, a podpory podłoża muszą być coraz dokładniejsze. Kontrola jakości staje się złożoną i kosztowną procedurą.

Aby stworzyć nowe i coraz mniejsze chipy, absolutnie konieczne jest obliczenie projektu na komputerze. Wcześniej ruch elektronów wzdłuż przewodnika opisywany był prostymi prawami elektryczności, ale teraz druty stały się tak miniaturowe, że elektrony poruszają się wzdłuż nich nie w stałym strumieniu, ale w przypadkowych impulsach. Obliczenie ich z wymaganą dokładnością jest po prostu niemożliwe, dlatego proces opracowywania nowych chipów staje się dramatycznie bardziej skomplikowany.

Jak być? Co nas czeka?

Refleksje na temat przyszłości tranzystora zmuszają nas do powrotu do jego triumfalnego półwiecza marszu. To nie było przypadkowe. W porównaniu do poprzednich lamp próżniowych, tranzystory były proste, tanie i wydajne. „Potomkowie tranzystora będą mieli bardzo trudne chwile, ponieważ trzeba będzie je przewyższyć w kilku zupełnie różnych parametrach jednocześnie.

Poszukiwania „lekkich” alternatyw dla tranzystora trwają już od dawna. Światło jest dobre, bo fotony nie oddziałują ze sobą - nie ma silnych pól, nie ma przegrzania czy innych powikłań tranzystora. Ale ma to również swoją wadę: interakcja sygnałów jest istotnym szczegółem w działaniu dowolnego obwodu elektrycznego. Światło nadal będzie musiało zostać przekształcone w energię elektryczną, co stwarza zupełnie nowy zestaw problemów. Jednak rozmowa na temat optycznych wariantów tranzystorów jest wciąż przed nami.

Trudno zatem nazwać sytuację optymistyczną: widać koniec ery tranzystorów półprzewodnikowych i nie ma dla nich godnego zamiennika. Jednak w nauce często zdarza się, że sytuacje ze ślepej uliczki prowadzą do rewolucyjnych zmian i triumfalnych odkryć. Nie zapominajcie, że tranzystory „przyspieszają” i ostatecznie maleją, tak że nasze dzieci noszą w kieszeni szkolnej elektroniczną kopię wszystkich książek Biblioteki Lenina i z łatwością mogą pokonać Garriego Kasparowa za pomocą kieszonkowego kalkulatora.

Gra warta świeczki!

Jutro: światło zamiast elektronów
Od czasu wynalezienia pierwszych tranzystorów urządzenia te znacznie posunęły się w rozwoju. Ale apetyty informatyków są nienasycone - potrzebują coraz szybciej, coraz więcej operacji na sekundę. Według współczesnych projektantów elektrony przemieszczają się w przewodach zbyt wolno, dlatego informatycy zwracają się o pomoc do światła.

Przyszła generacja komputerów może stać się hybrydowa: chipy krzemowe będą łączone za pomocą wiązek światła laserowego. Metalowe druty zostaną zastąpione soczewkami, pryzmatami i lustrami. Stąd nazwa: optyka wolnej przestrzeni. Nowoczesne komputery przesyłają miliony bajtów na sekundę. Hybryda pozwoli nam przejść w stronę terabajtów (czyli miliona milionów) i petabajtów (czyli miliona miliardów).

Komputer oparty na lekkich „przewodach” ma trzy wyraźne zalety. Po pierwsze, nic nie może poruszać się szybciej niż światło. Po drugie, fotony światła nie oddziałują ze sobą (w przeciwieństwie do elektronów), dlatego przez wąski korytarz może przejść dowolna liczba wiązek światła. I po trzecie, do przejścia światła nie jest potrzebne nic - tylko powietrze.

Według Juliana Deansa z grupy optoelektroniki na Uniwersytecie w Edynburgu przyjęcie przetwarzania hybrydowego może nastąpić znacznie szybciej, niż się wydaje. „Większość problemów technologicznych została już pokonana” – zauważa. „Musimy tylko rozwiązać kwestie czysto inżynieryjne: jak zrobić lasery, soczewki i lustra na tyle małe, niezawodne i niedrogie, aby zbudować z nich działający komputer”.

Dziś wszyscy są zadowoleni z jakości chipów elektronicznych produkowanych powiedzmy przez Intela, ale wąskim gardłem stało się ich połączenie. Problem polega na tym, jak podłączyć kilkaset metalowych drutów do maleńkiego chipa. Może być wiele tysięcy pinów optycznych i mogą one wychodzić ze wszystkich stron mikroukładu. To pojedyncze ulepszenie może zwiększyć prędkość współczesnych komputerów kilkadziesiąt, a nawet setki razy i zbliżyć się do pożądanego „terabajta” na sekundę. Taki wzrost możliwych połączeń umożliwi rozwój nowych struktur sieci komputerowych, takich jak sieci neuronowe i procesory równoległe.

Jak zauważa Andrew Kirk z grupy fotoniki na kanadyjskim Uniwersytecie McGill, wydaje się, że przemysł komputerowy się obudził i odkrył dostępność technik optyki w wolnej przestrzeni. W pierwszym etapie światło będzie wykorzystywane do komunikacji pomiędzy elektronami, ale w przyszłości może samo przedostać się do ich wnętrza – gdy ruch elektronów stanie się zbyt powolny dla zwiększonej szybkości zliczania.

Problem dużej liczby połączeń jest nieodłączną cechą każdego komputera. Procesory, elementy pamięci, klawiatura, terminal i inne części stale wymieniają informacje. Szybkość procesorów stale rośnie, a także zwiększa się liczba jej wątków. Inżynierowie wiedzą, że wysyłając zera i jedynki szybciej niż pewien limit, po prostu zaczynają się ze sobą łączyć. Ponadto wzrost przepływów prowadzi do tego, że przewody zaczynają działać jak anteny - emitować fale elektromagnetyczne i wpływać na swoich „sąsiadów”. Muszą być starannie osłonięte, a to zwiększa ich grubość i koszt. Z drugiej strony chęć podłączenia do procesora coraz większej liczby przewodów powoduje, że stają się one cieńsze. Ale im cieńszy drut, tym większy jest jego opór i straty ciepła.

Ogólnie rzecz biorąc, nie ma wątpliwości, że szybki rozwój komputerów napotka trudności nie do pokonania, jeśli w dalszym ciągu będziemy korzystać z połączeń przewodowych. Aby wyjść z impasu, należy zwrócić się w stronę połączeń optycznych. Ideologicznie wszystko jest bardzo proste: impulsy elektroniczne w chipie komputerowym zamieniają się w cienką wiązkę światła. On tam jest - to jest „1”, jeśli go nie ma - „O”. Strumień światła przechodzi przez sieć maleńkich pryzmatów i soczewek i dociera do celu. A tam specjalna fotokomórka zamieni go z powrotem w sygnał elektryczny. Główne wymagania stawiane układowi optycznemu to: zużywać mało energii, być tani, prosty i kompaktowy.

Próbowano wielu rzeczy, w szczególności wszelkiego rodzaju diod LED, ale najlepszymi kandydatami okazało się źródło wielokwantowe, rodzaj migawki elektrycznej i mikroskopijny laser zwany Vixel. Obydwa urządzenia oparte są na arsenku galu, co pozwala na ich produkcję in-line w strukturach wielowarstwowych, takich jak chipy komputerowe.

Źródło wielokwantowe zostało wynalezione przez specjalistów z American Bell Laboratory w New Jersey na potrzeby komputera w pełni optycznego. Jednak dziesięcioletnie badania wykazały, że pomysł ten nie jest jeszcze wykonalny, ale osiągnięcia mają całkiem spore zastosowanie w komputerze hybrydowym. Źródłem tym jest „płytka” warstw półprzewodników, która pod wpływem sygnałów elektrycznych bardzo szybko może stać się lustrzana lub zmętniała. Światło odbite wynosi jeden, a światło nieodbite wynosi zero. Dodatkowo każdy „wafelek” posiada małą fotokomórkę okienną, w której padające światło zamieniane jest na sygnał elektryczny.

Pierwotnym pomysłem było stworzenie optycznego odpowiednika tranzystora. Jednak w komputerze hybrydowym komórki te przyczepiają się do procesora i służą jako „tłumacze” sygnałów świetlnych na formę elektroniczną. Laboratorium stworzyło już procesor z tysiącem takich komórek, każda o wielkości nie większej niż 15 mikronów. Światło docierające do komórek pochodzi z zewnętrznego lasera, którego wiązka jest podzielona na wiele (32 x 32) małych wiązek. Pierwsze eksperymenty z takim procesorem wykazały, że może on wprowadzić tysiąc razy więcej informacji niż współczesny superkomputer „Cray”. Pozostaje tylko wprowadzić prototyp do użytku komercyjnego.

Opracowywana jest także alternatywa dla takich ogniw: maleńkie lasery na ciele stałym na każdym kanale wejścia-wyjścia – „vixels”. Do niedawna takie lasery były zbyt duże, dopiero nauczyły się je wbudowywać w wielowarstwowe struktury półprzewodnikowe, gdzie wyglądają jak świecące okna mikrowieżowca. A mimo to „vicsels” są nadal duże w porównaniu do komórek - 250 mikronów. Jednak inżynierowie Bell Labs uważają, że zmniejszenie ich dziesięciokrotnie to tylko kwestia czasu i niezbyt długo.

Uniwersytet Kalifornijski stworzył już soczewki o średnicy zaledwie dwustu mikronów. Jednym ze skomplikowanych procesów technologicznych jest ich mocowanie. Istnieje obawa, że ​​wahania temperatury, ruch powietrza i wilgotność mogą mieć wpływ na soczewki, klej i podłoże, nieznacznie zdeformować system i zakłócić działanie komputera. To wszystko trzeba sprawdzić i przepracować.

Prototypy takich komputerów powstały już w laboratorium McGill University i innych instytutów. Ich części są starannie dopasowane do siebie i utrzymywane na miejscu za pomocą silnych magnesów. Nie jest to oczywiście opcja do masowej produkcji.

Andrew Kirk uważa jednak, że główna przeszkoda dla nowych komputerów hybrydowych ma podłoże czysto psychologiczne, jak każda nowa, rewolucyjna technologia. Jest to jednak jedna z najbardziej obiecujących ścieżek do superkomputerów przyszłości.

Amerykańska agencja kosmiczna NASA postawiła sobie za cel zbudowanie do 2010 roku komputera petaflopowego – to milion miliardów operacji na sekundę. Zdaniem ekspertów nie ma alternatywy dla optycznej metody przesyłania informacji przy takich prędkościach. Nawiasem mówiąc, petabajt informacji to miliard książek lub 2300 lat „przewijanej” taśmy wideo. Oto, ile danych ten komputer prześle w ciągu sekundy.

I na zakończenie kilka słów o podejściu do nowych technologii - w imię pełnego obiektywizmu. Mark Bohr z grupy badawczej Intela uważa, że ​​złożoność połączeń wzajemnych można wyeliminować, przenosząc więcej funkcji do jednego mikrochipu. Nowoczesne mikroprocesory są na przykład wyposażone w „pamięć podręczną”, która pozwala im przechowywać często używane informacje.

Bardzo mocnym argumentem przeciwko komputerom optycznym jest potężny przemysł chipów elektronicznych z ogólnoświatową infrastrukturą i wielomiliardowymi obrotami. Kto wygra – nowe rzeczy czy pieniądze – nie nam oceniać, poczekamy i zobaczymy. W każdym razie kilka lat temu o nowej technologii wypowiadało się zaledwie kilku entuzjastów, a na ostatniej poświęconej jej konferencji wiosną 1997 roku widziano inżynierów z IBM, Cray i Digital. Wydaje się, że teraz trzeba rozmawiać nie o tym, „czy będzie rewolucja optyczna”, ale o tym, „kiedy ona nastąpi”.

Teraz kolej, aby porozmawiać o naszych rodakach, zwłaszcza że oni też wnieśli znaczący wkład.

W grudniu 1951 r. W laboratorium układów elektrycznych Instytutu Energetyki (ENIN) Akademii Nauk ZSRR, pod przewodnictwem członka korespondenta Akademii Nauk ZSRR I. S. Bruka, opublikowano raport naukowo-techniczny „Automatyczny komputer cyfrowy (M. -1)” został wydany, zatwierdzony 15 grudnia 1951 r. Dyrektor Akademii Nauk ENIN ZSRR, akademik G. M. Krzhizhanovsky. Był to pierwszy dokument naukowy w ZSRR dotyczący stworzenia komputera domowego.

Maszyna pomyślnie przeszła testy i została uruchomiona w celu rozwiązania problemów zarówno w interesie naukowców instytutu, jak i organizacji zewnętrznych.

Początek prac badawczych I. S. Bruka nad problematyką komputera cyfrowego datuje się na rok 1948. To on jako pierwszy w ZSRR (wraz z B. I. Rameevem) opracował projekt komputera cyfrowego ze sztywnym sterowaniem programowym. Certyfikat wynalazczości na „komputer cyfrowy ze wspólną magistralą” otrzymali w grudniu 1948 roku.

I. S. Brook

Uchwała Prezydium Akademii Nauk ZSRR w sprawie rozpoczęcia prac nad M-1 została wydana 22 kwietnia 1950 roku. Po tym I. S. Bruk miał możliwość utworzenia zespołu rozwojowego.

Pierwszym, który dołączył do zespołu, był N. Ya Matyukhin, młody specjalista, który właśnie ukończył wydział radiotechniki Moskiewskiego Instytutu Energetyki.

Oto fragment wspomnień Nikołaja Jakowlewicza:

„Chcę ożywić obrazy z naszej działalności pod przewodnictwem Izaaka Semenowicza, aby oddać atmosferę tamtych lat.

Utworzenie grupy i rozpoczęcie prac nad ATsVM-M1 – 1950 rok.

Brooke rekrutuje zespół młodych specjalistów w RTF MPEI. Jest nas siedmiu: dwóch młodszych badaczy (A. B. Zalkind i N. Ya. Matyukhin), dwóch doktorantów (T. M. Alexandridi i M. A. Kartsev), trzech techników (Yu. V. Rogachev, R. P. Shidlovsky, L. M. Zhurkin).

Pierwszym zadaniem Izaaka Semenowicza było dla mnie zbudowanie trójwejściowego sumatora z diodą lampową (testowanie mojej przydatności).

Drugim zadaniem jest zaprojektowanie typowego pulpitu.

Moim trzecim zadaniem, jako lidera grupy, jest rozwój ACVM-1.

Poważne trudności w projektowaniu i wdrażaniu ATsVM spowodował prawie całkowity brak komponentów. Izaak Semenowicz znalazł oryginalne wyjście, wykorzystując majątek z magazynów trofeów wojennych.

W rezultacie projekt M-1 opierał się na następujących pomysłach i trofeach:
połączenie niewielkiej gamy komponentów o bardzo różnym pochodzeniu;
tylko dwa typy lamp próżniowych - 6H8 i 6AG7;
miedziaki z przyrządów pomiarowych;
głowice magnetyczne z domowego magnetofonu;
lampy elektronopromieniowe z oscyloskopu;
telegraf od Sztabu Generalnego Wehrmachtu.

O stylu przywództwa Izaaka Semenowicza Brooka:
pełna pasja do głównego kierunku, optymizm i pewność uzyskania efektu końcowego;
głębokie zrozumienie celu, prostoty i figuratywności argumentacji;
brak krytyki w przypadku niepowodzeń;
„pompowanie impulsów” niezależnej pracy;
pełen szacunku stosunek do wykonawców;
żadnych rozmów w biurze, ale analiza bezpośrednio w miejscu pracy;
pełna dostępność i łatwość omawiania wszelkich kwestii.

I. S. Brook miał, jak mówią, trudny charakter, widział w ludziach albo same zalety, albo same wady, a także odznaczał się wyjątkowym dowcipem. Dlatego jego opowieści o kolegach i naukowych przeciwnikach były dla nas wszystkich stałym źródłem rozrywki.”

Główne koncepcje leżące u podstaw konstrukcji ATsVM-1 zostały zaproponowane przez I. S. Bruka. Następnie wraz z N. Ya Matyukhinem opracowali konstrukcję i skład przyszłej maszyny, jej główne cechy i konkretne rozwiązania wielu problemów technicznych. Następnie N. Ya Matyukhin, przy aktywnym wsparciu I. S. Bruka, praktycznie wykonywał obowiązki głównego projektanta.

ATsVM-1 zawierał urządzenie arytmetyczne, główny czujnik programu (urządzenie sterujące), dwa rodzaje pamięci wewnętrznej (szybką - na lampach elektrostatycznych i wolną - na bębnie magnetycznym), urządzenie wejścia-wyjścia wykorzystujące telegraficzny sprzęt do bezpośredniego druku.

Główne cechy M-1:

System liczbowy jest binarny.

Liczba cyfr binarnych wynosi 25.

Pojemność pamięci wewnętrznej: na lampach elektrostatycznych - 256 adresów, na bębnie magnetycznym - 256 adresów.

Wydajność: 20 operacji/s przy wolnej pamięci; przy szybkiej pamięci operację dodawania wykonywano w czasie 50 μs, operację mnożenia w 2000 μs.

Liczba lamp próżniowych wynosi 730.

Pobór mocy - 8 kW.

Powierzchnia zajmowana - 4 mkw. M.

Podczas projektowania i rozwoju M-1 zaproponowano i wdrożono zasadniczo nowe rozwiązania techniczne, w szczególności dwuadresowy system dowodzenia, który następnie znalazł szerokie zastosowanie w krajowej i zagranicznej technologii komputerowej.

Oto co to jest - pierwszy rosyjski komputer

Po raz pierwszy w światowej praktyce tworzenia komputerów, obwody logiczne w maszynie M-1 zbudowano na elementach półprzewodnikowych – małogabarytowych prostownikach typu cuprox KVMP-2-7, co umożliwiło zmniejszenie liczby lamp elektronicznych w maszynę kilka razy i znacznie zmniejszyć jej rozmiar.

Prace projektowe i inżynieryjne nad stworzeniem ACVM-1 rozpoczęły się latem 1950 roku w trudnych warunkach, gdyż prowadzono je z inicjatywy, przy ograniczonych środkach finansowych, bez specjalnych pomieszczeń (M-1 był budowany i eksploatowany w piwnicy) opracowaniem zajmował się bardzo mały zespół młodych specjalistów, którzy jednak pracowali z wielkim entuzjazmem.

Opracowanie urządzenia arytmetycznego i systemu elementów logicznych przeprowadzili N. Ya. Matyukhin i Yu. V. Rogachev, opracowanie głównego czujnika oprogramowania - M. A. Kartsev i R. P. Shidlovsky, urządzenie magazynujące na bębnie magnetycznym - N. Ya. Matyukhin i L. M. Zhurkin, urządzenie magazynujące na rurkach elektrostatycznych - T. M. Aleksandridi, urządzenia wejścia-wyjścia - A. B. Zalkind i D. U. Ermochenkov, rozwój systemu zasilania - V. V. Belynsky, projekty - I. A. Kokalevsky.

Kompleksowym debugowaniem maszyny oraz rozwojem technologii programowania i testowania kierował N. Ya Matyukhin.

Jesienią 1951 roku zakończono prace nad ustawieniem M-1. W grudniu tego samego roku pojazd pomyślnie przeszedł kompleksowe testy i został oddany do użytku. Wybitni naukowcy, w tym akademicy A. N. Nesmeyanov, M. A. Lavrentyev, S. L. Sobolev, A. I. Berg, przybyli, aby zapoznać się z pracą ACVM-1.

Jednym z pierwszych, którzy rozwiązali problemy badań jądrowych na M-1, był akademik S. L. Sobolew, który w tym czasie był zastępcą dyrektora ds. pracy naukowej w Instytucie I. V. Kurczatowa.

N. Ja. Matyukhin wspomina: „Wspólnie z Izaakiem Semenowiczem uczyliśmy akademika Sobolewa podstaw programowania na M-1. Po wykonaniu szeregu zadań na maszynie zaczęliśmy odczuwać prawdziwe wsparcie Bearda (pseudonim Kurczatowa) i jego wydział, który był nam nieznany.”

Maszyna M-1 działała przez trzy lata i przez pierwsze półtora roku była jedynym działającym komputerem w Federacji Rosyjskiej. Został wyprodukowany w jednym egzemplarzu, ale jego architektura i wiele podstawowych rozwiązań obwodów zostało później przyjętych jako podstawa do opracowania pojazdów seryjnych M-3, Mińsk, Hrazdan itp.

Kompletną dokumentację techniczną M-3 (główny projektant N. Ya. Matyukhin) przekazano do Chińskiej Republiki Ludowej, gdzie w 1954 roku rozpoczęto jego produkcję seryjną.

Twórcy maszyny M-1 – pierwszego rosyjskiego komputera – stali się głównymi specjalistami w dziedzinie technologii komputerowej i wnieśli znaczący wkład w jej rozwój, kierując różnymi zespołami naukowymi, edukacyjnymi i produkcyjnymi.

Na przykład Nikołaj Jakowlewicz Matyukhin (1927–1984) został później członkiem korespondentem Akademii Nauk ZSRR, doktorem nauk technicznych, profesorem, głównym projektantem narzędzi obliczeniowych dla systemu obrony powietrznej ZSRR w Instytucie Badawczym Sprzętu Automatycznego.

W stworzone pod jego kierownictwem systemy komputerowe wyposażono około 150 obiektów Sił Zbrojnych ZSRR, z których wiele nadal funkcjonuje.

Michaił Aleksandrowicz Kartsew (1923-1983) został także doktorem nauk technicznych, profesorem i głównym projektantem narzędzi obliczeniowych dla systemu ostrzegania przed atakiem rakietowym (MAWS). Jest założycielem i pierwszym dyrektorem Instytutu Badawczego Systemów Obliczeniowych (NIIVK). Ultraszybkie komputery wieloprocesorowe stworzone pod jego kierownictwem z powodzeniem funkcjonują dziś jako część systemu wczesnego ostrzegania.

Twórczość twórców M-1 została wysoko doceniona – przyznano im stopnie naukowe i tytuły honorowe oraz przyznano nagrody państwowe.

M-2 został opracowany w Laboratorium Układów Elektrycznych Instytutu Energetyki Akademii Nauk ZSRR (od 1957 r. - Laboratorium Maszyn i Systemów Sterowania Akademii Nauk ZSRR, od 1958 r. - Instytut Elektronicznych Maszyn Sterujących) pod kierownictwem Członka Korespondenta Akademii Nauk ZSRR I. S. Bruka. W skład grupy pracującej nad M-2 wchodziło na różnych etapach od 7 do 10 inżynierów: M. A. Kartsev, T. M. Alexandridi, V. V. Belynsky, A. B. Zalkind, V. D. Knyazev, V. P. Kuznetsova, Yu. A. Lavrenyuk, L. S. Legezo, G. I. Tanetov , A. I. Szczurow. Grupą rozwojową M-2 kierował M. A. Kartsev.

V. V. Belynsky i Yu. A. Lavrenyuk przy panelu sterowania M-2.

Rozwój i instalacja maszyny trwała od kwietnia do grudnia 1952 r. Od 1953 r. M-2 działa przez całą dobę, rozwiązując stosowane problemy. Zimą 1955 r., a następnie w 1956 r. maszynę poddano znacznej modernizacji, po czym posiadała ona pamięć RAM na rdzeniach ferrytowych o pojemności 4096 numerów. Pamięć ferrytowa dla M-2 została opracowana przez grupę kierowaną przez M.A. Kartseva, w skład której wchodzili O.V. Rosnitsky, L.V. Iwanow, E.N. Filinow, V.I. Zołotarewski.

M-2 był komputerem cyfrowym z zapisanym programem. Przy opracowywaniu M-2 częściowo wykorzystano pomysły zawarte w jednej z pierwszych radzieckich maszyn M-1, która rozpoczęła działalność wiosną 1952 roku. System dowodzenia M-2 został wybrany jako trzyadresowy , gdyż najlepiej nadawał się do organizacji obliczeń (kod operacji, adresy dwóch operandów i wynik operacji). Format polecenia — 34-bitowy:

  • kod operacji - 4 cyfry binarne;
  • kody trzech adresów operandów - każdy po 10 cyfr binarnych (w przeliczeniu na pojemność pamięci o dostępie swobodnym - 1024 cyfr).

Aby skrócić zapis programów w kodach maszynowych, zastosowano mieszany system czwartorzędowo-szesnastkowy – dwie pierwsze cyfry binarne adresu zapisano jako cyfrę czwartorzędową, a kolejnych osiem cyfr jako dwie cyfry szesnastkowe.

System dowodzenia M-2 obejmował 30 różnych operacji (poprzez uzupełnienie rzeczywistego 4-bitowego kodu operacji o cechy wskazane w adresach, które nie były wykorzystywane w niektórych operacjach).

I. S. Brook

W skład drużyn M-2 weszli:

  • sześć operacji arytmetycznych;
  • dwa rodzaje operacji porównawczych (porównanie algebraiczne i modulo);
  • siedem operacji przełączania (zmiennoprzecinkowy - punkt stały i odwrotnie, precyzja normalna - podwójna precyzja i odwrotnie, przełączenie na punkt stały i jednocześnie na podwójną precyzję itp.)
  • operacja mnożenia logicznego dwóch liczb;
  • operacje przenoszenia liczby, zmiany znaku liczby;
  • cztery operacje wprowadzania informacji;
  • trzy operacje wyjściowe informacji;
  • cztery operacje przewijania taśmy magnetycznej na zewnętrznym urządzeniu pamięci masowej;
  • zatrzymać działanie.

Reprezentacja liczb binarnych w M-2 była zarówno stałoprzecinkowa, jak i zmiennoprzecinkowa. Jednocześnie dokładność obliczeń wynosiła około 8 miejsc po przecinku przy pracy z przecinkiem zmiennoprzecinkowym i około 10 miejsc po przecinku przy pracy z przecinkiem stałym. Możliwe były obliczenia o podwójnej precyzji.

Urządzenia pamięci wewnętrznej - główny elektrostatyczny (szeregowy CRT) dla numerów 512 o czasie obiegu 25 μs, dodatkowo dla numerów 512 - bęben magnetyczny o prędkości obrotowej 2860 obr/min.

Zewnętrzna pamięć masowa o pojemności 50 tys. numerów - na taśmie magnetycznej.

Wprowadzanie danych - czytnik zdjęć z taśmy dziurkowanej. Wyjście danych - dalekopis.

Jednostka arytmetyczna M-2 typu równoległego z czterema rejestrami wyzwalającymi.

Prędkość robocza M-2 wynosiła średnio 2 tys. operacji/s.

Obwody - lampy próżniowe i diody półprzewodnikowe w logicznych obwodach arytmetycznych i sterujących.

Łączna liczba lamp próżniowych wynosi 1879, z czego 203 znajdują się w zasilaczach. Zasilanie odbywało się z sieci trójfazowej prądu przemiennego 127/220 V, pobór mocy – 29 kW.

Powierzchnia zajmowana przez maszynę wynosi 22 m2. Główne podzespoły i bloki umieszczono w czterech szafach na jednym cokole, do którego zamontowano szafkę zasilającą. Dodatkowo maszyna posiadała panel sterowania z sygnalizacją świetlną stanu wyzwalaczy rejestrów arytmetycznych, rejestrów wyboru i startu oraz przełączników sterujących. Układ chłodzenia to powietrze o obiegu zamkniętym.

Konstrukcyjnie każda jednostka maszyny składała się z oddzielnych bloków, które znajdowały się na podwoziu przymocowanym do ram szafek. Część elektroniczna maszyny została zmontowana na wymiennych podzespołach rurowych ze złączami 14-pinowymi lub 20-pinowymi. Przyjęte rozwiązania konstrukcyjne zapewniły łatwość wymiany uszkodzonych lamp elektronicznych, monitorowania i diagnozowania obwodów przy użyciu stojaków.

W miarę użytkowania maszyny, począwszy od 1953 roku, gromadzono jej oprogramowanie w postaci biblioteki standardowych programów i podprogramów (A. L. Brudno, M. M. Władimirow przy udziale A. S. Kronroda i G. M. Adelsona-Velskiego).

Na M-2 obliczenia przeprowadzono dla Instytutu Energii Atomowej (akademik S. L. Sobolew), Instytutu Fizyki Teoretycznej i Doświadczalnej Akademii Nauk ZSRR (akademik A. I. Alikhanov), Instytutu Problemów Mechanicznych Akademii Nauk ZSRR Nauki (obliczanie wytrzymałości zapór w elektrowniach wodnych Kujbyszew i Wołga), Laboratorium Inżynierii Cieplnej Akademii Nauk ZSRR (Akademik M.A. Micheev), Akademia Sił Powietrznych, Akademia Artylerii, Instytut Stalproekt, przedsiębiorstwo Akademika A.I. Berg i wiele innych organizacji naukowych i przemysłowych. W 1953 roku poważne problemy obliczeniowe dla potrzeb obronności państwa, nauki i gospodarki narodowej można było rozwiązywać na trzech egzemplarzach komputerów – BESM, Strela i M-2.

OU i AU M-2.

Wokół M-2 rozwinął się nieformalny krąg programistów, którzy pracowali w różnych organizacjach, do którego należeli G. M. Adelson-Velsky, V. L. Arlazarov, M. M. Bongard, A. L. Brudno, M. Ya. Vainshtein, D. M. Grobman, A. S. Kronrod, E. M. Landis, I. Ya. Landau, A. L. Lunts i inni. Oprócz czysto praktycznych technik programowania zadań obliczeniowych w kodach maszynowych M-2, zajmowali się programowaniem zadań gamingowych, zadań rozpoznawczych i diagnostycznych. Wyniki tych badań doprowadziły do ​​odkrycia oryginalnych metod wyliczania, w szczególności metody rozgałęzionej i wiązanej, konstrukcji układów odniesienia z zapisem i poszukiwaniem logarytmicznym itp.

W pierwszym międzynarodowym meczu programów szachowych zwyciężył program opracowany przez A. S. Kronroda i V. L. Arlazarowa, opracowany dla maszyny M-2.

Doświadczenie problemów programowania w kodach M-2 doprowadziło do programowania w notacjach znaczących (A. L. Brudno).

Główne cechy M-2

M-2 miał mniej więcej taką samą wydajność jak komputer Strela, ale zajmował 6 razy mniej powierzchni, zużywał 8 razy mniej prądu i kosztował 10 razy mniej.

Zastosowanie diod półprzewodnikowych do budowy logicznych obwodów arytmetycznych i sterujących pozwoliło znacznie zmniejszyć liczbę lamp elektronicznych. Logika diodowa zastosowana w M-1, M-2 i M-3 posłużyła później jako prototyp logiki diodowo-tranzystorowej (DTL) komputerów drugiej i trzeciej generacji.

Pomysł skróconych kodów poleceń i kodów adresowych w 34-bitowym formacie poleceń z trzema adresami w połączeniu z operacjami przełączającymi, który zaproponował i wdrożył M.A. Kartsev w M-2, później posłużył jako prototyp zasady tworzenia adresów wykonawczych w architekturze komputerów drugiej i trzeciej generacji.

Pamięć RAM M-2 opracowano przy użyciu 34 konwencjonalnych lamp elektronopromieniowych typu 13 L037, zamiast specjalnych potencjałoskopów (które stosowano w BESM i Strela). Był to złożony rozwój inżynieryjny, który przeprowadzili T. M. Alexandridi i Yu. A. Lavrenyuk, zapewniając wymagane cechy pamięci i unikając trudności związanych z wyposażeniem maszyny w specjalne potencjałoskopy, którymi dysponowali twórcy BESM.

Równolegle z rozwojem maszyny opracowano bęben magnetyczny do dodatkowego wewnętrznego urządzenia magazynującego (autor A.I. Szczurow) i wyprodukowano go w Laboratorium.

M-2 używał zwykłego teletypu rolkowego jako urządzenia wyjściowego informacji. Rozwiązanie to umożliwiło zapewnienie zdalnej obsługi M-2. W lutym 1957 r. W pawilonie Akademii Nauk ZSRR w Ogólnorosyjskim Centrum Wystaw Rolniczych (obecnie Ogólnorosyjskie Centrum Wystawowe) zademonstrowano działanie M-2 ze zdalnym terminalem.

Dalszy rozwój postępował szybko.

1949
Powstał Krótki Kod – pierwszy język programowania.
1954
Firma Texas Instruments rozpoczęła przemysłową produkcję tranzystorów krzemowych.
1956
Pierwszy komputer oparty na tranzystorach powstał w Massachusetts Institute of Technology. IBM stworzył pierwsze urządzenie pamięci masowej - prototyp dysku twardego - dysk twardy KAMAS 305.
1957
Grupa Dapona Backusa stworzyła język programowania Fortran (FORmula TRANslation).
1958-1959
Jack Kilby i Robert Noyce stworzyli unikalny obwód elementów logicznych na powierzchni kryształu krzemu połączonych aluminiowymi stykami - pierwszy prototyp mikroprocesora, układu scalonego.
1960
AT opracowało pierwszy modem - urządzenie do przesyłania danych między komputerami. Wspólny zespół pracowników największych producentów komputerów opracował język programowania COBOL. Powstał najpopularniejszy język programowania lat 60., ALGOL.
1963
Douglas Engelbart otrzymał patent na wynaleziony przez siebie manipulator – „mysz”.
1964
Profesorowie John Kameny i Thomas Curd opracowują prosty język programowania - BASIC.
1967
Rodzi się koncepcja „komputera na jednym chipie”. Świat nie może się doczekać narodzin mikroprocesora.
1968
Wayne Pickett rozwija koncepcję „winchestera” – twardego dysku magnetycznego. Douglas Engelbart demonstruje system hipertekstu, edytor tekstu oraz obsługę myszy i klawiatury w Instytucie Stanforda. Robert Noyce i Gordon Moore odkryli firmę Intel.
1969
Kenneth Thompson i Dennis Ritchie tworzą system operacyjny UNIX. Nawiązano pierwsze połączenie pomiędzy dwoma komputerami. Na odległość 500 km transmitowano słowo LOGIN (przesłano tylko dwie litery). Intel wprowadza pierwszy układ pamięci o dostępie swobodnym (RAM) o pojemności 1 KB. Xerox tworzy technologię laserowego kopiowania obrazu, która wiele lat później stanie się podstawą technologii druku na drukarkach laserowych. Pierwsze „kopiarki”.
1970
Pierwsze cztery komputery największych amerykańskich instytucji badawczych połączone są ze sobą siecią APRANet – przodkiem współczesnego Internetu.
1971
Na zlecenie japońskiego producenta mikrokalkulatorów Busicom zespół programistów Intela kierowany przez Tada Hoffa tworzy pierwszy 4-bitowy mikroprocesor Intel-4004. Szybkość procesora - 60 tysięcy operacji na sekundę. Niklas Wirth tworzy język programowania Pascal. Zespół badaczy z laboratorium IBM w San Jose tworzy pierwszą 8-calową dyskietkę.
1972
Nowy mikroprocesor firmy Intel to 8-bitowy procesor Intel-8008. Xerox tworzy pierwszy mikrokomputer, Dynabook, nieco większy od notebooka. Bill Gates i Paul Allen założyli firmę Traf-0-Data i opracowali system komputerowy przeznaczony do kontrolowania przepływu samochodów na autostradach.
1973
W centrum badawczym Xerox powstał prototyp pierwszego komputera osobistego. Pierwszą postacią pojawiającą się na ekranie komputera jest Ciasteczkowy Potwór, postać z serialu telewizyjnego dla dzieci Ulica Sezamkowa. Firma Sceibi Computer Consulting wprowadza na rynek pierwszy od ręki komputer osobisty wyposażony w procesor Intel-8008 i 1 KB pamięci RAM. IBM wprowadza dysk twardy IBM 3340. Pojemność dysku wynosiła 16 kilobajtów, zawierał 30 cylindrów magnetycznych po 30 ścieżek każdy. Z tego powodu dysk nazwano „Winchester” (30/30" - marka słynnego karabinu). Zastosowania 841 Bob Matcalf wynajduje system komunikacji komputerowej o nazwie Enternet. Gary Kildall tworzy pierwszy prosty system operacyjny dla komputerów osobistych i daje to nazwa CP /M.
1974
Brian Cernighan i Dennis Ritchie tworzą język programowania C. Nowy procesor Intela to 8-bitowy Intel-8080. Szybkość - 640 tysięcy operacji na sekundę. Już niedługo na rynku pojawi się niedrogi komputer Altair oparty na tym procesorze, pracujący pod kontrolą systemu operacyjnego CP/M. Pierwszy procesor został wyprodukowany przez głównego konkurenta Intela w latach 70., firmę Zilog.
1975
IBM wypuszcza pierwszy „laptop” - komputer „portfolio” z wyświetlaczem, wbudowanym napędem na taśmę magnetyczną i 16 KB pamięci RAM. Koszt komputera to 10 tysięcy dolarów.Pierwszą kompozycją muzyczną odtworzoną za pomocą komputera była melodia piosenki The Beatles „Fool On The Hill”. Paul Allen i Bill Gates opracowują tłumacz języka Basic dla komputera Altair i zakładają własną firmę Micro-Soft (rok później w nazwie firmy znika myślnik).
1976
Advanced Micro Devices (AMD) uzyskuje prawo do kopiowania instrukcji i mikrokodu procesorów Intel. Początek „wojny procesorowej”. Steve Wozniak i Steve Jobs montują pierwszy komputer Apple w swoim warsztacie garażowym. 1 kwietnia tego samego roku narodził się Apple Computer. Komputer Apple I trafia do sprzedaży w bardzo sakramentalnej cenie – 666,66 dolarów. Rywal Intela, firma Texas Instruments, tworzy TMS9900, pierwszy 16-bitowy mikroprocesor. Oficjalna data narodzin piractwa komputerowego. Drukiem ukazuje się list otwarty Billa Gatesa, w którym skarży się na nielegalne wykorzystanie oprogramowania produkowanego przez Microsoft przez właścicieli pierwszych mikrokomputerów.
1977
Microsoft wypuszcza nowe oprogramowanie - Microsoft FORTRAN dla komputerów z systemem operacyjnym CP/M. Komputery Commodore i Apple II trafiają do masowej sprzedaży. Komputer wyposażony jest w 4 kilobajty pamięci RAM, 16 kilobajtów pamięci stałej, klawiaturę i wyświetlacz. Cena za całą zabawę to 1300 dolarów. Apple II otrzymuje modny dodatek – stację dyskietek. Microsoft wypuszcza nowe oprogramowanie - Microsoft FORTRAN dla komputerów z systemem operacyjnym CP/M. Przedstawiciele amerykańskiego Narodowego Instytutu Bezpieczeństwa i Higieny Pracy po raz pierwszy mierzą poziom promieniowania monitorów. Zgłaszają, że promieniowanie monitora jest „zbyt niskie, aby można było je poprawnie zmierzyć”. Narodziny komputera Atari.
1978
Firma MicroPro przedstawia edytor tekstu WordMaster. Intel wprowadza nowy mikroprocesor - 16-bitowy Intel-8086, pracujący z częstotliwością 4,77 MHz (330 tys. operacji na sekundę). Powstała firma Hayes, przyszły lider w produkcji nowoczesnych modemów. Commodore wypuściło na rynek pierwsze drukarki igłowe.
1979
MicroPro przedstawia edytor tekstu WordStar. Firma Microsoft udostępnia interpreter języka asemblera dla procesorów Intel i Zilog. Zilog produkuje swój 16-bitowy mikroprocesor. Następnie Intel wypuszcza nowy procesor - Intel 8088. Pojawiają się pierwsze gry wideo i konsole komputerowe dla nich. Japońska firma NEC produkuje pierwszy mikroprocesor w Krainie Wschodzącego Słońca. Hayes wypuszcza pierwszy modem 300 bodów dla nowego komputera Apple. Xerox jest pierwszą firmą na świecie, która reklamuje swoje własne komputery osobiste w telewizji.
1980
Komputer Atari staje się najpopularniejszym komputerem roku. Seattle Computer Products rozpoczyna prace nad własnym systemem operacyjnym – DOS. Seagate Technologies przedstawia pierwszy dysk twardy do komputerów osobistych - dysk twardy o średnicy 5,25 cala. Pierwszy prototyp komputera osobistego IBM zostaje przekazany firmie Microsoft w celu debugowania przeznaczonych dla niego programów. Microsoft zajmuje się rozwojem systemu operacyjnego Unix dla komputerów opartych na procesorach Intel. Narodził się edytor tekstu WordPerfect. Seattle Computer Products rozpoczyna prace nad własnym systemem operacyjnym – DOS. IBM zawiera umowę z Microsoftem na opracowanie systemu operacyjnego dla swojego przyszłego komputera. Jednocześnie podobne negocjacje toczą się z firmą Digital Research, właścicielem systemu operacyjnego CP/M-86. Po niepowodzeniu DR głównym partnerem IBM staje się Microsoft. Firma Microsoft odkupuje produkt QDOS firmy Seattle Computer Products i udoskonala go. Tak wygląda MS-DOS. W tym samym roku Microsoft wypuszcza nową wersję innego systemu operacyjnego - XENIX OS.
1981
Microsoft kończy prace nad MS-DOS. Aplikacje 843 W sierpniu widzowie zobaczą IBM PC - komputer oparty na procesorze Intel-8088, wyposażony w 64 kB pamięci RAM i 40 kB pamięci stałej. Komputer wyposażony jest w wyświetlacz i stację dyskietek o pojemności 160 KB. Koszt komputera to 3000 dolarów Intel wprowadza pierwszy koprocesor – wyspecjalizowany procesor do skomplikowanych obliczeń zmiennoprzecinkowych. Apple wprowadza komputer Apple III. Powstała firma Creative Technology (Singapur) - twórca pierwszej karty dźwiękowej. Do sprzedaży trafia pierwszy masowy dysk twardy firmy Seagate o pojemności 5 MB i cenie 1700 dolarów.
1982
Microsoft zawiera umowę z Apple na tworzenie oprogramowania dla komputerów Macintosh i udostępnia nowe wersje systemu MS-DOS - 1.1 i 1.25. Główną innowacją jest obsługa stacji dyskietek 320 KB. Powstała pierwsza wersja języka Post Script.
1983
Commodore wprowadza na rynek swój słynny komputer Commodore 64, wyposażony w 64 KB RAM, 20 KB pamięci stałej. Koszt: 600 dolarów Jego odpowiednik, Sinclair ZX, wyprodukowany przez firmę Sinclair, również staje się jednym z najpopularniejszych komputerów domowych roku. W sumie w 1982 roku swoje komputery zaprezentowało około 20 firm - m.in. Toshiba, Sharp, Matsushita, NEC, Sanyo. Na rynku pojawia się nowy model IBM - słynny IBM PC AT - i pierwsze klony IBM PC. IBM prezentuje 16-bitowy procesor 80 286. Częstotliwość robocza wynosi 6 MHz. Szybkość - 1,5 miliona operacji na sekundę. Hercules wprowadza na rynek pierwszą dwukolorową (czarno-białą) kartę graficzną - Hercules Graphics Adapter (HGA). Microsoft wprowadza edytor tekstu Multi-Tool Word dla DOS (później przemianowany na Microsoft Word) i pierwszą mysz Microsoft za 200 dolarów.W listopadzie oficjalnie ogłoszono pierwszą wersję systemu Microsoft Windows. IBM nie był zainteresowany nowym produktem, ale zaprosił Microsoft jako partnera nad własnym systemem operacyjnym - OS/2. Lotus Development wprowadza na rynek bestseller – arkusz kalkulacyjny Lotus 1-2-3. AT&T Bell Labs kończy prace nad nowym językiem programowania - C++. Novell ogłasza pierwszą wersję systemu operacyjnego Novell Netware. Powstał język programowania ADA, nazwany na cześć Lady Ady Byron, żony poety Byrona i autorki jednego z pierwszych „programów” dla „Maszyny analitycznej” Charlesa Babbage’a.
1983
Commodore wypuszcza pierwszy komputer przenośny z kolorowym wyświetlaczem (5 kolorów). Waga komputera - 10 kg. Cena: 1600 dolarów IBM wprowadza komputer IBM PC XT wyposażony w 10-megabajtowy dysk twardy, stację dyskietek o pojemności 360 kB i 128 (później 768) kB pamięci RAM. Cena komputera wynosi 5000 dolarów, na komputerze zainstalowana jest nowa wersja systemu MS-DOS 2.0 firmy Microsoft. Wypuszczono milionowy komputer Apple II. AT&T Bell Labs kończy prace nad nowym językiem programowania - C.++ Na rynku pojawiają się pierwsze dyski Bernoulliego i dyski wymienne SyQuest. Novell ogłasza pierwszą wersję systemu operacyjnego Novell Netware. Pojawiają się pierwsze moduły SIMM RAM. Philips i Sony wprowadzają na świat technologię CD-ROM.
1984
Apple wprowadza na rynek pierwszy modem o szybkości 1200 bodów. Hewlett-Packard wypuszcza na rynek pierwszą drukarkę laserową serii LaserJet o rozdzielczości do 300 dpi. Philips wypuszcza pierwszy napęd CD-ROM. Do sprzedaży trafiają pierwsze stacje robocze do produkcji i przetwarzania grafiki 3D wyprodukowane przez Silicon Graphics. IBM wprowadza na rynek pierwsze monitory i karty wideo EGA (16 kolorów, rozdzielczość - 630x350 pikseli), a także profesjonalne monitory 14-calowe obsługujące 256 kolorów i rozdzielczość 640x480 pikseli. Liczba komputerów podłączonych do Internetu osiągnęła 1000. Microsoft pracuje nad pierwszymi wersjami arkusza kalkulacyjnego Excel dla komputerów PC i Macintosh oraz wprowadza MS-DOS 3.0 i 3.1, obsługujący dyski twarde do 10 MB i dyskietki 1,2 MB, jak także tryb sieciowy.
1985
Rynek szybko podbija nowy komputer firmy Commodore - Amiga 1000. Nowy procesor Intela to 32-bitowy 80386DX (z wbudowanym koprocesorem). Częstotliwość robocza - 16 MHz, prędkość - około 5 milionów operacji na sekundę. Pierwszym modemem firmy U.S. Robotics jest Courier 2400 bod. W czerwcu ukazała się wreszcie pierwsza wersja systemu Microsoft Windows i pierwszy program dla niego - edytor graficzny In"A"Vision (Micrografx). Długo oczekiwany program Microsoft Excel dla komputerów Macintosh pojawia się z dużym opóźnieniem. Aldus wypuszcza pierwszą wersję Aldus PageMaker dla komputerów Macintosh.
1986
Adobe wprowadza pierwszą wersję edytora graficznego Adobe Inllustrator. Peter Norton tworzy pierwszą wersję menedżera plików Norton Commander. Na komputerze Amiga pojawił się pierwszy animowany komputerowo film z efektami dźwiękowymi. Narodziny technologii multimedialnej. Narodziny standardu SCSI (Small Computer System Interface). Opracowano nową wersję języka C - C++.
1987
Microsoft prezentuje system operacyjny MS-DOS 3.3 oraz powłokę graficzną Windows (w tym roku sprzedany zostanie milionowy egzemplarz tej powłoki) 2.0. Nowy DOS obsługuje stacje dyskietek 3,5 cala (1,44 MB) i dyski twarde o pojemności do 32 MB. Aplikacje 845 Pierwsza encyklopedia multimedialna na CD-ROM - Microsoft Bookshelf. Intel wprowadza nową wersję procesora 80386DX o częstotliwości roboczej 20 MHz. IBM wypuszcza nowy komputer PS/2, który jednak nie powtarza sukcesu swojego poprzednika. Komputer wyposażony jest w procesor 80386, napęd dysku 3,5 cala oraz nową kartę graficzną VGA (karta graficzna) (640x480 pikseli, 256 kolorów). Na niektórych komputerach działa pierwsza wersja systemu operacyjnego OS/2, opracowanego wspólnie przez IBM i Microsoft. Szwedzki Narodowy Instytut Monitorowania i Pomiarów zatwierdza normę MRP – pierwszą normę dotyczącą dopuszczalnych wartości promieniowania monitora. Firma U.S. Robotics wprowadza na rynek modem Courier HST 9600 (9600 bodów).
1988
Były fan Apple Steve Jobs i założona przez niego firma NexT wypuszczają na rynek pierwszą stację roboczą NeXT, wyposażoną w nowy procesor Motorola, fantastyczną ilość pamięci RAM (8 MB), 17-calowy monitor i dysk twardy 256 MB. Cena komputera wynosi 6500 dolarów, na komputerach została zainstalowana pierwsza wersja systemu operacyjnego NeXTStep. Hewlett-Packard wypuszcza na rynek pierwszą drukarkę atramentową DeskJet. Firma Microsoft udostępnia Edytor prezentacji programu PowerPoint dla komputerów Macintosh, Windows 2.1 i MS-DOS 4.0. „Nowy” DOS - obsługa myszy i trybu graficznego. „Microsoft wypuszcza pakiet Microsoft Office dla komputerów Macintosh. Firma Digital Research wypuszcza własny system operacyjny DR-DOS.
1989
Creative Labs przedstawia Sound Blaster 1.0, 8-bitową kartę dźwiękową mono dla komputerów PC. Intel wprowadza na rynek okrojoną wersję procesora klasy 386 – 80386SX (z wyłączonym koprocesorem). Narodziny standardu SuperVGA (rozdzielczość 800x600 pikseli z obsługą 16 tysięcy kolorów). Microsoft Word i Excel są przenoszone na platformę Windows.
1990
Narodziny Internetu „World Wide Web” - WorldWideWeb. Tim Berners-Lee opracowuje język znaczników dokumentów hipertekstowych - HTML. Pierwszą rosyjską wersją DOS-u był MS-DOS 4.1. Bill Gates po raz pierwszy odwiedza Rosję. W maju ukazała się pierwsza, która odniosła komercyjny sukces, wersja systemu Windows 3.0. Firma Adobe zatwierdza specyfikację języka drukowania PostScript. IBM wprowadza nowy standard kart graficznych - XGA - jako zamiennik tradycyjnej VGA (rozdzielczość 1024x768 pikseli z obsługą 65 tysięcy kolorów).
1991
Apple wprowadza na rynek pierwszy monochromatyczny skaner ręczny. AMD prezentuje ulepszone „klony” procesorów Intela – 386DX o częstotliwości taktowania 40 MHz i 486 SX o częstotliwości 20 MHz. Zatwierdzono pierwszy standard komputerów multimedialnych, stworzony przez firmę Microsoft we współpracy z wieloma największymi producentami komputerów PC – MPC. Pierwszą stereofoniczną kartą muzyczną jest 8-bitowy Sound Blaster Pro. Microsoft wypuszcza nową wersję DOS-u - MS-DOS 5.0. Wbrew liderowi Digital Research wypuszcza nową wersję własnego DOS-u o numerze seryjnym 6.0. Corel wprowadza pierwszą wersję edytora graficznego CorelDRAW! Sun Microsystem tworzy nowy język programowania dla Internetu - JAVA. Fiński programista Linus Torvalds tworzy nowy system operacyjny klasy UNIX – Linux. W przeciwieństwie do innych „Unixów”, Linux, dzięki otwartości architektury jądra i swojej swobodnej naturze, zdołał podbić świat w możliwie najkrótszym czasie i już w 1999 roku stał się konkurentem linii Windows.
1992
Microsoft wypuszcza nową wersję DOS 6.0 i Windows 3.1, a IBM wypuszcza OS/2 2.0. Drogi dwóch gigantów rozchodzą się. NEC wypuszcza pierwszy napęd CD-ROM o podwójnej prędkości. Intel wprowadza procesor 486DX2/50 z „podwójnym” taktowaniem. Szybkość - 41 milionów operacji na sekundę. W tym samym czasie Cyrix wypuszcza na rynek okrojony procesor 486SLC (z wyłączonym koprocesorem).
1993
Pojawia się pierwsza wersja nowego systemu operacyjnego Microsoftu - Windows NT (Windows NT 3.1). Nowy system operacyjny przeznaczony jest dla komputerów pracujących w sieci w dużych przedsiębiorstwach. Intel wprowadza nowy standard magistrali i gniazd do podłączania dodatkowych kart - PCI. Pierwszym procesorem nowej generacji procesorów Intel jest 32-bitowy Pentium. Częstotliwość robocza - od 60 MHz, wydajność - od 100 milionów operacji na sekundę. Microsoft i Intel wraz z głównymi producentami komputerów PC opracowują specyfikację Plug And Play, która umożliwia komputerowi automatyczne rozpoznawanie nowych urządzeń i ich konfiguracji. Amstrad wypuszcza pierwszy minikomputer wielkości notebooka - „osobisty elektroniczny sekretarz”.
1994
lomega prezentuje dyski i napędy ZIP i JAZ - alternatywę dla istniejących dyskietek 1,44 MB. Firma U.S. Robotics wypuszcza pierwszy modem o szybkości 28 800 bodów. Nowa wersja systemu Windows to Microsoft Windows 3.11 (Windows For Workgroups), która obsługuje „pracę grupową” w trybie sieciowym. W tym samym czasie na rynku pojawiła się najnowsza wersja systemu MS-DOS – 6.22, a pod koniec roku zapowiedziano Windows 95. IBM udostępnia nową wersję systemu OS/2 3.0 (Warp). Mosaic Communications prezentuje pierwszą wersję przeglądarki internetowej - Netscape Navigator 1.0.
1995
Ogłoszono standard dla nowych nośników dysków laserowych - DVD. AMD wypuszcza najnowszy procesor generacji 486, AMD 486DX4-120. Intel wprowadza na rynek procesor Pentium Pro, przeznaczony dla wydajnych stacji roboczych. Firma 3dfx produkuje chipset Voodoo, który stał się podstawą pierwszych akceleratorów grafiki 3D dla komputerów domowych. Aplikacje 847 Pierwsze okulary i kaski „wirtualnej rzeczywistości” do komputerów domowych. IBM wypuszcza siódmą wersję PC-DOS. „Starcie tytanów” wśród systemów operacyjnych to OS/2 kontra Windows95, które pojawiło się w sierpniu. Microsoft wygrywa, a IBM po cichu opuszcza rodzimy rynek systemów operacyjnych. Microsoft przedstawia Microsoft Office 95 i przeglądarkę Internet Explorer.
1996
Narodziny autobusu LJSB. Intel wypuszcza procesor Pentium MMX z obsługą nowych instrukcji multimedialnych. Rozpoczęcie masowej produkcji monitorów ciekłokrystalicznych do „dużych” komputerów domowych. Firma Microsoft udostępniła najnowszą wersję systemu Windows NT - 4.0. Piąta wersja tego systemu operacyjnego ukaże się dopiero w 1999 roku pod nową nazwą – Windows 2000. IBM wypuszcza kolejną wersję OS/2 – 4.0 (Merlin).
1997
Nowy procesor Intela - Intel Pentium II. Nowy procesor od AMD - AMD K5. Pierwsze napędy DVD. Ensonic Soundscape wypuszcza pierwsze karty dźwiękowe PCI. Nowy port graficzny ACP. Nowy gracz na rynku systemów operacyjnych, firma Be Incorporated, wprowadza na rynek system operacyjny BeOs dla komputerów domowych i stacji roboczych.
1998
Apple po raz kolejny staje się aktywnym graczem na rynku komputerów domowych wraz z wypuszczeniem na rynek komputera iMac, który jest nie tylko potężny, ale także ma wyjątkowy design. Intel wypuszcza procesory Celeron - Pentium 11 dla komputerów domowych ze zmniejszoną pamięcią podręczną L2. „Rewolucja 3D”: na rynku pojawia się kilkanaście (!) nowych modeli akceleratorów 3D zintegrowanych z konwencjonalnymi kartami graficznymi. W ciągu roku zaprzestano produkcji kart graficznych bez akceleratorów SD. Microsoft wypuszcza Windows 98, ostatni w tym tysiącleciu system operacyjny dla komputerów domowych.
1999
Intel wypuszcza procesory Pentium III z nowym zestawem dodatkowych instrukcji do przetwarzania multimediów. IBM udostępnia najnowszą wersję systemu DOS - PC DOS 2000. Firma Microsoft udostępnia nową wersję przeglądarki Internet Explorer 5.0, pakiet Microsoft Office 2000 oraz zaktualizowaną wersję systemu Windows 98 Wydanie drugie. Firma Adobe udostępnia nowy system układu i projektowania — Adobe InDesign — który zastępuje PageMaker.

Bibliografia :

- 1. A.P. Pyatibratov, A.S. Kasatkin, R.V. Mozharov. „Komputery, MINIkomputery i technologia mikroprocesorowa w procesie edukacyjnym.”

- 2. A.P. Pyatibratov, A.S. Kasatkin, R.V. Mozharov. „

- Komputery elektroniczne w zarządzaniu.”

- 3 . www.komputer-museum.ru

Każdy z nas korzysta z możliwości komputerów i Internetu. Niewiele jednak osób myśli o tych wielkich informatykach i programistach, którzy dali nam możliwość korzystania z nowoczesnych technologii komputerowych, komunikowania się za pomocą sieci internetowych oraz pracy i wypoczynku przy użyciu programów komputerowych. W tym zbiorze będziemy mówić o wielkich osobistościach, których wkładu w rozwój komputerów i technologii informatycznych nie można lekceważyć.

Wilhelm Schickard (1592-1635)

Nie zdziw się, gdy zobaczysz daty urodzin i śmierci tego naukowca. Rzeczywiście może pojawić się pytanie, jaki związek mógł mieć w tamtych latach z takimi dziedzinami nauki jak informatyka i programowanie. Nie bez powodu jednak możemy uznać go za jednego z najsłynniejszych i najwybitniejszych informatyków i programistów na świecie.

Rzecz w tym, że został wynalazcą pierwszego na świecie urządzenia mechanicznego wykonującego obliczenia. Był to sześciocyfrowy prototyp nowoczesnego kalkulatora, który potrafił dodawać i odejmować liczby całkowite. Mechanizm Schickarda polegał na faktycznym dodawaniu i odejmowaniu elementów mechanicznych pracujących za pośrednictwem kół zębatych, pomocniczym kole do przesuwania bloków numerycznych oraz oknach do wyświetlania i przechowywania informacji.

Cała technologia, z której korzystamy, opiera się na obliczeniach, a pierwszym, który potrafił zmechanizować proces obliczeniowy, był Wilhelm Schickard.

Ada Lovelace (1815-1852)

Mówiąc o świetnych programistach, nie możemy zapomnieć o brytyjskiej matematyczce Adzie Lovelace. Można ją słusznie uznać za jedyną córkę Byrona, która posiada niesamowity intelekt, który znacznie wyprzedza jej czasy.

Wykazując zainteresowanie matematyką od dzieciństwa, poświęciła swoje życie zrozumieniu struktury aparatu obliczeniowego Babbage'a, w tym opracowaniu kilku opcji ulepszenia tej maszyny.

Niestety osiągnięcia Ady Lovelace zostały docenione dopiero kilkadziesiąt lat po jej śmierci, ale jej wkład w naukę jest tak wielki, że zdecydowanie zasługuje na miano świetnej programistki.

Charles Babbage (1791-1871)

Honorowe miejsce w naszym wyborze zajmuje angielski naukowiec, który na początku XIX wieku (a dokładniej w 1833 roku) stał się twórcą unikalnego prototypu komputera elektronicznego. Poświęcając znaczną część swojego życia tworzeniu mechanicznego systemu obliczeniowego, wpadł na pomysł stworzenia urządzenia analitycznego zdolnego do wykonywania różnych określonych obliczeń poprzez programowanie.

Ciekawe, że projekt obejmował główne elementy, które zachowały się wśród współczesnych: pamięć i mechaniczny „mózg” odpowiedzialny za obliczenia.

Niestety za życia Babbage'a stworzenie komputera nie doczekało się odpowiedniego rozwoju, ponieważ ogólny poziom rozwoju technologicznego społeczeństwa nie odpowiadał takiemu wynalazkowi - doceniono go znacznie później. Teraz może z honorem znaleźć się w gronie największych programistów świata. Rozwój Babbage'a stał się fundamentalny, gdy świat stał się gotowy do stworzenia komputerów.

Alana Turinga (1912-1954)

Wśród tych, których można nazwać wielkimi programistami, na honorowym miejscu znajduje się Alan Turing, brytyjski naukowiec, twórca prototypu komputera, a zarazem pierwsza osoba, którą można nazwać hakerem.

Podczas II wojny światowej Turingowi zaproponowano współpracę z resortami wojskowymi, podczas której pracował nad złamaniem algorytmów niemieckiej maszyny szyfrującej Enigma, która kodowała sygnały dla marynarki wojennej i sił powietrznych. Około sześć miesięcy później Turingowi udało się rozszyfrować kody Enigmy – był to niewątpliwie sukces, który pozwolił armii brytyjskiej zyskać znaczną przewagę nad wrogiem.

Po wojnie Turing otrzymał zasłużoną nagrodę i rozpoczął prace nad pierwszym komputerem. Stworzył pierwszy program szachowy, lecz nie mógł on działać, gdyż nie istniał jeszcze komputer, który mógłby go obsługiwać.

Bjarne Stroustrup (ur. 1950)

Długo można się spierać, kogo uznać za największego programistę, ale są indywidualności wybitne, których osiągnięcia znają wszyscy. Prawie każdy zna język programowania C++. Zawiera ogromną różnorodność programów używanych w wielu różnych dziedzinach.

Za twórcę tego języka uważany jest duński programista Bjarne Stroustrup. Jako pierwszy zaimplementował C++ w latach 80-tych XX wieku.

Stroustrup jest jednym z twórców programowania obiektowego, a obecnie jest członkiem zespołu, który opracował i poprawił standard ANSI/ISO dla języka C++. Jego książki zostały przetłumaczone na dziesiątki języków, a w 2004 roku Bjarne Stroustrup został wybrany do Narodowej Akademii Inżynierii.

Tim Bernes-Lee (ur. 1955)

Brytyjski naukowiec Tim Bernes-Lee można zaliczyć do grona wielkich programistów jako twórcy sieci WWW i wynalazcy Internetu.

To on może być uważany za przodka internetowego języka znaczników HTML, protokołów URL i HTTP. Jest szefem i założycielem konsorcjum World Wide Web. Jest to organizacja tworząca i weryfikująca standardy związane z działaniem Internetu.

(ur. 1969)

Fiński programista i programista Linus Torvalds stał się sławny na całym świecie po stworzeniu systemu operacyjnego Linux o otwartym kodzie źródłowym.

Początkowo projekt stworzenia własnego systemu operacyjnego nie wykraczał poza hobby, jednak po udostępnieniu przez Torvaldsa kodu źródłowego przyszłego systemu operacyjnego Linux zyskał on ogromną rzeszę wielbicieli. Stało się to w 1991 roku.

Obecnie istnieje wiele modyfikacji i dystrybucji tego systemu, pracują z nim zarówno zwykli użytkownicy, jak i duże korporacje, a większość programistów i programistów IT uznaje Linuksa za optymalny system operacyjny do wykonywania swoich zadań.

W 2004 roku Linus Torvalds został uznany za jedną z najbardziej wpływowych osób magazynu Times.

(ur. 1953)

Ideologia Richarda Stallmana wywarła ogromny wpływ na współczesną społeczność IT. Uważany jest za założyciela ruchu wolnego oprogramowania i autora Projektu GNU.

Opowiada się za ideą, że oprogramowanie powinno umożliwiać użytkownikowi swobodne używanie, przerabianie, udostępnianie i modyfikowanie programów.

Stallman jest kategoryczny w swoich przekonaniach i z zasady nie korzysta z komercyjnego oprogramowania i jest gotowy zasadniczo odrzucić takie udogodnienia jak telefon komórkowy ze względu na ograniczenia, jakie nakładają one na użytkownika.

Wreszcie

Wśród wielkich ludzi jedno z najważniejszych miejsc zajmują programiści i informatycy, gdyż trudno zaprzeczyć faktowi, że przyszłość całej ludzkości leży za technologiami informacyjnymi i ich rozwojem.

Staraliśmy się wyróżnić najważniejsze postacie w branży IT i w historii informatyki, jednak ich lista jest nieporównywalnie dłuższa – w każdym obszarze branży komputerowej pojawia się wiele wybitnych osobistości. Wielu naukowców wniosło wkład do informatyki, począwszy od czasów, gdy o istnieniu komputerów i komputerów nie mówiło się aż do teraz.