Nowe technologie: silniki czwartej rewolucji przemysłowej

Kwitnący świat nowych technologii zawsze nas fascynował. „Emerging technologies”, termin obecnie częścią popularnego żargonu technologicznego, odnosi się zasadniczo do każdej technologii, która jest obecnie w fazie rozwoju i oczekuje się, że będzie szeroko dostępna w nadchodzących latach.

Technologie te w niedalekiej przyszłości przenikną każdy styl życia i mogą spowodować doniosłe zakłócenia społeczno-ekonomiczne.

Podczas jednego z ostatnich spotkań Światowego Forum Ekonomicznego w Davos odbyła się dyskusja panelowa na temat nowych technologii, w której wyróżniono niektóre z najbardziej innowacyjnych i obiecujących technologii: Blockchain, sztuczną inteligencję (AI), Uczenie maszynowe, przetwarzanie 3D i przetwarzanie w chmurze, które zostały wymienione i oznaczone jako silniki czwartej rewolucji przemysłowej.

Spośród nich blockchain i AI są najbardziej transformacyjną i przełomową ze wszystkich technologii.

Zanim przejdziemy dalej, przyjrzyjmy się historii komputerów na dzień dzisiejszy.

Historia

W 1820 roku matematyk Charles Babbage (1791-1871) zaprojektował pierwsze mechaniczne urządzenie obliczeniowe. Było to urządzenie obliczeniowe ogólnego przeznaczenia o nazwie Difference Engine.

Ale nie zostało to długo, ponieważ było to bardzo złożone urządzenie. Dzisiejsze systemy komputerowe są oparte na algebrze Boole 'a stworzonej przez George’ a Boole ’ a (1815-1864) w połowie lat 50., w której system liczbowy opiera się na dwóch symbolach 0 i 1 (tj.

Wtedy nikt nie zdawał sobie sprawy z jego użyteczności. Jednak poszedł naprzód i stworzył całą gamę algebry wokół teorii Booleana, która stała się podstawą dzisiejszych obliczeń cyfrowych.

Później w 1885 roku Herman Hollerith (1860-1929) otrzymał kontrakt na obliczanie amerykańskiego Spisu Powszechnego z 1890 roku. wynalazł serię maszyn obliczeniowych ściśle opartych na urządzeniach elektromechanicznych.

Jego firma została sprzedana IBM pod kierownictwem Thomasa J. Watsona (1874-1956), który później stał się czołowym producentem komputerów cyfrowych na świecie i zrewolucjonizował dziedzinę przetwarzania informacji.

W 1936 roku Alan Turing (1912-1954) zaprojektował pierwszy programowalny komputer. To podstawa projektowania nowego systemu komputerowego.

Następnie John von Neumann (1903-1957), który na początku lat 40.opracował prawdziwą architekturę nowoczesnego cyfrowego systemu komputerowego.

Architektura Von Neumanna była bardzo zbliżona do nowoczesnego systemu komputerowego i zawierała jednostkę pamięci, jednostkę centralną, jednostkę arytmetyczną oraz wejścia i wyjścia, wszystkie wbudowane w jedną skrzynkę.

Początkowo system ten został zaprojektowany i opracowany w oparciu o lampy próżniowe. Pierwszym komputerem lampowym próżniowym był ENIAC, który znajduje się dziś w muzeach Filadelfii.

Wynalezienie tranzystorów w 1947 roku zrewolucjonizowało cały przemysł komputerów cyfrowych. Ponieważ język maszynowy, który był używany do programowania do tego czasu, był bardzo złożony i trudny w kodowaniu, Departament Obrony USA w 1959 r. utworzył Komitet do zaprojektowania języka programowania wyższego poziomu.

Zaowocowało to utworzeniem Komitetu CODASYL (Conference on Data Systems Languages) i opracowaniem COBOL (Common Business-Oriented Language). W międzyczasie IBM zdefiniował i propagował nowy język obliczeń naukowych, zwany językiem Fortran.

W latach 60. firma IBM stworzyła znacznie bardziej wszechstronne Komputery, nazwane serią IBM 360, które mogły wykonywać zarówno komercyjne przetwarzanie danych, jak i obliczenia naukowe.

Dzięki serii IBM 360 wprowadzono pierwszy z systemów zarządzania bazami danych. Pierwszym systemem zarządzania bazami danych był hierarchiczny system zarządzania bazami danych o nazwie IMS (Information Management System).

W 1970 roku dwaj matematycy i informatycy, Edgar F. Codd (1923-2003) i Christopher J. Date (ur. 1941), zaproponowali koncepcję relacyjnego modelu danych dla baz danych, który jest używany przez wszystkie główne bazy danych do dziś.

W 1971 roku Intel Corporation wyszła z pierwszym 4-bitowym chipem; wkrótce rozwój wielu odmian chipów Intela od 4-bitowych do 8-bitowych do 16-bitowych umożliwił mikrokomputer.

Do tego czasu cała praca obliczeniowa była wykonywana przez gigantyczne Komputery mainframe, które były ograniczone do uniwersytetów i sektorów korporacyjnych.

W 1973 roku IIT Madras otrzymał jeden z najszybszych systemów komputerowych na świecie. Był to IBM 370-155. Prawdopodobnie miał znacznie małą moc obliczeniową niż to, co mamy w Apple iPhone dzisiaj.

Świat tak bardzo się zmienił. W latach 80. mikrokomputery i komputery stacjonarne stały się bardzo popularne. Microsoft Corporation wyszedł z dwoma nowymi systemami operacyjnymi, które ponownie rozprzestrzeniły korzystanie z komputerów dla małych firm i użytku osobistego.

Przeobrażał się także przemysł telekomunikacyjny. AT & T, który został podzielony na kilka firm przez rząd USA, był bardzo potężną korporacją w tamtych czasach.

W latach 80. nastąpił także rozwój sieci komputer-komputer. Na początku lat 70. mieliśmy komputer do łączności terminalowej, wykorzystujący funkcję IBM TSO (Time Sharing Options).

Ale prawdziwa sieć miała miejsce pod koniec lat 80 – tych z systemami operacyjnymi Microsoft. W tym czasie, Prof. James Martin (1933-2013), fellow w IBM wyszedł z serii podręczników może być określany jako „trylogia inżynierii informacji”, w którym zdefiniował Rozwój oprogramowania jako proces inżynierii, a nie twórcze artefakty.

Firma Texas Instruments opracowała narzędzie CASE (Computer-Aided Software Engineering), które posłużyło do zaprojektowania całego systemu aplikacji komputerowych, począwszy od podstaw, poprzez planowanie, aż po wykonanie, bez żadnego programowania. To była nowość.

Chociaż pojawiały się narzędzia CASE i inne technologie, programowanie komputerowe nadal nie stało się prawdziwym produktem inżynieryjnym z wielu powodów.

Skutkowało to wysokimi kosztami tworzenia oprogramowania i znacznymi wskaźnikami awaryjności. Następna rewolucyjna rzecz pojawiła się w 1993 roku, kiedy rząd USA udostępnił światu technologię internetową. Do tego czasu internet był dostępny dla personelu Obrony USA, Agencji Obrony i niektórych głównych uniwersytetów.

Internet zapoczątkował rewolucję technologii informatycznych. Jednak pomiędzy nimi pojawiła się usterka o nazwie „Y2K”. Był to problem stworzony przez programistów.

W tamtych czasach program komputerowy musiał być krótki i ostry, ponieważ pamięć komputerowa była poważnym problemem. W rezultacie programiści musieli skompresować Czterocyfrowy rok do dwóch cyfr, co było w porządku w latach 80. i 90. do 1999 roku, ale wraz z nadejściem roku 2000, Dwucyfrowy rok, który stałby się 00, zepsuje programy.

To była prawdziwa fala uderzeniowa wśród korporacji komputerowych, rządu i instytucji finansowych. Wydali znaczną ilość pieniędzy na przeprojektowanie programów.

Dało to wiele możliwości imigrantom z Azji, zwłaszcza Hindusom, aby przybyli do Stanów Zjednoczonych, aby pracować nad Y2K, co doprowadziło do pierwszej fali ludzi IT przybywających do USA i świata zachodniego.

Prawdziwa rewolucja w Internecie rozpoczęła się na początku 2000 roku. Nadwyżki funduszy Y2K były dostępne, a wiele firm obiecało produkować ładne produkty, ale nic się nie stało.

Zaowocowało to bańką dot-com z 2000 roku. Przeważała jednak pomysłowość ludzi. Od 2001-02, w ciągu ostatnich 18 lat, internet dotarł do każdego zakątka świata. Obecnie do Internetu podłączonych jest ponad cztery miliardy ludzi.

Internet był w stanie funkcjonować poprzez integrację technologii informatycznych, telekomunikacyjnych i inżynierii oprogramowania. Podstawą Internetu jest koncepcja telekomunikacyjna lub standard zwany TCP / IP (Transmission Control Protocol / Internet Protocol).

TCP / IP jest protokołem do przesyłania danych z jednego miejsca do drugiego. Infrastruktura była budowana wszędzie tak, że transfer danych TCP nigdy nie był problemem dla programistów.

Reszta budowli była znacznie łatwiejsza do wybudowania. Obecnie każda możliwa aplikacja została już przeniesiona ze starego systemu do Internetu.

Jednak internet nie jest bardzo niezawodny, bezpieczny, Bezpieczny lub chroniony. Wraz z pojawieniem się nowych aplikacji komputerowych i otwarciem Internetu problemy z bezpieczeństwem danych stały się prawdziwym wyzwaniem.

Średnio w ciągu ostatnich kilku lat same naruszenia prywatności i bezpieczeństwa danych kosztowały amerykańskie instytucje ubezpieczeniowe i finansowe około 50 miliardów dolarów.

Prywatność komputera i bezpieczeństwo danych wkroczyły również w sfery szpiegostwa. Rosjanie mogli logować się do amerykańskich systemów komputerowych i wpływać na wybory w USA.

Aby rozwiązać ten problem, musimy zaprojektować nowe innowacyjne technologie. Nowe technologie obiecują być głównym dostawcą rozwiązań w tej dziedzinie.

Blockchain

Najbardziej obiecującą spośród nowych technologii jest blockchain. Koncepcja została pierwotnie zaproponowana w białej księdze w 1995 roku, po raz pierwszy została zaimplementowana w 2008 roku przez Satoshi Nakamoto.

Bitcoin jest platformą rozwoju opartą na blockchain do wydobywania kryptowaluty pływającej przez niego i jego współpracowników. Umożliwiło to systemowi Bitcoin przesyłanie środków między zarejestrowanymi użytkownikami.

Tylko suwerenne kraje są upoważnione do emisji walut, ale ci założyciele bitcoin, którzy wierzą w mniej rządów, stworzyli pierwszą kryptowalutę, popularną markę bitcoin.

Jeśli są w stanie stworzyć walutę, mogą nią zarządzać, a rząd nigdy się o tym nie dowie. W rezultacie nieujawnione fundusze od różnych osób i korporacji trafiły do kryptowalut, takich jak Bitcoin.

Projektowanie i rozwój Bitcoin odbywa się za pomocą blockchain. Jest to obecnie jeden z najbezpieczniejszych systemów internetowych. Blockchain buduje własną infrastrukturę do przeprowadzania transakcji, wykraczając poza istniejącą infrastrukturę TCP / IP.

Na przykład w pierwszych dniach Internetu funkcja poczty e-mail nie była standaryzowana. W rezultacie nie można komunikować się z innym za pomocą innego systemu poczty e-mail.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *