Internet Rzeczy i jego długa historia
Historia Internetu Rzeczy sięga zdecydowanie dalej niż mogłoby się wydawać. Pierwsze wzmianki o tej technologii dotyczą elektromagnetycznego telegrafu z 1832 roku. Niespełna sto lat później, w 1926 roku, Nikola Tesla w wywiadzie dla magazynu Colliers powiedział, że kiedy...
Zgodnie z większością źródeł historycznych, 21 października 1932 roku miało miejsce pierwsze nawiązanie kontaktu pomiędzy urządzeniami. Była to krótkodystansowa transmisja sygnału między dwoma telegrafami opracowanymi przez rosyjskiego wynalazcę Barona Schillinga – urządzenia znajdowały się w osobnych pokojach jego apartamentu. Rok później, za sprawą Carla Friedricha Gaussa i Wilhelma Webera telegrafy udało się wzajemnie połączyć i „skomunikować” już na odległość 1200 metrów. W tym momencie rozpoczęła się droga ku powszechnemu zastosowaniu technologii Internet of Things, choć ówcześni naukowcy z całą pewnością nie spodziewali się, jakie tempo rozwoju osiągnie i w jakie obszary życia przeniknie.
Wizjonerzy
W 1932 roku amerykański pisarz Jay Bryan Nash w swojej książce „Spectatoritis” pisał, że w zasięgu światowej cywilizacji jest powrót do słynnego lenistwa antycznej Grecji – właśnie za sprawą, jak sam to określał, „mechanicznych niewolników”, przypisanych w liczbie kilku, bądź nawet kilkunastu do jednego człowieka. „Gdy wchodzimy do domu, za sprawą naciśnięcia jednego przycisku dwanaście urządzeń oświetla nam drogę do pokoju, kolejne czuwają 24 godziny na dobę przy naszym termostacie, by dostosować temperaturę do warunków na zewnątrz, kolejne zarządzają dzień i noc automatyczną lodówką”. Czy nie brzmi to podobnie do opisu dzisiejszego inteligentnego domu?
W 1946 roku w popkulturze pojawiło się pierwsze urządzenie typu wearable. Tak oczywiście nazwane byłoby dzisiaj, wówczas nikt nie operował tym pojęciem. To nadgarstkowe radio, przypominające dzisiejsze smartwatche, którym do komunikacji posługiwał się bohater komiksowy – a następnie również filmowy – policyjny detektyw Dick Tracy, wykreowany przez autora komiksów Chestera Goulda. W tamtym czasie była to jedna z najpopularniejszych postaci, bardzo możliwe, że posłużyła więc za inspirację do przeniesienia słynnego atrybutu komisarza do świata rzeczywistego.
W 1955 roku Edward O. Thorp opracował koncepcję pierwszego „ubieralnego” komputera – analogowa maszyna o wielkości paczki papierosów miała typowo hazardowe zastosowanie, służyła do przewidywania kolejnych trafień słynnej ruletki. Koncepcja była rozwijana dalej i testowana w Las Vegas w 1961 roku, jednak nie odbiła się szerokim echem w opinii publicznej, a świat dowiedział się o jej istnieniu dopiero w 1966 roku.
Oczywiście samo wizjonerstwo to jeszcze zbyt mało, by mówić o realnym postępie. Liczą się konkrety i technologiczne osiągnięcia prowadzące naukę przez kolejne stopnie ewolucji.
Czas wynalazków
Rok 1960 przyniósł odkrycie, które dało początek pojęciu wirtualnej rzeczywistości. Za sprawą Mortona Heiliga świat ujrzał pierwszy „montowany na głowie” wyświetlacz, zaś dwa lata później wynalazca uznawany za pioniera Virtual Reality uzyskał patent na zaawansowaną maszynę zwaną Sensoramą. Jak na lata 60-te urządzenie przypominające arcade’owy symulator z salonów gier było niespotykaną innowacją, gdyż pozwalało na wirtualną, trójwymiarową przejażdżkę po ulicach Brooklynu z oddaniem wibracji, uczucia prędkości, a nawet zapachów miasta. Hubert Upton, przez wielu nazywany ojcem wearables, w 1967 prezentuje montowany na okularach ekran, wspomagający czytanie z ruchu warg – rok po słynnej wypowiedzi niemieckiego naukowca Karla Steinbucha, który ogłosił, że na przestrzeni kilku najbliższych dekad komputery będą implementowane w prawie każdym produkcie przemysłowym.
W 1977 roku powstaje montowana w okularach kamera pomagająca niewidomym poprzez przetwarzanie zarejestrowanego obrazu na płytkę dotykową, a u progu lat 80-tych członkowie zespołu Carneige Mellon School of Computer Science zainstalowali mikroprzełączniki w automacie Coca-Coli, łącząc je z administrującym komputerem, dzięki czemu widzieli na swoich terminalach, ile butelek aktualnie znajduje się w automacie oraz kiedy stają się odpowiednio schłodzone. Było to więc pewnego rodzaju technologiczne wprowadzenie do inteligentnych urządzeń domowych. W 1990 roku John Romkey prezentuje po raz pierwszy urządzenie, które może zostać włączone i wyłączone przez Internet, a wybór pada na niepozorny toster.
Komputeryzacja w XXI wieku
We wrześniu 1991 roku członek ośrodka badawczego Xerox PARC Mark Weiser publikuje na łamach Scientific American słynny artykuł „The Computer in 21th Century”, używając wielokrotnie cytowanych później terminów „wszechobecna komputeryzacja” i „ucieleśniona wirtualizacja”, aby opisać swoją wizję tego, jak wyspecjalizowane elementy sprzętu i oprogramowania połączone przez kable, fale radiowe i podczerwień przenikną do codzienności do takiego stopnia, że nikt nawet nie zauważy ich obecności.
Trzy lata później Steve Mann prezentuje pierwszą bezprzewodową ubieralną kamerę internetową, która stanowi wprowadzenie do urządzeń służących popularnemu dzisiaj lifeloggingowi, czyli bieżącemu udostępnianiu w sieci informacji o różnych rodzajów aktywnościach użytkowników. W 1995 roku Siemens uruchamia w ramach swojej struktury korporacyjnej departament pracujący nad rozwojem modułu GSM M1, umożliwiającego komunikację maszyn przemysłowych za pośrednictwem sieci bezprzewodowych.
Termin „Internet of Things” po raz pierwszy zostaje użyty w 1999 roku przez Kevina Ashtona, dyrektora Auto-ID Center, który wraz z Davidem Brockiem i Sanjayem Sarmą zastosował technologię RFID (Radio – Frequency Identification) do identyfikacji poszczególnych urządzeń połączonych w ramach jednej sieci. Rok później LG wprowadza na rynek pierwszą podłączoną do Internetu lodówkę, która wówczas nie została przyjęta przychylnie przez potencjalnych klientów ze względu na cenę oraz, ich zdaniem, niepotrzebne funkcje. Trudno nie zauważyć, że czas zweryfikował tę opinię.
Świat naczyń połączonych
W 2004 roku publicysta George Lawton w artykule „Machine-to-machine technology gears up for growth” dla magazynu Computer pisze, że na świecie już istnieje więcej mechanicznych, elektrycznych czy elektronicznych maszyn niż ludzi i wzrasta liczba tych, które zostały wzajemnie połączone. Idea M2M opiera się według niego na założeniu, że „maszyny mają większą wartość, jeśli są połączone w sieć, a sieć jest tym wartościowsza, im więcej połączonych w niej maszyn”.
Gwałtowna intensyfikacja wykorzystania technologii IoT nastąpiła, jak można się domyślać, po wprowadzeniu na rynek smartfonów, do których należała pierwsza dekada XXI wieku. W 2008 roku odbyła się pierwsza europejska konferencja poświęcona Internetowi Rzeczy, a same narodziny tej technologii w takim wymiarze, w jakim znamy ją dzisiaj, są datowane na przełom 2008 i 2009 roku. Przypadło to zatem na okres, w którym na świecie było już więcej podłączonych do Internetu urządzeń niż ludzi. W tym samym czasie Krajowa Rada Wywiadu USA klasyfikuje IoT na liście sześciu najbardziej rewolucyjnych technologii cywilnych, przyznając, że będzie on miał znaczący wpływ na kształt interesów państwowych co najmniej do 2025 roku. W 2010 roku liczba łączących się z siecią urządzeń wynosiła już 12,5 miliarda – dla porównania ówczesna populacja świata nie przekraczała 6,8 mld. Według ostatnich prognoz Internet Data Corporation do 2018 roku ma ich być już 22 miliardy.
– Niewątpliwie ogromny wpływ na rozwój Internetu Rzeczy do dzisiejszej jego postaci miała chmura obliczeniowa. Głównie dlatego, że jest to względnie tani i swobodnie skalowalny sposób przechowywania dużych ilości danych generowanych przez tę technologię. Dla przykładu – inteligentny termostat w domu przesyła podstawowe dane do chmury i zwrotnie odbiera z niej przesyłane przez użytkownika instrukcje dotyczące zarządzania temperaturą w domu, bez konieczności gromadzenia danych „w sobie”. Nie musi mieć on nawet swojego lokalnego interfejsu do administrowania, wszystkim można sterować z chmury – tłumaczy Krystian Fydrych z Atmana, operatora największego centrum danych w Polsce.
Bezpieczeństwo priorytetem
IoT jest jednym z głównych czynników napędzających cyfrową transformację biznesu i umożliwia gromadzenie ogromnych ilości danych Big Data. Jeśli chodzi o polskie przedsiębiorstwa, to są jeszcze odległe od szerokiego wykorzystania tej technologii – według danych Urzędu Komunikacji Elektronicznej korzysta z niej zaledwie 3% firm z rodzimego rynku. Nieco więcej, bo 6%, planuje natomiast w najbliższej przyszłości wprowadzić rozwiązania M2M.
– Jeśli już rozwiązania w zakresie Internetu Rzeczy się stosuje, to w podstawowym wymiarze. Wynika to z tego, że jest to nadal młode rozwiązanie, z którym rynek dopiero się oswaja. Widać to nawet w dużych firmach, w szczególności w zakładach produkcyjnych, gdzie mimo zrealizowanych w ostatnich latach inwestycji informatycznych, postępującej automatyzacji produkcji czy robotyzacji, maszyny praktycznie nie komunikują się z oprogramowaniem wspierającym zarządzanie. Dane z maszyn wciąż często wpisuje się do systemu ręcznie, bo producenci maszyn nie są skorzy do współpracy i integracji z zewnętrznymi systemami informatycznymi. Widać to szczególnie w tych zakładach, w których park maszynowy nie jest najnowszy. Warto zauważyć, że otrzymywane informacje nie pozwalają też na wyciągnięcie istotnych wniosków, bo są to zwykle dane czysto techniczne – zauważa Adam Stańczyk, analityk biznesowy w firmie BPSC, która ma na swoim koncie ponad 650 wdrożeń systemów wspierających zarządzanie przedsiębiorstwem, m.in. w firmach produkcyjnych – Skoro branża produkcyjna, będąca dość naturalnym odbiorcą rozwiązań IoT, podchodzi do Internetu Rzeczy z dystansem, to trudno się spodziewać, by inne sektory entuzjastycznie wprowadzały tę technologię. – dodaje Adam Stańczyk z BPSC.
Rewolucja adaptacji IoT w polskim biznesie jest więc jeszcze przed nami. Firmy muszą najpierw zaufać tej technologii i wdrażać systemy odpowiednio zabezpieczone przed możliwością przejęcia nad nimi kontroli z zewnątrz. To bardzo ważne, bo zgodnie z prognozami IDC, do końca przyszłego roku 9 na 10 firmowych sieci będzie musiało stawić czoła cyfrowym zagrożeniom w dużej mierze powodowanym przez luki w systemach IoT. – Firma, która postanowi wdrożyć taki ekosystem u siebie musi dysponować właściwie zabezpieczoną infrastrukturą, która nie pozwoli na zakłócenie wewnętrznego obiegu danych kluczowych dla jej dalszego funkcjonowania. Świadomość przedsiębiorców co prawda rośnie, co widać na przykładzie wzrostu rynku rozwiązań z zakresu cyberbezpieczeństwa, który w 2020 roku ma osiągnąć 170 mld dolarów, jednak na pełny zwrot firm w kierunku IoT z pewnością będziemy musieli jeszcze poczekać – dodaje Ewelina Hryszkiewicz z Atmana.
IoT dzisiaj, IoT jutro?
Wnioskiem przewodnim jest fakt, że dziś Internet of Things przenika do niemal każdej sfery życia: od inteligentnych domów pozwalających automatycznie regulować temperaturę czy zamówić brakujące artykuły spożywcze, przez smart cities inteligentnie sterujące ruchem drogowym czy gospodarką odpadami po nowoczesne fabryki pełne połączonych czujników, sensorów i maszyn produkcyjnych.
W tym miejscu pozostaje zadać pytanie, jak jeszcze będziemy niebawem potrafili wykorzystać potencjał Internetu Rzeczy, gdyż patrząc na przekrój jego zastosowań w minionym stuleciu, nie będzie zbyt odważnym stwierdzenie, że nadal wiele można z niego uzyskać.