09A  | B  | C  | D  | E  | F  | G  | H  | I  | J  | K  | L  | M  | N  | O  | P  | Q  | R  | S  | T  | U  | V  | W  | X  | Z  |







[Jest nas już ( 10720 ) zainteresowanych]



Kluczowe technologie 6G



Część 1: Wizja 6G i ewolucja techniczna

Jeśli chodzi o rozwój technologii i praktyczne zastosowania, w pierwszej części przedstawiona zostanie wizja 6G poprzez przegląd ewolucji od standardów 1G do standardów 5G i położenie nacisku na czynniki napędzające, wymagania, przypadki użycia i kluczowe wskaźniki wydajności ( KPI) i plan działania w kierunku 6G. Pierwsza część, składająca się z trzech rozdziałów, będzie również zawierać szczegółową listę potencjalnych technologii 6G wspierających docelowe przypadki użycia i kluczowe wskaźniki efektywności.

Sekcja 1: Historia standardów systemów komórkowych ku 6. Aby dobrze zrozumieć dzisiejsze złożone systemy komórkowe, niezbędna jest znajomość pełnego obrazu ewolucji systemów komórkowych. W tym celu motywacją jest przedstawienie czytelnikom krótkiego przeglądu całej historii mobilnych systemów komórkowych, od przedkomórkowych po 5G. Czytelnicy powinni więc być w stanie dobrze przygotować się na zapoznanie się z technologią 6G.
Sekcja 2: Technologia sprzed 6G i ewolucja systemu. Sekcja druga zapewni dogłębną analizę poprzednich generacji z punktu widzenia technologicznego. Opracowano symboliczny standard, który osiągnął dominującą pozycję komercyjną na rynku światowym i przyjął wówczas technologie mainstreamingu. W związku z tym czytelnicy zrozumieją ogólną architekturę reprezentatywnego systemu komórkowego dla każdej generacji, w tym główne elementy sieci, podział funkcjonalności, wzajemne połączenia, interakcję i przepływy operacyjne.
Sekcja 3: Wizja 6G: czynniki napędzające, czynniki, zastosowania i plan działania. Przed przejściem na 6G konieczne jest wyjaśnienie znaczenia i podstawowej motywacji rozwoju 6G oraz przekonanie czytelników, że 6G z pewnością pojawi się podobnie jak poprzednie generacje komunikacji mobilnej szczegóły techniczne. Przedstawiona zostanie wszechstronna wizja dotycząca sił napędowych, przypadków użycia i scenariuszy użycia, a także zaprezentowane zostaną podstawowe wymagania dotyczące wydajności oraz zidentyfikowane kluczowe czynniki technologiczne.

Część 2: Łączność bezprzewodowa o pełnym spektrum w 6G.

Druga część jest podzielona na trzy sekcje, koncentruje się na komunikacji bezprzewodowej w pełnym spektrum dla sieci 6G, włączając nowe możliwości widma związane z falami milimetrowymi, komunikacją terahercową, komunikacją w świetle widzialnym i bezprzewodową komunikacją optyczną.

Sekcja 4: Ulepszona komunikacja bezprzewodowa na falach milimetrowych w 6G. Fale milimetrowe (mmWave) zostały przyjęte w systemach 5G, ale ich wykorzystanie jest w powijakach. Dlatego też ulepszona komunikacja bezprzewodowa mmWave jest najprawdopodobniej kluczowym czynnikiem umożliwiającym rozwój 6G. Niezależnie od obfitych zasobów widmowych i sąsiadujących ze sobą pasm o dużej objętości, charakterystyka propagacji sygnału mmWave różni się od charakterystyki pasm niskiej częstotliwości w pasmach UHF i mikrofalach. Skupimy się na charakterystyce propagacji sygnału mmWave i kluczowych technologiach transmisji mmWave, pozwalających uwolnić potencjał wysokich częstotliwości.
Sekcja 5: Technologie i systemy terahercowe dla 6G. Aby zaspokoić zapotrzebowanie na ekstremalną szybkość transmisji rzędu terabitów na sekundę przewidzianą w systemie 6G, komunikacja bezprzewodowa musi wykorzystywać obfite widmo w paśmie terahercowym (THz). Oprócz komunikacji THz, pasmo THz jest również wykorzystywane do innych konkretnych zastosowań, takich jak obrazowanie, wykrywanie i pozycjonowanie, które mają osiągnąć synergię z komunikacją THz w 6G. Oprócz rzucenia światła na jego wysoki potencjał, przeanalizujemy główne wyzwania, takie jak duża utrata ścieżki w wolnej przestrzeni, absorpcja atmosferyczna, tłumienie opadów, blokowanie i wysokie fluktuacje Dopplera, a także przedstawię technologie THz, takie jak tablice podrzędne kształtowanie wiązki w ultramasywnym systemie MIMO i układach anten soczewkowych. Tymczasem, aby dać pogląd, zostanie zaprezentowany pierwszy na świecie standard komunikacji THz, tj. IEEE 802.15.3d.
Sekcja 6: Bezprzewodowa komunikacja optyczna i w świetle widzialnym w 6G. Optyczna komunikacja bezprzewodowa oznacza komunikację bezprzewodową wykorzystującą jako medium transmisyjne widmo optyczne, w tym podczerwień, światło widzialne i ultrafiolet. Bezprzewodowa komunikacja optyczna wykazuje ogromne zalety w scenariuszach wdrożeń, takich jak sieci domowe, komunikacja samochodowa w inteligentnych systemach transportowych, oświetlenie pasażerów samolotów i elektroniczny sprzęt medyczny wrażliwy na zakłócenia RF. Zostaną przedstawione główne cechy techniczne, fizyczne podstawy urządzeń optycznych i główne wyzwania stojące przed optycznymi systemami komunikacyjnymi

Część 3: Inteligentne sieci radiowe i technologie interfejsów radiowych dla 6G.

Przechodząc do poziomu sieci radiowej i interfejsu radiowego 6G, trzecia część składa się z czterech sekcji, w których omówiono głównie powiązane technologie, w tym systemy oparte na inteligentnych powierzchniach odbijających (IRS), techniki wielowymiarowe i antenowe, masy komórkowe i bezkomórkowe MIMO oraz adaptacyjny i nieortogonalny wielokrotny dostęp.

Sekcja 7: Inteligentna komunikacja wspomagana powierzchniowo w 6G. Wykorzystując dużą liczbę małych, pasywnych i niedrogich elementów odbijających światło, IRS może aktywnie tworzyć inteligentne i programowalne środowisko bezprzewodowe. Zapewnia zatem nowy stopień swobody w projektowaniu systemów bezprzewodowych 6G, umożliwiając zrównoważony wzrost pojemności i wydajności przy przystępnych kosztach, niskiej złożoności i niskim zużyciu energii. Zostanie przedstawiony model systemu i transmisja sygnału w systemach wspomaganych IRS ze stacjami bazowymi z pojedynczą lub wieloma antenami, zarówno w kanałach o płaskim, jak i selektywnym zanikaniu częstotliwości. Może służyć czytelnikom jako poradnik i punkt wyjścia do dalszych prac badawczych nad tym obiecującym tematem.
Sekcja 8: Techniki wielowymiarowe i antenowe dla 6G. Omówione zostaną podstawy transmisji wieloantenowej, w tym zróżnicowanie przestrzenne, kształtowanie wiązki i multipleksowanie przestrzenne. Chociaż niektóre z tych technik wieloantenowych zostały przyjęte w standardach sprzed epoki 6G, będą one również odgrywać kluczową rolę w systemach 6G, szczególnie w połączeniu z nowymi technologiami, takimi jak inteligentna powierzchnia odbijająca, struktura bezkomórkowa, nieortogonalna wielodostępne i terahercowe oraz optyczne i komunikacja w świetle widzialnym. Dlatego przedstawiono kompleksowy wgląd w te techniki, których celem jest uwolnienie ich pełnego potencjału w sieci 6G.
Sekcja 9: Komórkowe i bezkomórkowe techniki Massive MIMO dla 6G. Najpierw zostaną przedstawione krytyczne zagadnienia technik MIMO dla wielu użytkowników, w tym zasada dobrze znanego kodowania na brudnym papierze. Następnie pokazano rewolucyjną technikę zwaną masywnym MIMO, która przełamuje barierę skalowalności nie próbując osiągnąć pełnego limitu Shannona i paradoksalnie zwiększając rozmiar systemu. Skupimy się na najnowocześniejszej technologii zwanej bezkomórkowym masywnym MIMO. Architektura bezkomórkowa jest szczególnie atrakcyjna w przypadku nadchodzących scenariuszy wdrożeń 6G, takich jak kampus lub sieć prywatna przeznaczona dla branży przemysłowej, i jest postrzegana jako kluczowy czynnik umożliwiający technologię 6G.
Sekcja 10: Adaptacyjne i nieortogonalne systemy wielodostępu w 6G. Sieć komórkowa musi obsługiwać jednocześnie wielu aktywnych abonentów w skończonej ilości zasobów częstotliwości czasowej. Przewiduje się, że zarówno ortogonalne, jak i nieortogonalne wielokrotne dostępy będą podlegać dalszej ewolucji i odegrają kluczową rolę w nadchodzącym projekcie systemu 6G. Chociaż OFDM, OFDMA, SC-FDMA i NOMA zostały przyjęte w standardach sprzed 6G, techniki te będą odgrywać zasadniczą rolę w 6G, w konwencjonalnym paśmie poniżej 6 GHz i pasmach wysokich częstotliwości. Istnieje duże pole do dalszego wykorzystania tych technik w połączeniu z inteligentnymi powierzchniami odbijającymi, strukturą bezkomórkową, falami milimetrowymi, terahercowymi i technikami transmisji optycznej.

Etyka administrowania systemem



1. Oddzielne role: Nowoczesne centrum danych jest niemal abstrakcyjną jednostką. Jasne, ma swoją fizyczną obecność, szafa za szafą warcząc, stukając, piszcząc serwery, kilometr za kilometrem kabli sieciowych, potężne systemy klimatyzacji próbujące zgarnąć cały nadmiar ciepła i dziwny, samotny technik wędrujący przez sterylne, chłodne przejścia. Jednak dla większości ludzi centra danych są po prostu tam, ukryte za magicznymi interfejsami chmury i wirtualnymi portalami. Co więcej, niewiele firm może sobie pozwolić na prowadzenie własnych centrów danych. Bardzo często w grę wchodzi element dzielenia się zasobami fizycznymi i zasobami, i często zdarza się, że administratorzy i użytkownicy - czasami z różnych grup biznesowych, a nawet różnych organizacji - są zalogowani na tym samym serwerze. I właśnie tam mogą wystąpić tarcia i konflikty - i naruszenia etyczne.

2. Szanuj prywatność: w miarę jak świat staje się coraz bardziej globalny, bardziej otwarty i bardziej dostępny, rośnie też nasza potrzeba prywatności. Zdajemy sobie sprawę z nieuniknionej dychotomii naszego życia w erze cyfrowej. Prosimy o ujawnienie naszych danych osobowych w celu uzyskania (czasem przydatnej) funkcjonalności, jaką oferują współczesne cyfrowe cuda i gadżety. Za każdym razem, gdy udostępniamy tam nasze dane, narażamy się na niebezpieczeństwo. Osoby zajmujące stanowiska związane z danymi mają moralny obowiązek ochrony danych osobowych, bardziej niż kiedykolwiek wcześniej u ludzi. Niestety, cienka granica między tym, co uważamy za nasz prywatny świat, a tym, co świat postrzega jako wolne do wzięcia, często się zaciera.

3. Nie zmieniaj danych: możemy spierać się o nasze ulubione filmy, Star Wars vs. Star Trek (oczywiście Star Trek), gust muzyczny lub prędkość lotu nieobciążonej jaskółki; ale niekwestionowanym pięknem danych cyfrowych jest to, że są one dyskretne, absolutne i prawdziwe. "Zera i jedynki nie kłamią". Czyż nie?

4. Nie kradnij własności intelektualnej: bezprecedensowa i raczej nieuregulowana eksplozja Internetu nauczyła nas, że możemy mieć praktycznie wszystko, co cyfrowe, za darmo. Gdzieś jakoś można to mieć. Ta mentalność jest tak wszechobecna, że czasami zapominamy o sobie, nawet kiedy zakładamy buty robocze i idziemy do biura.

5. Nie kradnij komputerów: Anonimowość i poczucie winy są odwrotnie proporcjonalne. Im więcej masz tego pierwszego, tym mniej masz drugiego. W dużych centrach danych, z tysiącami nieobjętych gwarancją dysków twardych, które czekają na wywóz na złomowisko, kto przegapi jedną zakurzoną, pozbawioną kodów kreskowych cegiełkę z metalu i plastiku?

6. Nie idź tam, gdzie nie jesteś chciany: Ciekawość zabiła kota. Sprawiało to również, że znudzony inżynier IT wędrował po błyszczących biurowcach, badając podłogi, pociągając za klamki, czy to fizyczne, czy efemeryczne. Dzień z życia informatyka nieuchronnie wiąże się z poruszaniem się po świecie obszarów o ograniczonym dostępie, danych testowych, zapór ogniowych, baz danych pełnych tajemnic i cudów oraz pomocnych kolegów z odpowiednimi uprawnieniami dostępu. Pokusy, które istnieją w korytarzach i alejkach biurowych firmy, przenoszą się do świata oprogramowania.

7. Postępuj zgodnie z procedurami (i wynoś się): Inżynierowie z natury mają dociekliwe osobowości. Nieco dziecinna passa, która napędza innowacje w świecie technologii, powoduje również buntowniczą passę, jeśli chodzi o rutynową pracę. Poniższe procedury mogą być nudne, zwłaszcza jeśli ich nie rozumiesz lub się z nimi nie zgadzasz. W końcu procedury zostały stworzone przez kochających biurokrację menedżerów, a co oni wiedzą o SQL lub kontroli wersji?

8. Komunikuj zmiany: "Nie widać lasu z powodu drzew" było już przysłowiem, kiedy John Heywood napisał swoją kolekcję w 1546 roku, dobre cztery wieki przed narodzinami pierwszego komputera cyfrowego. Paradoksem świata informatyki jest to, że pomimo (a może właśnie z powodu) mnogości mediów, metod i narzędzi, których używamy do wymiany danych, wciąż borykamy się z podstawową komunikacją. Kiedy literówka w wykonanym poleceniu oprogramowania może kosztować firmy miliardy lub negatywnie wpłynąć na życie wielu ludzi, skuteczna, jasna i jednoznaczna komunikacja staje się najważniejsza.

9. Nie szkodzić: Ponowne uruchomienie serwera nie powinno być dużym problemem, prawda? Usunięcie wpisu nazwy użytkownika, do którego nikt nie miał dostępu przez rok, jest najprawdopodobniej nieszkodliwe, prawda? Administratorzy systemów mają niemal kapryśną zdolność siania spustoszenia wśród użytkowników, systemów i klientów. Taka odpowiedzialność może mieć negatywne skutki: sprawiać, że ludzie są lekkomyślni lub wstydliwi, szybko wprowadzają zmiany lub boją się dokonywać jakichkolwiek aktualizacji. Drugą stroną tego medalu jest to, że zdarzają się błędy i krzywda, niezależnie od intencji, procedur, przygotowań czy testów.

10. Rozbij szybę w nagłym wypadku: Kiedy coś pójdzie nie tak - a tak się stanie - ludzie często są zmuszeni do szybkiego działania, bez zbytniego czasu lub okazji na przemyślenie swoich działań. Niewystarczające dane, presja, nieuchronny wpływ na klienta - zmuszą naszą rękę do dokonywania wyborów w oparciu o mniej niż idealne informacje. Nasze zahamowania słabną, odsłaniając nasze instynkty - i nasze etyczne wychowanie - na żywioły. Postępowanie w sytuacjach awaryjnych jest prawdopodobnie jednym z najważniejszych ćwiczeń w życiu administratora systemu. Choć może wydawać się banalnie usprawiedliwione, aby rzucić ostrożność na wiatr, etyka odgrywa kluczową rolę w tym, co robimy podczas - i co równie ważne po - sytuacji awaryjnej w pracy.


6G- AI




Część 1: Metaheurystyczny protokół optymalizacji płomienia ćmy, energooszczędny protokół klastrowania dla sieci bezzałogowych statków powietrznych obsługujących technologię 6G

W proponowanej pracy autor przedstawia metaheurystyczny algorytm optymalizacji płomienia ćmy dla techniki energooszczędnego klastrowania (MMFO-EEC) dla sieci bezzałogowych statków powietrznych (UAV) z obsługą 6G. Główną intencją techniki MMFO-EEC jest sprawny wybór głowic klastrów (CH) i organizacji klastrów w sieciach 6GenabledUAV. Przedstawiona technika MMFO-EEC wykorzystuje głównie algorytm MFO do skutecznego wybierania odpowiednich UAV jako kanałów CH w sieci.

Część 2 : Nowatorskie przenoszenie danych za pomocą głębokiego uczenia się Model wykrywania cyberataków na potrzeby przetwarzania brzegowego w sieciach 6G

Omówiono nowatorski model odciążania danych z wykorzystaniem głębokiego uczenia się i wykrywania cyberataków (DADL-CAD) na potrzeby przetwarzania brzegowego w sieciach 6G. Proponowana technika DADL-CAD projektuje przede wszystkim model rekurencyjnej sieci neuronowej (RNN) do prognozowania przepływu ruchu w sieciach 6G obsługujących przetwarzanie brzegowe. Walidacja wydajności techniki DADL-CAD jest badana pod różnymi względami, a badanie porównawcze wykazało wyższość techniki DADL-CAD nad najnowszymi podejściami.

Część 3: Optymalizacja rozpuszczalności gazu Henry′ego za pomocą głębokiego uczenia się. Włączone prognozowanie przepływu ruchu w sieciach pojazdów z obsługą 6G

Autor rozwija nowatorską optymalizację rozpuszczalności gazu Henry′ego za pomocą techniki prognozowania przepływu ruchu z wykorzystaniem głębokiego uczenia się (HSGODL-TFF) dla sieci kołowych obsługujących 6G. Zaprezentowana technika HSGODLTFF ma przede wszystkim na celu prognozowanie poziomu ruchu w sieci VANET z obsługą 6G. Algorytm HSGO można zastosować do optymalnej modyfikacji hiperparametrów (takich jak szybkość uczenia się, liczba epok i wielkość partii) modelu DBN, poprawiając w ten sposób wydajność prognozowania. Walidację eksperymentalną modelu HSGODL-TFF przeprowadza się na danych testowych, a wyniki sprawdza się pod kilkoma względami.

Część 4: Metoda kwantyzacji wektorowej oparta na algorytmie Crow Search do kompresji obrazu w przemysłowym środowisku Internetu rzeczy z obsługą 6G

Przedstawiono nowatorskie podejście do kwantyzacji wektorowej oparte na algorytmie wyszukiwania wron, służące do kompresji obrazu w środowisku IIoT z obsługą 6G, zwane modelem CSAVQ-ICIIoT. Proponowany model CSAVQICIIoT ma na celu osiągnięcie efektywnej kompresji obrazu poprzez optymalizację procesu konstruowania książki kodowej na platformie IIoT obsługującej 6G. Technika CSAVQ-ICIIoT obejmuje technikę Linde - Buzo - Graya (LBG) z techniką kwantyzacji wektorowej (VQ) do kompresji obrazu.

Część 5: Projektowanie Optymalizatora Dingo obsługującego sztuczną inteligencję ds. Zarządzania Energią w Sieciach Komunikacyjnych 6G

Przedstawiono optymalizator dingo obsługujący sztuczną inteligencję do zarządzania energią (AIDO-EM) w sieciach 6G. Głównym celem prezentowanej techniki AIDO-EM jest minimalizacja zużycia energii i maksymalizacja żywotności urządzeń IoT obsługujących technologię 6G. Aby to osiągnąć, zastosowano nowy algorytm optymalizacji dingo (DOA) dla routingu z obsługą klastra, aby osiągnąć efektywną dystrybucję danych pomiędzy urządzeniami i wybrać efektywne głowice bram (GWH).

Część 6 : Adaptacyjna optymalizacja wielorybów z możliwością głębokiego uczenia się Sieć RefineDet do wspomagania widzenia w sieciach 6G

Tu omówiono adaptacyjną optymalizację wielorybów z siecią RefineDet z włączoną funkcją głębokiego uczenia (AWO-DLRDN) do wspomagania widzenia w sieciach 6G. Głównym założeniem techniki AWO-DLRDN jest określenie znajdujących się w pobliżu obiektów i ich przybliżonej odległości od osób niewidomych. Proponowana technika AWO-DLRDN podlega przede wszystkim procesowi powiększania danych i adnotacji obrazu jako etapowi wstępnego przetwarzania. Walidacja wydajności techniki AWO-DLRDN została przeprowadzona eksperymentalnie przy użyciu wzorcowego zbioru danych, a badanie porównawcze wykazało ulepszenia techniki AWODLRDN w porównaniu z innymi technikami.

Cześć 7 : Efektywna optymalizacja polowań na jelenie metodą wykrywania widma oparta na algorytmie w sieciach komunikacyjnych 6G

Zaproponowano nowatorskie, wydajne podejście do optymalizacji polowań na jelenie oparte na algorytmie wykrywania widma (EDHO-SSA) dla sieci komunikacyjnych 6G. Zaprezentowana technika EDHO-SSA ma na celu głównie zarządzanie dostępnością widm występujących w sieciach 6G. Technika EDHO-SSA opiera się na łowickim charakterze jeleniowatych. Wyprowadza również funkcję celu określającą wydajność SS, w tym różne parametry, takie jak energia i przepustowość. Przeprowadzono analizę wyników eksperymentów techniki EDHO-SSA i ocenę wyników w odniesieniu do różnych miar.

Cześć 8: Elitarny, opozycyjny program Igrzysk Śmierci oparty na optymalizacji wyszukiwania, oparty na współpracy schemat wykrywania widma dla kognitywnych sieci radiowych 6G

W proponowanej pracy omówiono schemat elitarnego, opozycyjnego igrzysk głodowych, oparty na optymalizacji wyszukiwania w oparciu o wspólne wykrywanie widma (EOHGSO-CSS) dla kognitywnych sieci radiowych 6G (CRN). Technika EOHGSO-CSS ma na celu głównie efektywną alokację widma w sieciach CRN 6G. Proces SS można przeprowadzić przy użyciu różnych parametrów, takich jak zakłócenia, czas wykrywania, wartość progowa, energia, przepustowość i alokacja mocy. Poza tym algorytm EOHSGO powstał w wyniku integracji elitarnego uczenia się opartego na opozycji (EOBL) z tradycyjnym algorytmem HGSO w celu poprawy jego wydajności.




6G



Wstęp

Najnowocześniejsze generacje mobilne

Spojrzenie na przyszłość po 2020 r. - B5G

Droga do przyszłej sieci bezprzewodowej

Sieci 6G

Bezpieczeństwo 6G

Przypadki użycia 6G

Przyszły zakres i wyzwania




Technologia wielokrotnego dostępu w 5G

Zarys technologii wielokrotnego dostępu

Teoretyczne podstawy technologii NMA

Kandydujące technologie NMA w 5G

Zastosowanie technologii NMA w 5G




Mity 5G


Część 1 to wprowadzenie do 5G i powiązanych technologii. Chodzi o to, aby wszyscy czytelnicy znaleźli się na tej samej stronie, aby zrozumieli dalszą dyskusję.

Część 2 analizuje lekcje historii, patrząc wstecz na przejścia przez poprzednie generacje i pokazanie, jakie proste ekstrapolacje trendów przewidziałyby dla 5G. Omawiamy, że gdyby podążano za poprzednimi trendami, 5G stałoby się szeroko wdrożone w 2022 r., zapewniając realistyczne szybkości transmisji danych dla użytkowników końcowych na poziomie 200 megabitów na sekundę (Mb/s) i wzrost przepustowości około dwa razy w stosunku do obecnych sieci.

W Części 3 przeanalizowano, czy taki wzrost szybkości i wydajności jest potrzebny. Pokazuje, że użytkownicy nie cenią prędkości powyżej tych, które są już powszechnie dostępne w 4G. Pokazuje, że chociaż wymagania dotyczące danych obecnie szybko rosną, tempo wzrostu spowalnia i, jeśli zostanie ekstrapolowane, spowoduje plateau wymagań dotyczących szybkości transmisji danych około 2027 r., Przy niewielkim wzroście w erze 5G. W związku z tym stwierdza, że postępy w szybkości i przepustowości, jakie może przynieść 5G, nie są potrzebne.

Część 4 rozważa, czy dostępna jest technologia zapewniająca takie korzyści. Pokazuje, że dalsza poprawa przepustowości jest bardzo trudna i prawdopodobnie będzie kosztowna w realizacji, podnosząc koszt świadczenia dla operatorów sieci komórkowych (MNO). Poprawa prędkości jest dostępna tylko w pasmach o bardzo wysokich częstotliwościach, które są ograniczone do gęstych obszarów miejskich, a także wiążą się z wysokimi kosztami. Dlatego nie ma łatwych korzyści z ulepszeń technologicznych. Sugeruje to również, że niektóre zmiany w sieci szkieletowej mogą mieć nieoczekiwane skutki uboczne w postaci udostępnienia różnych struktur branżowych, dzieląc funkcje zapewniane przez operatorów sieci komórkowych na wielu graczy.

Część 5 analizuje ekonomię branży i pokazuje, że operatorzy sieci ruchomej znajdują się w sytuacji, w której przychody spadają w stosunku do produktu krajowego brutto (PKB), a rentowność wynosi tylko połowę średniej we wszystkich sektorach przemysłu. Niewielu spodziewa się, że zmieni się to wraz z 5G, w wyniku czego inwestycje będą wysoce nieatrakcyjne, chyba że wzrost przychodów może być stymulowany poprzez dostarczanie nowych usług.

Część 6 zadaje pytanie: dlaczego, skoro sytuacja jest tak ponura, cała branża wydaje się tak popierać 5G? Mówię, że nie jest w interesie żadnego z kluczowych graczy poddawanie w wątpliwość uporczywej wizji 5G i że dla niektórych pojawienie się 5G jest niezbędne dla ich przetrwania.

W Części 7 bardziej szczegółowo omówiono wizje 5G. Pokazuje, że często są one nieosiągalne. Wspólna wizja operatorów sieci ruchomych, określona przez organizację sieci komórkowych nowej generacji (NGMN), jest szczegółowo analizowana i wykazano, że każda usługa może być dostarczana za pośrednictwem istniejących rozwiązań bezprzewodowych, takich jak 4G, lub jest nieopłacalna ekonomicznie. W tym rozdziale wyjaśniono, że obecne wizje są wadliwe, a ich rozpiętość i brak rzeczywistości wprowadza zamieszanie. Niewiele osób wie, czym właściwie jest 5G.

Część 8 zadaje pytanie, co mogłoby się wydarzyć w miejsce obecnej wizji 5G. Sugeruje to, że stała łączność prawie 10 Mb/s wszędzie jest bardziej przekonującą wizją i pokazuje, jak można ją zapewnić za pośrednictwem połączenia 4G i Wi-Fi. W rozdziale przedstawiono również możliwą ścieżkę wprowadzenia tego rodzaju łączności, pokazując, jak może to spowodować zmiany sejsmiczne w strukturze przemysłu.

Część 9 przygląda się szerzej światu komunikacji, biorąc pod uwagę wpływ regulacji, widma i dostępu szerokopasmowego w domu. Pokazuje, że regulacje mają na celu utrzymanie status quo, którego wczesne Części okazały się nie do utrzymania, i przewiduje, że spowoduje to dalsze problemy dla każdej wizji 5G.

Część 10 podsumowuje wyniki , wyjaśnia, dlaczego wizja 5G, jaka jest obecnie propagowana przez głównych graczy, jest mitem i omawia, co jest bardziej prawdopodobne. W tej części pokazano, jak świat połączonych urządzeń, zwiększony zasięg, niezliczone nowe aplikacje i większą produktywność można osiągnąć szybciej i taniej niż przy obecnej wizji.




Technologia 5G



Technologia 5G



Technologia 5G


Wizja dla 5G (w pigułce)

Nowy interfejs powietrzny 5G

Nowe quasi-deterministyczne podejście do modelowania kanałów w pasmach fal milimetrowych

Systemy antentowe o dużej skali

Skutki zagęszczania i losowości wdrażania infrastruktury w sieciach komórkowych

Łącza bezprzewodowe urządzenie-urządzenie (D2D) do komunikacji między maszynami (M2M)

Buforowanie w dużych sieciach bezprzewodowych

Pełny dupleks

Odłączony dostęp do łącza uplink i downlink w heterogenicznych sieciach

Wirtualizacja sieci bezprzewodowych

Licencjonowany dostęp współdzielony (LSA) i trójpoziomowe modele podziału spektrum: regulacje, perspektywy biznesowe i technologiczne

Epilog: bezprzewód poza 5G






mmWave massive MIMO : "cyngiel" killera 5G




Wprowadzenie do mmWave

Sekcja I (Od SISO do mmWave massive MIMO): Dokonamy przeglądu wcześniejszych badań dotyczących SISO i MIMO oraz podsumowano powstającą technologię mmWave massive MIMO. Opiszemy również główne aspekty modelowania kanałów od mikrofalowego SISO do mmWave massive MIMO.

Sekcja II (Hybrydowa matryca antenowa dla mmWave massive MIMO): Przedstawimy architekturę masywnej hybrydowej matrycy, w której elementy antenowe są pogrupowane w wiele analogicznych podnośników, a pojedynczy sygnał cyfrowy jest odbierany lub wysyłany do każdej podtablicy. Zapewnia niedrogie i wykonalne przestrzennie rozwiązanie dla masywnej matrycy mmWave i może osiągnąć porównywalną wydajność z całkowicie cyfrową matrycą dzięki czasowej i przestrzennej rzadkości kanałów propagacji mmWave. Rozpoczynamy od przedstawienia architektury macierzy hybrydowych, podkreślając dwie typowe konfiguracje przeplatanych i zlokalizowanych tablic. Następnie przedstawiamy cztery opcjonalne implementacje sprzętowe tej architektury. Konstrukcja macierzy jest omawiana przez układy anten quasi-Yagi i ułożoną antenę krosową z prostopadłym podłożem zasilającym. Wprowadzono również dwa prototypy opracowane przez CSIRO i Samsung. Po przejrzeniu rozwoju sprzętu, w tym rozdziale omówiono techniki przetwarzania sygnałów dla macierzy hybrydowych, ze szczególnym uwzględnieniem oceny kąta przybycia, LOS MIMO dla pojedynczego użytkownika i jego pojemności oraz technik wielokrotnego dostępu do podziału przestrzennego. Podsumowując, ten rozdział pokazuje, że ogromna macierz hybrydowa jest bardzo obiecującą techniką dla mmWave massive MIMO.

Sekcja III (Kodowanie i wykrywanie dla mmWave massive MIMO): Omówimy schemat ponownego użycia pilota dla łącza w górę masywnego systemu MIMO. Następnie wyznaczono dolną granicę przepustowości systemu, która ma zastosowanie do dowolnej liczby anten. W przypuszczalnym scenariuszu każdy użytkownik najpierw przesyła sekwencję szkoleniową lub pilotującą do stacji bazowej, gdzie maksymalny stosunek łączący odbiornik dekoduje ten komunikat w celu ustalenia odpowiedzi kanału, która następnie może zostać wykorzystana do poprawy średniej przepustowości. Rozważana jest heksagonalna geometria systemu, w której każda komórka zawiera równomiernie rozmieszczonych użytkowników i stały wzorzec ponownego użycia sekwencji pilotującej. Wyprowadzona dolna granica jest ograniczona przez trzy rodzaje zakłóceń: interferencje międzykomórkowe, interferencje wewnątrzkomórkowe i zanieczyszczenie pilotowe. Te wskaźniki zostały wykorzystane do dalszego rozróżnienia między wydajnością sieci o ultra wysokiej częstotliwości i mmWave. Ponadto analizowany jest zestaw warunków, w tym liczba użytkowników, anteny, współczynnik ponownego użycia pilota i okres koherencji, aby osiągnąć dolną granicę przepustowości. Wyniki wskazują, że czynnik ponownego wykorzystania odgrywa kluczową rolę w najmniej osiągalnej wydajności. Minimalny współczynnik ponownego wykorzystania jest określony ilościowo dla danej gęstości użytkownika i okresu koherencji.

Sekcja IV (Wstępne kodowanie dla mmWave massive MIMO): Krótko omówimy tradycyjne cyfrowe wstępne kodowanie dla systemów MIMO i analogowe formowanie wiązki dla komunikacji mmWave. Pokazuje to, że nie można ich bezpośrednio rozszerzyć na masywne systemy MIMO mmWave. Tak więc zbadano nowy schemat wstępnego kodowania zwany hybrydowym analogowym i cyfrowym wstępnym kodowaniem. Kluczową ideą hybrydowego wstępnego kodowania jest podzielenie konwencjonalnego cyfrowego prekodera na duży analogowy prekoder (realizowany przez dużą liczbę analogowych przesuwników fazowych) w celu zwiększenia wzmocnienia matrycy antenowej i mały cyfrowy prekoder (realizowany przez niewielką liczbę RF łańcuchy), aby anulować zakłócenia. Dzięki niskiej charakterystyce kanałów mmWave w domenie przestrzennej wystarczy mały cyfrowy prekoder, aby osiągnąć zysk przestrzennego multipleksowania, co sprawia, że hybrydowe prekodowanie cieszy się satysfakcjonującą wydajnością sumaryczną przy niewielkiej liczbie łańcuchów RF. Wreszcie, porównano wstępne kodowanie hybrydowe z tradycyjnym cyfrowym kodowaniem wstępnym i analogowym kształtowaniem wiązki, a także przedstawiono inne potencjalne schematy wstępnego kodowania dla MIMO masywnego mmWave.

Sekcja V (Szacowanie kanału dla mmWave massive MIMO): Omówimy najnowocześniejsze schematy szacowania kanałów dla mmWave massive MIMO. Najpierw wprowadzamy trzy kluczowe elementy w masywnych systemach MIMO mmWave, w tym rzadkie masywne kanały MIMO mmWave, hybrydową strukturę nadajnika-odbiornika MIMO z analogową siecią z przesuwnikiem fazowym oraz odbiornik z jednobitowym przetwornikiem analogowo-cyfrowym. Następnie omawia szczegółowo cztery rodzaje schematów szacowania kanału dla masywnych systemów MIMO mmWave, w tym oszacowanie kanału oparte na CS, oszacowanie kanału z odbiornikiem jednobitowym, oszacowanie kanału parametrycznego oraz oszacowanie podprzestrzeni i oszacowanie kanału w oparciu o rozkład, a także omawia ich zalety i zalety Cons. Na koniec omawia pokrótce, w jaki sposób istniejące schematy szacowania kanałów pierwotnie zaproponowane dla konwencjonalnego masywnego MIMO z mikrofalami można dostosować do mmWave masywnego MIMO.

Sekcja VI (Sprzężenie zwrotne kanału dla mmWave massive MIMO): Omówimy dwa różne podejścia do sprzężenia zwrotnego kanału dla FDD mmWave massive MIMO, a także metodę wstępnego kodowania łącza w dół, która nie wymaga sprzężenia zwrotnego CSI. Po pierwsze, zauważając, że skorelowany przestrzennie kanał MIMO może mieć rzadką reprezentację poprzez pewne transformacje liniowe, wprowadzono metodę redukcji obciążenia zwrotnego opartą na teorii CS. Po drugie, opisuje praktyczny i wydajny mechanizm sprzężenia zwrotnego kanału wykorzystujący wielostopniowe formowanie wiązki, w którym symbole pilota są transmitowane na wiązkach w dziedzinie kątowej. Na koniec szczegółowo badana jest technika wstępnego kodowania łącza w dół oparta na wiedzy o kątach przybycia ścieżek propagacji zamiast pełnego CSI.

Sekcja VII (Modele kanałów dla mmWave massive MIMO: W tej sekcji po raz pierwszy dokonamy przeglądu i wyróżnienia głównych wyróżniających się cechy masywnych kanałów MIMO mmWave pod względem trzech warstw: mechanizmów propagacji, modelu kanału statycznego i modelu kanału dynamicznego. Opiszemy i omówimy najnowocześniejsze modelowanie i brzmienie odpowiednio masywnego kanału MIMO mmWave. Mimo że obecnie dostępne pomiary lub modele masywnych kanałów MIMO mmWave są nadal bardzo ograniczone, wielu badaczy dokłada starań, aby stworzyć standardowy model kanału, który może skutecznie poprowadzić projekt systemu dla 5G i wyższych.

Sekcja VIII (Techniki umożliwiające komunikację mmWave dla systemów bezprzewodowych 5G:perspektywa na poziomie łącza): Przeanalizujemy wydajność systemów mmWave, które można badać na poziomie sieci lub na poziomie łącza, ze szczególnym uwzględnieniem wydajności na poziomie łącza. Wydajność systemu bezprzewodowego mmWave na poziomie łącza zależy od wielu czynników, w tym od schematu transmisji (tj. od tego, czy stosujemy formowanie wiązki, multipleksowanie czy oba), charakterystyki kanału i struktury fali przesyłanego sygnału.

Sekcja IX (Projektowanie warstwy MAC dla mmWave massive MIMO): Ta sekcja zawiera przegląd planowania użytkownika od SISO do masywnego MIMO w oparciu o model kanału zanikania Rayleigha odpowiedni dla bogatych środowisk rozpraszania w dolnym paśmie komórkowym. Następnie wprowadza się harmonogramowanie użytkownika dla mmWave massive MIMO w oparciu o model kanału odpowiedni dla rzadkich kanałów propagacji mmWave. Różne właściwości między nimi zapewniają podstawowe wyniki teoretyczne.

Sekcja X (Rozszerzony wielokrotny dostęp dla mmWave massive MIMO): Przedstawimy nowatorski schemat wielokrotnego dostępu dla mmWave masywnego MIMO, oparty na półortogonalnym szkoleniu kanałów i transmisji danych, tak że w danym przedziale czasowym niektórzy skoordynowani użytkownicy wydają się ortogonalni podczas gdy pozostali użytkownicy przesyłają nieortogonalnie. Schemat jest ukształtowany jako półortogonalny wielokrotny dostęp (SOMA). SOMA umożliwia przesyłanie dodatkowych danych, a także planowanie większej liczby użytkowników dla transmisji łącza zwrotnego w przeciwieństwie do tradycyjnego protokołu TDD, co powoduje zauważalny wzrost wydajności widmowej masywnego MIMO. Rozwiązanie zostaje następnie rozszerzone na uogólnioną SOMA (GSOMA) poprzez grupowanie użytkowników, przy czym zasada SOMA jest stosowana na grupę, a sekwencje pilotujące w obrębie każdej grupy są odwzorowywane na te same zasoby częstotliwości w oparciu o multipleksowanie z podziałem kodu. Proponowane schematy SOMA i GSOMA są analizowane przy użyciu granic teoretycznych informacji w celu uzyskania odpowiedniej możliwej do uzyskania łącznej przepustowości.

Sekcja XI (Projekt frontu mmWave massive MIMO): Omawimy projekt frontu masywnych sieci HetN opartych na MIMO mmWave. Gęste rozmieszczenie małych komórek wymaga opłacalnego frontu o dużej pojemności, aby pomieścić 1000-krotne zwiększenie pojemności komórkowej dla 5G. Na tym tle masywny przód siatki mmWave oparty na MIMO cieszy się w ostatnich latach coraz większym zainteresowaniem. W porównaniu z istniejącymi rozwiązaniami frontu działającymi w pasmach niskiej częstotliwości, fronthaul mmWave jest kompatybilny z ultra-gęstym rozmieszczeniem małych komórek, ponieważ łącze frontu może być krótkie (zwykle 50-200 m), aby złagodzić wysoką utratę ścieżki sygnałów mmWave i zagwarantować Łącze LOS. Ponadto, wykorzystując powstającą technikę masywnego MIMO mmWave, topologię siatki czołowej można łatwo ułatwić, aby ułatwić instalację i zmniejszyć koszty wdrożenia. Dodatkowo techniki formowania wiązki mmWave massive MIMO mogą uczynić siatkę przednią bardziej elastyczną i inteligentną. Przedstawiamy badanie istniejących rozwiązań fronthaul, a następnie zapotrzebowanie rynku sieci fronthaul na przyszłe sieci 5G HetNets. Co ważniejsze, przedstawia koncepcję masywnej sieci kratowej opartej na MIMO mmWave dla fronthaul, gdzie szczegółowo omawia się niektóre kwestie, w tym techniki antenowe, projektowanie formowania wiązki, protokół dupleksowania i wewnątrzpasmowy fronthaul.

Sekcja XII (Sieci komórkowe MmWave: Stochastyczne modelowanie geometrii, analiza i walidacja eksperymentalna): Wprowadzamy nowe ramy matematyczne do analizy sieci komórkowych mmWave. Jego osobliwość polega na rozważeniu realistycznych modeli utraty ścieżki i blokady, które pochodzą z danych eksperymentalnych. Model utraty ścieżki uwzględnia różne rozkłady warunków propagacji LOS i innych niż LOS. Model blokady obejmuje również stan wyłączenia, który zapewnia lepszą reprezentację możliwości wyłączenia transmisji mmWave. Poprzez modelowanie lokalizacji BS jako punktów procesu punktu Poissona uzyskuje się proste i dokładne całki, a także przybliżone i zamknięte formuły do obliczania prawdopodobieństwa pokrycia i średniej szybkości. Przy pomocy symulacji Monte Carlo i przy użyciu danych eksperymentalnych wykazano, że przybliżenie ograniczone szumem jest wystarczająco dokładne dla typowych gęstości sieci. Przybliżone ograniczenie szumów może jednak nie być wystarczająco dokładne dla wdrożeń UDN i dla pasm transmisyjnych subgigaherców. W takich przypadkach podejście analityczne jest uogólnione w celu uwzględnienia zakłóceń innych komórek kosztem zwiększenia jego złożoności obliczeniowej. Dokładność podejścia do modelowania geometrii stochastycznej dla sieci komórkowych mmWave jest badana poprzez wyraźne uwzględnienie realistycznych lokalizacji BS, śladów budynków, blokad przestrzennych i propagacji kanałów. Podkreślamy, że wystarczająco gęste sieci komórkowe mmWave są w stanie przewyższyć mikrofalowe sieci komórkowe pod względem zasięgu i szybkości.




10 Filarów 5G



I. Ewolucja istniejących RAT

5G nie będzie konkretnym RAT, raczej jest to zbiór RAT, w tym ewolucja istniejących RAT, uzupełniona nowatorskimi projektami rewolucyjnymi. W związku z tym, pierwszym i najbardziej ekonomicznym rozwiązaniem problemu awarii 1000x jest poprawa istniejących RAT pod względem SE, EE i latencji, a także wspieranie elastycznego współdzielenia RAN wśród wielu dostawców. W szczególności LTE musi ewoluować, aby obsługiwać masowy / 3D MIMO, aby w dalszym stopniu wykorzystywać przestrzenny stopień swobody (DOF) dzięki zaawansowanemu formowaniu wiązki wielu użytkowników, w celu dalszego zwiększenia możliwości eliminacji zakłóceń i koordynacji interferencji w scenariuszu wdrażania hiperdencyjnych małych komórek. WiFi musi również ewoluować, aby lepiej wykorzystać dostępne nielicencjonowane widmo. IEEE 802.11ac, najnowsza ewolucja technologii Wi-Fi, może zapewnić szerokopasmowe potoki bezprzewodowe z szybkością transmisji wielu Gb / s. Wykorzystuje szerszą przepustowość do 160 MHz w mniej zanieczyszczonym paśmie ISM 5 GHz, wykorzystując do 256 kwadraturowej modulacji amplitudy (QAM). Może również obsługiwać jednoczesne transmisje do czterech strumieni przy użyciu techniki MIMO dla wielu użytkowników. Zastosowana technika formowania wiązki zwiększyła zasięg o kilka rzędów wielkości w porównaniu z poprzednikiem (IEEE 802.11n). Wreszcie duże firmy telekomunikacyjne, takie jak Qualcomm, pracują ostatnio nad rozwojem LTE w nielicencjonowanym spektrum, a także integrują nadajniki-odbiorniki 3G / 4G / WiFi w jedną jednostkę stacji bazowej (BS). W związku z tym przewiduje się, że przyszłe UE będzie wystarczająco inteligentne, aby wybrać najlepszy interfejs do połączenia z RAN w oparciu o wymagania QoS działającej aplikacji.

II. Hyperdense Small-Cell Deployment

Wdrożenie Hyperdense dla małych komórek jest kolejnym obiecującym rozwiązaniem, które spełni wymagania 1000x pojemności, a jednocześnie wprowadzi dodatkowe EE do systemu. To innowacyjne rozwiązanie, nazywane również HetNet, może znacznie zwiększyć efektywność widmową obszaru (b / s / Hz / m2). Ogólnie rzecz biorąc, istnieją dwa różne sposoby realizacji HetNet: (i) nakładanie systemu komórkowego na małe komórki tej samej technologii, to znaczy na mikro-, piko lub femtokomórki; (ii) nakładanie małych komórek różnych technologii w przeciwieństwie do tylko komórek (np. High Speed Packet Access (HSPA), LTE, WiFi itd.). Pierwsza z nich nazywana jest wielowarstwową HetNet, natomiast druga jest nazywana HetNetem wielorakim. Qualcomm, wiodąca firma zajmująca się wyzwaniem 1000x pojemności poprzez hiperdensyjne wdrożenia małych komórek, wykazała, że dodawanie małych komórek może skalować pojemność sieci niemal liniowo. Oznacza to, że pojemność podwaja się za każdym razem, gdy podwoimy liczbę małych komórki. Jednak zmniejszenie rozmiaru komórki zwiększa interferencję międzykomórkową i wymaganą sygnalizację sterowania. Aby przezwyciężyć tę wadę, potrzebne są zaawansowane techniki zarządzania interferencjami międzykomórkowymi na poziomie systemu wraz z uzupełniającymi technikami eliminowania zakłóceń w urządzeniach użytkownika. Wzmocnienie małych komórek było centralnym punktem LTE R-12, gdzie wprowadzono nowy typ nośnika (NCT) (znany również jako Lean Carrier), aby pomóc małym komórkom w makrokomórce gospodarza. Pozwala to na bardziej wydajne działanie płaszczyzny sterowania (np. Do zarządzania mobilnością, synchronizacji, alokacji zasobów itp.) Przez warstwę makro, zapewniając jednocześnie wysoką pojemność i efektywną widmowo płaszczyznę danych przez małe komórki. Wreszcie, zmniejszenie rozmiaru komórki może również poprawić EE sieci poprzez zbliżenie sieci do UE, a tym samym zmniejszenie budżetu mocy łączy bezprzewodowych

III. Sieć samoorganizująca się

Zdolność do samoorganizacji sieci (SON) to kolejny kluczowy element 5G. Wraz ze wzrostem populacji małych komórek SON nabiera większego rozpędu. Prawie 80% ruchu bezprzewodowego generowane jest w pomieszczeniach. Aby przenosić ten olbrzymi ruch, potrzebujemy hiperdentycznych wdrożeń małych komórek w domach - instalowanych i utrzymywanych głównie przez użytkowników - poza kontrolą operatorów. Te małe komórki wewnętrzne muszą być konfigurowalne i instalowane w sposób "plug and play". Ponadto muszą mieć zdolność SON, aby inteligentnie dostosować się do sąsiednich małych komórek, aby zminimalizować zakłócenia międzykomórkowe. Na przykład mała komórka może to zrobić poprzez autonomiczną synchronizację z siecią i sprytne dostosowanie zasięgu radiowego.

IV. Komunikacja typu maszynowego

Oprócz ludzi łączenie maszyn mobilnych jest kolejnym podstawowym aspektem 5G. Komunikacja typu maszynowego (MTC) to pojawiająca się aplikacja, w której jeden lub obaj użytkownicy końcowi sesji komunikacyjnej obejmują maszyny. MTC narzuca dwa główne wyzwania w sieci. Po pierwsze, liczba urządzeń, które należy podłączyć, jest ogromnie duża. Ericsson (jedna z wiodących firm badających 5G) przewiduje, że 50 miliardów urządzeń musi być połączonych w przyszłym społeczeństwie sieciowym; firma przewiduje, że "wszystko, co może być korzystne z połączenia, zostanie połączone'" Innym wyzwaniem narzuconym przez MTC jest przyspieszenie zapotrzebowania na zdalne sterowanie urządzeniami mobilnymi (takimi jak pojazdy) w czasie rzeczywistym za pośrednictwem sieci. Wymaga to wyjątkowo niskiego opóźnienia poniżej jednej milisekundy, zwanego "dotykowym Internetem", dyktującego poprawę 20-krotnego opóźnienia z 4G do 5G.

V. Opracowywanie RAT z falami milimetrowymi

Tradycyjne widmo poniżej 3 GHz staje się coraz bardziej zatłoczone, a obecne RAT zbliżają się do limitu pojemności Shannona. W związku z tym rozpoczęto już badania nad odkrywaniem pasm cm i fal dla komunikacji mobilnej. Chociaż badania w tej dziedzinie są jeszcze w powijakach, wyniki wyglądają obiecująco. Istnieją trzy główne przeszkody dla komunikacji mobilnej mmWave. Po pierwsze, utrata ścieżki jest relatywnie wyższa w tych pasmach w porównaniu z konwencjonalnymi pasmami poniżej 3GHz. Po drugie, fale elektromagnetyczne mają tendencję do rozprzestrzeniania się w kierunku Line-Of-Sight (LOS), co sprawia, że łącza radiowe są podatne na zablokowanie przez ruchome obiekty lub ludzi. Wreszcie, straty penetracji przez budynki są znacznie wyższe w tych pasmach, blokując zewnętrzne RAT dla użytkowników wewnętrznych. Pomimo tych ograniczeń istnieje wiele zalet komunikacji mmWave. Ogromna ilość widma dostępna jest w paśmie mmWave; na przykład przy 60 GHz dostępne jest 9 GHz nielicencjonowanego widma. Ta ilość widma jest ogromna, zwłaszcza, gdy uważamy, że globalne przydzielone widmo dla wszystkich technologii komórkowych prawie nie przekracza 780 MHz. Ta ilość widma może całkowicie zrewolucjonizować komunikację mobilną poprzez dostarczenie ultra-szerokopasmowych bezprzewodowych rur, które mogą bezproblemowo kleić przewodowe i bezprzewodowe sieci. Inne zalety komunikacji mmWave obejmują małe rozmiary anten (λ/ 2) i ich małe separacje (również około λ / 2), co pozwala na pakowanie dziesiątek elementów antenowych w zaledwie jeden centymetr kwadratowy. To z kolei pozwala nam uzyskać bardzo wysokie zyski kształtowania wiązki na stosunkowo małych obszarach, które mogą być realizowane zarówno w BS, jak iw UE. Wykorzystując inteligentne anteny z fazowaną matrycą, możemy w pełni wykorzystać przestrzenny stopień swobody kanału bezprzewodowego (za pomocą SDMA), co może jeszcze bardziej zwiększyć wydajność systemu. Wreszcie, gdy stacja ruchoma porusza się, ciężary kształtujące wiązkę można dostosować adaptacyjnie, tak aby wiązka anteny zawsze wskazywała BS. Niedawno Samsung Electronics, lider branży badającej pasma mmWave do komunikacji mobilnej, przetestował technologię, która może osiągnąć prędkość transmisji 2 Gb / s przy zasięgu 1 km w środowisku miejskim. Ponadto profesor Theodore Rappaport i jego zespół badawczy z Polytechnic Institute of New York University wykazali, że komunikacja mobilna o częstotliwości 28 GHz w gęstym środowisku miejskim, takim jak Manhattan, NY, jest możliwa do zrealizowania przy rozmiarze komórki 200 m przy użyciu dwóch anten 25 dBi , jeden w BS, a drugi w UE, co jest łatwo osiągalne za pomocą anten macierzowych i techniki formowania wiązki. Wreszcie, utrata liści dla mmWaves jest znacząca i może ograniczać rozmnażanie. Ponadto, transmisje mmWave mogą również doświadczyć znacznego tłumienia w obecności ulewnego deszczu, ponieważ krople deszczu są mniej więcej tej samej wielkości co długości fal radiowych (milimetry), a zatem mogą powodować rozpraszanie. Dlatego w ramach rozwiązania mmWave może być potrzebny zapasowy system komórkowy działający w starszych pasmach poniżej 3 GHz

VI. Przeprojektowanie łączy typu backhaul

Przeprojektowanie łączy typu backhaul jest kolejnym krytycznym problemem 5G. Równolegle z ulepszaniem RAN, łącza typu backhaul muszą być również przeprojektowane, aby przenosić ogromną ilość ruchu użytkowników generowanego w komórkach. W przeciwnym razie łącza dosyłowe wkrótce staną się wąskimi gardłami, zagrażając prawidłowemu działaniu całego systemu. Problem nabiera tempa wraz ze wzrostem populacji małych komórek. Można rozważyć różne media komunikacyjne, w tym światłowód, mikrofalę i falę mm. W szczególności można rozważyć łącza mmWave punkt-punkt wykorzystujące anteny macierzowe z bardzo ostrymi wiązkami, aby zapewnić niezawodne samo-backhaulowanie bez zakłócania innych komórek lub łączy dostępu.

VII. Efektywność energetyczna

EE pozostanie ważnym zagadnieniem projektowym podczas opracowywania 5G. Obecnie technologie informacyjno-komunikacyjne (ICT) zużywają aż 5% energii elektrycznej produkowanej na całym świecie i odpowiadają za około 2% globalnych emisji gazów cieplarnianych - w przybliżeniu odpowiada to emisjom wytwarzanym przez przemysł lotniczy. Bardziej dotyczy to faktu, że jeśli nie podejmiemy żadnych środków mających na celu zmniejszenie emisji dwutlenku węgla, przewiduje się, że wkład ten podwoi się do 2020 r. W związku z tym konieczne jest dążenie do energooszczędnych podejść projektowych z łączy RAN i dosyłowych do urządzeń UE. Korzyści płynące z projektowania energooszczędnych systemów są różnorodne. Po pierwsze, może odgrywać ważną rolę w zrównoważonym rozwoju poprzez zmniejszenie śladu węglowego samego przemysłu mobilnego. Po drugie, ICT jako podstawowa technologia wspomagająca przyszłe inteligentne miasta mogą również odgrywać zasadniczą rolę w zmniejszaniu śladu węglowego innych sektorów (np. Transportu). Po trzecie, może zwiększyć przychody operatorów telefonii komórkowej poprzez zmniejszenie wydatków operacyjnych (Opex) dzięki oszczędności na rachunkach za energię elektryczną. Po czwarte, obniżenie kosztu "Joule per bit" może zapewnić przystępność cenową usług mobilnych dla użytkowników, umożliwiając ustalanie stawek ryczałtowych pomimo 10-100-krotnej poprawy przepływności danych oczekiwanej do 2020 roku. UE, które TNS określiła jako firma zajmująca się badaniem rynku jako kryterium numer jeden dla większości konsumentów kupujących telefon komórkowy.

VIII. Przydział nowego widma dla 5G

Kolejną istotną kwestią 5G jest przydzielenie nowego widma do zasilania komunikacji bezprzewodowej w następnej dekadzie. 1000-krotny wzrost natężenia ruchu jest trudny do opanowania tylko dzięki poprawie wydajności widmowej lub hiper-zagęszczeniu. W rzeczywistości wiodące firmy telekomunikacyjne, takie jak Qualcomm i NSN wierzą, że oprócz innowacji technologicznych, aby zaspokoić popyt, potrzeba 10 razy więcej widma. Alokacja pasma około 100 MHz w paśmie 700 MHz i kolejna szerokość pasma 400 MHz przy około 3,6 GHz, a także potencjalna alokacja kilku pasm GHz w pasmach cm lub mmWave do 5G będzie centralnym punktem kolejnej konferencji WRC , organizowane przez ITU-R w 2015 roku.

IX. Udostępnianie widma

Proces regulacyjny dotyczący nowego przydziału widma jest często bardzo czasochłonny, więc efektywne wykorzystanie dostępnego widma ma zawsze kluczowe znaczenie. Innowacyjne modele przydziału widma (inne niż tradycyjne przydziały licencjonowane lub nielicencjonowane) mogą zostać przyjęte w celu przezwyciężenia istniejących ograniczeń regulacyjnych. Wiele widma radiowego jest tradycyjnie przydzielane do radarów wojskowych, gdzie widmo nie jest w pełni wykorzystywane przez cały czas (24/7) lub w całym regionie geograficznym. Z drugiej strony, czyszczenie widma jest bardzo trudne, ponieważ niektóre widma nigdy nie mogą być czyszczone lub mogą być czyszczone tylko przez bardzo długi czas; poza tym widmo może być czyszczone w niektórych miejscach, ale nie w całym kraju. W związku z tym Qualcomm zaproponował model autoryzowanego / licencjonowanego wspólnego dostępu (ASA / LSA) do wykorzystania widma w małych komórkach (o ograniczonym zasięgu) bez zakłócania pracy obecnego użytkownika (np. Radarów wojskowych). Ten rodzaj modelu przydziału widma może skompensować bardzo powolny proces czyszczenia widma. Warto również wspomnieć, że wraz z przyspieszeniem wzrostu ruchu mobilnego ważna staje się refarming widma, aby wyczyścić wcześniej przydzielone widmo i udostępnić je dla 5G. Koncepcje radia kognitywnego można również ponownie rozważyć, aby wspólnie korzystać z licencjonowanych i nielicencjonowanych widm. Wreszcie, nowe modele współdzielenia widma mogą być potrzebne, ponieważ obsługa sieci wielu najemców staje się powszechna

X. Wirtualizacja RAN

Ostatnim, ale nie mniej ważnym czynnikiem 5G jest wirtualizacja RAN, umożliwiająca współdzielenie infrastruktury bezprzewodowej między wieloma operatorami. Wirtualizacja sieci musi być przesyłana z przewodowej sieci rdzeniowej (np. Przełączników i routerów) w kierunku sieci RAN. W przypadku wirtualizacji sieci inteligencja musi zostać wyjęta ze sprzętu RAN i kontrolowana w sposób scentralizowany przy użyciu mózgu oprogramowania, co można zrobić w różnych warstwach sieci. Wirtualizacja sieci może przynieść niezliczone korzyści domenie bezprzewodowej, w tym zarówno wydatki kapitałowe (wydatki inwestycyjne), jak i oszczędności Opex dzięki współdzieleniu sieci i urządzeń przez wielu najemców, ulepszone EE, skalowanie w górę lub w dół wymaganych zasobów oraz zwiększoną sieć sprawność dzięki skróceniu czasu potrzebnego na innowacyjne usługi (od 90 godzin do 90 minut), a także łatwość konserwacji i szybkie rozwiązywanie problemów dzięki większej przejrzystości sieci. Wirtualizacja może również służyć do konwergencji sieci przewodowych i bezprzewodowych poprzez wspólne zarządzanie całą siecią z centralnej jednostki orkiestracyjnej, co jeszcze bardziej zwiększa wydajność sieci. Na koniec można zastosować sieci RAN obsługujące wiele trybów, obsługujące 3G, 4G lub WiFi, w których różne centralne interfejsy radiowe mogą być włączane i wyłączane za pomocą centralnej jednostki sterującej oprogramowaniem w celu poprawy EE lub jakości doświadczenia (QoE) dla użytkowników końcowych.




IX Filarów Technologii dla Przemysłu 4.0



I. Roboty autonomiczne: Wykonywanie zadań z minimalną ingerencją człowieka lub bez niej

Roboty są powszechnie wykorzystywane do wykonywania powtarzalnych, żmudnych i niebezpiecznych zadań. W ostatnich dniach roboty są w stanie świadczyć coraz szerszy zakres usług, stając się jednocześnie bardziej elastycznymi, współpracującymi i autonomicznymi. Roboty te współdziałają ze sobą i są zaprojektowane w sposób umożliwiający bezpieczną pracę z ludźmi. Stworzony z dwóch oddzielnych słów "współpraca" i "robotyka", Cobotics jest popularnym terminem używanym do opisania robotów pomagających operatorom w wykonywaniu codziennych zadań operacyjnych. Roboty stają się coraz bardziej inteligentne i mogą teraz uczyć się od ludzi, aby wykonywać różne złożone i wymagające zadania. W fabrykach wykorzystywane są autonomiczne roboty, które pełnią różne role. Roboty w pełni autonomiczne są zwykle wykorzystywane do procesów o dużej objętości i powtarzalności, ponieważ dokładność, szybkość i trwałość robota mają znaczne zalety. Wiele hal produkcyjnych używa robotów do pomocy w wykonywaniu bardziej skomplikowanych zadań. Roboty są powszechnie używane do wykonywania zadań, takich jak podnoszenie, przytrzymywanie i przesuwanie ciężkich lub nieporęcznych elementów. Roboty są zaprojektowane tak, aby były bardziej elastyczne, współpracujące i autonomiczne oraz mogą wchodzić ze sobą w interakcje i bezpiecznie współpracować z ludźmi. Przy zachowaniu dobrego bezpieczeństwa, elastyczności i wszechstronności roboty autonomiczne mogą wykonać dane zadanie z dużą precyzją i wydajnością. Wprowadzenie autonomicznych robotów odgrywa kluczową rolę we współczesnym przemyśle wytwórczym. Roboty mogą inteligentnie wykonywać zadania, z uwzględnieniem wszechstronności, bezpieczeństwa i elastyczności. Dzięki najnowszym innowacjom technologicznym produkowane są roboty, które są bardziej autonomiczne, aby wspierać rewolucję przemysłową. Roboty i ludzie pracują ramię w ramię nad łączeniem zadań za pomocą interfejsu człowiek-maszyna. Wdrażanie robotów w produkcji jest powszechne i zachęcające, ponieważ obejmuje różne funkcje, tj. logistykę, produkcję, zarządzanie biurem itp. Od 2004 r. liczba wielozadaniowych robotów przemysłowych opracowanych przez firmy w Europie wzrosła dwukrotnie. Włączenie robotów do automatyzacji w produkcji skłania firmy do utrzymania konkurencyjności na arenie międzynarodowej, ponieważ stanowi to skuteczne rozwiązanie w celu uzupełnienia luki w umiejętnościach w obszarach, w których trudno jest zatrudnić odpowiednio wykwalifikowanych pracowników. Dzięki wdrożeniu robotów autonomicznych pracownicy mogą poświęcić więcej czasu na projektowanie, innowacje, planowanie i strategię, które są równie ważne dla rozwoju i sukcesu. Automatyzacja produkcji za pomocą robotów doprowadzi do większego bezpieczeństwa i satysfakcji pracowników, zwiększonej produktywności i ostatecznie wyższej rentowności. Istnieją uzasadnione przesłanki, aby skłonić właścicieli fabryk do stosowania autonomicznych robotów w swoich podmiotach. Po pierwsze, ponieważ przy wytwarzaniu produktu zaangażowanych jest wiele procesów produkcyjnych, roboty mogą być wykorzystywane do automatyzacji każdego zadania, od obsługi surowców po pakowanie gotowego produktu. Po drugie, roboty nie potrzebują odpoczynku jak ludzie i mogą pracować 24 godziny na dobę, aby wykonywać zadania w sposób ciągły. Po trzecie, nowoczesne roboty są opracowywane w taki sposób, aby były bardzo elastyczne i można je wygodnie dostosowywać do wykonywania różnych funkcji, w tym złożonych. Po czwarte, wykorzystanie robota do automatyzacji w produkcji jest opłacalne i poprawia wyniki finansowe firmy. Wreszcie automatyzacja za pomocą robotów pomoże osiągnąć wysoką prędkość produkcji i szybsze dostarczanie produktów do klientów. Niektóre roboty są zaprojektowane tak, aby były mobilne w wykonywaniu swoich zadań. Planowanie ruchu to trudny aspekt w dziedzinie autonomicznych robotów mobilnych, który pozwala im przemieszczać się z jednej pozycji do drugiej w różnych środowiskach, które mogą obejmować zarówno statyczne, jak i dynamiczne przeszkody. Zaproponowano inteligentne i zoptymalizowane rozwiązanie nawigacyjne z zastosowaniem techniki sztucznej inteligencji, aby zapewnić maksymalne bezpieczeństwo oraz krótszą i lepszą opcję wyznaczania tras. Roboty autonomiczne różnych dostawców, takich jak ABB, Bionic Robotics, Fanuc, Gomtec, Kuka itp., są obecnie szeroko stosowane w różnych zastosowaniach przemysłowych. Różne modele robotów są opracowywane przez różnych kluczowych graczy, aby wspierać trend technologiczny Przemysłu 4.0. Coraz więcej krajów intensyfikuje wysiłki na rzecz zatrudniania robotów przemysłowych w swoim przemyśle wytwórczym. Republika Korei znalazła się na szczycie listy w 2016 r. z 631 robotami przemysłowymi na 10 000 pracowników. Niedawny rozwój robotów autonomicznych był wyjątkowy i zachęcający. W wielu fabrykach autonomiczne roboty są w stanie przenosić surowce, półprodukty i gotowe towary w sposób wydajniejszy, szybszy i inteligentniejszy. Ponieważ roboty działają w oparciu o złożony algorytm logiczny, nie wymagają żadnej z góry ustalonej ścieżki do realizacji swoich zadań. Zastosowanie robotów w rzeczywistości sprawiło, że proces produkcyjny stał się wydajniejszy i bardziej opłacalny.

II. Symulacja: Tworzenie w wirtualnym świecie i przewidywanie wyników działania

Symulację definiuje się jako przybliżoną imitację działania procesu lub systemu. Jest wykorzystywana w wielu funkcjach, takich jak inżynieria bezpieczeństwa, optymalizacja wydajności, szkolenia, testowanie, projektowanie itp. Symulacja odgrywa kluczową rolę w Przemyśle 4.0, ponieważ ta technologia pomaga osiągać lepsze wyniki na wiele sposobów. Zasadniczo zmniejsza niepotrzebne marnotrawstwo czasu i zasobów, jednocześnie zwiększając wydajność produkcji. Ponadto znacznie zwiększa wydajność i przychody firmy produkcyjnej. Poza tym symulacja jest bardzo ważna na etapie projektowania produktu, ponieważ pozwala na należytą ocenę wyników produktu i wprowadzenie niezbędnych zmian, jeśli produkt nie spełnia specyfikacji. Za pomocą kroków symulacyjnych można znacznie poprawić i ustalić jakość podejmowania decyzji. Warto zauważyć, że symulacja 3D rozwoju produktu, rozwoju materiałów i procesów produkcyjnych stała się normalną praktyką w wielu firmach jako niezbędny krok. Wykorzystuje dane w czasie rzeczywistym, aby odzwierciedlić świat fizyczny w wirtualnym modelu ucieleśniającym ludzi, maszyny i produkty. Symulacja umożliwia również operatorom testowanie i optymalizację ustawień maszyny dla następnego produktu w linii w świecie wirtualnym przed rzeczywistą fizyczną rekonfiguracją, dzięki czemu czas przestoju maszyny na konfigurację jest minimalny, przy jednoczesnym zwiększeniu ogólnej jakości. W zakładach produkcyjnych częściej stosuje się narzędzia symulacyjne do odzwierciedlenia świata fizycznego w modelu wirtualnym, głównie w celu skrócenia czasu konfiguracji maszyny i podniesienia ogólnej jakości. Wykorzystanie symulacji procesów produkcyjnych nie tylko skróci czas przestojów, ale także zmniejszy awarie produkcyjne w fazie rozruchu. Symulacja z systemami komputerowymi zapewnia narzędzie do modelowania i oceny do analizy złożonych systemów. Symulacja była wykorzystywana do ulepszania projektowania złożonych systemów już w latach 50. XX wieku. Początkowo przeprowadzono symulacje, aby zweryfikować projekty systemów, aby sprawdzić, czy spełniają one określone z góry cele. Dzięki serii symulacji zasadniczo oszczędzają czas i zasoby, ustanawiając weryfikację koncepcji przed zbudowaniem systemu fizycznego. Symulacje są przydatne do oceny różnych opcji projektów systemów, co następnie pomaga projektantowi wybrać najlepszą wydajność lub najbardziej zoptymalizowany projekt. Ponadto symulacje mogą być wykorzystywane do pomocy projektantom w identyfikacji mocnych i słabych stron konkretnego projektu. Co istotne, model symulacyjny jest w stanie wykorzystać specyficzność w celu zwiększenia wierności modelowanemu systemowi. W związku z tym dane wyjściowe z modelu symulacyjnego mogą oferować wiarygodne prognozy wydajności systemu. Na podstawie wyników symulacji projektant może zdecydować, czy zbudować system fizyczny, czy też nie. Modele symulacyjne są zwykle wymagane do uchwycenia ważnych systemów i operacji z dużą ilością szczegółów. Dlatego modele symulacyjne są zwykle bardzo złożone i obliczeniowo drogie w prowadzeniu. Koszt obliczeń jest jeszcze wyższy, gdy do kontrolowania szumu w symulacjach stochastycznych konieczne są wielokrotne replikacje symulacji. Ponadto należy dostarczyć modelarzom symulacyjnym wystarczającą ilość danych wysokiej jakości, aby mogli oszacować modele rozkładu prawdopodobieństwa dla różnych źródeł niepewności i losowości w systemie. Modele symulacyjne są zwykle używane na etapie projektowania systemu, aby projektanci mieli wystarczająco dużo czasu na zebranie danych i przeprowadzenie symulacji w celu uzyskania statystycznie uzasadnionych wniosków do podjęcia decyzji. Gwałtowny wzrost mocy obliczeniowej w ostatnich latach, w postaci przetwarzania w chmurze i wysokowydajnych klastrów obliczeniowych, zachęcił do podejmowania dalszych decyzji opartych na symulacjach, które wcześniej były ograniczone ze względu na obawy związane z kosztami obliczeniowymi. Optymalizacja symulacji umożliwia projektantowi systemu systematyczne i metodyczne przeszukiwanie dużej przestrzeni decyzyjnej w celu uzyskania optymalnego projektu bez ograniczania się do kilku konkretnych opcji. Ta zdolność optymalizacji znacznie zwiększa możliwości narzędzia do symulacji zakresu dla złożonych projektów. Obecnie jest to aktywny obszar badawczy i istnieje wiele komercyjnych produktów oprogramowania symulacyjnego, które są wyposażone w integrację rozwiązań optymalizacji symulacji. Optymalizacja symulacji jest zasadniczo użytecznym narzędziem do znajdowania optymalnego projektu systemu w oparciu o model symulacji komputerowej. Służy do przewidywania i oceny wydajności złożonych systemów stochastycznych. Ciągłe wysiłki na rzecz optymalizacji symulacji i wykładniczego wzrostu mocy obliczeniowej sprawiły, że korzystanie z symulacji w celu bezpośredniej optymalizacji projektowania i działania systemów stało się bardziej atrakcyjne

III. Pozioma i pionowa integracja systemu: Łączenie, współpraca i współpraca w poziomie i pionie

System można zintegrować poziomo i pionowo. Integracja pozioma może doprowadzić tworzenie sieci między systemami cyberfizycznymi na bezprecedensowy poziom w celu osiągnięcia większej wydajności. Każde urządzenie i system tego samego poziomu produkcji w tym samym zakładzie jest ze sobą połączone. Istnieje również komunikacja danych między systemami w różnych obiektach, umożliwiająca planowanie i rozdzielanie zadań między sobą. Mając to na uwadze, przestój w określonym zakładzie może zostać pokryty lub zrekompensowany przez maszyny z innego zakładu przy niewielkiej interwencji człowieka lub bez niej. Tymczasem integracja pionowa jest stosunkowo trudniejszym przedsięwzięciem. Każdy system na różnych poziomach hierarchii ma dostęp do wszystkich zebranych lub wygenerowanych danych. Obecnie głównym wyzwaniem jest to, że różne protokoły komunikacyjne są używane na różnych poziomach. W związku z tym systemy mają trudności z komunikacją i wymianą danych między sobą. Jeśli jednak integracja pionowa w obiekcie zostanie przeprowadzona prawidłowo, wydajność ulegnie znacznej poprawie. Można to rozwiązać za pomocą odpowiednich i odpowiednich interfejsów. Pełna integracja i automatyzacja procesów produkcyjnych w pionie i poziomie pokazuje automatyzację komunikacji i współpracy, szczególnie w ramach standaryzowanych procesów. W przypadku integracji poziomej stara się realizować połączone sieci systemów cyberfizycznych i korporacyjnych, które osiągają nowy poziom elastyczności, automatyzacji i wydajności operacyjnej w procesach produkcyjnych. Ten rodzaj integracji może mieć miejsce na różnych poziomach. Na poziomie hali produkcyjnej połączone z Internetem maszyny i jednostki produkcyjne stają się obiektem o ściśle określonych właściwościach w ramach sieci produkcyjnej. Nieustannie komunikują swój stan wydajności i autonomicznie reagują na zmieniające się wymagania produkcyjne. Skutkuje to lepszą opłacalnością w produkcji elementów i skrócenie przestojów maszyn dzięki konserwacji predykcyjnej. Integracja pozioma może wystąpić w wielu zakładach produkcyjnych, gdzie dane zakładu produkcyjnego są współdzielone w całym przedsiębiorstwie, co umożliwia wykonywanie zadań produkcyjnych inteligentnie przydzielone do obiektów, aby sprawnie i szybko reagować na zmiany zmiennych produkcyjnych. Ponadto integracja pozioma może mieć miejsce w całym łańcuchu dostaw, gdzie przejrzystość danych i wysoki poziom zautomatyzowanej współpracy w ramach (i) łańcucha dostaw i logistyki, który sam obsługuje procesy produkcyjne, oraz (ii) łańcucha dostaw, który dostarcza gotowe produkty do rynek. Z drugiej strony integracja pionowa pomaga powiązać wszystkie warstwy logiczne w organizacji, takie jak produkcja, badania i rozwój, zapewnienie jakości, technologia informacyjna, sprzedaż i marketing, zasoby ludzkie itp. Ten rodzaj integracji umożliwia swobodny przepływ danych między tymi warstwami, aby ułatwić podejmowanie decyzji taktycznych i strategicznych. Integracja pionowa zasadniczo tworzy przewagę konkurencyjną, ponieważ umożliwia firmie szybką i odpowiednią reakcję na zmieniające się sygnały rynkowe, a także nowe możliwości. Obecnie odkryto, że wiele systemów informatycznych wciąż nie jest w pełni zintegrowanych. Większość firm rzadko jest połączona ze swoimi dostawcami i klientami za pomocą połączenia internetowego. Nawet w ramach własnej firmy dział projektowania technicznego nie jest bezpośrednio połączony z jej halą produkcyjną. Dlatego mamy nadzieję, że wraz z wprowadzeniem Przemysłu 4.0 większość firm produkcyjnych podejmie kroki w celu ścisłego powiązania lub wzajemnego połączenia między działami oraz między dostawcami i klientami. Dzięki uniwersalnym sieciom integracji danych obejmujących wiele firm, które umożliwiają całkowicie zautomatyzowany łańcuch wartości, pozioma i pionowa integracja systemów między firmami, działami, funkcjami i możliwościami będzie bardziej spójna i wydajna.

IV. Przemysłowy Internet Rzeczy: Sprawianie, że przedmioty komunikują się ze sobą i z ludźmi

IoT to ogromna liczba urządzeń, maszyn lub systemów, które są połączone za pośrednictwem sieci lub Internetu w celu udostępniania i manipulacji danymi. To ekosystem, w którym wszystkie czujniki i aktuatory mogą funkcjonować oddzielnie i komunikować się ze sobą. IoT jest również czasami określany jako Internet wszystkiego (IoE), obejmujący IoS, Internet usług produkcyjnych (IoMs), Internet ludzi (IoP) oraz integrację technologii informacyjnych i komunikacyjnych (IICT). Kelvin Ashton, brytyjski pionier technologii, po raz pierwszy zapoczątkował koncepcję IoT w 1999 roku. Jak widać w przemyśle motoryzacyjnym, istnieje komunikacja między różnymi urządzeniami i systemami w samochodzie. Wprowadzenie Connected Car umożliwia komunikację w czasie rzeczywistym, m.in. systemy nawigacyjne w połączeniu z rejestrami pojazdów i ustawianiem połączeń alarmowych w razie wypadku. Przemysłowy IoT (IIoT), po raz pierwszy wspomniany przez General Electric, to solidna wersja IoT, która ma zwiększoną odporność, aby przetrwać w trudnych warunkach branży. Jako podkategoria IoT, IIoT jest ważny, ponieważ wykorzystuje inteligentne czujniki i siłowniki do usprawnienia procesów produkcyjnych. Jest to sieć inteligentnych urządzeń połączonych w kompletny system gromadzący, wymieniający i analizujący dane. Ogólnie rzecz biorąc, system IIoT składa się z (i) inteligentnych urządzeń, które mogą gromadzić, przechowywać i przekazywania danych, (ii) prywatna lub publiczna infrastruktura teleinformatyczna oraz (iii) systemy analizy danych, które generują przydatne informacje biznesowe. Obejmuje również wykorzystanie gromadzenia i analizy danych w różnych branżach, takich jak produkcja, energetyka, rolnictwo, transport, opieka zdrowotna itp. Urządzenia IIoT obejmują szeroki zakres, od małych czujników środowiskowych po złożone przemysłowe roboty autonomiczne. Systemy IIoT zwykle składają się z warstwowej architektury modułowej technologii cyfrowej. Warstwy te to warstwa urządzenia, warstwa sieciowa, warstwa usługowa i warstwa treści. Warstwa urządzenia zwykle składa się z komponentów fizycznych, takich jak czujniki, maszyny, systemy cyberfizyczne (CPS) itp. Tymczasem warstwa sieciowa zwykle składa się z magistral sieciowych, protokołów komunikacyjnych, przetwarzania w chmurze itp. Warstwy usług składają się z oprogramowania lub aplikacje analizujące dane i ostatecznie przekształcić je w przydatne informacje. Na górze znajduje się warstwa treści, która jest urządzeniem obsługującym interfejs użytkownika, takim jak monitor, wyświetlacz, tablet, inteligentne szkło itp. IIoT zmienia zasady gry, zapewniając doskonałą wydajność operacyjną i przedstawia zupełnie nowy model biznesowy, który przynosi korzyści nie tylko pewnej firmy, ale także ogółu społeczeństwa. Obecnie IIoT są wykorzystywane w wielu branżach w celu usprawnienia ich codziennej pracy. Technologia IIoT jest agresywnie wdrażana w sektorze produkcyjnym w celu poprawy wydajności produkcji. Maszyna z obsługą IIoT może mieć inteligentne funkcje monitorowania i przewidywać potencjalne problemy, co skutkuje krótszymi przestojami i lepszą ogólną wydajnością. W sektorze łańcucha dostaw technologia IIoT jest wykorzystywana do obsługi zamówień dostaw, zanim się skończą. Pomaga to utrzymać niezbędne artykuły w magazynie i zmniejsza ilość wytwarzanych odpadów. W linii detalicznej IIoT pomaga w inteligentnym i szybkim podejmowaniu decyzji dla poszczególnych sklepów. Jako strategia biznesowa z wdrożeniem technologii IIoT, panele wyświetlające, które automatycznie odświeżają się zgodnie z zainteresowaniami klientów i ich zdolnością do inteligentnej promocji, mogą pomóc sklepowi w uzyskaniu znaczącej przewagi nad innymi firmami. W opiece zdrowotnej IIoT sprawia, że branża staje się bardziej responsywna, bardziej precyzyjna i bezpieczniejsza. Wprowadza urządzenia, które zdalnie monitorują pacjentów i informują lekarzy o nieprawidłowościach lub nietypowych wzorcach w danych monitorujących stan pacjentów. Technologia IIoT przenika również do sektora zarządzania budynkami, gdzie zastosowanie tej technologii może sprawić, że zadania związane z zarządzaniem budynkami będą bezpieczniejsze i wydajniejsze. Wykorzystywana jest kontrola klimatu oparta na czujnikach, co usunie niedokładne domysły związane z ręczną zmianą klimatu w budynku. Dodatkowo dzięki technologii IIoT, instalacja urządzeń sieciowych do monitorowania wejścia do budynku może zwiększyć bezpieczeństwo i umożliwić szybką reakcję w przypadku potencjalnego zagrożenia. Jednym z głównych wyzwań dla IoT w Industry 4.0 jest brak wspólnych standardów. Posiadanie urządzeń połączonych ze sobą w celu udostępniania danych jest dobre; jednak gdy wszystkie z nich zbierają dane w różnych formatach i mają różne protokoły, integracja ich w całkowicie zautomatyzowaną fabrykę będzie trudna i kosztowna. Duże firmy, takie jak Bosch, Eclipse Foundation i inne, pracują w standardowych architekturach komunikacyjnych i protokołach, takich jak protokół zarządzania wydajnością produkcji (PPMP), transport telemetryczny kolejkowania wiadomości (MQTT) i OPC UA. Dzięki temu podłączone urządzenia, w tym te w hali produkcyjnej, mogą bezproblemowo komunikować się ze sobą. Kolejnym głównym wyzwaniem jest bezpieczeństwo w Internecie. Ponieważ urządzenia są połączone z Internetem, są podatne na ataki i podatne na włamania i nadużycia ze strony hakerów. Eksperci ds. bezpieczeństwa szybko poruszają się, aby rozwiązać problemy związane z cyberbezpieczeństwem w Internecie Rzeczy, łącząc nowe technologie ze standardowym bezpieczeństwem IT

V. Cyberbezpieczeństwo: ochrona systemów i sieci komputerowych

Cyberbezpieczeństwo jest niezwykle istotnym elementem Przemysłu 4.0, ponieważ chroni systemy komputerowe, sieci i dane przed złośliwymi działaniami, takimi jak atak sieciowy, nieautoryzowany dostęp, kradzież danych, zakłócenia, uszkodzenia itp. Staje się ważniejszy niż kiedykolwiek ze względu na rosnącą liczbę podłączonych urządzeń i systemów. Ochrona danych przy zachowaniu wydajności systemów to główny cel cyberbezpieczeństwa. Niepokojący jest fakt, że systemy informatyczne wielu instytucji są codziennie atakowane i włamywane. Niezwykle ważne jest, aby fabryki były świadome swoich potencjalnych słabości i dobrze przygotowane na wszelkie nadchodzące zagrożenia. Bardzo ważne jest posiadanie solidnego cyberbezpieczeństwa, ponieważ zapewnia to, że codzienne prowadzenie działalności produkcyjnej nie zostanie poważnie naruszone, co może kosztować ogromne straty dla firmy. W przypadku Przemysłu 4.0 posiadanie zaawansowanego zarządzania tożsamością i dostępem do maszyn i użytkowników oraz wiarygodnych systemów komunikacyjnych ma ogromne znaczenie, ponieważ problem zagrożeń cyberbezpieczeństwa staje się coraz poważniejszy wraz ze wzrostem łączności i szerszym wykorzystaniem standardowych protokołów komunikacyjnych. Zwiększenie gęstości danych oraz fuzja technologii informacyjnej i operacyjnej niesie ze sobą ogromne wyzwanie dla cyberbezpieczeństwa. W ostatnich latach wiele rządów traktowało cyberbezpieczeństwo jako główny problem krajowy o najwyższym znaczeniu. Ważna jest ochrona informacji biznesowych w postaci cyfrowej przed nieautoryzowanym dostępem, kradzieżą i nadużyciami. Wraz z rosnącymi połączeniami sieciowymi cyberataki stają się coraz bardziej powszechne w miarę kradzieży danych można wykorzystać do uzyskania określonych korzyści w formie finansowej i strategicznej. Cyberataki i zagrożenia internetowe stały się coraz poważniejsze w ciągu ostatniej dekady. Problemy te dotyczą w szczególności bezpośrednio i pośrednio użytkowników systemów IoT. Duże firmy lub przedsiębiorstwa są często narażone na złośliwe ataki, które oprócz innych niedogodności, takich jak awarie systemu, wycieki danych, naruszenia prywatności, uszkodzenie danych, spowolnienie systemów itp., powodują ogromne straty finansowe. Powszechne korzystanie z podłączonych urządzeń i usług stworzył ogromne zapotrzebowanie i zachęcenie do nowych form potężnej obrony cybernetycznej w celu zwalczania problemu cyberataków. W wielu firmach cyberbezpieczeństwo jest identyfikowane jako główny problem technologiczny. Większość dużych firm wzmocniła cyberobronę i możliwości swoich systemów informatycznych w celu zapobiegania atakom. Przydzielono i wydano miliony dolarów na zakup zaawansowanych systemów i opracowanie nowych strategii z inwestycjami w bezpieczeństwo IT, aby zmniejszyć ryzyko cyberzagrożeń. W systemie IoT można go ogólnie podzielić na cztery główne poziomy, tj. warstwę percepcji, warstwę sieciową, warstwę usługową i aplikację. System może być podatny na ataki, a cyberatak może nastąpić na dowolnym poziomie systemu. Aby rozwiązać problemy związane z cyberbezpieczeństwem, różne strony muszą ściśle ze sobą współpracować, aby ograniczyć wpływ do minimum. Interesariusze ci to eksperci ds. bezpieczeństwa IT, producenci, regulatorzy, społeczność normalizacyjna i środowisko akademickie. Aby zapewnić sukces w rozwiązywaniu tych problemów, każdy z nich powinien aktywnie podejmować swoje role. Obejmuje ważne role, takie jak (i) promowanie wielofunkcyjnej wiedzy na temat bezpieczeństwa IT i OT, (ii) wyjaśnianie odpowiedzialności wśród podmiotów Przemysłu 4.0, (iii) wspieranie zachęt ekonomicznych i administracyjnych dla bezpieczeństwa Przemysłu 4.0, (iv) zabezpieczanie zarządzania łańcuchem dostaw procesy, (v) harmonizacja wysiłków na rzecz standardów bezpieczeństwa Przemysłu 4.0, (vi) ustanowienie linii bazowych Przemysłu 4.0 dla interoperacyjności bezpieczeństwa oraz (vii) zastosowanie środków technicznych w celu zapewnienia bezpieczeństwa Przemysłu 4.0. Eksperci ds. bezpieczeństwa IT powinni promować wielofunkcyjną wiedzę z zakresu bezpieczeństwa IT i OT oraz bezpiecznych procesów zarządzania łańcuchem dostaw. Ta grupa ekspertów może pomóc w ustaleniu bazowych standardów Przemysłu 4.0 dla interoperacyjności bezpieczeństwa, oprócz zastosowania środków technicznych w celu zapewnienia bezpieczeństwa Przemysłu 4.0. Duże znaczenie ma również bezpieczna i niezawodna komunikacja w połączeniu z wyrafinowanym zarządzaniem tożsamością i dostępem do maszyn i użytkowników

VI. Cloud Computing: dostęp do informacji z dowolnego miejsca za pomocą Internetu

Przetwarzanie w chmurze odnosi się do zdalnego systemu, w którym można uzyskać zdalny dostęp do informacji z dowolnego miejsca za pośrednictwem Internetu. Dzięki wdrożeniu chmury obliczeniowej system produkcyjny umożliwia dostarczanie różnych usług przez Internet z zasobami obejmującymi narzędzia i aplikacje, takie jak bazy danych, magazyny danych, serwery, sieci, oprogramowanie itp. Zamiast przechowywać dane na własnym, lokalnym urządzeniu magazynującym lub dysk twardy, przetwarzanie w chmurze przechowuje informacje w zdalnej bazie danych. Gdy urządzenie komputerowe ma połączenie z Internetem, może wygodnie uzyskiwać dostęp do danych na zdalnym serwerze i uruchamiać określone oprogramowanie w celu manipulacji lub przetwarzania danych. Aby osiągnąć szybszy czas reakcji, nawet na poziomie poniżej sekundy, organizacja wymaga udostępniania danych między witrynami i firmami, co zapewnia przetwarzanie w chmurze. Zaczęło być popularnym wsparciem zarówno dla użytkowników indywidualnych, jak i firm, ponieważ ma kluczowe zalety w postaci wyższej efektywności kosztowej, lepszego bezpieczeństwa, zwiększonej produktywności, szybszego przetwarzania i najwyższej wydajności. Przetwarzanie w chmurze to ważna technologia, która pomaga ludziom współpracować. Jest to narzędzie do współpracy, które rewolucjonizuje kulturę pracy zarządzania danymi. Firmy lub firmy są obecnie bardziej otwarte na wymianę informacji, zamiast zatrzymywać je dla siebie. Praktyka otwierania przyniesie korzyści firmie jako całości, osiągając lepsze wyniki finansowe. Dzięki przetwarzaniu w chmurze ma praktycznie nieskończone możliwości przechowywania dla użytkowników. Istnieje potrzeba, aby firma udostępniała informacje i umożliwiała podejmowanie działań, gdy więcej informacji jest generowanych i gromadzonych. Będzie to korzystne dla każdego użytkownika, który ma dostęp do systemu komputerowego w celu wykonania swoich zadań, a także dla całej firmy. Generalnie wyróżnia się cztery rodzaje chmur, tj. chmura publiczna, chmura społecznościowa, chmura prywatna i chmura hybrydowa. Ich charakterystykę podsumowano w Tabeli

Rodzaj chmury: Opis

Chmura publiczna: nie działa w ramach IT firmy. Zwykle oferowane przez operatorów usług IT. Otwarte dla każdej osoby, firmy lub ogółu społeczeństwa.
Chmura społecznościowa : dostępna tylko dla tych firm lub instytucji, które dołączyły do odpowiedniej grupy z określonymi wymaganiami. Współdzielone przez kilka organizacji, które mają wspólne obawy (np. bezpieczeństwo, misja, zgodność itp.). Może być zarządzany przez zaangażowane organizacje lub stronę trzecią.
Chmura prywatna : dostępna wyłącznie dla jednej organizacji lub firmy .Zwykle fizycznie zlokalizowana w sieci firmowej . Może być własnością firmy, strony trzeciej lub ich kombinacji, być zarządzanymi i zarządzanymi przez tę firmę .
Chmura hybrydowa : połączenie co najmniej dwóch odrębnych infrastruktur chmury (publicznej, społecznościowej lub prywatnej) . Połączone przez ustandaryzowane lub zastrzeżone - dla przenośności danych i aplikacji

Przetwarzanie w chmurze zasadniczo ułatwia wymianę danych w czasie rzeczywistym, tworząc i promując sferę cyfrowej integracji i współpracy. Firma lub firma, która korzysta z usług przetwarzania w chmurze, będzie lepiej łączyć się z kluczowymi interesariuszami, umożliwiając proaktywne zarządzanie łańcuchem dostaw, zapewniając widoczność w czasie rzeczywistym, osiągając najwyższą wydajność i poprawiając zarządzanie ryzykiem.

VII. Produkcja przyrostowa: tworzenie obiektów 3D poprzez dodawanie materiału warstwa po warstwie

Wytwarzanie przyrostowe jest powszechnie znane jako proces łączenia materiałów w celu utworzenia fizycznego obiektu, w odniesieniu do zestawu danych modelu 3D, zwykle warstwa po warstwie. Technologia ta jest powszechnie stosowana do wytwarzania małych partii niestandardowych produktów, które oferują zalety konstrukcyjne, tj. złożone, ale lekkie konstrukcje. Tymczasem jest to w przeciwieństwie do wytwarzania subtraktywnego, które jest konwencjonalnym procesem, w którym fizyczny obiekt 3D jest tworzony poprzez sukcesywne usuwanie materiału z litego bloku materiału. Wytwarzanie subtraktywne jest zwykle wykonywane przez ręczne cięcie materiału lub mechanicznie za pomocą komputerowej maszyny sterowanej numerycznie (CNC). Fizyczna część wdrożenia Przemysłu 4.0 jest ograniczona funkcjami i możliwościami obecnych systemów produkcyjnych, co sprawia, że wytwarzanie addytywne jest bardzo ważnym elementem Przemysłu 4.0. Wyzwania polegające na rosnącej indywidualizacji produktów i skróceniu czasu wprowadzania na rynek są poważnie napotykane przez wiele firm, aby zaspokoić potrzeby klientów. Wymagane jest ponowne opracowanie nietradycyjnych metod produkcji, aby osiągnąć możliwość masowej personalizacji w Przemyśle 4.0. Wytwarzanie przyrostowe stało się kluczową technologią tworzenia produktów dostosowanych do indywidualnych potrzeb ze względu na możliwość wytwarzania elementów o zaawansowanych właściwościach pod względem kształtu, materiału itp. Produkcja stała się szybsza i bardziej opłacalna dzięki wdrożeniu technologii wytwarzania przyrostowego, takich jak selektywne topienie laserowe (SLM), metoda stapiania (FDM), selektywne spiekanie laserowe (SLS) itp. Ponieważ jakość produktów wytwarzanych przy użyciu technologii wytwarzania przyrostowego znacznie się poprawiła w ostatnich latach, są one obecnie stosowane w różnych gałęziach przemysłu, m.in. produkcja, budownictwo, biomedycyna, lotnictwo i wiele innych. Pomimo pojawiających się wątpliwości co do możliwości jej zastosowania w produkcji masowej, wdrażanie wytwarzania addytywnego w różnych branżach szybko rośnie ze względu na postęp technologiczny. Jako zaawansowana technologia wytwarzania dokładnych i złożonych produktów, wytwarzanie przyrostowe jest na dobrej drodze, by zastąpić konwencjonalne techniki produkcyjne

VIII. Rozszerzona Rzeczywistość: Interaktywne wykonywanie zadań w środowisku rzeczywistym za pomocą wirtualnych obiektów

Rzeczywistość rozszerzona odnosi się do technologii cyfrowej, w której użytkownicy mają interaktywne doświadczenie w środowisku świata rzeczywistego z wirtualnymi obiektami wzbogaconymi o informacje percepcyjne generowane komputerowo. Narzędzia do rzeczywistości rozszerzonej są w większości w powijakach, ale już zaczęły tworzyć nowe fale usług. Wcześniej rozszerzona rzeczywistość znalazła zastosowanie tylko w niektórych ważnych lub niebezpiecznych zadaniach, takich jak symulatory lotu. Ostatnio przeniknął do obszarów napraw i konserwacji. Zdalne instrukcje naprawy mogą być dostarczone do dowolnej części świata, o ile istnieje połączenie z Internetem. Dzięki tej technologii technicy mogą zdobywać swoje umiejętności, powtarzając czynności konserwacyjne, aż będą wystarczająco kompetentni. Rzeczywistość rozszerzona została wprowadzona do wielu zastosowań w branży. Jest on obecnie wykorzystywany we współpracy człowieka z robotem (HRC), która jest dziedziną, w której próbuje się zrozumieć, w jaki sposób usprawnić współpracę między człowiekiem a robotem za pomocą innowacyjnych interfejsów. W rzeczywistości stworzenie godnego zaufania i bezpiecznego systemu człowiek-robot jest niewątpliwie bardzo trudnym zadaniem. Rzeczywistość rozszerzona służy do pokazywania informacji kontekstualizowanych w rzeczywistym środowisku, pomagając operatorom w uzyskaniu lepszej świadomości ruchów i sił wywieranych przez robota. Poza tym rozszerzona rzeczywistość jest wykorzystywana do prac konserwacyjnych, naprawczych i montażowych. Wykorzystanie rzeczywistości rozszerzonej do tych zadań może pomóc w obniżeniu ogólnych kosztów. Jednak implementacja rzeczywistości rozszerzonej do tych zadań może być skomplikowana, np. technicy mogą potrzebować odwołać się do instrukcji obsługi, aby zakończyć procedurę. Ciągłe przełączanie uwagi między systemem a instrukcją może nałożyć na techników dodatkowe obciążenie poznawcze. Aplikacje rzeczywistości rozszerzonej do konserwacji i naprawy składają się z zestawu wirtualnych zasobów, które zapewniają pomoc, wskazówki lub sugestie dla techników. Te wirtualne zasoby obejmują animowany model 3D opisujący zadanie do wykonania, ścieżkę dźwiękową z instrukcjami, etykietę tekstową wyjaśniającą kroki itp. Dzięki nałożeniu zasobów graficznych i wyrównaniu z maszyną, która ma być naprawiona lub konserwowana, technologia ta pozwala technikom na właściwe prowadzenie do wykonywać pewne zadania, które mogą mieć niebezpieczny charakter. Mimo swojej użyteczności stoi przed wyzwaniem wdrożeniowym, tzn. tworzenie, zmiana i ulepszanie procedur rozszerzonej rzeczywistości może zająć dużo czasu. Kolejnym wielkim wyzwaniem, z jakim się zmagamy, jest brak przejrzystego i dostępnego przepływu pracy do projektowania i tworzenia aplikacji rzeczywistości rozszerzonej dla branży. Systemy z implementacją z rozszerzoną rzeczywistością obsługują również wiele innych usług, m.in. wybór części w magazynie i wysyłanie instrukcji naprawy za pomocą urządzeń mobilnych. Rzeczywistość rozszerzona może być wykorzystywana do dostarczania pracownikom informacji w czasie rzeczywistym, aby pomóc w podejmowaniu decyzji i procedurach pracy. Podczas gdy pracownicy sprawdzają rzeczywisty system wzywający do naprawy, mogą otrzymać instrukcje naprawy dotyczące sposobu wykonywania pracy. Rzeczywistość rozszerzona jest również wykorzystywana do kontroli jakości produktów. Ponieważ różnorodność produktów w przemyśle szybko rośnie, zadanie kontroli staje się coraz bardziej złożone. Proces sprawdzania może stać się mniej skuteczny ze względu na ograniczenia poznawcze pracowników. Wdrożenie rzeczywistości rozszerzonej może pomóc w usprawnieniu procesu kontroli, ponieważ umożliwia bezpośrednie porównanie między produktem rzeczywistym a idealnym. Nosząc dedykowane urządzenie AR, pracownik może skutecznie skontrolować wytworzony produkt, wizualizując nałożoną na niego reprezentację 3D idealnego produktu. Rzeczywistość rozszerzona jest rzeczywiście bardzo potężnym komponentem Przemysłu 4.0. Stworzyła halę produkcyjną, w której nie tylko wszystko jest połączone, ale także widoczne i interaktywne. Skuteczność rzeczywistości rozszerzonej zależy od samego procesu wizualizacji, ale od sposobu wizualizacji danych. Jego zdolność do ulepszania rzeczywistej przestrzeni została szeroko udowodniona w wielu zastosowaniach. Może zasadniczo pomóc fabryce znacznie poprawić wydajność produkcji. Ponadto rozszerzona rzeczywistość zwiększa również niezawodność i bezpieczeństwo systemów robotycznych. Powoduje to również redukcję kosztów i poprawę wydajności systemów utrzymania ruchu. Rzeczywistość rozszerzona to zdecydowanie jedna z kluczowych technologii Przemysłu 4.0, która wzbogaca role menedżerów i pracowników.

IX. Big Data i analiza danych: analizowanie i wydobywanie przydatnych informacji z dużych zbiorów danych

Analityka big data jest powszechnie określana jako powszechny proces badania ogromnych i zróżnicowanych zbiorów danych w celu wydobycia kluczowych informacji (np. ukrytych wzorców, korelacji, nieregularności, trendów i preferencji), zwykle do podejmowania decyzji. Jest to systematyczny sposób odkrywania ważnych informacji lub wskazówek, czego nie można łatwo wykonać przy użyciu tradycyjnych metod przetwarzania danych. Analityka danych, niegdyś bardzo popularna wśród aplikacji informatycznych, obecnie przenika do łańcucha dostaw i przemysłu wytwórczego. Potęga Big Data i analizy danych może pomóc branży produkcyjnej w zmniejszeniu marnotrawstwa i skróceniu przestojów. W niektórych fabrykach dane są gromadzone na różnych poziomach procesów produkcyjnych. Gdy produkt z fabryk zostanie zidentyfikowany jako wadliwy, można uzyskać dostęp do jego danych produkcyjnych, przetworzyć je i przeanalizować w celu uzyskania określonego wzorca. Etap lub etapy procesu produkcyjnego, które powodują powstawanie wzoru, można przeprojektować lub skorygować, aby naprawić wadliwy problem. Konserwacja predykcyjna służy do oszacowania, kiedy należy przeprowadzić rutynową konserwację i może być oparta na zebranych danych produkcyjnych. Jest uważany za bardziej opłacalny i bezpieczniejszy niż tradycyjna praktyka konserwacji. Analityka Big Data jest często uważana za jedną z kluczowych części Przemysłu 4.0. Analityka przemysłowa big data w rzeczywistości przyciągnęła zainteresowanie zarówno naukowców, jak i środowisk akademickich zarówno w zakresie badań, jak i zastosowań. Efektywne wykorzystanie tej technologii zapewni nową falę wzrostu produkcji i ostatecznie przekształci gospodarki. Aby przedsiębiorstwa osiągały efektywność operacyjną w sposób efektywny kosztowo, muszą być spełnione wymagania przemysłowego big data. Przemysłowa analiza big data obejmuje przechowywanie danych w chmurze, system zarządzania danymi operacyjnymi oraz hybrydową platformę usługową. Przemysłowe analizy big data są również wykorzystywane do konserwacji produkcji i innowacji w zakresie usług, koncentrując się na automatycznym przetwarzaniu danych, ocenie stanu zdrowia i prognozowaniu. Zebrane dane są analizowane w celu identyfikacji problemów występujących w różnych procesach produkcyjnych oraz przewidywania nawrotów podczas eksploatacji. Zbieranie i analiza danych z różnych źródeł systemów produkcyjnych stało się normą wspierającą podejmowanie decyzji w czasie rzeczywistym. Wraz z przyspieszonym wdrażaniem Internetu Rzeczy i różnych czujników do gromadzenia danych, ilość i prędkość danych rosną w sposób wykładniczy, zwłaszcza w sektorze produkcji przemysłowej. Sektor produkcyjny musi korzystać z najnowocześniejszych technologii, aby wydobywać i analizować przydatne informacje z dużych zbiorów danych, co prowadzi do rozpowszechnienia analityki dużych zbiorów danych. Oczywiste korzyści lub zwrot z inwestycji, którymi cieszą się producenci, to najwyższa jakość produktu, wyższa wydajność operacyjna, większa elastyczność i zoptymalizowana efektywność kosztowa