Technologia 5GZabójca czy Przyjaciel?

Wnioski i perspektywy na przyszłość



Wnioski i perspektywy na przyszłość

Przewidywany wzrost liczby podłączonych urządzeń mobilnych w połączeniu z coraz bardziej rygorystycznymi wymaganiami jakości usług (QoS) ze strony nowych usług szerokopasmowych oznacza, że zastosowanie dzisiejszych technologii i strategii ekspansji sieci nie zapewni konkurencyjnych taryf jako koszt transmisji na trochę rakieta. Chyba że zostaną wykorzystane nowe techniki destrukcyjne, po prostu zdecydują się one "kupić więcej widma lub infrastruktury", aby pomieścić dodatkowych użytkowników nie rozwiąże problemu operatorów, którzy skutecznie zaspokajają potrzeby klientów w czasach, gdy zasoby widmowe są na wagę złota. Wraz z zamknięciem rozdziału 4G czeka nowa era, która wymaga ewolucji technologii sieciowych i gotowości do świadczenia usług następnej generacji i żądania. Wraz z rozwojem nowego rozdziału musimy nie tylko rozwijać dotychczasowy system, aby być bardziej konkurencyjnym, ale także wymagamy nowych, przełomowych pomysłów, aby zabezpieczyć rynek 5G i wspierać wzrost na przyszłość. Rzeczywiście, musimy przyjąć postawę proaktywną, aby być gotowym na historię 5G. W tym ostatnim rozdziale wykorzystamy niektóre z paradygmatów technologii omówionych w poprzednich rozdziałach, aby zbudować obraz obecnego stanu 5G, podkreślając niektóre z wyzwań, które jeszcze przed nami stoją, zwłaszcza w zakresie ekologicznych sieci i projektowania między warstwami. Jako ostatnia dyskusja na temat historii 5G, edytor dzieli się swoją wizją przyszłości dla telefonu komórkowego 5G. Aby kontynuować, należy przypomnieć sobie kluczowe sterowniki projektowe dla sieci następnej generacji (NGN).

Sterowniki projektowe dla sieci następnej generacji

Technologia informacyjna stała się integralną częścią naszego społeczeństwa, wywierając głęboki wpływ społeczno-ekonomiczny, wzbogacając nasze codzienne życie mnóstwem usług od rozrywki medialnej (np. Wideo) do bardziej wrażliwych i krytycznych dla bezpieczeństwa aplikacji (np. E-handel, e-zdrowie, najpierw respondenci itp.). Jeśli prognozy analityków są poprawne, niemal każdy obiekt fizyczny, który widzimy (np. Ubrania, samochody, pociągi itp.) Będzie również podłączony do sieci pod koniec dekada (Internet rzeczy). Ponadto, według prognozy Cisco dotyczącej wykorzystania sieci IP (Internet Protocol) do 2020 r., Ruch internetowy ewoluuje w kierunku bardziej dynamicznego wzorca ruchu. Globalny ruch IP będzie odpowiadał 41 milionom płyt DVD na godzinę w 2017 r., A komunikacja wideo będzie nadal w zakresie od 80 do 90% całkowitego ruchu IP. Z drugiej strony, efektywność energetyczna znajduje się obecnie w czołówce projektowania systemu, ponieważ rachunek za energię elektryczną operatora stanowi kluczowe źródło wydatków operacyjnych, które prawdopodobnie osiągną niepokojące dane z przewidywanym wzrostem ruchu sieciowego. Wpływ energii jest również głęboki po stronie urządzenia, ponieważ telefony nowej generacji prawdopodobnie będą zaawansowane i będą obsługiwać mnóstwo aplikacji energochłonnych. Jeśli nie ma wspólnych wysiłków na rzecz energooszczędnego projektu, urządzenia staną się gorące i, jak na ironię, zostaną odsunięte na najbliższe dostępne gniazdo zasilania, zamiast cieszyć się pełną gamą wszechobecnych usług, które 5G obiecuje dostarczyć. Co więcej, na froncie politycznym Unia Europejska (UE), dzięki swoim celom 20-2020, dąży do inteligentnego i zrównoważonego rozwoju sprzyjającego włączeniu społecznemu, w którym efektywność energetyczna powinna zostać zwiększona o 20%. Ta polityczna dźwignia, w synergii z kluczowymi interesariuszami 5G, doprowadziło do zmniejszenia zużycia energii i kosztów w przeliczeniu na bit, powszechności usług i szybkiej łączności jako kluczowych sterowników projektowych dla sieci następnej generacji, czyli tak zwanych 5G.

5G: A Green Inter-networking Experience

Z holistycznego punktu widzenia, 5G będzie ewoluować w kilku wymiarach zgodnie ze wspomnianymi wcześniej sterownikami projektowymi, co doprowadzi do potencjalnego przyszłego scenariusza między sieciami. Przewiduje się scenariusz, w którym wszystkie rodzaje usług (np. Audio, wideo i dane) będą zbiegać się po infrastrukturze z komutacją pakietów przy użyciu protokołu IP. Użytkownicy końcowi, wyposażeni w różnego rodzaju urządzenia, będą chcieli połączyć się z najlepszym dostępnym połączeniem w ich najbliższym otoczeniu. Sieci dostępowe operatorów, centra sterowania, centra danych i różne platformy usługowe zostaną dołączone do głównych sieci operatorów za pośrednictwem Edge Routers (ER), podczas gdy sieci wielordzeniowe będą łączyć się za pośrednictwem routerów granicznych (BR), co doprowadzi do ogólnoświatowego Ekosystem internetowy do świadczenia usług. Kluczowym medium dostarczania usług będzie chmura, w której szczegóły mechanizmu dostarczania są pobierane od użytkownika końcowego. Abonenci po prostu rozmawiają z chmurą, aby uzyskać dostęp do podstawowych usług, w których chmura pełni rolę wirtualnego hosta odpowiedzialnego za zarządzanie aplikacją, infrastrukturą i platformą jako usługą, która w zasadzie może być rozproszona geograficznie.

W czołówce projektowania systemu znajdą się ekologiczne sieci w celu obniżenia kosztu energii na bit. W szczególności wysiłki w sieciach bezprzewodowych pokazują, że oszczędność energii można osiągnąć poprzez komunikację wieloskokową lub różnorodność kooperacyjną. Wiadomo, że techniki teorii gier umożliwiają interakcje między współpracującymi jednostkami, w których każdy gracz może dynamicznie przyjąć strategię, która maksymalizuje liczbę bitów pomyślnie przesłanych na jednostkę zużytej energii. Jak zilustrowano na powyższym rysunku, sprzęt użytkownika 1 (UE1) jest początkowo połączony z siecią poprzez dostęp WiMAX (Worldwide Interoperability for Microwave Access) (punkt P1) i zużywa pewną zawartość multimediów 3D z serwerów znajdujących się w chmurze przez ścieżkę 1. Gdy UE1 przesuwa się w kierunku krawędzi strefy pokrycia, jakość kanału bezprzewodowego P1 pogarsza się iw pewnym momencie jakość kanału spada do poziomu, który nie jest w stanie obsłużyć wymaganego QoS, lub poza tym, QoE (Jakość doświadczenia). Alternatywnie, koszt energii łącza bezprzewodowego (dżul na bit) staje się zbyt drogi do utrzymania, uzasadniając potrzebę poszukiwania innej opcji. W odpowiednim czasie uruchamia to zdarzenie przekazania (które może być potencjalnie zarządzane przez platformę IEEE 802.21 MIH (Media Independent Handover)), gdzie użytkownik przeszukuje alternatywne łącze w celu obsługi wymaganego QoS w oknie tolerowanego zużycia energii. W praktyce może to prowadzić do pionu zdarzenie przełączania z jednego punktu dostępowego (np. P1) na inny w heterogenicznych sieciach bezprzewodowych (np. WiMAX i UMTS - uniwersalny system telekomunikacji mobilnej). Co więcej, wspólne przekazywanie można również wykorzystać do poprawy efektywności energetycznej w następujący sposób. Na figurze UE1 może doświadczać głębokiego cienia cierpiącego na słabą jakość kanału do punktów przyłączenia P1 i węzła UMTS B. Z drugiej strony, UE2, który jest zlokalizowany w niewielkiej odległości od UE1 może występować dobra jakość kanału dla bezprzewodowego punktu dostępowego P2 (np. przez połączenie ADSL (asymetryczna cyfrowa linia abonencka)). W rezultacie UE1 może ustanowić wspólne przekazanie z istniejącego bezpośredniego łącza P1 do łącza kooperacyjnego P2 przez UE2. Po wykonaniu tego wspólnego przekazania UE1 może kontynuować pobieranie pozostałej zawartości multimediów 3D przez nową ścieżkę (Ścieżka 2). Podczas gdy komunikacja kooperacyjna ma na celu zmniejszenie zużycia energii w segmencie bezprzewodowym, rodzi poważne wyzwania w zakresie zużycia energii, które może znacznie wzrosnąć w chmurze (np. Sieci rdzeniowe i centra danych). Na przykład, usługi multimedialne między innymi wymagają minimalnego poziomu QoS, który jest zwykle gwarantowany przez skonfigurowane pasma komunikacyjne, przy użyciu odpowiednich QoS i mechanizmów udostępniania zasobów sieciowych. Oznacza to, że nowa ścieżka (Ścieżka 2) do obsługi komunikacji kooperacyjnej musi być nie tylko wykrywana na żądanie, ale musi być również skonfigurowana z wystarczającym dostępnym zasobem (przepustowość), aby zapewnić, że UE1 będzie nadal korzystać z mediów z akceptowalnym QoS. Jak w, QoS i dostarczanie zasobów sieciowych obejmuje, ale nie ogranicza się do kontroli dostępu do usługi, kontroli rezerwacji zasobów i inżynierii ruchu, a główne odpowiednie standardy obejmują IP Multimedia Subsystem - IMS (3GPP), Resource Admission Control Function - RACF ( ITU - T) oraz podsystem kontroli zasobów i przyjęć - RACS (ETSI / TISPAN). Wyzwanie polega na tym, że operacje obejmują utrzymanie stanu sterowania i przetwarzanie komunikatów sygnalizacyjnych, aby wymusić pożądane zasady kontroli na węzłach wzdłuż ścieżki [4], co budzi obawy o zużycie energii, skalowalność i czas konfiguracji usługi. W społeczności naukowej poważnie krytykowano dotychczasową kontrolę nad przepływem zasobów, a jako alternatywne podejście do zasobów rezerwowych dla klasy usług (CoS) zaproponowano mechanizmy Agregacji zasobów ponadprzeprowadzających (AROP); więc kilka zgłoszeń serwisowych może być przetwarzanych bez natychmiastowej sygnalizacji. Jednak AROP narzuca kluczowy kompromis inżynieryjny między redukcją narzutu sygnalizacji a marnotrawstwem zasobów, w tym naruszeń QoS. Odpady pojawiają się, gdy zasoby rezydualne (nadmiernie zarezerwowane, ale nieużywane) nie mogą być właściwie ponownie wykorzystane, podczas gdy naruszenia QoS występują, gdy błędne decyzje o przyjęciu przyjmują więcej próśb, niż może pomieścić rezerwacja. Problem ten wynika głównie z nieodłącznej dynamiki sieci, w której ścieżki komunikacyjne są skorelowane poprzez współdzielenie łączy, a przepływy ruchu mogą być skłonne wejść i wyjść z sieci za pomocą dowolnej dostępnej ścieżki. Aby poradzić sobie z tymi problemami, kontrola sieci wymaga w czasie rzeczywistym znajomości topologii sieci i statystyk dotyczących powiązanych zasobów, aby poprawić wydajność. Dlatego ITU-T G.1081 definiuje pięć punktów monitorowania w sieci, umożliwiając dostawcom usług monitorowanie sieci i wydajności usług pod kątem wykorzystania zasobów i optymalizacji. Jednak istniejące propozycje monitorowania sieci najczęściej pozyskują statystyki zasobów przy użyciu technik sondowania ścieżek, które konfrontują się z problemami z wydajnością, ponieważ generują one duży narzut sygnalizacyjny (w zależności od częstotliwości próbkowania) i złożoność, a także problemy z dokładnością.

Aby rozwiązać te problemy, transport sieciowy wymaga inteligentnych mechanizmów dostosowujących zmiany do potrzeb, aby zapewnić, że zasoby są wydajnie dystrybuowane między użytkownikami, bez przytłaczania sieci poprzez obciążenie sygnalizacji sterowania. Dlatego problemy sygnalizacyjne dotyczące dynamicznej kontroli zasobów wzdłuż ścieżek komunikacyjnych wymagają starannej uwagi, aby zapobiec zagrożeniu wydajności transportu. Staje się jasne, że oszczędność energii na podstawie end-to-end pozostaje otwartą kwestią dla przyszłego Internetu, ponieważ wysiłki w segmentach bezprzewodowych lub w przetwarzaniu treści nakładają obciążenie sygnalizacyjne na podstawową infrastrukturę transportową. Obecnie panuje zgoda co do tego, że projektowanie Internetu wymaga pilnego ponownego rozpatrzenia, a wiele propozycji, w tym podejście "czystego łupka", zostało udostępnionych. Oprócz kluczowej potrzeby QoS i Network Resource Provisioning (QNRP), jak opisano wcześniej, kluczowe tematy badawcze, takie jak, ale nie ograniczając się do, Network Defined Networking (SDN) i wirtualizacji sieci (NV) zostały uwzględnione w europejski program "Horyzont 2020" i omawiamy poniżej. OpenFlow próbuje zachęcić dostawców sieci do programowalnych przełączników i routerów (np. Używających wirtualizacji), które mogą przetwarzać pakiety dla wielu izolowanych sieci eksperymentalnych jednocześnie. Dzięki temu praktyczne środowiska sieciowe mogą eksperymentować z innowacyjnymi pomysłami, aby uzyskać zaufanie potrzebne do wdrażania nowych podejść. Network Defined Networking to paradygmat sieciowy, który polega na oddzieleniu płaszczyzny sterowania (oprogramowania sterującego zachowaniem sieci) od płaszczyzny danych (urządzeń, które przesyłają ruch). Główną ideą jest uelastycznienie kontroli i zarządzania siecią, aby można było budować sieć na wiele różnych sposobów, programując logikę sterowania w kategoriach architektur, protokołów i modeli polityki za pośrednictwem płaszczyzny sterowania. Na przykład routing może opierać się na szerszych atrybutach kontekstowych, takich jak preferencje subskrybentów, działania i urządzenia, aby dynamicznie wywoływać aplikacje L4 - L7 (warstwa 4-warstwowa 7) i umożliwiać personalizację sterowania.

Platformy kontrolne (patrz fizyczne i wirtualne platformy kontrolne) są odpowiedzialne za definiowanie polityk kontroli i podejmowanie decyzji kontrolnych, które są przekazywane po prostu jako polecenia sterujące do serwerów danych i routerów do egzekwowania polityki. Ponadto, podejście jest czysto scentralizowane, w którym zachowanie sieci jest kontrolowane przez pojedynczy i logicznie scentralizowany program (np. Platformę Sterowania Rutowaniem - RCP), który utrzymuje ogólną topologię sieci. W tym sensie system Onix zaproponował jako "logikę na najwyższym poziomie platform sterujących API (Application Programming Interface) do obsługi gromadzenia informacji z przełączników (np. Topologii sieci) i odpowiedniego rozdzielania elementów sterujących między różne serwery, i zapewnia szeroką gamę aplikacji do zarządzania. Poważnym ograniczeniem w takich rozwiązaniach rozproszonych (np. W sieciach peer-to-peer (P2P) i ad hoc)) jest synchronizacja informacji między rozproszonymi jednostkami w celu zapewnienia spójności, ponieważ zwykle wprowadza ona niedopuszczalną złożoność i narzut sygnalizacyjny, zwłaszcza że sieć rośnie w rozmiarze i natężeniu ruchu. Obecnie brak odpowiednich rozwiązań decentralizacyjnych wymusza na głównych projektach centralizację (np. Enthrone, EuQoS) lub każdy rozproszony system wdraża własną strategię w postaci nakładki, a złożoność Internetu wciąż rośnie jeszcze bardziej dzięki dodaniu nowych protokołów i mechanizmów na wierzchu obecnych warstw. Warto zatem wspomnieć, że SDN polega głównie na oddzieleniu płaszczyzny sterowania od płaszczyzny danych, a cała społeczność badawcza koncentruje się na wykazaniu elastyczności i mocy infrastruktur sieciowych. W konsekwencji, oprócz przedstawienia pojedynczego punktu awarii, sygnalizacja sterowania i obciążenie przetwarzania między kontrolerem SDN a kontrolowanymi elementami sieci stanowią poważny problem efektywności energetycznej i skalowalności dla obsługi potencjalnie dużej liczby serwerów danych, routerów i przełącza się w sieci.

Wirtualizacja sieci to technologia umożliwiająca emulację kilku odrębnych sieci logicznych w ramach wspólnej fizycznej infrastruktury sieciowej. Chociaż technologia ta jest powszechnie stosowana w centrach danych, aby umożliwić wielu lokatorom współużytkowanie tej samej fizycznej infrastruktury centrum danych, udostępnianie sieci ma kilka odmian obejmujących wszystkie domeny sieciowe, od dostępu do rdzenia / szkieletu i centrów danych. Jest to przedstawione na rysunku powyżej. W miarę wirtualizacji routerów fizycznych i serwerów danych, ich dostawca może sprzedawać zasoby wirtualne innym dostawcom: dostawcom sieci wirtualnych. Dlatego każdy dostawca otrzyma pełną i oddzielną kontrolę nad swoją topologią sieci i powiązanymi zasobami. W tym scenariuszu fizyczna sieć jest własnością jednego dostawcy, dla uproszczenia. Główne cele to zmniejszenie wymagań inwestycyjnych operatorów i, w wielu przypadkach, szybkości, z jaką mogą wdrażać nowe technologie, zmuszając ich do przemyślenia i dostosowania podstawy, na której starają się osiągnąć i utrzymać przewagę konkurencyjną. w udostępnianiu sieci zapewnij producentom rosnące możliwości zabezpieczenia kontraktów outsourcingowych zarządzania siecią, a także opracowania sprzętu przeznaczonego do udostępniania wdrożeń. Sprzedawcy sprzętu sieciowego zaproponowali już kilka podejść do udostępniania sieci na poziomie architektury, a zainteresowanie udostępnianiem sieci rośnie. Warto wspomnieć, że NV jest wysoce komplementarny w stosunku do SDN. Są wzajemnie korzystne, ale nie są od siebie zależne; funkcje sieciowe można zwirtualizować lub udostępnić i wdrożyć bez konieczności stosowania SDN i odwrotnie. Niemniej jednak pytanie, w jaki sposób zoptymalizować wykorzystanie zasobów sieciowych i zapewnić, że każdy użytkownik otrzyma zakontraktowane QoS, bez ponoszenia nadmiernej sygnalizacji kontrolnej, pozostaje trudnym otwartym problemem. Argumentuje się, że nadmierna liczba zdarzeń sygnalizacji sterującej, związany z tym narzut i długi czas na sesję, które narzucają, są "piętą Achillesa" w NGN, aby spełnić cele skalowalności, QoS, kosztów i efektywności energetycznej

Pojawiające się podejścia umożliwiające drastyczną redukcję narzutu sygnalizacji

Mając na uwadze opisane wcześniej wyzwania, ostatnie odkrycia zaproponowały nowe sposoby skalowalnego, niezawodnego, efektywnego kosztowo i energooszczędnego projektu sterowania architekturami i protokołami sieciowymi opartymi na IP, zarówno scentralizowanymi, jak i zdecentralizowanymi. W szczególności ogólna sieć zaproponowano mechanizm monitorowania o nazwie Samoorganizujące się wiele węzłów krawędziowych - SOMEN. SOMEN umożliwia wielu rozproszonym punktom decyzyjnym sterowania siecią wykorzystanie wzorców korelacji ścieżki sieciowej i informacji o ruchu w ścieżkach (uzyskanych przy wejściach i wyjściach sieci) w celu poznania topologii sieci i powiązanych statystyk zasobów łączy w czasie rzeczywistym bez sygnalizowania ścieżek. W ten sposób SOMEN zapewnia zaawansowany schemat monitorowania sieci w celu obsługi ogólnych podsystemów sterowania siecią (np. QoS, SDN, NV, routing, planowanie przepustowości łączy itp.) W celu poprawy wydajności bez narzutu sygnalizacji ciężkiego sondowania. Ponadto praca nad zaawansowaną rezerwacją zasobów opartą na klasach (ACOR) skutecznie wykazała przełom, że możliwe jest zaprojektowanie rozwiązań sieciowych opartych na IP ze znacznie zmniejszonym obciążeniem sygnalizacji sterowania bez marnowania zasobów lub naruszania zakontraktowanej jakości w przyszłości Internet. Rozszerzony ACOR (E-ACOR) rozwija rozwiązanie ACOR, proponując wielowarstwową agregację zarządzania zasobami i nowy protokół, aby skutecznie śledzić informacje o przeciążeniach na łączach wąskich gardeł w sieci bez nadmiernego obciążenia sygnalizacyjnego. Dlatego te najnowocześniejsze podejścia są dość obiecujące dla projektów sterowania NGN, aby ułatwić tworzenie atrakcyjnych i efektywnych kosztowo i energooszczędnych usług zgodnie z celami strategii "Europa 2020". Jednak rozwiązania są wciąż w powijakach, ponieważ skupiają się tylko na jednej domenie sieciowej, podczas gdy Internet jest siecią sieci. Ponadto ich potencjalne korzyści dla QoS, SDN i NV nie zostały jeszcze zbadane.

Wizja dla 5G Mobile

Jeśli rozmawialiśmy o obecnym obrazie 5G i wyzwaniach projektowych między warstwami dla konkretnych przypadków współpracy i mobilności, teraz przenosimy naszą uwagę na sieć komórkową, gdzie mamy okazję nie tylko zrozumieć, gdzie jesteśmy warunki planu technologicznego, ale także wyobrazić sobie drogę do przodu w zakresie możliwych nowych topologii radiowych dla szybkich i energooszczędnych połączeń. Jeśli spróbujemy ustalić, gdzie jesteśmy pod względem technologii mobilnej, zobaczymy, że komunikacja mobilna ewoluuje w ogromnym tempie, biorąc pod uwagę, że zaledwie 25 lat temu telefony komórkowe miały naturę analogową i duże jak cegła. Dzisiejsza technologia ewoluowała w niespotykanym dotąd tempie pierwsza fala sieci 4G została wdrożona komercyjnie w Europie. Dzisiejsze telefony są nie tylko wszechstronne, atrakcyjne pod względem ergonomicznym i mają charakter wielomodowy, ale także zapewniają podstawowe usługi internetowe z szybkościami zbliżonymi do połączenia ADSL. Jednak kluczowe czynniki motywujące potrzebę ewolucji tego, co pozostaliśmy, są takie same jak w przypadku przyszłego Internetu: Internetu przedmiotów i miliardów podłączonych urządzeń, o których mówiliśmy przyspieszy gwałtowny wzrost mobilnego ruchu danych, a obecne prognozy wskazują na 1000-krotny wzrost w ciągu następnej dekady. Przewidywany wzrost rynku zachęcił operatorów telefonii komórkowej do zbadania nowych sposobów planowania, wdrażania i zarządzania sieciami w celu poprawy zasięgu, zwiększenia przepustowości sieci i zmniejszenia wydatków kapitałowych i operacyjnych (Capex i Opex). Dążenie do 5G mobile jest nie tylko zorientowane na sieć, ale także zorientowane na użytkownika, ponieważ klienci następnej generacji będą wymagać więcej od swojej sieci, aby rozdzielić swoje ciężko zarobione oszczędności. Nadal definiowane są nowe scenariusze i aplikacje zabójcze, które przekonują użytkowników do inwestowania w 5G. Aby zapewnić rozwiązanie w celu spełnienia nowych i coraz bardziej rygorystycznych wymagań użytkowników końcowych, interesariusze mobilni już przygotowują plan działania technologii 5G dla sieci komórkowych następnej generacji, który ma zostać wdrożony do około 2020 r. 5G ma szeroką wizję i przewiduje cele projektowe, które obejmują : 10-100 × szybkość transmisji danych w paśmie szczytowym, 1000 × pojemność sieci, 10 × wydajność energetyczna i 10-30 × mniejsze opóźnienie, torując drogę do gigabitowej sieci bezprzewodowej. Gigabitowa architektura bezprzewodowa sugeruje, że żadna pojedyncza technologia nie będzie stanowić wyzwania dla tego ostatecznego celu, ale konieczne będzie połączenie różnych podejść umożliwiających. W rzeczywistości dzisiejsze mapy drogowe przedstawiają różne mieszanki widma (herców), wydajność widmową (bity na herc na komórkę) i małe komórki (komórki na km2) jako krok w kierunku sprostania wyzwaniu 5G. W związku z tym, w miarę migracji w kierunku ery 5G, wraz z postępem w dziedzinie technologii drobnokomórkowych połączonych z nowymi technikami uzupełniającymi, takimi jak Massive / mmWave MIMO i dodatkowym widmem, możemy potencjalnie dojść do kandydata na rozwiązanie 5G Mobile. Warto jednak zauważyć, że technologia małych komórek jest wciąż niedojrzała i jeśli konkretne wyzwania technologiczne dotyczące koordynacji interferencji i zarządzania mobilnością mogą zostać przezwyciężone w miarę zbliżania się do granic zagęszczania, stanie się to najbardziej dominującym podejściem technologicznym do osiągnięcia 1000x wyzwania , złagodzenie wymagań dotyczących technologii MIMO i konstrukcji słuchawki. Mając to na uwadze, redaktor chciałby podzielić się swoimi poglądami na temat potencjalnego nowego podejścia, które może dziś przesuwać granice technologii małych komórek. Zróbmy krok w przyszłość…

Mobilne małe komórki na przyszłość?

Przewiduje się, że małe komórki będą nośnikiem wszechobecnych usług 5G zapewniających efektywną kosztowo komunikację o dużej prędkości. Kluczem do rewolucji 4G jest dobrze znana femtokomórka, która jest obecnie rynkowym rozwiązaniem zapewniającym energooszczędny szybki dostęp do Internetu dla scenariuszy wewnętrznych. Uzupełniając technologię femtocell, standard LTE zapewnia wersję zewnętrzną w postaci wdrożenia pikokomórki dostosowanej do pokrycia szerokiego obszaru; jednak ten ostatni wymaga infrastruktury sieci radiowej i starannego planowania, co stanowi znaczny koszt dla operatorów. Niemniej jednak, technologia femtokomórek w pomieszczeniach musi pozostać przy pożądanym wskaźniku energetycznym, co czyni go zwycięskim kandydatem na podstawowy element konstrukcyjny, na którym będą ewoluować sieci mobilne przyszłości. Dlatego pojawiające się pytanie jest intrygujące: co by było, gdybyśmy mieli zerwać z obecną formą typowych aplikacji femto i rozszerzyć dostępność femto na świat zewnętrzny? Wtedy być może natkniemy się na następną generację technologii femtocell dla sieci 5G.

Na to pytanie częściowo odpowiedziała dzisiejsza technologia małych komórek, wykorzystująca stałe urządzenia zewnętrzne (metrocells), które zapewniają usługi podobne do femto, lub urządzenia mobilne poprzez tethering; oba są ograniczone prędkościami, interoperacyjnością i zasięgiem. Jednak, aby w pełni odpowiedzieć na to pytanie, ta wizja rozszerza pojęcie zastosowań femto na zewnątrz, wykorzystując mobilne małe komórki. Te małe komórki są skonfigurowane na żądanie i stanowią "bezprzewodową sieć kooperatywnych małych komórek", które mają mnóstwo szybkiego połączenia typu backhaul z siecią mobilną. Co więcej, kodowanie sieciowe, które ma silne zastosowanie w zwiększaniu odporności sieci, jest tutaj używane jako narzędzie nakładkowe, aby zapewnić solidną i opłacalną komunikację do obsługi usług 5G. Ta wizja wykracza poza dzisiejszy paradygmat komunikacji, wykorzystując bezpieczną współpracę sieciową jako drogę do dostarczania danych szerokopasmowych, a poza tym usług w chmurze "w ruchu" w sposób efektywny kosztowo i energooszczędnie. Jest to zbudowane na bazie nowej topologii sieci, która ustanawia wszechobecny dostęp do komórek femto-podobnych na żądanie, który wykracza poza statyczne wdrażanie, które widzimy dzisiaj w środowisku wewnętrznym. W ten sposób użytkownik końcowy jest zawsze w stanie mieć wszechobecny dostęp do tak zwanych mobilnych małych komórek i ustanowić energooszczędne połączenie z siecią, podczas gdy z drugiej strony operator może efektywnie wykorzystywać swoje widmo radiowe w czasach, gdy Zasoby spektralne są na wagę złota.

Hotspoty z małymi komórkami, z perspektywy użytkownika końcowego, są pojazdem do korzystania z szerokiej gamy usług szerokopasmowych 5G przy niskich kosztach i mniejszym wpływie na żywotność baterii mobilnych. Każda mała komórka jest kontrolowana przez "głowicę klastra", urządzenie mobilne (lub początkowo mikrotelefon) w obrębie zidentyfikowanego klastra, który jest nominowany do roli lokalnego menedżera radiowego w celu kontrolowania i utrzymywania klastra aktywnych użytkowników. Innymi słowy, pojęcie "mobilnych małych komórek" jest kierowane przez współpracujących użytkowników mobilnych, emulując funkcje lokalnego punktu dostępu lub mini stacji bazowej. Prosumenci (użytkownicy następnej generacji są zwykle określani mianem prosumentów danych, ponieważ będą oni prawdopodobnie producentem treści, w przeciwieństwie do czysto konsumpcyjnych) po prostu uzyskaliby dostęp do sieci mobilnej poprzez dialog z tymi nominowanymi lokalnymi dostępami punkty lub "kooperatywni użytkownicy", którzy nie tylko zarządzaliby lokalnie zasobami radiowymi, ale działaliby jako pomost do sieci bazowej za pośrednictwem szybkiej strefy zasięgu LTE / LTE-A. Warto wspomnieć, że mmWave MIMO spotkało się z dużym zainteresowaniem jako technologia umożliwiająca zapewnienie wydajnej i szybkiej łączności krótkiego zasięgu w celu uzyskania dostępu do małych komórek ze względu na dostępność nieprzetworzonej i nieużywanej przepustowości i może być tutaj dobrze pozycjonowana. Centralną częścią strefy pokrycia backhaul LTE jest inteligentna, masywna, masywna sieć MIMO, która może konfigurować i utrzymywać sieć MIMO zgodnie z pożądanym QoS (nawet QoE), gdzie ponownie użytkownicy w pobliżu, jak również stałe przekaźniki, mogą działać jako rozproszone anteny . Ta funkcja włączania będzie wykorzystywać współpracę w synergii z MIMO jako sposób na poprawę niezawodności / zasięgu sieci na krawędzi komórki, jak również zapewnienie podstawowego wsparcia mobilności dla naszego podejścia do małych komórek.

Kluczowym aspektem tego projektu jest nakładka kodowania sieciowego, która sama w sobie ma wiele zastosowań w routingu, zwiększając odporność na błędy i oszczędzając energię. Można to zastosować do nowej generacji mobilnych femtokomórek, aby zapewnić "dodatkowy" energooszczędny wymiar. Zastosowanie NC stawia nowe wyzwania projektowe, ponieważ musimy zapewnić projekt międzywarstwowy, aby czerpać wszystkie korzyści, jakie NC może zaoferować jako inżynieria narzędzia. Dlatego optymalizacja sieci kooperacyjnych sieci, w tym interoperacyjność z MIMO i harmonogramowanie, to kwestie projektowe, które należy rozwiązać. Co więcej, kodowanie sieciowe zapewnia bezpieczeństwo oparte na kodowaniu sieciowym (bezpieczne kodowanie sieciowe), które ma zasadnicze znaczenie dla dostępu do małych komórek, ponieważ będą one uważane za obce w sieci i proxy do przekazywania informacji

Różna dynamika sieci mobilnych powoduje ponowną ocenę kompromisu inżynieryjnego między maksymalizacją wydajności, redukcją kosztów energii i dostarczaniem QoS. To otworzyło drogę dla algorytmów i mobilności SO (samoorganizujących się), aby odegrać kluczową rolę w dziedzictwie oraz przyszłe nowe technologie (takie jak LTE-A). Pojawienie się algorytmów sieci samoorganizujących się (SON) stanowi kontynuację naturalnej ewolucji sieci bezprzewodowych, w których zautomatyzowane procesy po prostu rozszerzają swój zakres z planowania częstotliwości tylko na ogólne zarządzanie zasobami sieciowymi. Jednak firma SON do tej pory niewiele uwagi poświęcała QoE, która obecnie staje się dominującą miarą charakteryzującą jakość dostarczania mediów. Jeśli możemy w jakiś sposób scharakteryzować QoE lub atrybuty bezpośrednio wpływające na tę metrykę, możemy użyć tego jako wskaźnika do adaptacji, a nawet zmniejszenia przepustowości aplikacji zgodnie z dopuszczalnym QoE, co prowadzi do możliwych oszczędności energii i widm. Ta adaptacja jest wykonalna tylko wtedy, gdy możemy rozpowszechnić te efekty w warstwie internetowej / sieciowej. Innymi słowy, wprowadzenie projektowania międzywarstwowego do domeny radiowej w oparciu o QoE może prowadzić do potencjalnych oszczędności energii. Mobilność ma również zasadnicze znaczenie dla procesu projektowania, ponieważ prosumenci muszą również cieszyć się swobodą mobilności, jakby byli podłączeni do sieci makr. Ponadto w czasach, gdy heterogeniczne środowiska sieciowe (HetNets) zdominują scenę mobilną, prosumenci muszą nie tylko być w stanie migrować między mobilnymi sieciami drobnokomórkowymi, ale także rozszerzyć tę mobilność na konwencjonalne małe komórki i heterogeniczne sieci mobilne. Rodzi to poważne wyzwania badawcze w zakresie energooszczędnych przekazów pionowych, które obejmują przypadki użycia przekazywania dla mobilności do / z mobilnych małych sieci. Jeśli chodzi o potencjalne przypadki biznesowe, w tym ekosystemie HetNet operator może wykorzystać mobilne małe komórki jako narzędzie do ukierunkowania na kilka interesujących nowych możliwości biznesowych takie jak: odciążenie ruchu z sieci bazowej, uniknięcie ciężkiej inwestycji operatora w nową infrastrukturę, aby zaspokoić całą bazę abonentów; obsługa urządzenia z urządzeniem (D2D), która jest rozwijającym się trendem użycia i biznesu w LTE-A; i współpraca oparta na zachętach. W tym drugim przykładzie moc telefonu komórkowego użytkownika jest uważana za towar, który można wymieniać w zamian za umożliwienie współpracy między użytkownikami lub poza nią, aby działać jako punkt dostępu. Szansa biznesowa dla sieci powstaje przy wdrażaniu scentralizowanego systemu płatności w celu promowania współpracy nie altruistycznej. Jednak dążenie do tego typu topologii nadal wiąże się z kilkoma wyzwaniami, które należy rozwiązać, w tym sygnalizacją danych (transmisja w paśmie lub poza pasmem), a nawet radio kognitywne do wyczuwaj i wykorzystuj możliwości widmowe do transmisji małych komórek w locie.

Uwagi końcowe

Budując na systemach 4G, w najbardziej podstawowym znaczeniu 5G jest ewolucją uważaną za konwergencję usług internetowych ze starszymi standardami sieci komórkowych, prowadzącą do tego, co jest powszechnie określane jako "mobilny Internet" nad HetNets, z bardzo wysokimi prędkościami łączności. Ponadto zielona komunikacja odegra kluczową rolę, napędzaną przez interesariuszy 5G i polityczną dźwignię w kierunku bardziej ekosystemu mobilnego dzięki efektywnym kosztowo podejściom projektowym. Oczywiście jasne jest, że 5G będzie oznaczać znacznie więcej, w tym nowe scenariusze komunikacji i usługi oraz ewentualnie nowy interfejs lotniczy. Definicje tych rozwiązań są jednak nadal pewne, ale na razie ważne jest, aby pamiętać, że interdyscyplinarny projekt, czasami nazywany projektowaniem międzywarstwowym, będzie odgrywał ważną rolę w określaniu przyszłych systemów komunikacji. Jasne jest, że możemy zaprojektować najlepszy przyszły Internet lub sieć dostępu radiowego, ale jeśli nie są zaprojektowane do współistnienia, dochodzimy do rozwiązania 5G, które jest w najlepszym razie chaotyczne i przyrostowe. W związku z tym niniejsza książka została opracowana w celu dostarczenia szczegółowej analizy aktualnego stanu sieci komórkowych 5G i wyzwań, które jeszcze przed nami stoją, w celu dostarczenia referencji i źródła inspiracji, na których możemy budować nowe pomysły. Rzeczywiście, jeśli potrafimy uchwycić podstawy 5G z holistycznej perspektywy, to jesteśmy w stanie ładnie zaprojektować i ukształtować elementy naszej mobilnej układanki 5G, tak aby pasowały do siebie bezproblemowo i budowały obraz, który pierwotnie zamierzaliśmy kontynuować mobilną spuściznę