09A  | B  | C  | D  | E  | F  | G  | H  | I  | J  | K  | L  | M  | N  | O  | P  | Q  | R  | S  | T  | U  | V  | W  | X  | Z  |







[Jest nas już ( 7087 ) zainteresowanych]



Komunikacja bezprzewodowa i sieci komórkowe 6G



Wyjaśnienie widma 6G - fale radiowe, fale mm, fale sub 6 i pasmo niskie

KOMUNIKACJA MOBILNA SZÓSTEJ GENERACJI (6G)

Rozwój komunikacji mobilnej/bezprzewodowej przeszedł przez proces 1G/2G/3G/4G i wszedł w krytyczny etap komercyjnego rozwoju 5G. Z historycznej perspektywy rozwoju przemysłu, system komunikacji mobilnej był aktualizowany co dziesięć lat. Rosnące zapotrzebowanie na komunikację użytkowników i innowacje technologii komunikacyjnych są siłą napędową rozwoju komunikacji mobilnej. Jednak 5G nie spełni wszystkich wymagań przyszłości roku 2030 i późniejszych. Naukowcy zaczynają obecnie skupiać się na komunikacji mobilnej szóstej generacji (6G) sieci. Niektóre kraje i organizacje już rozpoczęły eksplorację technologii 6G wraz z rozpoczęciem komercyjnego wdrażania 5G w głównych krajach na całym świecie.

NIEUCHRONNOŚĆ BADAŃ 6G

Zasada 10-letniego cyklu

Od wprowadzenia systemu komunikacji mobilnej pierwszej generacji (1G) w 1982 roku, nowa generacja systemów bezprzewodowej komunikacji mobilnej była aktualizowana mniej więcej co 10 lat. Od badań koncepcyjnych do zastosowań komercyjnych upływa około 10 lat . Innymi słowy, kiedy poprzednia generacja wchodzi w okres komercyjny, następna generacja rozpoczyna badania koncepcyjne i techniczne. Badania 5G rozpoczęły się 10 lat temu, a obecnie badania 6G są zgodne z prawem rozwoju systemów komunikacji mobilnej. Nadejście 6G może zająć około dziesięciu lat, ale badań nad 6G nie można opóźniać. Komunikacja mobilna będzie dążyć w kierunku ery 6G.

"Efekt suma"

"Efekt suma" oznacza, że aktywuje również zdolność przetrwania małych ryb, gdy sum zakłóca środowisko życia małych ryb. Jest to przyjęcie środków lub środków stymulujących przez niektóre przedsiębiorstwa do aktywności i inwestycji na rynku, aby aktywnie uczestniczyć w konkurencji, co spowoduje aktywację przedsiębiorstw w tej samej branży na rynku. 5G różni się od poprzednich generacji systemów komunikacji mobilnej głównie ukierunkowanych na scenariusze aplikacji IoT / przemysłu pionowego. Wielu przedstawicieli branży pionowej z pewnością będzie uczestniczyć w ekosystemie 5G wraz z wdrożeniem sieci 5G na dużą skalę. Głęboki udział wschodzących firm (zwłaszcza firm internetowych zrodzonych z innowacyjnego myślenia) w przyszłości będzie miał ogromny wpływ na tradycyjny przemysł komunikacyjny, a nawet rewolucyjny wpływ w porównaniu ze status quo zdominowanym przez tradycyjnych operatorów, co nazywane jest "efektem suma".

Wybuchowy potencjał modeli biznesowych IoT

IoT to nieuchronność internetu od góry do dołu w przemyśle. Jest to rozszerzenie od środka na zewnątrz, z platformą chmury jako centrum. Podobnie jak pojawienie się smartfonów stymulowało aplikacje 3G i wywołało zapotrzebowanie na wdrożenie na dużą skalę 4G, uważa się, że niektóre modele biznesowe IoT również będą stymulować przemysł 5G, aby wybuchnąć w pewnym momencie ery 5G, co będzie stymulować przyszłe potrzeby sieci 6G. Aby dostosować się do rygorystycznych wymagań ich perspektywicznych zastosowań, musimy mieć wystarczająco dużo wyobraźni. Musimy zawczasu przygotować się na ewentualne przyszłe sieci i stworzyć dobre podstawy techniczne. Na podstawie powyższej analizy możemy wyciągnąć wniosek, że teraz jest właściwy czas na rozpoczęcie badań nad systemem bezprzewodowej komunikacji mobilnej następnej generacji.

Wydajność 5G ograniczyłaby nowe aplikacje IoT

Pomimo silnego przekonania, że 5G będzie wspierać podstawowe aplikacje IoT związane z MTC i URLLC, można się spierać, czy możliwości systemów 5G zdołają nadążyć za szybkim mnożeniem się ostatecznie nowych aplikacji IoT. Tymczasem, w następstwie rewolucyjnych zmian w trendach indywidualnych i społecznych, oprócz zauważalnego postępu w technologiach interakcji człowiek-maszyna, przewiduje się, że do 2030 r. potrzeby rynku będą świadkami penetracji nowego spektrum usług IoT. Usługi te zapewniają ultra-wysoką niezawodność, ekstremalnie wysokie prędkości danych i ultraniskie opóźnienia jednocześnie w uplink i downlink [6]. Bezprecedensowe wymagania narzucone przez te usługi spowodują, że wydajność systemów 5G zostanie doprowadzona do granic możliwości w ciągu 10 lat od jego uruchomienia. Co więcej, usługi te nalegają, aby 6G być w stanie uwolnić pełny potencjał obfitych usług autonomicznych obejmujących zarówno przeszłe, jak i pojawiające się trendy.

MIĘDZYNARODOWA ORGANIZACJA NORMALIZACYJNA

Międzynarodowy Związek Telekomunikacyjny (ITU)


Zgodnie z planem prac ITU, spotkanie RA-19 w 2019 r. nie ustali nowej rezolucji w sprawie badań technicznych IMT. Wskazuje, że cykl badawczy od 2019 do 2023 roku nadal dotyczy głównie badań technologii 5G i B5G, ale 6G badania nad wizją i trendami technologicznymi będą prowadzone od 2020 do 2023 roku. Główne firmy w branży generalnie uważają, że bardziej odpowiednie jest ustanowienie nowej generacji badań nad technologią IMT i rozwiązania problemu nazewnictwa na spotkaniu RA-23 w 2023 roku. ITU-T SG13 (International Telecommunication Union Telecommunication Study Group 13) powołała ITU-T Focus Group Technologies for Network 2030 (FG NET-2030) na posiedzeniu w lipcu 2018 roku. FG NET-2030 zamierza określić wymagania dla sieci roku 2030 i nie tylko. Prace badawcze nad 6G zostały przeprowadzone podczas ITU-R WP5D (34. spotkanie Grupy Roboczej 5D Sektora Komunikacji Radiowej Międzynarodowego Związku Telekomunikacyjnego), które odbyło się w lutym 2020 r., w tym opracowanie harmonogramu badań 6G, raportów z badań nad przyszłymi trendami technologicznymi oraz pisanie propozycje wizji technologii przyszłości.

Projekt partnerski trzeciej generacji (3GPP)

3GPP jest głównym promotorem i integratorem specyfikacji technicznych systemów komunikacyjnych, zarządzającym pracami normalizacyjnymi, takimi jak wprowadzanie wymagań dotyczących systemu komunikacyjnego, projektowanie architektury systemu, bezpieczeństwo i zarządzanie siecią. 3GPP zakończyło opracowywanie pierwszej wersji międzynarodowego standardu 5G Release 15 (R15), skupiając się na wspieraniu scenariuszy ulepszonych mobilnych usług szerokopasmowych oraz scenariuszy ultra wysokiej niezawodności i małych opóźnień w czerwcu 2018 roku. Opracowanie pełnego międzynarodowego standardu 5G Release 16 (R16) zostanie ukończony jesienią 2020 r., co w pełni wesprze trzy scenariusze aplikacji określone przez ITU. Ponadto 3GPP promuje badania nad 6G i działania normalizacyjne. Wydanie 3GPP 17 (R17) rozpoczęło badanie zaawansowanych funkcji, które ukształtują ewolucję w kierunku 6G, a znacząca międzynarodowa standaryzacja 6G ma rozpocząć się w 2025 r.

Instytut Inżynierów Elektryków i Elektroników (IEEE)

Aby lepiej podsumować i uporządkować powiązane technologie sieci nowej generacji, firma IEEE uruchomiła inicjatywę IEEE 5G w grudniu 2016 r. i zmieniła jej nazwę na IEEE Future Networks w sierpniu 2018 r., aby umożliwić 5G i przyszłe sieci. IEEE opracowuje również odpowiednie standardy 5G, które mają zostać przedłożone ITU do zatwierdzenia w 2020 r. Obecnie IEEE zorganizowało kilka seminariów technicznych 6G. Bezprzewodowy szczyt 6G będzie organizowany przez IEEE w marcu każdego roku, a pierwszy bezprzewodowy szczyt 6G został zainicjowany przez IEEE w Holandii 25 marca 2019 r. Przedstawiciele branży i środowiska akademickiego zostali zaproszeni do opublikowania najnowszych informacji na temat 6G. Omówiono teoretyczne i praktyczne wyzwania, z którymi należy się zmierzyć, aby zrealizować wizję 6G. Globalna wizja badawcza 6G, wymagania i potencjalne podejścia zostały opublikowane w białych księgach 6G pod koniec czerwca 2020 r.

POSTĘP BADAWCZY 6G W NIEKTÓRYCH KRAJACH/REGIONACH

Komunikacja 6G jest wciąż w powijakach. Można powiedzieć, że wyścig 6Gresearch ze środowisk akademickich rozpoczął się w marcu 2019 r., kiedy pierwszy szczyt 6G Wireless odbył się w Levi w Finlandii. Niektórzy badacze zdefiniowali również 6G jako B5G lub 5G+. W niektórych krajach/regionach rozpoczęto już wstępne działania badawcze. Prezydent USA poprosił o wdrożenie 6G w tym kraju. Chiny rozpoczęły już studium koncepcyjne dotyczące rozwoju i standaryzacji komunikacji 6G w 2019 roku. Większość krajów europejskich, Japonia i Korea planuje kilka projektów 6G.

Unia Europejska

W 2017 r. Unia Europejska zainicjowała konsultacje dotyczące projektów badawczo-rozwojowych w zakresie technologii 6G, których celem jest zbadanie kluczowych technologii dla komunikacji mobilnej nowej generacji. Fińska działalność badawcza 6G jest koordynowana przez Uniwersytet w Oulu w 2018 r., gdzie uruchomiono inicjatywę 6G. Wstępne założenia UE dla 6G są takie, że szczytowa prędkość powinna być większa niż 100 Gbit/s, przepustowość pojedynczego kanału może osiągnąć 1 GHz, a pasmo częstotliwości teraherców powinno być wyższe niż 275 GHz. Unia Europejska uruchomiła w 2019 roku trzyletni projekt badawczy w zakresie podstawowej technologii 6G. Głównym zadaniem jest zbadanie kodowania korekcji błędów nowej generacji, zaawansowanych technologii kodowania kanałów i modulacji stosowanych w sieciach 6G. Poza tym UE zainicjowała również szereg terahercowych projektów badawczo-rozwojowych. UE wymieniła rozwój komunikacji terahercowej jako program badawczy 6G. Grupa badawcza oparta na unijnym projekcie Terranova pracuje obecnie nad niezawodnym połączeniem 6G z przepustowością 400 Gbit na sekundę w paśmie terahercowym.

Stany Zjednoczone

FCC (Federalna Komisja Łączności Stanów Zjednoczonych) uruchomiła w 2015 r. usługę CBRSD (Public Wireless Broadband Service) w paśmie częstotliwości 3,5 GHz, która dynamicznie zarządza różnymi rodzajami ruchu bezprzewodowego za pośrednictwem scentralizowanego systemu bazy danych dostępu do widma w celu poprawy wydajności wykorzystania widma. Eksperci z FCC zaproponowali trzy kluczowe technologie 6G na szczycie "Mobile World Congress 2018-North America" we wrześniu 2018 r., w tym nowe widmo (pasmo częstotliwości terahercowych), wielkoskalową technologię multipleksowania przestrzennego (obsługa danych setek bardzo wąskich wiązek) oraz technologia dynamicznego współdzielenia widma oparta na blockchain. Ponadto FCC ogłosiło, że w marcu 2019 r. otworzy pasmo częstotliwości terahercowych (95 GHz-3 THz) do wykorzystania w testach technologii 6G, tym samym ustanawiając Stany Zjednoczone jako wyznacznika tempa w wyścigu badawczym 6G.

Japonia

Nihon Keizai Shimbun poinformował, że w lipcu 2018 r. japońska grupa NTT z powodzeniem opracowała nowe technologie dla B5G i 6G. Jedną z nich jest technologia Orbital Angular Momentum (OAM). Zrealizował nałożoną transmisję 11 fal radiowych, które są kilkakrotnie większe niż 5G. Technologia OAM wykorzystuje okrągłą antenę do obracania fal radiowych w spiralę w celu transmisji. Ze względu na właściwości fizyczne duża liczba obrotów utrudni transmisję. NTT planuje w przyszłości zrealizować superpozycję 40 fal radiowych. Drugim jest technologia komunikacji terahercowej. Rozwój technologii terahercowej znajduje się na szczycie "dziesięciu kluczowych celów strategicznych technologii filarów krajowych". Zaproponowano budżet w wysokości ponad 1 miliarda jenów w roku podatkowym 2019 na rozpoczęcie badań nad technologią 6G. Szczytowa prędkość transmisji dochodzi do 100 Gbit/s. Japonia wciąż boryka się z problemem ekstremalnie krótkich odległości transmisji, ale prędkość transmisji może osiągnąć nawet 5 razy większą niż 5G. Japonia przygotowuje 2 miliardy dolarów na wsparcie badań branżowych nad technologią 6G. NTT i Intel zdecydowały się nawiązać współpracę, aby pracować nad technologią sieci 6Gmobile. Ponadto w ramach projektu UE-Japonia w ramach programu Horizon2020 ICT-09-2017 o nazwie "Badania sieciowe wykraczające poza 5G" zbadano również możliwość wykorzystania widma THz od 100 do 450 GHz.

Korea Południowa

Eksperci z Centrum Badawczo-Rozwojowego ICT SK Telecom zaprezentowali 3 technologie dla przyszłych sieci 6G na seminarium technologicznym, które odbyło się na Uniwersytecie Nowojorskim w październiku 2018 r., w tym komunikację terahercową i architekturę bezkomórkową (w pełni zwirtualizowane anteny na dużą skalę RAN+) i inne niż naziemna sieć bezprzewodowa . Samsung Electronics i SK Telecom współpracują nad rozwojem technologii i modeli biznesowych związanych z 6G. Firma LG Electronics utworzyła centrum badawcze 6G we współpracy z Koreańskim Zaawansowanym Instytutem Nauki i Technologii. Ponadto SK telecom zawarł porozumienie z dwoma producentami sprzętu, Ericssonem i Nokią, w celu wspólnego opracowania technologii 6G. W kwietniu 2019 r. koreańscy operatorzy osiągnęli prędkość pobierania 193~430 Mb/s w paśmie częstotliwości 3,5 GHz (sub-6GHz).

Chiny

Pod koniec 2017 roku Chiny rozpoczęły badania nad systemem komunikacji mobilnej 6G, aby sprostać niestałym i bogatym wymaganiom Internetu Rzeczy w przyszłości, takim jak obrazowanie medyczne, rzeczywistość rozszerzona i wykrywanie. Oprócz rozwiązania problemów komunikacji bezprzewodowej między ludźmi i bezprzewodowego dostępu do Internetu, konieczne jest również rozwiązanie problemu komunikacji między rzeczami i rzeczami oraz między ludźmi i rzeczami wraz z rozszerzeniem wykorzystania komunikacji mobilnej w przyszłości. Technologia komunikacji 6G promuje głównie rozwój IoT. Chińskie Ministerstwo Nauki i Technologii (MSTC) zadeklarowało swój cel, jakim jest bycie liderem na rynku komunikacji bezprzewodowej w latach 30. XX wieku poprzez rozszerzenie inwestycji badawczych w 6G oraz wydało zawiadomienie w sprawie rocznych wytycznych dotyczących składania wniosków do kluczowych projektów specjalnych w 2018 roku, takich jak "Szerokopasmowe Communications and New Networks" dla kluczowego krajowego planu badań i rozwoju, z których 5 obejmuje B5G/6G. W 2019 r. MSTC zaplanowało również powołanie dwóch grup roboczych które prowadzą działalność badawczą 6G: pierwsza pochodzi z departamentów rządowych w celu promowania badań i rozwoju 6G, druga składa się z 37 uniwersytetów, instytutów badawczych i firm, koncentrując się na technicznej stronie 6G.

SKŁAD WIDMA 6G

Wymagania dotyczące widma dla 6G

Nasze społeczeństwo stanie się oparte na danych ze względu na prawie brak opóźnień czasowych połączeń bezprzewodowych do około 2030 r. Dlatego oczekuje się, że 6G będzie wykorzystywane do promowania rozwoju technologii bezprzewodowych, które znamy dzisiaj. I oczekuje się, że osiągnie całkiem niezłą wydajność systemu. Na rysunku przedstawiono streszczenie rozwijającej się generacji bezprzewodowej komunikacji komórkowej.



W szczególności pokazano widmo częstotliwości wykorzystywane przez różne generacje systemów komunikacji mobilnej. W celu zwiększenia szybkości transmisji danych od 100 do 1000 razy szybciej niż 5G pod względem widma częstotliwości, 6G może wykorzystywać wyższe widmo częstotliwości niż poprzednie generacje jako wizję na przyszłość. 4G i poprzednie systemy komunikacji mobilnej wykorzystują pasmo częstotliwości Sub-6 GHz, podczas gdy system komunikacji mobilnej 5G wykorzystuje zarówno pasmo częstotliwości Sub-6 GHz (pasmo FR1, 450 MHz-6 GHz), jak i pasmo częstotliwości 24-100 GHz (pasmo FR2, 24,25 GHz-52,6 GHz) . Naukowcy zdają sobie sprawę, że chociaż 5G rozszerza pasmo widma, obecne pasmo częstotliwości wciąż nie wystarcza, aby zaspokoić rosnące zapotrzebowanie na usługi komunikacyjne w szybko rozwijającym się społeczeństwie ludzkim. Dlatego w badaniu sieci 6G rozważymy zasoby widma powyżej 100 GHz, takie jak fala milimetrowa (mmWave) i teraherc (THz), aby zwiększyć przepustowość transmisji. System komunikacji bezprzewodowej 6G będzie wykorzystywać wielopasmowe i szerokopasmowe widmo w celu zwiększenia szybkości transmisji. Ostateczną wizją jest, aby szybkość transmisji od końca do końca osiągnęła setki gigabitów. Oczekuje się, że w przyszłości 6G, naziemna sieć telefonii komórkowej, system satelitarny i Internet połączą się w dużą sieć kosmos-powietrze-ziemia-morze. W związku z tym widmo 6G musi wspierać zintegrowaną komunikację kosmos-powietrze-ziemia-morze. Większość częstotliwości operacyjnych dla łączności kosmos-powietrze-ziemia-morze jest przydzielanych przez Międzynarodowy Związek Telekomunikacyjny (ITU). Pasma mmWave mogą być używane zarówno w kanałach kosmos-ziemia, powietrze-ziemia, jak i kosmos-powietrze.

SUB-6

Pasma Sub-6 GHz były podstawową częstotliwością roboczą w trzeciej generacji, 4G i 5G ze względu na szerokie możliwości pokrycia i niski koszt, które są również niezbędne w 6G.

Widmo niskich częstotliwości

Dodano widmo 6 GHz

Jak mówi powiedzenie: "Pojedynczy drut nie może tworzyć nici, a pojedyncze drzewo nie może tworzyć lasu". Rozwój 5G wymaga nie tylko dużej ilości zasobów widma, ale także współpracy w zakresie wysokich, średnich i niskich częstotliwości. Podczas Światowej Konferencji Komunikacji Radiowej w 2019 r. (WRC-19) osiągnięto globalny konsensus w sprawie pasma częstotliwości fal milimetrowych 5G, aby zaspokoić potrzeby biznesowe systemów 5G w zakresie bardzo dużej pojemności i szybkiej transmisji. Jednocześnie, aby rozwiązać problem dużego i głębokiego zasięgu systemów 5G i osiągnąć lepszą równowagę między przepustowością sieci a zasięgiem, wiele krajów koncentruje się na ciągłym widmie 5G w średnich i niskich pasmach częstotliwości. Nowe zasady użytkowania IMT (5G lub 6G) dla pasma częstotliwości 6GHz (5925 MHz-7125 MHz) znalazły się w agendzie WRC-23 wraz z energiczną promocją chińskiej delegacji na WCR-19. 6425 MHz-7025 MHz staje się nowym regionalnym (kraje arabskie, Afryka, Europa, kraje WNP) pasmem częstotliwości IMT i 7025 MHz-7125 MHz staje się nowym globalnym pasmem częstotliwości IMT. Zasoby widma są cenne i rzadkie jako podstawowe źródło rozwoju technologii komunikacji mobilnej. Planowanie widma jest punktem wyjścia dla branży, a także określi kierunek rozwoju, rytm i model branży. Pomyślne ustanowienie nowego przydziału IMT dla widma 6 GHz oznacza, że pasmo częstotliwości 6 GHz stanie się potencjalnym pasmem częstotliwości dla IMT (5G lub 6G). Kraje na całym świecie dadzą pierwszeństwo temu pasmu częstotliwości przy budowie 5G systemów i przyszłych systemów 6G, co promuje badania i rozwój technologii IMT dla pasma 6 GHz oraz internacjonalizację łańcucha przemysłowego, a także przyspiesza proces globalnych badań i rozwoju komercyjnych 5G i 6G.

Pojemność i zasięg

Nowe aplikacje biznesowe 5G spowodowały gwałtowny wzrost wykorzystania danych mobilnych wraz z dalszym przyspieszeniem komercyjnego wykorzystania 5G. Ulepszone mobilne usługi szerokopasmowe, stacjonarne bezprzewodowe usługi szerokopasmowe oraz aplikacje przemysłowe, takie jak inteligentne miasta i produkcja przemysłowa, przyspieszyły wzrost wykorzystania danych mobilnych. Zgodnie z raportem z analizy branżowej, miesięczne wykorzystanie danych na użytkownika na niektórych wiodących rynkach osiągnie 150 GB w 2025 r. Niewątpliwie wymaga to dużej ilości widma radiowego do obsługi. Pasma niskiej i średniej częstotliwości mogą zapewnić ciągłą przepustowość rzędu 100 MHz i dobry zasięg sieci w porównaniu z pasmem częstotliwości fal milimetrowych. Ponadto można wziąć pod uwagę wymagania wydajnościowe dotyczące przepustowości i zasięgu sieci, a koszty budowy sieci można znacznie zmniejszyć. Ponadto charakterystyka propagacji i modele kanałów w pasmach poniżej 6 GHz zostały szeroko zbadane w 5G. Dlatego są ważnymi częściami widma 5G lub 6G. Jako jeden z pionierów w opracowywaniu i wdrażaniu systemów 5G, chiński dział zarządzania radiotelefonami zobowiązał się do poszukiwania większej liczby zasobów częstotliwości IMT dla 5G lub przyszłych technologii 6G, aby wspierać przyszłe technologie i aplikacje z perspektywy efektywnego wykorzystania częstotliwości i długo- planowanie terminów. Zgodnie z charakterystyką każdego pasma częstotliwości, widmo Sub-6 GHz będzie brać pod uwagę wymagania dotyczące zasięgu i przepustowości, co jest idealnym kompromisem między szybkością szczytową a możliwościami pokrycia. Widmo częstotliwości powyżej 6GHz może zapewnić bardzo duże pasmo, większą pojemność i wyższą prędkość, ale zdolność ciągłego pokrycia jest niewystarczająco pokazana na rysunku.



Infrastruktura bezprzewodowa 5G dla częstotliwości Sub-6 GHz będzie szeroko wdrażana przy użyciu rozwiązania kształtowania wiązki, które może znacznie zwiększyć zasięg sieci i możliwości penetracji w budynkach. Pasma niskich częstotliwości (takie jak 600 MHz, 700 MHz, 800 MHz, 900 MHz, 1,5 GHz, 2,1 GHz, 2,3 GHz i 2,6 GHz) charakteryzują się szerokim zasięgiem i niskimi kosztami, które są wykorzystywane w przyszłości na dużą skalę IoT, automatyka przemysłowa i kluczowe zadanie IoT. Bezprzewodowa przepustowość i pojemność wykażą gwałtowny wzrost wraz z dalszym przyspieszeniem sieci komórkowych. Powyższe formowanie wiązki 24 GHz mmWave jest również uważane za obiecującą technologię zapewniającą ultrawysoką przepustowość w zasięgu 6G.

Przydział widma Sub-6
Widmo dla 5G NR


Zasób widma od 1,7 GHz do 4,7 GHz to widmo Sub-6 GHz przydzielone do 5G NR przez 3GPP, które jest pasmem FR1, a maksymalne stale przydzielone widmo wynosi 100 MHz [13]. Poniżej znajduje się wprowadzenie do kilku głównych pasm FR1. n77 (3300 MHz-4200 MHz) i n78 (3300 MHz-3800 MHz) to obecnie najbardziej ujednolicone pasma częstotliwości dla 5G NR na świecie. n79 (4400 MHz-5000 MHz) jest również używany w 5G NR promowanym głównie przez Chiny, Rosję i Japonię. n28 (700 MHz) jest również wysoko ceniony ze względu na dobry zasięg. To pasmo częstotliwości zostało zidentyfikowane jako pionierskie pasmo częstotliwości dla globalnej komunikacji mobilnej na WRC-15. Jeśli to pasmo nie może być w pełni wykorzystane, szkoda. Obecnie amerykański operator T-Mobile zapowiedział wykorzystanie n71 (600 MHz) do budowy 5G. Najbardziej skomplikowane jest wykorzystanie obszarów pasma 3,4 GHz-3,8 GHz. Na przykład w Stanach Zjednoczonych pasmo częstotliwości 3,5 GHz jest wykorzystywane w usługach Citizen Broadcast Radio Service (CBRS), podczas gdy zakres częstotliwości 150 MHz jest wykorzystywany do komunikacji radarowej. Ponadto pasmo częstotliwości może być również wykorzystywane do innych usług komercyjnych wykorzystujących dostęp dynamiczny. Ta dynamiczna metoda dostępu oszczędza użytkownikom drogie licencje na widmo, wystarczy zapłacić odpowiednie opłaty komunikacyjne do dostawcy usług.

Wybór widma systemów

Technologia pasma częstotliwości bez licencji upraszcza proces i ogranicza użytkownikom możliwość łączenia się z siecią. Niemniej jednak, ze względu na istnienie w sieci tych nielicencjonowanych użytkowników widma, niezawodność i bezpieczeństwo sieci bezprzewodowej zostaną zakłócone. W obszarze widma Sub-6 GHz najbardziej godne uwagi nielicencjonowane widma to pasma 2,4 GHz i 5 GHz, które są obecnie dwoma pasmami częstotliwości o najwyższym stopniu wykorzystania. Wśród nich zasoby przepustowości w paśmie 2,4 GHz są ograniczone i zostały wyprzedane przez istniejące usługi, przez co są bardzo zatłoczone. W porównaniu z 2,4 GHz dostępna częstotliwość pasma 5 GHz jest szersza. Ale wraz z rozwojem bezprzewodowych sieci komunikacyjnych spodziewano się, że w najbliższych latach zostanie również wykorzystane pasmo 5 GHz. A obecne pasmo 5 GHz jest podzielone na kilka części za pomocą różnych metod dostępu bezprzewodowego, których nie można używać jednolicie. Ponieważ zasoby widma wykorzystywane przez sieci komunikacji bezprzewodowej i systemy radarowe pokrywają się, FCC i ETSI wymagają, aby mechanizm dynamicznego wyboru częstotliwości (DFS) był używany w paśmie Sub-6 GHz, aby uniknąć zakłóceń systemu radarowego. A większość metod dostępu do dostępnego widma w paśmie niskich częstotliwości to Listen Before Talk (LBT). LBT spowoduje dużą liczbę okresów bezczynności w korzystaniu z widma, co skutkuje niskim wykorzystaniem widma, co jest głównym oporem wobec wizji sieci 5G o niskim opóźnieniu. Ostatnio FCC promuje dodatkowe widmo do nielicencjonowanego użytku w zakresie 5,925 GHz - 7,125 GHz. Jest to powszechnie określane jako pasmo 6 GHz, a jego regulacje są obecnie określone. Obecny trend rozszerzania 12 6G Wireless Communications i Mobile Networking Xie et al. Dostępność nielicencjonowanego dostępu, nawet w obszarze widma poniżej 10 GHz, radzi sobie z koniecznością radzenia sobie z załamaniem widma w związku z wykładniczym wzrostem aplikacji bezprzewodowych. Nielicencjonowany dostęp wyeliminował również przestarzały paradygmat licencjonowania, o którym wiadomo, że prowadzi do nieefektywnego wykorzystania widma.

mmWave

Wiadomo, że docelowa szybkość transmisji danych w komunikacji mobilnej 5G Sub-6 GHz to poziom Gbps, a docelowa szybkość transmisji 5G mmWave wynosi około 10 Gbps. Istnieją dwa kluczowe sposoby zwiększenia szybkości transmisji danych bezprzewodowych: jeden to poprawa wydajności widmowej, a drugi to wykorzystanie dużej szerokości pasma częstotliwości lub zasób widma

Komunikacja 6G mmWave

Zalety mmWave

W rozwoju systemów komunikacji mobilnej w przeszłości w pełni zbadano komunikację mikrofalową o niskiej częstotliwości reprezentowaną przez pasma 2,4 GHz i 5 GHz. Jednakże, w wyniku ograniczonej fizycznej szerokości częstotliwości i zajmowania przez coraz większy ruch sieciowy, komunikacja mikrofalowa o niskiej częstotliwości stała się bardzo zatłoczona i nie może sprostać wymaganiom przepustowości nowej generacji systemów komunikacji mobilnej. W związku z tym komunikacja na falach milimetrowych (mmWave) stanie się jedną z głównych technologii wspierających nową generację systemów komunikacji bezprzewodowej ze względu na dużą przepustowość, małe opóźnienia, wysoką szybkość i przyjazną funkcję pozycjonowania. Pasmo mmWave jest zwykle definiowane jako fale elektromagnetyczne w domenie częstotliwości 30GHz-300GHz. Znajduje się w zachodzącym na siebie zakresie fal mikrofalowych i dalekiej podczerwieni, dzięki czemu ma cechy obu widm. Ponieważ jego długość fali wynosi 1ms-10ms, nazywana jest falą milimetrową. Od czasu rozwoju Internetu demokratyzacja informacji lepsza edukacja, handel elektroniczny sprzyjał wzrostowi gospodarczemu, a innowacje biznesowe zostały przyspieszone dzięki wspieraniu szerszej współpracy. A teraz wkraczamy w erę Internetu wszystkiego (IoE) integrującego miliardy, a nawet biliony połączeń. Wszystko zyska świadomość kontekstową, wzmocnioną przez możliwości przetwarzania i lepsze możliwości wykrywania. Dlatego Internet Wszechrzeczy stanie się scenariuszem aplikacji, który należy uwzględnić w nowej generacji systemów komunikacji mobilnej. Duża przepustowość i duża prędkość, jakie może zapewnić mmWave, umożliwiają firmom takim jak wideo w wysokiej rozdzielczości, rzeczywistość wirtualna, rzeczywistość rozszerzona, gęste usługi informacji miejskiej, sterowanie automatyzacją fabryk i telemedycyna. Można powiedzieć, że rozwój i wykorzystanie mmWave zapewnia szeroką przestrzeń dla aplikacji 5G w oparciu o usługi Sub-6. Ale istnieje ogromna wada polegająca na tym, że mmWave ma poważne tłumienie podczas propagacji w porównaniu z innymi pasmami częstotliwości. A ze względu na dużą dostępną przepustowość oryginalna rozdzielczość systemów komunikacyjnych mmWave jest mniejsza niż w przypadku tradycyjnych systemów komunikacyjnych o niskiej częstotliwości. Dlatego mmWave od dawna nie pojawił się na polu komunikacji mobilnej. Qualcomm przepisuje odpowiedni lek. Po pierwsze, wykorzystuje technologię wielowiązkową, aby sprostać wyzwaniom związanym z mobilnością i poprawić zasięg, niezawodność i działanie poza zasięgiem wzroku. Po drugie, wykorzystuje dywersyfikację ścieżki do radzenia sobie z problemami z blokowaniem i wykorzystuje dywersyfikację anteny końcowej do poprawy niezawodności. Na koniec przeprowadzono kilka testów OTA wewnątrz i na zewnątrz, aby zweryfikować mobilność. Dlatego realizowane jest zastosowanie mmWave w telefonach komórkowych.

Nielicencjonowane pasma mmWave

W paśmie częstotliwości 60GHz mmWave dla nielicencjonowanego dostępu dostępne jest pasmo około 7 GHz, które jest znacznie większe niż nielicencjonowane widmo słońca-6GHz. W tak szerokim dostępnym widmie, aby osiągnąć szczytową szybkość transmisji 100 Gbps wymaganą przez sieć 5G, wymagana jest co najmniej szybkość wykorzystania widma wynosząca 14 bitów/Hz na jednostkę czasu. Jednak istniejąca technologia modulacji/demodulacji danych i powiązane oryginalne urządzenia nie mogą sprostać tak ścisłemu wykorzystaniu widma i wierności symboli. W związku z tym, jedną z obecnych trudności badawczych w dziedzinie systemów komunikacji bezprzewodowej jest osiągnięcie szybkości transmisji 100 Gbps w paśmie wysokich częstotliwości powyżej 100 GHz. Na przykład FCC zdecydowała się otworzyć cztery pasma częstotliwości mmWave powyżej 95 GHz w Stanach Zjednoczonych w 2019 r. Jak pokazano w tabeli 1, w celu uzyskania dostępu bez licencji zapewniona jest łączna przepustowość około 21 GHz.

Opcje widma dla 6G

Pasmo częstotliwości 26 GHz-100 MHz to duża szansa dla sieci komórkowych. Jednak jest to wcześniej niepopularna cecha mmWave, która sprawia, że jest ona bardzo odpowiednia dla 5G. Opiera się na wykorzystaniu mikroinfrastruktury, takiej jak małe jednostki rozmieszczone w gęsto zabudowanych lokalizacjach miejskich. 5G musi wykorzystywać szersze spektrum niż poprzednie generacje systemów mobilnych. Zgodnie z tym trendem oczekuje się, że w sieciach komunikacji bezprzewodowej 6G będzie wykorzystywane wyższe pasmo częstotliwości. Dlatego wstępnie ustawiliśmy system 6G do wdrożenia w paśmie subterahercowym 114 GHz-300 GHz. Zgodnie z właściwościami fizycznymi ultrawysokiej częstotliwości widmo subterahercowe może uzupełniać transmisję ultrawąskiej wiązki, poprawiając w ten sposób wydajność widma i zapewniając precyzyjne pozycjonowanie. Dzięki temu pasmo subterahercowe może dobrze działać w scenariuszach, takich jak przyszłe sieci dosyłowe i komunikacja na krótkich dystansach w czasie rzeczywistym. Z drugiej strony przewiduje się, że liczba urządzeń mobilnych na całym świecie wyniesie ponad 125 miliardów w latach 30. XX wieku, w tym telefony komórkowe, tablety, urządzenia do noszenia, zintegrowane zestawy słuchawkowe, wszczepiane czujniki i inni użytkownicy maszyn. System Internetu Rzeczy (IoT), łączący miliony ludzi i miliardy urządzeń, będzie jednym z podstawowych scenariuszy aplikacji dla mmWave B5G i 6G.

Teraherc (THz)

Jako medium propagacji bezprzewodowych systemów komunikacji mobilnej, zasoby widma będą coraz bardziej ograniczone w miarę rozwoju rodzajów i wymagań usług komunikacyjnych. Na początku prac badawczo-rozwojowych nad 5G pojawiły się sugestie, aby szukać skalowalnych zasobów widma w kierunku teraherca i światła widzialnego. Teraherc to nowe źródło promieniowania o wielu wyjątkowych zaletach. Ma szerokie zastosowanie w wielu dziedzinach, takich jak materiały półprzewodnikowe, technologia tomografii, badania genetyczne bez etykiet, szerokopasmowa komunikacja i orientacja mikrofalowa. Badanie źródeł promieniowania w tym paśmie częstotliwości nie tylko przyczyni się do znacznego rozwoju badań teoretycznych, ale także postawi poważne wyzwania dla elektroniki półprzewodnikowej i technologii obwodów. Rozwój i wykorzystanie widma terahercowego w dziedzinach takich jak komunikacja jest wysoko cenione przez Europę, Stany Zjednoczone, Japonię oraz inne kraje i regiony. Otrzymali także silne wsparcie ze strony ITU.

Komunikacja terahercowa 6G

Widmo terahercowe


Wraz z rozwojem nauki i technologii gwałtownie rośnie ilość komunikacji i połączeń usług bezprzewodowych. Zwłaszcza od ery 5G szybki rozwój technologii komunikacji bezprzewodowej w kosmosie i na niebie sprawił, że dwuwymiarowa analiza wydajności kanałów bezprzewodowych nie ma już zastosowania. W sieci 6G musimy wykonać trójwymiarowe modelowanie kanału bezprzewodowego i obliczyć odpowiednie parametry wydajności w jednostkowej przestrzeni sześciennej, co wymaga szerszego pasma widma RF. Widmo częstotliwości jest wielkością fizyczną istniejącą w przyrodzie, której nie można zwiększać ani zmniejszać, dlatego jest niezwykle cenne. Fale terahercowe odnoszą się do fal elektromagnetycznych o częstotliwościach w zakresie 0,1 THz-10 THz, pomiędzy falami milimetrowymi a światłem podczerwonym. Jest to strefa przejściowa od makroskopowej teorii klasycznej do mikroskopowej teorii kwantowej, a także strefa przejściowa od elektroniki do fotoniki, zwana przerwą terahercową widma elektromagnetycznego. Komercyjne zastosowanie technologii terahercowej jeszcze kilka lat temu nie wydawało się wystarczająco jasne. Jednak terahercowe przyrządy pomiarowe wykazały ogromny potencjał rynkowy w 2018 r. Zastosowania w zakresie bezpieczeństwa cywilnego, badania nieniszczące i przemysłowa kontrola jakości mogą czerpać korzyści z zastosowania systemów terahercowych. Tradycyjnie pasmo częstotliwości 26,5-300 GHz jest definiowane jako pasmo mmWave, a 300-10000 GHz jako pasmo THz. Jednak w ostatnich latach powszechnie przyjęto definicję 100-10000 GHz (lub 0,1-10 THz) jako pasma THz. Wraz z krytycznym rozwojem komunikacji bezprzewodowej, pasma częstotliwości THz były postrzegane jako obiecujący kandydat do dostarczenia wystarczających zasobów widma dla niedalekiej przyszłości 6G. W szczególności pasmo terahercowe może być do czterech rzędów wielkości wyższe niż istniejąca komunikacja mikrofalowa, co oznacza, że może przenosić większą ilość informacji. Ponadto teraherc łączy zalety komunikacji mikrofalowej i komunikacji optycznej, z wieloma cechami, takimi jak wysoka szybkość transmisji, duża pojemność, silna kierunkowość, wysokie bezpieczeństwo i dobra penetracja [26]. Dzięki tym oczywistym zaletom przeprowadzono szeroko zakrojone badania nad komunikacją THz na całym świecie.

Zalety Teraherc

Komunikacja terahercowa ma wiele zalet w porównaniu z mikrofalową i bezprzewodową komunikacją optyczną dzięki swoim unikalnym właściwościom. Wraz z rozwojem technologii terahercowej stopniowo ujawniają się jej wyjątkowe zalety i ogromne perspektywy zastosowań w wielu ważnych dziedzinach radarów komunikacyjnych, komunikacji w dalekim kosmosie, szybkiej komunikacji bezprzewodowej krótkiego zasięgu i komunikacji bezprzewodowej w zakresie bezpieczeństwa.

1. Fala terahercowa jest bardziej odpowiednia do szybkiej komunikacji bezprzewodowej krótkiego zasięgu, ponieważ podczas propagacji łatwo wpływa na nią wilgoć z powietrza, powodując poważne tłumienie sygnału.

2. Fale terahercowe mają wąskie wiązki, dobrą kierunkowość i silne właściwości przeciwzakłóceniowe. Dlatego bezpieczna komunikacja w promieniu 2-5 km może być realizowana za pomocą fal terahercowych.
3. Właściwości fizyczne teraherców o wysokiej częstotliwości i szerokości pasma mogą sprostać stale rosnącemu zapotrzebowaniu na przepustowość komunikacji bezprzewodowej. Widmo terahercowe ma użyteczną szerokość pasma dziesiątek GHz w zakresie 108-1013 GHz, co może zapewnić szybkość przekraczającą Tbit na sekundę.
4. Jeśli chodzi o komunikację kosmiczną, w pobliżu długości fali 350, 450, 620, 735 i 870 ?m fal terahercowych, pokazanych na rys. (6), znajdują się stosunkowo przezroczyste okna atmosferyczne, które mogą osiągnąć bezstratną transmisję. Bardzo mała moc może zakończyć komunikację na duże odległości. Co więcej, terminal odbiorczy jest łatwy do wyrównania, ponieważ wiązka fal terahercowych jest szersza w porównaniu z bezprzewodową komunikacją optyczną. Szum kwantowy jest niższy, a antena może być zminiaturyzowana i płaska. Dlatego fale terahercowe mogą być szeroko stosowane w komunikacji kosmicznej i są szczególnie odpowiednie do komunikacji szerokopasmowej, takiej jak komunikacja satelitarna i komunikacja satelita-ziemia.
5. Pasmo terahercowe jest również odpowiednie dla Massive MIMO z większą liczbą anten (ten sam rozmiar lub nawet mniejsza objętość anteny w porównaniu do fal milimetrowych) ze względu na krótką długość fali. Wstępne badania pokazują, że wzmocnienie formowania wiązki i multipleksacji przestrzennej zapewniane przez Massive MIMO może skutecznie przezwyciężyć zanikanie deszczu i zanikanie atmosferyczne propagacji terahercowej, co może spełnić wymagania dotyczące zasięgu gęstych obszarów miejskich, takich jak komórka o promieniu 200 m.
6. Ze względu na niską energię fotonów fal terahercowych, w porównaniu z bezprzewodową komunikacją optyczną, fale terahercowe jako nośniki informacji mają zaletę wysokiej wydajności energetycznej.
7. Teraherc ma bardzo krótką długość fali, ma wysoki stosunek sygnału do szumu w widmie czasowym, może przenikać przez ściany z niewielkim tłumieniem i jest idealną technologią do obrazowania przez ściany w złożonych środowiskach.

Wyzwania w pasmach terahercowych

Pasmo częstotliwości terahercowych ma niezastąpione korzyści w komunikacji mobilnej. Jednak stoi też przed wieloma wyzwaniami.

1. Odległość komunikacyjna: Ze względu na krótką długość fali i wysoką częstotliwość terahercową ma większe zanikanie wolnej przestrzeni niż pasma o niskiej częstotliwości. Ponadto istniejące mechanizmy komunikacji mogą nie być odpowiednie dla wysoce kierunkowych charakterystyk propagacji terahercowych.

2. Blaknięcie na dużą skalę: cienie mają znaczący wpływ na transmisję sygnałów radiowych terahercowych o ultrawysokich częstotliwościach. Na przykład po przejściu sygnału terahercowego przez ludzkie ciało jego sygnał jest tłumiony o co najmniej 20 dB, a po przejściu przez ceglaną ścianę jego tłumienie może sięgać nawet 80 dB. Jednak ponieważ zanikanie wilgotności/deszczu dotyczy głównie sygnałów radiowych o częstotliwościach poniżej 100 GHz, pasmo terahercowe powyżej 100 GHz ma mniejszy wpływ.

3. Szybkie przełączanie i odłączanie kanałów: Czas koherencji kanału ma liniową zależność od częstotliwości nośnej dla danej prędkości ruchu. Dlatego też, ponieważ czas koherencji jest bardzo mały, teraherc ma większe przesunięcie Dopplera, a większe zanikanie cienia prowadzi do znacznej utraty ścieżki, co ostatecznie powoduje, że komunikacja terahercowa ma problemy z częstym przełączaniem pasm częstotliwości i poważnymi fluktuacjami. Ponadto technologia terahercowa jest wykorzystywana głównie do pokrywania komunikacji wysokokierunkowej na małym obszarze. Oznacza to, że zanikanie ścieżki, wiązki obsługujące i relacje asocjacji komórek będą się szybko zmieniać. Aby rozwiązać problem przerw w połączeniu spowodowanych częstym przełączaniem częstotliwości, musimy zaprojektować nowy mechanizm szybkiej komunikacji adaptacyjnej z perspektywy systemowej.

4. Zużycie energii: Główną trudnością w stosowaniu anten o bardzo dużej skali jest zużycie energii przez szerokopasmową konwersję analogowo-cyfrową systemu terahercowego. Zużycie energii generalnie ma liniową zależność od częstotliwości próbkowania i wykładniczą zależność od liczby próbek na jednostkę. Szerokie pasmo częstotliwości terahercowych i duża liczba anten wymagają kwantyfikacji o wysokiej rozdzielczości. Dlatego też dużym wyzwaniem będzie wdrożenie urządzeń o niskim poborze mocy i niskich kosztach.

Powiązana technologia komunikacji terahercowej

Poniżej przedstawiono kilka kluczowych treści badawczych związanych z rozwojem technologii komunikacji terahercowej w przyszłości.

1. Technologia półprzewodnikowa, w tym RF, analogowe pasmo podstawowe i logika cyfrowa itp.;

2. Zbadaj szybkie przetwarzanie sygnału pasma podstawowego o niskiej mocy, odpowiednią konstrukcję układu scalonego o niskiej złożoności i szybką platformę komunikacji pasma podstawowego opartą na częstotliwościach terahercowych;

3. Technologia modulacji/demodulacji terahercowej, w tym modulacja bezpośrednia, modulacja mieszania, modulacja fotoelektryczna itp.;

4. Kodowanie przebiegu i kanału;

5. Mechanizm synchronizacji, na przykład technologie śledzenia i synchronizacji setek rzędów wielkości elementów antenowych w scenariuszach gęstego dostępu;

6. Pomiar kanałów i modelowanie przestrzeni terahercowej i komunikacji naziemnej.

Badania nad wyżej wymienionymi kilkoma aspektami zagadnień technicznych należy rozważyć kompleksowo, aby znaleźć równowagę między wydajnością, złożonością i zużyciem energii w komunikacji terahercowej. Ponadto ITU zdecydowało przydzielić nowej generacji łączności ruchomej 0,12 THz i 0,2 THz w zakresie nadzoru widma. Jednak zasady regulacyjne dla pasma przekraczającego 0,3 THz nie zostały jeszcze ujednolicone globalnie. Poziom ITU i spotkanie WRC muszą współpracować i aktywnie promować osiągnięcie konsensusu.

STRESZCZENIE

W tej części przedstawiono głównie stan badań sieci komórkowych 6G z naciskiem na skład widmowy systemu łączności nowej generacji. Ponieważ sieci 5G z trudem mogą spełnić wszystkie wymagania przyszłego rozwijającego się społeczeństwa w 2030 r. i później, badania nad 6G stały się nieuniknione i wzbudziły zainteresowanie na całym świecie. Aby osiągnąć znacznie szybszą transmisję danych niż 5G, należy wykorzystać wyższe widma częstotliwości niż w poprzedniej generacji. Szczególnie szczegółowo podkreśliliśmy zalety widm mmWave i Terahertz. Przedstawiamy również międzynarodowe organizacje normalizacji 6G oraz postępy w technologii 6G w różnych krajach.

Technologia komunikacji fal milimetrowych

Fala milimetrowa odgrywa nieodzowną rolę w nowej generacji komunikacji mobilnej ze względu na obfitość nieodkrytych zasobów, które można wykorzystać do spełnienia wymagań większej przepustowości i ultrawysokiej szybkości transmisji danych. Ta część najpierw przedstawia rozwój, charakterystykę i zastosowania fal milimetrowych. Następnie szczegółowo opisano zastosowanie fali milimetrowej w systemach komunikacji mobilnej oraz wymieniono model wspólnego kanału. Po drugie, wprowadzono wielkoskalowy system MIMO, technologię wstępnego kodowania i trzy rodzaje struktur formujących wiązki. Na koniec, w połączeniu z obecnym rozwojem komunikacji mobilnej, podsumowano wymagania stawiane urządzeniom wykorzystującym fale milimetrowe dla nowej generacji systemów komunikacji mobilnej oraz wymieniono niektóre typowe urządzenia wykorzystujące fale milimetrowe.

WPROWADZANIE

Narodziny każdej generacji technologii komunikacji mobilnej zapewniły nam wielką wygodę w życiu. Pojawienie się technologii telefonii komórkowej drugiej generacji (2G) zapewniło nam wygodne połączenia głosowe. W erze 3G możemy wykorzystać mobilny Internet do realizacji podstawowych funkcji sieciowych. Od dziesięciu lat szybki internet mobilny w dobie 4G wprowadził wideorozmowy i mobilne oglądanie filmów do naszego życia. 5G to era Internetu wszystkiego, który czerpie korzyści z większej przepustowości kanału, większych prędkości sieci i mniejszych opóźnień w porównaniu do 4G. W oparciu o te cechy telemedycyna, inteligentny dom, sztuczna inteligencja (AI), Internet rzeczy (IoT) itd. będą rozwijane i lepiej stosowane. Zasoby widma 5G są podzielone na FR1 i FR2 według częstotliwości. FR1 to część o niskiej częstotliwości 450~6000 MHz, która jest również nazywana Sub 6 GHz. FR2 jest częścią pasma częstotliwości fal milimetrowych (mmWave) (24,25~52,6 GHz). Specyficzny podział widma 5G w Chinach został ukończony w 2018 roku. Ponieważ fala elektromagnetyczna o niskiej częstotliwości ma dużą długość fali, ma małą stratę ścieżki i duży obszar zasięgu. Tymczasem odpowiednia technologia komunikacyjna pasma niskiej częstotliwości jest dojrzała, a koszt aplikacji jest niski, co może szybko zrealizować wdrożenie 5G. Dlatego Sub 6 GHz jest głównym pasmem częstotliwości dla rozwoju komunikacji mobilnej w Chinach na tym etapie. Jednak pasmo częstotliwości mmWave jest nadal ważnym pasmem częstotliwości dla przyszłego rozwoju 5G w Chinach. W porównaniu z Sub 6 GHz, przepustowość. Pasmo częstotliwości mmWave to GHz, co może zapewnić wyższą szybkość transmisji i pomieścić więcej informacji o danych. Często znajduje się na gęsto zaludnionym obszarze i ma wysoką wartość użytkową w dziedzinie przemysłu. W ostatnich latach, wraz z rozwojem komunikacji mobilnej, badania nad komunikacją mmWave stały się głównym międzynarodowym zainteresowaniem. Komunikacja mmWave i masowe MIMO są uważane za dwie kluczowe technologie 5G. Ze względu na dużą szerokość pasma pasma częstotliwości mmWave można było spełnić wysokie wymagania dotyczące szybkości transmisji systemów komunikacji mobilnej nowej generacji. Ponieważ fala milimetrowa ma krótką długość fali, wielkość dużych szyków antenowych można zminiaturyzować. Tymczasem wykorzystanie kierunkowego wzmocnienia kształtowania wiązki zapewnianego przez ogromny system MIMO może skutecznie skompensować utratę ścieżki sygnałów mmWave w kanale bezprzewodowym. Obecne badania nad nową generacją komunikacji mobilnej, od planowania i autoryzacji zasobów widmowych o określonych potrzebach, po badania i rozwój różnych urządzeń mmWave i budowę nowej generacji systemów komunikacji mobilnej, poczyniły ogromne postępy. Ogólnie rzecz biorąc, wyzwania stojące przed komunikacją na falach milimetrowych są uważane głównie za urządzenia o wysokiej częstotliwości. Powiązane komponenty rdzenia wysokiej częstotliwości obejmują głównie wzmacniacze mocy, wzmacniacze niskoszumowe, obwody pętli fazowej, filtry, szybkie i precyzyjne przetworniki cyfrowo-analogowe i analogowo-cyfrowe, anteny macierzowe itp.

CHARAKTERYSTYKA I ZASTOSOWANIE FALI MILIMETROWEJ

Wraz z przyspieszeniem informatyzacji społeczeństwa ludzkiego rozszerza się zakres zastosowań widma elektromagnetycznego. W latach 70. Światowa Konferencja Radiowa zorganizowana przez Międzynarodowy Związek Telekomunikacyjny (ITU) podzieliła i przydzieliła pasmo częstotliwości 30-70 GHz wykorzystywane przez usługi komunikacyjne. W ostatnich latach, w związku z ciągłym wzrostem zapotrzebowania na szerokopasmową i wielkoprzepustową transmisję informacji, komunikację osobistą oraz wojskową łączność poufną/antyzakłóceniową, pola mmWave, a nawet fale submilimetrowe stały się niezwykle aktywnym polem badań, rozwoju, oraz wykorzystanie międzynarodowych zasobów widma elektromagnetycznego, które zawierają obfite zasoby informacyjne. Aby zwiększyć przepustowość komunikacji i uniknąć przeciążenia kanałów i wzajemnych zakłóceń, częstotliwość komunikacji musi zostać przekształcona w wyższe pasmo częstotliwości. Dlatego rozwój zasobów widma elektromagnetycznego w pasmach mmWave i terahercowych jest ostatnio kluczowymi dziedzinami badań w elektronice, a zasoby widma w paśmie mmWave mają znaczące wartości aplikacyjne. Generalnie fale elektromagnetyczne o zakresie częstotliwości 30~300GHz nazywane są falami mmWave i można je podzielić na kilka pasm częstotliwości. Kody pasm częstotliwości i zakresy częstotliwości są pokazane w tabeli



Charakterystyka fali milimetrowej

Długość fali milimetrowej mieści się w zakresie nakładania się fal mikrofalowych i podczerwonych, co ma cechy obu tych fal. Teoria i technologia fali milimetrowej to rozszerzenie mikrofal do wysokiej częstotliwości i rozwinięcie fal świetlnych do niskiej częstotliwości.

Użyteczna przepustowość częstotliwości i duża pojemność informacji

Pasmo częstotliwości mmWave mieści się w zakresie od 30 do 300 GHz, przy szerokości pasma do 270 GHz, co stanowi ponad 10-krotność pełnego pasma od prądu stałego do mikrofal. Biorąc pod uwagę absorpcję atmosfery, dla mmWave występują głównie cztery okna propagujące. Łączna przepustowość tych czterech okien może osiągnąć 135 GHz, co jest pięciokrotnością sumy przepustowości każdego pasma poniżej mikrofal. Dlatego głównymi zaletami komunikacji mmWave są przepustowość i duża pojemność informacyjna, które można wykorzystać do komunikacji wielokanałowej i transmisji obrazu telewizyjnego. Ponadto wysoka szybkość transmisji sprzyja realizacji komunikacji z małym prawdopodobieństwem przechwycenia, takiej jak komunikacja z widmem rozproszonym i komunikacja z przeskokami częstotliwości. Częstotliwości o wysokiej stratności (takie jak 60 GHz, 120 GHz i 180 GHz) mogą być również wykorzystywane do poufnej komunikacji wojskowej i komunikacji satelitarnej.

Krótka długość fali w paśmie fal milimetrowych

W porównaniu z falą centymetrową fala milimetrowa ma krótszą długość fali. Dlatego jego quasi-optyczne właściwości mogą być wykorzystane do uzyskania wyższej rozdzielczości kątowej w przypadku stosunkowo małej apertury anteny. Co więcej, można osiągnąć wyższą dokładność pozycjonowania w przestrzeni w celu prowadzenia nawigacji, pozycjonowania i śledzenia celu. Stosunek sygnału docelowego do zagłuszania pasywnego jest wyższy i ma lepszą stabilność przeciwzakłóceniową do zagłuszania aktywnego.

Znaczący wpływ atmosfery na transmisję fal milimetrowych Kiedy fale elektromagnetyczne rozchodzą się w atmosferze ziemskiej, atmosfera pochłania i emituje promienie o różnych długościach fal. Chociaż efekt ten jest niewielki przy niskich częstotliwościach, absorpcja atmosfery jest widoczna dla pasma częstotliwości fal mm i zmienia się wraz z częstotliwością. Tłumienie atmosferyczne jest silne w niektórych określonych pasmach częstotliwości. Kiedy fale elektromagnetyczne o określonej częstotliwości padają na cząsteczki atmosferyczne, energia jest przenoszona w wyniku rezonansu. Jeśli cząsteczki powrócą do swojego pierwotnego stanu, energia jest uwalniana z tą samą częstotliwością. Uwolniona energia jest wypromieniowywana losowo, a wynikiem jest pochłanianie i tłumienie fal elektromagnetycznych oraz wkładu szumu. Różne gazy atmosferyczne mają zjawisko rezonansu w paśmie częstotliwości mmWave, ale tylko tlen i para wodna mają oczywiste właściwości absorpcji. Tlen ma magnetyczny moment dipolowy. Istnieje ponad 40 linii rezonansowych wokół 60 GHz i jedna linia rezonansowa na 118,75 GHz. Para wodna ma elektryczny moment dipolowy, którego widmo rezonansowe wynosi około 22 GHz i 183 GHz w paśmie mmWave. Zakres częstotliwości linii przesyłowej i tłumienie atmosferyczne przedstawiono w tabeli

.

W porównaniu z falami świetlnymi, fala milimetrowa rozchodzi się z oknami atmosferycznymi (gdy fala milimetrowa i fala submilimetrowa rozchodzą się w atmosferze, pewne tłumienie spowodowane absorpcją rezonansową cząsteczek gazu jest wartością minimalną). Wpływ źródła promieniowania cieplnego jest niewielki. Prawidłowy dobór częstotliwości ma kluczowe znaczenie przy projektowaniu systemów mmWave.

Zastosowanie fali milimetrowej

W porównaniu z mikrofalami, mmWave odpowiada krótszym długościom fal i w pewnym stopniu pokrywa się z końcem niskiej częstotliwości fal terahercowych. Ze względu na różne charakterystyki widma i propagacji, zakres zastosowań fal mmWave jest szeroki.

System komunikacji fal milimetrowych

Wraz z ciągłym postępem globalnej informatyzacji wymagania ludzi dotyczące szybkości transmisji, przepustowości transmisji i jakości transmisji systemów komunikacyjnych stale rosną, co prowadzi do narodzin technologii bezprzewodowego dostępu szerokopasmowego na falach milimetrowych. Ponadto od lat 90. system komunikacji satelitarnej wystrzelił na orbity synchroniczne prawie 200 satelitów komunikacyjnych. Pasmo częstotliwości komunikacji zajmuje głównie pasmo C, a następnie pasmo Ku, powodując problem przeciążenia widma komunikacji satelitarnej. Wprowadzenie mmWave może zwiększyć przepustowość i szybkość transmisji komunikacji satelitarnej. Ponadto mmWave ma silne właściwości przeciwzakłóceniowe i ukrywanie, dzięki czemu komunikacja satelitarna jest bezpieczniejsza i bardziej niezawodna.

Broń o milimetrowej fali

W porównaniu z bronią naprowadzaną na podczerwień lub naprowadzaną laserowo, broń naprowadzana na fale milimetrowe ma większą zdolność do penetracji dymu, pyłu lub chmur, a także ma niższe tłumienie i utratę atmosfery w oknie transmisyjnym. Dzięki temu mogą być używane w bardzo trudnych warunkach, takich jak niesprzyjająca pogoda lub złożone pole bitwy, i działają normalnie, aby osiągnąć efekt precyzyjnych uderzeń. Innym zastosowaniem broni jest bezpośrednie użycie mmWave do generowania impulsów mikrofalowych o dużej mocy, aby trwale uszkodzić sprzęt elektroniczny. W przypadku ludzkiego ciała, ponieważ głębokość skóry mmWave wynosi tylko 0,4 mm, ten impulsowy sygnał mikrofalowy o dużej mocy nie zagraża życiu, ale spowoduje nieznośne uczucie pieczenia na naskórku i utratę skuteczności bojowej.

Technologia obrazowania fal milimetrowych

Tradycyjna technologia obrazowania rentgenowskiego jest używana w większości przypadków kontroli bezpieczeństwa na lotniskach i dworcach, ale promieniowanie generowane przez ten sprzęt jest szkodliwe dla ludzkiego ciała. Dlatego nie zaleca się wielokrotnych kontroli bezpieczeństwa w krótkim czasie, w przeciwnym razie może to spowodować nieodwracalne uszkodzenie ciała ludzkiego. Fala mmWave może penetrować popularne materiały ekranujące, takie jak odzież, plastik lub papier, i ma wysoką rozdzielczość. Może dokładnie identyfikować przewożone towary niebezpieczne bez generowania promieniowania jonizującego. Dlatego w porównaniu z tradycyjną technologią kontroli bezpieczeństwa rentgenowskiego jest bardziej odpowiedni dla pola kontroli bezpieczeństwa ludzkiego ciała.

Radar fal milimetrowych

Technologia radarowa jest również ważną częścią narodowej siły obronnej. Szybki rozwój wysokowydajnych źródeł mmWave znacznie poprawił wydajność radaru. Na przykład może rozróżniać mniejsze cele i rozróżniać wiele celów jednocześnie, a także może dostosować się do złożonego środowiska pogodowego itp. Jednocześnie radar mmWave może być mniejszy i lżejszy, co odpowiada potrzebom rozwoju wojskowy sprzęt elektroniczny.

TECHNOLOGIA FALI MILIMETROWYCH W KOMUNIKACJI MOBILNEJ

Jako poddział mikrofal, mmWave wykazuje wiele wspólnych cech w transmisji komunikacyjnej. mmWave jest szeroko stosowany w różnych dziedzinach ze względu na dobre właściwości przeciwzakłóceniowe, dobrą charakterystykę bezpieczeństwa, szerokie pasmo, niskie zużycie energii i tak dalej. Technologia komunikacji mmWave obejmuje dwa aspekty: dalszy rozwój fali świetlnej do niskiej częstotliwości, rozszerzenie mikrofal do wysokiej częstotliwości. Obecnie zasoby pasma częstotliwości wykorzystywanych na świecie są bardzo ograniczone, a widmo wykorzystywanego bezprzewodowego systemu telekomunikacyjnego jest mniejsze niż 6 GHz. Jednak zasoby widma w zakresie 3~60 GHz są wystarczające i nie zostały skutecznie opracowane i wykorzystane. Z tego powodu komunikacja mobilna nowej generacji przyjmuje pasmo 9,9 ˜ 86 GHz jako kluczowy przedział i umożliwia bardziej dogłębną eksplorację szerokiego zasięgu Internetu w oparciu o technologię LTE (Long Term Evolution). To pasmo służy do tworzenia sieci supergęstej, a warstwa LTE i warstwa UDN (Ultra-Dense Network) zostaną pokryte podwójnie. Wraz ze wzrostem liczby anten stacji bazowych, duża liczba anten może być rozmieszczona na niewystarczającej przestrzeni, a długość fali komunikacji nie jest zbyt długa. Wraz ze wzrostem liczby urządzeń bezprzewodowych i niedoborem zasobów widma, ograniczona przepustowość może być dzielona tylko w wąskim spektrum, co znacznie wpływa na wrażenia użytkownika. Komunikacja 5G wykorzystuje technologię mmWave (26,5~300 GHz), która zwiększa szybkość poprzez zwiększenie przepustowości. Dostępna szerokość pasma dla 28 GHz wynosi około 1 GHz, natomiast dostępna szerokość pasma dla 60 GHz to 2 GHz. Fala mmWave ma wyjątkowe zalety w zakresie poprawy przepustowości i jakości sygnału oraz pokrycia. Obecnie, dzięki technologii wielu wejść i wyjść na dużą skalę w paśmie mmWave, Bell Laboratories w Chinach osiągnęło cel zwiększenia wydajności i wydajności komunikacji. Korzystając z prototypów o szczytowych prędkościach przesyłu przekraczających 50 Gb/s, laboratorium zwiększyło prędkość widma do 100 b/s na 28 GHz w paśmie mmWave 28 GHz, umożliwiając użytkownikom szybsze pobieranie za pomocą Internetu i dostarczanie nawet 100 megabajtów informacji w bardzo krótki okres czasu. Podsumowując, komunikacja mmWave zajmuje ważne pole zastosowań z własnymi zaletami i nie można jej zastąpić w krótkim okresie. W oparciu o charakterystykę mmWave, bardzo szybka komunikacja nowej generacji komunikacji mobilnej może być obsługiwana przez technologię mmWave. Zastosowanie technologii anten na dużą skalę do pasma mmWave. Komunikacja w celu osiągnięcia nowej generacji systemu komunikacji mobilnej jest wizją ogólnie akceptowaną przez branżę, która może skutecznie wspierać wymagania dotyczące przepustowości i wydajności widma systemu komunikacji mobilnej nowej generacji.

Model propagacji fali milimetrowej i model kanału

Jako medium transmisyjne w procesie komunikacji bezprzewodowej charakterystyka propagacji fali elektromagnetycznej w przestrzeni jest podstawą konfiguracji technologii transmisji, konstrukcji struktury anteny i planu sieci bezprzewodowej w systemie komunikacji bezprzewodowej. W przypadku pasma mmWave, ponieważ wielkość celu i długość fali w środowisku propagacji są porównywalne, propagacja w przestrzeni różni się od prawa propagacji niskich częstotliwości i jest ściśle związana ze środowiskiem propagacji. Fala mm jest silnie tłumiona w propagacji atmosferycznej, a odległość propagacji jest poważnie zduszony. Ponadto tłumienie fali elektromagnetycznej spowodowane absorpcją cząsteczek tlenu, cząsteczek pary wodnej i czynników opadowych jest również ściśle związane z częstotliwością. Fale elektromagnetyczne będą wykazywać różne mechanizmy propagacji, takie jak odbicie, dyfrakcja, rozpraszanie czy transmisja. Modele propagacji mmWave dzielą się głównie na dwie kategorie: model propagacji w dużej skali i model propagacji w małej skali. Celem wielkoskalowego modelu propagacji jest opisanie zmian mocy odbieranego sygnału wraz z odległością nadajnika-odbiornika na dużej odległości między nadajnikiem a odbiornikiem.

Model propagacji strat na dużą skalę

Wielkoskalowy model propagacji strat jest opisem charakterystyki zmiany siły sygnału fal elektromagnetycznych przesyłanych na duże odległości w kanale bezprzewodowym. W prostym środowisku kanału bezprzewodowego, wielkoskalowa charakterystyka strat opisuje proporcjonalny związek między siłą sygnału odbiornika a odległością. W przypadku kilku znanych modeli strat na dużą skalę, różne środowiska kanałów bezprzewodowych mają różne modele strat ścieżki. Utrata ścieżki odzwierciedla redukcję energii fali elektromagnetycznej po przejściu przez kanał bezprzewodowy. Generalnie wyraża się w wielkości redukcji mocy i odzwierciedla zmianę w odbieranej mocy odbiornika w efektywnym zasięgu transmisji na duże odległości. W ogólnym środowisku kanałowym, gdy przesyłana moc jest stała, utrata ścieżki jest proporcjonalna do odległości transmisji. Wraz ze wzrostem odległości propagacji siła sygnału stale się zmniejsza. Dlatego zmienna określona przez trend malejący nazywana jest wskaźnikiem utraty ścieżki. Im większy wskaźnik strat, tym szybciej siła sygnału maleje wraz ze wzrostem odległości. Najniższa wartość w systemie komunikacyjnym nie jest niższa niż próg odbioru odbiornika. Wskaźnik tłumienia ścieżki jest ściśle powiązany z częstotliwością fal elektromagnetycznych, właściwościami anteny i środowiskiem kanału. Istnieją różne wielkoskalowe modele utraty ścieżki (deterministyczne, empiryczne i losowe), a wszystkie z nich zapewniają rzeczywiste modele utraty ścieżki dla kanałów bezprzewodowych w oparciu o zmierzone parametry. Model podzielony jest na jednoczęstotliwościowe i wieloczęstotliwościowe modele utraty ścieżki, w tym następujące typowe wielkoskalowe modele utraty ścieżki. Najczęściej stosowanymi jednoczęstotliwościowymi modelami utraty ścieżki na dużą skalę są CI (Model utraty ścieżki odległości odniesienia w wolnej przestrzeni Close-In) i FI (Model utraty ścieżki Floating-Intercept). Wyrażenie modelu CI jest następujące:



gdzie jest zmienną losową o średniej zerowej Gaussa opartą na odchyleniu standardowym δ, FSPL(f, δo ) reprezentuje stratę ścieżki, gdy częstotliwość jest stała, a odległość odniesienia do , a n to PLE (wykładnik utraty ścieżki). Ogólnie rzecz biorąc, wartość do znajduje się w polu dalekim, a d powinno być znacznie większe niż do. W przypadku niskiej częstotliwości na zewnątrz do wynosi zazwyczaj 0,1 ˜ 100 km, ale w przypadku środowiska wewnętrznego o wysokiej częstotliwości do wynosi zwykle 1 m. Model CI jest określany tylko przez PLE, a do dopasowania danych zwykle stosuje się metodę najmniejszych kwadratów. SF (zanikanie cieni) można wyrazić przez odchylenie standardowe zmierzonych danych, zdefiniowane w następujący sposób:



gdzie N oznacza liczbę ścieżek między nadajnikiem a odbiornikiem, a δ oznacza odchylenie standardowe mierzonych danych. W procesie propagacji bezprzewodowej na zewnątrz fale elektromagnetyczne są blokowane przez budynki i topografię, a za obiektami ekranującymi tworzy się półślepy obszar. Mechanizm propagacji fal elektromagnetycznych zmieni się ze względu na zmianę tych niepewnych czynników. W procesie transmisji bezprzewodowej w pomieszczeniach główna okluzja pochodzi ze ścian, ludzi itp. Dlatego blaknięcie cienia będzie miało bezpośredni wpływ na zasięg sieci bezprzewodowej i jakość komunikacji.

Model propagacji na małą skalę

Celem małoskalowego modelu propagacji jest scharakteryzowanie małoskalowych charakterystyk zaniku fal elektromagnetycznych przy szybkich zmianach natężenia sygnału w małym zakresie. Zanikanie na małą skalę odnosi się do szybkiej zmiany odbieranego sygnału w krótkim czasie lub niewielkiej odległości, a zanikanie na małą skalę jest również nazywane szybkim zanikaniem. Przesyłany sygnał rozchodzi się wieloma ścieżkami i dociera do odbiorcy w oparciu o różne mechanizmy propagacji. W tym momencie odbierany sygnał to zestaw sygnałów o różnych amplitudach i fazach przesyłanych różnymi ścieżkami, a sygnały te będą się wzajemnie zakłócać, powodując zanikanie na małą skalę. Sygnał propagowany przez wiele ścieżek nazywany jest sygnałem wielościeżkowym, a sygnał wielościeżkowy ma różną siłę sygnału i szerokość pasma sygnału w procesie propagacji. W przypadku pasma częstotliwości mmWave z jednej strony selektywność częstotliwości kanału bezprzewodowego mmWave jest poważniejsza niż w przypadku niskich częstotliwości i istnieją różnice w charakterystyce zanikania na małą skalę między różnymi pasmami częstotliwości. Z drugiej strony zdolność penetracji sygnału mmWave jest słaba, a transmitowany sygnał może być odbierany w środowisku NLOS (bez linii wzroku). Aby uzyskać pokrycie obszaru NLOS, konieczne jest zbadanie małoskalowych charakterystyk dyspersji kątowej sygnału mmWave. W modelu kanału mmWave geometryczny model kanału oparty na przestrzeni zwykle wykorzystuje CIR (Channel Impulse Response) do odzwierciedlenia małoskalowych charakterystyk kanałów wielościeżkowych, a w pomiarach propagacji radiowej parametry propagacji w małej skali są często wyodrębniane na podstawie CIR sygnałów wielościeżkowych. Model odpowiedzi impulsowej kanału wielościeżkowego mmWave można przedstawić jako funkcję kąta czasowego i przestrzennego



gdzie K jest liczbą wielodrogowości, t oznacza czas, αK, φK i τK oznaczają odpowiednio amplitudę, fazę i względne opóźnienie propagacji wielodrogowości K i oznaczają odpowiednio i oznaczają kąt odjazdu i kąt nadejścia, z których oba zawierają informacje o kącie poziomym i kącie nachylenia. reprezentuje wektor (θrx, ψrx) złożony z AoD (kąt azymutalny odlotu) i EoD (kąt elewacji odlotu) wielodrogowego K, a Φ reprezentuje wektor (θrx, ψrx) złożony z AoA (kąt azymutalny przybycia) i EoA (Kąt wzniesienia nadejścia) wielodrogowego K.

Model kanału fal milimetrowych

Model kanału jest podstawą projektowania systemów komunikacji bezprzewodowej i oceny technologii algorytmów komunikacyjnych. Dlatego dokładne modelowanie kanałów jest bardzo ważne dla komunikacji bezprzewodowej. Aby zasymulować rzeczywisty proces transmisji sygnału i podsumować charakterystykę kanału, konieczne jest wykonanie dużej liczby pomiarów na typowych scenach, aby uzyskać efektywne wsparcie danych i zwiększyć wiarygodność wyników. Obecnie większość metod modelowania kanałów mmWave to metoda klastra czasu i płata przestrzennego, a także metoda modelu kanału oparta na technologii śledzenia promieni. Niektóre niezwykłe cechy fal milimetrowych są wprowadzane jako ważne odniesienie w procesie modelowania. Na przykład fala milimetrowa reprezentowana przez 60 GHz znajduje się właśnie na szczycie absorpcji tlenu i pary wodnej, a sygnał fali elektromagnetycznej rozchodzi się w atmosferze na dużą odległość. Niektóre badania wykazały, że tłumienie sygnału 60 GHz na niektórych materiałach jest znacznie wyższe niż w przypadku sygnału o niskiej częstotliwości, a tłumienie również różni się w zależności od materiałów. Oprócz powyższych cech, istnieją jeszcze dwie ważne cechy fal mm. Po pierwsze, fala mmWave jest łatwiejsza do zablokowania przez ludzkie ciało i powoduje znaczne tłumienie. Tymczasem kanał mmWave jest niestacjonarny, ze względu na stosunkowo częstą i złożoną działalność człowieka. Po drugie, na podstawie dużej liczby zmierzonych danych stwierdzono, że fala milimetrowa przedstawia istotne cechy zjawiska nadejścia klastra. Dlatego wiele standardów dotyczących modelu kanału mmWave przyjmuje tę funkcję jako podstawę modelowania. Obecnie istnieją trzy międzynarodowe standardy dla modelu kanału mmWave, którymi są IEEE802.15.3c, IEEE802.11ad i ECMA-387. Modele kanałów wysokiej częstotliwości, które zostały ukończone i są w toku, obejmują głównie modele kanałów proponowane przez instytucje badawcze, różne grupy projektów badawczych i organizacje normalizacyjne, a także te proponowane przez 3GPP. Sojusz WiGig jest zaangażowany w badania nad systemami WLAN 60 GHz i wprowadził odpowiedni model kanału IEEE802.11ad w 2009 roku. Model obsługuje trzy scenariusze: sala konferencyjna, kabina i pokój dzienny. Utrata ścieżki i parametry na małą skalę każdej sceny w LOS (Linia widzenia) / NLOS są podane szczegółowo. W modelu tym, zgodnie z charakterystyką propagacji fal elektromagnetycznych 60 GHz w pomieszczeniach, wprowadza się koncepcję klastra, ustala się model blokowania przez człowieka i ustala się prawdopodobieństwo blokowania klastra. Odblokowany klaster musi generować parametry, takie jak czas, amplituda, faza i charakterystyka polaryzacji subśrednicy w klastrze. Ponadto zmodyfikowany model udostępnia trzy rodzaje modeli anten: antena dookólna, antena sterowana kierunkowo i antena z układem fazowym.

Model kanału MiWEBA

Projekt badawczy MiWEBA poświęcony jest badaniom i rozwojowi heterogenicznych sieci mmWave, które łączą stacje bazowe mmWave UWB z sieciami komórkowymi poprzez backhaul/forward. Celem projektu jest 1000-krotne zwiększenie przepustowości sieci i rozwiązanie problemu ograniczenia przepustowości przy rozsądnych kosztach. Piąta grupa robocza projektu jest odpowiedzialna za pomiary i badania modelu kanału mmWave oraz opracowuje własny model kanału pasma mmWave. Model kanału MiWEBA jest oparty na modelu kanału 3GPP 3D. Dane pomiarowe i metody statystyczne RT (Ray Tracing) są wykorzystywane do opracowania modelu kanału, z naciskiem na testowanie modelu utraty ścieżki w paśmie 57 GHz ~ 66 GHz. Ponieważ ograniczone działania pomiarowe nie mogą skutecznie rozwiązać problemów, takich jak utrata roślinności i blaknięcie cienia powodowanego przez pojazdy mobilne, w ramach projektu MiWEBA opracowano nową dokładną (quasi-deterministyczną, Q-D) metodę modelowania kanałów zewnętrznych i wewnętrznych 60 GHz. Odpowiedź impulsowa kanału mmWave modelu składa się z kilku deterministycznych silnych promieni (promieni D) i wielu stosunkowo słabych promieni losowych (promienie R). Struktura modelu kanału może elastycznie opisywać cechy geometryczne sceny: tłumienie i rozpraszanie odbić, blokowanie promieni i efekty ruchu. W propozycji projektu MiWEBA zdefiniowano trzy główne scenariusze: tereny otwarte (kampusy uniwersyteckie), ulice i lobby hotelowe. Model charakteryzuje się dużą wszechstronnością, a odpowiednie parametry modelu łącza są wybierane na podstawie eksperymentalnych pomiarów i modelowania ray tracingu zgodnie z wymaganiami. Na przykład, zmiana parametrów anteny Tx może zostać rozszerzona na łącze D2D (Device to Device).

Model kanału METIS

W porównaniu z innymi zespołami projektowymi, projekt METIS (Mobile and wireless communication Enablers for the Twenty-twenty Information Society) opracowuje nowe modele kanałów w oparciu o szeroki zakres działań pomiarowych i analiz, uzupełnionych symulacjami komputerowymi. Modele kanałów METIS obejmują modele oparte na mapach, modele losowe lub kombinację tych dwóch modeli, które zapewniają elastyczną i skalowalną strukturę modelu kanału, aby spełnić różnorodne wymagania symulacyjne pod względem dokładności i złożoności obliczeniowej. Model mapy to model śledzenia promieni oparty na uproszczonej mapie, która obejmuje ważne mechanizmy propagacji, takie jak dyfrakcja, odbicie zwierciadlane, odbicie rozproszone, blokowanie i tak dalej. W związku z tym, ze względu na fakt, że model zapewnia dokładne i rzeczywiste charakterystyki przestrzenne kanału, nadaje się do wielkoskalowego modelu utraty ścieżki MIMO i D2D. Model stochastyczny jest oparty na geometrycznym modelu kanału losowego wyewoluowanym z modelu kanału WINNER/3GPP. Dostarczone parametry statystyczne mają charakterystykę fal milimetrowych, a model strat ścieżki jest zależny od częstotliwości. Model hybrydowy ma elastyczną i skalowalną strukturę modelu, która może skutecznie zrównoważyć złożoność i dokładność symulacji. Na przykład zanikanie cieni może być oparte na modelu mapy, podczas gdy zanikanie na małą skalę może być oparte na modelu losowym.

Model kanału Uniwersytetu Nowojorskiego

Zespół profesora Rappaporta z New York University po raz pierwszy ogłosił zewnętrzny dwuwymiarowy model kanału mmWave (28 GHz) w 2014 roku. Model oparty jest na strukturze modelu kanału 3GPP i wykorzystuje dane pomiarowe oraz metody statystyczne ray tracingu do opracowania modelu kanału. . Scenariusze testowe znajdują się głównie w centrum miasta, kampusie, w pomieszczeniach i na zewnątrz pod gęstym miastem (obszar Nowego Jorku na Manhattanie). Następnie zespół zaproponował trójwymiarowy model kanału oparty na losowej geometrii. Parametry wielkoskalowe i małoskalowe w modelu spełniają różne rozkłady losowe (podobne do 3GPP). Model definiuje dwa parametry o małej skali, klastry w dziedzinie czasu i płaty przestrzenne. Liczba klastrów i podścieżek w każdej scenie jest równomiernie rozłożona. Liczba płatów przestrzennych jest zgodna z rozkładem Poissona, a pozostałe parametry kanału są zbliżone do 3GPP. Ponadto model zapewnia trzy modele strat ścieżki do łączenia wiązek, kierunkowy i dookólny. Zaproponowany przez ten zespół model kanału dotyczy tylko mierzonych pasm częstotliwości (28 GHz, 38 GHz, 60 GHz, 73,5 GHz) i nie dostosowuje się do wszystkich pasm częstotliwości od 6 GHz do 100 GHz.

Model kanału mmMAGIC

mmMAGIC (Millimetre Wave Based Mobile Radio Access Network for Fifth Generation Integrated Communications) opracował model kanału wysokiej częstotliwości dla zakresu częstotliwości 6 GHz ~ 100 GHz i przeprowadził 20 rodzajów środowisk propagacji (bloki miejskie, otwarte place, w biurach wewnętrznych, na lotniskach oraz w pomieszczeniach i na zewnątrz) w ośmiu pasmach częstotliwości od 6 do 100 GHz. Model kanału mmMAGIC został opracowany równolegle z 3GPP i ITU-R, a niektóre metody rozwoju zostały przyjęte przez te ostatnie. Model oparty jest na geometrycznym modelu losowym i składa się z modelu podstawowego oraz modelu dodatkowego. Wśród nich funkcje dodatkowego modelu obejmują: efekty odbicia i blokowania gruntu, duże pasmo i duże szyki antenowe, spójność przestrzenną i modelowanie strat penetracji budynku. Schemat pomiarowy mmMAGIC jest podobny do schematu METIS. Ponieważ dane pomiarowe są ograniczone statystycznie, dodatkowe dane kanału są generowane poprzez symulację ray tracingu, a następnie wyniki pomiarów są kalibrowane, aby można było wyprowadzić dodatkowe parametry do modelowania losowego.

Model kanału 5GCM

5GCM (5G Channel Model) to sojusz modeli kanałów 5G mmWave zainicjowany przez NIST (National Institute of Standards and Technology), w tym AT&T, China Mobile, Ericsson, Huawei, Intel, Nokia, Qualcomm, Samsung, New York University, University of Południowa Kalifornia oraz inne instytucje badawcze i uniwersytety. Model ten jest oparty na trójwymiarowym modelu kanału w 3GPP TR 36.873, wykorzystując kombinację wieloczęstotliwościowego pomiaru kanału i symulacji śledzenia promieni. Typowe scenariusze obejmują UMa (Urban Macro), UMi (Urban Micro), InH (Indoor Hotspot) i O2I (Outdoor to Indoor). Oprócz modelu utraty ścieżki, model posiada wiele metod i wartości parametrów zgodnych ze standardem 3GPP TR 38,901. Dla strat przenikania O2I, dla budynków ze ścianami zewnętrznymi o różnym tłumieniu, podane są dwa modele, niski i wysoki. Model ten dostarcza ważnych sugestii referencyjnych dla realizacji spójności przestrzennej. Wraz ze zmianą położenia geometrycznego, realizacja kanałowa parametrów wielkoskalowych i małoskalowych musi być ciągła. Po pierwsze, utrata ścieżki, w tym zanikanie cieni, powinna zmieniać się płynnie wraz z ruchem UT. Po drugie, parametry o małej skali, takie jak kąt, moc i opóźnienie, również powinny zmieniać się dynamicznie wraz z pozycją, co ma ogromne znaczenie dla oceny mobilności i śledzenia wiązki w komunikacji 5G.

Model kanału wysokiej częstotliwości 3GPP

W 2016 roku Organizacja Standardów 3GPP wydała model kanału wysokiej częstotliwości 3GPPTR38.900, który jest rozszerzoną wersją trójwymiarowego modelu 3GPPTR36.873 w zakresie częstotliwości 6 cm 100 GHz. Obsługuje scenariusze takie jak UMi, UMa, InH i dodaje nowe charakterystyki kanałów w scenariuszach 5G, w tym spójność przestrzenną, agregację wielu nośnych, utratę tlenu, odbicie od ziemi, dużą przepustowość i duży układ anten. Model ten dziedziczy metodę modelowania blokowania 5GCM, dodatkowo udoskonala wyrażenie współrzędnych biegunowych i dzieli blokujące obiekty na dwa typy. Dodatkowo zaproponowano dwa uproszczone modele do symulacji połączeń: CDL i TDL. Są bardziej elastyczne niż uproszczony model w WINNERII / SCME i mogą ustawiać rozszerzenie opóźnienia lub rozszerzenie kąta zgodnie z wymaganiami symulacji. Wreszcie model hybrydowy mapy w METIS służy jako odniesienie. W 2017 roku Organizacja Normalizacyjna 3GPP wydała ulepszoną wersję standardu 3GPPTR38.901, który łączy modele kanałów o niskiej i wysokiej częstotliwości oraz rozszerza zakres częstotliwości do 0,5˜100GHz.

Niedobór istniejącego kanału fal milimetrowych i jego przyszły trend rozwoju

Wszystkie powyższe modele kanałów są oparte na paśmie wysokich częstotliwości, które mogą spełniać charakterystykę transmisji wielkoskalowego systemu MIMO na falach milimetrowych. W 5G i wcześniejszych systemach komunikacyjnych, znormalizowany model kanału ma tendencję do bycia ogólną ramą modelu kanału opartą na strukturze geometrycznej, która wykorzystuje różne parametry do opisywania różnych scenariuszy. Obecnie wszystkie modele kanałów ze standardowymi falami mm są przeznaczone tylko dla naziemnych sieci komunikacyjnych i wymagają dalszej rozbudowy, aby spełnić wymagania aplikacji pełnego zasięgu 6G. Ponadto, ze względu na nowe wymagania aplikacji i wymagania techniczne, kanał fal 6G mm musi wprowadzić nowe wskaźniki wydajności, takie jak wyższa wydajność widmowa / efektywność energetyczna / efektywność kosztowa, wyższa szybkość transmisji, mniejsze opóźnienia, większa gęstość połączeń, zasięg, inteligentne stopień, bezpieczeństwo itp. W celu spełnienia powyższych wymagań i wskaźników wydajności przyszłych aplikacji komunikacji mobilnej, bezprzewodowa sieć komunikacyjna 6G przyjmie nowe zmiany paradygmatu i będzie polegać na nowych technologiach wspomagających. Nowe zmiany paradygmatu można podsumować jako cztery trendy: zasięg globalny, całe spektrum, pełne zastosowanie i silne bezpieczeństwo. Aby zapewnić globalny zasięg, bezprzewodowa sieć komunikacyjna 6G rozszerzy się z lądowej komunikacji mobilnej na zintegrowaną sieć kosmiczną, powietrzną, naziemną i morską, w tym sieć komunikacji satelitarnej, UAV, naziemne sieci ultragęste, komunikację podziemną, komunikację morską i podwodną akustykę sieć komunikacyjna. Aby spełnić wymagania aplikacji dotyczące ultrawysokiej szybkości transmisji i ultrawysokiej gęstości połączeń, całe widmo, w tym sub-6 GHz, fala mm, teraherc i pasmo optyczne, zostanie w pełni zbadane. Sztuczna inteligencja (AI) i big data zostaną zintegrowane z bezprzewodową siecią komunikacyjną, aby lepiej zarządzać siecią komunikacyjną. Co więcej, sztuczna inteligencja może lepiej dynamicznie aranżować zasoby sieciowe, pamięci podręcznej i obliczeniowej, aby poprawić wydajność systemu. Wreszcie przy projektowaniu sieci należy wziąć pod uwagę czynniki bezpieczeństwa, zwane wbudowanymi zabezpieczeniami sieci, w tym zabezpieczenia warstwy fizycznej i zabezpieczenia warstwy sieci. Silne bezpieczeństwo znajduje odzwierciedlenie w projektowaniu sieci jednocześnie z uwzględnieniem czynników bezpieczeństwa, określanych również jako zabezpieczenia endogeniczne sieci, w tym zabezpieczenia warstwy fizycznej i zabezpieczenia warstwy sieci. Dlatego wyprowadzenie nowego ogólnego modelu kanału 6G będzie trudniejsze. Ze względu na niejednorodną charakterystykę kanału bezprzewodowego 6G i różną skalę działania fal radiowych, sposób wykorzystania ogólnej struktury modelu kanału komunikacji 6G mmWave do dokładnego opisania kanału bezprzewodowego 6G staje się trudnym i znaczącym problemem.

Przebieg fali milimetrowej w komunikacji mobilnej

Wraz z nadejściem ery komunikacji mobilnej nowej generacji, szybki wzrost danych użytkowników sprawia, że ludzie rozważają wykorzystanie pasma nośnego powyżej 6 GHz w celu spełnienia wymagań wysokiej przepustowości. Pasmo wysokich częstotliwości koncentruje się na paśmie fal submilimetrowych i paśmie mmWave między 6 ˜ 100 GHz, co ma na celu zapewnienie większą przepustowość komunikacyjną i mniejszą ekspansję opóźnień. Konstrukcja fali nośnej pasma mmWave wciąż stoi przed poważnymi wyzwaniami. Tłumienie ścieżki i efekt Dopplera w nośnej wysokiej częstotliwości oczywiście wzrastają, a sprzęt systemu przetwarzania sygnału będzie miał nieliniowy wpływ na nośną wysokiej częstotliwości. Efekt wysokiej częstotliwości urządzeń sprzętowych i szerokości pasma sygnału oraz inne powiązane czynniki muszą być jednocześnie w pełni uwzględnione przy projektowaniu sprzętu odbiorczego i sprzętu nadawczego, ze względu na znaczny wzrost częstotliwości nośnej. Nie ma wątpliwości, że anteny macierzowe na dużą skalę mogą lepiej spełniać wymagania dotyczące wydajności widmowej wysokich częstotliwości

Wydajność fal kandydujących w paśmie wysokiej częstotliwości komunikacji mobilnej

MmMAGIC to projekt rozpoczęty w Europie w celu promowania budowy nowej generacji bezprzewodowej sieci dostępowej mmWave do komunikacji mobilnej. Projekt określił odpowiednie wymagania i standardy dla nowych portów lotniczych powyżej 5G 6GHz. W tym planie przebiegi kandydujące do nośnej są podzielone na przebiegi z wieloma nośnymi i przebiegi z jedną nośną, a także zdefiniowane są odpowiednie wskaźniki do pomiaru wydajności przebiegu, takie jak wydajność widmowa, złożoność sprzętu sprzętowego, dynamiczna konfiguracja parametrów nośnych, sprawność energetyczna, brak -przeciek pasma i tak dalej. W mmMAGIC nośne komunikacyjne powyżej 6 GHz dzielą się głównie na Multi-Carrier (MC) i Single-Carrier (SC). Konkretną zależność klasyfikacyjną pokazano na rysunku



Technologia modulacji przebiegu MC obejmuje: CP-OFDM, W-OFDM, POFDM, UW-OFDM, UF-OFDM, FMMC/QAM, FBMC/OQAM. Technologia modulacji przebiegów SC obejmuje: DFT-S-OFDM, ZT-DFT-S-OFDM, CPM-S- -FDMA, ceCPM-SC W MC przebiegi można dalej podzielić na dwie grupy w oparciu o: (1) głównie przebiegi zlokalizowane w czasie, z brakiem lub niewielkim nakładaniem się sąsiednich symboli przebiegów; (2) Przebiegi głównie zlokalizowane częstotliwościowo, w których występuje znaczne nakładanie się kolejnych symboli. Klasyfikacja jest pokazana na rysunku powyżej, a parametry projektowe wszystkich przebiegów podano w Tabeli.



Przebiegi nakładające się na sąsiednie symbole są sparametryzowane przez współczynnik nakładania K, co oznacza, że dany symbol nakłada się na poprzedzający symbol Kmur1 i kolejny symbol Kmur1. Dla przebiegów FBMC-OQAM i FBMC-QAM badamy głównie 2?K?4. Technologia modulacji przebiegu SC obejmuje: DFT-S-OFDM, ZT-DFTS-OFDM, CPM-SC-FDMA, ceCPM-SC. Trzy z nich oparte są na OFDM, a jeden przebieg to czysta pojedyncza nośna, jak pokazano na rys. (4). Parametry projektowe wszystkich przebiegów przedstawiono w tabeli 3. Schemat blokowy systemu nadajnika i odbiornika powyższych przebiegów przedstawia rysunek:



Rysunek przedstawia ilościowo proces mapowania symboli, konwersji szeregowo-równoległej, transformacji Fouriera, dodawania CP i filtrowania w procesie odbierania i odbierania sygnałów cyfrowych. W zależności od różnych kandydujących kształtów fal, do budowy połączenia między nadajnikiem a odbiornikiem zostaną wybrane różne moduły. Konkretna konfiguracja parametrów i wybór modułu są pokazane w Tabeli. Różne technologie falowe wykorzystują moduły składowe o różnych funkcjach na rysunku do budowy łączy przetwarzania sygnału, a wydajność symulacji systemu jest bardzo zróżnicowana. Ponieważ sieci dostępu bezprzewodowego powyżej 6 GHz wymagają ogromnej przepustowości kanału, dużej szybkości transmisji danych i borykają się z problemami, takimi jak złożone środowisko propagacji kanałów i konstrukcja sprzętu, odpowiednie parametry są zwykle używane do pomiaru kształtów fal. Szereg wskaźników, takich jak wydajność widmowa, stosunek wartości szczytowej do średniej (PARR), środki zaradcze przeciwko zróżnicowaniu czasowemu i częstotliwościowemu, wyciekom poza pasmem i dynamiczną konfiguracją parametrów, podsumowano na rysunku.



Jak widać z powyższego rysunku, pierwszeństwo należy nadać wydajności widmowej, przepustowości komunikacyjnej, złożoności sprzętu odbiorczego, dywersyfikacji czasowej i wydajności dywersyfikacji częstotliwościowej w paśmie fal submilimetrowych. W paśmie mmWave wszystkie wskaźniki pokazane na rysunku również spowodują poważne zakłócenia w działaniu systemu.

Wpływ łącza RF na sygnał fali milimetrowej

mmWave to główne pasmo częstotliwości komunikacji mobilnej nowej generacji. Biorąc pod uwagę charakterystykę komunikacji mobilnej nowej generacji, wymagania dotyczące wydajności urządzeń mmWave w łączu komunikacyjnym są również bardzo wysokie. Wraz ze wzrostem częstotliwości nośnej wzrasta również szum fazowy sprzętu w łączu, a przesunięcie zegara staje się bardziej znaczące przy wyższych częstotliwościach, co jest wadą każdego schematu transmisji z wieloma nośnymi, takiego jak OFDM, ponieważ te przesunięcia wpływają na ortogonalność i powodują utrzymanie synchronizacja trudniejsza. Jednocześnie nieliniowość urządzeń RF będzie miała również znaczący wpływ na jakość przebiegu. Nawet jeśli pętla synchronizacji fazowej jest używana w łączu komunikacyjnym 5G pracującym w paśmie mmWave, jest bardziej prawdopodobne, że będzie dotknięta nieliniowością częstotliwości radiowej i ograniczeniem procesu wytwarzania urządzenia w porównaniu z urządzeniem w paśmie niskich częstotliwości. Gdy tryb modulacji jest wysoki, szum fazowy będzie miał poważny wpływ na system mmWave. W systemie 5G mmWave poziom szumu fazowego "całkowitego" oscylatora (w tym zegara odniesienia, filtra pętli i innych elementów pętli synchronizacji fazowej) będzie znacznie wyższy niż w przypadku pasma UHF i mikrofalowe tradycyjnych systemów bezprzewodowych. Szum fazowy w oscylatorze jest powodowany przez szum w elemencie aktywnym i elemencie stratnym, który jest przekształcany w górę do częstotliwości nośnej. Syntezator częstotliwości zwykle składa się z oscylatora odniesienia (lub zegara), VCO (oscylatora sterowanego napięciem) i PLL z dzielnikiem częstotliwości, pompy ładunku detektora częstotliwości fazowej i filtra pętli. Matematyczne charakterystyki szumu fazowego są zwykle opisywane przez PSD (gęstość widmowa mocy). Poziom PSD oscylatora wynosi około 20 dBc/Hz przy dziesięciokrotnym przesunięciu częstotliwości każdej nośnej, co można wyrazić następującym wzorem:



gdzie PSDo to częstotliwość zerowa (f = 0) widmowa gęstość mocy w dBc/Hz, fz,n to częstotliwość zerowa, fp,n to częstotliwość biegunowa. Z równania można zauważyć, że wraz ze wzrostem częstotliwości środkowej systemu poziom mocy szumu fazowego również znacznie wzrasta. Przy 30 GHz może wzrosnąć o prawie 20 dB w porównaniu do 4 GHz. Dlatego szum fazowy, który początkowo miał niewielki wpływ w systemie LTE, stał się głównym czynnikiem, którego nie można pominąć w systemie komunikacji mobilnej wykorzystującym pasmo mmWaves. Z powodu szumu fazowego, odbierane próbki sygnału będą miały losowe, zmienne w czasie błędy fazowe. W systemie OFDM szum fazowy może powodować CPE (wspólny błąd fazy) i ICI (zakłócenia między nośnymi), powodując pogorszenie wydajności EVM. Szum fazowy powoduje również przeciek między sąsiednimi kanałami, co jest szkodliwe dla sceny bliskiego zasięgu konstelacji UE (sprzęt użytkownika) w komórce. Szum fazowy ma niekorzystny wpływ na schemat eliminacji zakłóceń. Ogólnie rzecz biorąc, wariancja szumu fazowego wzrasta wraz z kwadratem częstotliwości nośnej. Jest odwrotnie proporcjonalna do poboru mocy przez generację pełnej częstotliwości (PLL). To sprawia, że odgrywa ważną rolę w systemach mmWave, zwłaszcza tych dążących do osiągnięcia niskiego zużycia energii, ponieważ może ograniczać przepustowość. Szum fazowy wprowadza również przesunięcie fazowe między różnymi symbolami. Jeśli częstotliwość środkowa wzrasta, jej wpływ będzie się stopniowo zwiększał, co spowoduje duże zakłócenia w dekodowaniu sygnału. Aby rozwiązać ten problem, potrzebne są odpowiednie metody śledzenia i kompensacji szumu fazowego. Szum fazowy można kompensować na różne sposoby. Na przykład, gdy wspólna faza konstelacji obraca się w dziedzinie częstotliwości, łatwo jest oszacować i skorygować CPE. ICI można modelować jako dodatkowy szum. Chociaż nie zawsze jest to szum gaussowski, często trudno go skompensować. Wymaga gęstszych pilotów do szumu fazowego i śledzenia kanałów i może wymagać intensywnych obliczeń. Ogólnie rzecz biorąc, im większa szerokość pasma szumu fazowego (w porównaniu z odstępem podnośnych), tym bardziej dotkliwy jest ICI. Ze względu na duże odstępy między nośnikami wystarczająca jest jedynie kompensacja CPE. Wystarczy tylko skompensować CPE. Powinno to zostać rozwiązane, jeśli estymowana funkcja transferu kanału rozproszonego pilota jest wykorzystywana do korekcji. Ze względu na ograniczenia fizyczne ogólnie uważa się, że sprawność PA (wzmacniacza mocy) w paśmie mmWave jest znacznie niższa niż PA w paśmie fal centymetrowych. Aby osiągnąć wysoką szybkość transmisji danych w paśmie częstotliwości mmWave, należy zwiększyć szerokość pasma systemu i kolejność modulacji, a PAPR sygnału komunikacyjnego również odpowiednio wzrośnie. Dlatego podczas procesu transmisji mmWave PA prawdopodobnie będzie działać w obszarze nieliniowym. Jeśli powiązana technologia zostanie wykorzystana do zmniejszenia PAPR systemu, wpłynie to niekorzystnie na wydajność energetyczną PA. Jednakże, ponieważ PAPR sygnału OFDM ma tendencję do wzrostu logarytmicznego, problem PAPR nie jest poważniejszy niż przypadek poniżej 6 GHz. Gdy sygnał o dużym zakresie dynamicznym przechodzi przez nieliniowy PA, nieliniowość będzie miała na niego wpływ, co spowoduje zniekształcenie w paśmie i regenerację widma. Zniekształcenia w paśmie zwiększają EVM sygnału nadajnika, a regeneracja widma powoduje zakłócenia sąsiedniego kanału. Model szeregowy potęgowy lub model wielomianowy jest szeroko stosowany w nieliniowym modelowaniu PA. Model daje:



gdzie K jest porządkiem nieliniowym, y(t) to sygnał wyjściowy, a x(t) to sygnał wejściowy, który jest złożonym współczynnikiem wielomianu (2k+1) (który można obliczyć metodą najmniejszych kwadratów). Nieliniowość łącza RF jest ważnym czynnikiem wpływającym na jakość przebiegu. Aby głębiej zrozumieć ten punkt, możemy odwołać się do nieliniowego modelu wzmacniacza na rysunku. Model wzmacniacza wykazuje wiele rodzajów nieliniowych charakterystyk między łączami nadajnika i odbiornika. Gdy moc wyjściowa osiągnie punkt kompresji, EVM gwałtownie wzrośnie.



Gdy sygnały wielu nośnych o wysokim PAPR przechodzą przez urządzenia nieliniowe, sygnały mogą być znacznie zniekształcone. Przemysł zwykle używa punktu kompresji 1 dB do określenia nieliniowości nadajnika. Standardowy wskaźnik częstotliwości radiowej nieliniowości odbiornika różni się od wskaźnika nadajnika, ponieważ problemy do rozwiązania są różne. Nieliniowy indeks odbiornika nazywany jest punktem przechwycenia. Nieliniowy związek między napięciem wejściowym i wyjściowym można oszacować za pomocą Equation , a polaryzacja prądu stałego i warunki wyższego rzędu można zignorować w symulacji najwyższego poziomu. Jak pokazano na rysunku, modulator IQ wykorzystuje kosinusoidalną i sinusoidalną reprezentację częstotliwości nośnej RF.



Zniekształcenia liniowe w modulatorze IQ są spowodowane asymetrią miksera. Zawsze istnieje w symulowanym środowisku. Asymetria miksera może powodować nierównowagę wzmocnienia A i błąd kwadratury. Błąd kwadraturowy odnosi się do różnicy faz między dwoma lokalnymi sygnałami oscylatora, co nie ma nic wspólnego z wrodzoną różnicą fazową 90o. Może wytwarzać szum fazowy i/lub przesunięcie częstotliwości.



Masive MIMO dla komunikacji fal milimetrowych
Podstawowa architektura Massive Wave MIMO


Obecnie kraje na całym świecie prowadzą szeroko zakrojone badania nad kluczowymi technologiami 5G, a nowe technologie 5G mogą obejmować wiele aspektów, takich jak technologia transmisji warstwy fizycznej i pasmo częstotliwości nośnej. Na poziomie transmisji w warstwie fizycznej technologia transmisji bezprzewodowej oparta na masywnym, wielu wejściach i wielu wyjściach (Massive MIMO) może głęboko wykorzystać przestrzenne zasoby bezprzewodowe, a następnie znacznie poprawić wydajność widma i wydajność energetyczną systemu, który stał się jednym hotspotów badawczych w środowisku akademickim i przemysłowym. Z drugiej strony, na poziomie pasma częstotliwości nośnych, ze względu na niedobór zasobów widmowych w obecnym paśmie częstotliwości komórkowych poniżej 6GHz, duże zainteresowanie badawcze wzbudziło wdrożenie komunikacji bezprzewodowej w paśmie częstotliwości mmWave. Ze względu na stosunkowo wysokie straty propagacji fal radiowych w paśmie częstotliwości mmWave, badania nad technologią transmisji bezprzewodowej mmWave koncentrowały się we wczesnych latach głównie na scenariuszach komunikacji na krótkie odległości, a powiązanych technologii nie można było bezpośrednio zastosować w scenariuszach komunikacji mobilnej na dużą skalę. Biorąc pod uwagę stosunkowo krótką długość fali w paśmie mmWave, szyk antenowy na dużą skalę może być montowany jednocześnie po stronie stacji bazowej i użytkownika. Ponadto wyższy zysk formowania wiązki zapewniany przez wielkoskalowy układ antenowy może skompensować stosunkowo wyższe straty propagacji w paśmie fal milimetrowych. Wraz z niedoborem zasobów widma rozwój i wykorzystanie zasobów widma mmWave w wojskowych systemach satelitarnych i radarowych stało się przedmiotem badań nowej generacji technologii komunikacji mobilnej. Pasmo milimetrowe jest pierwszym wyborem systemu komunikacji Massive MIMO, ponieważ ma ogromną przestrzeń do rozwoju zasobów widma. Jednak ze względu na krótką długość fali mmWave, w komunikacji mmWave sygnał transmisyjny jest łatwo zakłócany przez szum zewnętrzny i inne czynniki, co skutkuje różnym stopniem tłumienia. Szerokie zastosowanie różnych typów komórek (takich jak makrokomórki, mikrokomórki, pikokomórki i femtokomórki) w celu osiągnięcia zagęszczenia sieci jest kluczową technologią poprawiającą przepustowość sieci, wydajność zasięgu i efektywność energetyczną. Metoda gęstości komórek została przyjęta w istniejących bezprzewodowych sieciach komórkowych, takich jak system LTE-Advanced. Bezprzewodowe sieci HetNet (sieci heterogeniczne) obejmują zdalne głowice radiowe i przekaźniki bezprzewodowe, które mogą jeszcze bardziej poprawić wydajność sieci. W porównaniu z istniejącym systemem 4G oczekuje się, że komunikacja przekaźnikowa i wieloskokowa będzie jednym z podstawowych elementów architektury bezprzewodowej 5G. Ogólnie rzecz biorąc, zarządzanie zasobami radiowymi przez HetNets odgrywa istotną rolę w zaawansowanej architekturze sieci. W szczególności niezbędne jest opracowanie algorytmów alokacji zasobów, które efektywnie wykorzystują zasoby radiowe (w tym przepustowość, moc i anteny) w celu zmniejszenia zakłóceń między komórkami i między użytkownikami oraz zapewnienia QoS, które mogą być odbierane przez aktywnych użytkowników. Ponadto bardzo ważne jest zaprojektowanie i wdrożenie niezawodnej sieci dosyłowej, aby osiągnąć efektywne zarządzanie zasobami i koordynację, które można bezproblemowo zintegrować z obecnymi sieciami i technologiami dostępu. Technologia Massive MIMO i mmWave zapewnia kluczowy sposób rozwiązania wielu problemów technicznych związanych z sieciami 5G HetNet w przyszłości. Wdrożenie dużej liczby anten w nadajniku lub odbiorniku może znacznie poprawić widmo i efektywność energetyczną sieci bezprzewodowych. Obecnie większość systemów bezprzewodowych działa na częstotliwościach mikrofalowych poniżej 6 GHz. W bogatym środowisku rozpraszania, te przyrosty wydajności można osiągnąć za pomocą prostych strategii kształtowania wiązki, takich jak transmisja z maksymalnym współczynnikiem lub zerowe wymuszanie. Bezwzględna przepustowość sieci bezprzewodowej nowej generacji wymaga zastosowania pasm częstotliwości powyżej 6 GHz, wśród których pasmo mmWave może zapewnić ogromne zasoby widma. Co najważniejsze, częstotliwość mmWave ma bardzo krótką długość fali, co może pomieścić dużą liczbę elementów antenowych na małym obszarze, co pomaga w realizacji połączenia wieloantenowego między stacją bazową (BS) a sprzętem użytkownika (UE). Pasmo MmWave może być wykorzystywane do zewnętrznych łączy dosyłowych typu punkt-punkt, obsługujących wewnętrzne, szybkie aplikacje bezprzewodowe (takie jak strumieniowe przesyłanie multimediów w wysokiej rozdzielczości). W rzeczywistości technologia komunikacji mmWave została ustandaryzowana dla usług na krótkie odległości w IEEE 802.11ad. W przyszłości system komunikacji mobilnej będzie wdrażał małe komórki (takie jak Pico i FeMo) na dużą skalę. Technologia komunikacji krótkodystansowej mmWave jest bardzo ważna. Technologia komunikacji mmWave jest uważana za jedną z potencjalnych technologii spełniających potrzeby sieci komunikacji mobilnej nowej generacji. Istnieje wiele różnych architektur bezprzewodowych sieci HetNet do komunikacji mobilnej opartych na mmWave Massive MIMO.

Aktualny kierunek badań

Stosunkowo niewiele jest prac nad teoretycznym i rzeczywistym modelowaniem szerokopasmowych kanałów masywnych MIMO w paśmie częstotliwości mmWave, a model kanału masywnych kanałów mmWave był rzadko zgłaszany. Kanał mmWave na scenie mobilnej ma poważny efekt Dopplera i występuje problem wąskiego gardła w akwizycji chwilowej informacji o kanale; większość metod transmisji opisywanych w literaturze opiera się na idealnym założeniu dokładnego pozyskiwania informacji o kanałach chwilowych i występują problemy, takie jak duża złożoność implementacji. Statystyczne informacje o kanale zmieniają się wolniej niż chwilowe informacje o kanale. Wykorzystanie informacji statystycznych o kanałach może pomóc w projektowaniu masowej transmisji bezprzewodowej mmWave MIMO i poprawić wydajność transmisji systemu. Masywne kanały bezprzewodowe MIMO mmWave wykazują koncentrację energii i inne właściwości w domenie wiązki. Wdrożenie transmisji bezprzewodowej MIMO na falach milimetrowych w domenie wiązki może złagodzić wysokie straty ścieżki kanału fal milimetrowych i głębokie wykorzystanie przestrzennych zasobów bezprzewodowych, aby osiągnąć współdzielenie przestrzennych zasobów bezprzewodowych przez wielu użytkowników. Można zauważyć, że badania nad technologią bezprzewodowej transmisji mmWave Massive MIMO są wciąż w powijakach, a podstawowe teorie i kluczowe kwestie techniczne są trudne. Aby w pełni zbadać jego potencjalne zalety techniczne, konieczne jest zbadanie modelu masywnego kanału MIMO o fali milimetrowej w typowych scenariuszach mobilnych i przeanalizowanie wydajności jego systemu w warunkach ograniczeń, takich jak rzeczywisty model kanału, umiarkowane obciążenie pilota i złożoność implementacji. Należy zbadać optymalną technologię transmisji, aby rozwiązać problem wąskiego gardła związanego z akwizycją informacji o kanale związanym z masową bezprzewodową transmisją MIMO na falach milimetrowych, złożonością implementacji systemu i problemami z zastosowaniem w typowych scenariuszach mobilnych. Masowa transmisja bezprzewodowa MIMO na falach milimetrowych może zwiększyć wykorzystanie nowych zasobów widma i może dogłębnie zbadać przestrzenne wymiary zasobów bezprzewodowych i znacznie zwiększyć szybkość transmisji bezprzewodowej. Jest to jeden z najbardziej obiecujących kierunków badań wspierających przyszłą szerokopasmową komunikację mobilną.

Hybrydowe kształtowanie wiązki w MIMO

Technologia kształtowania wiązki jest jedną z kluczowych technologii w komunikacji bezprzewodowej. Mówiąc ogólnie, technologia kształtowania wiązki jest technologią komunikacyjną, która przekształca wiązkę nadawczą w węższą wiązkę nadawczą w czasie rzeczywistym na końcu nadawczym, aby skierować energię do określonego użytkownika docelowego i uzyskać dodatkowe wzmocnienie systemu w celu poprawy jakości sygnału konkretnego użytkownika docelowego. Technologia kształtowania wiązki ma następujące znaczenie:

Zalety: Większa odległość zasięgu: moc jednostki bezprzewodowej jest nierównomiernie rozłożona w przestrzeni, a główna energia promieniowania wskazuje tylko na lokalizację terminala, aby uniknąć marnowania energii, poprawić ogólny zysk systemu i zwiększyć zasięg i dystans.

Silniejsza zdolność przeciwdziałania zakłóceniom: W oparciu o niezrównoważoną dystrybucję mocy, szyk antenowy jest dokładnie skierowany do lokalizacji terminala na końcu nadawczym, aby zminimalizować zakłócenia w innych systemach bezprzewodowych. Co więcej, możliwość interferencji z innych systemów komunikacji bezprzewodowej jest również zminimalizowana po stronie odbiorczej.

Wyższa szybkość transmisji: Ze względu na lepszą jakość odbieranego sygnału systemu i wyższy SNR ze względu na minimalne zakłócenia, system może stabilnie pracować w trybie modulacji wyższego rzędu. W związku z tym, w warunkach zasobów widma jednostkowego, współczynnik wykorzystania widma jest wyższy, a szybkość transmisji można również znacznie poprawić.

Zgodnie z charakterystyką wektora wagowego, technologię kształtowania wiązki można podzielić na dwa schematy: kształtowanie wiązki o stałej wadze i adaptacyjne kształtowanie wiązki. Wagi stała wiązka informuje, że układ wektora wagi wiązki i kierunek wykresu antenowego są stałe. Belka nieruchoma może tworzyć różne wektory ważenia kombinacji belek. Strona stacji bazowej wybiera inną kombinację do uruchomienia i wybiera markę do odbioru kombinacji odpowiedniego maksymalnego stosunku sygnału do szumu po stronie odbiorczej w oparciu o metody wyszukiwania wiązki. Zgodnie z różnymi ścieżkami propagacji sygnału użytkownika w przestrzeni, adaptacyjne kształtowanie wiązki jest zoptymalizowane w celu utworzenia wykresu kierunku, a różne wzmocnienia anteny są podawane w różnym przybyciu wskazówki, aby utworzyć wąską wiązkę skierowaną na sygnał użytkownika w czasie rzeczywistym. Płat boczny jest jak najniższy, a odbiór kierunkowy jest dostosowany do poprawy wydajności systemu w innych kierunkach. Ze względu na mobilność użytkownika i środowisko rozpraszania, kierunek nadejścia sygnałów odbieranych przez stację bazową jest zmienny w czasie. Adaptacyjne formowanie wiązki można wykorzystać do oddzielenia sygnałów o podobnej częstotliwości, ale z rozdzielną przestrzenią. Pasmo częstotliwości mmWave ma dużą ilość dostępnych zasobów widma, ale jednocześnie charakterystyki transmisji fali milimetrowej, takie jak poważne straty ścieżki i słaba jakość kanału, sprawiają, że wdrożenie technologii fal milimetrowych napotyka pewne trudności. Ponadto w systemie mmWave MIMO, jeśli zostanie zastosowana technologia cyfrowego formowania wiązki, zwiększy się liczba łączy RF. Tymczasem wzrost kosztów i zużycia energii jest znaczny dla systemu komunikacji na falach milimetrowych. Hybrydowa technologia kształtowania wiązki może zostać wykorzystana do rozwiązania problemu zbyt wielu łączy RF i poważnej utraty ścieżki. Ogólnie rzecz biorąc, zaporowo wysokie koszty i zużycie energii zniechęcają do korzystania z cyfrowego kształtowania wiązki w systemach MIMO masywnych mmWave. Hybrydowe formowanie wiązki, z mniejszym łańcuchem RF niż liczba anten, jest możliwe do zastosowania w przypadku systemów MIMO z masywną falą mmWave i wykazuje tylko znikomą utratę wydajności w porównaniu z cyfrowym formowaniem wiązki, które choć ma optymalną wydajność w przypadku konwencjonalnych systemów MIMO, ale jest praktycznie niewykonalne w przypadku systemów MIMO z masywnymi falami mmWave . Hybrydowe kształtowanie wiązki znacznie zmniejsza wykorzystanie łańcucha RF i ma większe zalety w systemach mmWave MIMO. W hybrydowym systemie kształtowania wiązki pokazanym na rysunku , przepływ danych pasma podstawowego jest najpierw przetwarzany przez domenę cyfrową w celu sterowania amplitudą, a następnie wysyłany przez ograniczoną liczbę łańcuchów RF do domeny analogowej w celu przetworzenia w celu sterowania fazą.



Hybrydowa struktura wstępnego kodowania to sposób na zapewnienie silniejszego wzmocnienia komunikacji MIMO w paśmie częstotliwości fal milimetrowych. Istniejące hybrydowe architektury systemu wstępnego kodowania są podzielone głównie na dwie kategorie, a mianowicie główną hybrydową strukturę wstępnego kodowania opartą na przesuwniku fazowym wprowadzonym powyżej oraz hybrydową strukturę wstępnego kodowania wykorzystującą strukturę przełącznika o niskim zużyciu energii co jest mniej stosowane. Wśród nich mieszana struktura wstępnego kodowania wykorzystująca sieć przesuwników fazowych może wykorzystywać przesuwnik fazowy o skończonej rozdzielczości zamiast przesuwnika fazowego o wysokiej rozdzielczości. Chociaż zużycie energii sieci przesuwników fazowych można zmniejszyć bez powodowania oczywistej utraty wydajności, struktura nadal ma duży pobór mocy ze względu na obecność dużej liczby przesuwników fazowych. Wstępne kodowanie oparte na strukturze przełączania nie wykorzystuje sieci z przesuwnikiem fazowym, ale sieć przełączników, co znacznie zmniejsza koszt sprzętu i zużycie energii, ale ma oczywistą utratę wydajności. Dlatego głównym kierunkiem badawczym prekodowania hybrydowego jest badanie struktury prekodowania hybrydowego o wysokiej efektywności energetycznej, która może znacznie zmniejszyć złożoność systemu i utrzymać dobrą wydajność systemu w zakresie dostępności. Multipleksowanie przestrzenne może zostać wykorzystane do drastycznego zwiększenia przepustowości systemu kanałów Massive MIMO mmWave, ponieważ liczba anten BS i UE jest znacznie większa niż w konwencjonalnych systemach. Zwiększa przepustowość transmisji, dzieląc sygnały wychodzące na wiele strumieni, gdzie każdy strumień jest transmitowany jednocześnie i równolegle na tym samym kanale przez różne anteny. W pasmach częstotliwości mmWave sygnały łatwo ulegają dyfrakcji przez obiekty fizyczne, co prowadzi do kilku odbitych sygnałów z różnych punktów rozproszenia. Tak bogate środowisko rozpraszania sprzyja niezależnym i równoległym strumieniom danych które zwiększają przestrzenne zyski multipleksowania. Jednak kanały mmWave są zwierciadlane i mają niską rangę, szczególnie dla linii widzenia (LOS). Mają one tendencję do posiadania mniejszej liczby klastrów czasowych i płatów przestrzennych (lub ogólnie mniej komponentów wielościeżkowych) w porównaniu z ?Wave. W związku z tym nie są w stanie wykorzystać wszystkich dostępnych DoF (tj. obsługiwanych może być tylko kilka strumieni przestrzennych), ograniczając w ten sposób osiągalne zyski multipleksowania. Ponadto wystarczająca dekorelacja między różnymi blisko rozmieszczonymi antenami potrzebna kanałom do optymalnego multipleksowania przestrzennego jest zwykle niemożliwa do zrealizowania w większości praktycznych systemów, takich jak wewnętrzna fala mmWave.

Technologia sieci dosyłowej z falą milimetrową w komunikacji mobilnej
Architektura sieci dosyłowej z falą milimetrową


Sieć dosyłowa mmWave składa się z makrostacji bazowych, kilku mikrostacji bazowych oraz losowo rozproszonych użytkowników. Stacja bazowa makro uzyskuje dostęp do sieci szkieletowej przez bramę. Mikrostacje bazowe są połączone ze sobą i połączone ze stacją bazową makro w celu uzyskania dostępu do sieci rdzeniowej. Użytkownicy mogą komunikować się zarówno z makrostacjami bazowymi, jak i mikrostacjami bazowymi. Łącze transmisyjne między stacją bazową a stacją bazową nazywane jest łączem typu backhaul, a łącze transmisyjne między stacją bazową a użytkownikiem nazywane jest łączem dostępowym. Typową architekturę sieci typu backhaul mmWave pokazano na rysunku



Technologia sieci dosyłowej z falą milimetrową

Jako jedna z kluczowych technologii w nowej generacji komunikacji mobilnej, technologia dosyłowa odgrywa niezrównaną rolę. Tutaj skupimy się na technologii 5G NR (New Radio), technologii self-backhaul i technologii backhaul małej stacji bazowej. Technologia self-backhaul odegrała kluczową rolę w schemacie integracji 5G NR, a technologia backhaul małych stacji bazowych ma kluczowe znaczenie dla przyszłego wdrażania małych stacji bazowych.

Technologia 5G NR

W marcu 2017 r. 3GPP zorganizowało spotkanie, aby przeforsować propozycję akceleracji standardu 5G NR i zaproponować rozwiązanie problemów związanych ze zintegrowanym dostępem bezprzewodowym 5G NR i backhaulem. Aby osiągnąć bardzo gęstą sieć, kluczem do rozwiązania problemu jest dalsza integracja łączy dostępowych i dosyłowych. Ponadto 5G NR wymaga szerszej przepustowości niż sieć 4G LTE. Zwłaszcza w paśmie częstotliwości mmWave, wdrożenie dodatkowych systemów Massive MIMO i wielowiązkowych promuje rozwiązanie zintegrowanego dostępu bezprzewodowego 5G NR i backhaul. Jak pokazano na rysuku, w sieci, która integruje dostęp bezprzewodowy i łącza typu backhaul, obsługiwanych jest wiele łączy dostępu bezprzewodowego i łącza typu backhaul, dzięki czemu wdrażanie komórek 5G NR jest bardziej zintegrowane.



Szczególnie ważne jest zintegrowane rozwiązanie, które umożliwia szybkie przełączanie łączy dostępowych i dosyłowych. Z jednej strony może zmniejszyć krótkotrwałe przeciążenie fal mmWave, a z drugiej strony 5G NR może być wdrażane bardziej elastycznie. Wykazano, że zintegrowany dostęp bezprzewodowy i backhaul determinują wstępne wdrożenie sieci 5G. Po uruchomieniu sprzętu 5G NR, zintegrowane technologie dostępu bezprzewodowego i backhaul muszą nadążyć. Opóźnienie zintegrowanego dostępu bezprzewodowego i rozwiązań dosyłowych będzie miało negatywny wpływ na terminowe wdrożenie 5G NR.

Technologia Self-Backhaul

Technologia Self-Backhaul wywodzi się z istniejącego protokołu 4G LTE, który wykorzystuje zasoby bezprzewodowe LTE do implementacji warstwowego przekaźnika punkt-punkt między eNB (Evolved Node B), wymagającego harmonogramu współpracy między przekaźnikowym eNB a kotwiczącym eNB. Zasadę działania technologii self-backhaul przedstawiono na rysuku.



Ze względu na zagęszczenie sieci komunikacji mobilnej w przyszłości, tradycyjny fronthaul CPRI (Common Public Radio Interface) nie jest w stanie obsłużyć skali sieci mobilnych i biorąc pod uwagę koszt budowy sieci. Podkreślono zalety technologii self-backhauling, a rozwiązania technologii self-backhauling są bardziej pilne i dokładne. Jeśli ten schemat będzie można promować na dużą skalę, projektowanie, utrzymanie i optymalizacja przyszłej sieci komunikacji mobilnej ulegną ogromnym zmianom. Ponadto, ze względu na zapotrzebowanie na optymalizację routingu, zrównoważenie wskaźników dostępu bezprzewodowego i ruchu powrotnego, a także na osiągnięcie samokonfiguracji i samonaprawiania sieci backhaul, mnóstwo oprogramowania, uczenie maszynowe, sztuczna inteligencja i inne technologie przekrojowe zostaną wprowadzone.

Technologia dosyłowa małej stacji bazowej

Obecnie, wraz z ulepszeniem sieci 4G i wdrożeniem na dużą skalę sieci NB-IoT (Narrow Band Internet of Things), małe stacje bazowe, takie jak Small Cell i Book RRU, są wdrażane na dużą skalę w obszarach miejskich w celu osłabienia sieci. kompensacji, pochłaniania ciepła i dystrybucji ruchu. Można przewidzieć, że zapotrzebowanie na szybkie i bardzo gęste wdrożenie w przyszłej erze komunikacji będzie silniejsze. Co więcej, gęstość rozmieszczenia lokacji będzie się dalej zwiększać, a rozmieszczanie małych stacji bazowych stanie się główną metodą rozmieszczania. Z punktu widzenia struktury rozmieszczenia sieci stacje bazowe makrokomórek są wykorzystywane głównie do rozplanowania sieci. Ze swojej charakterystyki stacje bazowe makrokomórek są stosunkowo nieliczne i wymagają wysokiej niezawodności dostępu. Główną kwestią jest wykorzystanie technologii PTN (Packet Transport Network) w celu uzyskania dostępu. Obecnie małe stacje bazowe rozważają głównie zastosowanie technologii PON (Passive Optical Network) w warstwie dostępowej i jest ona podłączona do sieci pakietowej IP i powiązanej sieci rdzeniowej przez BRAS (Szerokopasmowy serwer zdalnego dostępu). Aby sprostać gwałtownie rosnącemu zapotrzebowaniu na usługi transmisji danych, coraz większa miniaturyzacja i intensyfikacja masywnych małych stacji bazowych stawia coraz wyższe i bardziej wymagające wymagania dotyczące wskaźników wydajności przesyłu danych. Branża nadal aktywnie poszukuje bezprzewodowych metod dosyłowych z niezawodnym dostępem, niskimi kosztami i elastycznym wdrażaniem. Oprócz wspomnianej wcześniej technologii 5G NR, technologii self-backhaul i technologii backhaul małej stacji bazowej, dobrą próbą jest również sieć Terragraph Facebooka. Zastępuje istniejącą miejską sieć lamp ulicznych wyposażeniem stacji bazowej z funkcją bezprzewodowej transmisji sygnału, tworząc bezprzewodową sieć dosyłową typu mmWave mesh, zastępując w ten sposób tradycyjną, kosztowną i czasochłonną metodę dostępu światłowodowego. Co więcej, projekt AT&T AirGig rozważa instalację i rozmieszczenie sprzętu mmWave na słupach elektrycznych, wykorzystując wszechobecne linie energetyczne jako nośnik, aby utworzyć potężną bezprzewodową sieć dosyłową i uzyskać bezproblemowy zasięg sygnałów wewnętrznych i zewnętrznych. Co więcej, technologia F-Cell firmy Bell Labs wykorzystuje wiązki Massive MIMO, aby utworzyć samoorganizującą się bezprzewodową architekturę dosyłową bez tradycyjnej światłowodowej sieci dosyłowej. Wdrożenie sieci Small Cells na dużą skalę jest realizowane w celu utworzenia unikalnej bezprzewodowej sieci dosyłowej stacji bazowej.

Kluczowe technologie dla efektywnego ponownego wykorzystania przestrzennego sieci mmWave

Ostatecznym celem transmisji typu backhaul jest poprawa przepustowości. W porównaniu z tradycyjnymi bezprzewodowymi sieciami komórkowymi, zakłócenia powodowane przez transmisję wysoce kierunkową w komunikacji mmWave są znacznie mniejsze, torując drogę do multipleksacji przestrzennej, skutecznie oszczędzając zasoby częstotliwości i czasu oraz poprawiając przepustowość. Ponowne wykorzystanie przestrzenne jest szczególnie odpowiednie w przypadku scenariuszy z gęstą siecią komórkową, ponieważ gęsto rozproszone urządzenia zapewniają większe możliwości transmisji równoległej. TDMA (Time Division Multiple Access) jest używany w standardzie IEEE 802.11ad, a STDMA (Spatial TDMA) przyciągnął ostatnio powszechną uwagę. Transmisja odbywa się w jednostkach równych odstępach czasu, zwanych szczelinami czasowymi. Celem planowania jest przydzielenie jak największej liczby łączy w tym samym przedziale czasowym, aby w pełni wykorzystać multipleksowanie przestrzeni. Obecnie większość badań harmonogramowania związanych z mmWave opiera się na łączach półdupleksowych w scenariuszu jednego użytkownika, co oznacza, że sąsiednie łącza ze wspólnymi węzłami nie mogą przesyłać w tym samym czasie, a urządzenia mogą wysyłać lub odbierać tylko jeden strumień danych w czas. Jednak rozwój technologii warstwy fizycznej w ostatnich latach, takich jak pełny dupleks, hybrydowe formowanie wiązki i formowanie wiązki multiemisji, może zmienić harmonogramowanie w celu dalszego zwiększenia wzmocnienia multipleksacji przestrzennej.

Kluczowe technologie dla efektywnego ponownego wykorzystania przestrzennego sieci mmWave

Ostatecznym celem transmisji typu backhaul jest poprawa przepustowości. W porównaniu z tradycyjnymi bezprzewodowymi sieciami komórkowymi, zakłócenia powodowane przez transmisję wysoce kierunkową w komunikacji mmWave są znacznie mniejsze, torując drogę do multipleksacji przestrzennej, skutecznie oszczędzając zasoby częstotliwości i czasu oraz poprawiając przepustowość. Ponowne wykorzystanie przestrzenne jest szczególnie odpowiednie w przypadku scenariuszy z gęstą siecią komórkową, ponieważ gęsto rozproszone urządzenia zapewniają większe możliwości transmisji równoległej. TDMA (Time Division Multiple Access) jest używany w standardzie IEEE 802.11ad, a STDMA (Spatial TDMA) przyciągnął ostatnio powszechną uwagę. Transmisja odbywa się w jednostkach równych odstępach czasu, zwanych szczelinami czasowymi. Celem planowania jest przydzielenie jak największej liczby łączy w tym samym przedziale czasowym, aby w pełni wykorzystać multipleksowanie przestrzeni. Obecnie większość badań harmonogramowania związanych z mmWave opiera się na łączach półdupleksowych w scenariuszu jednego użytkownika, co oznacza, że sąsiednie łącza ze wspólnymi węzłami nie mogą przesyłać w tym samym czasie, a urządzenia mogą wysyłać lub odbierać tylko jeden strumień danych w czas. Jednak rozwój technologii warstwy fizycznej w ostatnich latach, takich jak pełny dupleks, hybrydowe formowanie wiązki i formowanie wiązki multiemisji, może zmienić harmonogramowanie w celu dalszego zwiększenia wzmocnienia multipleksacji przestrzennej.

Wydajne ustanawianie ścieżek

Mała stacja bazowa oparta na bezprzewodowej technologii self-backhaul musi mieć funkcję plug-and-play. Po wdrożeniu i włączeniu małej stacji bazowej musi znaleźć stację bazową hosta, aby połączyć się z siecią dostępu bezprzewodowego. W celu zaoszczędzenia zużycia energii przez stację bazową, mała stacja bazowa, która właśnie została włączona, aktywnie inicjuje żądanie wykrycia, a stacja bazowa z funkcją hosta odpowiada po odebraniu żądania. Mała stacja bazowa wybiera optymalną stację bazową jako stację bazową dawcy na podstawie kompleksowych czynników, takich jak siła odbieranego sygnału, odległość i dostępność zasobów transmisyjnych i obciążenie usługi zawarte w komunikacie odpowiedzi. W celu zapewnienia odporności bezprzewodowej sieci dosyłowej, jedną optymalną można wybrać jako główną stację bazową dawcy, a kilka innych suboptymalnych stacji bazowych może być wybranych jako wtórne stacje bazowe dawcy. Ustanowienie ścieżki bezprzewodowej sieci typu self-backhaul polega na znalezieniu optymalnej ścieżki od małej stacji bazowej do stacji makro. Ustanowienie bezprzewodowej ścieżki sieciowej typu self-backhaul może przyjąć zarówno metody scentralizowane, jak i rozproszone. W metodzie scentralizowanej sieć dostępowa musi posiadać scentralizowany węzeł sterujący, którym może być makrostacj a bazowa, lub jego funkcjonalne wyposażenie może być rozwijane oddzielnie. Scentralizowany węzeł sterujący uzyskuje informacje o połączeniach między stacjami bazowymi, wykonuje ogólne planowanie ścieżki bezprzewodowej sieci typu "self-backhaul" i powiadamia o wynikach każdą stację bazową. Ta metoda może uzyskać ogólne optimum, ale nie jest wystarczająco elastyczna i odpowiedź jest wolniejsza. Rozproszone ustanowienie ścieżki nie wymaga rozwoju dodatkowych scentralizowanych funkcji kontrolnych. Każda mała stacja bazowa uzyskuje informacje o ścieżce bezprzewodowej sąsiedniej stacji bazowej i dokonuje lokalnego optymalnego wyboru. Chociaż ta metoda może nie być w stanie uzyskać ogólnego optimum, jest szybka, elastyczna i ma niski koszt opracowania. Aby poprawić przepustowość transmisji i wydajność transmisji bezprzewodowego łącza typu backhaul, w bezprzewodowej sieci typu backhaul można ustanowić ścieżkę wielu połączeń, a mała stacja bazowa jest połączona z makro stacją bazową za pośrednictwem ścieżki wieloskokowej . W trybie transmisji z wieloma połączeniami problemem, który należy rozwiązać, są funkcje dystrybucji płaszczyzny sterowania i płaszczyzny użytkownika oraz zrównoważona dystrybucja zasobów nośnika płaszczyzny użytkownika na różnych ścieżkach połączenia. Wymagania biznesowe i warunki bezprzewodowego łącza transmisji mogą się zmieniać podczas pracy między małymi stacjami bazowymi. Ponadto małe stacje bazowe wymagają wdrażania nomadów. Ze względu na ochronę środowiska i oszczędność energii, małe stacje bazowe mogą być również stale włączane i wyłączane. Dlatego bezprzewodowe łącze dosyłowe musi być aktualizowane w czasie rzeczywistym. Założeniem aktualizacji ścieżki jest dokładny pomiar i transmisja w czasie rzeczywistym warunków transmisji bezprzewodowego łącza typu backhaul.

Rozsądna alokacja zasobów

Transmisja łącza bezprzewodowego jest głównym czynnikiem wpływającym na wydajność sieci komunikacji mobilnej. W przypadku bardzo gęstej bezprzewodowej sieci dostępowej opartej na bezprzewodowej technologii self-backhaul jakość transmisji łącza dostępowego i łącza backhaul ma bezpośredni wpływ na wrażenia użytkownika. Dlatego podczas przeprowadzania alokacji zasobów bezprzewodowych konieczne jest kompleksowe uwzględnienie wymagań biznesowych użytkownika i jakości drogi transmisyjnej, wspólne projektowanie łącza dostępowego i łącza backhaul oraz wspólna alokacja zasobów. Łącze typu backhaul i łącze dostępowe mogą być wdrażane na tej samej częstotliwości (tryb inband) lub na innej częstotliwości (tryb out-of-band). Wdrożenie współczęstotliwości jest stosunkowo proste, ale łącze backhaul zajmuje część zasobów transmisyjnych systemu i zmniejsza szybkość transmisji użytkownika. Wdrożenie międzyczęstotliwościowe jest bardziej skomplikowane, a częstotliwość radiowa małej stacji bazowej musi mieć wiele zestawów urządzeń nadawczo-odbiorczych częstotliwości radiowych. Może jednak uzyskać większą wydajność widma i szybkość transmisji użytkownika. Oprócz zasobów pasma widma, moc stacji bazowej, moc obliczeniowa procesora i liczba sieci to także zasoby systemowe, które muszą być wspólnie przydzielane. Alokacja zasobów systemowych polega na przydzieleniu odpowiednich zasobów dostępowych różnym użytkownikom i przydzieleniu odpowiednich zasobów dosyłowych do różnych małych stacji bazowych. Jeśli jest zbyt wiele zasobów dostępowych i zbyt mało zasobów backhaul, łącze backhaul stanie się wąskim gardłem transmisji dla dostępu bezprzewodowego. Jeśli więcej zasobów zostanie przydzielonych łączu dosyłowemu, nie można zagwarantować jakości transmisji i przepustowości systemu łącza dostępowego, a stopień wykorzystania łącza , łącze dosyłowe nie będzie bardzo wysokie. Dlatego alokacja zasobów bezprzewodowych systemu polega na znalezieniu najlepszego punktu równowagi między zasobami dostępu i zasobami dosyłowymi, aby jednocześnie zoptymalizować przepustowość systemu, wydajność widma i wydajność energetyczną.

Wygodny dostęp do pamięci podręcznej sieci

W celu sprostania kompleksowym wymaganiom sieci komórkowych o niskim opóźnieniu wprowadzana jest technologia MEC (Mobile Edge Computing). MEC to architektura sieciowa, która zapewnia usługi wymagane przez użytkowników oraz funkcje przetwarzania w chmurze po stronie bezprzewodowej. MEC służy do przyspieszenia szybkiego pobierania różnych aplikacji w sieci i umożliwienia użytkownikom nieprzerwanego korzystania z sieci o wysokiej jakości. MEC wymaga wdrożenia małych stacji bazowych z lokalnymi możliwościami przetwarzania i przechowywania na obrzeżach sieci mobilnej. Jednym z zabezpieczeń jest możliwość buforowania zawartości usługi w małych stacjach bazowych bezprzewodowej sieci typu self-backhaul. Buforowanie było pierwotnie proponowane w sieciach dystrybucji treści w celu zwiększenia lokalizacji danych, tj. poprzez replikację treści mmWave Communication w strategicznych węzłach sieci (takich jak serwery proxy, bramy), a jednocześnie równoważenie ruchu sieciowego poza godzinami szczytu. Po zaimplementowaniu pamięci podręcznej sieci dostępowej, gorący plik lub ten sam plik żądany przez użytkownika można uzyskać bezpośrednio z buforowanej stacji bazowej bez dostępu do sieci szkieletowej. To znacznie zmniejsza opóźnienie sieci, a obciążenie łącza dosyłowego można również zmniejszyć, zmniejszając w ten sposób zapotrzebowanie na zasoby dosyłowe, poprawiając alokację zasobów dostępowych i zwiększając przepustowość systemu sieci dostępowej. Zasadniczo, oddzielając czas pobierania zawartości pliku od czasu dostarczenia go do użytkownika, mała stacja bazowa może poprawić jakość obsługi, jakiej doświadcza użytkownik, jednocześnie oszczędzając zasoby backhaul.

Technologia sieci milimetrowej fali w komunikacji mobilnej
Bardzo gęsta sieć


W celu zaspokojenia potrzeb przyszłego wzrostu ruchu danych w sieci mobilnej o 1000 razy i zwiększenia doświadczenia użytkownika od 10 do 100 razy, oprócz zwiększenia przepustowości widma i wykorzystania zaawansowanej technologii transmisji bezprzewodowej w celu poprawy wykorzystania widma, najskuteczniejszy sposób na zwiększenie przepustowość systemu bezprzewodowego wciąż zwiększa przestrzenne ponowne wykorzystanie poprzez szyfrowane wdrażanie komórek. Tradycyjne systemy komunikacji bezprzewodowej zwykle wykorzystują podział komórki w celu zmniejszenia promienia komórki. Jednak wraz z dalszym zmniejszeniem zasięgu komórki podział komórek będzie trudny. Aby utworzyć UDN, konieczne jest intensywne rozmieszczenie małych stacji bazowych małej mocy w hotspotach wewnętrznych i zewnętrznych. UDN to skuteczne rozwiązanie problemu gwałtownego wzrostu przyszłego ruchu danych w sieciach komunikacji mobilnej. Przewiduje się, że na obszarze objętym makrostacjami bazowymi przyszłej sieci bezprzewodowej gęstość rozmieszczenia stacji bazowych małej mocy z różnymi technologiami RAT (Radio Access Technology) osiągnie ponad dziesięciokrotnie gęstość istniejących lokalizacji, tworząc ultra -gęsta sieć heterogeniczna.

Kluczowa technologia sieci
Technologia warstwy wirtualnej


UDN wykorzystuje technologię warstwy wirtualnej, co oznacza, że jednowarstwowa sieć fizyczna tworzy wirtualną sieć wielowarstwową. Jak pokazano , jednowarstwowa fizyczna komórka mikrostacji bazowej buduje sieć dwuwarstwową (warstwa wirtualna i warstwa fizyczna), a komórka makrostacji bazowej służy jako warstwa wirtualna.



Wirtualna makrokomórka przenosi sygnalizację kontrolną i jest odpowiedzialna za zarządzanie mobilnością. Fizyczna komórka mikrostacji bazowej służy jako warstwa fizyczna, a mikrokomórka przenosi transmisję danych. Ta technologia może być realizowana w systemie z jednym lub wieloma nośnymi. Schemat pojedynczej nośnej konstruuje wirtualną sieć wielowarstwową za pomocą różnych sygnałów lub kanałów. Schemat multi-carrier buduje wirtualną sieć wielowarstwową za pomocą różnych nośników i łącząc wiele komórek fizycznych (lub wiele fizycznych części zasobów w komórce) jest zwirtualizowanych w komórkę logiczną. Skład zasobów i ustawienia wirtualnej komórki można dynamicznie konfigurować i zmieniać zgodnie z ruchem użytkownika i potrzebami biznesowymi. Warstwa wirtualna i wirtualne komórki zorientowane na użytkownika mogą rozwiązać problem mobilności w bardzo gęstej sieci.

Technologia wielu połączeń

W przypadku sieci heterogenicznych makro-mikro, mikrostacje bazowe są zwykle wdrażane lokalnie w hotspotach, a pośrodku mogą występować dziury o nieciągłym zasięgu. W oparciu o tę architekturę konieczne jest nie tylko posiadanie funkcji płaszczyzny sterowania odpowiadającej sygnalizacyjnej stacji bazowej z perspektywy makrostacji bazowej, ale także konieczne jest przenoszenie danych płaszczyzny użytkownika w obszarze rozmieszczenia mikrostacji bazowej zgodnie z rzeczywiste wymagania dotyczące wdrażania. Podstawowym celem przyjęcia technologii wielu połączeń jest realizacja jednoczesnego połączenia między terminalami użytkowników a wieloma węzłami sieci. W różnych węzłach sieci można zastosować tę samą technologię dostępu lub można zastosować inną technologię dostępu. Ponieważ stacja bazowa makro nie musi przetwarzać płaszczyzny użytkownika odpowiadającej stacji bazowej mikro, ścisła synchronizacja między stacją bazową makro a stacją bazową mikro nie jest wymagana, co znacznie zmniejsza wymagania dotyczące wydajności łącza. W trybie podwójnego łącza stacja bazowa makro jest główną stacją bazową, która może zapewnić ujednoliconą i scentralizowaną płaszczyznę sterowania, podczas gdy mikrostacja bazowa jest drugorzędną stacją bazową, która może przenosić tylko dane płaszczyzny użytkownika i nie może łączyć się z użytkownikiem płaszczyzna kontroli terminalu. Po zakończeniu negocjacji przez główne i drugorzędne stacje bazowe dotyczące zarządzania zasobami radiowymi, drugorzędna stacja bazowa przesyła informacje o konfiguracji do podstawowej stacji bazowej na interfejsie, a komunikat kontroli zasobów radiowych jest wysyłany tylko przez główną stację bazową i ostatecznie dociera do terminalu użytkownika. Jednostka kontroli zasobów radiowych terminala użytkownika może zobaczyć komunikat wysłany z jednostki jednostki częstotliwości radiowej, a terminal użytkownika może odpowiedzieć tylko jednostce kontroli zasobów radiowych. Płaszczyzna użytkownika jest nie tylko rozdzielona pomiędzy mikrostacje bazowe, ale istnieje również wśród makrostacji bazowych. Ponieważ stacja bazowa makro może zapewniać podobne funkcje jak stacja bazowa danych, może skutecznie rozwiązać problem transmisji mikrostacji bazowej obejmującej niepołączone części. Obecny bezprzewodowy backhaul działa w środowisku propagacji linii wzroku (LOS), w paśmie częstotliwości mikrofalowej lub paśmie częstotliwości mmWave, a rzeczywista szybkość propagacji wynosi około 10 Gbit/s. Istnieje duża różnica między obecną bezprzewodową siecią dosyłową a istniejącą technologią dostępową w zakresie metod i zasobów technicznych. W obecnej istniejącej architekturze sieci komunikacja pozioma między stacjami bazowymi nadal ma bardzo duże opóźnienie, a stacje bazowe nie mogą być typu plug and play. Zarówno wdrożenie sieci, jak i utrzymanie sieci wymagają wysokich kosztów, na które głównie wpływają i ograniczają rzeczywiste warunki samej stacji bazowej. Sieć dosyłowa dolnej warstwy nie może zapewnić niezawodnej obsługi tej funkcji. Aby wdrożenie węzła było jak najbardziej elastyczne i zmniejszyć koszty wdrożenia, widmo i technologia, które są całkowicie zgodne z łączem dostępowym, można wykorzystać do uzyskania bezprzewodowej transmisji typu backhaul. W przypadku bezprzewodowej sieci dosyłowej zasoby bezprzewodowe mogą nie tylko świadczyć usługi dla terminali, ale także świadczyć usługi przekaźnikowe dla węzłów.

Zarządzanie przeciwzakłóceniowe

W przypadku wideo o wysokiej rozdzielczości, AR/VR, dronów, robotów przemysłowych, sztucznej inteligencji i innych scenariuszy zastosowań, wysoka prędkość, wysoka gęstość i duża pojemność są ważnymi możliwościami sieci komunikacji mobilnej, a miniaturyzacja i zagęszczanie komórek to główne cechy UDN, co może znacznie poprawić wydajność widma i pojemność systemu sieci dostępowej, zapewniając w ten sposób użytkownikom szybkie korzystanie z Internetu. Jednak zagęszczenie węzłów sieci powoduje, że zakłócenia międzykomórkowe są poważne, skutkując zakłóceniami współkanałowymi, zakłóceniami współdzielonego widma, zakłóceniami między różnymi poziomami pokrycia. Utrata transmisji sąsiednich węzłów ma niewielką różnicę i istnieje wiele informacji o źródłach zakłóceń o podobnej sile. Koordynacja zakłóceń to technologia o większej liczbie zastosowań. Ponieważ LTE przyjmuje OFDMA (wielokrotny dostęp z ortogonalnym podziałem częstotliwości), może skutecznie uniknąć zakłóceń użytkowników w komórce. Dlatego koordynacja zakłóceń odnosi się głównie do ICIC (Koordynacja zakłóceń międzykomórkowych). Podstawową ideą jest to, aby komórki w obszarze koordynowały harmonogramowanie i alokację zasobów zgodnie z ustalonymi zasadami i metodami, zmniejszając w ten sposób wzajemne zakłócenia i poprawiając jakość transmisji. Zgodnie z okresem koordynacji, koordynację zakłóceń można podzielić na koordynację zakłóceń statycznych, koordynację zakłóceń półstatycznych i koordynację zakłóceń dynamiczną. Obecnie koordynacja interferencji między komórkami statycznymi jest obecnie powszechniej stosowana, a jej implementacja jest prosta i wygodna. Pozostałe dwie metody wymagają wymiany informacji (interfejs X2) i ścisłych wymagań dotyczących opóźnień. Przy założeniu, że algorytm sprzętowy jest wystarczająco dojrzały, a planowanie sieci jest wykonalne, może nie tylko zapewnić bardziej zoptymalizowaną wydajność, ale także zminimalizować ręczną interwencję.

Bezprzewodowa metoda zwrotu

Ze względu na bardzo gęstą i dużą pojemność UDN należy zmienić format backhaul. Tradycyjny przewodowy backhaul nie ma już zastosowania ze względu na trudność wdrożenia i wysokie koszty. Dlatego ważniejsza jest bezprzewodowa metoda dosyłowa wykorzystująca to samo widmo, co łącze dostępowe. Ponadto, z punktu widzenia sieci UDN, plug-and-play to także kierunek przyszłej ewolucji mikrostacji. Dlatego też, jeśli tylko weźmiemy pod uwagę sposób dosyłu światłowodów, to oczywiście ograniczy to rozmieszczenie dużej liczby małych i mikrostacji. W dobie współdzielonych zasobów rozmieszczenie stacji bazowych stało się bardziej elastyczne, a także odpowiednio zmienił się sposób backhaul. Można przewidzieć, że inteligentne budynki, takie jak gęste budynki mieszkalne, gęste dzielnice, komercyjne budynki biurowe, duże obiekty i kluby, tymczasowe miejsca spotkań, uniwersytety, metro oraz miejsca dowodzenia ratownictwem i pomocą w przypadku katastrof mogą mieć wymagania dotyczące bezprzewodowego połączenia dosyłowego. Z punktu widzenia projektowania bezprzewodowej sieci dosyłowej, sieci komórkowe również oferują wiele możliwości. Na przykład łącze typu backhaul i łącze dostępowe mogą być rozmieszczone na tej samej częstotliwości lub na różnych częstotliwościach. Mikrostacje ultragęste mają wyższe wymagania dotyczące lokalizacji lokalizacji, co znajduje odzwierciedlenie głównie w wymaganiach dotyczących zasobów transmisyjnych. Wymagania mikrostacji w zakresie plug-and-play sprawiają, że bezprzewodowa łączność dosyłowa jest skutecznym sposobem rozwiązywania ograniczonych zasobów transmisji, który jest łatwy i elastyczny we wdrożeniu.

Problemy napotykane przez sieć

W przypadku hotspotów ze scenariuszem o dużej przepustowości, wiele środowisk bezprzewodowych jest bardzo złożonych i łatwo ulegają zakłóceniom. UDN stacji bazowych może skutecznie poprawić wydajność widmową samego systemu. Co więcej, szybkie i rozsądne rozmieszczenie zasobów bezprzewodowych można również zrealizować z szybkim planowaniem zasobów, a istniejące zasoby bezprzewodowe można w pełni wykorzystać na podstawie poprawy rzeczywistej wydajności widmowej systemu. Jednak wiąże się to również z wieloma praktycznymi problemami, w tym głównie z następującymi aspektami:

Zakłócenia systemu: w gęstym, złożonym i niejednorodnym scenariuszu współistnieją różne miejsca dostępu, które mogą powodować zakłócenia systemu. Jeśli zakłócenia osiągną pewien poziom, wydajność widma systemu poważnie się pogorszy. Ponieważ odległość między punktami dostępu bezprzewodowego stale się zmniejsza, przekazywanie między komórkami musi stać się częstsze, co prowadzi do znacznego wzrostu rzeczywistego zużycia sygnalizacji. Możliwości usług biznesowych użytkownika są ostatecznie ograniczone i nie można zagwarantować jakości usług.
Koszt systemu i zużycie energii: Aby skutecznie spełnić wymagania dotyczące przepustowości w obszarach hotspotów i zapewnić użytkownikom nowe wrażenia, należy wprowadzić wiele bezprzewodowych węzłów dostępowych. Jednocześnie większość z tych bezprzewodowych węzłów dostępowych jest bardzo gęsta, co sprawia, że zasoby częstotliwości są bogatsze, a typy technologii dostępowych również wzrastają. W takich przypadkach wdrożenie systemu pochłonie dużo kosztów i energii.
Stacja bazowa o niskim poborze mocy: aby umożliwić stacjom bazowym o niskim poborze mocy szybkie i elastyczne wdrożenie, wymagane są funkcje plug-and-play, w tym autonomiczne funkcje dosyłowe, funkcje automatycznej konfiguracji itp.
Plan wdrożenia UDN: wdrożenie sieci o bardzo dużej gęstości przełamuje tradycyjną płaską jednowarstwową strukturę sieci i powoduje pojawienie się wielowarstwowej sieci HetNet. Ultragęste mikrostacje bazowe stały się kluczem w architekturze komunikacji mobilnej HetNet. Udział ruchu przenoszonego przez małe stacje bazowe znacznie wzrośnie wraz z wdrożeniem na dużą skalę bardzo gęstych mikrostacji bazowych. Omówiono plan wdrożenia i architekturę wdrożenia sieci.

Plan wdrożenia

Plan sieci w nowej generacji komunikacji mobilnej jest ukierunkowany głównie na formy sieci biznesowej, takie jak szeroki zasięg, wysoka przepustowość hot spotów, małe opóźnienia i wysoka niezawodność oraz wielkoskalowa komunikacja MTC (Machine-type Communications). Poniżej przedstawiono cechy charakterystyczne każdej formy. Forma sieciowa scenariusza biznesowego opiera się głównie na pokryciu klastra stacji bazowych makrokomórek. Funkcja sterowania siecią szkieletową jest centralnie stosowana z zapewnieniem wysokiej mobilności, a funkcja zarządzania zasobami radiowymi jest zanurzona w makrokomórkach i klastrze stacji bazowych. W scenariuszach biznesowych o dużej przepustowości w postaci sieci, mikrokomórki uzupełniają przepustowość hotspotu, łącząc technologie bezprzewodowe, takie jak anteny na dużą skalę i komunikacja o wysokiej częstotliwości. Płaszczyzna kontroli sieci szkieletowej jest wdrażana w sposób scentralizowany. W scenariuszach klastrów makro-mikro- i mikrokomórkowych z bardzo ograniczonymi zakłóceniami wspólne zarządzanie zasobami i zarządzanie mobilnością na małą skalę schodzą na stronę bezprzewodową, a bramy płaszczyzny użytkownika, włączanie usług i przetwarzanie brzegowe schodzą na stronę sieci dostępowej w celu realizacji usług lokalnych streaming i szybka dystrybucja treści. Dla postaci sieciowej scenariuszy biznesowych o niskim opóźnieniu i wysokiej niezawodności, funkcji kontrolnych i na dużą skalę funkcje związane z mobilnością są skoncentrowane, a funkcje zarządzania mobilnością na małą skalę i specyficzne funkcje sterowania specyficzne dla firmy są sprowadzone do strony bezprzewodowej. Brama, buforowanie treści i przetwarzanie brzegowe schodzą na stronę bezprzewodową, aby zapewnić szybkie zakończenie i dystrybucję usług oraz wspierać bezpośrednią komunikację między urządzeniami kontrolowanymi przez sieć. W przypadku wielkoskalowych scenariuszy biznesowych MTC w postaci sieci funkcja kontroli sieci jest dostosowywana i dostosowywana do działalności MTC, a także dodaje się zarządzanie informacjami MTC, kontrolę polityki i zabezpieczenia MTC. Ponadto uproszczono ogólne moduły sterowania, takie jak zarządzanie mobilnością. Brama płaszczyzny użytkownika tonie, a zbieżność wzrasta. Brama realizuje usługi dostępu do sieci i agregacji danych dla dużej liczby terminali oraz zapewnia usługi połączeń sieciowych w oparciu o technologię zwiększania zasięgu w obszarach o słabym zasięgu i obszarach niewidomych. Ważnym kierunkiem rozwoju nowej generacji planowania zasięgu komunikacji mobilnej jest dopracowana ultragęsta sieć. Zgodnie z wymaganiami różnych scenariuszy, przyjmuje wielosystemową, wielowarstwową, wielokomórkową i wielonośną sieć, aby sprostać potrzebom różnych rodzajów działalności.

Architektura wdrażania

W UDN heterogeniczna architektura makro i mikrostacji bazowych może zostać wykorzystana do wdrożenia w celu poprawy gęstości ruchu i szczytowej szybkości sieci. Ponadto, aby sprostać wymaganiom różnych wskaźników wydajności, odległość między stacjami bazowymi zostanie dodatkowo skrócona. Rozwój i wykorzystanie zasobów w różnych pasmach częstotliwości i różnych technologiach dostępu bezprzewodowego ostatecznie utworzy architekturę sieci, która w pełni spełni wymagania. Stacja bazowa makro i stacja bazowa mikro. W tej architekturze planowania i wdrażania, z perspektywy usług, makrostacje bazowe transmitują usługi o niskiej prędkości i wysokiej mobilności, podczas gdy mikrostacje bazowe zapewniają głównie usługi o dużej przepustowości. Powyższe funkcje realizują cel, jakim jest umożliwienie makrostacjom bazowym pokrycia i zarządzania zasobami pomiędzy mikrostacjami bazowymi, to znaczy, że stacje bazowe mikro są głównie odpowiedzialne za przepustowość. W ten sposób sieć dostępową można elastycznie wdrażać w oparciu o wymagania rozwoju biznesowego i łączyć z charakterystyką dystrybucji, a na koniec realizować rozdział między kontrolą a nośnikiem. Gdy zostanie osiągnięte rozdzielenie pomiędzy kontrolą i nośnikiem, rzeczywisty problem wielokrotnych przełączeń w warunkach gęstej sieci jest skutecznie rozwiązany, a wrażenia użytkownika są lepsze, podczas gdy zasoby są w pełni wykorzystywane. Stacja bazowa Micro & Stacja bazowa Micro. Ten tryb nie wprowadza makro stacji bazowych. W tym planowanym trybie wdrażania, aby osiągnąć funkcje zbliżone do powyższych trybów, konieczne jest zbudowanie wirtualnej grupy makr. W tym procesie różne mikrostacje bazowe w klastrze muszą współdzielić pewne zasoby, takie jak nośne, sygnały i kanały. Różne mikrostacje bazowe w tym samym klastrze mogą realizować wirtualizację makrokomórki, przesyłając te same zasoby. Jednocześnie różne mikrostacje bazowe realizują oddzielną transmisję swoich pozostałych zasobów, realizując w ten sposób oddzielenie płaszczyzny danych od płaszczyzny sterowania. Gdy obciążenie sieci jest niskie, mikrostacje bazowe są zarządzane w klastrach, a mikrostacje bazowe w tym samym klastrze są łączone ze sobą w celu utworzenia wirtualnej makrostacji bazowej i wysyłania tych samych danych. W oparciu o tę rzeczywistą sytuację, terminal może uzyskać wzmocnienie zróżnicowania odbioru, aby zapewnić jakość odbieranego sygnału. W przypadku dużego obciążenia sieci, każda mikrostacja bazowa może być wykorzystywana jako niezależna komórka do wysyłania odpowiednich informacji o danych, aby osiągnąć cel podziału komórki i osiągnąć znaczny wzrost przepustowości sieci.

GŁÓWNE ELEMENTY KOMUNIKACJI NA FALE MILIMETROWE

Widmo jest medium i nośnikiem bezprzewodowej transmisji sygnału, a jego znaczenie dla komunikacji mobilnej jest oczywiste. Zwłaszcza w obliczu zbliżającej się komercjalizacji 5G, jak zaplanować i wykorzystać pasmo wysokich częstotliwości, zwłaszcza pasmo częstotliwości mmWave, stało się gorącym tematem w branży, a także stało się kluczem dla krajów do przejęcia strategicznego dowodzenia 5G i nawet 6G. Pasmo wysokich częstotliwości mmWave ma bogate zasoby widma i wyjątkowe zalety wydajności. Ponieważ jednak pasma wysokich częstotliwości były rzadko wykorzystywane w komunikacji cywilnej, pomocnicze ogniwa powiązanego łańcucha branżowego nie były zbyt dojrzałe. Największym problemem było to, że urządzenia mmWave były stosunkowo słabe. Z jednej strony, aby przezwyciężyć wpływ kluczowych komponentów o wysokiej częstotliwości na wydajność systemu, konieczne jest promowanie wspólnego postępu w łańcuchu branżowym. Z drugiej strony, ogólną wydajność można poprawić poprzez optymalizację ogólnego projektu systemu, a jednocześnie utratę ścieżki sygnału wysokiej częstotliwości można rozwiązać za pomocą środków technicznych i sieci. Oraz problemy z utratą penetracji, takie jak formowanie wiązki, rozproszone MIMO i wiele połączeń.

Filtr

Tradycyjny filtr mikropaskowy wykazuje problemy, takie jak duże straty wtrąceniowe i poważne upływy elektromagnetyczne przy wysokich częstotliwościach. W przypadku nadajników mmWave moc wyjściowa transmisji jest ograniczona przez sam chip, a wydajność jest bardzo niska. Filtr o dużej tłumienności wtrąceniowej dodatkowo zmniejsza moc wyjściową. Ponadto duże tłumienie wtrąceniowe bezpośrednio pogarsza współczynnik szumów odbiornika i zmniejsza czułość odbioru. Filtr Substrate Integrated Waveguide (SIW) to technologia, która w ostatnich latach przyciągnęła wiele uwagi. Jego zasada jest podobna do działania tradycyjnego falowodu prostokątnego. Ma zalety niskiego promieniowania, niskiej straty i wysokiej wartości Q. Jednocześnie, w porównaniu z tradycyjnymi prostokątnymi filtrami falowodowymi, filtry SIW są małe, tanie, łatwe w produkcji i łatwe do łączenia z innymi urządzeniami planarnymi. Tworzą system na płytce drukowanej, aby osiągnąć wysoką integrację i miniaturyzację. Dlatego filtr SIW jest bardzo odpowiedni dla systemu komunikacji mmWave. Na rysunku przedstawiono topologię geometryczną projektowanego filtra.



Filtr zawiera 4 wnęki SIW. Pierwsza wnęka ma większy rozmiar i będzie używana jako tryb główny, podczas gdy pozostałe 3 wnęki mają mniejszy rozmiar i będą używane jako tryb główny. Pozostałe trzy mniejsze wnęki na rysunku) stanowią strukturę "trójbiegunową", a jej charakterystyki transmisyjne można uzyskać poprzez analizę fazową.



Okrąg na rysunku przedstawia wnękę rezonansową, a indukcyjność i pojemność odpowiednio sprzężenie indukcyjne i sprzężenie pojemnościowe. Dostosuj rozmiar każdej wnęki i rozmiar okna sprzężenia, aby uzyskać dobrą wydajność pasma przepustowego, i dostosuj położenie portu wejściowego/wyjściowego wnęki 1 tak, aby zero transmisji górnej wstęgi bocznej znajdowało się na 27 GHz. Ostateczny wynik pokazano na rysunku



ADC/DAC

Komunikacja mmWave doprowadzi do większej przepustowości, co będzie stanowić większe wyzwanie dla konwersji między sygnałem analogowym a cyfrowym. Współczynnik jakości Schreiera stosunku zniekształceń sygnału do szumu jest używany jako miara przetwornika analogowo-cyfrowego,



gdzie jednostką SNDR jest dB, jednostką poboru mocy P jest W, a jednostką częstotliwości próbkowania Nyquista fs jest Hz. Wyniki badań pokazują zależność między współczynnikiem jakości Schreiera dużej liczby komercyjnych przetworników ADC a odpowiednią częstotliwością próbkowania Nyquista (dla większości przetworników ADC jest to dwukrotność szerokości pasma) na rysunku.



Linia przerywana na rysunku wskazuje obwiednię FoM, która jest zasadniczo stała na poziomie 180 dB poniżej częstotliwości próbkowania 100 MHz. W przypadku stałego współczynnika jakości, każdy wzrost SNDR o 3 dB lub podwojenie przepustowości spowoduje podwojenie zużycia energii. W przypadku częstotliwości próbkowania powyżej 100 MHz wystąpi dodatkowe 10 dB/dekadę strat, co oznacza, że przepustowość jest podwojona, a zużycie energii czterokrotnie większe niż oryginalne. Chociaż wraz z rozwojem technologii układów scalonych, obwiednia współczynnika jakości ADC wysokiej częstotliwości w przyszłości będzie powoli wzrastać. Jednak ADC o przepustowości w zakresie GHz nadal nie może uniknąć problemu niskiej wydajności energetycznej. Duża przepustowość wprowadzona przez NR mmWave i konfigurację szyku antenowego wprowadzi duży pobór mocy ADC. Dlatego należy wziąć pod uwagę zarówno stację bazową, jak i terminal jak zmniejszyć wymagania SNDR. DAC jest prostszy niż ADC przy tych samych wymaganiach dotyczących dokładności i szybkości. Co więcej, ADC ogólnie wprowadza przetwarzanie cykliczne, podczas gdy DAC nie. Dlatego DAC jest mniej zainteresowany w dziedzinie badań, chociaż struktura DAC i ADC są bardzo różne, DAC można również opisać współczynnikiem jakości. Duża przepustowość i niepotrzebnie wysokie wymagania SNDR dla nadajnika spowodują wyższy pobór mocy DAC.

Oscylator

Oscylator jest kluczowym elementem systemu mmWave. Generuje sygnały i zapewnia LO dla transceivera. Tradycyjnie do implementacji oscylatorów częstotliwości milimetrowych i terahercowych można stosować złożone technologie półprzewodnikowe, takie jak GaAs lub InP. Wraz z szybkim rozwojem technologii opartej na krzemie częstotliwość oscylatorów opartych na krzemie gwałtownie wzrosła, umożliwiając projektowanie tanich oscylatorów milimetrowych i terahercowych. W konstrukcji oscylatora mmWave CMOS jako rdzeń oscylacyjny zastosowano tranzystor ze sprzężeniem krzyżowym, a w celu uzyskania wyższej częstotliwości wyjściowej zastosowano strukturę push-pull. Rysunek pokazuje powszechnie stosowaną topologię obwodów tych oscylatorów.



Struktura sprzężenia krzyżowego jest używana jako rdzeń oscylacyjny, a struktura push-pull jest zaprojektowana na wyjściu oscylatora, aby podwoić częstotliwość wyjściową. Wykorzystując strukturę push-pull, częstotliwość wyjściową można regulować za pomocą regulowanego kondensatora w sieci rezonansowej. Uwzględniając straty połączenia w pomiarze, mierzona częstotliwość oscylacji wynosi ok. 160,9 GHz, a moc wyjściowa ok. -20 dBm. Uwzględniając wszystkie straty miksowania i połączenia w pomiarze, zmierzona częstotliwość oscylacji oscylatora w paśmie Y wynosi około 214 GHz, a moc wyjściowa wynosi około -20 dBm. Dwa rysunki pokazują zmierzone wyniki wydajności widmowej.





Wzmacniacz mocy

W odpowiedzi na pierwsze zapotrzebowanie na wzmacniacze dużej mocy (PA) dla stacji bazowych, tradycyjne wzmacniacze mocy CMOS nie mogą zapewnić wystarczająco wysokiej mocy wyjściowej, a wzmacniacze mocy oparte na procesach półprzewodnikowych trzeciej generacji, takie jak GaAs (arsenek galu) i GaN ( azotek galu) może obsługiwać wyższą moc transmisji i większą przepustowość modulacji w paśmie częstotliwości mmWave, co jest preferowane przez branżę. Podczas testowania parametrów RF produktów istnieją dwie główne kategorie. Pierwsza kategoria to tradycyjne parametry urządzenia dla samego PA, w tym moc wyjściowa, wydajność, współczynnik szumów, parametry S, itp. Druga kategoria to błąd wektorowy EVM i współczynnik przecieku sąsiedniego kanału ACLR wymagane dla sygnałów modulacji szerokopasmowej 5G zgodnie z do standardów systemów komunikacji bezprzewodowej. Wzmacniacz mocy stosowany w radarze o fali ciągłej z modulacją częstotliwości 33 GHz -37 GHz nie ma wysokich wymagań liniowości, ponieważ sygnał o częstotliwości radiowej w systemie radarowym nie zawiera informacji, które mają być transmitowane, a jego celem jest przesyłanie wystarczającej wysoka moc wyjściowa. Po wykryciu odległego obiektu transmitowana fala może zostać odbita z powrotem. Nasyconą moc wyjściową i sprawność wzmacniacza mocy należy traktować jako główne wskaźniki projektowe tego projektu. Rysunek pokazuje ogólny schemat obwodu wzmacniacza mocy, cały obwód przyjmuje strukturę różnicową.



Ze względu na potrzeby testu, porty wejściowe i wyjściowe muszą być balunowane, aby przekształcić impedancję portu różnicowego na niesymetryczne 50 ?. W celu osiągnięcia wystarczająco wyższego wzmocnienia mocy, stopień wejściowy i stopień wyjściowy obwodu są strukturami kaskadowymi. W stopniu wyjściowym zastosowano dwa obwody różnicowe, a w celu zwiększenia mocy wyjściowej przeprowadzana jest synteza mocy. Międzystopniowa sieć dopasowująca między stopniem wejściowym a stopniem wyjściowym zapewnia dystrybucję mocy przy jednoczesnym zapewnieniu dopasowania impedancji. Fizyczna separacja uzwojeń pierwotnych i wtórnych transformatora jest łatwa do zrealizowania w sieci zasilającej, która jest łatwa do realizacji funkcji dopasowania szerokopasmowego. W ten sposób sieć dopasowywania wejściowego, dopasowywania międzystopniowego i dopasowywania wyjściowego jest realizowana w oparciu o transformator. Ze względu na słabą stabilność struktury cascode rury HBT do poprawy stabilności wykorzystywana jest nie tylko rezystancja szeregowa podstawy wspólnego emitera, ale także kondensator szeregowy między podstawami cascode różnicowego tranzystora wspólnej bazy zniszczenie idealnej charakterystyki uziemienia AC między bazami. Podstawowe napięcie polaryzacji i prąd wspólnego emitera są połączone z portu Vbias1 przez obwód polaryzacji w celu poprawy stabilności, a podstawa wspólnego emitera jest połączona z napięciem zasilania przez dużą rezystancję R2. Małe parametry sygnału mocy wzmacniacz pokazano na rysunku.



Szerokość pasma 3 dB wynosi od 27,5 GHz do 38,5 GHz, wzmocnienie mocy S21 w paśmie jest większe niż 30 dB, pasmo względne wynosi 33%, a S11 w paśmie <-10 dB. Na rysunku



przedstawiono przebieg symulacji wielkosygnałowej. Na rysunku (a) przedstawiono krzywą wzmocnienia i PAE przy mocy wyjściowej 35 GHz. Nasycona moc wyjściowa wynosi 21 dBm, a maksymalny PAE to 27,3%. Na rysunku (b) przedstawiono krzywe mocy wyjściowej nasycenia i maksymalnego PAE w różnych punktach częstotliwości pracy. Można stwierdzić, że w zakresie częstotliwości pracy 33~37GHz nasycona moc wyjściowa wynosi 20 dBm lub więcej, a maksymalny PAE wynosi ponad 21%.

STRESZCZENIE

W pierwszej kolejności opisano charakterystykę fal milimetrowych. Wśród nich największymi zaletami fal milimetrowych są szerokość pasma i pojemność, które określają główny zakres pracy, a charakterystyka krótkofalowa fal milimetrowych określa charakterystykę przeciwzakłóceniową. Ze względu na charakterystykę fal milimetrowych, zastosowanie offsetu fali milimetrowej w systemach komunikacyjnych jest doskonałym wyborem. Jednocześnie fale milimetrowe mają szeroki zakres zastosowań wojskowych, takich jak broń naprowadzana na fale milimetrowe, broń impulsowa o fali milimetrowej, radary wojskowe itp. W przypadku fal milimetrowych należy najpierw przeanalizować model propagacji fal radiowych, który jest podzielony w wielkoskalowy model propagacji i małoskalowy model propagacji dla modelu propagacji fal radiowych. Model propagacji w dużej skali jest przeznaczony do opisania zmiany mocy odbieranego sygnału na dużej odległości między końcem nadawczym a końcem odbiorczym z odległością między końcem odbiorczym i odbiorczym, natomiast model propagacji w małej skali ma na celu scharakteryzowanie szybka zmiana siły sygnału fal elektromagnetycznych w małym zakresie Charakterystyka zanikania skali. Następnie analizowany jest model kanału fal milimetrowych. Model kanału jest podstawą projektowania systemów komunikacji bezprzewodowej i oceny technologii algorytmów komunikacyjnych. Dlatego bardzo ważne jest dokładne zamodelowanie kanału. Obecnie większość modelowania kanału fal milimetrowych wykorzystuje metodę klastra czasu i płata przestrzennego oraz metodę modelowania kanału opartą na technologii śledzenia promieni. Dla modelu kanału fal milimetrowych sformułowano trzy międzynarodowe standardy, a mianowicie IEEE 802.15.3c, IEEE 802.11ad i ECMA-387. Nośniki komunikacyjne powyżej 6GHz można podzielić na przebiegi z wieloma nośnymi i przebiegi z jedną nośną, z których główne wskaźniki wydajności obejmują wydajność widmową, PARR, zróżnicowanie czasowe i zróżnicowanie częstotliwości. Następnie omówiono technologię masywnej anteny MIMO, omówiono również podstawową architekturę fali milimetrowej Massive MIMO, aktualny kierunek badań oraz charakterystykę formowania wiązki MIMO. W przypadku sieci o falach milimetrowych w komunikacji mobilnej bardzo ważna jest technologia sieci dosyłowej. Odbywa się krótka dyskusja na temat technologii 5G NR, technologii self-backhaul i technologii backhaul małej stacji bazowej w technologii backhaul. Jako kluczowa technologia w sieciach dosyłowych o falach milimetrowych, ważną rolę odgrywają skuteczne ponowne wykorzystanie przestrzenne, wydajne ustanawianie ścieżek, rozsądna alokacja zasobów i wygodne buforowanie sieci dostępowej. Dla zwiększenia ruchu danych w sieci mobilnej niezbędna jest sieć ultragęsta, a niektóre technologie w sieci są szczególnie ważne, takie jak technologia warstwy wirtualizacji, technologia wielu połączeń, zarządzanie przeciwzakłóceniowe i bezprzewodowe metody dosyłowe. Jednak w tak gęstym scenariuszu sieci napotykają również wiele problemów, takich jak zakłócenia systemu, zwiększone obciążenie sygnalizacji mobilnej, koszty i zużycie energii oraz stacje bazowe o małej mocy. Wdrożenie sieci przełamuje tradycyjną płaską jednowarstwową strukturę sieci i buduje wielowarstwową sieć heterogeniczną. Omówiono plan wdrożenia i architekturę wdrożenia sieci.

Ewolucja anteny dla Massive MIMO

Technologia Massive MIMO jest jedną z kluczowych technologii systemu komunikacji 6G i podstawą szybkiej transmisji w bezprzewodowej sieci komunikacyjnej. Jednocześnie masowe MIMO stawia nowe wymagania dla urządzeń antenowych w systemie komunikacyjnym, takie jak aktywna integracja, miniaturyzacja, łączność szerokopasmowa itp. W tym rozdziale najpierw omówiono proces rozwoju i najnowsze postępy w technologii antenowej w komunikacji bezprzewodowej. Podkreślono wymóg sieci komunikacyjnej 6G dla anteny stacji bazowej i anteny terminala. Szczegółowo opisano podstawy teoretyczne technologii mass MIMO w systemie łączności 6G oraz wprowadzono technologię RIS, która jest ściśle powiązana z masywną MIMO. Szczegółowo omówiono charakterystykę techniczną i trendy rozwojowe masywnych anten MIMO, w tym projektowanie i syntezę anten, sieć zasilającą oraz technologię doboru anten. Wreszcie, w połączeniu z rozwojem obecnej technologii pomiaru i kalibracji anten, wprowadza się technologię inżynierii pomiarowej ściśle związaną z branżą zasilaczy antenowych w komunikacji 6G.

WPROWADZANIE

Wraz z dalszym rozwojem teorii technologii wieloantenowej i postępem zdolności przetwarzania pasma podstawowego, RF (częstotliwości radiowej) i technologii antenowej, rozwój standaryzacji technologii wieloantenowej stopniowo zmierza w kierunku dalszej poprawy wieloantenowej wymiar, obsługujący większą liczbę użytkowników i bardziej równoległą transmisję strumienia danych. W systemie 6G potężna technologia MIMO, obsługująca dziesiątki, setki i tysiące anten, stanie się ważnym technicznym sposobem na dalszą poprawę wydajności bezprzewodowego systemu dostępu, który może zaspokoić gwałtowny wzrost jakości użytkowników i wolumenu biznesowego. Wdrożenie Massive MIMO można podzielić na strukturę rozproszoną i strukturę scentralizowaną. Rozstaw anten w rozproszonej strukturze jest znacznie większy niż 10-krotność długości fali. W obszarze hot spot lub środowisku wewnętrznym wiele anten jest rozmieszczonych w różnych lokalizacjach geograficznych, tworząc różne punkty dostępu. Wiele punktów dostępowych można zgromadzić w węzłach przetwarzania pasma podstawowego lub centrach obliczeniowych za pośrednictwem światłowodów lub innych form sieci z propagacją wsteczną. W celu uzyskania wysokiej prędkości transmisji i zwiększenia przepustowości, rozproszona macierz antenowa o dużej skali jest wykorzystywana w oparciu o współpracę pomiędzy portami antenowymi. W przypadku scentralizowanej matrycy antenowej na dużą skalę przyjęto model rozmieszczenia małych odstępów (mały odstęp odnosi się do 1/2 długości fali fali elektromagnetycznej). Wykorzystując charakterystykę scentralizowanej masywnej macierzy antenowej MIMO z małym odstępem między antenami i silną korelacją między antenami, można utworzyć wąską, cienką wiązkę o wysokim zysku i wyższej rozdzielczości przestrzennej, aby uzyskać więcej funkcji, takich jak wielokrotny dostęp do podziału przestrzeni z dobrą wydajnością, poprawa jakości odbieranego sygnału i znaczne zmniejszenie zakłóceń między użytkownikami oraz zwiększenie pojemności systemu i wydajności widma. Scentralizowana antena na dużą skalę jest również znana jako technologia formowania wiązki anteny na dużą skalę lub antena na dużą skalę ze względu na zastosowanie transmisji sygnału formowania wiązki. Oparta na technologii formowania wiązki, scentralizowana, mała macierz antenowa o małych odstępach odgrywa ważną rolę w promowaniu efektywności wykorzystania pasma częstotliwości, poprawie zasięgu i tłumieniu zakłóceń. Scentralizowana antena na dużą skalę jest najpopularniejszą technologią do projektowania i standaryzacji systemu anten na dużą skalę. Technologia formowania wiązki antenowej na dużą skalę odgrywa ważną rolę w różnych pasmach częstotliwości. W paśmie częstotliwości Sub-6 GHz technologia formowania wiązki antenowej na dużą skalę może realizować przestrzenne zróżnicowanie użytkowników i skutecznie tłumić zakłócenia poprzez wąską, cienką wiązkę o wysokim wzmocnieniu i wyższej rozdzielczości przestrzennej. W paśmie częstotliwości powyżej 6 GHz, ze względu na koszt sprzętu, zużycie energii i złożoność, na ogół przyjmuje się dwustopniową strukturę kształtowania z mieszanymi sygnałami cyfrowymi i analogowymi. Cyfrowy przesuwnik fazowy jest używany do przybliżenia charakterystyki przestrzennej sygnałów w domenie analogowej w celu przezwyciężenia utraty ścieżki. Następnie wiązka cyfrowa selektywna na poziomie użytkownika i częstotliwości. Technika formowania służy do precyzyjnego dopasowania charakterystyki kanału w domenie cyfrowej o niższych wymiarach. Jakość transmisji ulega poprawie, a zakłócenia są ostatecznie skutecznie tłumione. W takim przypadku technologia formowania wiązki będzie odgrywać ważniejszą rolę w nadrabianiu niedoskonałego środowiska propagacji i zapewnianiu pokrycia systemu. Scentralizowana technologia Massive MIMO (określana jako Massive MIMO) i technologia formowania wiązki antenowej na dużą skalę (nazywana anteną wielkoskalową), oparta na macierzach o małych odstępach między antenami, zostały przeanalizowane w kolejnych sekcjach tego rozdziału. tworzą wysokiej rozdzielczości, wąskie i cienkie wiązki o dużym wzmocnieniu.

PRZEGLĄD ANTENY W KOMUNIKACJI BEZPRZEWODOWEJ
Ewolucja anteny stacji bazowej


Antena jest rodzajem konwertera do emitowania i odbierania fal elektromagnetycznych. Może być używany jako urządzenie nadawcze do konwersji prądu o wysokiej częstotliwości na fale radiowe o tej samej częstotliwości, a także może być używany jako urządzenie odbiorcze do odbioru i konwersji fal radiowych na prąd o wysokiej częstotliwości o tej samej częstotliwości. Antena jest szeroko stosowana w komunikacji mobilnej, radiofonii, teledetekcji i innych dziedzinach. Dla systemu komunikacji mobilnej antena jest konwerterem sygnału obwodu sprzętowego i sygnału fali elektromagnetycznej. Ponieważ antena jest wejściem i wyjściem informacji, jej wydajność wpływa na wydajność całej sieci komórkowej. Wraz z rozwojem systemów komunikacji mobilnej badania nad antenami stacji bazowych wkroczyły w erę szerokopasmową i wieloczęstotliwościową. Z jednej strony ewolucja systemów komunikacji mobilnej jest procesem stopniowym, a współistnienie systemów 2G, 3G i 4G utrzyma się dość długo. Wielosystemowa wspólna stacja i wielosystemowa wspólna antena to ekonomiczne i efektywne rozwiązania. Z drugiej strony należy pilnie opracować kompaktową i szerokopasmową antenę do stacji bazowych z coraz większą dbałością o wizualność zanieczyszczenia i promieniowanie elektromagnetyczne. Od lat 80-tych rozwój technologii komunikacji mobilnej w sposób kompleksowy promował ewolucję technologii anten stacji bazowych. Wczesna antena stacji bazowej jest dookólna, co wymaga czterech elementów antenowych rozmieszczonych wokół osi pionowej, aby uzyskać dookólną charakterystykę promieniowania. Podział sektorowy komórki zasięgu powoduje, że antena stacji bazowej rozwija się w antenę kierunkową wraz z popularnością mobilnego systemu komunikacji mobilnej. Ze względu na rozbudowę przepustowości kanału, kompatybilność systemu operacyjnego oraz elastyczność trybu serwisowego, w ostatnich latach znacznie poszerzyło się pasmo pracy anteny stacji bazowej. Dlatego szerokopasmowa, wieloczęstotliwościowa, miniaturyzacyjna i zintegrowana antena stacji bazowej, która może sprostać wymaganiom różnych systemów, są hotspotami badawczymi anteny stacji bazowej. W oparciu o długoterminowe badania trend rozwojowy anteny stacji bazowej głównego nurtu jest następujący.

Antena szerokopasmowa

Zakres częstotliwości, w którym wskaźnik wydajności anteny, taki jak szerokość wiązki, dopasowanie impedancji, izolacja i inne parametry spełniają wymagania systemowe, jest ogólnie nazywany szerokością pasma anteny, znaną również jako szerokość pasma działania anteny. W szczególności szerokość pasma anteny stacji bazowej jest opisana przez szerokość pasma współczynnika fali stojącej i szerokość wiązki. Szerokie pasmo to względna miara anteny, która zmienia się w zależności od różnych zastosowań. fmax i fmin to górna i dolna granica pasma operacyjnego, a fc to częstotliwość centralna. Względna przepustowość działania jest zdefiniowana jako:



Ogólnie rzecz biorąc, nie ma ścisłej definicji anteny szerokopasmowej, która zależy od specjalnej anteny. Jeżeli względna szerokość pasma Bp jest większa niż 20%, często uważa się ją za antenę szerokopasmową. W szczególności antena, która może jednocześnie pokrywać dwa lub więcej różnych standardów, jest nazywana anteną szerokopasmową dla anteny stacji bazowej komunikacji ruchomej. Zgodnie z technologią anten szerokopasmowych, główne metody obejmują strukturę stożkową, zastosowanie elementów pasożytniczych, modyfikację współczynnika jakości (wartość Q) i antenę niezależną od częstotliwości. Chociaż badania nad miniaturyzacją i szerokopasmowością anten stacji bazowych są bardzo obfite, szerokopasmowe zminiaturyzowane anteny stacji bazowych, które można zastosować w rozwiązaniach inżynierskich, są rzadko spotykane. Ze względu na szczególne tło zastosowań anten stacji bazowych, należy wziąć pod uwagę zarówno wydajność, jak i koszt anteny stacji bazowej. Antena stacji bazowej z podwójną polaryzacją jest szeroko stosowana w zewnętrznej antenie stacji bazowej w celu uzyskania wzmocnienia zróżnicowania polaryzacji, do którego trudno zastosować technologię szerokopasmową i technologię miniaturyzacji. Z drugiej strony, złożona struktura anteny mikropaskowej nie była szeroko stosowana w antenie stacji bazowej ze względu na współczynnik kosztów.

Technologia miniaturyzacji anteny stacji bazowej

Miniaturyzacja anten stacji bazowych polega na zmniejszeniu rozmiarów anteny w stałym zakresie częstotliwości pracy. Najmniejsza możliwa konstrukcja anteny służy do poprawy wydajności promieniowania anteny i ułatwienia integracji systemu oraz obniżenia kosztów. Jednak różne parametry anteny wpływają na siebie nawzajem, dlatego miniaturyzacja anteny wymaga poświęcenia innych wskaźników. Szerokość pasma BW jest ściśle związana ze współczynnikiem jakości Q, który zwykle definiuje się jako:

Q = fc/BW (2)

gdzie BW jest różnicą między fmax i fmin, która reprezentuje bezwzględną szerokość pasma anteny. Współczynnik jakości anteny jest odwrotnie proporcjonalny do szerokości pasma. Jeśli rozmiar anteny zmniejszy się, impedancja promieniowania zmniejszy się, a współczynnik jakości Q odpowiednio wzrośnie. W ten sposób można wywnioskować z równania (2), że zmniejszenie rozmiaru anteny i zwiększenie szerokości pasma roboczego anteny wzajemnie się ograniczają, a miniaturyzacja spowoduje zawężenie pasma. Jak pokazano na rysunku



podstawowy warunek współczynnika jakości Q anteny o polaryzacji liniowej podano dla przestrzeni sferycznej

Qmin = 1/k3a3 + 1/ka (3) gdzie k jest liczbą falową. Zgodnie z równaniem (3) przestrzeń sferyczna otaczająca antenę musi być w pełni wykorzystana, aby uzyskać niższą wartość anteny w rzeczywistym procesie projektowania anteny. Teoria ta jest podstawą do uświadomienia sobie komplementarności między łączami szerokopasmowymi a miniaturyzacją. Projektowanie ogólnej anteny stacji bazowej często zaczyna się od optymalizacji wskaźników anteny, a rozmiar anteny stacji bazowej jest najczęściej obliczany zgodnie z teorią. Dlatego rozmiar anteny stacji bazowej jest całkowicie gdzie k jest liczbą falową. Zgodnie z równaniem (3) przestrzeń sferyczna otaczająca antenę musi być w pełni wykorzystana, aby uzyskać niższą wartość anteny w rzeczywistym procesie projektowania anteny. Teoria ta jest podstawą do uświadomienia sobie komplementarności między łączami szerokopasmowymi a miniaturyzacją. Projektowanie ogólnej anteny stacji bazowej często zaczyna się od optymalizacji wskaźników anteny, a rozmiar anteny stacji bazowej jest najczęściej obliczany zgodnie z teorią. Dlatego wielkość anteny stacji bazowej jest całkowicie zdeterminowana przez częstotliwość roboczą, która staje się monotonna i ciężka. Co więcej, trudno jest spełnić różne wymagania coraz bardziej złożonego środowiska aplikacji na antenie stacji bazowej. Tak więc szerokopasmowe miniaturowe anteny stacji bazowych mają trzy zalety w porównaniu z konwencjonalnymi antenami stacji bazowych. Szerokopasmowe zminiaturyzowane anteny stacji bazowych mogą zmniejszyć rozmiar i wagę anteny, co nie tylko zmniejsza koszty przetwarzania anteny, ale także stanowi warunek wstępny dla wieży RRU (Radio Remote Unit). Z drugiej strony waga zminiaturyzowanej anteny jest zmniejszona. Szerokopasmowe zminiaturyzowane anteny stacji bazowych mogą być lepiej stosowane w antenach wielosystemowych, co jest kluczową technologią wykorzystywaną przy budowie sieci kolokacji co-site, która ma zastąpić chroniczny problem dużych rozmiarów konwencjonalnych anten. Zastosowanie szerokopasmowych zminiaturyzowanych anten stacji bazowych w pewnym stopniu rozwiązuje ten problem. Z drugiej strony, szerokopasmowe miniaturowe anteny stacji bazowych mogą zmniejszyć opór wiatru i można je uprościć w instalacji. Szerokopasmowa miniaturowa antena stacji bazowej jest ważną częścią szerokopasmowego systemu miniaturowej stacji bazowej. Wraz z szybkim rozwojem technologii komunikacji bezprzewodowej, podstawowa konstrukcja sieci rozwija się w kierunku wspierania szybszych usług transmisji danych. Badania nad szerokopasmowymi miniaturowymi antenami stacji bazowych stopniowo stały się przedmiotem uwagi. Ze względu na specjalne środowisko aplikacji, system szerokopasmowej zminiaturyzowanej stacji bazowej musi mieć cechy elastycznej formy, miniaturyzacji i łatwego upiększania. Ponieważ część antenowa nie była w stanie przełamać ograniczenia wielkości przestrzeni, wykorzystanie szerokopasmowych zminiaturyzowanych anten stacji bazowych umożliwi szybki rozwój szerokopasmowych zminiaturyzowanych systemów stacji bazowych.

Aktywny system antenowy stacji bazowej

Pojawienie się zintegrowanych aktywnych anten (AAU) jest zgodne z wymaganiami mobilnej łączności szerokopasmowej, jak pokazano na rysunku.



Integracja modułów częstotliwości radiowych i anten nie tylko upraszcza wdrożenie w miejscu, ale także zmniejsza straty zasilania systemu, co poprawia zasięg sieci o ponad 10%. Jedna jednostka AAU może spełnić wymagania wielopasmowego pokrycia witryny dla jednego sektora w oparciu o projekt fuzji z antenami wieloczęstotliwościowymi, co skutecznie poprawia przyjazność dla środowiska i zmniejsza obciążenie witryny. Udowodniono, że zintegrowana technologia AAU może nie tylko spełniać coraz bardziej rygorystyczne wymagania dotyczące wdrażania, ale również może promować więcej nowych technologii szyków antenowych i nowych funkcji w przyszłości, jak pokazano na rysunku



Antena i RRU tradycyjnego systemu zasilania anteny są oddzielone od siebie, a interfejs jest standardowym interfejsem. Ich odpowiednie działanie można zweryfikować poprzez niezależne testy. Natomiast zintegrowana antena aktywna to integracja anteny i jednostki radiowej, a połączenie między nimi jest niestandardowym interfejsem. Wydajność wskaźnika RF i wydajność promieniowania aktywnej anteny nie mogą być w pełni odzwierciedlone w osobny sposób. Należy wziąć pod uwagę zintegrowane metody testowe, to znaczy niektóre wskaźniki przewodzenia muszą być wzięte pod uwagę przy testowaniu interfejsu powietrznego. Podczas gdy test interfejsu powietrznego opiera się na teście polowym, tradycyjny test anteny polega na użyciu sygnału pojedynczego tonu do testowania amplitudy i fazy odpowiedniego pola. Jednak dla zintegrowanej anteny aktywnej sygnał może pracować w różnych standardach, różnych metodach modulacji i różnych szerokościach pasma w swoim trybie pracy. Terenowy system testowy musi obsługiwać testy amplitudowe i fazowe sygnałów usługowych w różnych scenariuszach konfiguracyjnych. W przypadku testu zintegrowanego aktywnego wzorca anteny, jak wybrać sygnał testowy wzorca, jest również nowym problemem, przed którym stoi zintegrowany test, który wymaga badań, analizy i omówienia definicji.

System anten wielowiązkowych

Ze względu na szybki rozwój technologii komunikacji fal milimetrowych, badania anteny fal milimetrowych wzbudziły zainteresowanie wielu naukowców. Masywny system MIMO potrzebuje również anteny wielowiązkowej do przesyłania kanałów ortogonalnych. Badania skupiają się na projektowaniu anten wielowiązkowych w zakresie pasywnej sieci kształtowania wiązki. Technologia anteny wielowiązkowej wykorzystuje ideę podziału sektorów, aby podzielić tradycyjny sektor 120° na N (N?2) podsektorów i odpowiednio wykorzystuje N podwiązek, aby pokryć każdy podsektor dogłębnie. Schemat pokrycia pokazano na rysunkach





Przepustowość sieci można zwiększyć do N razy w stosunku do pierwotnej dzięki technologii anten wielowiązkowych. Głębokość obszaru pokrycia można zwiększyć dzięki wysokiemu wzmocnieniu anteny wielowiązkowej, a każdą wiązkę można precyzyjnie skierować. Umożliwia to wykorzystanie technologii anten wielowiązkowych do skutecznego rozwiązywania problemów związanych z niewystarczającą przepustowością systemu i niewystarczającą głębokością zasięgu przy zachowaniu istniejących zasobów lokalizacji i zasobów widma, dzięki czemu istniejąca sieć może odgrywać lepszą rolę. Ponieważ kierunkowa charakterystyka promieniowania jest regularnie kształtowana przez szyk antenowy, sieć zasilająca ma duże znaczenie dla wydajności wiązek. Biorąc pod uwagę wydajność i koszt systemu antenowego, implementacja sieci formowania wiązki analogowej (BFN) jest powszechnie stosowana w dziedzinie anten stacji bazowych. Macierz Butlera jest jedną z najbardziej klasycznych sieci zasilających dla anten wielowiązkowych. Gdy wzbudzenie jest stosowane do dowolnego portu wejściowego sieci matrycy Butlera, między każdym portem wyjściowym może zostać utworzona specyficzna zależność dystrybucji amplituda-faza. Wykorzystanie tej funkcji sieci matrycowej Butlera do formowania wiązki przez antenę może sprawić, że antena będzie emitować wiele wiązek skierowanych na żądanie, aby zrealizować funkcję wielowiązkową anteny.

Rozwój anteny wyposażenia użytkownika

Ze względu na szybki rozwój technologii komunikacji mobilnej, branża terminali komunikacji mobilnej stopniowo się pojawiła. Telefon komórkowy jako produkt końcowy stopniowo stał się niezbędnym elementem w życiu ludzi ze względu na jego przenośność i praktyczność. Telefony komórkowe były początkowo nazywane telefonami z funkcjami, które były używane tylko do zapewnienia podstawowych narzędzi komunikacyjnych dla pojedynczej usługi głosowej. Wraz z nadejściem ery smart, telefony komórkowe rozwijały coraz więcej funkcji poprawiających jakość życia użytkowników, takich jak nawigacja, radio FM, Bluetooth, komunikacja zbliżeniowa (NFC) i tak dalej. Aby obsługiwać wielofunkcyjność i rezerwować miejsce na coraz więcej czujników i innego sprzętu, anteny telefonów komórkowych, które nadają i odbierają fale radiowe, muszą obejmować wiele pasm częstotliwości i mieć jak najmniej miejsca. Projektowanie i rozmieszczenie anten terminalowych jest problemem w zastosowaniu technologii MIMO i technologii Massive MIMO po stronie terminala mobilnego. Największym wyzwaniem dla projektu wieloantenowego terminala mobilnego jest umieszczenie dwóch lub więcej anten w terminalu mobilnym o ograniczonej przestrzeni i spełnienie niskiego sprzężenia między elementami antenowymi, aby działały w tym samym czasie. Aby spełnić wymagania projektowe dotyczące mniejszej korelacji sygnału, odległość między elementami antenowymi powinna wynosić co najmniej połowę długości fali roboczej, co jest trudne do osiągnięcia w przypadku terminali mobilnych o małym współczynniku kształtu. Z tego powodu dwa pomysły poprzez eksperymenty badawcze mają rozwiązać problem.

Oddzielenie elektromagnetyczne elementów anteny

Sprzężenie elektromagnetyczne jest tworzone głównie przez falę powierzchniową, która jest wzbudzana przez prąd na antenie. Dlatego poprawa sprzężenia elektromagnetycznego poprzez zwiększenie izolacji pomiędzy elementami antenowymi oznacza przede wszystkim tłumienie wzajemnego zakłócania się fal powierzchniowych. Specyficzne metody polegają na umieszczeniu anteny prostopadle, przyjęciu anteny o strukturze komplementarnej elektromagnetycznej, wprowadzeniu struktury pomiędzy elementy anteny i zmianie struktury podłogi. Ortogonalne rozmieszczenie anten oznacza, że ścieżki prądowe elementów antenowych są ułożone prostopadle, co znacznie zmniejsza sprzężenie elektromagnetyczne i poprawia izolację. Ta metoda może również realizować zróżnicowanie polaryzacji charakterystyki promieniowania anteny i jest odpowiednia głównie dla mikropaskowej płaskiej anteny monopolowej i anteny dipolowej. Antena o strukturze komplementarnej elektromagnetycznej składa się z grupy dipoli koncentrycznych i dipoli szczelinowych. Antena może być umieszczona obok siebie lub pionowo, co można elastycznie dobierać w zależności od konkretnego środowiska aplikacji i lepiej wykorzystać przestrzeń. Zestaw par elektromagnetycznych komplementarnych anten składający się z dipoli koncentrycznych i dipoli szczelinowych służy do uzyskania izolacji anteny 40 dB. Wprowadzenie struktur pomiędzy antenami może również poprawić izolację pomiędzy elementami antenowymi. Struktura jest podobna do zasady działania filtra, który może odciąć fale powierzchniowe między antenami, aby uzyskać wysoką izolację. W porównaniu ze zwykłą metalową konstrukcją, izolacja anteny za pomocą konstrukcji może zostać zwiększona do ponad 40dB. Struktura uszkodzonego gruntu (DGS) jest specjalnym wzorem kształtu, który jest wyryty na podłodze anteny, jak pokazano na rys. (8). Struktura DGS może wykorzystywać połączony efekt indukcyjności i pojemności, aby zrealizować funkcję zatrzymania pasma w celu poprawy izolacji między elementami anteny. Typowe struktury obejmują ćwierć roboczą szczelinę długości fali, wielokątną strukturę rezonansową i dodanie gałęzi zwarciowych.

Konstrukcja zintegrowanej anteny

Charakterystyka promieniowania anteny o zintegrowanej konstrukcji podłogowej zależy głównie od prądu rozprowadzanego po podłodze. Wydajność promieniowania rozkładu prądu jest podobna do typowego dipola. Metoda ta opiera się na fakcie, że charakterystyka promieniowania anteny terminala ruchomego w paśmie niskich częstotliwości jest określona głównie przez tryb falowodu podłogowego, a element antenowy działa jako sprzęgający. Podłogowy tryb falowodu jest skutecznie wzbudzany przez element antenowy jako prosta jednostka nierezonansowa. Dlatego też technologię wieloantenową można zrealizować, umieszczając tradycyjne anteny samorezonansowe i proste elementy sprzęgające w terminalu mobilnym. Zintegrowana antena oparta na promieniowaniu podłogowym jest głównie podzielona na trzy części, którymi są podłoga terminala mobilnego, element sprzęgający i obwód dopasowujący. Dopasowany obwód umieszczony na płytce drukowanej podłogi realizuje głównie dopasowanie impedancji anteny, które bardzo różni się od tradycyjnej anteny rezonansowej, która opiera się na trójwymiarowej konstrukcji metalowego elementu anteny w celu uzyskania dopasowania impedancji. Ponadto element sprzęgający jest wymagany do najefektywniejszego sprzężenia energii z trybem falowodu podłogowego w celu uzyskania promieniowania. Tradycyjne samorezonansowe elementy antenowe muszą osiągnąć dopasowanie impedancyjne i trudno jest połączyć energię z trybem falowodu podłogowego. Obie strony płytki drukowanej w terminalu mobilnym mają ciągłe warstwy uziemiające, a metalowa powierzchnia służy jako osłona chroniąca przed kompatybilnością elektromagnetyczną. Rozmiar i położenie pokrowca ochronnego w różnych telefonach komórkowych są różne. Jednak warstwę uziemiającą i metalową osłonę ochronną w terminalu można wykorzystać jako metalową płytkę uziemiającą w oparciu o teorię technologii RF. W ciągu ostatnich dwóch dekad badano wpływ płytki uziemiającej w terminalu na działanie całej konstrukcji anteny. Wyniki pokazują, że główny mod falowodu wzbudzany przez podłogę ma obecnie znaczący wpływ na całkowitą charakterystykę radiacyjną podłogi i elementu antenowego. Badania wykazały, że antena samorezonansowa (taka jak antena PIFA) w typowym terminalu mobilnym o częstotliwości roboczej 900MHz i względnej szerokości pasma 10% (S11<=-6dB) stanowi jedynie 10% całkowitej energii promieniowania . Pozostała energia jest wypromieniowywana przez prąd rozprowadzany po podłodze. A wzór promieniowania prądu jest podobny do wzoru symetrycznego oscylatora półfalowego. Miniaturyzację elementu antenowego można osiągnąć poprzez zastosowanie podłogi terminala mobilnego jako głównego grzejnika. Ze względu na zalety metalowej ramy, takie jak metaliczna faktura, modne piękno i większa wytrzymałość strukturalna, konstrukcja metalowej ramy stopniowo stała się wyborem producentów anten do telefonów komórkowych. Jednakże, ponieważ antena telefonu komórkowego jest zwykle umieszczana na górze lub na dole telefonu komórkowego, po wprowadzeniu konstrukcji metalowej ramy działanie anteny telefonu komórkowego ulegnie pogorszeniu. Tak więc miniaturyzacja wielopasmowej konstrukcji anteny telefonu komórkowego z metalową ramą ma na celu zaspokojenie obecnego rynku telefonów komórkowych. Aby sprostać różnorodnym potrzebom nowoczesnej komunikacji mobilnej, pojazdy są wyposażone w różne funkcjonalne anteny, które mogą być wykorzystywane w połączeniach alarmowych, rozrywce, nawigacji i pozycjonowaniu. Wydajność anteny samochodowej ma ogromne znaczenie dla poprawy jakości usług (QoS) w samochodowym systemie komunikacji bezprzewodowej. Pojazdy zostaną połączone z większą liczbą urządzeń komunikacyjnych, aby uzyskać bardziej wszechstronne i inteligentne funkcje jazdy w przyszłych systemach ruchu. Ważnym wyzwaniem jest zintegrowanie anteny z konkretnym modelem o małej objętości, takim jak antena dachowa w kształcie płetwy rekina. Tymczasem kluczowym problemem jest również realizacja szerokiej gamy usług w kilku pasmach częstotliwości rozwiązania. Chociaż w modelu o stałej objętości można zintegrować wiele anten o różnych pasmach częstotliwości, istotne jest zmniejszenie sprzężenia między antenami i poprawa wydajności promieniowania. Ze względu na trudność w poprawie izolacji anteny, antena wielopasmowa jest szeroko badana pod kątem pokrycia wielu pasm częstotliwości. Na rysunku



zaproponowano rodzaj wielopasmowej anteny samochodowej, która może pokrywać szerokie pasmo częstotliwości dla przyszłej komunikacji samochodowej. Wydajność dopasowania impedancji anteny jest poprawiona przez obciążenie kondensatora zębatego i tarczy dopasowującej impedancję.

Wymagania technologii komunikacyjnych w technologii antenowej

Technologia MIMO w większym stopniu opiera się na swobodzie przestrzennej, jaką zapewnia szyk antenowy, aby pokazać jego zalety w zakresie wydajności. Istniejący schemat transmisji MIMO, który jest ograniczony tradycyjną architekturą anteny stacji bazowej, może sterować jedynie charakterystyką przestrzennego rozkładu sygnału w płaszczyźnie poziomej, a nie wymiarem pionowym w kanale 3D. Funkcja technologii MIMO poprawiająca ogólną wydajność i wydajność systemu komunikacji mobilnej oraz wrażenia użytkownika nie znajdują odzwierciedlenia w istniejącej technologii MIMO. Wraz z ewolucją konstrukcji anten, rozwój technologii aktywnych systemów antenowych (AAS) ma ogromny wpływ na podstawową konstrukcję i konstrukcję sieci systemu komunikacji mobilnej. Będzie promować technologię MIMO od tradycyjnego projektu optymalizacji przestrzeni 2D do ekspansji przestrzeni o wyższych wymiarach. Charakterystyka dystrybucji przestrzennej sygnału jest regulowana przez stację bazową poprzez formowanie wiązki lub wstępne kodowanie. Proces regulacji można z grubsza podzielić na dwa poziomy. Pierwszy poziom to regulacja na poziomie sektora wspólnego kanału i wspólnego sygnału fizycznego, która polega na dostosowaniu parametrów zasięgu sektora zgodnie z celem optymalizacji sieci, takim jak szerokość sektora, wskazywanie, nachylenie w dół itp. Działanie tego poziom można również nazwać kształtowaniem na poziomie sektorowym. Sposób kształtowania nie jest zoptymalizowany dla kanału o małej skali określonego sprzętu użytkownika (UE). Dostosowanie kształtowania sektorów jest procesem stosunkowo statycznym. Drugim poziomem dopasowania jest dynamiczne kształtowanie lub wstępne kodowanie na poziomie UE wykonywane dla każdego UE, a jego celem jest dopasowanie transmisji dla każdego UE z jego cechami kanału. Przestrzenny rozkład mocy sygnału można rozłożyć na dwie przestrzenie dwuwymiarowe (płaszczyzna pozioma i płaszczyzna pionowa) w trójwymiarowym układzie współrzędnych. Fizyczny port antenowy istniejącej struktury anteny stacji bazowej odpowiada szykowi liniowemu ustawionemu w kierunku poziomym. Regulacja amplitudy każdego fizycznego portu anteny i względnej fazy pomiędzy fizycznymi portami anteny jest równoważna rozkładowi sygnału sterującego w wymiarze poziomym. Kształtowanie sektora lub dynamiczne kształtowanie na poziomie UE może być realizowane w paśmie podstawowym poprzez moduł mapowania anteny. Jednak w przypadku tablicy elementów odpowiadających każdemu portowi anteny, ponieważ nie ma odpowiedniego fizycznego portu anteny odpowiadającego jednemu z nich, współczynnik ważenia każdego elementu nie może być bezpośrednio regulowany w paśmie podstawowym. Elastyczność regulacji rozkładu mocy sygnału w wymiarze pionowym jest w pewnym stopniu ograniczona. W przypadku kształtowania sektora kąt deklinacji można kontrolować na częstotliwości radiowej, regulując opóźnienie czasowe i tłumienie kabla częstotliwości radiowej podłączonego do każdego elementu, lub kąt elewacji panelu anteny stacji bazowej można regulować mechanicznie. Jednak dla transmisji usługi każdego UE, dynamiczna optymalizacja dla kanałów o małej skali nie może być osiągnięta w wymiarze pionowym. Zgodnie z obecną konstrukcją pasywnej anteny stacji bazowej, metoda transmisji MIMO może optymalizować proces transmisji tylko w wymiarze poziomym, ale nie jest w pełni dopasowana do rzeczywistego kanału trójwymiarowego. Swoboda sygnału w wymiarze pionowym nie może być w pełni wykorzystana w transmisji. Podział komórek lub dalszy podział sektorów jest również ważnym sposobem na zwiększenie wydajności systemu. Ze względu na tradycyjną konstrukcję anteny stacji bazowej niemożliwe jest osiągnięcie sektorów pionowych bez zwiększenia anteny i sprzętu o częstotliwości radiowej. Anteny wielopłaszczyznowe są często wymagane do oddzielnego pokrycia obszarów o różnych kątach pionowych, takich jak różne zakresy wysokości budynków wysokościowych. Biorąc pod uwagę wady istniejącej struktury anteny stacji bazowej w wymiarze pionowym, naturalnym pomysłem jest zwiększenie fizycznych portów antenowych w wymiarze pionowym, aby zrealizować niezależne sterowanie każdym elementem w paśmie podstawowym. W oparciu o istniejącą konstrukcję anteny pasywnej, problemem nie jest zasada techniczna, ale realizacja inżynierska. Zgodnie z pasywną strukturą anteny obwód RF i fizyczny port anteny są połączone kablami RF. A liczba fizycznych portów antenowych określa liczbę kabli RF. Liczba kabli RF jest znaczna w przypadku zapewnienia fizycznych portów antenowych o wymiarze poziomym. Aby zmniejszyć straty spowodowane przez kable RF i obciążenie instalacji kabli RF oraz zmniejszyć wpływ masy i odporności na wiatr kabli na wieżę stacji bazowej, trendem rozwoju struktury stacji bazowej jest zainstalowanie części obwodu RF (RRH, zdalna głowica radiowa) jak najbliżej anteny. Nie jest wykonalne zwiększenie liczby fizycznych portów antenowych na dużą skalę, nawet jeśli struktura RRH zostanie przyjęta na wieży, w której są już zainstalowane kable RF. W przypadku konstrukcji stacji bazowej i anteny, ponieważ niewielka ilość urządzeń wzmacniających dużej mocy w RRH lub wzmacniaczu wieżowym jest zastępowana dużą liczbą stosunkowo małej mocy wzmacniaczy zintegrowanych z macierzą w macierz AAS. A na panelu antenowym ASS jest duża przestrzeń do odprowadzania ciepła dla wzmacniacza mocy. Macierz ASS może również stabilniej obsługiwać wyższą całkowitą moc nadawania bez innych urządzeń autopromieniujących. Połączenie modułu RF i systemu antenowego dodatkowo zmniejsza liczbę urządzeń wieżowych i odpowiednie koszty wynajmu. Zastosowanie pionowych portów wymiarowych ma ogromne znaczenie dla zwiększenia możliwości kształtowania na poziomie sektora i kształtowania na poziomie UE. Kształtowanie na poziomie sektora koncentruje się bardziej na wdrażaniu, podczas gdy poprawa kształtowania na poziomie UE obejmuje odpowiednią pracę normalizacyjną. W tradycyjnej sieci komórkowej zwiększenie pojemności można osiągnąć jedynie poprzez podział sektora lub utworzenie nowej komórki, gdy ruch w sektorze przekracza pojemność przenoszenia. Powyższa metoda jest nie tylko kosztowna, ale także ma wiele przeszkód w wyborze lokalizacji i innych problemów. W oparciu o macierz AAS, oryginalna lokalizacja i sprzęt mogą być w pełni wykorzystane do ponownego podziału oryginalnego sektora w wymiarze pionowym na podsektory pierścienia wewnętrznego i pierścienia zewnętrznego z różnymi kątami nachylenia w dół, aby uzyskać podział na sektory w pionie i jeszcze bardziej poprawić wykorzystanie widma efektywność. W przypadku wysokich budynków wiele obszarów o różnych wysokościach można pokryć pionowym podziałem na sektory. Dzięki elastyczności dostosowania wymiaru pionowego macierzy AAS, możliwe jest również osiągnięcie niezależnej optymalizacji pokrycia sektorowego wielu trybów interfejsu powietrznego zajmujących różne częstotliwości nośne w tym samym paśmie częstotliwości. Macierz AAS może również realizować niezależną optymalizację łącza w górę i łącza w dół, dzięki czemu łącze w górę może lepiej pokryć użytkowników na obrzeżach komórki, a łącze w dół może uniknąć niepotrzebnych zakłóceń sąsiednich komórek. Pojawienie się teorii technologii kształtowania wiązki na dużą skalę przez anteny położyło teoretyczne podstawy pod dalszą ekspansję wymiarów MIMO. Coraz dojrzalsze warunki zastosowania ASS w komercyjnych systemach komunikacji mobilnej stworzyły dogodne warunki do dalszego rozwoju technologii MIMO w kierunku wielkoskalowym i 3D. W oparciu o wielkoskalową macierz antenową stacja bazowa może tworzyć wiązkę ołówkową o wysokiej rozdzielczości przestrzennej w przestrzeni trójwymiarowej, co może zapewnić elastyczne możliwości różnorodności przestrzennej, poprawić odbierany sygnał i tłumić zakłócenia, aby osiągnąć wyższą pojemność i widmo systemu efektywność wykorzystania.

Trendy rozwojowe ogromnej anteny MIMO dla 6G

Chociaż środowisko akademickie przeprowadziło stosunkowo obszerne i dogłębne badania nad technologią formowania wiązki Massive MIMO, nadal istnieje potrzeba dalszych dogłębnych badań nad kilkoma kluczowymi kwestiami technicznymi w ważnym punkcie zwrotnym w przejściu od badań teoretycznych do standaryzacji i praktyczności. Wydajność rozwiązania technicznego Massive MIMO jest bardzo ściśle związana ze scenariuszem aplikacji i środowiskiem wdrożeniowym. Dlatego konieczne jest połączenie scenariuszy wdrażania i wymagań biznesowych systemu komunikacji mobilnej nowej generacji, aby w ukierunkowany sposób zbadać odpowiednie scenariusze wielkoskalowej technologii wieloantenowej. Mierzyć i modelować parametry kanału pod kątem typowych scenariuszy zastosowań i charakterystyk kanału. Prace te dostarczą kierunkowych wytycznych do wyboru anteny Massive MIMO, projektowania rozwiązań technicznych i formułowania rozwiązań standardowych. Jednocześnie modelowanie na podstawie zmierzonych parametrów kanału dla typowych scenariuszy aplikacji będą również stanowić ważną podstawę do dokładnego konstruowania systemu oceny rozwiązań technicznych i dokładnego przewidywania wydajności rozwiązania technicznego w rzeczywistym środowisku aplikacji. Wydajność systemu MIMO w dużej mierze zależy od kształtu szyku antenowego wykorzystywanego przez system oraz charakterystyki środowiska propagacji. To samo dotyczy technologii Massive MIMO. Przestrzenna rozdzielczość kanału Massive MIMO jest znacznie zwiększona w środowisku komunikacji bezprzewodowej Massive MIMO, zwłaszcza gdy stacja bazowa jest wyposażona w dużą antenę macierzową z boku. To, czy na kanale pojawiły się nowe funkcje, wymaga dalszej dyskusji. W idealnym modelu nie ma korelacji i wzajemnego sprzężenia między antenami. Dlatego dodanie dodatkowych elementów antenowych znacznie zwiększy stopień swobody systemu. Jednak cechy kanału przestrzennego są trudne do osiągnięcia w rzeczywistych systemach. Odległość między elementami tablicy jest zwykle niewielka. A w środowisku propagacji może być niewystarczająca ilość rozpraszaczy. Powyższe czynniki wpłyną na swobodę przestrzenną systemów Massive MIMO. Często w procesie transmisji, detekcji i harmonogramowania MIMO wraz ze wzrostem liczby i skali anten, wzrostem liczby użytkowników i poprawą przepustowości, zachodzi konieczność wykonywania operacji na dużej liczbie matryc wielowymiarowych, co prowadzi do znacznego wzrostu złożoności systemu. Problem ten jest szczególnie widoczny w systemach o wysokiej częstotliwości. Ponadto należy wziąć pod uwagę równowagę między kosztami ogólnymi, złożonością i wydajnością wynikającą ze wzrostu liczby anten pod względem projektu systemu, takiego jak sygnały referencyjne, mechanizmy sprzężenia zwrotnego, sygnalizacja kontrolna, zasięg sygnału rozgłoszeniowego/publicznego, dostęp i przekazać. Problem dotyczy głównie 4 aspektów, w tym technologii kształtowania wiązki, technologii pomiaru kanałów i sprzężenia zwrotnego, technologii zwiększania zasięgu i szybkich rozwiązań mobilnych oraz technologii planowania wielu użytkowników i zarządzania zasobami. Wzrost wydajności Massive MIMO jest gwarantowany głównie przez quasiortogonalną charakterystykę między kanałami dla wielu użytkowników utworzonymi przez macierz o dużej skali pod względem technologii formowania wiązki. Jednak ze względu na istnienie wielu nieidealnych czynników w sprzęcie i środowisku propagacji, nadal konieczne jest poleganie na projektowaniu transmisji w łączu w dół i odbioru w łączu w górę algorytmu do skutecznego tłumienia zakłóceń współkanałowych między użytkownikami, a nawet komórkami w celu uzyskania stabilnego wzmocnienia transmisji wielu użytkowników w rzeczywistych warunkach kanałowych. A złożoność obliczeniowa algorytmu transmisji i detekcji jest bezpośrednio związana z liczbą szyków antenowych i użytkowników. Ponadto algorytmy wstępnego kodowania/formowania wiązki oparte na Massive MIMO są bezpośrednio związane z projektowaniem struktury macierzy, kosztami projektu, wydajnością energetyczną i wydajnością systemu. Dlatego równowaga między złożonością obliczeniową a wydajnością systemu transmisji i wykrywania Massive MIMO będzie podstawowym zagadnieniem dla praktycznego zastosowania tej technologii. Ponieważ pomiar informacji o stanie kanału, sprzężenie zwrotne i technologia projektowania sygnału odniesienia mają kluczowe znaczenie dla realizacji technologii MIMO, zawsze stanowiły one podstawową treść badań nad technologią MIMO. Opracowanie schematu badań, oceny i weryfikacji oraz standaryzacji tego problemu ma niezwykle ważną wartość dla praktycznego rozwoju technologii Massive MIMO. Zasób pilota jest ważnym i ograniczonym zasobem w wielkoskalowych systemach antenowych. Ze względu na ograniczony czas koherencji w scenariuszu wielokomórkowym, piloty muszą być ponownie wykorzystywane między komórkami. Zanieczyszczenie pilota spowodowane ponownym użyciem pilota jest wąskim gardłem, które wpływa na wydajność w systemach Massive MIMO. Dlatego konieczne jest zbadanie sondowania, projektowanie mechanizmów sygnału odniesienia oraz efektywne mechanizmy alokacji zasobu sygnału odniesienia. Jednocześnie dokładność estymacji kanału jest również bardzo ważna w środowisku skażonym pilotem. Aby skutecznie tłumić zakłócenia, konieczne jest zbadanie bardziej efektywnych metod szacowania kanałów i zakłóceń oraz mechanizmy sieci wspomagające w celu zwiększenia wydajności systemu. Ponadto konstrukcja sygnału odniesienia jest ściśle powiązana z mechanizmem sprzężenia zwrotnego informacji o stanie kanału, co bezpośrednio wpłynie na wydajność i wydajność wielkoskalowych systemów antenowych. Sprzężenie zwrotne informacji o stanie kanału jest ważną podstawą dla podstawowych modułów funkcjonalnych, takich jak planowanie zasobów, adaptacja łącza i MIMO w systemie dostępu bezprzewodowego. Jak wspomniano wcześniej, dokładność informacji o stanie kanału ma istotny wpływ na efektywność wykorzystania pasma częstotliwości całego systemu dla MU-MIMO. Konflikt między poprawą dokładności sprzężenia zwrotnego a narzutem stanie się bardziej widoczny dla mechanizmu sprzężenia zwrotnego opartego na książce kodowej, w miarę wzrostu skali anteny. Zalety mechanizmu sprzężenia zwrotnego wzajemności kanału opartego na unikalnym systemie TDD pod względem dokładności informacji o stanie kanału, narzutu sygnału odniesienia pomiaru łącza w dół i narzutu sprzężenia zwrotnego są również coraz bardziej oczywiste w tym przypadku. Rozszerzenie skali anten przyniesie ogromne korzyści w zakresie pokrycia kanałów ruchu w zakresie technologii zwiększania zasięgu i szybkich rozwiązań mobilnych. Przyniesie to jednak wiele negatywnych skutków dla kanałów rozgłoszeniowych, które muszą skutecznie pokryć wszystkie terminale w całej komórce. Ponadto w scenariuszach mobilnych o dużej szybkości należy również rozważyć kwestię, jak zapewnić niezawodną transmisję sygnału o dużej szybkości. Największym wyzwaniem dla systemów Massive MIMO jest duża zmienność w czasie informacji o kanale w tym scenariuszu. Obecnie technologie śledzenia i poszerzania wiązki, które są mniej zależne od pozyskiwania informacji o stanie kanału, mogą skutecznie wykorzystywać wzmocnienie macierzy Massive MIMO w celu poprawy niezawodności transmisji danych i szybkości transmisji, co jest warte dalszych badań. Massive MIMO zapewnia lepszą ziarnistość przestrzenną i większą swobodę przestrzenną dla bezprzewodowych sieci dostępowych pod względem planowania wielu użytkowników i technologii zarządzania zasobami. W związku z tym uzyskana zostanie znaczna poprawa wydajności w przypadku technologii planowania wielu użytkowników, technologii równoważenia obciążenia usług oraz technologii zarządzania zasobami w oparciu o Massive MIMO. Technologia formowania wiązki Massive MIMO była powiązana z technologią transmisji niewspółpracującej dla pojedynczych scenariuszy Macrocell, gdy Bell Labs zaproponował koncepcję Massive MIMO dla wyżej wymienionych scenariuszy w 2010 roku. pochodzi z wybielania kanałów przestrzennych przez macierze o dużej skali i prawie ortogonalnego stanu między kanałami wielu użytkowników uzyskanymi z nich, a nie poprzez akwizycję między komórkami lub kooperatywną akwizycję między punktami transmisji. Innymi słowy, po zastosowaniu macierzy na dużą skalę nie ma potrzeby współpracy w idealnych warunkach. Jeśli jednak istnieje jakiś mechanizm współpracy między komórkami, faktycznie można jeszcze bardziej poprawić wydajność Massive MIMO. Na przykład tak zwany problem pilotażowego zanieczyszczenia można w jak największym stopniu uniknąć dzięki mechanizmowi współpracy. Dodatkowo kolejną kwestią wymagającą uwagi jest tzw. efekt latarki. Po zastosowaniu technologii kształtowania wiązki sąsiednie zakłócenia odbierane przez użytkownika można porównać z wiązką stworzoną przez latarkę. Wraz ze zmianami w sytuacji planowania sąsiedniej komórki lub przemieszczaniem się zaplanowanych użytkowników w sąsiedniej komórce, powodująca zakłócenia wiązka kołysze się jak latarka lub włącza/wyłącza się z przerwami. Wynikające z tego wahania interferencji będą bardzo poważne. W takim przypadku trudno jest dokładnie przewidzieć fluktuacje zakłóceń poprzez raportowanie CQI. Jeśli nie ma mechanizmu koordynacji lub współpracy, ta nieprzewidywalna i gwałtownie zmieniająca się interferencja będzie miała bardzo poważny wpływ na operacje adaptacji łącza, takie jak AMC (Adaptive Modulation and Coding) (zwłaszcza po użyciu macierzy o dużej skali. Wzmocnienie macierzy jest bardzo wysoki, a wpływ będzie poważniejszy). Dlatego w praktycznych zastosowaniach współpraca jest również konieczna w przypadku scentralizowanych wielkoskalowych systemów antenowych w scenariuszach o dużym zasięgu. Współpraca wielkoskalowych systemów antenowych musi koncentrować się na scentralizowanej współpracy antenowej na dużą skalę, rozproszonej współpracy na dużą skalę oraz heterogenicznych scenariuszach scentralizowanej i rozproszonej koegzystencji. Jak wspomniano powyżej, pasywna struktura anteny jest ogólnie stosowana w istniejącym systemie komunikacji mobilnej. Każdy port antenowy wymaga podłączenia do niego niezależnego kabla RF. Gdy liczba portów antenowych, które muszą być niezależnie sterowane stopniowo wzrasta, duża liczba kabli RF spowoduje niewyobrażalne trudności w realizacji projektu oraz późniejszej eksploatacji i konserwacji. Istniejący system antenowy generalnie może obsługiwać niezależną regulację wiązki dla każdego użytkownika tylko w wymiarze poziomym. Jednak kształt wiązki można ustawić równomiernie tylko dla wymagań dotyczących pokrycia sektora w wymiarze pionowym. Dlatego transmisja MIMO oparta na tej macierzy nazywana jest również 2D-MIMO. Aby rozwiązać powyższe problemy, RF (część funkcji pasma podstawowego) można połączyć z tradycyjnym układem anten pasywnych, tworząc technologię aktywnej anteny. Włókna światłowodowe i kable DC mogą być wykorzystane do zastąpienia dużej liczby połączeń kablowych RF pomiędzy anteną a innym sprzętem, co znacznie upraszcza trudność budowy i eksploatacji. A wprowadzenie technologii aktywnej anteny stwarza warunki do scentralizowanego i chmurowego przetwarzania pasma podstawowego. Co ważniejsze, pojawienie się dużej liczby sterowanych portów antenowych w dwuwymiarowym układzie planarnym stwarza możliwość bardziej elastycznej regulacji wiązki w przestrzeni trójwymiarowej przez system. W przypadku metod sprzężenia zwrotnego opartych na wzajemności kanałów problem kalibracji jest szczególnie ważny. A niektóre kanały lub elementy wielkoskalowych szyków antenowych mogą ulec awarii. Dlatego też wielkoskalowe systemy antenowe powinny mieć odpowiednie mechanizmy projektowania wykrywania i odporności na uszkodzenia, aby zapewnić niezawodność transmisji Massive MIMO. Kalibracja, monitorowanie i konstrukcja odporna na uszkodzenia szyku antenowego mogą czerpać naukę z niektórych dojrzałych technologii w systemie radarowym z aktywnym układem fazowym. W systemie pasm wysokich częstotliwości, ze względu na wpływ wielu niekorzystnych czynników, zasięg sygnału bezprzewodowego będzie trudniejszy. W takim przypadku można wykorzystać szyk antenowy na dużą skalę do utworzenia wiązki o wysokiej kierunkowości i wysokim zysku, aby przezwyciężyć wiele nieidealnych czynników w transmisji sygnału, aby zapewnić zasięg , odległość i jakość transmisji. Dlatego anteny na dużą skalę mają wielką wartość dla zastosowania i promocji technologii komunikacyjnych o wysokiej częstotliwości. W porównaniu z nauczaniem niskich częstotliwości, projektowanie wielkoskalowych schematów kształtowania wiązki anten w pasmach wysokich częstotliwości musi uwzględniać pewne szczególne czynniki. Ze względu na złożoność, koszty i zużycie energii, kształtowanie hybrydowe cyfrowo-al-analogowe lub nawet kształtowanie czysto analogowe stanie się głównym czynnikiem przy projektowaniu systemu. W tym przypadku, oprócz informacji o stanie kanału pasma podstawowego złożonej domeny cyfrowej, system musi również uwzględnić wyszukiwanie i śledzenie wiązek analogowych oraz mechanizm szybkiego odzyskiwania, gdy występuje blokowanie. Aby spełnić wymagania dotyczące zasięgu, system niszczenia o wysokiej częstotliwości jest bardziej odpowiedni do wdrożenia w scenariuszach, w których ścieżka LOS jest podstawą. Zastosowanie wiązek o dużym wzmocnieniu zmniejsza selektywność częstotliwości kanału, więc efekt poprawy wydajności pary prekodowania selektywnego częstotliwościowo/profilu wiązki został zmniejszony.

Massive MIMO dla 6G
Zasada Massive MIMO


Technologia wieloantenowa jest szeroko stosowana w prawie wszystkich popularnych systemach dostępu bezprzewodowego, ponieważ technologia ta ma ogromne zalety w zakresie poprawy szybkości szczytowej, wydajności wykorzystania widma systemu i niezawodności transmisji. Technologia MIMO odgrywa ważną rolę w poprawie szybkości szczytowej i niezawodności transmisji danych, poszerzeniu zasięgu, tłumieniu zakłóceń, zwiększeniu pojemności systemu i poprawie przepustowości systemu. Wzrost wydajności technologii MIMO wynika z wolności przestrzennej kanałów wieloantenowych. Dlatego rozszerzenie wymiarów MIMO zawsze było ważnym kierunkiem standaryzacji i uprzemysłowienia technologii. Przyszłe systemy komunikacji mobilnej staną przed coraz większymi wyzwaniami technicznymi wraz z szybkim wzrostem usług transmisji danych i liczbą użytkowników. Na tle tego rozwoju technologicznego powstała teoria wielkoskalowego kształtowania wiązki antenowej. Profesor Marzetta z Bell Labs zaproponował, aby w stacjach bazowych można było wykorzystać masywne szyki antenowe, tworząc system Massive MIMO, co znacznie zwiększy przepustowość systemu. Massive MIMO odnosi się do technologii MIMO, która wykorzystuje macierze antenowe na dużą skalę. Wielkoskalowe macierze są powszechnie umieszczane na szczycie wież, które mogą dostarczać wiązki skanujące zgodnie z wieloma UE. Zasięg anteny Massive MIMO obejmuje scenę zewnętrzną i wewnętrzną. Należy wspomnieć, że AAS na fali milimetrowej może być obiecującym kandydatem na macierz wielkoskalową w systemie 6G. A pomysł na projekt jest podobny do komunikacji z rozproszonym widmem. Nadajnik wykorzystuje sekwencje pseudolosowe, aby sygnał był samowystarczalny w komunikacji z widmem rozproszonym. Dlatego sygnał może być ukryty w szumie i zakłóceniach o bardzo niskim SINR i może być wykryty przez odbiornik. Jednak Massive MIMO wykorzystuje macierz o dużej skali, aby wybielić przestrzenny rozkład sygnału. Wraz ze wzrostem liczby anten stacji bazowych wektory współczynników kanału każdego użytkownika stopniowo stają się ortogonalne. A szum Gaussa i nieskorelowane zakłócenia międzykomórkowe są ignorowane. W związku z tym liczba użytkowników, którzy mogą być zakwaterowani w systemie, dramatycznie wzrosła, a moc przydzielana każdemu użytkownikowi może być dowolnie mała. Wyniki badań pokazują, że średnia przepustowość każdej komórki może wynosić nawet 1800 Mbit/s bez współpracy między komórkami i tylko proste MRC/MRT (Maximum Ratio Combining/Maximum Ratio Transmission) wykorzystywane do odbioru/nadawania w paśmie 20 MHz System TDD z multipleksowaniem szerokości pasma, jeśli stacja bazowa jest wyposażona w 400 anten, a każda komórka wykorzystuje MU-MIMO do obsługi 42 użytkowników. Powód, dla którego Massive MIMO uzyskuje ogromne korzyści, można również wyjaśnić z perspektywy morfologii wiązki. Gdy skala matrycy staje się nieskończona, wiązka utworzona po stronie stacji bazowej stanie się bardzo wąska, co będzie miało wyjątkowo wysoką selektywność kierunkową i wzmocnienie kształtowania. W tym przypadku interferencja wielu użytkowników między wieloma UE będzie nieskończenie mała. Ogromna technologia MIMO natychmiast stała się gorącym punktem w środowisku akademickim i przemysłowym po jej zaproponowaniu. Bell Labs, Lund University w Szwecji, Linkoping University w Szwecji i Rice University w Stanach Zjednoczonych poprowadziły międzynarodową społeczność akademicką do przeprowadzenia szeroko zakrojonych badań nad podstawowymi zagadnieniami teoretycznymi i technicznymi dotyczącymi przepustowości, transmisji, wykrywania i pozyskiwania CSI kanałów Massive MIMO od 2010 r. 2013. Społeczność akademicka aktywnie prowadziła również zasadnicze prace weryfikacyjne dla Massive MIMO na podstawie badań teoretycznych. Uniwersytet w Lund opublikował wyniki analiz na podstawie danych pomiarowych kanałów antenowych o dużej skali w 2011 roku. Stacja bazowa systemu testowego wykorzystuje dwuwymiarową macierz 128 anten, która składa się z 16 podwójnie spolaryzowanych okrągłych anten mikropaskowych w 4 rzędów, a użytkownik używa pojedynczej anteny. Rzeczywiste wyniki pomiarów kanału pokazują, że 98% optymalnej pojemności DPC (Dirty Paper Coding) można osiągnąć nawet przy użyciu wstępnego kodowania liniowego ZF lub MMSE, gdy całkowita liczba anten przekracza 10-krotność liczby użytkowników. Wyniki te potwierdzają, że kanał dla wielu użytkowników ma ortogonalność, gdy liczba anten osiągnie określoną liczbę. Co więcej, może zapewnić, że nadal można osiągnąć optymalną wydajność DPC, gdy używane jest wstępne kodowanie liniowe. Dlatego sprawdza się wykonalność Massive MIMO. Rice University, Bell Labs i Yale University wspólnie zbudowały główną platformę weryfikacyjną (Argos) opartą na macierzach 64-antenowych w 2012 roku, która może obsługiwać 15 terminali z jedną anteną dla MU-MIMO. Zgodnie ze zmierzonymi danymi odbieranego sygnału, interferencją wielu użytkowników i szumem po formowaniu wiązki, sumaryczna pojemność systemu może osiągnąć 85 bitów/(s. Hz). Może również osiągnąć 6,7-krotność wydajności widmowej systemu SISO, gdy całkowita moc wynosi 1/64. Historia rozwoju technologii MIMO prawdopodobnie podąża za MIMO jednego użytkownika, MIMO dla wielu użytkowników, MIMO z wieloma komórkami i wieloma użytkownikami, aż po masowe MIMO dla wielu użytkowników. Wielu badaczy wykorzystuje teorię macierzy losowych do teoretycznej analizy wzmocnienia różnorodności, wzmocnienia multipleksowania i wzmocnienia macierzy Massive MIMO dla pojedynczego użytkownika MIMO. Ludzie badali MIMO dla wielu użytkowników, aby w pełni wykorzystać korzyści wynikające z zastosowania Massive MIMO w stacjach bazowych, biorąc pod uwagę ograniczoną liczbę anten w terminalach użytkowników, w tym przepustowość MIMOBroadcast Channel (MIMO-BC) i uplink Media Access Pojemność sterowania (MIMO-MAC). Wyniki pokazują, że technologia MIMO dla wielu użytkowników może znacznie zwiększyć całkowitą przepustowość systemu, co stanowi teoretyczne podstawy dla transmisji MIMO dla wielu użytkowników. Jak rozszerzyć się na scenariusze aplikacji wielokomórkowych, jest problemem technologii MIMO w rzeczywistym komórkowym systemie komunikacji mobilnej. Dlatego też badano wielokomórkowe i wieloużytkownikowe MIMO, a zwłaszcza badano wydajność widmową systemu w obecności interferencji wielokomórkowej. Zaproponowana jest kooperacyjna technologia MIMO w celu rozwiązania problemu interferencji wielokomórkowej. Technologie te zostały zastosowane w systemach komunikacji mobilnej 4G. Jednak MU-MIMO i spółdzielcze MU-MIMO mają wąskie gardła w ulepszaniu wydajności widma i mocy w odniesieniu do typowej konfiguracji anteny i ustawień komórek w obecnym systemie 4G. Stopień wykorzystania widma MU-MIMO w istniejącym systemie 4G nie spełnił oczekiwań branży ograniczonych wąskim gardłem pozyskiwania informacji o kanałach i wymiany informacji między stacjami bazowymi. W szczególności, ponieważ stacja bazowa jest wyposażona w mniej anten, a rozdzielczość przestrzenna jest ograniczona, system nie może używać DPC z dostępną przepustowością ze względu na ograniczenia złożoności. Dlatego wzrost wydajności MU-MIMO w systemie 4G jest nadal ograniczony. Rozdzielczość przestrzenna kanałów Massive MIMO jest znacznie zwiększona, a jej nowe funkcje są warte poznania. Stacja bazowa potrzebuje natychmiastowej informacji o kanale, gdy istniejąca technologia MIMO dla wielu użytkowników jest bezpośrednio stosowana w scenariuszach Massive MIMO. I są dwa problemy, które są trudne do przezwyciężenia. Po pierwsze, istnieje wąskie gardło w akwizycji informacji o kanale, ponieważ narzut pilota rośnie liniowo wraz z liczbą użytkowników, prędkością poruszania się i częstotliwością nośną. Drugim jest to, że wspólna transmisja i odbiór wielu użytkowników obejmuje inwersję macierzy, co zwiększa złożoność kostki i wysoką złożoność implementacji. Dlatego konfiguracja Massive MIMO poważnie ogranicza informacje o kanale dostępne dla nadajnika-odbiornika, a analiza przepustowości kanału musi uwzględniać charakterystyki kanału i rzeczywiste ograniczenia.

Fundamentalna teoria Massive MIMO

Ze względu na znaczący wpływ środowiska kanałowego na wydajność Massive MIMO, przepustowość systemu Massive MIMO w idealnych warunkach kanałowych jest najpierw analizowana w oparciu o model teoretyczny. System komunikacji komórkowej oparty na Massive MIMO. W systemie znajdują się komórki, a każda komórka zawiera sprzęt użytkownika. anteny są rozmieszczone na każdej stacji bazowej w każdej komórce. Zakłada się, że współczynnik ponownego wykorzystania częstotliwości systemu wynosi 1, co oznacza, że wszystkie komórki pracują w tym samym paśmie częstotliwości. OFDM jest stosowany zarówno w łączu uplink, jak i downlink dla uproszczenia. Dlatego wydajność Massive MIMO jest omawiana z pojedynczą podnośną. Macierz kanału użytkownika K w komórce j i stacji bazowej w komórce jest zdefiniowana jako gi,j,k



gdzie λi,j,k to zanikanie na dużą skalę, a hi,j,k to zanikanie na małą skalę od użytkownika k do stacji bazowej w komórce I. Można stwierdzić, że gi,j,k to wektor M X 1 . Zanikanie na małą skalę przyjmuje się jako zanikanie Rayleigha. Zatem macierz kanałów od wszystkich k użytkowników w komórce j do wszystkich anten stacji bazowych w komórce wynosi:



Na podstawie powyższego modelu kanału Massive MIMO, sygnał łącza w górę odebrany w komórce l to



(6)

xl to sygnał przesyłany przez k użytkowników w komórce l , który jest zgodny z cyklosymetrycznym złożonym rozkładem gaussowskim, zl jest wektorem addytywnego białego szumu gaussowskiego. Pokazano, że równanie (6) jest modelem liniowym. Zgodnie z wykrywaniem połączenia wielu użytkowników z MMSE (minimalny błąd średniokwadratowy), oszacowanie przesyłanego sygnału wynosi



Przepustowość wielokrotnego dostępu do komórki l łącza uplink jest zdefiniowana jako:



Jeżeli G1,1,...,G1,L i odebrany sygnał yl są znane, niepewność można określić na podstawie błędu detekcji MMSE. Zatem H jest przepisywane jako



Dolna granica pojemności jest w konsekwencji



Zgodnie z twierdzeniem o dużych liczbach możemy uzyskać



Gdy liczba anten stacji bazowych dąży do nieskończoności, ograniczenie jest uproszczone, ponieważ



W oparciu o tożsamość matrycy pojemność komórki l bez ingerencji międzykomórkowej wynosi



Zgodnie z powyższą analizą, jeśli odbiornik zna idealną informację o kanale, znikają zakłócenia wielu użytkowników i zakłócenia wielu komórek. Pojemność systemu wzrasta logarytmicznie wraz z liczbą anten i dąży do nieskończoności. Ten sam wniosek można było wyciągnąć z MRC (Maximum Ratio Combination). Czynniki, które wpływają na wydajność wielkoskalowego systemu antenowego w praktycznym zastosowaniu, są badane i analizowane. Po pierwsze, konieczna jest ocena wydajności wielkoskalowych systemów antenowych w złożonych kanałach bezprzewodowych. Bezpośrednia ścieżka w kanale Rice Fading i drastyczna zmiana stanu kanału spowodowana ruchem terminala mobilnego będą miały negatywny wpływ na działanie wielkoskalowego systemu antenowego. Po drugie, wpływ nieidealnych czynników sprzętu sprzętowego na wydajność systemu powinien być uwzględniony w inżynierskim zastosowaniu wielkoskalowego systemu antenowego. Niezbędne jest przeanalizowanie zależności pomiędzy niedoskonałą wzajemnością a pojemnością w systemie TDD (Time Division Duplex). Na koniec oszacowana zostanie pojemność na poziomie systemu wielkoskalowego antenowego systemu komórkowego oraz związek między parametrami systemu a jednostkową pojemnością sieci komórkowej. Ta sekcja analizuje pojemność systemu Massive MIMO w kanale Rice Fading. W rzeczywistym systemie komunikacyjnym odstępy między elementami tablicy są niewielkie, co wynika z ograniczonej ilości sprzętu stacji bazowej. Dlatego istnieje wysoka korelacja między antenami po stronie stacji bazowej. Z drugiej strony, biorąc pod uwagę, że może istnieć ścieżka LOS (Line of Sight) między użytkownikami a stacjami bazowymi, model kanału Rice Fading jest zwykle używany do modelowania kanału. Łącze w górę jest traktowane jako przykład do analizy efektywności widmowej schematu estymacji kanału. Biorąc pod uwagę model systemu gdzie, komórka jest ustawiona jako 1 komórka obserwacyjna. Równanie (6) można przepisać jako:



Ponieważ odległość do docelowej stacji bazowej jest stosunkowo bliska, modelowanie szybkiego zanikania między terminalem użytkownika a usługową stacją bazową składa się z dwóch części dla terminala użytkownika komórki docelowej: deterministycznego składnika generowanego przez propagację LOS i losowego składnika generowanego przez Dystrybucję Rayleigha. W międzyczasie składnik ścieżki bezpośredniej może zostać zignorowany z powodu rozpraszania, dyfrakcji i dyfrakcji wielu przeszkód dla użytkownika, który ingeruje w komórkę. Szybko zanikającą część kanału można zamodelować jako:



gdzie jest składową LOS a jest składową losową wygenerowaną przez rozkład Rayleigha. Ω jest macierzą diagonalną, której elementy diagonalne Ωk,k są współczynnikiem Rice′a użytkownika komórki docelowej k. Biorąc pod uwagę korelację anteny po stronie stacji bazowej i zakładając, że wszyscy użytkownicy mają taką samą korelację z docelową stacją bazową, całkowita macierz kanału wynosi:



Jeżeli dokładna składowa określająca Los i macierz współczynnika ryżu ? są znane przez terminal użytkownika i docelową stację bazową, należy wziąć pod uwagę tylko oszacowanie kanału zanikania Rayleigha. Model macierzy kanału z estymacją kanału jest zdefiniowany za pomocą MMSE.



Zgodnie z ortogonalnością estymacji MMSE macierz kowariancji błędu estymacji wynosi:



Wyniki estymacji kanału pokazują, że obserwowany sygnał to:



W oparciu o schemat detekcji liniowej i filtr MRC, SINR (stosunek sygnału do szumu interferencyjnego) użytkownika k można wyrazić jako:



Gdy liczba anten stacji bazowych dąży do nieskończoności, odebrany SINR użytkownika k w komórce docelowej zbliża się do:



(24)

Można stwierdzić, że gdy liczba anten stacji bazowych dąży do nieskończoności, nieistotne zakłócenia i szumy są eliminowane. Komponenty zakłócające pochodzą tylko od innych użytkowników komórek korzystających z tego samego pilota. Moc sygnału użytkownika docelowego obejmuje komponent Los i komponent zanikania Rayleigha. Na podstawie analizy wpływu składowej LOS na odebrany SINR nadawane i odbierane sygnały są modelowane jako:



Równanie pokazuje, że rośnie wraz z. Oznacza to, że składnik ścieżki bezpośredniej docelowego kanału użytkownika poprawia SINR użytkownika. Z równania (24) wynika, że wielkość składowej LOS w mocy sygnału użytkownika docelowego jest związana z korelacją anteny po stronie stacji bazowej. Ponadto wielkość zanikającej składowej Rayleigha jest niezależna od korelacji anteny po stronie stacji bazowej. Gdy współczynnik ryżu wszystkich użytkowników jest taki sam i dąży do nieskończoności, SINR użytkownika jest określony równaniem :

(26)

Równanie (26) pokazuje, że moc sygnału użytkownika docelowego wzrasta wraz z kwadratem liczby anten po stronie stacji bazowej, a moc zakłóceń i szumów innych użytkowników komórek rośnie liniowo wraz z liczbą anten po stronie stacji bazowej. Gdy liczba anten dąży do nieskończoności, hałas ,zakłócenia, zakłócenia innych użytkowników komórki i zakłócenia innych użytkowników w komórce docelowej są stopniowo eliminowane. Jeżeli składowe LOS wszystkich użytkowników są dokładnie oszacowane, docelowa szybkość użytkowania wzrasta liniowo wraz z liczbą anten stacji bazowych. Jak poprawić wysoką szybkość transmisji danych w warunkach dużej mobilności, stało się jednym z trudnych problemów w komunikacji mobilnej wraz z rosnącym zapotrzebowaniem na szybkość transmisji danych w scenariuszach kolei dużych prędkości i autostrad. W celu rozwiązania problemu wąskiego gardła szybkości transmisji danych w szybkiej mobilnej scenie, głównym rozwiązaniem jest antena na dużą skalę. W scenariuszu z dużą szybkością, ze względu na ruch względny między terminalem mobilnym a środowiskiem rozpraszania w kanale bezprzewodowym, sygnały docierające do końca odbiorczego w różnym czasie doświadczają różnych stopni zanikania, to znaczy zanikania selektywnego względem czasu kanał, co pogarsza zmienność w czasie kanału. W związku z tym występują błędy w estymacji kanału uzyskanej od strony stacji bazowej, które wpłyną na wydajność wielkoskalowego systemu antenowego. Ta sekcja analizuje Massive MIMO w zmiennym w czasie środowisku kanałowym. Zgodnie z równoważnym modelem kanału, zamknięte wyrażenia dolnej granicy łącza w górę i szybkości są uzyskiwane, gdy liniowy odbiornik MMSE jest używany w wielokomórkowym wieloużytkownikowym systemie MIMO. Asymptotyczna ekspresja dolnej granicy jest podana, gdy liczba anten stacji bazowych dąży do nieskończoności. Wyrażenie asymptotyczne jest używane do analizy korelacji opóźnienia kanału. Wyrażenie ograniczające szybkości sumarycznej łącza w górę jest podane, gdy stosunek liczby anten stacji bazowej do liczby użytkowników dąży do nieskończoności. W oparciu o scenę komunikacyjną , uplink jest modelowany za pomocą zmiennych w czasie charakterystyk kanału



Zgodnie z równoważnym modelem sygnału, łączną szybkość można wyrazić jako



Jeśli liczba anten dąży do nieskończoności, to zostanie znalezione



Gdy liczba anten ma tendencję do nieskończoności w szybkiej ruchomej scenie, wpływ szumu Gaussa, błędu oszacowania związanego z opóźnieniem kanału i szybkiego zanikania są całkowicie eliminowane, a także całkowicie usuwane są zakłócenia między użytkownikami w komórce docelowej. Jednak ze względu na zanieczyszczenie pilota nadal istnieje interferencja użytkowników korzystających z tego samego pilota w innych komórkach zakłócających. Moc sygnału i moc sygnału zakłóceń komórki docelowej są proporcjonalne do kwadratu współczynnika opóźnienia kanału. Jeżeli prędkość mobilna użytkownika w docelowej komórce planowania jest niższa niż prędkość użytkownika w zakłócającej komórce, sumaryczna szybkość połączenia w górę komórki docelowej wzrośnie zamiast maleć w porównaniu z prędkością wszystkich użytkowników. Jeżeli prędkość ruchu komórki docelowej jest wyższa niż prędkość komórki zakłócającej, sumaryczna szybkość komórki docelowej musi zostać zmniejszona. Jeśli użytkownicy wszystkich komórek mają poruszać się z tą samą prędkością, system i szybkość wszystkich komórek nie zostaną zmniejszone z powodu ruchu użytkownika. Wnioski te mają istotną wartość dla projektowania architektury systemów komunikacji mobilnej. Powodem tych zjawisk jest to, że opóźnienie kanału nie tylko wpływa na użyteczną moc sygnału, ale także wpływa na zakłócenia użytkownika sąsiedniej komórki spowodowane zanieczyszczeniem pilota. W wielkoskalowych systemach antenowych, wraz ze wzrostem liczby anten stacji bazowych i użytkowników separacji przestrzennej, akwizycja informacji o kanale staje się wąskim gardłem implementacji systemu. Po przyjęciu trybu TDD stacja bazowa może wykorzystać informacje oszacowania kanału łącza w górę do zaprojektowania wstępnego kodowania łącza w dół w spójnym czasie, zmniejszając w ten sposób narzut sygnału pilota łącza w dół i sprzężenia zwrotnego CSI. Jednak cały kanał dla rzeczywistego systemu obejmuje nie tylko część bezprzewodową w powietrzu, ale także obwód RF transceivera. Chociaż kanał powietrzny spełnia wzajemność między łączem w górę i łączem w dół, ogólny kanał łącza w górę i łącza w dół nie może zagwarantować dokładności wzajemności bez precyzyjnej kalibracji obwodu. Oznacza to, że należy dokładnie rozważyć niespójność obwodu RF transceivera. W tej sekcji wpływ nieidealnej wzajemności na wydajność masywnego systemu MIMO jest badany poprzez analizę teoretyczną. Biorąc pod uwagę wzmocnienie obwodu RF na obu końcach całego kanału komunikacyjnego, macierz kanału łącza w górę i łącza w dół wynosi



gdzie H jest macierzą kanału downlink, której elementem jest wzmocnienie kanału anteny m i użytkownika k. Elementy H są cyklicznymi, symetrycznymi, złożonymi zmiennymi losowymi Gaussa z niezależną i identycznie rozłożoną zerową średnią jednostkową wariancją. CBS,t i CBS,r są macierzą wzmocnienia RF odpowiadającą odpowiednio nadawaniom i odbiorom stacji bazowej. CUE,t i CUE,r są macierzą wzmocnienia RF odpowiadające odpowiednio transmisji i odbieraniu sprzętu użytkownika. Zgodnie z modelem kanału, ze względu na niedopasowanie wzmocnienia RF między stacją bazową a użytkownikiem, wzajemność między macierzami kanału łącza w górę i łącza w dół nie jest już możliwa do utrzymania, to znaczy GDL ≠ GUL. Zakłada się, że dla uproszczenia strona stacji bazowej może uzyskać idealną informację o stanie kanału łącza zwrotnego. Jeśli wstępne kodowanie ZF jest używane do transmisji sygnału, sygnał w łączu w dół odbierany przez terminal jest



gdzie βmis jest współczynnikiem normalizującym moc transmisji i wzmocnienie RF w macierzy kanału łącza w dół. Zgodnie z macierzową reprezentacją kanałów uplink i downlink, odbierany sygnał to:



(32)

Równanie (32) pokazuje, że macierz W nie jest macierzą jednostkową ze względu na niedopasowanie wzmocnienia RF po stronie stacji bazowej. Dlatego niedopasowanie wzmocnienia obwodu RF między nadajnikiem a odbiornikiem zniszczy wzajemność kanału komunikacyjnego, co doprowadzi do zakłóceń między użytkownikami. Z drugiej strony, stosując podobne metody, można stwierdzić, że niedopasowanie wzmocnienia terminala RF ma niewielki wpływ na wydajność systemu, a niedopasowanie fazy nie wpływa na przepustowość systemu. Wydajność widma na poziomie systemu jest ważnym wskaźnikiem dla przemysłu do oceny systemu komunikacji mobilnej sieci komórkowej, który jest zwykle uzyskiwany przez bardzo złożoną i czasochłonną symulację na poziomie systemu. W ostatnich latach, aby uzyskać teoretycznie związek między wydajnością widmową na poziomie systemu a parametrami systemu, przeprowadzono wiele badań. Zasadniczo istnieją dwie metody badania wydajności widmowej na poziomie systemu. Pierwsza metoda oparta jest na losowym modelu geometrycznym. Zgodnie z SINR odbiornika wydajność widmową uzyskuje się ze wzoru Shannona, a następnie wydajność widmową systemu uzyskuje się przy założeniu, że rozmieszczenie stacji bazowej jest zgodne z rozkładem Poissona. Zamknięta ekspresja wydajności widmowej na poziomie systemu uzyskana przez rozkład Poissona jest jednak bardzo złożona i trudno jest bezpośrednio określić związek między wydajnością widmową systemu a parametrami systemu. Ponadto analiza wydajności widmowej na poziomie systemu jest rzadka ze względu na złożoność wyrażania SINR, biorąc pod uwagę nieidealne informacje o kanale. Druga metoda analizy wydajności widmowej na poziomie systemu zakłada, że lokalizacja stacji bazowej jest stała i znana, a użytkownicy są równomiernie rozmieszczeni w komórce. Wydajność widma na poziomie systemu jest uzyskiwana w oparciu o oczekiwaną lokalizację użytkownika. Model kanału jest uproszczony przy założeniu:



gdzie jest odległością od użytkownika w komórce do stacji bazowej w komórce 1 i jest wskaźnikiem utraty ścieżki. Zatem pojemność systemu wynosi



jest mocą transmitowaną na symbol danych, a całkowita moc pilota każdego użytkownika wynosi. Stosunek sygnału odniesienia do szumu jest zdefiniowany w celu oceny wydajności na poziomie systemu. Ponieważ w systemie Massive MIMO na tej samej częstotliwości jest jednocześnie obsługiwanych wielu użytkowników, pojemność systemu jest w przybliżeniu zapisana jako:



Wydajność widmowa na jednostkę powierzchni jest zdefiniowana jako:



gdzie jest strata pilota, to liczba symboli transmitowanych w spójnym czasie. Dlatego wydajność widmowa na jednostkę powierzchni wynosi:



(37)

Można stwierdzić, że wydajność widmowa anteny wielkoskalowej nie wzrasta wraz ze wzrostem K, biorąc pod uwagę narzut pilota. narzut pilota rośnie liniowo wraz ze wzrostem K. W związku z tym będzie optymalna liczba użytkowników obsługiwanych przez system w zadanym spójnym czasie. Zgodnie z równaniem (37) optymalną liczbę użytkowników można uzyskać poprzez wyszukiwanie. W szczególności, w regionie o niskim SNR, równanie (37) można dalej implikować jako:



Optymalną liczbę użytkowników można uzyskać, rozwiązując równanie sześcienne (39) za pomocą



(39)

Ponadto stosunek mocy danych pilota można również analizować za pomocą równania (37),



Zgodnie z równaniem (37) analizę parametrów na poziomie systemu można przekształcić w optymalizacyjne problemy matematyczne przy zadanej liczbie użytkowników, liczbie anten stacji bazowych i spójnym czasie



Powyższa funkcja celu w równaniu (41) jest funkcją wypukłą. Dlatego warunek KKT (Karush Kuhn Tucker) jest warunkiem koniecznym i wystarczającym dla problemu optymalizacji. Zgodnie z metodą mnożnika Lagrange′a można uzyskać optymalną moc pilota i moc danych, a następnie można uzyskać optymalny stosunek mocy danych pilota.

Komunikacja bezprzewodowa wspomagana RIS

W związku z zapotrzebowaniem systemu komunikacji 6G na szybszą i bardziej niezawodną technologię transmisji danych, RIS został szeroko i dogłębnie zbadany przez środowisko akademickie i przemysł. RIS jest generalnie płaską powierzchnią zawierającą wiele pasywnych jednostek odbijających, z których każda może niezależnie kontrolować amplitudę i/lub fazę pola rozpraszania. Poprzez gęste wdrażanie RIS w komunikacji i inteligentnie regulując rozproszone pole, kanały propagacji między nadajnikami i odbiornikami mogą być elastycznie rekonfigurowane w celu osiągnięcia pożądanych realizacji, co zapewnia nowatorskie podejście do rozwiązywania problemów związanych z zanikaniem kanału i zakłóceniami. Ponieważ zmiana pola rozproszonego jest obecnie uważana za przesunięcie fazowe, RIS nie zużywa mocy nadawczej. Sprzęt RIS jest wdrażany między stacją bazową a sprzętem użytkownika. Scenariusze rozmieszczenia RIS są generalnie płaskie, takie jak ściany, fasady budynków i sufity. Propagacja sygnału bezprzewodowego LoS jest zakłócana przez drzewa, roślinność, budynki i inne przeszkody. Wyposażenie użytkownika zawiera telefon komórkowy, bezzałogowy statek powietrzny (UAV), inteligentny pojazd lub dowolny inny terminal. Wydajność systemu łączności jest skutecznie poprawiana przez modulację sygnału transmisji przez RIS. RIS jest podobny do masowej technologii MIMO, takiej jak zastosowanie wielkoskalowego układu antenowego w celu poprawy wydajności widma i efektywności energetycznej. Jednak RIS poprawiają środowisko propagacji systemu komunikacyjnego. Udowodniono, że przepustowość, którą można zwiększyć na metr kwadratowy powierzchni, ma zależność liniową od średniej przesyłanej mocy, a nie logarytmiczną w przypadku Massive-MIMO. Co więcej, w porównaniu z najnowszymi technologiami, takimi jak komunikacja wsteczna, komunikacja na falach milimetrowych i zagęszczanie sieci, RIS może kontrolować środowisko mobilne i zasadniczo zużywać znacznie mniej energii. Jako nowo rozwijająca się technologia komunikacyjna, RIS otrzymały również inne nazwy w literaturze, takie jak duża inteligentna powierzchnia (LIS), duża inteligentna metapowierzchnia (LIM), inteligentna powierzchnia odbijająca (IRS), powierzchnia definiowana programowo (SDS) i pasywna inteligentna powierzchnia (PIS). Dla zachowania spójności w dalszej części artykułu będziemy używać nazwy RIS zamiast innych terminów wymienionych powyżej. Stwierdzono, że RIS posiada wiele praktycznych zalet we wdrażaniu w porównaniu z Massive MIMO. Jednostki odbijające RIS są pasywne, które odbijają tylko padającą falę elektromagnetyczną, nie wymagając żadnych łańcuchów o częstotliwości radiowej (RF). Co więcej, połączenie RIS i fullduplex (FD) pozwoliłoby uniknąć jakiegokolwiek wzmocnienia szumów anteny i interferencji własnej, co zapewnia atrakcyjne korzyści w porównaniu z tradycyjnym aktywnym systemem komunikacji. Co więcej, ze względu na kompaktowy rozmiar i konformalną strukturę, RIS można łatwo zainstalować/usunąć z obiektów docelowych w celu wdrożenia/wymiany. Wreszcie, IRS działa jako urządzenie pomocnicze w sieciach komórkowych i może być z nimi integrowany w sposób przejrzysty, zapewniając dużą elastyczność i kompatybilność z istniejącymi systemami mobilnymi. Biorąc pod uwagę powyższe obiecujące zalety, RIS może być masowo wdrażany w sieciach bezprzewodowych 6G, aby znacznie poprawić wydajność widmową i energetyczną opłacalnie. RIS jest wdrażany w celu zapewnienia łącza LoS między użytkownikami znajdującymi się w martwej strefie usług, a obsługującą ich stacją bazową, która omija przeszkodę między nimi. Ta aplikacja jest przydatna do rozszerzenia zasięgu komórki w komunikacji w paśmie wysokich częstotliwości (takiej jak komunikacja mmWave i THz), na którą może mieć wpływ blokada. Poza tym wdrożenie RIS na krawędzi komórki nie tylko poprawia pożądaną moc sygnału na krawędzi komórki, ale także ułatwia tłumienie sąsiednich zakłóceń wspólnego kanału. Co więcej, RIS może być wykorzystywany do kompensacji utraty mocy na dużych odległościach z odbijaniem wiązki w celu zapewnienia wydajności równoczesnych informacji bezprzewodowych. RIS można również zainstalować na fasadzie budynku, latarni, tablicy reklamowej, a nawet na powierzchni szybko poruszających się pojazdów w środowisku zewnętrznym, aby wspierać URLLC w celu zdalnego sterowania i inteligentnego transportu, skutecznie kompensując efekty Dopplera. RIS to przełomowa technologia dla przyszłego inteligentnego środowiska komunikacyjnego, która może potencjalnie przynieść korzyści szerokiej gamie branż wertykalnych w 6G, takich jak transport, produkcja, inteligentne miasta itp. W ten sposób RIS uznano za jedną obiecującą technologię dla ekosystemu 6G. Ponadto uruchomiono kilka projektów pilotażowych w celu przyspieszenia badań w nowej dziedzinie komunikacji bezprzewodowej. Ostatnie prace badawcze nad RIS są klasyfikowane w następujący sposób. Analizy przepustowości, optymalizacje mocy/spektralne, estymacja kanałów, projektowanie oparte na głębokim uczeniu oraz analiza niezawodności zostały szczegółowo omówione.

A. Zwiększenie przepustowości : Biorąc pod uwagę całą powierzchnię RIS jako szyk anten odbijających, odbierany sygnał może być dobrze reprezentowany przez kanał interferencji międzysymbolowej o funkcji sinus. Wydajność na metr kwadratowy powierzchni zbiega się do, gdy długość fali zbliża się do zera, gdzie jest mocą transmisji na jednostkę objętości i oznacza gęstość widmową mocy przestrzennej addytywnego białego szumu Gaussa. Chociaż pojemność jest ograniczona przez aperturę powierzchni RIS, podział powierzchni odbijającej na układ składający się z wielu jednostek może złagodzić degradację pojemności. Stwierdzono, że wynik wydajności asymptotycznej jest zgodny z dokładną wzajemną informacją w miarę wzrostu liczby urządzeń. Biorąc pod uwagę dyskretne przesunięcia fazowe, ważona suma szybkości łącza w dół może być maksymalizowana przez optymalizację aktywnego formowania wiązki, w której każda waga reprezentuje priorytet użytkownika.

B. Optymalizacje mocy: Gdy stacja bazowa wykorzystuje dobrze zaprojektowaną macierz wstępnego kodowania z wymuszeniem zera, aby osiągnąć doskonałe tłumienie zakłóceń, wydajność energetyczną łączy w dół można zmaksymalizować poprzez optymalizację macierzy faz RIS i alokacji mocy po stronie stacji bazowej. Co więcej, moc łącza w dół można również zminimalizować w przypadku sieci wielodostępowej wspomaganej przez RIS. Wydajność widmowa jest najwyraźniej wspierana przez optymalizację kształtowania wiązki powierzchni RIS.

C. Oszacowanie kanału: W oparciu o minimalny błąd średniokwadratowy (MMSE), całkowity czas oszacowania kanału jest podzielony na sekwencję podfaz. Łącza w dół są estymowane w stacji bazowej za pomocą sygnałów sterujących, a informacje o kanale są zgłaszane przez stację bazową do kontrolera RIS. Po pierwsze, wszystkie jednostki RIS są WYŁĄCZONE, a stacja bazowa szacuje kanały bezpośrednie dla wszystkich użytkowników. Następnie każda jednostka RIS zostaje WŁĄCZONA, podczas gdy wszystkie inne jednostki RIS są WYŁĄCZONE, aby umożliwić oszacowanie przez stację bazową. Na koniec, wyniki estymacji wszystkich podfaz są zbierane razem w celu uzyskania estymacji kanału.

D. Konstrukcja oparta na głębokim uczeniu: Kompresyjne uczenie głębokie można wykorzystać do konfiguracji komunikacji bezprzewodowej wspomaganej przez RIS. Traktując propagację bezprzewodową jako głęboką sieć neuronową, sieć bezprzewodowa uczy się podstaw propagacji RIS i konfiguruje je do optymalnych ustawień. Właściwości kanału bezprzewodowego są wyuczone za pomocą głębokiej sieci neuronowej. Co więcej, głębokie uczenie jest również wykorzystywane do kierowania RIS do uczenia się optymalnej interakcji z sygnałami o częstości występowania.

E. Bezpieczna komunikacja: RIS mogą być również wykorzystywane do zabezpieczania fizycznej warstwy komunikacji bezprzewodowej. W przyszłym systemie 6G, prosty model kanału podsłuchu może zostać rozszerzony o kanał podsłuchu rozgłoszeniowego, kanał podsłuchu złożonego, kanał podsłuchu Gaussa i kanał podsłuchu MIMO. W celu zabezpieczenia systemu komunikacji można zastosować RIS w celu zwiększenia szybkości transmisji danych u uprawnionego użytkownika i zmniejszenia szybkości u podsłuchującego. Biorąc pod uwagę przypadek wielu uprawnionych użytkowników i podsłuchujących, wspomagany RIS system rozgłoszeniowy łącza downlink składa się z wieloantenowej stacji bazowej, wielu uprawnionych użytkowników, z których każdy ma jedną antenę, oraz wielu podsłuchujących. Minimalną szybkość tajnych danych wśród wszystkich uprawnionych użytkowników można zmaksymalizować poprzez znalezienie optymalnego kształtowania wiązki nadawczej i przesunięć fazowych RIS z naprzemienną optymalizacją.

F. Pozycjonowanie terminali i inne nowatorskie zastosowania: W oparciu o algorytm kształtowania wiązki, technologia pozycjonowania terminali dla komunikacji bezprzewodowej może zostać ulepszona dzięki RIS. Trzy kartezjańskie wymiary terminala są uzyskiwane przez dolne granice Cram′era-Rao (CRLB). Z wyjątkiem przypadku terminala umieszczonego prostopadle do środka RIS, CRLB degraduje się kwadratowo w stosunku do powierzchni RIS. Ponadto zastosowano RIS do wspomagania obliczeń bezprzewodowych (AirComp), gdzie stacja bazowa jest rozpoznawana jako węzeł obliczeniowy. Kluczową procedurą jest problem optymalizacji znalezienia przesunięć fazowych RIS i wektorów dekodowania w celu zminimalizowania zniekształceń po dekodowaniu sygnału. Zaproponowano algorytm przemiennej różnicy wypukłości z techniką minimalizacji majoryzacji dla niewypukłości problemu.

ANTENA MASSIVE MIMO DO KOMUNIKACJI MOBILNEJ

W przypadku sprzętu stacji bazowej 6G z masywnymi antenami MIMO, ogólna architektura może przyjąć architekturę rozproszoną powszechnie stosowaną w tradycyjnej komercyjnej stacji bazowej makro, która składa się z rozwiniętej jednostki pasma podstawowego (eBBU) i jednostki aktywnej anteny (AAU), która jest połączenie stacji bazowych, które można elastycznie dystrybuować i instalować. AAU jest połączona z rozszerzonym wyposażeniem jednostki pasma podstawowego poprzez interfejs Common Public Radio/rozwinięty interfejs Common Public Radio, a eBBU jest połączony z siecią rdzeniową przez interfejs NG. W porównaniu z tradycyjną technologią MIMO, technologia Massive MIMO przyjmuje wielkoskalową szyk antenowy w stacji bazowej (liczba elementów szyku sięga kilkuset), w ten sposób skuteczniej oddzielając kanały wielościeżkowe, dalej koncentrując wypromieniowaną energię i poprawiając szybkość ponownego wykorzystania widma i stosunek sygnału do szumu. Aby wykryć i oddzielić kanały wielościeżkowe, każdy element szyku w szyku antenowym MIMO ma niezależne łącze częstotliwości radiowej, które obejmuje elementy promieniujące anteny, wzmacniacze częstotliwości radiowej, konwertery up-down, konwertery cyfrowo-analogowe i tak dalej. W porównaniu z tradycyjną macierzą antenową MIMO, złożoność, koszt i zużycie energii systemu gwałtownie wzrosną. Poniższe podrozdziały przedstawiają projekty i syntezę elementów i macierzy Massive MIMO Antenna, sieci zasilającej i RF Front-end Design oraz teorię doboru anteny.

Konstrukcja i synteza macierzy anteny Massive MIMO

Projektowanie macierzy jest kluczowym ogniwem w realizacji masowego sprzętu antenowego MIMO. Masywne elementy antenowe MIMO są rozmieszczone zgodnie z określoną strukturą fizyczną, aby utworzyć szyk antenowy, aby zrealizować pożądaną funkcję kształtowania. Konieczna jest analiza ograniczeń i metod projektowania struktury tablicowej pod kątem wykonalności i wydajności. W tej części omówione zostanie projektowanie strukturalne wielkoskalowych szyków antenowych. Od kilku kluczowych czynników, takich jak oddzielenie anten, kształtowanie wiązki, sieć zasilająca i projektowanie front-end RF itp., dogłębna analiza powiązanych problemów związanych z projektowaniem macierzy i powszechnie stosowany schemat projektowania strukturalnego.

Technologia odsprzęgania anteny Massive MIMO

W przypadku szyku antenowego złożonego z wielu elementów liniowych na wiele anten w przestrzeni będzie oddziaływać prąd płynący z innych anten i otaczającego pola. Umieszczone blisko siebie elementy anteny mają efekt skręcania. Ponieważ efekt wzajemnego sprzężenia między elementami antenowymi wpływa na efekt kształtowania wiązki antenowej, należy zachować pewną odległość między elementami szyku antenowego o dużej skali. Miniaturyzacja nowoczesnych urządzeń mobilnych stała się popularnym trendem, ale technologia MIMO wymaga, aby wiele anten strony nadawczej i odbiorczej (strony odbiorczej) było względnie niezależnych. Ponieważ wiele anten podlega wzajemnemu sprzężeniu, niezwykle trudno jest uczynić je niezależnymi od siebie. Istnienie efektów wzajemnego sprzężenia powoduje trudności w miniaturyzacji szyków antenowych na dużą skalę. W związku z tym wymagane jest zmniejszenie rozmiaru systemu MIMO pod założeniem zmniejszenia efektu sprzężenia między antenami w procesie projektowania anten na dużą skalę. W inżynierii, współczynnik izolacji lub sprzężenia jest zwykle używany do wyrażenia sprzężenia między antenami. Aby zmniejszyć wpływ wzajemnego sprzężenia między antenami na wydajność anteny, wspólne metody odsprzęgania między wieloma antenami obejmują wadliwe uziemienie, pasożytnicze jednostki rezonansowe, linie neutralizacji, sieci odsprzęgające i nowe struktury materiałów elektromagnetycznych. Wadliwie popraw metodę izolacji: Uszkodzona struktura uziemienia (DGS) w celu utworzenia równoległego obwodu rezonansowego LC w celu uzyskania charakterystyki tłumienia pasma. Zmieniając rozkład prądu na metalowej podłodze, transmisja fal powierzchniowych anteny jest tłumiona, a wzajemne sprzężenie między antenami jest zmniejszone. Pasożytniczy element promieniujący to sposób na poprawę izolacji. Pasożytniczy element rezonansowy jest obciążony, aby pochłonąć falę promieniowania bliskiego pola każdej anteny w szyku, poprawiając w ten sposób izolację między antenami. Technologia linii neutralizacji i technologia sieci odsprzęgających opierają się na idei kompensacji fazowej w celu zmniejszenia sprzężenia. Gdy dwie anteny są umieszczone w ograniczonej przestrzeni, kompensacja sprzężenia przeciwnej fazy jest wprowadzana do sprzężenia między antenami, w ten sposób realizowana jest izolacja między antenami. Technologia linii neutralizacyjnej łączy dwie anteny poprzez linię neutralizacyjną. Dzięki rozsądnej konstrukcji i optymalizacji prąd sprzęgający na linii neutralizacji wytwarza przeciwną fazę z pierwotnym prądem, aby osiągnąć neutralizację. Punkt dostępowy i długość linii neutralizacyjnej w antenie odgrywają kluczową rolę w kompensacji fazy. Sieć odsprzęgająca anuluje również fazę sprzężenia dwóch anten w oparciu o ideę kompensacji fazy, aby uzyskać efekt izolacji. Do poprawy izolacji można zastosować strukturę elektromagnetyczną szczeliny pasmowej (EBG). Klasyczne EBG to konstrukcja w kształcie grzybka, która jest okresowo układana przez szereg arkuszy metalowych nadrukowanych po jednej stronie podłoża dielektrycznego, a te arkusze metalowe są połączone z metalową podłogą po drugiej stronie podłoża dielektrycznego poprzez krótkie otwory do obwodów. Struktura elektromagnetycznej przerwy wzbronionej może tłumić falę powierzchniową. Struktura EBG jest ładowana między dwiema antenami, aby stłumić falę powierzchniową, aby ograniczyć sprzężenie między antenami, aby poprawić stopień separacji odstępów między antenami.

Technologia kształtowania wiązki wielkoskalowej anteny

Technologia kształtowania wiązki wywodzi się z teorii fal elektromagnetycznych, która początkowo wywodzi się z zastosowania radarów wojskowych, a obecnie jest stopniowo przyswajana w technologii komunikacyjnej [9]. System komunikacji mobilnej 6G wykorzystuje technologię kształtowania wiązki do realizacji szybkiej transmisji danych, a jego model systemu pokazano na rysunku.



Kształtowanie wiązki to podstawa pracy anten na dużą skalę. Wydajność formowania wiązki jest ściśle powiązana z kompleksowym projektem wzoru matrycy. Synteza wzorców jest jednym z kluczowych zagadnień w projektowaniu anten, zarówno w przypadku tradycyjnej anteny bazowej komunikacji mobilnej, jak i nowej generacji anteny wielkoskalowej. Synteza wzorca macierzowego polega na syntezie liczby elementów macierzowych, odstępach między macierzami i optymalizacji zestawu wag wzbudzenia zgodnie z przestrzenną charakterystyką promieniowania (kształt wzorca, szerokość głównego listka, poziom listka bocznego, współczynnik kierunkowości) potrzebnych do formowania wiązki. Waga powinna zawierać amplitudę i fazę każdego elementu w tablicy. Dlatego w przypadku danej liczby elementów szyku istnieją trzy metody regulacji charakterystyki promieniowania anteny szyku: dostosowanie amplitudy wzbudzenia elementów szyku, dostosowanie fazy wzbudzenia elementów szyku i dostosowanie rozkładu przestrzennego elementów tablicy. Te trzy mogą być używane samodzielnie lub w tym samym czasie. Zgodnie z podanymi warunkami i metodami syntezy, problemy syntezy wzorców anten macierzowych można z grubsza podzielić na następujące cztery kategorie.

Pierwszy rodzaj problemu syntezy opiera się na zadanym wcześniej wskaźniku szerokości płatka głównego i poziomu płatka bocznego wzoru (nie ma ścisłych wymagań dotyczących innych szczegółów drugiego wzoru). Aby określić cztery czynniki wzoru tablicy (liczbę elementów tablicy, odstępy między tablicami, amplitudę wzbudzenia elementów tablicy i niektóre fazy wzbudzenia elementów tablicy. Najbardziej znanymi metodami tego rodzaju syntezy są Czebyszew synteza, synteza Taylora i tak dalej.
Drugi rodzaj problemu syntezy to synteza polegająca na określeniu kształtu pożądanego wzoru. Ten rodzaj metody jest problemem aproksymacji funkcji. Powszechnie stosowanymi metodami są metoda interpolacji, metoda syntezy Woodwarda-Lawsona, metoda obliczeń optymalizacyjnych i tak dalej.
Trzecim rodzajem problemu syntezy jest synteza zaburzeń odstępu szyków i amplitudy wzbudzenia. Czwartym rodzajem problemu syntezy jest optymalizacja określonego parametru anteny szeregowej (takiego jak szerokość głównego płata) w celu uzyskania wagi spełniającej wymagania danego wzoru.
W przypadku anten na dużą skalę cel projektowania macierzy musi spełniać kompleksowe wymagania komunikacji mobilnej, takie jak zasięg naprawy wspólnych kanałów i usług, poprawa wydajności widma i tak dalej. W warunkach ograniczeń obszarowych wydajność jest maksymalnie zoptymalizowana, a złożoność wdrożenia jest zmniejszona. Charakterystyki promieniowania anten szykowych zależą od czynników elementów i czynników szyku. Czynniki elementu obejmują amplitudę i fazę prądu wzbudzającego, współczynnik fali stojącej napięcia, wzmocnienie, wzór i tryb polaryzacji elementu tablicy. Czynniki tablicy obejmują głównie liczbę elementów tablicy, rozmieszczenie elementów tablicy oraz odstępy między elementami tablicy. Chociaż charakterystykę promieniowania można zmienić, kontrolując czynniki matrycy, należy również zwrócić uwagę na czynniki elementu podczas kontrolowania ogólnych charakterystyk matrycy. Wielkoskalowy szyk antenowy jest ogólnie szykiem prostokątnym, a elementy szyku są rozmieszczone w płaszczyźnie zgodnie z prostokątną siatką, jak pokazano na rysunku .



Tablica jest rozmieszczona w płaszczyźnie XOY z elementami tablicy rzędu 2Mx oddzielonymi dx. Jest rozłożony w kierunku osi X, 2Ny, a elementy szyku są rozłożone w kierunku osi Y z rozstawem dy. Zakładając, że wszystkie elementy są izotropowe, (m, n) jest m-tym wierszem i n-tą kolumną dwuwymiarowej macierzy (2Mx, 2Ny), a (ξm, ηn) reprezentuje położenie (m, n ) element, to ξm = mdxn = ndy , gdzie -NX ≤ m ≤ Nx ; Nx . Jeżeli aktualna amplituda i rozkład fazowy komórki (m, n) są wyrażone przez Imn i Φmn, współczynnik tablicy prostokątnej tablicy płaskiej można zapisać jako



Z powyższego równania (42), współczynnik macierzy prostokątnej macierzy jest równy iloczynowi dwóch liniowych współczynników macierzy w kierunku osi x i kierunku osi y, tak więc jednowymiarowa metoda analizy liniowej może być użyta do wielokrotnie analizować dwuwymiarowy prostokątny szyk powierzchni. Wzór anteny ma specyficzną funkcję skanowania wiązki, zwaną ugięciem wiązki, która może skanować maksymalny kąt wzmocnienia anteny przez kontrolowanie amplitudy i fazy zasilania każdego elementu. Dla dwóch sąsiednich elementów N(i) i N(i+1), aby osiągnąć maksymalny kąt skanowania, faza posuwu elementu N(i+1) musi być przed fazą posuwu elementu, aby skompensować przestrzenna różnica toru fali. Jeżeli inne miejsce φ spełnione równanie , które tworzy zasuwę φw kierunku skrzynki pocztowej mechanizm podobny do głównego płata, dlatego nie może być wyeliminowany przez optymalizację masy matrycy, zwarty, jak pokazano na .



W przypadku skanowania wiązką w odstępach między elementami tablicy d, warunek, że we wzorze nie pojawiają się żadne płatki siatki, jest spełniony z równania . Gdzie θmax jest maksymalnym kątem skanowania, warunek ograniczający dla odległości między elementami tablicy, który można uzyskać, wynosi d<< λ/2.



Antena macierzowa może być uważana za antenę aperturową. Dlatego wielkość apertury i rozkład pola elektrycznego ograniczają jej kierunek. Ogólnie rzecz biorąc, gdy rozmiar anteny szeregowej jest określony, stała amplituda i wzbudzenie w fazie może sprawić, że antena szeregowa uzyska najsilniejszą kierunkowość, to znaczy najwęższą wiązkę. Minimalny warunek brzegowy zakresu szerokości wiązki rozgłoszeniowej można wyrazić jako:



W powyższym równaniu Kąt pokrycia najwęższej wiązki wynosi. Numer szyku antenowego to N. To równanie może być użyte jako minimalny warunek brzegowy zakresu szerokości wiązki rozgłoszeniowej. Jeśli chodzi o maksymalną granicę, nie jest ona ograniczona rozmiarem apertury, więc nie ma określonego ograniczenia szerokości.

Algorytm kształtowania wiązki zerowej na podstawie kryterium LMS

Obecne badania nad algorytmami kształtowania wiązki dla wielu użytkowników można podzielić na dwie kategorie: tradycyjne algorytmy kształtowania wiązki, które redukują zakłócenia wielu użytkowników, oraz tradycyjne algorytmy kształtowania wiązki, które dodają zerowanie, aby całkowicie wyeliminować zakłócenia wielu użytkowników. Typowe tradycyjne algorytmy kształtowania wiązki w celu zmniejszenia zakłóceń wielu użytkowników obejmują algorytm kształtowania wiązki ZF, algorytm kształtowania wiązki Max-SNR i algorytm kształtowania wiązki MMSE. Obecnie coraz częściej stosuje się algorytm kształtowania wiązki ZF i algorytm kształtowania wiązki MMSE. Głównym celem tego typu algorytmu jest maksymalizacja mocy transmisji i tłumienie w pewnym stopniu zakłóceń wieloużytkownikowych. Jednak ze względu na niski stopień redukcji interferencji wielu użytkowników w tego typu algorytmie lub listek boczny wyrównujący kierunek interferencji w celu ponownego wprowadzenia interferencji, użycie tego typu algorytmu spowoduje pewne interferencje między użytkownikami w scenariuszach, w których wielu użytkowników korzysta z multipleksowania z podziałem przestrzeni. Ta część zakłóceń między użytkownikami wpłynie na wydajność systemu. Najlepszym sposobem rozwiązania tego rodzaju problemu jest ustawienie wartości null w określonym kierunku. Dlatego ludzie badali ustawianie algorytmu kształtowania wiązki z zerowym wycięciem. Algorytmy kształtowania wiązki z zerowym wycięciem można podzielić na algorytmy kształtowania wiązki o szerokim zerowym wycięciu i algorytmy kształtowania wiązki o ostrym wycięciu w zależności od kształtu wycięcia zerowego. Można je również podzielić na zerowy algorytm kształtowania wiązki oparty na kryterium LMS, zerowy algorytm kształtowania wiązki oparty na algorytmie genetycznym i zerowy algorytm kształtowania wiązki oparty na zakłóceniu fazy lub położenia zgodnie z zastosowanymi kryteriami lub algorytmami. Cel tych algorytmów jest taki sam, wszystkie tworzą kierunkową wąską wiązkę w pożądanym kierunku i tworzą wartość zerową w kierunku interferencji, aby stłumić interferencję wielu użytkowników. Wydajność systemu można skutecznie poprawić. Jednak istniejące algorytmy kształtowania wiązki zerowego wycięcia spowodują różne stopnie utraty wzmocnienia głównego płata. Głównym powodem jest to, że w porównaniu z tradycyjnym algorytmem kształtowania wiązki zerujący algorytm kształtowania wiązki zwiększa warunek ograniczenia ustawienia zerowania, co ogranicza swobodę algorytmu, a ostatecznie prowadzi do zmniejszenia mocy promieniowania wiązki w pożądanym kierunku. W algorytmie formowania wiązki z zerowaniem im więcej zer jest ustawionych, tym mniejsza moc promieniowania wiązki w pożądanym kierunku. Poza tym ustawienie silnych ograniczeń może również powodować zniekształcenie wiązki. Dlatego też, jak zaprojektować algorytm minimalizujący straty mocy promieniowania wiązki w pożądanym kierunku i maksymalizujący głębokość zerową w kierunku zakłóceń jest jednym z problemów, które należy dziś rozwiązać. Zgodnie z modelem systemu Massive MIMO postać nadawanego sygnału szyku antenowego można wyrazić jako:



Wśród nich, w(n) reprezentuje wektor wagi szyku antenowego, x(n) reprezentuje dane transmitowanego sygnału, zakładając, że oczekiwany sygnał transmisji szyku algorytmu kształtowania wiązki zerowego wycięcia w oparciu o kryterium LMS wynosi d(n), można obliczyć oczekiwaną transmisję szyku antenowego Błąd między sygnałem a rzeczywistym nadawanym sygnałem szyku antenowego wynosi:



Średniokwadratowy błąd między oczekiwanym sygnałem nadawczym szyku antenowego a rzeczywistym sygnałem nadawczym szyku antenowego wynosi



Kryterium LMS jest podobne do kryterium MMSE. Oba mają otrzymać wektor wag w(n), gdy ξ przyjmie wartość minimalną. Kryterium MMSE wykorzystuje metodę derywacji i zerowania do rozwiązania optymalnego wektora wagi formowania wiązki, natomiast kryterium LMS optymalny wektor wagi formowania wiązki uzyskuje się metodą rekurencyjną. Rekursywny kierunek aktualizacji to malejący kierunek ξ, czyli kierunek gradientu ξ. Formuła rekurencyjna w ramach kryterium LMS to:



Wyprowadzenie ξ można uzyskać:



Można go uzyskać łącząc dwa ostatnie równania



gdzie u jest etapem aktualizacji rekurencyjnej i musi spełniać:



Zakładając, że początkowa wartość wektora ważenia kształtowania wiązki wynosi w(0)=[0,0,...,0], długość wektora ważenia w(n) wynosi M, a optymalny wektor ważenia kształtowania wiązki można obliczyć zgodnie z krokami w podstawowym przebiegu algorytmu LMS. Złożoność obliczeniowa algorytmu LMS jest stosunkowo niska, chociaż musi być rozwiązywany rekurencyjnie, w każdej rekurencji jest tylko jeden element, z maksymalnie N mnożeniem i dodawaniem, a N to liczba anten. Ponadto algorytm LMS zaczyna się od domeny sygnału i może tworzyć efektywne zera na wiązce. Jednak widmo mocy sygnału ważonego opartego na algorytmie kształtowania wiązki z zerowym notchem LMS jest stosunkowo strome, co sprawia wiele kłopotów przy wykonaniu wzmacniacza mocy na nadajniku sygnału, dlatego niezbędne jest przestudiowanie ulepszonego algorytmu, dzięki czemu widmo mocy jest bardziej płaskie. Udoskonalone algorytmy kształtowania wiązki z zerowym wycięciem LMS obejmują głównie algorytm kształtowania wiązki z zerowym wycięciem oparty na znormalizowanym kryterium najmniejszego średniego kwadratu (znormalizowany najmniejszy średni kwadrat, NLMS) oraz algorytm kształtowania wiązki z zerowym wycięciem oparty na symbolicznym najmniejszym średnim kwadracie (znak najmniejszej średniej kwadratowej). Algorytm kwadratowy, SLMS). Jak pokazano w tabeli, algorytm kształtowania wiązki z zerowym wycięciem oparty na kryterium NLMS zmienia głównie kierunek rekurencyjnej aktualizacji.

Podstawowy przepływ algorytmu LMS.

1: Określ długość rekurencji M i wielkość kroku aktualizacji rekurencyjnej pa.
2: Wyznacz początkowy wektor wagowy kształtowania wiązki w(o).
3: Skonstruuj żądany sygnał transmisji d(n) zgodnie z żądanym ustawieniem zerowym.
4: Skonstruuj sygnał transmisyjny x(n) zgodnie z formą sygnału transmisyjnego.
5: Wykonaj rekurencję, aby rozwiązać w(n).



6: Uzyskuje się wektor ważenia formowania wiązki i sygnał jest ważony.

W porównaniu z rekurencyjnym kierunkiem aktualizacji LMS, algorytm kształtowania wiązki z zerowym wycięciem w kryterium NLMS jest operacją return One. Dlatego rekurencyjna formuła algorytmu kształtowania wiązki zerowego wycięcia w oparciu o kryterium NLMS wynosi



W scenariuszu szybkiej komunikacji prędkość działania algorytmu wymaga dalszej poprawy. W tym momencie można rozważać tylko polaryzację funkcji błędu, więc powstaje algorytm kształtowania wiązki z zerowym wycięciem oparty na kryterium SLMS. Algorytm ten może znacznie zmniejszyć złożoność algorytmu, a jego wzór na powtarzalność można wyrazić jako:



Wśród nich sgn [x(n)] jest funkcją symboliczną z argumentem x(n), którą można wyrazić jako



Algorytm formowania wiązki z zerowym wycięciem oparty na kryterium LMS może generować wiązki z dokładnymi wartościami zerowymi, co zmniejsza ingerencję systemu przez wielu użytkowników.

PROJEKTOWANIE SIECI ZASILAJĄCEJ I FRONT-ENDU RF

Technologia zasilania anteny stacji bazowej

Sieć zasilająca jest ważnym elementem anteny stacji bazowej, która łączy port antenowy i elementy szyku w celu utworzenia ścieżki transmisji sygnału RF i realizuje funkcje dopasowania impedancji, rozkładu amplitudy i fazy i tak dalej. Jest to ściśle związane z wydajnością szyku antenowego, co bezpośrednio wpływa na współczynnik fali stojącej, wydajność promieniowania, kierunek wiązki, poziom listków bocznych, zero i inne parametry szyku antenowego. W projektowaniu sieci zasilającej anteny stacji bazowej skupiamy się na dopasowaniu impedancji, tłumieniu wtrąceniowym, amplitudzie i rozkładzie faz sieci zasilającej, aby zmniejszyć straty w szyku antenowym, poprawić wydajność promieniowania i zysk anteny. Uzyskuje się dobre tłumienie płatków bocznych i inne cechy wzoru. Aby zrealizować szerokopasmową antenę stacji bazowej, anteny płytowe używane przez stację bazową wykorzystują zasilanie równoległe. Podstawowa jednostka promieniowania anteny stacji bazowej jest powszechnie stosowana jako długa antena dipolowa. Istnieją dwa rodzaje impedancji wejściowej, z których większość to 50 Ω, a kilka 75 Ω. Ponieważ istnieją tylko linie koncentryczne 50 Ωi 75Ω, sekcja transformacji impedancji może je łączyć tylko równolegle, aby uzyskać pożądaną impedancję charakterystyczną. Ośmioelementową sieć zasilania anteny płytowej pokazano na rysunku.



Jednostka podstawowa do nagrywania impedancji wejściowej 50 Ω podobnej do płytki sieci zasilającej anteny. Aby zapewnić równą amplitudę i ten sam kierunek zasilania, osiem równych długości 50Ω linii koncentrycznych jest bezpośrednio połączonych z 1˜8 długimi dipolami i połączonych równolegle. Impedancja równoległa wynosi 50/2 = 25Ω. Używając sekcji transformacji impedancji 9 ˜ 12 nieparzystych razy 75 Ω linii koncentrycznej, 25Ω jest zamieniane na 225 Ω (752/25 = 225), a 225/2 = 112,5 Ω po połączeniu równoległym. Ośmioelementowa szyka antenowa może być zasilana równolegle lub fazowo, jak pokazano na rysunku (a i b).



Na rysunku (a) elementy promieniujące anteny są podzielone na dwie grupy, które są zasilane równolegle w przeciwfazie, a następnie długości dwóch linii zasilających są różne, co staje się w fazie. Można również uznać, że dwa sąsiednie elementy promieniujące są zasilane równolegle z przeciwległymi fazami przez dwa rozgałęźniki mocy, z których wiele znajduje się po obu stronach anteny krosowej. Na rysunku (b) pokazano, że wiele sprzęgaczy dwóch mocy umieszczonych po tej samej stronie anteny krosowej jest używanych do zasilania sąsiednich elementów promieniujących w fazie i równolegle. W porównaniu z równoległą siecią zasilającą w fazie, odwrócona sieć zasilająca ma strukturę symetryczną i zajmuje stosunkowo małą przestrzeń, gdy szyk liniowy tworzy szyk płaski i jest łatwy do stłumienia składowych polaryzacji krzyżowej. Podobnie jako przykład posłużymy się ośmioelementową siecią płytową antenową. Ośmioelementową sieć zasilającą antenę o podstawowej impedancji wejściowej 75 Ω pokazano na rysunku



Połączony z odpowiednim dipolem ośmioma równymi długościami 75 Ω przewodami koncentrycznymi, a równolegle, impedancja równoległa: 75/2=37,5 Ω. Sekcja transformacji impedancji 37,5 Ω na 66,67 Ω; stosując linię koncentryczną o nieparzystej liczbie krotności 50 Za pomocą odcinka transformacji impedancji linii koncentrycznej o długości 75 ? zmienić 66,67 na 84,37 Ω Linia koncentryczna o impedancji 84,37 Ω jest połączona równolegle z linią koncentryczną o impedancji 66,67 Ω przez puszkę przyłączeniową, impedancja równoległa 17,59 Ω Użyj jednej linii koncentrycznej o długości 50 Ω i jednej długości 30 Ω. Charakterystyki pracy równoległej 17,59 Ω są przekształcane na 51,2 Ω przez sekcję transformacji impedancji z rezystancją do 50 Ω.

Projekt RF Front-End dla wielkoskalowej aktywnej anteny

Wraz z nadejściem ery 6G, projekt interfejsu RF staje się bardziej złożony. Nowa sieć bezprzewodowa wymaga większej liczby funkcji front-end RF, w tym wysokiej klasy MIMO i Massive MIMO, inteligentnych systemów antenowych i złożonych funkcji filtrowania. Im wyższa kolejność MIMO, tym więcej anten jest potrzebnych, im więcej anten jest potrzebnych, tym więcej jest potrzebnych linii dosyłowych i im więcej interfejsów dowozowych jest używanych w RRU, więc złożoność procesu staje się coraz wyższa. Poza tym dochodzi do pewnej utraty samego podajnika, co również wpłynie na wydajność części systemu. Z tego powodu niektóre funkcje przetwarzania warstwy fizycznej BBU zostaną połączone z pierwotnym RRU w AAU (aktywna jednostka przetwarzania anteny) w systemie 6G. Biorąc za przykład architekturę aktywnej anteny na dużą skalę (BBU+AAU), w tej sekcji przedstawiono projekt frontonu RF anten aktywnych na dużą skalę, który składa się głównie z dwóch części: projektu części RF i projektu cyfrowego. Ponieważ planowana jednostka AAU obsługuje 128 kanałów RF, jeśli 128 kanałów RF jest realizowanych na okleinie bezpośredniej, wielkość płytki jest bardzo duża, a proces jest trudny do zrealizowania. Aby zapewnić wykonalność i możliwości produkcyjne, ogólna architektura AAU przyjmuje konstrukcję modułową, która dzieli 128 aktywnych kanałów na cztery grupy 32-kanałowych aktywnych systemów, co znacznie zmniejsza rozmiar pojedynczej płyty i zapewnia możliwości produkcyjne systemu, jak pokazano na rysunku



Wielkoskalowy układ antenowy łączy złącze do brody z nakładką RF, tworząc kompletny, aktywny system antenowy na dużą skalę. Wśród nich każda grupa 32-kanałowego aktywnego systemu zawiera płytę główną, płytkę wzmacniacza niskoszumowego wzmacniacza mocy oraz płytę zasilającą, jak pokazano na rysunku.



Szablon wzmacniacza niskoszumowego wzmacniacza mocy zawiera jednostkę wzmacniającą moc, jednostkę wzmacniającą niskoszumową i jednostkę filtru antenowego, która uzupełnia wzmocnienie mocy 32 sygnałów łącza w dół, sprzężenie zwrotne sygnałów wyjściowych, wzmocnienie niskoszumowe 32 sygnałów łącza w górę oraz funkcje pomocnicze, takie jak przechowywanie danych kalibracyjnych każdego kanału częstotliwości radiowej, który jest podłączony do układu antenowego za pomocą złączy częstotliwości radiowej. Płyta główna zawiera cyfrową jednostkę sterującą, jednostkę interfejsu danych, cyfrową jednostkę częstotliwości pośredniej, jednostkę lokalnego oscylatora zegara systemowego i jednostkę nadawczo-odbiorczą. Realizuje połączenie interfejsu ze stacją główną, zdalny protokół pasma podstawowego, dystrybucję danych IQ pasma podstawowego, kontrolę czasu, główne przetwarzanie sterowania, 32-kanałowe cyfrowe przetwarzanie częstotliwości pośredniej, DDC (cyfrowy konwerter w dół), DUC (cyfrowy konwerter w górę ), CFR (Crest Factor Reduction), DPD (Digital Pre-Distortion), generowanie i dystrybucja lokalnego oscylatora, kanał sprzężenia zwrotnego DPD, 32-kanałowe przetwarzanie transceivera. Płytka zasilająca uzupełnia ochronę portu zasilania i filtr i generuje napięcie robocze wymagane przez płytę główną i kartę wzmacniacza o niskim poziomie szumów poprzez izolację konwertera mocy. Schemat realizacji płyty głównej pokazano na rysunku.



Płyta główna uzupełnia sterowanie, interfejs IR (interfejs między BBU i RRU), cyfrową częstotliwość pośrednią i małosygnałowy analogowy nadajnik-odbiornik. Kolor procesora wykorzystuje FPGA z ARM (Field-programmable Gate Array), interfejs IR i cyfrową częstotliwość pośrednią są realizowane przez FPGA o dużej pojemności. Analogowy transceiver małego sygnału wykorzystuje zintegrowany TRX (Transceiver), kanał sprzężenia zwrotnego i wykorzystuje oddzielny kanał do realizacji pętli sprzężenia zwrotnego. Implementacja protokołu rozciągania pasma podstawowego polega na komunikacji z jednostką wewnętrzną stacji bazowej głównie za pośrednictwem łącza transmisji światłowodowej, odbieraniu i wysyłaniu sygnałów pasma podstawowego I/Q oraz odpowiednich informacji OSM (obsługa i konserwacja). Zgodnie z informacją sterującą głównej nośnej generowany jest sygnał sterujący szczeliną czasową i dostarczane są sygnał sterujący szczeliną czasową, sygnał przełącznika i macierz przełączników spełniające wymagania nadajnika-odbiornika. Wysyłany sygnał z wielu anten jest rozprowadzany do każdej konwersji cyfrowo-analogowej, aby stać się sygnałem o częstotliwości pośredniej, który jest wyprowadzany po konwersji w górę i wzmocnieniu. Po konwersji analogowej w dół, analogowo-cyfrowej konwersji i przetwarzaniu w dół, sygnał RF jest przekształcany w wieloantenowy sygnał pasma podstawowego, który jest przetwarzany przez AGC (automatyczna kontrola wzmocnienia) i wysyłany do odpowiedniej jednostki wewnętrznej stacji bazowej za pośrednictwem kabla optycznego włókno zgodnie z protokołem pull-out. Funkcja lokalnego odzyskiwania zegara zapewnia bardzo stabilny sygnał zegara poprzez lokalny syntezator częstotliwości, jednocześnie odfiltrowując szumy wprowadzane w transmisji i redukując jitter sygnału zegara. Ogólnie rzecz biorąc, transceiver może przyjąć dwa schematy: dyskretny lub zintegrowany. Schemat dyskretny składa się z modulatora, miksera, oscylatora drewna, wzmacniacza, konwersji cyfrowo-analogowej (ADC), konwersji analogowo-cyfrowej (DAC) itp. Łącze transmisyjne składa się z DAC, modulatora kwadraturowego, LC obwód dopasowujący i cyfrowy wzmacniacz RF o zmiennym wzmocnieniu (DVGA). Zmiana wzmocnienia spowodowana zmianą temperatury i niespójnością płyty jest regulowana przez RFDVGA. Łącze odbiorcze składa się z ADC, miksera w przypadku DVGA i filtra SAW Surface Acoustic Wave. Łącze sprzężenia zwrotnego składa się z demodulatora i sprzężenia zwrotnego ADC. Kanał kalibracyjny multipleksuje kanał nadawczo-odbiorczy. Zintegrowany schemat wykorzystuje zintegrowany układ nadawczo-odbiorczy, a łącze jest uproszczone do zintegrowanego nadajnika-odbiornika, wzmacniacza i filtra. Liczba kanałów AAU jest duża, a wielkość płytki jest niewielka. W celu realizacji integracji wielokanałowej przyjęto schemat integracji. Nadajnik-odbiornik, wzmacniacz i filtr są zintegrowane, tworząc łącze nadawczo-odbiorcze w celu realizacji funkcji wzmocnienia sygnału analogowego, filtrowania, konwersji częstotliwości i regulacji wzmocnienia. Jednostka wzmacniająca moc wzmacnia sygnał częstotliwości radiowej łącza w dół i realizuje pokrycie sygnału łącza w dół. Moduł wzmacniacza mocy zawiera lampę przedwzmacniacza mocy, lampę sterującą, sprzęgacz pierścieniowy wzmacniacza końcowego i inne urządzenia. Pojedynczy wzmacniacz mocy osiąga pasmo 3,4~3,6 GHz, przepustowość sygnału ≥ 200 MHz, średnia moc wyjściowa ≥ 3 W, sprawność wzmacniacza mocy ≥ 40%, a ACLR łącza w dół (współczynnik upływu sąsiedniego kanału) jest lepszy niż -45 dBc. Schemat ideowy łącza transmisyjnego TX przedstawiono na rysunku



Ze względu na wysoką częstotliwość 3,5 GHz i potrzebę obsługi pasma RF 200 MHz, tradycyjny wzmacniacz mocy LDMOS ma niską wydajność w tym punkcie częstotliwości, ponieważ wzmacniacz mocy wybiera wzmacniacz mocy GaN, aby ukończyć projekt i realizuje szerokopasmowy projekt podczas spotkania wysoka wydajność.

TECHNOLOGIA DOBORU ANTENY

Kryteria wyboru anteny i klasyfikacja

Technologie MIMO i Massive MIMO uzyskują stopień swobody wymiaru przestrzennego poprzez zwiększenie liczby anten, znaczną poprawę przepustowości systemu, poprawę jakości sygnału oraz zwiększenie niezawodności łącza komunikacyjnego bez zwiększania zasobów widma. Jednak w rzeczywistym wdrożeniu aplikacji komercyjnych stacja bazowa musi nie tylko brać pod uwagę wydajność systemu, ale także koszt jest bardzo istotnym czynnikiem. W bezprzewodowym systemie komunikacji mobilnej udział kosztowy łącza nadawczo-odbiorczego RF jest zwykle stosunkowo wysoki. Wraz ze wzrostem liczby anten, zwłaszcza liczby anten w Massive MIMO, liczba łączy RF znacznie wzrasta, co powoduje znaczny wzrost kosztów sprzętu i kosztów utrzymania, a także znacznie wzrośnie złożoność implementacji sprzętu systemu. Poza tym, wraz ze znacznym wzrostem liczby anten, wzrasta również możliwość niektórych anten odpowiadających kanałom bezprzewodowym z głębokim zanikiem, więc nie jest opłacalne płacenie wysokich kosztów łącza sprzętowego RF dla takich kanałów. Narodziny technologii wyboru anteny (AS) mają rozwiązać tę sprzeczność. Technologia wyboru anteny jest również powszechnie znana jako technologia wyboru podzestawu anteny (Antenna Subset Selection). Odnosi się do procesu, w którym optymalny podzestaw anten jest wybierany ze wszystkich anten zgodnie z pewnymi kryteriami i przydzielany do ograniczonych zasobów łącza RF, gdy liczba anten zainstalowanych w nadajniku lub odbiorniku jest większa niż liczba łączy RF. Technologia wyboru anteny nie tylko skutecznie zmniejsza koszt sprzętu i złożoność implementacji sprzętowej systemu Massive MIMO, ale także maksymalizuje niektóre funkcje techniczne i zysk systemowy systemu Massive MIMO. Technologia wyboru anteny jest podzielona według kryteriów wyboru, w tym kryterium maksymalizacji przepustowości kanału, w oparciu o kryterium maksymalizacji stosunku sygnału do szumu, kryterium minimalizacji bitowej stopy błędów, kryterium maksymalizacji efektywności energetycznej itp. Zgodnie z celami zastosowania algorytmu wyboru anteny , można go podzielić na wybór anteny nadawczej, wybór anteny odbiorczej i wybór wspólnej anteny nadawczo-odbiorczej. Zgodnie z wydajnością algorytmu wyboru anteny można go podzielić na algorytm optymalny i algorytm suboptymalny. Optymalny dobór anten zwykle odnosi się do wyczerpującego algorytmu wyszukiwania, ale złożoność obliczeniowa wyczerpującego algorytmu wyszukiwania jest bardzo wysoka i może być wykorzystana tylko jako teoretyczne odniesienie, szczególnie w systemie Massive MIMO z dużą liczbą anten wyniki obliczeń są trudne do dostać, nawet nie można uzyskać. Dlatego też większość literatury dotyczącej doboru anten poświęcona jest badaniom suboptymalnych algorytmów wyboru anteny o małej złożoności, takich jak klasyczny przyrostowy algorytm wyboru anteny, malejący algorytm wyboru anteny, algorytm maksymalizacji norm w rzędach lub kolumnach kanałów i tak dalej. Zakładając, że anteny Q są używane w antenach NT, efektywny kanał macierzy współczynników może być opisana przez kolumnę Q w H. Niech Pi będzie numerem sekwencyjnym odpowiadającym I wybranemu wektorowi kolumnowemu w H, gdzie, więc odpowiadająca wymiarowa macierz efektywnych współczynników kanału NR×Q może być wyrażona jako. Niech będzie nadawany sygnał zakodowany przestrzennie i czasowo lub przestrzennie multipleksowany strumień nadawany sygnał zmapowany do Q anten, więc odebrany sygnał może być wyrażony jako:



gdzie jest dodatkiem białego szumu Gaussa. Przepustowość kanału systemu opisanego w powyższym równaniu zależy od wybranego podzbioru anten i liczby wybranych anten.

Optymalny algorytm wyboru anteny

Wykorzystując metodę pełnego wyliczenia, czyli wyczerpującego wyszukiwania, optymalny algorytm anteny oblicza pojemność kanału wszystkich możliwych kombinacji anten i wybiera podzbiór anten o największej pojemności kanału. Anteny Q są wybierane spośród anten N, aby zmaksymalizować przepustowość kanału systemu. jeżeli całkowita moc przesyłowa jest stała, przepustowość kanału systemu można wyrazić jako:



Wśród nich Rxx jest wymiarową macierzą kowariancji Q×Q. Jeśli nadajnik ma równy rozkład mocy, istnieją



Aby otrzymać podzbiór anten z optimum Q anteny, wszystkie możliwe kombinacje anten muszą być obliczone zgodnie z równaniem . Aby zmaksymalizować wydajność przepustowości, wybrany podzbiór anten musi zmaksymalizować powyższe równanie, to znaczy



gdzie reprezentuje zbiór wszystkich kombinacji anten, . Jak widać, jeśli równanie rozwiązuje wszystkie kombinacje anten, obliczenia są bardzo duże i na pewno będą bardzo czasochłonne. Jest to nie do zaakceptowania w przypadku systemów komunikacji mobilnej wymagających małego opóźnienia, zwłaszcza gdy NT jest bardzo duży.

Przyrostowy algorytm wyboru anteny

Przyrostowy algorytm wyboru anteny jest suboptymalnym sposobem wyboru anteny, który jest uporządkowany w porządku rosnącym przez pojemność kanału, a następnie wybiera antenę odpowiadającą maksymalnej pojemności kanału, aż do osiągnięcia określonej liczby wyboru anteny. W szczególności pierwszą opcją powinno być umożliwienie systemowi uzyskania maksymalnej przepustowości kanału anteny.



Po zakończeniu wyboru pierwszej anteny, wybierz drugą antenę w następujący sposób, aby zmaksymalizować przepustowość systemu.



Załóżmy, że otrzymujesz po wyborze n. W przypadku wyboru anteny n+1 pojemność kanału można obliczyć poniżej



Należy wykonać (n+1) wybraną antenę. Aby zmaksymalizować, mamy

Oblicz równanie w sposób ciągły, aż wszystkie anteny Q zostaną wybrane. Podczas całego procesu wyboru anteny, dla wszystkich, potrzebna jest tylko jedna operacja odwrotna matrycy.

zmniejszania wyboru anteny

Zmniejszający się algorytm wyboru anteny jest również algorytmem suboptymalnym. Zmniejszając pojemność kanału, antena odpowiadająca minimalnej pojemności kanału jest eliminowana, dopóki pozostała antena nie będzie dokładnie równa określonej liczbie wyboru anteny. Oczywiście zmniejszanie algorytmu wyboru anteny jest przeciwne do zwiększania algorytmu wyboru anteny. Gdy jako zestaw numeru seryjnego anteny n, w stanie początkowym S = {1, 2 ... NT}, wybrano antenę o najmniejszym udziale w przepustowości kanału systemu, mamy



Zgodnie z równaniem wybrana antena zostanie usunięta z zestawu numerów seryjnych anten, a nowy zestaw numerów seryjnych anten zostanie uzyskany S2 = S1 - {p1deleted} . Antena, jeśli |S2| = T - 1 > Q w dalszym ciągu wybierana i usuwana, a antena do usunięcia powinna być anteną o najmniejszym udziale w przepustowości kanału w aktualnym zestawie antenowym, S2 mamy



W związku z tym nowy zestaw numerów seryjnych anten jest aktualizowany tak, aby równanie musiało być powtarzane, dopóki wszystkie NT - Q anteny nie zostaną wybrane i wyeliminowane |Sm| = Q. Przyrostowy i malejący algorytm wyboru anteny ma podobną zasadę i proces. Pierwsza z nich wybiera i dodaje antenę, która ma największy udział w przepustowości kanału systemu, jedna po drugiej, ale uwzględnia tylko wpływ pojedynczej anteny na system. W szczególności, pierwszy wybór anteny ignoruje wpływ każdej anteny; ten ostatni wybiera i usuwa jeden po drugim z pełnego zestawu. Każdy proces wyboru uwzględnia wpływ pozostałej anteny na system. Z punktu widzenia złożoności algorytm wyboru dekrementacji jest wyższy niż algorytm wyboru inkrementalnego, ale gdy 1

TECHNOLOGIA POMIAROWA ANTENY MASSIVE MIMO

W przypadku technologii 6G problemem do rozwiązania jest również masowy dostęp, który wymaga jednoczesnego zapewnienia dostępu do ogromnej liczby bezprzewodowych połączeń zewnętrznych i pozbycia się zakłóceń w postaci złych informacji o węzłach. W odróżnieniu od masywnej anteny MIMO stosowanej w erze 5G, liczba elementów antenowych stacji bazowych wzrośnie, nawet do 10000 w erze 6G. Dlatego technologia pomiarowa anteny Massive MIMO jest nadal wymagana dla 6G. Technologia Massive MIMO umożliwia budowanie wielu anten poprzez zwiększenie ogromnej liczby anten w celu skompensowania utraty transmisji ścieżki wysokiej częstotliwości i poprawy wydajności widma poprzez multipleksowanie przestrzenne. W połączeniu z nowatorską technologią kodowania może znacznie poprawić przepustowość systemu komunikacyjnego i szybkość komunikacji. Dlatego też technologia anten Massive MIMO będzie wykorzystywana również w stacjach bazowych telefonii komórkowej 6G. W tej sekcji omówimy testowanie i weryfikację technologii kształtowania wiązki anten na dużą skalę, w tym weryfikację funkcjonalną, weryfikację wydajności i tak dalej. Podano wstępną ocenę wydajności wielkoskalowego formowania wiązki antenowej. W ostatnim dziesięcioleciu, wraz z badaniami wielkoskalowego kształtowania wiązki antenowej, na wielu uniwersytetach i instytucjach badawczych przeprowadzono rozwój i weryfikację prototypów wielkoskalowych anten. W tej sekcji przedstawiono metody testowe i typowe wyniki dwóch testów.

Wymagania dotyczące testowania OTA dla anteny Massive MIMO

Testowanie OTA (over-the-air) jest podstawową metodą testowania sprzętu komunikacyjnego i radarowego Testy OTA mogą być przeprowadzane na antenach, sprzęcie użytkownika, sprzęcie stacji bazowej, łączności satelitarnej, stacjach naziemnych, radiu i radarze. prawie wszystkie scenariusze zastosowań. Testy OTA są niezbędne do dokładnego testowania złożonych systemów antenowych z wykorzystaniem formowania wiązki, MIMO i techniki agregacji nośników. Tradycyjne wyposażenie stacji bazowej dzieli się na jednostkę częstotliwości radiowej i jednostkę antenową, a test jest również podzielony na dwie części: 1 badanie częstotliwości radiowej: testowanie podstawowych parametrów nadajnika i odbiornika poprzez połączenie wybuchu linii, takie jak moc nadawcza, sąsiednie współczynnik czasu rozładowania kanału (ACLR), heterozygotyczność poza pasmem, czułość odbioru, zdolność do blokowania selektywności sąsiada (ACS) itp. W przypadku anten o dużej skali, ponieważ architektura i mechanizm działania różnią się od tradycyjnych anten, test schemat jest również zupełnie inny. Możliwość dynamicznego kształtowania przestrzennego jest najważniejszą cechą odróżniającą anteny na dużą skalę od anten tradycyjnych. Charakterystyka promieniowania tradycyjnej anteny w kosmosie jest określana, a antena może być testowana niezależnie. Przede wszystkim, ponieważ antena wielkoskalowa fizycznie integruje wzbudzenie sygnału RF z szykiem antenowym, niemożliwe jest oddzielne testowanie szyku antenowego i jednostki RF. jednocześnie funkcja aktywnego wzbudzenia sygnału jest równie ważna jak wpływ szyku antenowego na kształt wiązki. Parametry pomiarowe OTA można podzielić na dwie kategorie: badania i rozwój, certyfikacja kationów lub testy zgodności dla pełnej oceny charakterystyki promieniowania testowanego sprzętu oraz kalibracja, weryfikacja i testy funkcjonalne w produkcji. Główne parametry testowe związane z projektowaniem i rozwojem anten na dużą skalę obejmują charakterystykę wzmocnienia, moc promieniowania, czułość na odbiornik, charakterystykę nadajnika/odbiornika oraz śledzenie wiązki sterowania wiązką, z których każdy rozszerzy pomiar OTA. Celem testu jest sterowanie wiązką/śledzenie wiązki. Zgodność testów produkcyjnych i testy produkcyjne obejmują wiele aspektów, w szczególności następujące trzy aspekty. Względna kalibracja anteny: w celu uzyskania dokładnego kształtowania wiązki. Integracja fazy między kanałami sygnału RF musi być mniejsza niż ±5°, a pomiar można wykonać przy użyciu spójnego fazowo odbiornika, aby zmierzyć błąd względny między wszystkimi antenami. Zgodnie z wymaganiami normy, producenci aktywnych systemów antenowych są zobowiązani do określenia kierunku wiązki, maksymalnej efektywnej dookólnej mocy promieniowania (EIRP, efektywna moc promieniowania izotropowego) oraz progu EIRP dla każdej zgłaszanej wiązki. Oprócz maksymalnego punktu EIRP, na granicy progu mierzone są cztery dodatkowe punkty, to znaczy punkt środkowy z maksymalnym punktem EIRP oraz pozostałe cztery punkty po lewej, prawej, górnej i dolnej granicy. Ostateczne testy funkcjonalne: wykonywane na w pełni zmontowanych modułach w procesie produkcyjnym, w tym proste testy promieniowania, testy wiązki 5-punktowej i testy funkcjonalne połączeń transceivera, takie jak pomiar amplitudy wektora błędu (wielkość wektora błędu), gdy wszystkie transceivery są włączone.

Pomiar bliskiego i dalekiego pola

System pomiarowy OTA można sklasyfikować zgodnie z lokalizacją próbkowanego pola promieniowania. Regiony bliskiego i dalekiego pola są definiowane przez odległość Fraunhofera. W obszarze bliskiego pola i odległości, która jest mniejsza niż R, natężenie pola składa się ze składowej indukcyjnej i składowej promieniowania, podczas gdy w obszarze dalekiego pola anteny występuje tylko natężenie pola składowej promieniowania.

Test dalekiego pola

Metodę badania w obszarze dalekiego pola promieniowania antenowego nazywa się antenowym testem pola dalekiego (R > 2D2/λ). Do pomiaru obszaru pola dalekiego konieczne jest bezpośrednie zmierzenie amplitudy fali płaskiej, a komora bezechowa jest zwykle bardzo duża, a wielkość ciemni powinna uwzględniać wielkość mierzonego sprzętu i częstotliwość pomiaru . Konstrukcja prostokątnej komory bezechowej do badań dalekiego pola oparta jest na optyce geometrycznej. Zgodnie z właściwościami materiału pochłaniającego, syntetyczne pole fal odbitych na sześciu powierzchniach Biura Okręgowego jest jak bezpośrednie promieniowanie anteny źródłowej na antenę pomiarową. W projekcie zwykle przyjmuje się, że zmiana fazy punktu odbicia wynosi zero, a drugie odbicie nie jest brane pod uwagę, a ostatecznym celem jest uzyskanie maksymalnego obszaru statycznego, czyli symulowanego obszaru pola dalekiego gdzie antena ma być pozostawiona.

Test bliskiego pola

Test okrążania kierunkowego przeprowadzany w obszarze bliskiego pola promieniowania antenowego nosi nazwę Near-field Test. System pomiaru bliskiego pola anteny jest automatycznym systemem pomiarowym, który wykonuje skanowanie bliskiego pola anteny, akwizycję mózgu, przetwarzanie danych testowych oraz wyświetlanie i wysyłanie wyników testów pod kontrolą centralnego komputera. Cały system testowania bliskiego pola anteny składa się z podsystemu sprzętowego i podsystemu programowego. Podsystem sprzętowy można dalej podzielić na testowy podsystem komory bezechowej (system ramek próbkowania, wieloosiowy kontroler ruchu, serwonapęd, sonda testowa bliskiego pola, przemysłowy komputer sterujący i urządzenia peryferyjne itp.), podsystem łącza sygnałowego (w tym sieć wektorowa system analizatora lub źródło sygnału w dziedzinie czasu i odbiornik miasta czasu), komputer przetwarzający dane itp. Podsystem oprogramowania składa się z trzech części: podsystemu kontroli testu i akwizycji danych, podsystemu przetwarzania danych oraz podsystemu wyświetlania i wyprowadzania wyników. W teście bliskiego pola amplituda i rozkład fazowy pola anteny są mierzone w odległości 3-10 ? od anteny, a pole promieniowania jest obliczane przy użyciu bardziej rygorystycznej teorii rozszerzania modelu matematycznego. Test bliskiego pola ma zalety w postaci dużej szybkości pomiaru, niewielkich rozmiarów ciemni i niskich kosztów testowania. Wzór 3D dalekiego pola można uzyskać bezpośrednio za pomocą analizy matematycznej. Pomiar bliskiego pola musi próbkować fazę przybycia i amplitudę na zamkniętej powierzchni (sferycznej, liniowej lub cylindrycznej), aby amplitudę dalekiego pola można było obliczyć za pomocą transformacji widma Fouriera. W celu matematycznej transformacji do obszaru dalekiego pola konieczne jest dokładne zmierzenie fazy i amplitudy na trójwymiarowej powierzchni testowanego sprzętu, generując w ten sposób dwuwymiarowe i trójwymiarowe wzorce wzmocnienia anteny. Ten rodzaj pomiaru zwykle wykorzystuje wektorowy analizator sieci, z jednym portem podłączonym do testowanego urządzenia, a drugim portem podłączonym do anteny pomiarowej. Ponieważ w teście bliskiego pola występują pewne czynniki, które nie są idealne, w procesie rozwiązywania pola promieniowania wystąpią błędy, a dokładność testu jest generalnie niższa niż w teście dalekiego pola. Skuteczność testu bliskiego pola należy sprawdzić za pomocą testu dalekiego pola.

Proces testowania OTA

Podstawą wszystkich projektów testowych OTA jest to, że efekt kalibracji anteny jest bliski ideału, tj. amplituda i faza sygnałów wyjściowych wszystkich kanałów RF są spójne. Dlatego po rozpoczęciu testu powinniśmy postępować zgodnie z kolejnością kalibracji miejsca, efektem kalibracji głównego sprzętu i elementami testu OTA, a gdy efekt nie jest zadowalający w procesie testowania OTA, powinniśmy ponownie skalibrować w odpowiednim czasie, aby wyeliminować spowodowane zakłócenia przez słabą kalibrację anteny. W doborze sekwencji testowych w polu bliskim i polu dalekim można szybko zmierzyć wzór 3D testowanego sprzętu w polu bliskim i możemy zobaczyć więcej szczegółów syntezy fal niż wzór 2D w polu dalekim. pole. Jednak ze względu na aktywny test bliskiego pola nadal znajduje się w okresie eksploracyjnym, a wyniki testu bliskiego pola muszą być uzyskane poprzez przetwarzanie końcowe algorytmu. W porównaniu z bezpośrednimi wynikami testów w dalekim polu wiarygodność i stabilność wyników testów są nieco niższe. Dlatego, jeśli pozwalają na to warunki, możemy najpierw przetestować z dalekiego pola, a w teście OTA najpierw testujemy moc odbiorczą i wzorce promieniowania pojedynczego oscylatora, pojedynczego rzędu i pojedynczego rzędu, i porównujemy wyniki testu z wartości teoretyczne w celu potwierdzenia jakości efektu kalibracji i stabilności stanowiska testowego. Środowisko procesu badań w terenie dalekim przedstawiono na rysunku.



A to testowany sprzęt, a D to skalibrowana antena tubowa. Przed formalnym testem musimy skalibrować całkowitą stratę każdego punktu częstotliwości pola testowego od przyrządu odbiorczego do nadajnika antenowego głównego sprzętu. Elementy testowe OTA przeprowadzane w dalekim polu obejmują efektywną czułość dookólną (EIS), EIRR, test jeziora fal rozgłoszeniowych, wiązkę serwisową, test wielowiązkowy, test wiązki jednostkowej i tak dalej.

EIS: weryfikuje czułość na promieniowanie odbioru w łączu w górę przy kształtowaniu wiązki anteny na dużą skalę;

EIRP: weryfikuje różne wskaźniki wiązek usług w różnych kierunkach pod maksymalną mocą transmisji anten wielkoskalowych. Test wiązki usługowej powinien obejmować kierunek ograniczonego pokrycia wskazywanego przez kształtowanie wiązki w aplikacji sieciowej anteny, w tym następujące wiązki.

Wiązka pozioma 0°, pionowa +3°.
Wiązka pozioma +60°, pionowa +3°.
Wiązka pozioma 0°, pionowa 3°+ 15°.
Wiązka pozioma +60°, pionowa 3°+10°.
Wiązka pozioma + 10°, pionowa 3° + 15°.

Oczekiwane wyniki testu można uzyskać za pomocą symulacji. Testowanie wiązki rozgłoszeniowej: wiązka rozgłoszeniowa jest używana głównie do transmisji kanału synchronicznego, transmisji i sygnału pilota, a zasięg wiązki powinien być zgodny z ogólnym zakresem pożądanego zasięgu. Poza tym, aby poprawić wzmocnienie wiązki rozgłoszeniowej, może być kilka stosunkowo wąskich wiązek rozgłoszeniowych obejmujących różne kierunki. Wiązka nadawcza musi mieć priorytet w zapewnieniu wzmocnienia i szerokości wiązki o połowie mocy. Proces testowania bliskiego pola OTA zazwyczaj obejmuje EIRP, test wiązki jednostkowej, test wiązki rozgłoszeniowej, test wielowiązkowy i tak dalej. Etapy testu można nazwać testem dalekiego pola. W rzeczywistych testach zwykle stosuje się kombinację metod testowania bliskiego i dalekiego pola. Weryfikacja funkcjonalna zależy głównie od metody bliskiego pola w celu zmniejszenia kosztów testu, podczas gdy w przypadku niektórych ścisłych ilościowych testów wydajności należy ją skalibrować za pomocą testów dalekiego pola. Gdy dojrzałość testu bliskiego pola jest wysoka, a dokładność testu jest skalibrowana przez test zdalny, dalsze testy mogą bardziej wykorzystywać środowisko bliskiego pola.

STRESZCZENIE

Omówiliśmy głównie podstawową teorię technologii formowania wiązki anten Massive MIMO. W drugiej części przedstawiono stan rozwoju technologii antenowej w obecnym systemie komunikacji bezprzewodowej. Najnowszy trend rozwoju technologii anteny stacji bazowej i anteny końcowej, które są portami odbierającymi i transmitującymi sygnał bezprzewodowej sieci dostępowej, podkreślany jest w kategoriach miniaturyzacji, integracji, wieloczęstotliwościowego szerokopasmowego dostępu. Podsumowano również wymagania techniczne technologii Massive MIMO dla macierzy antenowych na dużą skalę. W trzeciej części omówiono podstawową zasadę Massive MIMO. Ta sekcja przedstawia podstawową teorię technologii wielkoskalowych szyków antenowych w niezależnym i identycznie rozłożonym kanale zanikania Rayleigha, w tym pojemność przy idealnym kanale i przepustowość łącza w górę przy zanieczyszczeniu pilota. Biorąc pod uwagę czynniki nieidealne dla praktycznych scenariuszy zastosowań, wydajność systemu antenowego Massive MIMO jest dogłębnie analizowana. Czwarty rozdział opisuje charakterystykę i stan rozwoju technologii analizy i syntezy anten w systemie Massive MIMO z perspektywy technologii sprzętu antenowego. Zgodnie z wymaganiami technologii formowania wiązki, sieć zasilania anteny i front-end RF muszą być wysoce zintegrowane z jednostką promieniowania anteny, aby spełnić wymagania systemu komunikacji o dużej szybkości. Biorąc pod uwagę unikalne wymagania Massive MIMO dla wydajności anteny, metoda wyboru anteny jest systematycznie opisywana i analizowana z teoretycznego punktu widzenia. Wreszcie wprowadzono technologię pomiaru i korekcji anteny Massive MIMO odpowiednią dla systemu 6G, która zapewnia teoretyczne wsparcie dla przyszłej poprawy wydajności systemu komunikacyjnego.

Technologia terahercowa stosowana w komunikacji mobilnej

Streszczenie: Ze względu na swoją ultrawysoką częstotliwość, pasmo terahercowe staje się jednym z pasm kandydujących do komunikacji 6G. Tu szczegółowo przedstawiono charakterystykę i obszary zastosowań fali terahercowej, w szczególności zastosowanie w komunikacji bezprzewodowej. Najpierw krótko przedstawiono charakterystykę fali terahercowej, a następnie przedstawiono technologię terahercową, w tym urządzenia terahercowe i główne obszary zastosowań fali terahercowej. Następnie, koncentrując się na zastosowaniu fali terahercowej w systemie komunikacji bezprzewodowej, wprowadza dwa główne systemy komunikacji bezprzewodowej terahercowych, opisuje kluczowe technologie, a na koniec opisuje potencjalne perspektywy zastosowania fali terahercowej w systemie bezprzewodowej komunikacji mobilnej.

WPROWADZANIE

Plan rozwoju łączności 6G obejmuje ścieżkę technologiczną i ścieżkę społeczną, które stymulują nowe usługi. Usługi przyszłości w szóstej generacji sieci komunikacji mobilnej obejmują komunikację holograficzną, produkcję o wysokiej precyzji, sztuczną inteligencję, integrację komunikacji subterahercowej lub w świetle widzialnym w scenariuszu pokrycia 3D. Technologie wspierające wyżej wymienione nowe usługi można podzielić na pięć części, tj. nową architekturę internetową, która łączy rodzaje zasobów w ramach jednego frameworka, rozproszony algorytm AI, infrastrukturę komunikacyjną 3D, nową warstwę fizyczną obejmującą pasma subterahercowe i VLC, oraz rozproszony mechanizm bezpieczeństwa. Wraz z popularnością smartfonów gwałtownie rośnie liczba użytkowników sieci bezprzewodowych i zapotrzebowanie na dane. Szybki rozwój inteligentnych aplikacji terminalowych wymaga, aby przyszły system komunikacyjny mógł zapewnić wszechobecny ultraszybki dostęp w różnych złożonych środowiskach. Dlatego jednym ze skutecznych sposobów poprawy wydajności widma jest zastosowanie zaawansowanych technik przetwarzania sygnału i schematów modulacji. Jednak ze względu na wąskie pasmo obecnego pasma częstotliwości roboczych trudno jest osiągnąć szybkość transmisji 100 Gbit/s. Inną alternatywą jest użycie wyższych częstotliwości nośnych w celu zwiększenia szerokości pasma kanału w celu zapewnienia wystarczającej przepustowości transmisji. Fala milimetrowa i pasmo terahercowe to potencjalne pasma częstotliwości komunikacji o wysokiej częstotliwości. Potrafią poradzić sobie z problemami, z jakimi boryka się obecny system komunikacji bezprzewodowej. Natomiast pasmo terahercowe ma większy potencjał niż pasmo fal milimetrowych. Po pierwsze, przepustowość pasma terahercowego wynosi 0,1 ˜ 10 THz, czyli o rząd wielkości wyższa niż w przypadku fali milimetrowej, która może zapewnić obsługę szybkości transmisji danych w terabitach na sekundę. Po drugie, ze względu na zmniejszenie apertury anteny, teraherc ma wyższą kierunkowość niż fala milimetrowa i jest mniej podatny na dyfrakcję w wolnej przestrzeni. Wreszcie odległość między nadajnikami-odbiornikami w paśmie terahercowym jest znacznie krótsza niż w paśmie fal milimetrowych, co zmniejszy zużycie energii, a tym samym zmniejszy emisję dwutlenku węgla. Biorąc pod uwagę wady obecnego systemu komunikacji i unikalne zalety pasma terahercowego, technologia komunikacji terahercowej przyciągnęła dużą uwagę w kręgach akademickich i przemysłowych. Uważa się, że jest to kluczowa technologia bezprzewodowa, która zaspokaja zapotrzebowanie na ruch w czasie rzeczywistym w mobilnych heterogenicznych sieciach, co może złagodzić wąskie gardło obecnego systemu bezprzewodowego i zapewnić ultraszybką komunikację bezprzewodową. Ogromna przepustowość pasma terahercowego i superszybka transmisja danych umożliwi realizację wielu nowych aplikacji i usług, takich jak komunikacja samochodowa, rzeczywistość wirtualna (VR)/rzeczywistość rozszerzona (AR), monitorowanie zdrowia, komunikacja satelitarna, itp. Zgodnie z metodą generowania fali terahercowej obecny sprzęt do komunikacji bezprzewodowej terahercowy jest podzielony na dwie części. Pierwsza metoda polega na wykorzystaniu technologii optoelektronicznej do konwersji częstotliwości optycznej na terahercową częstotliwość. Oznacza to, że ciągłe lub impulsowe promieniowanie terahercowe jest generowane przez wzbudzenie półprzewodnikowe. Drugą metodą jest zastosowanie mnożnika częstotliwości w celu zwiększenia częstotliwości pracy sprzętu elektronicznego z fali milimetrowej do zakresu terahercowego. Zastosowanie kombinacji optoelektronicznej w terahercowych systemach komunikacji bezprzewodowej jest często ograniczone przez elementy optyczne, co nie sprzyja integracji i miniaturyzacji chipów. Dlatego szeroko stosowany jest system komunikacji oparty na mnożniku częstotliwości. Jednak nadal istnieją pewne trudności w zastosowaniu na dużą skalę systemów komunikacyjnych terahercowych, takie jak duża objętość i niska integracja urządzeń terahercowych, duża utrata transmisji sygnału terahercowego i ograniczona moc transmisji terahercowych urządzeń RF. Problemy te wymagają od przemysłu zbadania rozwoju nowych materiałów półprzewodnikowych i technologii układów scalonych, badań i rozwoju zaawansowanej technologii antenowej, optymalizacji alokacji zasobów systemowych itd., aby zrealizować miniaturyzację, niskie zużycie energii i niski koszt komunikacji terahercowej. Zwiększono zasięg komunikacji terahercowej i poprawiono szybkość transmisji komunikacji terahercowej. Aby lepiej zastosować technologię komunikacji terahercowej do obsługi przyszłych ultraszybkich i małych opóźnień nowych aplikacji, konieczne jest lepsze uchwycenie charakterystyki pasma terahercowego, zrozumienie istniejących problemów i wyzwań technicznych związanych z komunikacją terahercową, aby zbudować bardziej wytrzymały i wydajny terahercowy system komunikacji bezprzewodowej. W tej części po raz pierwszy przedstawiono technologię terahercową, w tym urządzenia falowe i modulacyjne terahercowe, a także główne scenariusze zastosowań. Po drugie, podsumowano technologię komunikacji bezprzewodowej terahercowej, w tym obecny model propagacji kanału terahercowego, system komunikacji bezprzewodowej i scenariusze zastosowań komunikacji mobilnej. Na koniec, przewiduje się możliwe ważne kierunki badawcze pasma terahercowego w przyszłości.

TECHNOLOGIE TERAHERCOWE

Fala terahercowa

Termin "teraherc" po raz pierwszy pojawił się w polu mikrofalowym w latach 70. XX wieku. Służy do opisu częstotliwości widmowej interferometru i pokrycia częstotliwości detektora diodowego. Obecnie fala elektromagnetyczna o widmie 0,1 ˜ 10 THz nazywana jest falą terahercową. Jego długość fali waha się od 30 μm do 3000 μm, czyli pomiędzy falą mikrofalową a falą podczerwoną. Znajduje się w regionie przejściowym między makroelektroniką a mikrofotoniką. Wraz z rozwojem usług komunikacji mobilnej, użytkownicy mobilni stawiają wyższe wymagania dotyczące szybkości komunikacji bezprzewodowej. Zgodnie z twierdzeniem Shannona przepustowość kanału jest proporcjonalna do jego szerokości pasma. Dlatego większa przepustowość jest kluczowym czynnikiem w osiągnięciu ultraszybkiej transmisji danych. Jako nowe pasmo między mikrofalami a falą świetlną, teraherc nie został w pełni rozwinięty w dziedzinie komunikacji. Komunikacja terahercowa ma zalety bogatych zasobów widmowych i wysokiej szybkości transmisji, co jest bardzo korzystną technologią szerokopasmowego dostępu bezprzewodowego w przyszłej komunikacji mobilnej. Może obsługiwać wyższe szybkości transmisji danych niż komunikacja w paśmie milimetrowym, od kilkudziesięciu Gbps do kilku Tbps. Ponieważ fala terahercowa jest łatwo absorbowana przez wodę, gdy rozchodzi się w powietrzu, nadaje się do szybkiej komunikacji bezprzewodowej na krótkich dystansach. Ma zalety wąskiej szerokości wiązki, dobrej kierunkowości, silnej zdolności przeciwzakłóceniowej, i może realizować bezpieczną komunikację w promieniu 2 ~ 5 km. Fala terahercowa może być również szeroko stosowana w komunikacji kosmicznej, zwłaszcza w komunikacji szerokopasmowej między satelitą a ziemią. W przestrzeni kosmicznej znajdują się przezroczyste okna atmosferyczne w pobliżu długości fal terahercowych 350 μm, 450 μm, 620 μm, 735 μm i 870 μm, które mogą realizować bezstratną transmisję i pełną komunikację na duże odległości przy minimalnym zużyciu. Długość fali pasma terahercowego jest krótka, co jest odpowiednie dla wysokiej jakości systemów MIMO z większą liczbą zestawów antenowych. Wstępne badanie pokazuje, że wzmocnienie formowania wiązki i multipleksacji przestrzennej zapewniane przez wysokowydajną technologię MIMO może przezwyciężyć tłumienie opadów i zanikanie atmosferyczne związane z propagacją fali terahercowej, a także może spełnić wymagania dotyczące zasięgu gęstych obszarów miejskich (takich jak promień komórki 200 m). W porównaniu z bezprzewodową komunikacją optyczną fala terahercowa ma niższą energię fotonów i może być wykorzystywana jako nośnik w celu uzyskania wyższej wydajności energetycznej. W porównaniu z bezprzewodową komunikacją optyczną, system komunikacji terahercowej nie jest wrażliwy na efekty atmosferyczne w zewnętrznej komunikacji bezprzewodowej. W wewnętrznej komunikacji bezprzewodowej fala terahercowa jest łatwiejsza do śledzenia wiązki niż pasmo optyczne, co może zwiększyć mobilność systemu komunikacji bezprzewodowej. Ponadto, system komunikacji terahercowej ma tę zaletę, że dzięki wykorzystaniu ścieżki odbicia można poprawić wzmocnienie łącza w scenie wewnętrznej. Ze względu na swoje unikalne cechy komunikacja terahercowa ma wiele zalet w porównaniu z mikrofalową i bezprzewodową komunikacją optyczną, co oznacza, że fala terahercowa ma szerokie perspektywy zastosowań w szerokopasmowej komunikacji bezprzewodowej o dużej prędkości i krótkim zasięgu, szerokopasmowym bezprzewodowym dostępie bezpieczeństwa, komunikacji kosmicznej i innych dziedzinach. Chociaż fala terahercowa ma niezastąpione zalety w komunikacji mobilnej, wciąż stoi przed nią wiele wyzwań. Charakterystyki propagacji fali elektromagnetycznej pokazują, że amplituda zanikania w wolnej przestrzeni jest proporcjonalna do kwadratu częstotliwości, więc amplituda zanikania w wolnej przestrzeni w terahercu jest znacznie większa niż w paśmie niskich częstotliwości. Charakterystyki propagacji fali terahercowej i duża liczba szyków antenowych oznaczają, że komunikacja terahercowa zależy od wysokiej propagacji kierunkowej. Zgodnie z charakterystyką wysokiego sygnału kierunkowego, odpowiedni mechanizm musi być zaprojektowany i zoptymalizowany. Tłumienie przeszkód to kolejna wada fali terahercowej. Na przykład tłumienie cegły jest tak wysokie, jak 40 ~ 80dB, a ludzkie ciało może przynieść tłumienie sygnału 20 ~ 35dB. Jednak wpływ zanikania wilgoci/opadów deszczu na komunikację terahercową jest stosunkowo niewielki. Poniżej 100GHz tłumienie wilgotności/opadu gwałtownie wzrasta wraz ze wzrostem częstotliwości. W przyszłości jako typowe terahercowe pasma komunikacyjne można wybrać kilka pasm terahercowych z małym tłumieniem deszczu.

Urządzenia terahercowe
Źródła terahercowe


Pasmo terahercowe jest znacznie wyższe niż pasmo mikrofalowe i niższe niż pasmo optyczne. Dlatego trudno jest wygenerować falę terahercową tylko przy użyciu urządzeń elektronicznych generujących sygnały mikrofalowe lub urządzeń fotonicznych generujących sygnały optyczne. Do tej pory sygnały terahercowe były zwykle generowane przez urządzenia elektroniczne poprzez podwojenie częstotliwości lub przez urządzenia fotoniczne poprzez mieszanie optyczne. Istnieją dwa rodzaje sygnału terahercowego: sygnał impulsowy i sygnał ciągły. Impulsowy sygnał terahercowy jest szeroko stosowany w systemie terahercowym, takim jak spektrometr terahercowy w dziedzinie czasu. Zwykle istnieje pięć powszechnych źródeł terahercowych. Pierwszym z nich jest kwantowy laser kaskadowy, który wykorzystuje zaawansowane metody wytwarzania heterostruktur półprzewodnikowych, aby uniknąć ograniczenia półprzewodnikowej przerwy energetycznej. Jego warstwa półprzewodnikowa jest bardzo cienka. Kiedy elektrony przechodzą z jednej warstwy do drugiej, prowadzi to do przejścia o bardzo niskiej energii. Fala terahercowa znajduje się w paśmie promieniowania emisyjnego. Od 2002 r. kwantowe lasery kaskadowe poczyniły szybkie postępy w zakresie pokrycia częstotliwości, mocy wyjściowej i temperatury roboczej, co może wytwarzać źródła fal terahercowych o mocy powyżej 10 mW. W ostatnich latach CMOS rozwijał się bardzo szybko. Ta technologia ma zalety wysokiej integracji, niewielkich rozmiarów i niskich kosztów. Zdolność CMOS do wysokich częstotliwości zapewnia rozwiązanie problemu fali terahercowej o niskiej częstotliwości, co jest realizowane poprzez dodanie oscylatora sterowanego napięciem (VCO) lub wstawienie aktywnego łańcucha mnożenia do urządzeń CMOS. Częstotliwość pasma niskich częstotliwości można podwoić do pasma terahercowego za pomocą innego mnożnika częstotliwości. Obwód terahercowy CMOS jest realizowany przez skalowanie procesu. W 2006 r. częstotliwość odniesienia wzmocnienia mocy oparta na procesie 65 nm CMOS osiągnęła 420 GHz. Zastosowano jednoosiowe napięte tranzystory krzemowe o długości bramki fizycznej 29 nm. Częstotliwość odcięcia tranzystora osiągnęła w 2007 r. 485 GHz w technologii mikroprocesorowej 45 nm. Układ składa się z terahercowego VCO i obwodu pętli fazowej, co umożliwia urządzeniu generowanie setek przebiegów gigahercowych. Nadajnik 40nm CMOS o częstotliwości odcięcia 300GHZ jest używany do osiągnięcia szybkości transmisji danych 105Gbps. Chociaż technologie HBT i HEMT mogą uzyskać wyższą moc wyjściową źródła wysokiej częstotliwości, CMOS jest nadal atrakcyjnym kandydatem na technologię terahercową ze względu na niski koszt i wysoką gęstość integracji. Trzecim powszechnie używanym źródłem terahercowym jest antena fotoprzewodząca. Impuls terahercowy generowany przez antenę fotoprzewodzącą ma kilka unikalnych cech, takich jak asymetryczne natężenie dodatnich i ujemnych składowych pola terahercowego, quasi półokres charakterystyczny, stosunkowo niska częstotliwość środkowa i niskie pasmo częstotliwości (zwykle 0,05-1 THz). W badaniu nieliniowych zjawisk terahercowych niska częstotliwość terahercowa sprzyja generowaniu silnych pól, które mogą skutecznie napędzać elektrony w wielu zjawiskach nieperturbacyjnych. Kierując się tą unikalną cechą, w połączeniu z szybkim rozwojem laserów wzmacniających Ti: szafirowe, ludzie zaczęli generować intensywne impulsy terahercowe z anten fotoprzewodzących. Metoda bezpośrednia polega na zwiększeniu apertury analizy składowych głównych (PCA), dzięki czemu badane jest generowanie silnego impulsu terahercowego przez antenę fotoprzewodzącą o dużej aperturze. W rzeczywistości warto zauważyć, że antena fotoprzewodząca o dużej aperturze jest pierwszą metodą generowania silnego impulsu terahercowego opartą na laserze. Na długo zanim ludzie zwrócą uwagę na silne źródło terahercowe i jego zastosowanie, optyczna jonizacja lasera dużej mocy w powietrzu może również generować silną falę terahercową. Zaletą tej metody jest to, że plazma w powietrzu jest ośrodkiem nieliniowym, a intensywność lasera jest większa niż próg uszkodzenia nieliniowego kryształu lub anteny fotoprzewodzącej. Chomik i in. zademonstrował tę technikę po raz pierwszy. W badaniach tych do jonizacji cząsteczek gazu wykorzystywane są femtosekundowe impulsy laserowe o energii do 50 mJ. Później polaryzacja prądu stałego jest przykładana do skupionej pozycji wiązki laserowej za pomocą elektrod, aby pole elektryczne było prostopadłe do kierunku propagacji lasera. Pole elektryczne prądu stałego jest wykorzystywane do przyspieszania elektronów w plazmie, co powoduje wzrost amplitudy spójnego impulsu terahercowego. Ta technika nazywa się DC bias. Jednak przebicie powietrza spowodowane wysokim napięciem polaryzacji ogranicza wzmocnienie pola terahercowego. W tym samym okresie zaproponowano metodę polaryzacji drugiej harmonicznej, która generowała pole o wyższych terahercach w oparciu o podstawową kombinację lasera impulsowego i jego drugiej harmonicznej. W porównaniu z techniką monochromatyczną amplituda pola terahercowego jest zwiększona 40-krotnie. Impuls femtosekundowy o długości 800 nm generowany przez wzmocniony laser Ti: szafir skupia się w gazie, tworząc plazmę. Kryształ wytwarzający drugą harmoniczną, zwykle boran baru (BB), jest umieszczony przed ogniskiem i wytwarza 400 nm światła. Proces generowania teraherców jest wrażliwy na względną fazę dwóch kolorów, którą można regulować, zmieniając położenie kryształu za pomocą dyspersji powietrznej lub szklanej płytki z przesunięciem fazowym. Ze względu na doskonałe właściwości elektrooptyczne grafenu, technologia grafenowa stała się obiecującą technologią źródła terahercowego. Metale są kolejnym obiecującym materiałem dla źródeł terahercowych, ponieważ wykazują niezależną od długości fali absorpcję dużej pompy, krótki czas życia elektronów (10 do 50 fs), niecharakterystyczny terahercowy współczynnik załamania światła (dla bezproblemowej emisji) i dużą przewodność cieplną (skuteczne usuwanie nadmiaru ciepła). Ponadto technologia stosu folii metalowej (heterostruktura) jest również bardzo dojrzała. Pełny potencjał emiterów metali terahercowych jest daleki od wykorzystania.

Modulatory terahercowe

Modulator terahercowy jest kluczowym elementem systemu terahercowego, który ma szeroki zakres zastosowań, od obrazowania po komunikację. Kluczem do realizacji szybkiej komunikacji z falą terahercową jest kodowanie informacji za pomocą szybkich i skutecznych modulatorów amplitudy i fazy w fali nośnej. W ostatnich latach odkrycie metamateriałów dostarczyło nowych rozwiązań do elastycznej regulacji promieniowania elektromagnetycznego w paśmie terahercowym. Połączenie metamateriałów i technologii półprzewodnikowej dokonało znaczącego przełomu w dynamicznych urządzeniach funkcjonalnych terahercowych i dokonało niezwykłych osiągnięć w zakresie modulacji amplitudy i fazy terahercowej. Ponadto grafen i inne nowe materiały dwuwymiarowe położyły podwaliny pod rozwój elektronicznych i optycznych modulatorów terahercowych.

Modulator amplitudy terahercowej

Modulacja amplitudy fali terahercowej jest jedną z najczęstszych metod modulacji. Przy projektowaniu modulatora amplitudy terahercowego istnieją dwa wyzwania: jednym jest prędkość modulacji, drugim jest głębokość modulacji. Ponieważ naturalne materiały nie mogą skutecznie i szybko kontrolować fali terahercowej, konieczne jest znalezienie odpowiednich materiałów i struktur do realizacji szybkiej modulacji fali terahercowej. Obecnie materiałami stosowanymi w modulatorze terahercowym są materiały kompozytowe 2DEG (takie jak GaN-HEMT) oraz materiały dwuwymiarowe (takie jak grafen). W paśmie terahercowym przyszłym kierunkiem rozwoju są materiały sztuczne o czasie reakcji poniżej 1 pikosekundy. Dodatkowo obecny mechanizm polega na łączeniu struktury z półprzewodnikami, co skutkuje wysoką odpornością pasożytniczą i pojemnością, co znacznie ogranicza prędkość modulacji. Dlatego modulator amplitudy terahercowej powinien uwzględniać nowy mechanizm o bardziej zwartej strukturze i niższych parametrach pasożytniczych i nie może całkowicie polegać na koncepcji modowej metamateriałów lub metapowierzchni. Ponadto obwód dopasowania impedancji odgrywa coraz większą rolę w szybkiej modulacji powyżej 10 Gb/s, co wpływa na szybkość modulacji i szybkość modulacji. Podstawowy mechanizm modulacji jest jednym z kluczowych punktów w badaniach nad modulatorem. Jednocześnie więcej uwagi należy skoncentrować na rozsądnym zaprojektowaniu jego obwodu sterującego. Replikację fal terahercowych można skutecznie kontrolować poprzez wstrzykiwanie lub wyczerpywanie nośników w materiałach półprzewodnikowych. W 2006 roku laboratorium Amos w Las Vegas zaproponowało sztuczny mikrostrukturalny modulator terahercowy. W oparciu o zasadę diody Schottky′ego głębokość modulacji może osiągnąć 50% poprzez zmianę stężenia nośnika rezonatora z dzielonym pierścieniem. Podobnie, poza modulacją elektryczną, nośniki generowane przez fotony w półprzewodnikach mogą być zmieniane przez optyczne domieszkowanie półprzewodników. W 2010 roku N.h. Shen zademonstrował przestrajalny metamateriał przesunięty w kierunku niebieskim, realizowany optycznie w terahercach. Zakres strojenia urządzenia może osiągnąć 26% (od 0,76 THz do 0,96 THz) dzięki optycznej kontroli krzemu. Zaproponowano modulator terahercowy łączący tranzystor o wysokiej ruchliwości elektronów (HEMT) i SRR do szybkiej modulacji. W 2011 r. D. Shrekenhamer po raz pierwszy zaproponował sterowany elektronicznie kompozytowy modulator terahercowy oparty na HEMT / SRR, który może realizować modulację z dużą prędkością fali terahercowaej. Dla fali THz o częstotliwości 0,46 THz prędkość modulacji urządzenia wynosi około 10 MHz. Od tego czasu zaproponowano różne struktury złożone z metamateriałów i HEMT. W 2015 r. Y. X. Zhang zademonstrował kompozytową strukturę metamateriału opartą na równoważnym zbiorowym układzie dipolowym z dwukanałową niejednorodnością, aby uzyskać wydajny, ultraszybki, całkowicie bramkowany elektronowo modulator terahercowy. Po raz pierwszy modulator terahercowy realizuje dynamiczny test w czasie rzeczywistym prędkości modulacji 1 GHz i głębokości modulacji 85%. W ostatnich latach w modulatorach terahercowych zastosowano wiele nowatorskich materiałów odpowiedzi fotoelektrycznej, takich jak grafen. W 2014 roku naukowcy z Rice University zastosowali grafen jednowarstwowy z otworami w metalowym pierścieniu i przyłożyli napięcie siatki, aby osiągnąć 50% głębokość modulacji. W 2015 r. naukowcy z Politechniki Nanyang zgłosili monolityczne zintegrowane urządzenie składające się z grafenowych i terahercowych laserów kaskadowych, które osiągnęło zakres głębokości modulacji od 94% do 100% i częstotliwość modulacji 100 MHz w określonym regionie. W 2017 roku naukowcy z University of Maryland w Stanach Zjednoczonych pokryli powierzchnię pasywnego krzemowego falowodu dielektrycznego folią grafenową, a maksymalna głębokość modulacji wynosiła ponad 90% poniżej napięcia bramki zewnętrznej. Dwutlenek wanadu (VO2) o charakterystyce przejścia fazowego jest również szeroko stosowany w modulatorach terahercowych. Na przykład naukowcy z Uniwersytetu Nauk Elektronicznych i Technologii w Chinach z powodzeniem opracowali modulator terahercowy o częstotliwości modulacji 10 MHz i głębokości modulacji ponad 85%. Naukowcy z University of Pennsylvania przygotowali pamięć cyfrową, która wykorzystuje przejście fazowe dwutlenku wanadu do eliminacji zapisów odczytu i zapisu. Ponadto w konstrukcji modulatora terahercowego wykorzystywane są również inne nowe materiały półprzewodnikowe. W 2016 roku naukowcy z Uniwersytetu Nankai zbudowali optycznie pompowany modulator terahercowy przy użyciu nowego dwuwymiarowego materiału MoS2.

Modulator fazy terahercowej

Oprócz modulacji amplitudy, modulator fazy terahercowej jest również jednym z obszarów badawczych modulatora terahercowego. W 2009 r. pomyślnie opracowano pierwszy terahercowy modulator fazowy oparty na niedomieszkowanej strukturze metamateriału z dzieloną wnęką metalową GaAs. Przesunięcie fazowe o 30 stopni uzyskuje się poprzez elektryczne dostrojenie gęstości nośnika w pobliżu szczeliny SRR i zmianę trybu rezonansowego L-C. Później, w strukturze obciążonej GaAs, zastosowano zewnętrzny ultrakrótki impuls laserowy do zmiany rezonansu dipolowego w strukturze, aby uzyskać przesunięcie fazowe o 40-50 stopni. Ponadto zaproponowano asymetryczną strukturę podwójnego pierścienia dzielonego sterowaną przełącznikiem z przesunięciem fazowym 32,2 stopnia. Chociaż te elektrycznie przestrajalne i optycznie przestrajalne materiały mogą osiągnąć pewną modulację fazową, nadal poważnym wyzwaniem jest uzyskanie większego przesunięcia fazowego. Zastosowanie nowych materiałów daje nowe możliwości rozwiązania tego problemu. W 2016 r. Y. Urade zaproponował rekonfigurowalny planarny metamateriał, który może przełączać się między reakcją pojemnościową a indukcyjną poprzez lokalną zmianę przewodności materiału przestrajalnego. Oparte na zasadzie Babineta urządzenie wykorzystuje pojedynczą odpowiedź elektromagnetyczną konstrukcji metalowej szachownicy. Metapowierzchnia inwertera Babinet z termostatem może być używana jako przełączany filtr i przełączany przesuwnik fazowy. Podobnie jak modulator amplitudy, HEMT nadaje się również do projektowania modulatorów fazowych THz. W 2017 roku pomyślnie opracowano HEMT (tranzystor wysokiej mobilności). Przy napięciu odwróconej bramki 4 V modulator terahercowy ma 80% głębokość modulacji przy 0,86 THz i przesunięcie fazowe 38,4o przy 0,77 THz. Jednocześnie wysoka prędkość przełączania HEMT oznacza, że modulator terahercowy ma wysoki potencjał prędkości modulacji. W 2018 roku, w celu uzyskania dużego przesunięcia fazowego, zaproponowano kompozytowy rezonator hantli z obciążeniem VO2. Wyniki pokazują, że istnieje mod mieszany o zwiększonej intensywności rezonansu, który powstaje w wyniku sprzężenia rezonansu L-C i rezonansu dipolowego. Dzięki wykorzystaniu fotoindukowanego przejścia fazowego VO2 intensywność rezonansu modu jest dynamicznie kontrolowana, co powoduje, że padająca fala terahercowa powoduje duże przesunięcie fazowe. Dynamiczne wyniki eksperymentalne China Telecom z lutego 2019 r. pokazują, że przesunięcie fazowe o 138 stopni można osiągnąć, kontrolując moc zewnętrznego lasera za pomocą tej jednowarstwowej struktury kompozytowej obciążonej VO2. Ponadto przesunięcie fazowe przekracza 130 stopni w paśmie 55 GHz (575-630 GHz). Odkrycie metamateriałów znacznie poprawiło naszą zdolność do regulowania terahercowego promieniowania elektromagnetycznego. Połączenie metamateriałów i technologii półprzewodnikowej dokonało wielkiego przełomu w dynamicznym modulatorze terahercowym. Metamateriały i metapowierzchnie uzyskują nowe właściwości i funkcje elektromagnetyczne poprzez cięcie struktur o długości subfalowej i integrację materiałów funkcjonalnych. W przypadku modulatorów fazowych, oprócz szybkości modulacji, kolejnym wielkim wyzwaniem jest uzyskanie dużego liniowego przesunięcia fazowego.

Anteny terahercowe

Dzięki nowo wynalezionemu terahercowemu źródłu światła system terahercowy przeniknął do różnych zastosowań. Jedną z najważniejszych technologii w terahercowym systemie komunikacyjnym jest zaprojektowanie wydajnej terahercowej anteny nadawczo-odbiorczej. W obecnym systemie terahercowym antena jest kluczowym elementem nadawania i odbierania fali terahercowej. W trybie tradycyjnym źródło sygnału i antena są zwykle traktowane jako dwie niezależne części. W systemie terahercowym może być konieczne rozważenie części źródła i promieniowania jako całości, szczególnie w przypadku terahercowego systemu spektroskopii w dziedzinie czasu. Konstrukcja anteny dla źródeł pasma terahercowego wymaga więcej uwagi niż konstrukcja anteny o niskiej częstotliwości. Antena fotoprzewodząca jest najczęściej stosowaną anteną w systemie terahercowej spektroskopii w dziedzinie czasu. Ta metoda została po raz pierwszy zaproponowana przez Austona i jego współpracowników na początku lat osiemdziesiątych. Laser 800 nm jest kierowany na dzielnik wiązki, który dzieli laser na impuls pompy i impuls detekcyjny. Promieniowanie terahercowe jest generowane na antenie fotoprzewodzącej poprzez pompowanie impulsu, a następnie ponownie ogniskowane przez pozaosiowe lustro paraboloidowe. Po przejściu przez próbkę fala terahercowa jest ponownie skupiana na detektorze. Impuls sondy jest opóźniany przez linię opóźnienia, aby wygenerować opóźnienie w porównaniu z impulsem pompy. Czas trwania impulsu laserowego to femtosekunda, który jest znacznie krótszy niż pikosekunda terahercowa. Ten mechanizm wykrywania może zapewnić wystarczającą częstotliwość próbkowania z rozdzielczością czasową. Antena tubowa jest również jednym z najczęściej stosowanych typów anten w paśmie terahercowym. W dużych/submilimetrowych układach Atacama (ALMA) i teleskopach Planck jako źródła zasilania wykorzystywane są anteny tubowe. Są ułożone na płaszczyźnie ogniskowej. Ponad 12 trybów karmienia pracujących na różnych częstotliwościach. Zakres częstotliwości tuby Planck wynosi 27,5-870 GHz, czyli odpowiednio 30 GHz, 44 GHz, 70 GHz, 100 GHz, 143 GHz, 217 GHz, 353 GHz, 545 GHz i 857 GHz. W rzeczywistości rogi terahercowe są zwykle połączone z falowodami, które wcześniej określały maksymalną częstotliwość 330 GHz. Nowo zatwierdzony standardowy prostokątny falowód metalowy do zastosowań terahercowych rozszerzył częstotliwość roboczą do 5 THz. Ponadto fizyczny rozmiar falowodów terahercowych mieści się w zakresie mikronów, co stanowi wyzwanie dla przemysłu wytwórczego. Anteny reflektorowe są szeroko stosowane od komunikacji mikrofalowej po teleskopy optyczne. Anteny reflektorowe są zwykle duże elektrycznie i mają średnice w zakresie od kilku do setek długości fal. Ten rozmiar elektroniczny zwykle zapewnia obszar odbiorczy o dużym wzmocnieniu lub wysokiej wydajności. Ogólnie rzecz biorąc, duże elektrycznie anteny zapewniają bardzo wąskie wiązki, szerokość wiązki 3dB jest zwykle kilka stopni lub nawet węższa. Ten rodzaj wąskiej wiązki ma duże wzmocnienie ze względu na koncentrację energii, co ma ogromne znaczenie w zastosowaniach teledetekcyjnych. Chociaż pojedyncza antena reflektorowa jest szeroko stosowana w falach mikrofalowych i milimetrowych, rzadko jest używana w paśmie terahercowym. Jednym z przykładów jest instalacja głównej anteny na ładunku zaawansowanej jednostki detekcji mikrofalowej B (AMSU-B). W paśmie terahercowym odbłyśnik paraboliczny jest typu Cassegraina lub Gregory′ego. Teleskop Plancka przyjmuje strukturę polaryzacji, a teleskop Herschel strukturę sprzężenia do przodu. Główna antena teleskopu Planck ma średnicę 1,5 metra, podczas gdy główny dysk teleskopu Herschela jest znacznie większy i ma średnicę 3,5 metra. Antena może wykrywać kosmiczne promieniowanie tła i sygnał głębokiej przestrzeni o wzmocnieniu 70dB. Obserwatoria naziemne również wykorzystują elektrycznie duże anteny lub tablice reflektorowe. Zestaw anten ALAMA posiada antenę o średnicy 7 lub 12 metrów. Taki układ tworzy interferometr, który może wykrywać sygnały z głębokiej przestrzeni z rozdzielczością kątową 0,1 akra. Zakres częstotliwości macierzy ALAMA to 31-950GHz. Wykorzystywane są również centra sferyczne, takie jak zwierciadło główne FAST w budowie w Chinach i Obserwatorium Arecibo w Chile. Potencjalnym zastosowaniem fali terahercowej jest czujnik i komunikacja. Aby zrealizować szybkie śledzenie i celowanie, potrzebna jest również dynamiczna kontrola wiązki w paśmie terahercowym, a dynamiczna antena skanująca jest również pilnym problemem do rozwiązania. Podjęto wczesne próby skanowania wiązek przy bardzo wysokich częstotliwościach, w tym trwające badania nad matrycami refleksyjnymi opartymi na MEMS 120 GHz. Częstotliwości te można uznać za górne granice stosowalności standardowej technologii RF-MEMS, ponieważ komponenty MEMS stają się zbyt duże, aby można je było skutecznie zintegrować z elementami tablicy. Dlatego bardzo ważne jest przestudiowanie technologii opartej na materiałach rekonfigurowalnych. Powszechnie stosowane materiały rekonfigurowalne obejmują ciekłokrystaliczny (LCS) i grafen. Ciekły kryształ jest rodzajem powszechnego rekonfigurowalnego materiału, a jego anizotropowy tensor przenikalności może być modyfikowany przez przyłożone pole polaryzacji. W laboratorium współczynnik odbicia ciekłokrystalicznego można regulować napięciem polaryzacji za pomocą tablicy odbiciowej obciążonej LCS. Ponadto skanowanie wiązką terahercową można również zrealizować przy użyciu grafenu. W tym przypadku dynamiczna kontrola fazy realizowana jest poprzez przyłożenie napięcia polaryzacji na pobliską elektrodę (tzw. efekt pola grafenowego). Te koncepcje struktury LC i grafenu oparte są na typowej topologii jednostki rezonansowej. W przypadku LC parametry podłoża można kontrolować, podczas gdy w przypadku grafenu podłoże jest stałe, ale rezonans można zmienić, zmieniając przewodność kompozytową arkusza grafenowego. Jako najczęstsza antena nadawczo-odbiorcza w systemie terahercowym, główną wadą anteny fotoprzewodzącej jest niska wydajność konwersji energii. Chociaż antena fotoprzewodząca nazywana jest anteną, jest również zintegrowanym generatorem sygnału terahercowego. W celu poprawy jego kierunkowości i mocy promieniowania badano różne metody. Obecnie istnieje kilka rozwiązań poprawiających wydajność anteny fotoprzewodzącej: 1) zastosowanie źródła pompy laserowej o dużym natężeniu i wąskiej szerokości impulsu; 2) Optymalizacja półprzewodnikowego materiału podłoża; 3) zmianę struktury anteny w celu zwiększenia napięcia przebicia podłoża; 4) poprawa wydajności transmisji fali terahercowej na antenie; 5) poprawa skuteczności sprzężenia przestrzennego fali terahercowej; 6) stosowanie warstw antyodblaskowych, takich jak azotek krzemu, dwutlenek krzemu, tlenek indu i cyny na powierzchni podłoża półprzewodnikowego w celu zmniejszenia odbicia mocy światła padającego, ale ta metoda jest stosunkowo kosztowna; 7) integracja metamateriałów w antenach fotoprzewodzących. Metoda ta ma dwie zalety: jedną jest rozszerzenie swobody optymalizacji anten fotoprzewodzących poprzez wprowadzenie metamateriałów. Drugim jest optymalizacja projektowania metamateriałów pod kątem jednej wydajności bez wpływu na inne parametry. Inne anteny o wysokim zysku, takie jak antena tubowa i antena reflektorowa, często mają problemy produkcyjne w zakresie terahercowym ze względu na krótką długość fali o wysokiej częstotliwości. Chętnie poszukuje odpowiedniej metody projektowania anten terahercowych o wysokiej wydajności, niskich kosztach i wysokim zysku.

Detektory terahercowe

Antena fotoprzewodząca jest również detektorem spójnej fali terahercowej. Mechanizm wykrywania fali terahercowej przez antenę fotoprzewodzącą jest podobny do mechanizmu anteny fotoprzewodzącej, co jest procesem odwrotnym bez napięcia polaryzacji. W detektorze do analizy głównych składowych (PCA), femtosekundowe impulsy laserowe oświetlają przerwę między głównymi składowymi i pobudzają nośniki do pasma przewodzącego. Podobnie jak w przypadku metody generowania teraherców, falę terahercową można wykryć za pomocą technologii plazmy powietrznej indukowanej laserem. Silny impuls terahercowy może być również ultraszerokopasmowy (pasmo 0,1-200 THz), dlatego konieczne jest zmierzenie i pokrycie całego widma. Jednym z wyzwań w pomiarach ultraszerokopasmowych impulsowych pól elektrycznych terahercowych jest zapotrzebowanie na lasery o dużej mocy, które zwykle mają ograniczoną częstotliwość powtarzania. W porównaniu z laserem o wysokiej częstotliwości powtarzalności, laser o dużej mocy ma większe fluktuacje wiązki, co znajduje również odzwierciedlenie w stabilności między wiązkami silnego impulsu terahercowego, zwłaszcza w przypadku nieliniowej technologii optycznej. Dlatego tradycyjna technologia sond skanujących jest trudna do zmierzenia pola terahercowego, co zwykle wymaga od kilku minut do kilku godzin stabilnego sygnału wyjściowego terahercowego, co zależy od pola terahercowego, częstotliwości powtarzania lasera i wielkości kroku skanowania. Ponadto w wielu przypadkach potrzebna jest technologia pomiaru pojedynczego impulsu UWB, aby dokładnie scharakteryzować te silne impulsy terahercowe. Ta technika pomiaru pojedynczego teraherca będzie również bardzo przydatna w niektórych eksperymentach obejmujących procesy nieodwracalne. Absorber terahercowy to inny rodzaj detektora terahercowego. Chociaż nie ma konwersji ze światła na sygnał elektryczny, może wchłonąć wszystkie fale 100% terahercowe. Metapowierzchnia obciążona grafenem jest typowym absorberem terahercowym do realizacji wysokiej i ultraszerokopasmowej absorpcji. Poza tym tradycyjne dyski Nipkowa mogą być również używane jako detektor terahercowy do obrazowania

Aplikacje
Obrazowanie


Jako fala elektromagnetyczna, terahercowa fala świetlna ma właściwości obrazowania podobne do światła widzialnego i światła podczerwonego. Pozwala uzyskać dobre wyniki obrazowania w spójnych i niekoherentnych polach. W szczególności fala terahercowa ma specyficzne właściwości pasma podczerwieni, takie jak przepuszczalność i hydrofilowość, w celu wykrywania ukrytych celów. Według różnych metod obrazowania obrazowanie terahercowe można podzielić na obrazowanie pasywne i obrazowanie aktywne. Obrazowanie pasywne wykrywa głównie promieniowanie terahercowe samej próbki. Istnieje dodatnia korelacja między natężeniem promieniowania terahercowego a temperaturą. Temperatura ludzkiego ciała jest zwykle wyższa niż temperatura otoczenia, więc ludzkie ciało będzie promieniować silniejszą falą terahercową, która bardzo różni się od charakterystyki promieniowania metalu, dielektryka i innych materiałów. Dzięki silnej penetracji fali terahercowej zwykłą tkaninę, papier itp. można szybko wykryć. Chociaż zasada obrazowania pasywnego jest stosunkowo prosta, nadal istnieje wiele problemów w praktycznym zastosowaniu. Po pierwsze, ze względu na wpływ czułości istniejących detektorów terahercowych i szumu fotonowego, promieniowanie terahercowe emitowane przez ludzkie ciało jest na ogół słabe, a rozdzielczość obrazowania niska. Po drugie, ze względu na ingerencję otoczenia w promieniowanie terahercowe, szum obrazowania systemu jest na ogół duży, a stosunek sygnału do szumu niski. Aby poprawić niezawodność i praktyczność pasywnego systemu obrazowania terahercowego, naukowcy opracowali różne metody poprawy obrazu dla pasywnego systemu obrazowania terahercowego, takie jak odszumianie falek, wyrównywanie histogramu, filtrowanie krawędzi, segmentacja obrazu itp. Metody te mogą poprawić jakość obrazu i do pewnego stopnia zredukować szum obrazu. W przypadku aktywnego systemu obrazowania terahercowego jakość obrazowania jest znacznie lepsza w porównaniu z pasywnym obrazowaniem terahercowym ze względu na wysoką moc promieniowania. Jednocześnie silna spójność wiązki promieniowania terahercowego sprawia, że rozwija się ona szybko w dziedzinach obrazowania holograficznego, obrazowania CT, obrazowania bezsoczewkowego i obrazowania interferencyjnego terahercowego. Aktywny system obrazowania terahercowego zwykle obejmuje: stabilny ciągły generator terahercowy, moduł kształtowania wiązki, ogniskującą ścieżkę optyczną, ścieżkę optyczną wykrywania terahercowego (zwykle przy użyciu matrycy ogniskowej FPA) i mechaniczny system kontroli skanowania. Według różnych metod obrazowania, aktywne obrazowanie terahercowe można podzielić na obrazowanie transmisyjne i obrazowanie odbicia (rozpraszania). W porównaniu z systemem transmisji, system odbicia może nie tylko rozpoznać ukryty cel, ale także uzyskać cechy powierzchni ukrytego celu. Zwłaszcza w małym sprzęcie do kontroli bezpieczeństwa system odbicia może znacznie zmniejszyć objętość sprzętu do kontroli bezpieczeństwa i skutecznie obniżyć koszty rozwoju systemu.

Różnica w stosunku do innych rodzajów komunikacji

Długość fali terahercowej mieści się między falą milimetrową a falą podczerwoną, co ma swoje szczególne zalety komunikacyjne. W porównaniu z falą milimetrową fala terahercowa może uzyskać wyższą szybkość transmisji danych i kierunkowość łącza, fale terahercowe mają krótsze długości fal niż fale milimetrowe, więc dyfrakcja w wolnej przestrzeni jest mniejsza. Dlatego użycie małej anteny o dobrej kierunkowości w komunikacji terahercowej może zmniejszyć wymagania dotyczące mocy transmisji i do pewnego stopnia zmniejszyć zakłócenia sygnału między różnymi antenami. Inną interesującą cechą jest to, że w paśmie terahercowym prawdopodobieństwo podsłuchiwania jest mniejsze niż w przypadku fali milimetrowej. Wynika to z dużej kierunkowości wiązek terahercowych, co oznacza, że nieautoryzowani użytkownicy muszą przechwytywać wiadomości na tej samej wąskiej szerokości wiązki. W komunikacji bezprzewodowej wykorzystanie promieniowania podczerwonego jest jednym z najbardziej atrakcyjnych i obiecujących wyborów w zakresie widma radiowego. W niesprzyjających warunkach pogodowych, takich jak mgła, kurz i turbulencje, pasmo terahercowe jest dobrą alternatywą dla komunikacji w podczerwieni. W porównaniu z pasmem podczerwieni tłumienie mgły w paśmie terahercowym jest mniejsze. Ostatnie wyniki eksperymentów pokazują, że turbulencje atmosferyczne mają duży wpływ na sygnał podczerwony, ale mają niewielki wpływ na sygnał terahercowy. Ponadto tłumienie pyłu chmurowego powoduje, że kanał podczerwieni jest mniejszy, ale ma niewielki wpływ na sygnał terahercowy. Pod względem szumów na system terahercowy nie ma wpływu źródło sygnału światła otoczenia. Ze względu na niską energię fotonów w paśmie terahercowym szum termiczny również ma duży udział w całkowitym szumie. Komunikacja w świetle widzialnym (VLC) przyciągnęła wiele uwagi ze względu na swoją korzyść w zakresie zużycia energii, objętości, kosztów i czasu trwania. Może obsługiwać pozycjonowanie w pomieszczeniach, interakcję człowiek-komputer, komunikację między sprzętem, siecią pojazdów, sygnalizacją świetlną, wyświetlaniem reklam i innymi ważnymi aplikacjami i aplikacjami. Szybkość transmisji danych w dużej mierze determinuje spójność pola widzenia pomiędzy odbiornikiem a odbiornikiem, ale jest to trudne do utrzymania ze względu na wpływ ruchu i kierunku odbiornika. Ponadto interferencja światła otoczenia może znacznie obniżyć stosunek odbieranego sygnału do szumu i jakość komunikacji. Pasmo terahercowe jest uważane za potencjalne pasmo częstotliwości dla komunikacji uplink, której brakuje w komunikacji VLC. Ponadto udowodniono, że głębokie pasmo ultrafioletowe (200-280 nm) jest naturalnym kandydatem do komunikacji NLOS krótkiego zasięgu (znanej również jako komunikacja z rozpraszaniem światła). W porównaniu z głębokim ultrafioletowym łączem, pasmo terahercowe jest uważane za największego konkurenta. W odróżnieniu od komunikacji UV, komunikacja UV ogranicza zdrowie i bezpieczeństwo oczu i skóry, natomiast pasmo terahercowe jest niejonizujące, co jest bardzo przyjazne dla zdrowia użytkowników. Komunikacja fal terahercowych ma wiele zalet, takich jak wysoka szybkość transmisji, wysoka odporność na zakłócenia, przyjazna dla środowiska itp. Łączy w sobie zalety komunikacji fal milimetrowych, podczerwieni i światła widzialnego i jest jednym z potężnych kandydatów do komunikacji.

KOMUNIKACJA BEZPRZEWODOWA TERAHERTZ

Systemy komunikacji bezprzewodowej Terahertz


Chociaż system komunikacji bezprzewodowej THz ma duże zalety w porównaniu z tradycyjnym systemem komunikacji, system komunikacji bezprzewodowej THz został opracowany dopiero w XXI wieku ze względu na brak niezbędnych warunków wsparcia technicznego. Półprzewodnikowy system komunikacji terahercowej i system komunikacji terahercowej z bezpośrednią modulacją przestrzeni to dwa powszechnie używane systemy komunikacji terahercowej. Ten pierwszy opiera się na mechanizmie miksowania, podczas gdy drugi bezpośrednio moduluje sygnał pasma podstawowego na sygnał o częstotliwości radiowej.

System półprzewodnikowy

Chociaż bezprzewodowa komunikacja terahercowa ma zalety wysokiej szybkości transmisji, przeciwdziałania zakłóceniom i niskiego poziomu szumów, jej rozwój był powolny ze względu na brak niezbędnego wsparcia sprzętowego. W ostatnich latach systemy komunikacji bezprzewodowej opierają się głównie na technologii kombinacji optoelektronicznej. Metoda ta jest jednak ograniczona wydajnością elementów optycznych, co nie sprzyja integracji i miniaturyzacji systemu. Poważnym wyzwaniem będzie integracja i przygotowanie systemu łączności terahercowej. Poniżej opisano kilka typowych, całkowicie półprzewodnikowych systemów komunikacyjnych terahercowych. Jednym z najbardziej typowych systemów komunikacji terahercowej jest półprzewodnikowy system komunikacji bezprzewodowej terahercowy opracowany przez Nippon Telegraph and Telephone Public Corporation (NTT) w 2008 roku [4]. Maksymalna odległość komunikacji to 3-4km. W ciągu najbliższych kilku lat NTT unowocześnia system i wymienia wszystkie optyczne urządzenia wzbudzające na InP HEMT MMICs, osiągając maksymalną prędkość transmisji danych 11,1Gbps, a także zrealizowano bezbłędną transmisję sygnału 10Gbps powyżej 800m. System może również realizować dwukierunkową szybkość transmisji danych 10 Gb/s oraz jednokierunkową szybkość transmisji danych 20 Gb/s. W 2013 roku Karlsruhe Institute of Technology (Kit) wdrożył całkowicie półprzewodnikowy system komunikacji bezprzewodowej o częstotliwości 0,24 teraherca, wykorzystujący zintegrowany obwód sprzętowy składający się z tranzystorów o wysokiej ruchliwości elektronów. Maksymalna prędkość transmisji systemu osiągnęła 40 Gbps, a odległość transmisji przekroczyła 1000 metrów. W 2016 roku University of Electronic Science and Technology w Chinach opracował eksperymentalny system komunikacji bezprzewodowej o częstotliwości 220 GHz, który realizował transmisję sygnału wideo 3D HD w czasie rzeczywistym na ponad 200 m i 3,52 Gb/s w środowisku zewnętrznym. Gdy szybkość transmisji danych wynosiła 3,52 Gb/s, bitowa stopa błędów wynosiła. W odbiorniku i nadajniku systemu zastosowano antenę Cassegraina, a do modulacji i demodulacji mikser subharmoniczny 220GHz.

System bezpośredniej modulacji

Wszystkie systemy komunikacji półprzewodnikowej THz mogą przyjąć tryb modulacji QPSK lub 16 kwadraturowej modulacji amplitudy (16-QAM), aby zrealizować transmisję danych o bardzo wysokiej szybkości, która jest obecnie najpopularniejszym trybem komunikacji bezprzewodowej. W ostatnich latach, wraz z szybkim rozwojem szybkich modulatorów terahercowych, system komunikacji terahercowej z bezpośrednią modulacją przyciąga coraz więcej uwagi. Wśród nich bezpośrednia modulacja systemu komunikacji THz staje się skutecznym sposobem realizacji transmisji danych na duże odległości.



Jak pokazano na rysunku, w pierwszym kroku ciągła fala nośna terahercowa jest generowana z nadajnika terahercowego, który może być źródłem elektronicznym półprzewodnikowym lub elektronicznym źródłem próżniowym. Następnie sygnał modulacji ASK szeregowego cyfrowego sygnału wideo HD z pasma podstawowego jest ładowany do modulatora w celu realizacji modulacji kluczowania on-off (OOK) nośnej THz. Jednocześnie fala THz jest przekazywana w pionie do modulatora, co skutkuje obciążeniem nośnej sygnału modulacji OOK. W trzecim kroku modulowana fala THz jest wypromieniowywana przez antenę paraboliczną w przestrzeni i odbierana przez inną antenę. Ponieważ fala terahercowa modulowana przez OOK może być próbkowana bezpośrednio, system może używać jako odbiornika detektora terahercowego lub miksera terahercowego. Wreszcie odebrany sygnał jest demodulowane i dekodowane cyfrowo. Pierwszy laboratoryjny system komunikacji THz został opracowany przy użyciu samodzielnie opracowanego źródła (łańcucha powielacza), modulatora i detektora. System umożliwia pracę modulatora out of space z dużą mocą i ma istotne zalety w bezprzewodowej transmisji danych na duże odległości. Dlatego system terahercowy z bezpośrednią modulacją może być stosowany do wszystkich rodzajów źródeł terahercowych, w tym źródeł fali ciągłej (CW). Ponadto system bezpośrednio ładuje dane do nośnej THz przez modulator, eliminując w ten sposób niekorzystny wpływ pogorszenia się szumu fazowego, gdy mikser harmoniczny jest używany jako konwerter ładowania danych. Dlatego bez użycia wzmacniacza terahercowego system może wyprowadzać modulowany sygnał terahercowy o mocy 5-10 MW, który jest o dwa rzędy wielkości wyższy niż w przypadku systemów mieszania i mechanizmów fotonicznych. Wydajność systemu komunikacji terahercowej w dużej mierze opiera się na modulatorze terahercowym. Jednak chociaż wydajność modulatora terahercowego szybko się rozwija, prędkość modulacji jest nadal niższa niż 3 Gb/s, co ogranicza zastosowanie tego systemu komunikacji terahercowej z bezpośrednią modulacją. Ponadto liniowość urządzenia modulatora nie jest zbyt dobra, co nie może realizować modulacji wysokiego rzędu, co znacznie zmniejsza współczynnik dostępności przepustowości systemu komunikacyjnego. Krótko mówiąc, realizacja wysokowydajnego modulatora terahercowego jest kluczowym punktem do opracowania systemu komunikacji terahercowej z bezpośrednią modulacją

Kluczowe technologie w komunikacji terahercowej

Transceiver

Zgodnie z trybem generowania sygnału terahercowego, nadajnik terahercowy można podzielić na czysty nadajnik urządzenia elektronicznego, optyczny nadajnik heterodynowy i półprzewodnikowy nadajnik laserowy.

Czyste urządzenia elektroniczne

Ten rodzaj nadajnika terahercowego składa się ze źródła częstotliwości radiowej (źródło RF), powielacza, miksera i wzmacniacza. Źródło sygnału RF generuje sygnał RF o częstotliwości około kilkudziesięciu GHz i przechodzi przez mnożnik częstotliwości. Elektryczny mikser sygnału jest stosowany do generowania sygnału modulacji. Sygnał jest wzmacniany i wysyłany przez antenę. Zaletą tej metody jest to, że struktura nadajnika jest bardzo prosta, ale wymagania dotyczące przepustowości i wzmocnienia sprzętu elektronicznego są ograniczone. Występują duże straty konwersji w modulacji i demodulacji, a sprzęt jest zwykle droższy. W 2008 roku Braunschweig Laboratory w Niemczech z powodzeniem zrealizowało transmisję analogowego sygnału wideo w czasie rzeczywistym na kanale 300 GHz. W 2011 roku powstaje całkowicie półprzewodnikowy system komunikacyjny THz pracujący w paśmie 220 GHz. Front-end nadajnika i odbiornika wykorzystuje aktywne, wielofunkcyjne układy scalone o fali milimetrowej (MMICs) do integracji powielacza częstotliwości, miksera i wzmacniacza, które mogą realizować transmisję sygnału z kwadraturową modulacją amplitudy (QAM) 256 QAM, szybkość sygnału z kluczowaniem (OOK) może osiągnąć 25 Gbit/s, co jest udaną próbą wykorzystania trybu czysto elektronicznego do komunikacji THz. Uzyskuje się bezprzewodową transmisję w czasie rzeczywistym sygnału telewizji wysokiej rozdzielczości (HDTV) 1,485 Gbit/s na częstotliwościach nośnych 240 GHz i 300 GHz. Bell Laboratories w Stanach Zjednoczonych zrealizowało system komunikacji 625 GHz THz wykorzystujący całą elektronikę, co stanowi nowy przełom w częstotliwości nośnej. System wykorzystuje podwójną binarną modulację pasma podstawowego, która może osiągnąć szybkość transmisji 2,5 Gbit / s i realizować bezbłędną transmisję. W 2012 roku Karlsruhe Institute of technology wykorzystał technologię MMIC do osiągnięcia bezprzewodowej transmisji sygnału OOK 25 Gbit/s 10 m na częstotliwości nośnej 220 GHz. W Chinach w 2011 r. China Academy of Engineering Physics zrealizowała komunikację bezprzewodową sygnału 10 Gbit/s 16 QAM w paśmie częstotliwości 0,14 THz, jednocześnie przeprowadzono transmisję i demodulację 4-kanałowego sygnału HDTV w czasie rzeczywistym, oraz zasięg transmisji osiągnął 500 m. W 2014 r. China Academy of Engineering Physics zrealizowała pierwsze łącze danych 0,34 THz pod kanałem linii widzenia o długości 50 m, wykorzystując czysto elektroniczne urządzenia, które mogą modulować i demodulować dane 3 Gbit / s w czasie rzeczywistym. W oparciu o to łącze badacze zaproponowali również protokół komunikacji bezprzewodowej sieci lokalnej (WLAN) 0,34 THz oparty na protokole IEEE 802.11b/g, który jest wstępną weryfikacją wykonalności fali THz stosowanej w WLAN. China Academy of Engineering Physics wdrożyła system komunikacji OOK 0,14 THz z szybkością transmisji 15 Gbit/s. Modulacja i demodulacja systemu może być bezpośrednio uzupełniona przez urządzenia analogowe i połączona z wysokiej klasy modulacją QAM, mieszaniem harmonicznych i technologią wzmocnienia kaskadowego. W porównaniu z modulacją OOK ma wysoką wydajność widmową i może być używany do estymacji i korekcji kanałów przy użyciu zaawansowanej technologii cyfrowego przetwarzania sygnału. Obecnie częstotliwość nośna generowana metodą podwojenia częstotliwości wynosi 625 GHz, co wymaga konwersji w górę i w dół oraz różnych technologii mieszania modulacji. Straty konwersji urządzeń elektronicznych powodują, że moc nadawania i odbioru jest niższa, więc szybkość transmisji nie jest wysoka, a odległość transmisji bezprzewodowej jest stosunkowo niewielka. Modulacja OOK jest używana głównie w formacie modulacji, który należy do modulacji niższego rzędu i ma niską wydajność widmową. Niektórzy badacze próbowali modulacji ortogonalnej, takiej jak modulacja QPSK i QAM.

Optyczna metoda heterodyny

Drugim schematem generowania fali terahercowej jest metoda wspomagana fotonami, czyli optyczna metoda heterodynowa. Obecnie większość systemów komunikacji terahercowej korzysta z tej metody, a częstotliwość fali terahercowej jest mniejsza niż 1 THz. Nadajnik składa się z lasera wnękowego (ECL), modulatora optycznego, sprzęgacza optycznego utrzymującego polaryzację (PM-OC), wzmacniacza światłowodowego z domieszką erbu (PM-EDFA), zmiennego tłumika optycznego (VOA) oraz wzmacniacz elektryczny (EA). Składa się ze wzmacniacza (EA) i fotodetektora nośnego jednokierunkowego (UTC-PD). Laser generuje dwa lub więcej sygnałów optycznych, moduluje informację do nośnika optycznego, a następnie łączy się z UTC-PD, aby generować sygnał THz o różnicy częstotliwości dwóch wiązek metodą heterodyny optycznej. Jak pokazano na rysunku,



jeśli można wygenerować sygnał optyczny (grzebień częstotliwości optycznych) o określonym przedziale częstotliwości, to różnicę częstotliwości dowolnych dwóch wiązek światła można wybrać jako częstotliwość sygnału terahercowego. Zaletą tej metody jest to, że częstotliwość można łatwo regulować i można wygodnie uzyskać sygnały terahercowe o różnych częstotliwościach. Przepustowość systemu można poprawić, stosując tę metodę w systemie multi carrier. Dzięki temu prędkość transmisji osiąga 100 Gbit/s, a odległość transmisji bezprzewodowej przekracza 20 m w paśmie 273,5 GHz. W 2014 r. Shams H. i inni zrealizowanli system wielowejściowy z wieloma wyjściami (MIMO) poprzez połączenie technologii multipleksowania polaryzacji i zrealizowaną transmisję w czasie rzeczywistym dwukanałowego sygnału QPSK 75 Gbit/s w paśmie częstotliwości 200 GHz. W 2014 r. University of Lille wykorzystał mikser optyczny THz do realizacji bezprzewodowej transmisji 46 Gbit/s przy częstotliwości nośnej 400 GHz, a moc transmisji była mniejsza niż 1 μ?W. W 2015 r. Shams H. et al. wdrożył system transmisji łącza downlink z czterema nośnymi przy użyciu optycznego grzebienia częstotliwości z regulowanym wzmocnieniem. Ogólna szybkość transmisji danych w kanale downlink osiągnęła 100 Gbit/s, co wskazuje, że transmisja wielonośna może zwiększyć szybkość transmisji danych i zmniejszyć wymagania dotyczące przepustowości urządzeń do konwersji fotoelektrycznej. Uniwersytet Technologiczny w Danii wdrożył system transmisji terahercowej 400 GHz, który może monitorować i przesyłać sygnał QPSK 60 Gbit/s z multipleksowaniem z podziałem długości fali (WDM) w kanale Nyquist w czasie rzeczywistym. niż 300 GHz w tym czasie. Spójne łącze komunikacji radiowej przez światłowód (CROF) THz zostało wdrożone przez Uniwersytet Essen w Duisburgu, Niemcy, który może obsługiwać transmisję sygnału z ortogonalnym zwielokrotnianiem z podziałem częstotliwości (OFDM) offline 59 Gbit/s 64 QAM; łącze może również przesyłać sygnał HDTV w czasie rzeczywistym na częstotliwości nośnej 328 GHz. W tradycyjnym środowisku laboratoryjnym szybkość przekraczająca 100 Gbit/s jest zwykle realizowana za pomocą technologii zwielokrotniania z podziałem przestrzeni lub z podziałem częstotliwości, co zwiększa złożoność i energochłonność systemu. W 2017 r. Duński Uniwersytet Technologiczny wdrożył jednokanałowe bezprzewodowe łącze optyczne 0,4 THz połączone terahercowe, wykorzystując grupę nadajników i odbiorników, aby osiągnąć prędkość transmisji bezprzewodowej 106 Gbit/s, przy odległości transmisji bezprzewodowej wynoszącej 50 cm.

Laser półprzewodnikowy

Sygnał THz generowany przez czysto elektroniczne urządzenie lub metodę wspomaganą fotonami ma zwykle setki GHz. W paśmie wyższych częstotliwości (takich jak 1 THz lub więcej) do generowania sygnału THz można stosować wyłącznie metodę laserową, taką jak kwantowe lasery kaskadowe (QCL), laser gazowy i laser na swobodnych elektronach. QCL realizowany w technologii półprzewodnikowej jest łatwy w integracji, co wzbudziło duże zainteresowanie badaczy. Terahercowy kwantowy laser kaskadowy ma zalety małej objętości, zwartej struktury i krótkiej żywotności nośnika, co może bezpośrednio modulować laser z dużą prędkością. W 2007 roku Barbieri i in. dostosowano szerokość pasma bocznego widma fali THz poprzez bezpośrednie modulowanie napięcia polaryzacji bimetalicznego falowodu QCL 2,8 THz i można było wygenerować maksymalne pasmo boczne widma 13 GHz. Jest to wczesna próba terahercowego QCL. W Chinach Chińska Akademia Nauk poświęciła najwięcej uwagi terahercowemu QCL. W 2008 r. Shanghai microsystems Institute of Chinese Academy of Sciences zrealizował eksperyment komunikacji bezprzewodowej oparty na terahercowych fotodetektorach QCL i terahercowych studniach kwantowych (QWP) o częstotliwości 4,1 THz, przesyłając obrazy i sygnały dźwiękowe oraz dalszą transmisję sygnałów wideo w 2012 r. Zaleta THz QWPs polega na krótkim czasie życia nośnej i krótkim czasie odpowiedzi przejściowej. W 2013 roku Instytut Mikrosystemów i Technik Informacyjnych Chińskiej Akademii Nauk przeprowadził eksperymenty z komunikacją audio, plików i wideo w oparciu o QCL i QWP w paśmie 4,1 THz. System przyjmuje format modulacji cyfrowej OOK z odległością transmisji 2,2 m. Sygnał o ultra wysokiej częstotliwości THz może być generowany przez laser półprzewodnikowy. Jednak wymagania dotyczące wydajności źródła emisji THz są bardzo surowe. Źródło często musi pracować w ultraniskiej temperaturze, co ogranicza dostępność tej metody.

Detektor

Obecny odbiornik terahercowy można podzielić na odbiornik terahercowy z detekcją bezpośrednią i odbiornik z detekcją superheterodynową.

Odbiornik terahercowy z detekcją bezpośrednią

Rysunek



przedstawia typową metodę bezpośredniego wykrywania przy użyciu komercyjnych diod barierowych Schottky'ego o częstotliwości odcięcia 1-10 THz. Metoda bezpośredniego wykrywania jest często stosowana w terahercowych systemach komunikacji bezprzewodowej z bezpośrednią modulacją. System komunikacji terahercowej z bezpośrednią modulacją jest skutecznym sposobem realizacji transmisji danych na duże odległości. System może wyprowadzać modulowany sygnał terahercowy o mocy 5-10 mW, który jest o dwa rzędy wielkości wyższy niż w przypadku systemów mieszania i mechanizmów fotonicznych. System komunikacji z bezpośrednią modulacją THz może osiągnąć transmisję danych 1Gbps. Jednak wydajność systemu komunikacji terahercowej w dużej mierze zależy od modulatora terahercowego. Chociaż wydajność modulatora terahercowego szybko się rozwija, prędkość modulacji jest nadal niższa niż 3 Gb/s, co ogranicza zastosowanie tego systemu komunikacji terahercowej z bezpośrednią modulacją. Ponadto liniowość urządzenia modulatora nie jest zbyt dobra, co nie może realizować modulacji wysokiego rzędu, co znacznie zmniejsza współczynnik dostępności przepustowości systemu komunikacyjnego. Krótko mówiąc, aby opracować system komunikacji terahercowej z bezpośrednią modulacją, kluczową kwestią jest realizacja wysokowydajnego modulatora terahercowego.

Odbiornik wykrywania superheterodynów

W porównaniu z detekcją bezpośrednią, szerzej stosowany jest odbiornik superheterodynowy. Jak pokazano na rys. (8), detekcja superheterodynowa przy użyciu miksera diody barierowej Schottky'ego i źródła sygnału LO może zapewnić wysoką czułość.



Przedwzmacniacz o niskim współczynniku szumów poprawia czułość odbiornika i jest weryfikowany w zakresie częstotliwości 300-400GHz. Obwód rdzenia odbiornika superheterodynowego zwykle zawiera obwód konwersji częstotliwości, obwód generowania sygnału i obwód wzmacniający. Jednak ze względu na niedojrzałość technologii tranzystorów półprzewodnikowych złożonych III-V, wzmacniacze półprzewodnikowe są stosunkowo rzadkie w paśmie terahercowym. Wzmacniacz dzieli się głównie na wzmacniacz mocy i wzmacniacz niskoszumowy. Jako ostatni stopień nadajnika, wzmacniacz mocy jest bezpośrednio podłączony do anteny. Wielkość wzmacniacza mocy wpływa bezpośrednio na moc wyjściową nadajnika, a także bezpośrednio określa odległość roboczą systemu. Chociaż LNA jest zwykle używany jako pierwszy stopień odbiornika, wpłynie to na czułość i wydajność szumów odbiornika. Tylko kilka krajów ma możliwość realizacji tego programu, tranzystorowe wzmacniacze terahercowe rozwijają się po wysokich cenach i niskich wskaźnikach produkcyjnych. Dlatego w dziedzinie półprzewodnikowej technologii terahercowej naukowcy zwracają większą uwagę na badania miksera i multiplikatora opartego na urządzeniach barierowych Schottky′ego. Rozwój miksera i mnożnika oparta na diodzie barierowej Schottky′ego jest zasadniczo historią rozwoju diody barierowej Schottky′ego. Ze względu na brak wzmacniacza terahercowego mikser staje się pierwszym stopniem odbiornika, co wpływa na wydajność systemu. W paśmie terahercowym często używany jest mikser subharmoniczny, ponieważ może on zmniejszyć trudność LO. Rozwój miksera subharmonicznego THz przeszedł trzy etapy rozwoju diody, od wczesnego zastosowania diody kontaktowej typu wisker do pojedynczej diody planarnej, a teraz zintegrowanej diody planarnej. Podobnie rozwojowi mnożnika towarzyszą różne etapy rozwoju diody. Mnożniki częstotliwości terahercowych zwykle używają podwójnej lub potrójnej częstotliwości. Mnożniki częstotliwości wysokiego rzędu są trudne w użyciu ze względu na ich niską wydajność. Mnożnik częstotliwości jest bardziej powszechny niż mnożnik częstotliwości w paśmie terahercowym, ponieważ mnożnik częstotliwości musi ustawić specjalną pętlę dla drugiej harmonicznej w obwodzie, co zwiększa złożoność dopasowania sieci mnożników częstotliwości. Realizacja systemu terahercowego zależy od przełomu kluczowych obwodów półprzewodnikowych. Innymi słowy, rozwój półprzewodnikowego systemu komunikacji terahercowej wymaga dogłębnych badań i eksploracji mikserów i multiplikatorów.

Kształtowanie wiązki i śledzenie wiązki

Pod wpływem strat rozpraszania i strat absorpcji molekularnej, utrata transmisji fali terahercowej jest bardzo duża, a odległość transmisji jest poważnie ograniczona. Strata może osiągnąć 80 dB dla odległości transmisji 1 m, co znacznie ogranicza promocję bezprzewodowej komunikacji terahercowej. Poprawa wzmocnienia i kierunkowości anteny może skutecznie wydłużyć zasięg transmisji. Jedną ze skutecznych metod jest zastosowanie anteny z fazowanym układem antenowym. Dzięki wstępnemu kodowaniu faza promieniowania i intensywność elementu szyku antenowego są regulowane w celu uzyskania wysokiej kierunkowości i formowania wiązki o dużym wzmocnieniu. W ten sposób zwiększa się odległość transmisji fali terahercowej. Tryb wstępnego kodowania, tradycyjne metody formowania wiązki w zakresie mmWave obejmują metody cyfrowe, analogowe i hybrydowe. Cyfrowe kształtowanie wiązki musi zapewniać dedykowane pasmo podstawowe i sprzęt RF dla każdej jednostki antenowej. Koszt jest bardzo wysoki, a straty sygnału mieszanego są również bardzo duże. Analogowe kształtowanie wiązki może w pewnym stopniu nadrobić niedoskonałości metody cyfrowej, ale przesuwnik fazowy anteny jest sterowany cyfrowo, więc nadal nie może osiągnąć idealnego stanu symulacji. Metoda hybrydowa łączy zalety dwóch metod i pozwala osiągnąć optymalny algorytm wstępnego kodowania. W celu uzyskania hybrydowego formowania wiązki o niskiej złożoności, zaproponowano algorytm wstępnego kodowania oparty na teorii skompresowanych czujników. W przypadku kształtowania wiązki bardzo ważny jest kąt odejścia nadajnika i kąt nadejścia odbiornika. Odpowiednie informacje o danych można uzyskać w celu utrzymania stabilnego łącza komunikacyjnego dzięki technologii śledzenia wiązki. Nadajnik wysyła wiązkę treningową we wcześniej określonym kierunku, a AOD uzyskuje się poprzez analizę odebranego sygnału. Ten rodzaj przełączania wiązki może realizować kolimację wiązki w każdej komunikacji. W dziedzinie niskich częstotliwości bardzo dojrzały jest rozwój technologii śledzenia wiązki, która wykorzystuje dwuwymiarowe formowanie wiązki, a drugim wymiarem jest promieniowanie dookólne. Ze względu na duże straty propagacyjne fali terahercowej, kierunkowość i zysk anteny są wyższe niż w zakresie niskich częstotliwości, więc wymaga trójwymiarowego jednoczesnego skanowania wiązki, więc złożoność obliczeń, czas i konstrukcja sprzętu są naturalnie trudniejsze, zapewnił szybką strategię skanowania, łącząc pasma niskiej częstotliwości i terahercowe, ale ten schemat zajmuje zbyt dużo zasobów widma. Oprócz metody wyszukiwania celu poprzez skanowanie wiązką. Sakr zaproponował również, że położenie celu w następnym przedziale czasowym można oszacować algorytmem, tak aby przeprowadzić kolimację. Wraz z dalszym rozwojem algorytmu predykcji metoda ta znajdzie szerokie zastosowanie w komunikacji terahercowej.

Utrata ścieżki, hałas, pojemność

W systemie komunikacji bezprzewodowej bardzo ważne jest ustalenie efektywnego modelu kanału, aby zmaksymalizować przydział pasma terahercowego i poprawić wydajność widma. W celu uzyskania wydajnego kanału komunikacji bezprzewodowej w paśmie terahercowym należy wziąć pod uwagę charakterystykę tego pasma. Pasmo terahercowe charakteryzuje się tłumieniem wysokich częstotliwości, unikalnymi charakterystykami odbicia i rozpraszania, a przestrzenny rozkład ścieżki propagacji ma istotny wpływ na kanał. Biorąc pod uwagę tłumienie wolnej przestrzeni, absorpcję molekularną i trudne warunki pogodowe, przyszły terahercowy system komunikacji bezprzewodowej będzie szeroko stosowany w scenariuszach komunikacji wewnętrznej na krótkie odległości. Poza idealnym środowiskiem pogodowym, określoną wilgotnością i temperaturą, scenariusze zdalnej komunikacji zewnętrznej są rzadko wykorzystywane w praktycznych zastosowaniach. Wspólny model rozchodzenia się fali terahercowej może składać się z LoS i NLoS. Ścieżka NLoS obejmuje ścieżkę odbicia, ścieżkę rozpraszającą i ścieżkę dyfrakcyjną. Aktualne badania modeli wewnętrznych kanałów terahercowych obejmują metodę deterministyczną, metodę statystyczną i metodę hybrydową.

Utrata transmisji i hałas

Oprócz dodatkowego białego szumu Gaussa (AWGN), który jest w paśmie mikrofalowym, istnieje inny typowy szum w odbiorniku bezprzewodowym terahercowym, a mianowicie szum absorpcji molekularnej. Szum absorpcji molekularnej jest spowodowany ponownym promieniowaniem części pochłoniętej energii przez wibrujące cząsteczki. Szum absorpcji molekularnej ma charakter dyspersyjny, ponieważ różne rodzaje cząsteczek mają różne częstotliwości rezonansowe. Utrata ścieżki obejmuje utratę rozprzestrzeniania się i utratę absorpcji. Biorąc pod uwagę szczególną charakterystykę tłumienia ścieżki i szumu, przepustowość sieci terahercowego systemu komunikacyjnego z sygnałem impulsowym jest podana w następujący sposób. W modelu komunikacji terahercowej całkowita strata ścieżki jest definiowana jako suma strat rozpraszania (Aspread) i strat absorpcji molekularnej (Aabs):
.


f to częstotliwość fali terahercowej, a d to całkowita długość ścieżki. Strata propagacyjna odnosi się do tłumienia spowodowanego przez ekspansję fali f w ośrodku



c to prędkość światła w próżni. Prawo Beera Lamberta pokazuje utratę absorpcji molekularnej w kanale, która opiera się na składnikach medium, wilgotności względnej, ciśnieniu i temperaturze itd., co prowadzi do selektywnego zanikania częstotliwości sygnałów szerokopasmowych. Utratę absorpcji cząsteczek można wyrazić w następujący sposób



K(f) to całkowity współczynnik absorpcji medium:



gdzie p jest wartością standardowego ciśnienia w pomieszczeniu, p0 jest ciśnieniem odniesienia, T0 jest temperaturą standardową, T jest temperaturą systemu, a ?gf jest przekrojem absorpcji. Długość drogi d bardzo wpłynęłaby na stratę. Dla d < 1m efekt absorpcji molekularnej jest zignorowana, podczas gdy dla d>1m staje się poważna. Technologie, takie jak projektowanie warstw fizycznych uwzględniające odległość, macierze odbijające i inteligentne powierzchnie, są stosowane w celu przezwyciężenia problemu długości. Szum środowiskowy w kanale terahercowym pochodzi głównie z szumu molekularnego. Absorpcja cząsteczek w medium nie tylko osłabia przesyłany sygnał, ale także wprowadza szum. Parametrem do pomiaru tego zjawiska jest współczynnik promieniowania kanału, który określa się jako:



Utrata odbicia Strata odbicia fali terahercowej jest obliczana za pomocą teorii Kirchhoffa. Współczynnik odbicia Fresnela i współczynnik chropowatości Rayleigha można wykorzystać do obliczenia utraty odbicia. Współczynnik odbicia Fresnela można określić jako:



gdzie, θi jest kątem padania, nt jest współczynnikiem odbicia ośrodka. Współczynnik chropowatości Rayleigha jest zdefiniowany jako:



gdzie ω jest odchyleniem standardowym chropowatości powierzchni, a λ jest długością fali padającej w wolnej przestrzeni. Dlatego utratę odbicia można wyrazić jako:



Strata rozproszenia

Wpływ rozpraszania na sygnał terahercowy opiera się na poziomie chropowatości powierzchni. Jest to uważane za krytyczne łącze komunikacyjne i należy je również wziąć pod uwagę. Najpierw rozważymy teorię obliczeń współczynnika rozpraszania Beckmana Kirchhoffa:



gdzie P0 to stała renormalizacji, G to przybliżona stała, vs to znormalizowany współczynnik współrzędnej, a θ1 to padający kąt zenitalny. Dlatego biorąc pod uwagę dyfuzję, absorpcję molekularną, współczynnik chropowatości Rayleigha i współczynnik rozpraszania promieniowania N, stratę rozpraszania można uzyskać w następujący sposób:



Wnęka kanału

Kanał terahercowy ma selektywność wysokiej częstotliwości, a jego szum molekularny nie jest biały. Dlatego pojemność można uzyskać dzieląc całkowitą szerokość pasma na wiele wąskich podpasm i dodając pojemności każdego podpasma. i-te podpasmo jest wyśrodkowane na częstotliwości fi, i = 1,2,…. Ma przepustowość &Ddelta; f. Gdy pasmo podrzędne jest wystarczająco małe, kanał wydaje się nieselektywny pod względem częstotliwości i gęstość widma mocy szumów można uznać za lokalnie płaską. Ostateczna wydajność w bitach/s to:



B to sygnał transmisyjny, a N to szum. Oprócz zbadania specyficznych cech modelu kanału terahercowego warto również zbadać, w jaki sposób obserwowany sygnał propaguje się w medium przy założeniu LOS i NLOS. W rzeczywistości w łączu Los występuje bardzo wysoka selektywna strata ścieżki, a ze względu na rodzaj materiału i chropowatość powierzchni odbicia, wysokie odbicie nastąpi w propagacji NLOS. Metodę wielopromieniową można rozważyć, zakładając ścieżki odbicia, rozpraszania i dyfrakcji, aby symulować główne właściwości kanału w paśmie terahercowym, takie jak okno widmowe i efekt poszerzenia czasu przy zmiennej odległości.

Model kanału terahercowego

Chociaż wiele uwagi poświęcono modelowaniu kanałów w obszarach częstotliwości mikrofalowych i optycznych, nadal brakuje badań w paśmie terahercowym. Ostatnio w literaturze pojawiło się zainteresowanie zespołem terahercowym. Zgodnie ze scenariuszami aplikacji, model kanału terahercowego można podzielić na model kanału wewnętrznego i model kanału zewnętrznego.

Model kanału zewnętrznego

Istnieje kilka modeli symulujących kanał terahercowy w środowisku zewnętrznym, które skupiają się tylko na połączeniu punkt-punkt. Pierwsza eksperymentalna licencja radiowa 120GHz i pierwszy eksperyment z transmisją na zewnątrz na 170 metrach przeprowadzono w 2004 roku. Eksperymenty te polegają na wykorzystaniu wzmacniaczy fal milimetrowych i anten o dużym zysku, takich jak antena z soczewkami optycznymi Gaussa lub antena Cassegraina. Od 2007 roku sygnał bezprzewodowy 120GHz jest wytwarzany w technologii InP HEMT MMIC. Zaletami systemu elektronicznego są niewielkie rozmiary i niski koszt. Po wprowadzeniu technologii korekcji błędów do przodu (FEC), transmisja danych o długości 5,8 km 10 Gb/s jest realizowana poprzez zwiększenie mocy wyjściowej i zysku anteny. Dzięki zastosowaniu modulacji QPSK szybkość transmisji danych jest dalej zwiększana do 22,2 Gb/s. Obecny model kanału zewnętrznego zajmuje się tylko przypadkami punkt-punkt. Dzieje się tak, ponieważ w literaturze istnieje niewiele doniesień o pomiarach eksperymentalnych. W przypadku pomiarów zewnętrznych na wydajność bitowej stopy błędów (BER) może mieć poważny wpływ brak linii widoczności. W przypadku komunikacji bezprzewodowej na duże odległości łącze terahercowe będzie narażone na znaczną utratę sygnału ze względu na wpływ pogody. Jednak pomimo obecności szczytów absorpcji skoncentrowanych na kilku określonych częstotliwościach, dostępne okno transmisji pozwala na ustanowienie realnej komunikacji w paśmie terahercowym. Dlatego wpływ pogody na łącza danych o dużej przepustowości jest jednym z kluczowych różnic między łączami THz a innymi metodami bezprzewodowymi. Ze względu na wysoką selektywność częstotliwościową kanału terahercowego, odległość transmisji jest ograniczona tłumieniem, dlatego częstotliwość nośna musi być ustalana indywidualnie dla każdego przypadku. Aby opracować terahercowy model kanału zewnętrznego, konieczne jest wykorzystanie rzeczywistego strumienia danych do oceny wydajności łącza. Dalsza eksploracja modeli opartych na geometrii, obszarach wizualnych i opartych na mapach, w tym parametryzacja wyników pomiarów, może uzyskać kompletny model kanału zewnętrznego. Należy wziąć pod uwagę, że w środowisku zewnętrznym potrzebnych jest szereg rozwiązań w celu wyeliminowania zakłóceń pochodzących od fałszywych sygnałów w tym samym paśmie częstotliwości. Pierwsza charakterystyka kanału połączenia pociąg-pociąg jest wykonywana przy 300 GHz i weryfikowana przez symulator śledzenia promieni. Dla kanału komunikacyjnego pojazdu wprowadzane są pewne metody pomiarowe do pomiaru odbicia wielodrogowego, w tym wpływ obejścia i wielopasmowego.

Model kanału wewnętrznego

W odróżnieniu od modelu kanału zewnętrznego, model kanału wewnętrznego można podzielić na model metody deterministycznej, model metody statystycznej i model metody hybrydowej. W przypadku kanałów deterministycznych zwykle stosuje się model śledzenia promieni. Oparta na zasadzie optyki geometrycznej metoda ta służy do analizy drogi propagacji linii widzenia (LOS) i nieliniowości (NLOS). Jest on specyficzny dla miejsca, zgodnie z teorią propagacji i dokładnie rejestruje zjawisko propagacji fali. Jednak dokładność modelu śledzenia promieni w dużej mierze zależy od wszechstronnego zrozumienia właściwości materiałów. Dlatego konieczne jest ciągłe dostosowywanie modelu do nowego otoczenia, ograniczając tym samym jego efektywność czasową. Z punktu widzenia komunikacji bardzo ważne jest zrozumienie danych statystycznych kanału o dużej i małej skali, w tym utrata ścieżki, cień i propagacja wielościeżkowa. Dlatego metoda statystyczna zapewnia odpowiedni pomiar kanału w oparciu o doświadczenie. Pierwszy model statystyczny kanału terahercowego obejmuje zakres od 275 GHz do 325 GHz. Model opiera się na dużej liczbie symulacji ray tracingu w celu uzyskania parametrów statystycznych kanału. Statystyki kanału, takie jak funkcje korelacji i profile opóźnienia zasilania, nie mogą być łatwo przechwycone. W celu rozwiązania tych problemów Kim zaproponował geometryczny model statystyczny kanału rozpraszania urządzenie-urządzenie (D2D) w paśmie hercowym Azji i Pacyfiku. Modele te symulują tryby rozpraszania i odbicia w środowisku D2D herców Azji i Pacyfiku. Należy podkreślić, że ponieważ charakterystyki odbicia i rozpraszania w paśmie terahercowym są zależne od częstotliwości, konieczne jest odpowiednie symulowanie rozkładu statystycznego i parametrów w klastrach i pomiędzy klastrami. Dlatego w wielu badaniach uwzględniono charakterystykę rozproszonych klastrów wielościeżkowych, w tym kąt przybycia i czas przybycia, w terahercowym modelowaniu kanałów wewnętrznych. Choi i in. zaproponował ulepszony model kanału terahercowego i algorytm wyboru ścieżki w celu znalezienia głównego sygnału. Podobnie Kokkoniemi wykorzystuje stochastyczną analizę geometryczną do badania średniej mocy zakłóceń i prawdopodobieństwa wyłączenia pasma THz. Ponadto Tsujimura zaproponował model kanału czasowego w paśmie terahercowym, w którym spójnie obliczana jest szerokość pasma całego pasma terahercowego i jego podpasm. Obliczenia numeryczne i wyniki eksperymentalne pokazują, że uzyskana odpowiedź impulsowa spełnia przyczynowość, a zrozumienie spójnej zmienności szerokości pasma pozwala na wybór odpowiedniej częstotliwości środkowej dla komunikacji bezprzewodowej w paśmie terahercowym. W odróżnieniu od tradycyjnych pomiarów kanałów, w literaturze można również znaleźć modele specyficzne dla sceny. Zaproponował stochastyczny model aplikacji terminalowych w terahercach, zwłaszcza między 220GHz a 340GHz. Charakterystyki kanałów trzech różnych scenariuszy aplikacji kiosku są wyodrębniane przez symulator 3D ray tracingu. Ponadto Peng i in. zaproponował losowy model kanału dla przyszłych bezprzewodowych terahercowych centrów danych. Zaproponowany model kanału losowego uwzględnia przestrzenno-czasową dyskrecję ścieżki propagacji, co umożliwia szybkie wygenerowanie kanału. Do weryfikacji modelu wykorzystuje się pierwiastek średniokwadratowy opóźnienia i rozrzut kątowy. Aby uzyskać zarówno wysoką dokładność, jak i wysoką wydajność, Chen i in. zaproponował model kanału hybrydowego chip-to-chip, który łączy metody deterministyczne i statystyczne [20]. W swojej dyskusji autorzy zauważają, że można opracować hybrydową metodę losowego rozmieszczenia rozpraszaczy i ray tracingu. W tym przypadku rozpraszacze są rozmieszczone losowo, a propagacja wielościeżkowa jest rozmieszczana i modelowana w sposób deterministyczny w oparciu o technologię ray tracingu. W związku z tym ustalany jest geometryczny model kanału losowego. To hybrydowe podejście charakteryzuje się wysoką dokładnością modelowania i prostą strukturą, co pozwala na wykorzystanie modelowania statystycznego w celu uzyskania bogatych efektów wielościeżkowych i obliczenia krytycznego składnika wielościeżkowego. Na podobnej granicy Fu i in. zademonstrował komunikację chip-chip, opisując charakterystykę propagacji aplikacji komputerowych typu desktop w metalowej obudowie 300 GHz. Dostępne są pomiary LOS i NLOS. W porównaniu z przypadkiem wolnej przestrzeni, wielodrogowość w tym przypadku jest spowodowana naprzemiennością fal biegnących pomiędzy odbiornikiem a nadajnikiem wnęki, co prowadzi do silniejszej fluktuacji tłumienia ścieżki, a tym samym zmniejsza szerokość pasma kanału. Ponadto Zhao i in. podaje pomiary kanałów dla nośnej 650 GHz i nośnej 350 GHz w typowym środowisku wewnętrznym, przedstawia obszerny wielościeżkowy model kanału, który opisuje przestrzenny rozkład wszystkich dostępnych ścieżek i ich odpowiednie poziomy mocy. Dlatego propagacja fali terahercowej w różnych zakresach długości fal zapewnia lepsze zrozumienie. W ostatnich latach urządzenia mikroczujnikowe (zwane nanourządzeniami) opracowane z wykorzystaniem właściwości nowych nanomateriałów mogą wykonywać szereg zadań, w tym przetwarzanie, przechowywanie danych, wykrywanie i uruchamianie. Ponadto powstanie nanosieci oparte na nanourządzeniach doprowadzi do szerokiego zakresu zastosowań w dziedzinach biomedycznych, przemysłowych i wojskowych. W oparciu o teorię transferu promieniowania i absorpcję molekularną Joenet zaproponował model kanału fizycznego do komunikacji bezprzewodowej między urządzeniami nano w paśmie terahercowym. Zaproponowany model uwzględnia wkłady różnych rodzajów i stężeń cząsteczek, a baza danych HITRAN służy do obliczania tłumienia fal. Zgodnie z prawem Lamberta piwa obliczana jest przepuszczalność medium zależna od współczynnika absorpcji medium. Model służy również do obliczania przepustowości kanałów Nanonetworks pracujących w paśmie terahercowym. W takim przypadku wdrażane są różne schematy alokacji mocy. W celu zapewnienia silnego odbieranego sygnału autor sugeruje zastosowanie niższego współczynnika absorpcji w paśmie terahercowym. Ponadto model szumu nieba jest podstawą istniejących modeli szumu absorpcyjnego. Kokkoniemi rozwinął ten temat i przedstawił różne poglądy na temat symulacji hałasu absorpcji molekularnej. Nie ma jednak rzeczywistego eksperymentu weryfikującego proponowany model. Na propagację fal elektromagnetycznych wpływa nie tylko absorpcja, ale także rozpraszanie cząsteczek i małych cząstek. W związku z tym model rozpraszania Kokkoniemi służy do wykazania częstotliwości szerokopasmowego teraherca. Ponadto proponuje się wielokierunkowy model geometryczny oparty na Petrova, aby poradzić sobie z interferencją. Jednak w swoim modelu ignorują zakłócenia spowodowane obecnością stacji bazowych. Wang rozwiązał ten problem i zbadał interferencję stacji bazowych formujących wiązkę. Dlatego zaleca się stosowanie stacji bazowych o dużej gęstości, stosowanie formowania wiązki z antenami o małej szerokości wiązki oraz stosowanie nanoczujników o niskiej gęstości w celu zwiększenia prawdopodobieństwa zasięgu.

Śledzenie promieni

Śledzenie promieni stało się popularną techniką analizy scenariuszy specyficznych dla miejsca, ponieważ może analizować bardzo duże konstrukcje o rozsądnej złożoności obliczeniowej. Jak pokazano na rysunku



, sygnały radiowe przesyłane ze stałego źródła światła napotykają wiele obiektów w otoczeniu, tworząc linię widzenia, odbicie, załamanie lub rozproszenie światła docierającego do odbiornika. Dla każdej ścieżki geometrycznej technologia śledzenia promieni analizuje propagację fal elektromagnetycznych, przedstawiając czoło fali jako proste cząstki. W paśmie terahercowym propagacja w wolnej przestrzeni musi uwzględniać utratę propagacji prawa Fritha oraz utratę absorpcji molekularnej spowodowaną konwersją części energii fal na wewnętrzną energię kinetyczną cząsteczki. Ponadto efekty odbicia, dyfrakcji i rozpraszania są podobne do optyki geometrycznej, ponieważ mają silniejsze właściwości cząstek w terahercach i wymagają dokładniejszych obliczeń. Sheikh zaproponował samoprogramujący się algorytm śledzenia promieni 3D oparty na modelu Beckmanna Kirchhoffa do symulacji mechanizmu rozpraszania dyfuzyjnego w kierunku nieodblaskowym przy częstotliwości terahercowej. W przestrzennej i czasowej dyspersji pasma o długości fali submilimetrowej padające światło może po odbiciu się od szorstkiego materiału rozszczepić się na promienie zwierciadlane i kilka promieni nieodblaskowych (rozproszonych w dyfuzorze), co stanowi dużą część całego światła propagacji. Dlatego należy rozważyć modelowanie propagacji, aby dokładnie przewidzieć charakterystykę kanału. Han zaproponował ujednolicony model kanału wielopromieniowego oparty na metodzie bottomup w paśmie 0,06-10 teraherc.

Bezprzewodowa komunikacja mobilna terahercowa

Oczekuje się, że bezprzewodowa komunikacja terahercowa będzie miała szybkość przesyłania danych rzędu kilkudziesięciu Gb/s, a nawet kilku Tb/s. Można przewidywać, że komunikacja terahercowa będzie miała ważne perspektywy zastosowań w wielu aspektach.

WPAN i WLAN

Systemy WPAN mają potencjał do realizacji konkretnych zastosowań, takich jak telefony komórkowe, słuchawki i inne urządzenia podobne do tabletów. Punkty dostępowe (AP) mogą być rozwijane w niektórych miejscach, takich jak hale centrów handlowych, bramy stacji metra i inne miejsca wewnętrzne o dużej mobilności ludzi. W porównaniu z punktem dostępowym, który przyjmuje pasmo niskich częstotliwości, jedną z najważniejszych cech charakterystycznych jest to, że punkt dostępowy oparty na paśmie THz zapewnia możliwość jednoczesnego przesyłania informacji do wielu użytkowników w różnych kierunkach przy użyciu struktury anteny podrzędnej. Wraz z dalszym rozwojem urządzeń AP, sprzęt AP jest dostępny, aby wnieść doskonałą obsługę komunikacji do ludzkiego życia i ułatwić wysokiej jakości wideo w biurach i salonach, np. holograficzne wideokonferencje HD, ultrawysoka rozdzielczość formaty wideo, pobieranie plików filmowych HD i technika VR

VR

Warto podkreślić, że rozwój techniki VR jest obecnie mocno ograniczony przez obecną komunikację bezprzewodową o niskiej prędkości transmisji danych. Na szczęście, gdy szerokość pasma THz zostanie wykorzystana w systemach komunikacji bezprzewodowej, technika VR przyniesie znacznie lepsze wrażenia użytkownika niż systemy komunikacji przewodowej. Rzeczywistość rozszerzona i rzeczywistość wirtualna (AR/VR) są uważane za jedne z najważniejszych wymagań 5G, zwłaszcza jedną z typowych aplikacji o wysokich wymaganiach przepustowości. 5G będzie w stanie wspierać transformację obecnego przewodowego lub stacjonarnego dostępu bezprzewodowego AR/VR do bezprzewodowego mobilnego AR/VR w bardziej rozbudowanych scenariuszach. Kiedy AR/VR będzie można używać łatwiej i swobodniej, będzie to sprzyjać szybkiemu rozwojowi biznesu AR/VR. Forma interakcji medialnej opiera się głównie na współczesnej płaszczyźnie multimedialnej. Przewiduje się, że w erze 6G rozwinie się ona w interakcję AR/VR o wysokiej wierności, a nawet interakcję z holograficzną informacją, w której komunikacja holograficzna może odbywać się w dowolnym miejscu i czasie, aby osiągnąć komunikacyjną wizję "połączenia holograficznego" i wysokiej Szybkość transmisji zapewniana przez komunikację terahercową jest niezawodnym wyborem do realizacji tej wizji.

Sieci kierunkowe

Wiązka w paśmie terahercowym jest węższa niż w paśmie niższych częstotliwości, a obszar pokrycia wiązki terahercowej jest ograniczony. Obecna technologia sieci dookólnych oparta na antenie dookólnej jest trudna do szybkiego wykrycia węzłów sieci, zapewnienia pełnej sieci kierunkowej i zmniejszenia zużycia energii przez system. W odróżnieniu od anteny dookólnej, zastosowanie anteny kierunkowej w systemie komunikacji bezprzewodowej może przynieść znaczną poprawę wydajności sieci. Antena kierunkowa może skoncentrować energię fali terahercowej w określonym kierunku, aby przesłać informacje, które zwykle nazywa się głównym płatem. Ponadto, gdy antena kierunkowa jest wykorzystywana do realizacji sieci kierunkowej, interferencja między tymi sąsiednimi węzłami jest znacznie zmniejszona, co umożliwia wielu parom sąsiednich węzłów w sieci wysyłanie wiadomości do siebie i znacznie zwiększa przepustowość sieci. Wreszcie, w przypadku systemu komunikacyjnego o stałej mocy transmisji, antena kierunkowa może znacznie zwiększyć odległość transmisji.

Bezpieczna komunikacja

System Terahertz będzie wykorzystywał kierunkową wąską wiązkę, która może nie tylko rozszerzyć zasięg komunikacji, ale także częściowo chronić dane w warstwie fizycznej. W większości przypadków atakujący musi znajdować się w zasięgu wiązki nadajnika, aby podsłuchać wiadomość. Nawet użycie bardzo wąskiej wiązki spowodowałoby powstanie znacznego obszaru wokół odbiornika, w którym atakujący może przechwycić wszystkie dane. Fizyczna warstwa komunikacji na falach milimetrowych i pasmach terahercowych wykorzystuje nieodłączne właściwości kierunkowo wąskiej wiązki w celu znacznego zwiększenia bezpieczeństwa. Powodem jest to, że atakujący musi fizycznie znajdować się w zasięgu wiązki transmisyjnej, aby zdekodować dane. Stosowanie kodowania wąskowiązkowego i specyficznego dla warstwy fizycznej może znacznie zmniejszyć prawdopodobieństwo podsłuchiwania danych w warunkach LOS i NLOS. Scenariusze zastosowania systemu bezpiecznej komunikacji to pola wojskowe i obronne. Na polu konfrontacji wojskowej UAV może zastąpić ludzkich pilotów do wykonywania niektórych niebezpiecznych zadań, takich jak walka, rozpoznanie itp. Gdy UAV zakończy misję rozpoznawczą, niezniekształcone informacje wideo w wysokiej rozdzielczości uzyskane przez rozpoznawczy UAV mogą zostać przesłane do inne jednostki bojowe, takie jak bezzałogowe samoloty rozpoznawcze, samoloty załogowe, czołgi itp. oraz jednostki bojowe mogą lepiej analizować środowisko walki. Ponadto pasmo terahercowe ma unikalne zalety w systemie łączności bezpieczeństwa, więc wrogim jednostkom bojowym trudno jest przechwycić wywiad wojskowy z bardzo wąskiej wiązki terahercowej. Ze względu na ultra-wysoką przepustowość terahercową technologię widma rozproszonego i technologię przeskoku częstotliwości można wykorzystać do zwalczania ataków interferencyjnych

STRESZCZENIE

Dzięki dużej szybkości transmisji danych technologia terahercowa jest silnym kandydatem do komunikacji 6G. Podczas gdy następujące aspekty wymagają dalszych badań w celu wsparcia komunikacji terahercowej: Technologia półprzewodnikowa, w tym RF, analogowe pasmo podstawowe i logika cyfrowa itp.; Szybka technologia przetwarzania sygnału pasma podstawowego i metoda projektowania układów scalonych o niskiej złożoności i niskim zużyciem energii, szybka platforma komunikacji w paśmie podstawowym teraherc; Modulacja i demodulacja, w tym bezpośrednia modulacja terahercowa, modulacja mieszania terahercowego i terahercowa modulacja fotoelektryczna; Kodowanie przebiegów i kanałów; Mechanizm synchronizacji, taki jak szybki i precyzyjny mechanizm akwizycji i śledzenia, mechanizm synchronizacji setek rzędów wielkości szyku antenowego. Poza tym innymi potencjalnymi tematami badawczymi związanymi z komunikacją terahercową mogą być modelowanie kanałów, podstawowe koncepcje systemów i niektóre badania związane z technologią, takie jak nadajniki i miksery terahercowe. Aby wykorzystać falę terahercową w 6G, najpilniejszym sprzętem IoT/urządzeń mobilnych w potrzebie jest być może bateria o dużej pojemności, ze względu na dużą utratę ścieżki rozchodzenia się fali terahercowej w atmosferze, co z kolei wymaga dużej mocy transmisji. Z tego samego powodu potrzebne są również kształtowniki wiązki i anteny o wysokim zysku. Tymczasem, ponieważ system radiowy definiowany przez fotonikę jest naturalną ewolucją do 6G, sprzęt fotoniczny, np. fotoniczne front end RF są również potrzebne. Badania nad technologią komunikacji terahercowej trwają zaledwie dwie dekady, wiele kluczowych urządzeń nie zostało pomyślnie opracowanych, a niektóre kluczowe technologie nie są wystarczająco dojrzałe i potrzeba wielu prac badawczych. Jednak komunikacja terahercowa jest obiecującą technologią. Wraz z przełomem w kluczowych urządzeniach i technologiach technologia komunikacji fal terahercowych będzie miała głęboki wpływ na ludzką produkcję i życie.

Inteligentne zarządzanie i kontrola podziału sieci dla sieci mobilnych 6G

Internet rzeczy (IoT) jest kluczowym czynnikiem umożliwiającym tworzenie inteligentnych miast, w których mnożą się różnorodne aplikacje wspomagające usługi obywatelskie. Ponieważ różne aplikacje IoT mają różnych posiadaczy usług, konieczne staje się zastosowanie podziału sieci (NS) w celu uzyskania odrębnych sieci wirtualnych i gwarancji zróżnicowanej jakości usług (QoS). Inaczej niż w przypadku konwencjonalnych scenariuszy IoT, inteligentne miasta IoT opierają się na sieciach 6G w celu zapewnienia szerokiego zasięgu, bardzo niskich opóźnień i niezawodnego połączenia. W tym rozdziale zaproponowano architekturę samoorganizującej się sieci (SON), w której ważną rolę odgrywają również sieci definiowane programowo (SDN) i wirtualizacja funkcji sieciowych (NFV). Podano kilka wstępnych wyników symulacji w celu sprawdzenia wydajności naszego projektu

WPROWADZANIE

W odróżnieniu od sieci 5G, które są zaprojektowane do cyfryzacji kilku pilnych scenariuszy we współczesnym społeczeństwie, takich jak masowe połączenie, ulepszona mobilna łączność szerokopasmowa i bardzo niskie opóźnienia, sieci w erze 6G mają być sieciami pełnowymiarowymi, które zaspokoją każde potencjalne zapotrzebowanie usługi sieciowe. Na przykład inteligentne miasto to obiecujące rozwiązanie poprawiające jakość życia mieszkańców. Będzie jednak w dużym stopniu polegać na sieciach komórkowych 6G, zwłaszcza na mobilnym Internecie rzeczy (IoT), połączonej infrastrukturze użyteczności publicznej, aktywach publicznych itp. w całym mieście, aby zapewnić gubernatorom i dostawcom usług użyteczności publicznej dokładniejsze informacje, aby poprawić ich usługi . Te urządzenia IoT mogą pochodzić z różnych celów użytkowych, takich jak nadzór, pomiary, uruchamianie, a także od różnych dostawców usług użyteczności publicznej i sektorów publicznych, co daje szeroki zakres preferencji dotyczących wydajności usług sieciowych. Jest to zupełnie inne niż 5G, gdzie usługi są z grubsza podzielone na trzy typy, a mianowicie masową komunikację typu maszynowego (mMTC), bardzo niezawodną komunikację o niskim opóźnieniu (URLLC) i ulepszoną mobilną łączność szerokopasmową (eMBB). Jak obsłużyć aplikacje sieciowe o skrajnie różnych wymaganiach dotyczących wydajności bez wzajemnego oddziaływania, było kiedyś krytycznym problemem podczas projektowania 5G, a następnie wprowadzono koncepcję network slicing (NS), zapożyczoną z technologii wirtualizacji sieci komputerowych, aby rozwiązać ten problem. Dzięki slicingowi sieci sieć komórkowa 5G o zasięgu ogólnokrajowym zostałaby podzielona na niezależne logicznie warstwy lub części, a konkretnie na instancje sieci (NSI). Usługi sieciowe o podobnych właściwościach zostaną zebrane w NSI, któremu zazwyczaj przydzielany jest predefiniowany zestaw zasobów, aby chronić się przed wpływem innych usług. Przepływy danych są rozmieszczone w warstwie ziarnistości, dzięki czemu można osiągnąć mniejszą złożoność planowania i efektywne kosztowo zużycie zasobów. Ze względu na niezależność logiczną, a konkretnie izolację, podział sieci daje operatorom sieci komórkowych (NOP) cenną okazję do rozszerzenia ich działalności na usługi użyteczności publicznej i branże pionowe. W przeszłości firmy z tych branż wolały budować prywatne sieci zapewniające prywatność biznesową i konfigurowalne zasady QoS. Jednak nowa fala cyfryzacji społeczeństwa zmusza te firmy do rozszerzenia swojej percepcji na miejsca, w których ich własne, prywatne sieci są trudno dostępne. Dalsze budowanie sieci prywatnych oznacza, że dostawcy usług komunalnych muszą przenieść swoje urządzenia sieciowe poza swoją domenę prywatną do środowisk poza lokalem. Utrzymanie ogromnych obiektów w ogromnym metrze, a nawet ogólnokrajowym jest wyzwaniem. Co więcej, złożone zadania obliczeniowe, takie jak rzeczywistość rozszerzona, analiza danych wideo, będą niezbędną częścią przyszłych aplikacji IoT, które wymagają wystarczających zasobów obliczeniowych i pamięciowych dostępnych jak najbliżej sceny. Budżet, kopie zapasowe technologii, prywatność i problemy z wydajnością ograniczają dalszą ekspansję samodzielnie budowanych sieci prywatnych. Zamiast tego atrakcyjnym rozwiązaniem staje się wypożyczanie plasterków od operatorów sieci komórkowych. W związku z tym, zanim wejdziemy w erę 6G, właściwości i rodzaje usług sieciowych przeżyją boom. Aby zaspokoić szerokie wymagania dotyczące dostosowanych sieci IoT dostawców usług inteligentnych miast, można przewidzieć, że wiele NSI będzie subskrybowanych przez różnych dostawców usług internetowych (najemców w ocenie NOP) jednocześnie działających na tej samej infrastrukturze sieciowej, a do każdego NSI dołączana jest umowa o gwarantowanym poziomie usług. Jak optymalnie alokować różne zasoby sieciowe w celu wycinania instancji na żądanie, staje się jednym z kluczowych problemów w dzieleniu sieci. Proces, składający się z przydzielania heterogenicznych zasobów sieciowych do NSI i koordynowania alokacji między nimi, powinien być elastyczny w stosunku do natychmiastowych żądań od najemców, których w żaden sposób nie można wykonać ręcznie. Aby usprawnić proces zarządzania zasobami do podziału sieci, konieczne jest wprowadzenie do procesu właściwości automatyzacji i ujęcie go w odpowiednio zaprojektowaną architekturę zarządzania podziałem sieci. Ta część dotyczy podejścia samoorganizującego się w dzieleniu sieci 5G na potrzeby IoT w inteligentnym mieście. W szczególności zaproponowano architekturę zarządzania wycinaniem z samoorganizującą się siecią (SON), która składa się z takich właściwości, jak samoorganizacja, świadomość ruchu i solidna gwarancja, aby zapewnić dobre wykorzystanie obiektów sieciowych. Scharakteryzowano ramy funkcjonalne i przebieg procesu zarządzania. Przedstawiono wreszcie studium przypadku optymalizacji zasobów sieciowych dla wycinków wrażliwych na opóźnienia (DS) i niewrażliwych na opóźnienia (nDS), aby zilustrować wpływ elastycznej alokacji zasobów, wraz z pewnymi analizami wyników liczbowych.

SLICING SIECI I JEGO NOWE WYMAGANIA DLA 6G

W tej sekcji najpierw przedstawiono ilustrację dzielenia sieci dla scenariuszy inteligentnego miasta z różnymi aplikacjami IoT, a następnie przedstawia ogólną architekturę zarządzania dzieleniem sieci, a także problemy z zarządzaniem zasobami podczas dzielenia na kawałki.

Koncepcja Network Slicing

Koncepcja network slicing jest tak żywa, że nietrudno sobie wyobrazić, że kluczową ideą tej technologii jest dzielenie tej samej infrastruktury sieciowej na kilka niezależnych sieci logicznych [3]. Sposób implementacji instancji wycinka sieci może być statyczny lub dynamiczny. W przypadku statycznego segmentowania, zasoby sieciowe są zarezerwowane wyłącznie dla poszczególnych instancji segmentu sieci. Tak więc, cięcie statyczne może być łatwo zaimplementowane i naturalnie powoduje, że usługi sieciowe w instancji plastra są odizolowane od innych usług sieciowych, podczas gdy oczywiste jest, że cięcie statyczne ma wady polegające na niewykorzystaniu zasobów sieciowych. W przypadku dynamicznego slicingu zasoby są przydzielane dynamicznie zgodnie z rzeczywistymi potrzebami usług w instancjach plastra, co oczywiście jest korzystne dla poprawy efektywności wykorzystania zasobów sieciowych, ale potrzebne są dodatkowe mechanizmy, aby stworzyć gwarancję QoS dla end-to-end (E2E) wydajność. W związku z tym oba typy wycinków będą działać w przyszłych sieciach 6G, ale dynamiczne wycinanie zapewnia większą złożoność. Dlatego krytycznym celem zarządzania podziałem sieci jest osiągnięcie dynamicznego podziału.

Zarządzanie podziałem sieci w 5G

W sieciach 5G osiągnięto konsensus, że pełnoprawny podział sieci będzie oparty na różnych technologiach wspomagających, zwłaszcza SDN i NFV, a odpowiednia architektura zarządzania podziałem sieci staje się koniecznością skoordynowania różnych technologii i zasobów. Nie ma jeszcze znormalizowanej architektury zarządzania podziałem sieci na potrzeby dynamicznego podziału, podczas gdy istniejące wyniki badań mają pewne cechy wspólne. Jeden przykład typowych architektur zarządzania segmentacją sieci pokazano



W architekturze funkcje składowe mogą być pogrupowane na dwa typy odpowiednio dla implementacji segmentu i zarządzania segmentem. Funkcje zarządzania wycinkami bezpośrednio służą do zarządzania cyklem życia instancji wycinków sieci, które koniecznie obejmują funkcję zarządzania wycinkami sieci (NSM) ze wsparciem funkcji zarządzania wycinkami sieci (NSSM), zarządzania instancjami wycinków podsieci w domenach podsieci , ike sieci dostępowej (AN), sieci transportowej (TN) i sieci rdzeniowej (CN). Funkcje implementacji plastra, w tym zarządzanie starszymi jednostkami (EM), kontroler SDN oraz zarządzanie i orkiestracja NFV (MANO), mają głównie na celu połączenie fizycznych lub wirtualnych funkcji sieciowych w łańcuch usług zgodnie z żądaniem plastra. Gdy nadejdzie żądanie komunikacyjne od dzierżawcy usługi sieciowej, CSM interpretuje je jako żądanie części sieciowej. NSM ma zwykle dobrą wiedzę na temat tego, jak szereg funkcji sieciowych będzie logicznie tworzyć usługę sieciową w postaci łańcuchów funkcji usług (SFC), aby zaspokoić potrzeby konkretnego najemcy, takiego jak dostawca usług over-the-top, branża wertykalna firmy lub operatorów wirtualnych sieci komórkowych. Przekształca żądanie wycinka sieci na SFC, a następnie dzieli SFC na segmenty dla podsieci dla wygody implementacji. Następnie NFV-MANO, kontroler SDN i EM współpracują ze sobą w celu wdrożenia krojenia poprzez utworzenie instancji SFC. Jednym z kluczowych problemów we wdrażaniu slicingu sieci jest elastyczne zarządzanie międzydomenowymi heterogenicznymi zasobami sieciowymi. W następnej części krótko omówimy zarządzane zasoby w wycinkach sieci w różnych domenach sieciowych.

1. Zasoby sieci dostępu radiowego: główne zasoby w tej domenie to nośna radiowa, pasmo widmowe, blok zasobów fizycznych, a także urządzenia sieci dostępu radiowego, np. antena, lokalizacje komórkowe [6] itp. Nowe technologie radiowe, takie jak jako opcja numerologii, wybór trybu transmisji, zapewniają nowe wymiary zasobów. Zgodnie z wymaganym poziomem izolacji zasobów i kosztem izolacji RAN, zasoby mogą być dedykowane lub współdzielone, a specjalnie zarezerwowane zasoby są potrzebne usługom o znaczeniu krytycznym, ponieważ umożliwiają one izolację i stabilną wydajność. Jednak w celu poprawy wykorzystania dedykowanych zasobów konieczne jest elastyczne współdzielenie zasobów radiowej sieci dostępowej [9]. Jeśli chodzi o zarządzanie współdzielonymi zasobami, można to osiągnąć, modyfikując program planujący, aby obsługiwał użytkowników w różnych wycinkach z tą samą pulą dostępnych zasobów . Jednak udostępnianie zasobów zwykle oznacza, że wymuszona izolacja między wycinkami nie jest gwarantowana, a zmiany w ruchu mogą spowodować, że jeden wycinek będzie miał wpływ na inny. Dlatego potrzebne jest dynamiczne planowanie typu "slice-ware".
2. Zasoby sieci transportowej: W tej domenie najważniejszymi zasobami do dzielenia na plasterki są dostępne łącza i maksymalna przepustowość dla każdego łącza. W niektórych wcześniejszych pracach zasoby serwera przyłączone do węzłów TN są również postrzegane jako część zasobów TN. Jednak ten artykuł wyświetla te węzły jako węzły w chmurze rozproszonej w CN. W odniesieniu do zarządzania zasobami sieci TN w literaturze zbadano architekturę sieci transmisyjnej eksgeneracyjnej w zakresie przekazywania i fuzji wstecznej oraz zaprojektowano płaszczyznę sterowania dla wielu dzierżawców, umożliwiającą elastyczną alokację zasobów transmisyjnych i zasobów w chmurze. W istniejących pracach zasoby transmisyjne ogólnie tworzą zestaw ważnych ograniczeń, które determinują osadzanie VNF, podczas gdy problem określenia przepustowości łącza między VNF jest NP-trudny. Stanowi to ciągłe wyzwanie dla dzielenia sieci, w którym znajdą się podejścia do inteligencji obliczeniowej aplikacji.
3. Zasoby sieci szkieletowej: W scenariuszach dotyczących sieci z obsługą SDN/NFV sieć szkieletową można traktować jako połączoną funkcję sieci szkieletowej działającą na różnych typach infrastruktury chmury. Dlatego mówimy, że zasoby używane do wycinania w rdzeniowej domenie sieciowej są zasobami węzłowymi w chmurze brzegowej i rdzeniowej, zazwyczaj obejmującymi zasoby obliczeniowe, sieciowe, magazynowe/cache. Alokacja zasobów może być częściowo lub całkowicie ograniczona przepustowością łącza między węzłami. W literaturze badano alokację zasobów pamięci podręcznej i zaprojektowano algorytm oparty na reakcji chemicznej z rozluźnionymi ograniczeniami łącza dla wydajności, podczas gdy podobna alokacja zasobów sieci szkieletowej jest modelowana jako problem osadzania sieci wirtualnej z ograniczeniami lokalizacji i zaproponowano algorytm oparty na grafie kompatybilności rozwiązać problem z mapowaniem między węzłami i łączami.

Jak pokazano powyżej, podczas tworzenia instancji segmentu sieci należy używać i koordynować różne zasoby w różnych domenach sieciowych. W obliczu bardzo zróżnicowanych usług sieciowych 6G, aby te instancje plastra szybko dostosowywały się do zapotrzebowania na usługi w czasie rzeczywistym, bardzo potrzebne jest dynamiczne cięcie z funkcjami automatycznymi. W tym celu proponujemy architekturę zarządzania wycinaniem sieci opartą na technologii SON, pokazujemy jej główne samoorganizujące się pętle kontrolne i identyfikujemy trzy niezawodne podejścia do zarządzania zasobami na potrzeby dynamicznego wycinania.

Wymagania dotyczące krojenia sieci 6G

Ta sekcja skupia się na wymaganiach dotyczących dzielenia sieci 6G. Oprócz dynamicznego slicingu odziedziczonego po 5G, inne wymagania obejmują elastyczność i skalowalność w architekturze zarządzania slicingiem, wydajną alokację zasobów i orkiestrację, adaptacyjne łączenie funkcji usług (SFC) i rekurencję

Elastyczność i skalowalność w architekturze zarządzania krojeniem

Częste dodawanie, usuwanie i szybka mobilność węzłów można zaobserwować w powstających środowiskach sieciowych, takich jak inteligentne miasta, inteligentny przemysł i inteligentny transport. Dynamiczne zmiany topologii sieci powodują więc oczywistą utratę QoS usług sieciowych w tych inteligentnych środowiskach, a skutki będą bardziej widoczne w przyszłej erze 6G. Poza tym, oprócz sieci naziemnych, przewiduje się, że sieci 6G będą składać się z innych segmentów, takich jak segmenty kosmiczne, lotnicze i morskie. Z jednej strony te segmenty mają różne cechy, które należy wziąć pod uwagę przy dzieleniu sieci 6G, tak aby do scharakteryzowania każdego segmentu posłużył określony zestaw modeli i abstrakcji. Z drugiej strony coraz większa skala sieci wynikająca z integracji różnych segmentów sprawia, że zarządzanie całą siecią za pomocą jednego podmiotu zarządzającego w sposób scentralizowany jest coraz trudniejsze. Chociaż wcześniejsze sieci korzystały ze scentralizowanego zarządzania w takich aspektach, jak prostota wdrożenia; jednak, gdy skala sieci staje się coraz większa, użycie jednej jednostki zarządzającej w sposób scentralizowany tylko zwiększa opóźnienie, generuje duże obciążenie komunikacyjne i dodaje dodatkową złożoność. W nadchodzącej sieci 6G przewiduje się, że sieci będą mieć różne segmenty, aby obsługiwać masowe i wszechobecne połączenia typu maszynowego, nawet podłączone z bardzo niezawodną komunikacją o niskim opóźnieniu i/lub wymaganiem szerokopasmowym, problemy związane z wydajnym zarządzaniem siecią i świadczeniem usług w oparciu o sieć będzie bardziej widoczny i wymagający. W takim kontekście sposób projektowania, wdrażania, obsługi i modernizacji sieci wymaga radykalnego przemyślenia pod kątem wymaganych zasobów, opóźnienia czasowego i elastyczności funkcjonalnej, aby wspierać nowatorskie aplikacje sieciowe o ekstremalnych wymaganiach. Koncepcja podziału sieci została wprowadzona w 5G, a zalety i wady statycznego i dynamicznego podziału zostały szeroko omówione. Aby obsłużyć ogromne wymagania QoS i stale pojawiające się aplikacje sieciowe B5G/6G, cięcie sieci powinno umożliwiać rozszerzenie jej funkcjonalności, a ogólna alokacja zasobów sieciowych powinna być dokładnie i wydajnie kontrolowana. Architektura hierarchiczna oparta na orkiestratorach jest uważana za obiecujący sposób. W architekturze wykorzystywanych jest wiele orkiestratorów, z których każdy przeznaczony jest do sterowania określonym segmentem sieci, aby zmniejszyć złożoność. Tych wielu koordynatorów jest następnie kontrolowanych przez koordynatorów wyższego poziomu. W związku z tym orkiestratorzy niższego poziomu wykonują odpowiedzialność, udostępniając grupę pierwotnie skomponowanych funkcji sieci wirtualnej następnym orkiestratorom wyższego poziomu w celu obsługi skalowalnej operacji. Dzięki elastycznej obsłudze dzielenia sieci w celu zarządzania alokacją całkowitych zasobów sieciowych między segmentami można złagodzić niedostateczne wykorzystanie zasobów, aby obsłużyć większą liczbę użytkowników w systemie.

Wydajna alokacja i orkiestracja zasobów

Sieci 6G są zaprojektowane do obsługi różnych inteligentnych usług. Wycinek sieci składa się z różnych typów zasobów, które można w odpowiedni sposób łączyć, aby spełnić wymagania inteligentnych usług obsługiwanych przez taki wycinek. Te inteligentne usługi nakładają ścisłe ograniczenia na dzielenie sieci, ponieważ wszystkie zasoby mają ograniczenia. W szczególności oczekuje się, że wycinki sieci będą izolowane, co oznacza, że wycinek powinien mieć niewielki wpływ na inne wycinki. W przypadku jakiejkolwiek zmiany stanu zasobów w wycinku, takiej jak przepływ sieciowy, nie powinno to mieć wpływu na przydzielone zasoby innych wycinków. Poza tym zarządzanie zasobami każdego segmentu powinno być niezależne, co oznacza, że każdy segment może realizować inną strategię kontroli dostępu. Ponadto wykorzystanie zasobów powinno być jak najbardziej efektywne w celu zwiększenia przepustowości stacji bazowych i pełnego wykorzystania zasobów widma. Efektywna alokacja widma, przepustowości i zasobów obliczeniowych wycinków sieci jest ważna dla realizacji wspólnej optymalizacji wydajności użytkowników i dochodów operacyjnych. Zasoby to możliwe do zarządzania jednostki, które są opisane za pomocą zbioru właściwości lub metryk pojemności używanych do dostarczania usług. W dzieleniu sieci brane są pod uwagę dwa rodzaje zasobów: funkcje sieciowe (NF) i zasoby infrastruktury (IR). NF to jednostki funkcjonalne zapewniające określone funkcje sieciowe w celu obsługi określonych usług wymaganych przez każdego użytkownika. NF to zwykle instancje oprogramowania działające na IR. Funkcje sieciowe mogą być fizyczne, integrując sprzęt i oprogramowanie specyficzne dla dostawcy oraz definiując dedykowane obiekty fizyczne. Mogą być również zwirtualizowane, ponieważ oprogramowanie NF jest oddzielone od sprzętu. IR składa się z podstawowego sprzętu i oprogramowania używanego do hostowania i łączenia NF, które obejmują zasoby obliczeniowe, pamięciowe i komunikacyjne oraz komponenty fizyczne używane do dostępu radiowego. Aby ułatwić wykorzystanie w dzieleniu sieci, zaprojektowano go do abstrakcyjnego i logicznego dzielenia zasobów i ich właściwości za pomocą schematu wirtualizacji, a zasobów wirtualnych można używać tak samo, jak zasobów fizycznych. Aby osiągnąć efektywny slicing sieci, należy dokładnie obliczyć wymagania dotyczące slicingu, a następnie przeprowadzić alokację zasobów. Alokacja zasobów plastra powinna być adaptacyjna, aby zapewnić QoS. Na przykład inteligentny transport jest wrażliwy na opóźnienia, więc inteligentne wycinki transportu wymagają więcej zasobów, aby spełnić ścisłe ograniczenia dotyczące opóźnień.

Adaptacyjne tworzenie łańcuchów funkcji usług i rekurencja

Aby obsługiwać usługi sieciowe o zróżnicowanych wymaganiach, przewiduje się budowę architektury dzielenia sieci dla sieci komórkowych w oparciu o technologie SDN/NFV. W ten sposób instancje wycinka sieci są implementowane przy użyciu połączonych w łańcuch funkcji usług zwirtualizowanych sieci. Ten projekt zapewnia sieciom nową szczegółowość swobody w adaptacyjnym przydzielaniu zbioru zasobów do usługi docelowej. Ponieważ każda funkcja wirtualna powinna działać w określonym węźle, a tym samym zajmuje określoną ilość zasobów w węźle, koszt uruchomienia funkcji, taki jak opóźnienie sieci i wydatki operacyjne, różni się w zależności od usługi ze względu na różne inicjacje i zakończenia lokalizacje usług. Dlatego konieczna jest optymalizacja lokalizacji węzłów w celu realizacji adaptacji SFC. W 6G elastyczna architektura sieci zapewnia również sieci możliwość obsługi małych usług zorientowanych na grupy, takich jak komunikacja alarmowa na miejscu pożaru, awarii lub katastrofy. W takich przypadkach podobne usługi, ale dla różnych najemców lub scen wydarzeń, będą wymagać dodatkowych wycinków. Nowe plasterki można tworzyć z istniejących plasterków, co nazywa się rekurencją, zamiast generować zupełnie nowy, ponieważ tworzenie nowego plasterka jest bardziej złożone niż rekurencyjne tworzenie plasterka. Aby osiągnąć adaptacyjną SFC, optymalizacja ogólnej wydajności sieci również stanowi podstawowe wymaganie, a dwa główne wyzwania to wybór węzłów osadzania dla funkcji wirtualnych i optymalnych schematów routingu wśród tych wybranych węzłów. Aby rozwiązać ten problem, sformułowano wspólną optymalizację ruchu łącza i kosztów operacyjnych, a także zaproponowano dopasowanie oparte na teorii. W artykule minimalizacja ruchu sieciowego ma na celu sformułowanie problemu SFC, a także zaproponowano algorytm minimalizacji kolejnych górnych ograniczeń i jego przekształcenia. Skrajnym przypadkiem adaptacyjnego SFC jest rekurencja. Oprócz kwestii alokacji zasobów, rekursja z istniejącego segmentu podnosi również wymagania dotyczące elastyczności i wydajności architektury zarządzania segmentowaniem sieci. Hierarchiczna architektura wielu kontrolerów umożliwia kontrolerom tworzenie nowych instancji warstwy dla swoich klientów przy użyciu informacji o zasobach i kontekście z innych kontrolerów.

SON-DRIVENE SLICING SIECI DLA SIECI 6G

Architektura zarządzania segmentowaniem sieci oparta na technologii SON Proponowaną architekturę zarządzania segmentacją sieci opartą na technologii SON przedstawiono na rysunku



Tradycyjna koncepcja sieci samoorganizującej się jest rozszerzona z domeny sieci dostępu radiowego do całej sieci, w tym wyraźnie rdzenia sieci komórkowej i sieci transportowej, ponieważ funkcja samoorganizacji będzie konieczna do kontrolowania złożoności wykonywania dynamicznego podziału na plasterki. Poza tym jednostki SON są funkcjami logicznymi, które mogą być zaimplementowane jako część istniejących jednostek zarządzających lub niezależnych jednostek funkcyjnych, dość elastycznych w kontekście SDN/NFV. W górnej warstwie proponuje się, aby NSM SON monitorował wydajność E2E w różnych instancjach plastra, przeprowadza oceny stanu i przewidywania przyszłego trendu. Gdy wystąpi zdarzenie wyzwalające, bez udziału człowieka, wykona odpowiednie działania, w tym wysłanie instrukcji wysokiego poziomu do jednostek SON niższej warstwy, takich jak NSSM-AN SON i NSSM-CN SON. Jak wskazują ich nazwy, odpowiadają one odpowiednio za sieć dostępową i sieć szkieletową. Ze względu na bliski związek między sieciami transportowymi i rdzeniowymi, NSSM-CN SON zajmuje się samoorganizacją obu domen sieciowych. W dziedzinie sieci dostępu radiowego tradycyjne jednostki SON nadal odgrywają znaczącą rolę. Dystrybucyjny SON (D-SON) działa w każdym węźle w celu automatycznej alokacji zasobów, oszczędzania energii, równoważenia obciążenia itp., podczas gdy scentralizowany SON (CSON) koordynuje zachowanie węzłów podczas przeprowadzania optymalizacji. Oba typy wymagają ulepszenia świadomości instancji wycinków, tak aby węzeł komórkowy mógł planować zasoby sieci radiowej z dokładnością do użytkownika podczas osiągania wycinków. Chociaż ulepszone SON umożliwiają węzłom dynamiczne planowanie zasobów puli dla wycinków, nie jest to równoznaczne z dynamicznym wycinaniem. W tym celu proponujemy, aby firma NSSMAN, SON, odpowiadała za dynamiczne krojenie poprzez samooptymalizację przydziałów zasobów między plastrami. W podstawowej domenie sieci kontroler NFV-MANO i SDN współpracują w celu wykonania automatycznego podziału sieci zgodnie z daną SFC i załączoną umową dotyczącą poziomu usług. Podczas tego procesu, pod kontrolą kontrolera NFV-MANO i SDN, można również zaobserwować pewne cechy samoorganizujące się, takie jak zastępowanie niepoprawnie działających VNF i przekierowywanie strumieni ruchu z uszkodzonego portu. Jednak chociaż mają potencjał do obsługi dynamicznego dzielenia na plasterki, kontroler NFV-MANO i SDN są zaprojektowane tak, aby gwarantować jakość usług zinstancjonalizowanych SFC, a nie bezpośrednio odpowiadać za dostrajanie instancji segmentu z uwzględnieniem ruchu z ryzykiem pogorszenia QoS. Dlatego proponuje się, aby NSSM-CN SON zaimplementował świadomość ruchu i wygenerował instrukcje strojenia wysokiego poziomu dla kontrolerów NFVMANO i SDN.

Proces zarządzania w NSMA opartym na SON

Jak pokazano , architektura podziału sieci oparta na technologii SON ma zamknięte pętle kontrolne w każdej domenie dla samoorganizacji wewnątrzdomenowej. Funkcje zarządzania wyższych warstw wiążą każdą domenę i tworzą globalną pętlę sterowania monitorującą ogólne wykorzystanie zasobów sieciowych i wydajność. Zamknięta pętla sterowania SON zwykle składa się z czterech faz, tj. monitorowania, analizowania, planowania i wykonywania, które są w skrócie M, A, P i E . Jednostka zarządzająca oparta na technologii SON może stosować inteligentne podejścia do analizy danych i obliczeń. Dlatego w fazie analizy jednostka zarządzająca może przeanalizować dane inteligentnie zebrane w fazie monitorowania, aby znaleźć przyczynę zdarzenia odstającego, a następnie podjąć decyzję o najlepszym działaniu, aby poradzić sobie ze sprawą ze zoptymalizowanymi parametrami w fazie planowania. Po wykonaniu akcji w fazie wykonania wraca do fazy monitorowania i zamyka pętlę. Pętle kontrolne SON można zaobserwować w każdej domenie podsieci i różnych warstwach zarządzania. W domenie sieci dostępu radiowego węzły komórkowe z funkcjami D-SON typu slice-aware będą monitorować stopień wykorzystania zasobów lokalnych w różnych warstwach i wchodzą w pętlę SON, gdy wystąpią zdarzenia wyzwalające, np. niska szybkość transmisji danych urządzeń końcowych w sieci wycinek sieci. Węzeł przeanalizuje możliwą przyczynę problemu. Znajdując przyczynę np. słaba jakość sygnału łącza radiowego, węzeł podejmie decyzję o działaniu w celu rozwiązania problemu, np. poprawie jakości sygnału poprzez zastosowanie wspólnej transmisji. EMS z funkcjami CSON wchodzi w pętlę SON, gdy wystąpi regionalne lub globalne zdarzenie wyzwalające, więc ogólna zasada zostałaby zaprojektowana w celu lepszej organizacji zasobów dla odpowiednich wycinków. Podsieci sieci transportowej i szkieletowej są zarządzane w sposób scentralizowany. Za pomocą kontrolera NFV-MANO i SDN, NSSM-CN SON może gromadzić i monitorować informacje o stanie globalnej sieci. Wspomagany przez nowoczesne podejścia do głębokiego uczenia, NSSM-CN SON może również wykonywać wiarygodne prognozy obciążenia ruchem i wykorzystania zasobów przez SFC oraz generować plany dostrajania alokacji zasobów dla SFC każdego segmentu w celu uzyskania dynamicznego podziału. Aby zająć się złożonością obliczeniową, funkcje analizowania i optymalizacji w NSSM-CN SON można wdrożyć w postaci struktury uczenia się przez głębokie wzmocnienie. Uczenie się ze wzmocnieniem zapewnia ogólne ramy do iteracyjnego wyszukiwania (prawie) optymalnych rozwiązań w celu zdobycia nowego doświadczenia, podczas gdy towarzysząca mu głęboka sieć neuronowa utrzymuje doświadczenie do szybkiego odniesienia w przyszłości. Dynamiczny slicing z dużym prawdopodobieństwem dostosuje instancje dzielenia sieci operacyjnej; jednak nie oczekuje się, że zmiany alokacji zasobów miały miejsce dramatycznie w przypadku instancji plasterka na dużą skalę. W tym artykule, biorąc pod uwagę praktyczną potrzebę i ograniczenia, identyfikujemy trzy dynamiczne podejścia do zarządzania zasobami do podziału sieci.

Solidne dynamiczne krojenie na podstawie prognoz

W zależności od liczby zaangażowanych podmiotów przedstawiono trzy podejścia do wdrażania dynamicznego cięcia na poziomie VNF i SFC, a mianowicie skalowanie, remapowanie i dołączanie. Skalowanie to kluczowa funkcja NFV, która umożliwia VNF dynamiczne udostępnianie zasobów w puli i zwykle odbywa się w granulacji VNF. Ponowne mapowanie zmienia część instancji SFC w alternatywne miejsca. Dołączanie dołącza nową instancję SFC do docelowej instancji wycinka sieci. Ponieważ podczas procesu automatycznego podziału na plasterki mogą wystąpić różne sytuacje, należy opracować szereg algorytmów w celu rozwiązania mapowania VNF i alokacji zasobów NSI. Więcej wyjaśnień znajduje się w sequelu.

1) Skalowanie
Gdy VNF osiągnie swój limit pojemności, istnieją dwa sposoby na zwiększenie pojemności. Skalowanie poziome odnosi się do dodawania nowego wystąpienia VNF w celu współdzielenia obciążenia i umożliwia nowe wystąpienie VNF działające w tym samym lub sąsiednim węźle dla tego samego obciążenia. Ma więc mniejsze zapotrzebowanie na zasoby i pojemność węzłów fizycznych. Jednak wraz ze zmianami mapowania między VNF a węzłem fizycznym, cięcie poziome wymaga dużych możliwości planowania topologii sieci. Skalowanie w pionie odnosi się do agregowania większej liczby zasobów dla docelowego VNF, a nie dodawania nowego wystąpienia VNF, więc mapowanie między VNF a węzłem fizycznym nie ulega zmianie. Oznacza to, że ekspansja pionowa podnosi wyższe wymagania dotyczące ilości zasobów w węźle fizycznym i technologii wirtualizacji zasobów fizycznych. Skalowanie dynamiczne jest badane w kilku ostatnich pracach. Dzielą one podobną strukturę algorytmu, która ma iteracyjnie sprawdzać NSI w celu określenia, czy zapotrzebowanie na zasoby NSI jest większe niż wstępnie zdefiniowany próg. Jeśli tak, zasoby mogą być przydzielane KUS na żądanie (skalowanie pionowe); w przeciwnym razie do NSI zostaną dodane nowe VNF (skalowanie poziome), a dla nowo dodanych VNF należy zaplanować nową trasę. Różnice tkwią w podejściach predykcyjnych, które wykorzystali do dokładniejszego postrzegania zapotrzebowania na zasoby.

2) Ponowne mapowanie
Istnieją również przypadki, w których VNF w węźle fizycznym muszą być migrowane do innego węzła. Typowym przypadkiem jest migracja z uszkodzonego węzła fizycznego do innego działającego węzła. Kilka VNF w tym samym NSI może być jednocześnie dotkniętych. W takim przypadku konieczne jest ponowne zaplanowanie mapowania NFV i przydziału zasobów, więc VNFM poinformuje NFVO o wykonaniu ponownego planu. Podczas tego procesu NFVO rozważy załączoną umowę o poziomie usług, stan sieci w czasie rzeczywistym oraz zajęcie zasobów i przydział innych NSI. NFVO może zdecydować się na regenerację wycinka lub mapować tylko część VNF zgodnie z rzeczywistą sytuacją i predefiniowanymi preferencjami. Jeśli wycinek zostanie zregenerowany, problem ponownego mapowania jest równoważny początkowemu rozmieszczeniu wycinka. Jeśli zaangażowana jest tylko część VNF, problem ponownego mapowania jest równoważny problemowi wdrażania instancji plastra z częściowo określonymi ograniczeniami zmiennych. Ponowne mapowanie można znaleźć w różnych badaniach związanych z alokacją zasobów usług sieciowych uwzględniającą niezawodność.

3. Dołączanie
Gdy ruch najemcy gwałtownie wzrośnie, NFVO może ustanowić nowy SFC dołączony do NSI najemcy i odciążyć cały ruch do nowego SFC. W ten sposób można zagwarantować nieprzerwaną obsługę istniejącego przedsiębiorstwa w NSI. Poza tym, przy włączonej charakterystyce ruchu, NFVO może automatycznie podzielić przepływ o nieco innej charakterystyce na nowy SFC, aby lepiej kształtować ruch w SFC. Po wykryciu, że ruch wraca do normy, NFVO może zwolnić nowo dodane SFC i ponownie zagospodarować zasoby dla innych usług sieciowych. Takie podejście zapewnia dużą elastyczność przy dzieleniu sieci, a jednocześnie zapewnia znaczną niezawodność. Zgodnie z ilustracją podejście dołączające składa się głównie z trzech komponentów. Po pierwsze, przepływ danych usług sieciowych jest klasyfikowany przez klasyfikator jako in w celu agregowania przepływów danych sieciowych o podobnych właściwościach w tej samej klasie. Następnie można wykorzystać predyktory ruchu, aby podać pewne prognozy dotyczące przepływu sklasyfikowanych danych, a usługi ze zmiennym przepływem danych są dzielone na nową instancję segmentu. Następnie zasoby sieciowe powinny być skoordynowane, aby obsługiwać nowo dodane instancje wycinka sieci z istniejącymi.

STUDIUM PRZYPADKU I OCENY NUMERYCZNE

Studium przypadku


Rysunek



ilustruje przypadek użycia odzwierciedlający zmiany alokacji zasobów dla aplikacji inteligentnych miast w dynamicznych wystąpieniach wycinka sieci. W społeczności mieszkaniowej firma zajmująca się zapewnianiem bezpieczeństwa (SAC) subskrybuje część sieci od operatora sieci w celu połączenia szeroko stosowanych kamer wideo do monitoringu. Kawałek ma zasoby obliczeniowe, dzięki czemu SAC wdraża inteligentne funkcje analizy danych wideo, m.in. funkcja wykrywania włamań (IDF) w warstwie, aby zapewnić automatyczną usługę ostrzegania o bezpieczeństwie dla swoich klientów. W normalnych przypadkach IDF zostanie zaimplementowany w serwerze brzegowym, dzięki czemu dane wideo mogą być przetwarzane szybciej, a przez sieć przechodzi mniej danych. Jednak w przypadku nagłego odcięcia prądu lub gazu, nadające się do noszenia urządzenia rzeczywistości rozszerzonej mogą pomóc serwisantom w przejściu z pionu firmy do wykonywania konserwacji. Aby osiągnąć rozszerzone środowisko czasu rzeczywistego, dla tego pionowego zadania specjalnego (VST) zostanie ustanowiony czasowy wycinek sieci, a złożone funkcje obliczeniowe do obliczeń w rzeczywistości rozszerzonej mają działać jak najbliżej miejsca zdarzenia w celu zmniejszenia opóźnienia usługi. Oba wycinki mogą współużytkować zasoby węzłów brzegowych. Ze względu na ograniczone zasoby w węźle brzegowym i znacznie mniejsze opóźnienia usług rzeczywistości rozszerzonej, gdy wykryty zostanie znak niedoboru zasobów węzła, np. więcej osób zajmujących się naprawami dołączyłoby do konserwacji, VNF IDF zostałyby przemapowane na dalsze rozproszone lub centralne węzły chmury, dzięki czemu można zaoszczędzić cenne zasoby brzegowe dla VST. Podobne sytuacje można łatwo zaobserwować w innych scenariuszach SC-IoT, a dynamiczne dzielenie sieci na segmenty umożliwia ponowne wykorzystanie zasobów sieci dla wycinków wrażliwych na opóźnienia z wycinków niewrażliwych na opóźnienia, aby lepiej obsługiwać wycinki przy tych samych zasobach sieciowych. W sequelu podajemy wstępny wynik, aby pokazać efekty naszego projektu.



Rysunek przedstawia uśredniony wskaźnik wykorzystania zasobów sieciowych i opóźnienie zarówno usług wrażliwych na opóźnienia, jak i niewrażliwych na opóźnienia. Na rys. (a) słupki w każdej grupie reprezentują odpowiednio domeny dostępu, transportu i sieci szkieletowej. Tutaj skupiamy się głównie na zasobach węzłów brzegowych w sieci dostępowej, zasobach przepustowości w sieci transportowej i zasobach węzłów chmury w sieci rdzeniowej. Możemy zaobserwować, jak wzrasta ruch wrażliwy na opóźnienia, coraz więcej zasobów brzegowych w domenie sieci dostępowej będzie zabieranych z usług sieciowych niewrażliwych na opóźnienia, aby obsłużyć te wrażliwe na opóźnienia, więc coraz więcej zasobów brzegowych jest zajmowanych przez wrażliwe na opóźnienia usługi. Całkowity wskaźnik wykorzystania zasobów brzegowych nieznacznie wzrasta ze względu na wzrost całkowitego ruchu. W transporcie i rdzeniu sieci, jest inaczej, wzrost usług wrażliwych na opóźnienia nie sprawi, że usługi wrażliwe na opóźnienia będą zajmować więcej zasobów w sieciach transportowych i rdzeniowych; jednak niewrażliwe na opóźnienia będą wykorzystywać więcej zasobów węzłów w węzłach chmury. Wysyłanie większego ruchu do sieci szkieletowej, niewrażliwe na opóźnienia więcej zasobów przepustowości sieci transportowej, co również widać na rys. (b). Opóźnienie usług wrażliwych na opóźnienia będzie stale wzrastać, podczas gdy opóźnienie usług wrażliwych na opóźnienia pozostanie prawie niezmienione. Ale oba z nich spełniają wymagania. Dzięki dynamice uwzględniającej ruch uliczny usługi wrażliwe na opóźnienia będą obsługiwane z gwarancją małych opóźnień, a usługi niewrażliwe na opóźnienia będą również obsługiwane z satysfakcjonującą wydajnością opóźnień.

STRESZCZENIE

W tej części omówiono inteligentną technologię zarządzania podziałem sieci i sterowania dla przyszłych sieci 6G. W szczególności zbadaliśmy kilka głównych problemów, które należy rozwiązać, gdy dzielenie na plasterki jest wdrażane w sieci, takie jak mapowanie funkcji usługi sieciowej i udostępnianie dzielenia na segmenty dla wielu dzierżawców. Oprócz istniejących prac w tym obszarze, do obsługi wykorzystujemy ramy oparte na SON dzielenie zasobów sieciowych i radiowych dla aplikacji IoT. Wyniki symulacji pokazują, że nasze podejście może zapewnić elastyczne i niezawodne odpowiedzi na skomplikowane scenariusze. Należy zauważyć, że przed praktycznym mechanizmem automatycznego podziału sieci jest jeszcze długa droga. Na razie ta część przedstawia tylko naszą główną ideę dotyczącą automatycznego podziału sieci, a dostarczone ramy wysokiego poziomu mogą zawierać inne szczegółowe algorytmy i mechanizmy, aby uwolnić moc samoorganizacji. Mamy nadzieję, że ta część może zainspirować więcej potencjalnych prac nad tym obiecującym kierunkiem badawczym.

Zastosowania i wdrożenia Internetu Rzeczy 6G

Internet rzeczy (IoT) jest infrastrukturą informacyjną zdigitalizowanego społeczeństwa i napędza najnowszą falę rozwoju przemysłowego. Wraz z rozwojem inteligentnych samochodowych aplikacji IoT, takich jak inteligentny transport, inteligentna nawigacja i automatyczna jazda, samochodowy IoT zyskuje nowe funkcje, które nie mogą być w pełni uwzględnione w obecnych sieciach 5G. W tym rozdziale przedstawiono przegląd trendu rozwoju IoT w pojazdach i omówiono jego związek z 5G i nadchodzącą generacją. Przedstawia również niektóre wyniki ankiety z najnowszej literatury na temat wyzwań i obiecujących technologii dla masowego IoT w pojazdach.

WPROWADZANIE

Internet przedmiotów


IoT to "Internet wszystkiego, co jest połączone". Jest to sieć, która rozszerza się i rozszerza w oparciu o internet. Jest to ogromna sieć utworzona przez połączenie różnych urządzeń wykrywających informacje z Internetem. Może łączyć ludzi z ludźmi i ludzi z rzeczami. Internet wszystkiego stał się charakterystyczną cechą 5G, która głęboko zmieni życie osobiste i gospodarcze oraz rozwój społeczny. Jednocześnie szybki rozwój IoT przekroczy połączenie między rzeczami i wejdzie w nową erę kognitywnego lub inteligentnego IoT. IoT i 6G zostaną głębiej zintegrowane, aby stworzyć cyfrowy bliźniak wirtualny świat. Informacje mogą być przesyłane między ludźmi i ludźmi, ludźmi i rzeczami i rzeczami i rzeczami w świecie fizycznym za pośrednictwem świata cyfrowego. Bliźniaczy świat wirtualny jest symulacją i przewidywaniem świata fizycznego, który dokładnie odzwierciedla i przewiduje prawdziwy stan świata fizycznego. Realizuje "cyfrowego bliźniaka, inteligentnego endogennego", aby pomóc ludziom w dalszym wyzwoleniu i poprawie jakości życia oraz wydajności produkcji i zarządzania całym społeczeństwem. Realizuje się więc wizja "cyfrowego tworzenia nowego świata, inteligentnej komunikacji wszystkich rzeczy". Szybki rozwój technologii komunikacyjnych i informacyjnych sprawia, że masowe połączenia między ludźmi a maszynami stały się nowatorską cechą systemów komunikacyjnych. IoT zapewnia wszechobecną łączność każdemu i wszystkim (w tym telefonom komórkowym, inteligentnym domom, urządzeniom przemysłowym i pojazdom itp.) w dowolnym czasie i miejscu, umożliwiając im komunikowanie się, koordynowanie i udostępnianie informacji między sobą, aby skutecznie podejmować decyzje i wykonywać ich odpowiednich zadań. Wszystkie rodzaje komunikacji, takie jak maszyna-maszyna (M2M), człowiek-maszyna (H2M) i człowiek-człowiek (H2H), mogą być realizowane w IoT. IoT to rozległy obszar badań, mający różne formy, złożone technologie i szerokie implikacje. W świetle cyklu życia informacji, gromadzenia, przesyłania, przetwarzania i wykorzystywania, powszechnie przyjmuje się pięciowarstwową architekturę IoT, a mianowicie warstwę percepcji i rozpoznawania, warstwę komunikacji danych, warstwę połączeń sieciowych, warstwę zarządzania i warstwę aplikacji. Te warstwy pełnią różne funkcje, ale są też ściśle ze sobą powiązane. Poniżej warstwy aplikacji różne technologie na tej samej warstwie uzupełniają się wzajemnie w celu zastosowania w różnych środowiskach i stanowią pełny zestaw strategii dla technologii w tej warstwie. Różne warstwy zapewniają konfiguracje i kombinacje różnych technologii, tworząc kompletne rozwiązanie zgodnie z wymaganiami aplikacji.

WPŁYW WYMAGAŃ APLIKACJI IOT NA 6G

Ponieważ potrzeby społeczne wciąż ewoluują, nastąpił znaczny wzrost liczby pojawiających się przypadków użycia, których nie można zadowalająco obsłużyć za pomocą 5G. Na przykład następna generacja VAR, tj. teleportacja holograficzna, wymaga szybkości transmisji danych na poziomie Tbps i opóźnienia na poziomie mikrosekund, czego nie można osiągnąć nawet w pasmach częstotliwości fal milimetrowych (mmWave) w ramach 5G. Co więcej, zwiększenie automatyzacji przemysłowej i przejście z Przemysłu 4.0 do nadchodzącego paradygmatu Przemysłu X.0 spowoduje, że gęstość łączności znacznie przekroczy 106 km2, dla której zaprojektowano 5G, a ponadto będzie wymagała przeglądu istniejących praktyk zarządzania siecią. Co więcej, wzrost gęstości połączeń spowoduje również wzrost zapotrzebowania na lepszą efektywność energetyczną, do której 5G nie jest przeznaczone. W związku z tym społeczność naukowa skłania się ku sprostaniu wyżej wymienionym głównym wyzwaniom i uważamy, że trwające badania w dziedzinach komunikacji w paśmie terahercowym, inteligentnych powierzchni i środowisk oraz automatyzacji sieci, na przykład, mogą bardzo dobrze pełnić kluczową rolę. Przyszły rozwój technologii 6G może obejmować między innymi następujące, ważniejsze dziedziny techniczne. Technologie te obejmują: (i) sieć działającą w paśmie THz z dużymi zasobami widma, (ii) inteligentne środowiska komunikacyjne, które umożliwiają bezprzewodowe środowisko propagacji z aktywną transmisją i odbiorem sygnału, (iii) wszechobecną sztuczną inteligencję, (iv) duże automatyzacja sieci na dużą skalę, (v) rekonfigurowalny front-end dla wszystkich widm dla dynamicznego dostępu do widma, (vi) komunikacja rozproszona w otoczeniu w celu oszczędności energii, (vii) Internet of Space Things dzięki CubeSats i bezzałogowym statkom powietrznym (UAV) oraz (viii) bezkomórkowe sieci komunikacji masowej MIMO. Odnotowujemy również trzy bardzo obiecujące technologie, które mają kształtować przyszłość komunikacji, ale nie będą wystarczająco dojrzałe dla 6G. Należą do nich: (i) Internet NanoThings, (ii) Internet BioNanoThings oraz (iii) komunikacja kwantowa.

NOWE FUNKCJE POJAZDOWYCH APLIKACJI IOT

W ostatnich latach intensywne wdrażanie tanich czujników bezprzewodowych z zasobami obliczeniowymi i magazynowymi daje pojazdom potężne możliwości przetwarzania informacji w celu optymalizacji decyzji dotyczących jazdy i zwiększenia bezpieczeństwa ruchu. Wraz z poprawą zdolności pojazdów do postrzegania otoczenia i komunikowania się z innymi urządzeniami przydrożnymi, sieć pojazdów ewoluuje w kierunku wizji typu Massive Machine Communication (mMTC). Beyond-5G (B5G) to obiecująca technologia zapewniająca wszechobecne połączenia pojazd-t-wszystko (V2X), w tym pojazd-pojazd (V2V), pojazd-t-infrastruktura (V2I), pojazd-sieć (V2N) oraz komunikacja pojazd-pieszy (V2P) [2]. W tabeli 1 wymieniono usługi i ograniczenia V2X. Oprócz tradycyjnych, masywnych funkcji IoT, rosnące zapotrzebowanie na automatyzację jazdy w dużej mierze zależy od usług krytycznych dla bezpieczeństwa, które są dostarczane za pośrednictwem sieci pojazdów; w związku z tym na pojazdowy Internet Rzeczy nakładane są surowe wymagania dotyczące opóźnień, przepustowości itp. Wymagania te są jeszcze bardziej surowe ze względu na bardzo dynamiczną i przestrzenno-czasową złożoność topologii sieci i szybkozmiennych bezprzewodowe środowisko propagacji spowodowane dużą mobilnością pojazdów.

IoT POJAZDÓW WYMAGA WIĘCEJ NIŻ 5G

Aby zbudować inteligentny system transportowy, pojazdy muszą udostępniać dużą ilość danych w celu obsługi aplikacji, takich jak aktualizowanie w czasie rzeczywistym informacji o ruchu drogowym i informacji awaryjnych, odwoływanie się do mapy nawigacyjnej 3D w celu planowania tras, a nawet automatycznej jazdy. Chociaż większość informacji jest przetwarzana przez sztuczną inteligencję (AI) aplikacji i wdrożeń w lokalnych pojazdach w celu obsługi automatycznej jazdy, autonomiczne sterowanie wysokiego poziomu i planowanie przepływów ruchu w inteligentnym systemie transportowym w dużej mierze opiera się na informacjach o instancji z masywnych połączonych pojazdów i jednostki przydrożne. Ponieważ pojazdy na ogół poruszają się szybko, niezwykle krótki czas podróży w obie strony jest warunkiem koniecznym skutecznego dostarczania informacji w sieciach samochodowych [3]. Ponadto powstający zintegrowany system transportowy 3D, charakteryzujący się współistnieniem pojazdów kosmicznych, powietrznych i podwodnych, znacznie zwiększa skalę i złożoność samochodowego Internetu Rzeczy. W takim kontekście pojazdowy Internet Rzeczy powinien być skonstruowany z lepszą heterogeniczną strukturą, aby wspierać dostarczanie danych w ramach dynamicznej sieci o nowatorskiej strukturze sieciowej. Autoadaptacja oparta na sztucznej inteligencji umożliwia samooptymalizację i szybką reakcję w celu poprawy jakości usług (QoS) i zmniejszenia opóźnień, które mają fundamentalne znaczenie dla sieci samochodowych. Celem szóstej generacji (6G) jest opracowanie inteligentnego systemu, umożliwiającego dostosowanie sieci do dynamicznego środowiska, aby sprostać różnym ograniczeniom różnych zastosowań. Tak więc pod koniec cyklu rozwoju 5G prawdopodobnie nie zobaczymy dojrzałego IoT w pojazdach, ponieważ tylko w B5G/6G można w pełni rozwinąć jego potencjał.

KONCEPCJA I WIZJA MASSIVE IOT 6G
Rozwój koncepcji Internetu Massive
Massive IoT 5G


Kierując się rosnącym zapotrzebowaniem na informatyzację i zaawansowanymi technologiami IoT, przewiduje się, że 10 z miliardów urządzeń IoT, które nie będą ingerowane przez ludzi, zostaną podłączone do sieci w latach 20. XX wieku. Aby zająć się wschodzącym rynkiem, ITU zainicjowało w 2015 r. pozyskiwanie propozycji standardów 5G i zidentyfikowało mMTC jako jeden z trzech głównych scenariuszy aplikacji z ekstremalnymi lub nawet sprzecznymi wymaganiami dotyczącymi wydajności, które kandydujące standardy 5G muszą spełnić, jak pokazano .



Jako wiodąca na świecie organizacja opracowująca standardy komunikacyjne, projekt partnerski trzeciej generacji (3GPP) uruchomił kilka grup roboczych zajmujących się standardami w celu zbadania rozwiązań dla mMTC, takich jak rozszerzony zasięg GSM (EC-GSM), LTE do komunikacji typu maszynowego (LTE-M) i wąskopasmowy IoT (NB-IoT). 5G mMTC ma na celu zapewnienie masowego połączenia urządzeń z zwykle sporadyczną transmisją danych. W tym kontekście opóźnienie i przepustowość nie stanowią dużego problemu w masowym IoT 5G, podczas gdy głównym problemem staje się to, jak zoptymalizować wykorzystanie energii, aby przedłużyć żywotność baterii w tych urządzeniach przez ponad 10 lat. Główne cechy masowego IoT 5G, w tym masowa łączność, są następujące.

•  Małe pakiety danych, zwykle 10 ~ 20 bajtów
•  Ogromne urządzenia (300 000 ~ 1 miliard urządzeń na komórkę)
•  Zwykle transmisja łącza w górę
•  Niska szybkość transmisji danych, około 10 kb/s na użytkownika
•  Niska złożoność i koszt urządzenia
•  Dane sporadyczne (nieokresowe).
•  Wysoka energooszczędność i długa żywotność baterii

B5G/6G MassiveOgromny IoT

Wraz z gwałtownym rozwojem IoT, przewiduje się, że liczba urządzeń IoT wyniesie 41,6 miliarda, a ilość generowanych z nich danych wyniesie 79,4 ZB danych do 2025 roku. Zatem 6G IoT musi być zaprojektowane tak, aby spełniało wyższe wymagania w zakresie zasięgu, pojemność i łączność itp. Oczekuje się, że 6G będzie miało potężne możliwości obliczeniowe i komunikacyjne, aby wspierać przesyłanie i przetwarzanie masowych danych generowanych przez urządzenia IoT. Będąc następną generacją 5G, przewiduje się, że 6G będzie obsługiwać 1000 razy więcej jednoczesnych połączeń na jednostkę powierzchni niż w przypadku 5G. Wymagania dotyczące wydajności urządzeń IoT w masowym IoT 6G są zwykle heterogeniczne, ponieważ muszą dostarczać coraz bardziej zróżnicowane aplikacje. Na przykład ogromna liczba liczników cyfrowych w zakładach energetycznych, gazowych i wodociągowych nie ma ścisłych wymagań dotyczących opóźnień i musi komunikować się tylko okresowo, podczas gdy masywne siłowniki i sterowniki w inteligentnych fabrykach do automatycznego sterowania będą miały surowe wymagania dotyczące opóźnień i wymagają komunikacji w czasie rzeczywistym. Ponadto oczekuje się, że masowy Internet Rzeczy 6G będzie służył różnym branżom, w tym bezpieczeństwu publicznemu, transportowi, środowisku, opiece zdrowotnej, produkcji itp., a tym samym heterogeniczne urządzenia IoT o różnych atrybutach i wymaganiach będą wykorzystywane w bogatej różnorodności zastosowań . Ponieważ wszystkie rodzaje usług komunikacyjnych są ze sobą złożone, trudno będzie zidentyfikować odrębne cechy typowych scenariuszy, jak w przypadku 5G. Dlatego, oprócz zwykłej ulepszonej masowej łączności, kluczowymi czynnikami napędzającymi 6G jest powszechnie uważana kombinacja cech 5G, takich jak wysoka szybkość transmisji danych, wysoka niezawodność, niskie opóźnienia i łączność masowa. Różni się to znacznie od przypadku 5G, w którym te funkcje są określone w przypadku użycia i niekoniecznie będą obsługiwane w tym samym przypadku użycia. Trend można zidentyfikować na podstawie obserwacji, że pojawiające się zaawansowane aplikacje, takie jak wirtualna nawigacja, automatyczna jazda, V2X, obsługują zarówno masowe połączenia, jak i funkcje URLLC.

Główne cechy 6G Massive IoT

Ponieważ nowatorskie usługi informacyjne i komunikacyjne mogą przynieść ogromne zyski, operatorzy ścigają się w budowaniu urządzeń komunikacyjnych nowej generacji. Wśród różnych potencjalnych usług internetowych wiele różnych urządzeń IoT jest połączonych w celu zapewnienia płynnej usługi transmisji w przejrzysty sposób. Dlatego powszechnie uważa się, że IoTs będzie się znacząco rozwijać w ciągu najbliższych kilku lat. W przyszłości 6G pojawią się nowe, różnorodne aplikacje IoT o różnych wymaganiach QoS. Na przykład komunikacja V2X charakteryzuje się dużą mobilnością, sterowanie przemysłowe wymaga bardzo wysokiej niezawodności, komunikacja holograficzna wymaga bardzo małych opóźnień, a urządzenia do monitorowania stanu mają ograniczenia zużycia energii. Obecna sieć nie ma jednak możliwości świadczenia spersonalizowanych usług różnym użytkownikom. Aby obsługiwać transmisję z dużą szybkością transmisji danych, terminale IoT mają mieć dostęp do 6G za pośrednictwem masywnych heterogenicznych stacji bazowych (BS). Kompleksowa percepcja, niezawodna transmisja i inteligentne przetwarzanie to podstawowe cechy IoT. Kompleksowa percepcja oznacza uzyskiwanie informacji o urządzeniach IoT za pomocą różnych czujników i innych technicznych metod percepcji, przechwytywania i pomiaru. Dzięki konwergencji różnych sieci informacyjnych i Internetu obiekty są połączone z siecią informacyjną, a niezawodna interakcja i udostępnianie informacji są przeprowadzane w celu uzyskania niezawodnej transmisji. Inteligentne przetwarzanie oznacza analizowanie i przetwarzanie danych w różnych regionach, branżach i sektorach za pomocą inteligentnych metod, takich jak uczenie maszynowe i uczenie przez wzmacnianie, w celu dostarczenia informacji o świecie fizycznym, gospodarce i społeczeństwie, które podejmują decyzje i sterować inteligentnie. W porównaniu z konwencjonalnymi sieciami IoT, 6G IoT będzie miało kilka nowych funkcji. Po pierwsze, technologia pozyskiwania energii zrekompensuje wadę krótkiej żywotności baterii. Różne źródła energii, takie jak energia słoneczna, będą wykorzystywane do ciągłego dostarczania energii dla urządzeń IoT. Technologia Mobile Edge Computing (MEC) znacznie złagodzi ograniczenia wynikające z ograniczonej mocy obliczeniowej. Niektóre zadania obliczeniowe wymagające małych opóźnień zostaną przeniesione na serwery MEC w celu przetwarzania danych w czasie rzeczywistym. Po drugie, ofensywne usługi IoT o przepustowości krótkiego zasięgu będą wykorzystywać zasoby widma o wysokiej częstotliwości, w tym mmWave i teraherc (THz). Dlatego 6G IoT będzie miał zwiększoną szczytową szybkość transmisji danych w porównaniu z 5G IoT. W przypadku zdalnych usług IoT pokazanych na ryc. (4) drony są wykorzystywane do zapewnienia natychmiastowej komunikacji i pomocy obliczeniowej w celu rozszerzenia zasięgu komunikacji. Wreszcie, podejścia oparte na sztucznej inteligencji, takie jak głębokie uczenie się i uczenie wzmacniające, umożliwiają technologiom 6G promowanie rozwoju inteligencji. Urządzenia podłączone do Internetu mogą bezpośrednio wchodzić w interakcje, zapewniając interaktywną inteligencję i postrzeganie środowiska. Istnieje wiele wyzwań związanych z IoT, takich jak losowe wdrażanie, ograniczone zasoby bezprzewodowe w łączu w górę i w dół, wysoka mobilność niektórych urządzeń, niski poziom naładowania baterii i heterogeniczność urządzeń. W przypadku wielu urządzeń IoT scentralizowane zarządzanie zasobami nie jest odpowiednie ze względu na wysokie koszty przetwarzania i pozyskiwania informacji. Urządzenia podłączone do IoT mają być inteligentne, zdolne do samodzielnego podejmowania decyzji i wykonywa
nia działań. Dlatego rozproszona alokacja zasobów jest niezbędna dla przyszłego IoT.

Typowe scenariusze i zastosowania

Wraz z nadejściem ery IoT masowe urządzenia IoT muszą być podłączone do sieci bezprzewodowej, aby zapewnić różne zastosowania w przemyśle, rolnictwie, medycynie, transporcie i innych dziedzinach. Chociaż do tej pory wdrożono wiele rozwiązań komunikacyjnych IoT, połączenia na dużą skalę i lepsza efektywność energetyczna nie były brane pod uwagę. Komunikacja maszynowa na dużą skalę (MTC) oznacza ogromną liczbę podłączonych urządzeń, takich jak urządzenia do noszenia, inteligentne domy i Internet pojazdów, oraz konieczność zapewnienia niskich kosztów. Ponadto IoT obejmuje różnorodne zastosowania. Monitorowanie w czasie rzeczywistym może wymagać dużej przepustowości. Przepustowość danych jest bardzo mała do śledzenia zasobów, ale nieuchronnie będzie dużo przełączania, gdy obiekt się porusza. Inteligentne liczniki muszą przesyłać niewielkie dane tylko sporadycznie. Dlatego żadna pojedyncza technologia nie może zaspokoić specyficznych potrzeb urządzeń IoT. Obecnie 5G, IoT, MEC, AI, robotyka, blockchain, rzeczywistość wirtualna i inne technologie przyspieszają swoją integrację z przemysłowym IoT, wspólnie promując nadejście "czwartej rewolucji przemysłowej". 5G IoT zapewnia bogate aplikacje. W 6G komunikacja między maszynami i urządzeniami nie będzie podlegać ingerencji człowieka.

1. Inteligentne miasta: Inteligentne miasta mają wiele inteligentnych urządzeń z możliwością postrzegania i przetwarzania informacji. Dzięki inteligentnemu przetwarzaniu i komunikacji urządzenia i infrastruktura mogą być monitorowane lub zarządzane. Na przykład informacje o przyjeździe autobusu i informacje o parkingu można uzyskać wygodnie i na czas.
2. Inteligentne domy: od inteligentnych karmników dla zwierząt po inteligentne termostaty obsługujące połączenia sieciowe, nowoczesne domy są wyposażone w wiele połączonych ze sobą urządzeń. W ostatnich latach rynek tych produktów znacznie się rozwinął. Według prognozy rynku cyfrowego opracowanej przez Statista w 2020 r. szacuje się, że do 2025 r. na całym świecie będzie 481 milionów inteligentnych urządzeń domowych umożliwiają właścicielom domów zwiększenie wydajności i zminimalizowanie śladu węglowego.
3. E-opieka zdrowotna: Opieka zdrowotna to scenariusz aplikacji, któremu należy nadać priorytet. Urządzenia do noszenia mogą być używane do monitorowania stanu zdrowia, a telemedycyna może sprawić, że pacjenci otrzymają pomoc medyczną na czas. Technologia IoT i mobilna technologia komputerowa są wykorzystywane w e-opiece zdrowotnej do łączenia pacjentów, lekarzy i sprzętu medycznego, podnosząc jakość usług medycznych. W przyszłości więcej technologii sztucznej inteligencji zostanie zintegrowanych z branżą medyczną, aby uczynić e-opiekę zdrowotną bardziej inteligentną.
4. Inteligentny transport: Inteligentny transport jest również nazywany inteligentnym systemem transportowym (ITS). W przyszłości ITS będzie połączeniem funkcji monitoringu, komunikacji i sterowania. Pojazdy będą wyposażone w czujniki, inteligentne moduły przetwarzania informacji i sterowania oraz będą podłączone do ITS, dzięki czemu pojazdy będą mogły być monitorowane, zarządzane i informowane o warunkach ruchu. ITS mogą pomóc pojazdom w rozsądnym planowaniu tras i unikaniu wypadków drogowych w miarę możliwości ze względu na wydajność i bezpieczeństwo ruchu. Dlatego cieszy się coraz większym zainteresowaniem różnych krajów.
5. Inteligentne fabryki: Inteligentne fabryki odnoszą się do fabryk z inteligencją. 6G może zapewnić ultrawysoką niezawodność i komunikację z bardzo małymi opóźnieniami, zapewniając wsparcie dla inteligentnych fabryk. Inteligentna fabryka to typowy scenariusz dla 6G IoT. Inteligentne fabryki wykorzystują IoT, 6G, AI i inne zaawansowane technologie percepcji, komunikacji, podejmowania decyzji i kontroli w celu zwiększenia inteligencji fabryk. Inteligentne fabryki są w stanie terminowo i dokładnie gromadzić dane z linii produkcyjnej, monitorować i kontrolować proces produkcyjny, co może obniżyć koszty pracy i poprawić produktywność.

WYZWANIA I POTENCJALNE TECHNOLOGIE 6G

POJAZDOWY IOT
Wyzwania dla pojazdów IoT, które należy rozwiązać w 6G
Współistnienie i współpraca różnych RAT dla zoptymalizowanego CV2X


Aby w przyszłości wspierać samochodowy IoT ze złożonym zapotrzebowaniem na małe opóźnienia, wysoką szybkość transferu i masową łączność, warunkiem wstępnym jest wystarczająca ilość sieci bezprzewodowych. Nowe zasoby widma dla samochodowego IoT można wprowadzić za pomocą technologii, takich jak MIMO, pasma mmWave, VLC i komunikacja THz. Jednak, jak wybrać rozsądną metodologię i założenia do optymalizacji wydajności samochodowego IoT, potrzeba dalszych prac

Konwergencja wykrywania, przetwarzania danych, komunikacji, buforowania i kontroli

W zaawansowanych zastosowaniach w sieciach samochodowych, takich jak automatyka wysokiego poziomu, podejmowanie decyzji o automatycznym sterowaniu opiera się na odpowiednio zebranych informacjach środowiskowych, a sprawne dostarczanie informacji jest uzależnione od optymalizacji alokacji zasobów komunikacyjnych. Jest wybitne. że infrastruktura informatyczna i urządzenia, w tym nie tylko komunikacja, ale także przetwarzanie, buforowanie i przechowywanie, powinny być w pełni wykorzystywane do spełnienia ekstremalnych wymagań QoE dla usług. Ogólnie rzecz biorąc, konwergencja inteligentnego bezprzewodowego wykrywania, komunikacji, obliczeń, buforowania i sterowania jest potrzebna dla samochodowego Internetu Rzeczy 6G i zasługuje na dalsze badania.

Weryfikacje i testy techniczne pojazdów IoT

Włożono wiele wysiłku w przyspieszenie badań nad pojazdowym IoT na całym świecie, ale ocena funkcjonalności i wydajności C-V2X w niektórych przypadkach użycia w scenariuszach testów w terenie, takich jak przypadki awaryjne dla jazda automatyczna, ratownictwo spadających statków powietrznych. Cyfrowy bliźniak zapewnia wirtualną reprezentację systemów i może służyć jako dobra metoda do testów autonomicznej jazdy pojazdów opartych na IoT.

Obiecujące technologie 6G IoT

IoT potrzebuje rozwiązania, które może zapewnić niskie zużycie energii i szeroki zasięg. Ogólnie rzecz biorąc, musi spełniać następujące cztery punkty:

1. Niski koszt techniczny: wspieranie szerszego wdrażania i poprawa zwrotu z inwestycji w aplikacje.
2. Niskie zużycie energii: Żywotność baterii musi być bardzo długa.
3. Szeroki zasięg: można go podłączyć do sprzętu w środowisku podziemnym, budowlanym i wiejskim.
4. Duża przepustowość łącza: Będzie wiele podłączonych urządzeń IoT, co niewątpliwie będzie ogromnym obciążeniem.

Pod względem obliczeniowym tradycyjna metoda najpierw wysyłania, a później obliczania nie ma zastosowania do danych masowych w IoT komórki 6G, ponieważ charakteryzuje się dużym opóźnieniem i niską wydajnością widma. W celu rozwiązania tego problemu zaproponowano bardzo obiecujące rozwiązanie, jakim jest air computing (AirComp), które może bezpośrednio obliczyć funkcję celu obejmującą strukturę sumy na bezprzewodowych kanałach wielokrotnego dostępu (MAC). AirComp w połączeniu z technologią MIMO może wykonywać przestrzenne, wielokanałowe, wielofunkcyjne obliczenia i wykorzystywać przestrzenne kształtowanie wiązki w celu zmniejszenia błędów obliczeń w komórkowym Internecie Rzeczy 6G. Jeśli chodzi o transmisję, w konwencjonalnym schemacie ortogonalnego wielodostępu (OMA) ortogonalne zasoby radiowe w domenie czasu, częstotliwości lub kodu są przydzielane różnym użytkownikom, więc nie ma zakłóceń ze strony innych użytkowników. Trudno jest osiągnąć całkowitą pojemność systemu z wieloma użytkownikami przez OMA, a ilość ortogonalnych zasobów i ziarnistość alokacji ograniczają liczbę użytkowników. Problemy występujące w OMA można rozwiązać za pomocą nieortogonalnego wielodostępu (NOMA), w którym dozwolone są kontrolowane zakłócenia i tolerancja odbiornika na wzrost złożoności. Różni użytkownicy mogą jednocześnie korzystać z zasobów czasu i częstotliwości w tej samej warstwie przestrzeni poprzez multipleksowanie w dziedzinie mocy lub domeny kodowej. Multipleksowanie w domenie mocy polega na przypisywaniu poziomów mocy różnym użytkownikom w celu optymalizacji wydajności systemu. Multipleksowanie domeny kodowej może osiągnąć pewne zyski z ekspansji i zyski z kształtowania kosztem zwiększonej przepustowości kanału. Aby jednocześnie uzyskać dokładne obliczenia i wydajną komunikację, urządzenia IoT wymagają odpowiedniego zasilania energią. Niemniej jednak dostarczanie energii do IoT na dużą skalę nie jest łatwe. IoT na dużą skalę z częstą wymianą baterii nie jest realistyczny z punktu widzenia oszczędności kosztów pracy i ochrony środowiska. Dlatego bardzo atrakcyjne jest wykorzystanie technologii bezprzewodowej transmisji energii (WPT) do realizacji ładowania jeden-do-wielu z wykorzystaniem otwartości bezprzewodowych kanałów rozgłoszeniowych. Aby zwiększyć efektywność WPT w zanikających kanałach, obiecująca jest technologia kształtowania wiązki energii. W rzeczywistości dostarczanie energii, agregowanie danych i przesyłanie informacji konkurują o te same zasoby radiowe w celu poprawy wydajności. Chociaż 6G dopiero się rozpoczęło i jest nadal na etapie koncepcji, układ rozpoczął się, gdy 5G było na szczycie, co wskazuje, że wszyscy zdali sobie sprawę z wad 5G. Dlatego potrzebne są doskonalsze technologie wspierające rozwój branż takich jak AI, IoT, smart driving, smart manufacturing. A 6G będzie czymś więcej niż tylko technologią komunikacyjną. Zintegruje komunikację satelitarną, blockchain, sztuczną inteligencję, IoT i inne zaawansowane technologicznie wymagania w jedno, tworząc w przyszłości ogromną sieć komunikacyjną bez martwych punktów. W tym czasie IoT będzie miał naprawdę podstawy sieci i zapoczątkuje prawdziwy wybuchowy okres.

STRESZCZENIE

Tu badamy rozwijający się trend samochodowego Internetu rzeczy i identyfikujemy jego związek z systemem komunikacji 6G. Inteligentne samochodowe aplikacje IoT odgrywają coraz większą rolę we współczesnym społeczeństwie. Jednak większość funkcji aplikacji stawia nowe wyzwania w zakresie wydajności i możliwości infrastruktury informatycznej. Ze względu na dużą liczbę pojazdów, zwłaszcza jeśli weźmiemy pod uwagę przyszły system transportu powietrzno-zimowo-podwodnego z bezzałogowym sterowaniem, samochodowy IoT ma ogromną funkcję IoT, a jednocześnie wymaga małych opóźnień i prawdopodobnie dużej przepustowości. Są one poza przewidywanym zakresem 5G i prawdopodobnie zostaną wdrożone tylko w 6G. W rozdziale przedstawiono również niektóre wyniki badań z najnowszej literatury na temat wyzwań i obiecujących technologii dla masowego internetu rzeczy w pojazdach.

Chmura/przetwarzanie brzegowe i system Big Data z 6G

Ta sekcja zawiera systematyczne wprowadzenie do przetwarzania w chmurze/przetwarzania brzegowego i systemu dużych zbiorów danych. Przetwarzanie w chmurze zapewnia możliwość korzystania z elastycznych i teleskopowych usług dla użytkowników chmury i może być realizowane poprzez różne usługi hostowane świadczone przez Internet. Przetwarzanie brzegowe odnosi się do otwartej platformy, która wykorzystuje podstawowe możliwości sieci, obliczeń, pamięci masowej i aplikacji po stronie obiektu lub źródła danych i zapewnia usługę najbliższego końca, aby uniknąć stosunkowo dużego opóźnienia w dotarciu do centrum chmury danych. Technologia big data odnosi się do analizy potencjalnie użytecznych informacji z dużej liczby danych. Analiza dużych zbiorów danych może ujawnić ukryte wzorce, nieznane znaczenie, trendy klientów i inne komunikaty, aby zapewnić kompleksowe zarządzanie danymi. Ponadto prędkość 6G jest większa, a zakres usług staje się szerszy w porównaniu z technologiami komunikacyjnymi poprzedniej generacji, co sprawia, że 6G odgrywa ważniejszą lub szerszą rolę w przyszłości dziedziny technologii i społeczeństwa. W tym zakresie autorzy analizują również wpływ 6G na cloud/edge computing i system big data. Zgodnie z zapotrzebowaniem przyszłych użytkowników na 6G oraz charakterystyką samej 6G, cloud/edge computing oraz system big data odegrają niezastąpioną rolę w osiąganiu wysokiej wydajności i korzyści.

PRZETWARZANIE W CHMURZE Z 6G

Rozwój i charakterystyka przetwarzania w chmurze

Wraz z szybkim wzrostem liczby użytkowników smartfonów mobilnych, coraz więcej użytkowników uzyskuje dostęp do Internetu za pośrednictwem telefonów komórkowych. Tymczasem przetwarzanie w chmurze wpływa na usługi mobilne, zmieniając strukturę usług internetowych. Chmura obliczeniowa rozwija się każdego dnia, co stanowi dynamiczną okoliczność o charakterze technicznym. W tym środowisku Cloud computing tworzy innowacyjne rozwiązania i usługi. W ciągu ostatnich trzech lat przedsiębiorstwa chciały zbadać bardziej wydajne i trafne ścieżki wykorzystania swoich inwestycji w IT, aby mogły szybko wdrożyć przetwarzanie w chmurze. Cloud computing daje możliwość korzystania z elastycznych i teleskopowych usług dla użytkowników chmury. Dzięki temu użytkownicy nie muszą instalować zasobów obliczeniowych w swoich systemach. Przetwarzanie w chmurze obiecuje, że może zapewnić użytkownikom tanie i elastyczne usługi. Tymczasem przetwarzanie w chmurze umożliwia małym organizacjom i osobom indywidualnym zarządzanie usługami na całym świecie. Niemniej jednak, chociaż ludzie prowadzą wiele badań w tej dziedzinie, nadal istnieją pewne otwarte wyzwania. Aby rozpocząć i płynnie uruchamiać aplikacje przetwarzania w chmurze, połączenie internetowe musi być solidne, stabilne i szybkie. Przetwarzanie w chmurze wymaga szybkiej sieci i możliwości obsługi dużych zbiorów danych. Zasoby sieciowe nie są jednak nieograniczone, więc normalne korzystanie z chmury obliczeniowej jest nierozerwalnie związane z rozsądnym planowaniem zasobów sieciowych. Ponadto przetwarzanie w chmurze jest niebezpieczne w aplikacjach. System TCP/IP w Internecie nie jest obecnie bezpieczny. Proces aplikacji sieciowych ma pewne wady, takie jak rozprzestrzenianie wirusów czy podsłuchiwanie danych. Dlatego umieszczanie wszystkich danych indywidualnych lub korporacyjnych w chmurze nie jest całkowicie bezpieczne. Przetwarzanie w chmurze wykorzystuje koncepcję obliczeń użytkowych. Może to być realizowane za pośrednictwem różnych usług hostowanych świadczonych przez Internet. W ciągu ostatniej dekady rozwijano go w niezwykle szybkim tempie. Jego model biznesowy to znany wszystkim model usług płatnych zgodnie z rzeczywistym użyciem. W tym modelu użytkownicy płacą tylko za to, z czego korzystają, zamiast płacić za wszystkie rzeczy. Tymczasem ten model może spełniać dodatkowe wymagania usług w czasie rzeczywistym. Zainspirowany ogólnie tanim, szybkim internetem, możliwościami przetwarzania wirtualnego oraz technologią obliczeń równoległych i rozproszonych, zaproponowano ideę przetwarzania w chmurze.

PODSTAWOWE KONCEPCJE PRZETWARZANIA W CHMURZE

Przetwarzanie w chmurze charakteryzuje się łatwością zarządzania, skalowalnością i dostępnością. Poza tym przetwarzanie w chmurze ma wiele zalet, takich jak wygoda, usługa na żądanie, wszechstronność, elastyczność, stabilność itp. Przetwarzanie w chmurze zapewnia przede wszystkim trzy modele świadczenia usług: infrastruktura jako usługa (IaaS), platforma jako usługa (PaaS) ) oraz oprogramowanie jako usługa (SaaS). Ponadto przetwarzanie w chmurze zapewnia cztery wzorce rozwoju: chmura publiczna, chmura prywatna, chmura hybrydowa, chmura społecznościowa i wirtualna chmura prywatna.

Prywatna chmura

W tego rodzaju wzorcu rozwoju chmura jest własnością prywatnej organizacji, ponieważ aplikacje w chmurze mają służyć jej własnej działalności, informacje w chmurze są udostępniane tylko w ramach jej organizacji. Aplikacje w chmurze mogą być wewnętrzne lub zewnętrzne i mogą być nadzorowane przez stronę trzecią lub organizację. Chmura prywatna gwarantuje wydajność, niezawodność i bezpieczeństwo na najwyższym poziomie.

Chmura społecznościowa

Chmura społecznościowa oznacza, że podstawowa chmura jest używana przez kilka organizacji w tym samym czasie i obsługuje określoną społeczność, która ma wspólne problemy, takie jak wymagania bezpieczeństwa, zadania i tak dalej. Chmura społecznościowa przypomina chmurę prywatną. Ma kilka dodatkowych funkcji i może świadczyć usługi dla organizacji o podobnym typie zapotrzebowania.

Chmura publiczna

Chmura publiczna jest przeciwieństwem chmury prywatnej. Jest używany przez społeczeństwo i jest własnością usługodawcy. Service Level Agreement (SLA) to umowa o świadczenie usług między dostawcą a konsumentem. Może określać jakość usług chmury publicznej, wymagania konsumentów i zaangażowanie dostawców. Ponieważ użytkownicy mogli korzystać z usługi EC2 (Elastic Cloud Compute), która mogłaby obsługiwać maszyny wirtualne jako zasoby obliczeniowe, bardzo popularne stało się udostępnianie usługi chmury publicznej dostarczanej przez VM.

Chmura hybrydowa

Infrastruktura chmury składa się z dwóch lub więcej chmur, które mogą być chmurami prywatnymi, społecznościowymi lub publicznymi pokazanymi na rys. (3). Chmury te są połączone ze sobą za pomocą znormalizowanej lub zastrzeżonej technologii, która może zapewnić przenośność danych i aplikacji. Chmura hybrydowa to rozszerzenie przetwarzania w chmurze o techniki przetwarzania w chmurze prywatnej, publicznej i społecznościowej. Wyżej wymienione chmury są integrowane w celu wykonywania wielu zadań, które mogą sprostać wymaganiom organizacji prywatnych, publicznych i społecznych. Chmury hybrydowe są bardziej elastyczne niż chmury prywatne i publiczne. W porównaniu z chmurą publiczną w większym stopniu kontrolują dane aplikacji. Ponadto najlepszy podział między komponentami chmury publicznej i prywatnej powinien zostać dokładnie potwierdzony w procesie projektowania chmury hybrydowej.

NOWE ZASTOSOWANIE CHMURY PRZELICZENIOWEJ W ERZE 6G

6G odegrało kluczową rolę w komunikacji mobilnej dzięki integracji nowych technologii. Szybkość 6G jest większa, a pole usług staje się szersze w porównaniu z technologiami komunikacyjnymi poprzedniej generacji, co sprawia, że 6G odgrywa ważniejszą lub szerszą rolę w przyszłości dziedziny technologii i społeczeństwa [5]. W przyszłej erze 6G przetwarzanie w chmurze będzie nadal rozszerzać swoje wpływy, a ochrona prywatności stanie się ważną częścią aplikacji. Pierwszy bezprzewodowy szczyt 6G odbył się w marcu 2019 r., który zapoczątkował program 6Genesis mający na celu realizację wielu kierunków badawczych 6G. Kierunki dotyczą połączenia bezprzewodowego, technologii urządzeń i obwodów oraz rozproszonego inteligentnego przetwarzania. 6G połączy się z przetwarzaniem w chmurze, dużymi zbiorami danych i sztuczną inteligencją (AI), tworząc integrację bardziej zaawansowanych i wszechobecnych informacji i inteligencji.

WYKRYWANIE I POZYCJONOWANIE W ERZE 6G Z CHMURĄ

Technologia wykrywania i pozycjonowania z wykorzystaniem częstotliwości mmWave i THz może mierzyć otaczające środowisko i uzyskiwać cechy środowiska na podstawie wyników obserwacji sygnału wysłanego do czujnika pokazanego na rys. (4), który wykorzystuje długość fali i selektywność częstotliwościowa. Cechy środowiska są przesyłane na platformę, która może być przetwarzana w czasie rzeczywistym. Oczywiste jest, że technologia wykrywania i pozycjonowania jest odpowiednia dla sceny wewnętrznej za pomocą systemów komunikacyjnych mmWave i THz. Ilość danych środowiskowych generowanych przez sprzęt jest ogromna. Ta duża ilość danych generowanych przez aplikację Sensing musi być przetwarzana i przechowywana przez serwer w chmurze. Aplikacje do wykrywania mogą generować mapy lub wykresy scen z dowolnej lokalizacji. Ta technologia może generować w czasie rzeczywistym szczegółowe obrazy 3D otoczenia lub świata, które będą przesyłane/udostępniane w chmurze przez przyszłe urządzenia. Ponadto niektóre materiały posiadają specyficzną absorpcję drgań częstotliwościowych w całym paśmie THz, co umożliwia wykrycie obecności niektórych substancji na podstawie spektroskopii skaningowej częstotliwości. W technologii wykrywania i pozycjonowania z częstotliwościami THz w scenariuszu 6G pozycjonowanie polega na znalezieniu pozycji stałego lub mobilnego serwera na podstawie znanej pozycji stacji bazowej lub innego rodzaju odniesienia. W celu dokładnego pozycjonowania przetwarzanie w chmurze może wykonywać złożone obliczenia odbicia w technologii pozycjonowania. W środowisku bez linii wzroku (NLOS) światło nie może dotrzeć bezpośrednio do stacji bazowych (BS) z powodu odbić lustrzanych od ścian i powierzchni metalowych, co powoduje spadek dokładności. Dlatego aplikacje pozycjonujące prawdopodobnie będą w stanie skanować otoczenie i generować szczegółowe trójwymiarowe mapy w czasie rzeczywistym lub pozyskiwać je z chmury. Aby można było "obserwować" cele niebezpośrednie poprzez szybkie skanowanie otoczenia w celu zidentyfikowania wszystkich odblaskowych przeszkód w bieżącym środowisku.

UMIESZCZENIE FUNKCJI SPECYFICZNEJ W CHMURZE

Oprócz rozszerzenia tradycyjnej architektury łączności na różne podsieci i scenariusze wielu połączeń, można spodziewać się również dalszych postępów w dzieleniu sieci i wirtualizacji [6]. Dzielenie sieciowe może generować osobny stos oprogramowania przez wysoce wyspecjalizowane cięcie. Wirusowe aplikacje, takie jak domowe urządzenia handlowe, UE, bezzałogowy statek powietrzny (UAV) i inteligentne urządzenia medyczne, są szeroko połączone z siecią rdzeniową z biurami centralnymi i sieciami metra, co może promować integrację różnych trybów komunikacji bezprzewodowej. Dzięki tradycyjnym metodom dostępu do realizacji segmentów możemy również zezwolić na dostęp bezpołączeniowy w oparciu o wycinki IoT o niskiej przepustowości. W urządzeniach bramowych, urządzeniach przekaźnikowych, chmurach brzegowych i regionalnych oraz wielu innych urządzeniach można wykorzystać do spełnienia potrzeb określonych wycinków, dzięki czemu można elastycznie formować rozmieszczenie funkcji specyficzne dla wycinków.

WKŁAD CHMURY KOMUNIKACYJNEJ W KOMUNIKACJĘ MOBILNĄ W 6G

W związku z nadejściem 6G musimy włożyć więcej wysiłku w opracowanie podstaw algorytmów sztucznej inteligencji (AI), możliwości big data i nowych architektur obliczeniowych, w których przetwarzanie w chmurze będzie miało ogromny wkład. Wśród tych trzech ważnych dziedzin sztuczna inteligencja zapewnia inteligencję wszystkim urządzeniom i aplikacjom dzięki informacjom dostarczanym przez duże zbiory danych i moc obliczeniową przetwarzania w chmurze. Big data odgrywa kluczową rolę w połączeniu technologii. Bez tego sztuczna inteligencja nie ma zasobów do wykonywania swoich niezwykłych algorytmów uczenia się, a przetwarzanie w chmurze nie będzie miało żadnych obiektów obliczeniowych. Integracja sztucznej inteligencji, dużych zbiorów danych i przetwarzania w chmurze zapewnia silne możliwości zrozumienia danych 6G.

ZASTOSOWANIE EDGE COMPUTING
Pojawienie się MEC


Aby dostosować się do gwałtownego wzrostu mobilnej transmisji danych na dużą skalę w przyszłości i przyspieszyć rozwój nowych aplikacji biznesowych, system komunikacji mobilnej zaczął się zmieniać. System komunikacji mobilnej nie będzie już czystą ramą komunikacyjną, ale rozwinie się w dostawcę usług opartego na ścisłym połączeniu transmisji, przetwarzania i kontroli informacji. W przyszłości sieć będzie nie tylko świadczyć usługi dla użytkowników terminali mobilnych, ale także stawić czoła wielu różnym branżom wertykalnym, takim jak Internet przemysłowy, Internet rzeczy, automatyczna jazda, zdalna chirurgia itp. Te nowe usługi mają różne cechy, a wymagania dotyczące systemu komunikacji są również różne. Ale ogólnie: zazwyczaj wymagają one bardzo małych opóźnień typu end-to-end, aby przetwarzać duże ilości danych. Istniejąca infrastruktura i sieć komunikacyjna nie są jednak w stanie sprostać wymaganiom nowych usług. Obecnie, ze względu na ograniczoną moc obliczeniową użytkowników końcowych, duża liczba zadań związanych z zapotrzebowaniem na zasoby, których nie można wykonać lokalnie, będzie przesyłana do centrum chmury danych za pośrednictwem sieci komunikacyjnej w celu scentralizowanego przetwarzania. Jednak duża ilość danych w procesie transmisji generuje dodatkowe opóźnienie, które znacznie obniży wydajność aplikacji interaktywnych czasu rzeczywistego. Pojawienie się pierwszego egzaminu próbnego doprowadziło do powstania modelu przetwarzania brzegowego. Edge computing wywodzi się z dziedziny mediów. Odnosi się do otwartej platformy, która wykorzystuje możliwości sieci, obliczeń, przechowywania i rdzenia aplikacji po stronie obiektu lub źródła danych i zapewnia usługę najbliższego końca, aby uniknąć stosunkowo dużego opóźnienia w dotarciu do centrum chmury danych. Model ten został zaakceptowany przez środowisko akademickie i przemysł. We wdrażaniu technologii MEC głównym wyzwaniem jest kwestia bezpieczeństwa. Wymagania bezpieczeństwa przedsiębiorstwa dotyczące bezpieczeństwa sieci: aplikacja biznesowego bezpieczeństwa, bezpieczeństwo danych użytkowników, bezpieczeństwo sieci, stabilność i niezawodność. Zagrożenia bezpieczeństwa i wyzwania, przed którymi stoi firma MEC, wynikają ze zwiększonego ryzyka związanego z bezpieczeństwem infrastruktury oraz trudności związanych z ochroną bezpieczeństwa danych. Infrastruktura sprzętowa MEC wdrożona na obrzeżach sieci jest bardziej podatna na zewnętrzne ataki. Zaatakowane urządzenia brzegowe zwiększają zagrożenie dla infrastruktury sieciowej. Zmniejsza się odległość między atakującym a fizycznym urządzeniem przetwarzania brzegowego, co niesie ze sobą zagrożenia dla bezpieczeństwa, takie jak fizyczne zniszczenie urządzenia, przerwy w świadczeniu usług, prywatność użytkowników i wyciek danych. Szkodliwym użytkownikom łatwiej jest nielegalnie nasłuchiwać lub manipulować ruchem. Obecnie branża rozważa również odpowiednie rozwiązania poprawiające możliwości usług MEC poprzez rozproszoną technologię wykrywania włamań, technologię izolacji maszyn wirtualnych itp. Ponadto zastosowanie MEC może zaoszczędzić energię dla użytkowników, gdzie więcej zadań można wykonać przez Serwer MEC z zasilaniem sieciowym.

Zalety i wady MEC
Zalety MEC


Wraz z szybkim rozwojem systemów komunikacji bezprzewodowej i alokacji zasobów, zwłaszcza gdy rozwijana jest sieć piątej generacji (5G), rozwój Internetu Rzeczy (IoT) poczynił ogromne postępy, co jednocześnie stanowi silne wsparcie dla rozwoju inteligentnych miast. Dwa kluczowe kryteria oceny wydajności IoT to opóźnienie i koszt. Co więcej, mobilne przetwarzanie brzegowe (MEC) polega na rozmieszczaniu zasobów obliczeniowych na serwerach brzegowych blisko użytkowników końcowych, osiągając dobrą równowagę między efektywnością kosztową a dostępem o małych opóźnieniach, co czyni go atrakcyjnym nowym wyborem. W systemie IoT węzły mogą nie tylko kontaktować się ze sobą, ale także przechowywać dane i wykonywać obliczenia. W systemie Internetu Rzeczy technologia bezprzewodowego buforowania jest bardzo ważna, ponieważ może znacznie poprawić jakość doświadczenia użytkownika. Na szczęście dzięki rozwojowi technologii magazynowania koszty magazynowania gwałtownie spadły. Jak wszyscy wiedzą, z wyjątkiem technologii bezprzewodowego buforowania, technologia Mobile Edge Computing (MEC) również odgrywa bardzo ważną rolę w systemach IoT. W dzisiejszych czasach zapotrzebowanie na usługi wrażliwe na opóźnienia szybko rośnie, aby ułatwić obsługę kluczowych zadań, takich jak przemysłowy Internet Rzeczy, pojazdy autonomiczne, e-opieka zdrowotna itp. Aby rozwiązać ten problem, wiele możliwych rozwiązań może sprostać rygorystycznym wymaganiom opóźnienia usługi, w tym MEC. W szczególności MEC umieszcza serwer blisko swoich użytkowników, co skutecznie zmniejsza opóźnienie propagacji. Usługi operatorów telekomunikacyjnych są naturalnie objęte sieciami komórkowymi 5G na terenie całego kraju, a węzły te mogą realizować zadania obliczeniowe przy pomocy pobliskiego węzła zamiast zdalnych chmur. Jednak określenie lokalizacji serwera MEC i powiązanie użytkowników z serwerem jest bardzo skomplikowane. W ten sposób można znacznie skrócić czas oczekiwania i zużycie energii. Ten model zmniejsza fizyczną odległość między zasobami obliczeniowymi i pamięci masowej a bezprzewodowymi urządzeniami końcowymi. MEC świadczą usługi przetwarzania w chmurze na obrzeżach sieci dostępu radiowego (RAN), umożliwiając dostęp do zasobów obliczeniowych i pamięci masowej w pobliżu urządzeń użytkownika końcowego (UE). Żądania klientów są przetwarzane lokalnie na brzegu sieci zamiast przekazywania ruchu do mobilnego łącza dosyłowego, zmniejszając w ten sposób obciążenie mobilnego łącza dosyłowego i unikając wąskich gardeł w sieci. Ponadto bliskość użytkowników końcowych pomaga spełnić surowe wymagania dotyczące opóźnień usług 5G i przypadków użycia. Jednocześnie stale rosnąca moc obliczeniowa i pojemność pamięci przenośnych urządzeń końcowych to cenne zasoby, które można wykorzystać do ulepszenia MEC.

Wady MEC

Obecnie przetwarzanie w chmurze nadal ma niezwykłą moc obliczeniową i zalety przechowywania, a większość danych nadal musi być przesyłana do chmury w celu wykonania obliczeń. Jednak mobilne przetwarzanie brzegowe ma również kilka trudnych problemów do pokonania. Wraz z rozwojem nauki i techniki oraz wzrostem liczby urządzeń rośnie również ilość danych, które trzeba przesłać. Zastosowanie głębokich modeli przekracza moc obliczeniową urządzeń MEC. Jednocześnie wymagana jest również wymiana danych pomiędzy urządzeniami MEC. Istnieje skomplikowany podział pracy i tryb współpracy pomiędzy urządzeniami MEC , a szybką transmisją wiadomości między urządzeniami jest wymagana, aby zapewnić płynne wykonanie zadania.

Przetwarzanie brzegowe w erze 6G
Koncepcja i wizja 6G


Sieć 6G jest kluczową siłą kierującą rozwojem informacji i inteligencji w 2030 roku i oczekuje się, że zapewni lepszą wydajność niż 5G w powstających usługach i innych zastosowaniach. Wysoka prędkość transmisji 6G spełnia warunki i wymagania większości inteligentnych sieci, dlatego jest szeroko stosowana. 6G proponuje dużą autonomiczną architekturę sieci, która integruje sieci kosmiczne, powietrzne, naziemne i podwodne oraz zapewnia łączność bezprzewodową bez żadnych ograniczeń. Ponadto omówiliśmy również sztuczną inteligencję (AI) i uczenie maszynowe oraz powiązane projektowanie i innowacje w zakresie autonomicznych interfejsów sieciowych. Kluczowym czynnikiem dla 6G jest konwergencja wszystkich dotychczasowych funkcji, takich jak gęstość sieci, wysoka przepustowość, wysoka niezawodność i łączność na dużą skalę. Dlatego system 6G będzie kontynuował trend poprzednich generacji w oparciu o nową technologię i nowe usługi. Te nowe usługi obejmują sztuczną inteligencję, inteligentne urządzenia do noszenia, implanty, samojezdne samochody, urządzenia rzeczywistości obliczeniowej, czujniki i trójwymiarowe mapy. Przetwarzanie dużych ilości danych i szybkie łączenie urządzeń to najważniejsze wymagania sieci bezprzewodowej 6G. Na koniec zidentyfikowaliśmy szereg obiecujących ekosystemów 6G pokazanych na ryc. (8), w tym komunikację terahercową (THz), bardzo duże macierze antenowe, duże inteligentne powierzchnie (LISS) i holograficzne formowanie wiązki (HBF), nano-IoT i MEC.

Wpływ 6G na MEC

Dzięki szybszej prędkości transmisji 6G może lepiej rozwiązać powyższy problem. 5G to obecnie najwyższy poziom techniczny w dziedzinie komunikacji, jego sieć może osiągnąć prędkość 1G/min, podczas gdy 6G ma przebić się do 10G/s, a jego teoretyczna prędkość może osiągnąć nawet 1t/s. Przewiduje się, że w erze 6G szczytowa przepustowość pojedynczego terminala 6G osiągnie 100 Gb/s, a całkowita przepustowość pojedynczej komórki osiągnie 1 Tb/s. Tymczasem oczekuje się, że komunikacja o niskim opóźnieniu będzie koncentrować się głównie między maszynami, aby zastąpić tradycyjną transmisję przewodową, taką jak scena przemysłowego Internetu itp. Zapotrzebowanie na opóźnienie powinno być na poziomie sub-ms, a wskaźnik opóźnienia 6G można przewidzieć na wynosić 0,1 ms. Dlatego funkcja MEC w erze 6G powinna być jeszcze bardziej wzmocniona, a nawet może połączyć stację bazową z MEC, aby stać się super stacją bazową. Jednocześnie zostanie wprowadzona sztuczna inteligencja (AI) i niektóre aplikacje oparte na sztucznej inteligencji po stronie serwera MEC, dzięki czemu moc obliczeniowa MEC stanie się niezwykle potężna. Według analizy i obliczeń niektórych danych, przewiduje się, że inteligentna moc obliczeniowa MEC w erze 6G wyniesie 1000 szczytów. Aby przezwyciężyć ograniczenia rozwoju 5G, opracowano unikalny system bezprzewodowy szóstej generacji (6G). W dziedzinie radia oczekuje się, że koncepcja radia 6G(sub-)terahercowego będzie dostępna około 2028 r., technologia interfejsu radiowego i problem RF/widma zostaną omówione bardziej szczegółowo, technologia rdzenia sieci w latach 2023-2025 do zera -skontaktuj się z rdzeniem SDNFV, wszystkie cele na rok 2030 osiągną lokalną, a nawet zorientowaną na użytkownika obsługę mikrosieci. Oczekuje się, że w urządzeniach IoT technologia pozyskiwania energii przestanie zastępować baterie, a nawet urządzenia biodegradowalne mogą być dostępne w ciągu dekady, gdy technologia drukowania dojrzeje. Wierzymy, że przetwarzanie brzegowe będzie odgrywać jeszcze większą rolę w erze 6G. Z perspektywy dalszego rozwoju eMBB biznes VR powinien mieć największe zapotrzebowanie na przepustowość w erze 6G. Oczekuje się, że po 10 latach biznes VR dojrzeje, a VR stanie się typowym biznesem user experience. Zgodnie z zadanym ekstremalnym zapotrzebowaniem na VR w VR360, zapotrzebowanie na przepustowość = rozdzielczość wideo × głębia kolorów × liczba klatek/współczynnik kompresji = (23040×11520) ×12×120/350=1 Gb/s, a typowe zapotrzebowanie na przepustowość w celu uzyskania ekstremalnej VR to 1 Gb/s. W związku z tym przewiduje się, że zalecany współczynnik doświadczenia użytkownika dla sieci 6G wyniesie co najmniej 1 Gb/s. Dlatego głównym problemem badawczym jest to, jak poprawić QoE użytkownika VR za pomocą współpracy MEC. Mobilność to najbardziej podstawowy wskaźnik wydajności systemu komunikacji mobilnej. W erze 6G, biorąc pod uwagę, że w scenariuszu mobilności o dużej prędkości przewiduje się prędkość 1200 kilometrów na godzinę, głównym problemem badawczym jest mechanizm usługi MEC w scenariuszu mobilności o dużej prędkości.

MEC z uczeniem maszynowym
Omówienie modelu ML


Pojawienie się sztucznej inteligencji (AI) zrewolucjonizowało każdą branżę i może stać się kamieniem węgielnym czwartej rewolucji przemysłowej. Model ML to system obliczeniowy używany do uczenia się, że charakterystyk systemu nie można przedstawić za pomocą jawnego modelu matematycznego, i jest często używany do realizacji zadań, takich jak klasyfikacja, regresja, interakcja ze środowiskiem i tak dalej. Obecnie sztuczna inteligencja poczyniła ogromne postępy w widzeniu komputerowym, grach, języku i innych dziedzinach. Gdy system zakończy trenowanie modelu i pozna charakterystykę systemu, może użyć obliczeń, aby skutecznie wykonać zadanie. Znaczące postępy w dziedzinie sztucznej inteligencji doprowadziły do jej coraz szerszego zakresu zastosowań i wszechobecności. Ale chociaż AI ma obiecującą przyszłość w dziedzinie komórkowej, jej rozwój jest wciąż w powijakach.

Wartość MEC dla modelu AI

Szybki rozwój społeczeństwa spowodował częste korzystanie z aplikacji mobilnych i aplikacji Internetu Rzeczy, generując tym samym dużą ilość danych. Nierealne jest jednak przesyłanie wszystkich wygenerowanych danych do chmury. Ostatnie wyniki badań mgły obliczeniowej i wielodostępowego przetwarzania brzegowego (MEC) zapewniają przechowywanie danych w chmurze i umożliwiają rozbudowę zasobów sieciowych. Zasoby te są rozmieszczone geograficznie na obrzeżach sieci, bliżej urządzeń mobilnych i urządzeń Internetu rzeczy, co zapewnia niskie opóźnienia, wysoką przepustowość i świadomość opartą na lokalizacji. Przyszłość sieci komórkowych polega na wykorzystaniu możliwości interfejsów radiowych i informacji międzywarstwowych do obsługi modeli sztucznej inteligencji, które umożliwiają nowsze scenariusze zastosowań dla użytkowników końcowych. Wadą jest to, że aplikacje multimedialne działające w czasie rzeczywistym wymagają dużej mocy obliczeniowej, co uniemożliwia wykonanie tych aplikacji na niektórych urządzeniach mobilnych. Aby rozwiązać ten problem, w bezprzewodowych stacjach bazowych (BS) należy zainstalować serwery mobilnego przetwarzania brzegowego (MEC) w celu wykonania zadań obliczeniowych. Jednak nawet wtedy, gdy serwery MEC są wdrażane za pośrednictwem sieci bezprzewodowych, optymalizacja wdrażania serwerów MEC, przydział zadań, optymalizacja efektywności energetycznej i inne wyzwania będą napotykać.

WIELKIE DANE W 6G
Przegląd Big Data


Obecnie znaczenie big data jest oczywiste. Big data jest nie tylko szeroko stosowany w dziedzinie przewodowej, ale pojawia się również w ludzkiej wizji. Wraz z ciągłym rozwojem technologii, big data rośnie wykładniczo, a władze zmieniły swoje poglądy na temat big data z powodu tej sytuacji. Big data stało się nieodzowną częścią poprawy efektywności działań społecznych. Technologia big data odnosi się do analizy potencjalnie użytecznych informacji z dużej ilości danych. Analiza dużych zbiorów danych może ujawnić ukryte wzorce, nieznane znaczenie i trendy klientów oraz inne komunikaty, aby zapewnić kompleksowe zarządzanie danymi. Z komunikacji bezprzewodowej i sieci bezprzewodowej można gromadzić duże zbiory danych, w tym nie tylko dane historyczne i bieżące, ale także dane użytkowników mobilnych, producentów i operatorów sprzętu, dane z eksperymentów wewnętrznych i zewnętrznych. Istnieje wiele źródeł gromadzenia dużych zbiorów danych. Według różnych firm dane wyodrębnione z wideo, obrazu i dźwięku mogą być wykorzystywane jako źródło danych. Big data ma trzy cechy: pojemność, szybkość i różnorodność. Po pierwsze, ilość przechowywanych danych rośnie wykładniczo wraz z różnorodnością formatów danych. W dzisiejszych czasach, wraz z szybkim rozwojem sieci społecznościowych, w kanałach serwisów społecznościowych możemy znaleźć różne formaty danych, w tym pliki wideo, muzyczne i graficzne. Poziom wolumenu danych to zwykle TB lub Pb. Po drugie, duże zbiory danych charakteryzują się dużą terminowością. Ze względu na dużą szybkość i tempo zmian analizy w czasie rzeczywistym, użytkownicy zawsze zwracają uwagę na najnowsze aktualizacje, co sprawia, że stare wiadomości szybko zastąpiono nowymi. Wreszcie, duże zbiory danych można przechowywać w różnych formatach, takich jak tekst, wideo, SMS, PDF itp., a także obsługuje przechowywanie w formacie zdefiniowanym przez użytkownika.

Najnowsze technologie związane z Big Data
Internet przedmiotów


Wraz z pojawieniem się IOT, w naszym codziennym życiu coraz częściej wykorzystywane są inteligentne urządzenia, maszyny z wbudowanymi różnymi czujnikami łączą się ze sobą za pośrednictwem Internetu. Dzięki realizacji Internetu Rzeczy (IoT) i Przemysłowego Internetu Rzeczy drony, czujniki i inne urządzenia będą generować duże ilości danych. W realnym świecie czujniki mogą znaleźć zastosowanie w monitoringu ruchu, monitoringu danych geograficznych, zbieraniu danych rolniczych, monitoringu prognozy pogody, obiektach użyteczności publicznej oraz sprzęcie AGD. W większości aplikacji IoT bezpieczeństwo danych i sprzętu staje się najbardziej krytyczną kwestią. Aby lepiej przechowywać, uzyskiwać dostęp i wykorzystywać dane z czujników, rośnie zapotrzebowanie na technologie ochrony prywatności i bezpieczeństwa. Internet rzeczy (IoT) i technologie komunikacji mobilnej 6G utorowały drogę inteligentnemu przemysłowi i dobrze zakończyły optymalizację i automatyzację przemysłu.

Sztuczna inteligencja wspierana przez Big Data i 6G

6G i sztuczna inteligencja to dwaj ważni partnerzy dla naszego przyszłego życia. Uważa się, że sztuczna inteligencja sprawi, że 6G będzie jeszcze potężniejsze. Technologia sztucznej inteligencji może zapewnić inteligencję sieciom bezprzewodowym poprzez uczenie się i szkolenie na podstawie dużych zbiorów danych; dlatego sztuczna inteligencja będzie najbardziej innowacyjną technologią do projektowania autonomicznych sieci 6G. Sztuczna inteligencja może również sprawić, że złożone sieci 6G staną się bardziej inteligentne. Najważniejszym efektem jest to, że może osiągnąć wydajne zarządzanie i optymalizację sieci na wysokim poziomie, takie jak świadomość środowiska sieciowego, przewidywanie stanu, aktywna konfiguracja, a dynamiczna sztuczna inteligencja będzie stopniowo migrować z chmury do krawędzi sieci i przyjmować wiele warstw sztucznej inteligencji. Sztuczna inteligencja odgrywa ważną rolę w sieciach 6G. Ostatnio ludzie coraz bardziej interesują się sztuczną inteligencją. Ta metoda jest rozsądnym wyborem do wykrywania złośliwego zachowania zdalnych podmiotów. Istnieją inne wymagania, które wymagają "inteligencji" w sieci, takie jak samokonfiguracja lub złożoność zarządzania. Sztuczna inteligencja zależy od ogromnej mocy obliczeniowej. 6G będzie wykorzystywać stale rosnącą moc obliczeniową, aby poradzić sobie z wyższymi przepływnościami, jednocześnie zyskując większą elastyczność. Aby sprostać potrzebom różnych pojawiających się aplikacji, oczekuje się, że przyszła sieć mobilna szóstej generacji (6G) stanie się naturalnie inteligentną, wysoce dynamiczną, ultragęstą heterogeniczną siecią, która łączy wszystko z ultra niskimi opóźnieniami i dużą szybkością połączenie transmisji danych. Uważa się, że sztuczna inteligencja (AI) będzie najbardziej innowacyjną technologią, która może realizować inteligentną, zautomatyzowaną obsługę, zarządzanie i konserwację sieci w przyszłości bardziej złożonej niż sieć 6G.

Rola i zastosowania Big Data w 6G
Rola Big Data w promowaniu rozwoju 6G


Zgodnie z zapotrzebowaniem przyszłych użytkowników na 6G oraz charakterystyką samej 6G, big data odegra niezastąpioną rolę w osiąganiu wysokiej wydajności i korzyści. W dziedzinie 6G duże zbiory danych są szeroko stosowane do przetwarzania ogromnych ilości danych w celu zapewnienia QoS architektury 6G, a także mogą być wykorzystywane do analizy i określania najlepszego trybu transmisji informacji między użytkownikami, aby osiągnąć efekt znacznego zmniejszenia opóźnienia [16]. W dobie gwałtownego wzrostu ilości danych, big data będzie promować sieć 6G poprzez automatyzację i automatyczną optymalizację. Obecnie big data znajduje zastosowanie w różnych dziedzinach, takich jak rolnictwo, medycyna, administracja publiczna, badania naukowe, sztuczna inteligencja i tak dalej.

Aplikacje Big Data w erze 6G
Obliczenia tensorowe oparte na dużych zbiorach danych


Big data ma również zastosowanie do obliczeń tensorowych. W przyszłej architekturze systemu 6G kluczem do obliczania tensorów jest fundamentalna poprawa wydajności obliczeniowej systemu, czyli przetworzenie tensora widma i tensora systemu w jedną jednostkę zamiast wielu elementów dystrybucji [17]. Aby zrealizować tę podstawową ideę, konieczne jest zbudowanie tensora widma i tensora systemu z dwóch aspektów: dużych zbiorów danych widma i dużych zbiorów danych systemu wielowymiarowego. W tym procesie operacja zostanie zakończona wykryciem i oszacowaniem wypełnienia widma big data i systemu big data. Nawet po ukończeniu danych tensory widma i systemu powinny być rzadkie.

Komunikacja świadoma kontekstu

Obecnie wiele typów baz danych (np. względna baza danych, graficzna baza danych) jest szeroko stosowanych w wielu sytuacjach, mogą być używane do przechowywania rejestrów danych specyficznych dla użytkownika (takich jak struktura systemu NR ujednoliconej jednostki zarządzania danymi), mogą być również używany do procesu i obliczeń na krawędzi, mgle, chmurach zaawansowanej technologii. UE jest centrum przetwarzania świadomości środowiskowej dla 6G, które ma główne funkcje wykrywania, takie jak uczenie się urządzenia, wykrywanie środowiska, rozproszone uczenie maszynowe i dostęp radiowy o pełnej częstotliwości. Ogromna ilość informacji stanowi duże wyzwanie dla zdolności przetwarzania i szybkości transmisji UE. Aby zapełniać i aktualizować bazę danych w czasie rzeczywistym, w celu uzyskania informacji należy zastosować podejście crowdsourcingowe. Dlatego, aby spełnić to wymaganie, należy zdefiniować znormalizowany interfejs. Ilość i różnorodność oczekiwanych informacji wymaga typowego niestandardowego przetwarzania dla rozwiązań Big Data

STRESZCZENIE

W tej części badane są głównie zastosowania przetwarzania w chmurze/krawędzi danych i dużych zbiorów danych w sieciach komórkowych 6G. W pierwszej kolejności wprowadzamy podstawy przetwarzania w chmurze, w tym pojęcia chmury prywatnej, chmury społecznościowej, chmury publicznej i chmury hybrydowej. Po drugie, badamy zastosowania mobilnego przetwarzania brzegowego w oparciu o obiektywną ocenę zalet i wad MEC. Warto zauważyć, że technologia AI, taka jak głębokie uczenie maszynowe, jest pomocna w poprawie wydajności systemu 6G MEC. Po trzecie, prowadzimy dyskusję na temat dużych zbiorów danych 6G, które są w znacznym stopniu zasilane przez IoT i sztuczną inteligencję. Rola big data w 6G jest przewidywana na podstawie obliczeń tensorowych i komunikacji kontekstowej.