Historia inteligentnych anten - History of smart antennas

Opracowano pierwsze inteligentne anteny do komunikacji wojskowej i zbierania informacji wywiadowczych. Rozwój telefonii komórkowej w latach 80. przyciągnął zainteresowanie zastosowaniami komercyjnymi. Przejście na cyfrową technologię radiową w branży telefonii komórkowej, wewnętrznej sieci bezprzewodowej i nadawania satelitarnego stworzyło nowe możliwości dla inteligentnych anten w latach 90., czego kulminacją był rozwój technologii MIMO (multiple-input multiple-output) stosowanej w sieciach bezprzewodowych 4G .

Anteny kierunkowe

Najwcześniejsze sukcesy w śledzeniu i kontrolowaniu sygnałów bezprzewodowych opierały się na fizycznej konfiguracji i ruchu anten. Niemiecki wynalazca i fizyk Karl F. Braun po raz pierwszy zademonstrował kształtowanie wiązki w 1905 roku. Braun stworzył układ fazowany , umieszczając trzy anteny w celu wzmocnienia promieniowania w jednym kierunku i zmniejszenia promieniowania w innych kierunkach. Guglielmo Marconi eksperymentował z antenami kierunkowymi w 1906 roku. Anteny kierunkowe zostały obrócone w celu wykrywania i śledzenia sił wroga podczas I wojny światowej. Brytyjska admiralicja używała goniometrów (radiokompasów) do śledzenia niemieckiej floty. Edwin H. Armstrong wynalazł odbiornik superheterodynowy do wykrywania szumów o wysokiej częstotliwości generowanych przez układy zapłonowe niemieckich samolotów bojowych. Wojna zakończyła się, zanim firma Armstrong była gotowa do pomocy w kierowaniu ogniem przeciwlotniczym. W latach dwudziestych zmontowano wiele elementów (dipol zasilany, reżyser i reflektory), aby stworzyć wąskie układy anten nadawczych i odbiorczych. Macierz Yagi-Uda, lepiej znana jako antena Yagi , jest nadal szeroko stosowana. Edmond Bruce i Harald T. Friis opracowali anteny kierunkowe dla częstotliwości krótkofalowych i mikrofalowych w latach 30. XX wieku.

Decyzja AT&T o użyciu mikrofal do przenoszenia ruchu telefonicznego między miastami doprowadziła do pierwszego komercyjnego wdrożenia anten kierunkowych na dużą skalę (opartych na konstrukcji reflektora rogowego Friisa) w 1947 roku. Anteny kierunkowe ze zmienną polaryzacją umożliwiły ponowne wykorzystanie pojedynczej pary częstotliwości przez wiele kolejnych chmielu. Łącza mikrofalowe są tańsze we wdrażaniu i utrzymaniu niż łącza kablowe koncentryczne.

Radar z układem fazowym

Pierwszy mechanicznie skanowany radar z układem fazowym (przy użyciu obrotowej anteny Yagi) został zademonstrowany w latach 30. XX wieku. Pierwsze elektronicznie skanowane radary wykorzystywały urządzenia elektromechaniczne (takie jak mechaniczne tunery lub przełączniki) do sterowania wiązką anteny.

Niemcy zbudowały szyk kołowy Wullenweber do wyznaczania kierunku we wczesnych latach II wojny światowej. Wullenweber mógł elektronicznie skanować horyzont o 360 ° i określać kierunek dowolnego sygnału z dość dobrą dokładnością. W czasie zimnej wojny szyki kołowe zostały ulepszone do celów podsłuchowych. Amerykański fizyk Luis Walter Alvarez opracował pierwszy naziemny system podejścia (GCA) do lądowania samolotów przy złej pogodzie, oparty na elektronicznie sterowanej mikrofalowej antenie z układem fazowym. Alvarez przetestował i wdrożył system w Anglii w 1943 roku. Pod koniec wojny niemiecka GEMA zbudowała system radarowy z fazowanym układem wczesnego ostrzegania (PESA Mammut 1) do wykrywania celów w odległości do 300 km. Antena Polyrod do kierowania ogniem została opracowana przez Bell Laboratories w 1947 roku przy użyciu kaskadowych przesuwników fazowych sterowanych przełącznikiem obrotowym (wirującym z prędkością dziesięciu obrotów na sekundę) w celu utworzenia ciągłej wiązki skanującej.

Poważny krok w kierunku spełnienia wymagań dotyczących czasu reakcji i zasięgu w zakresie bezpieczeństwa narodowego wymagał opracowania w pełni elektronicznego, sterowanego planarnego radaru z układem fazowym. Wystrzelenie Sputnika przez ZSRR w 1957 r. sugerowało potrzebę naziemnych systemów nadzoru satelitarnego. Bendix Corporation zareagował, budując w 1960 r. Elektronicznie sterowany radar tablicowy (ESAR). Ulepszone techniki kształtowania wiązki, takie jak wielowiązkowe macierze Butlera, zostały opracowane do wykrywania i śledzenia obiektów w kosmosie.

Wprowadzenie Explorer 1 przez Stany Zjednoczone w 1958 roku zasugerowało inne zastosowanie: systemy radarowe oparte na kosmosie do wykrywania i śledzenia samolotów, statków, pojazdów opancerzonych, pocisków balistycznych i pocisków manewrujących. Systemy te wymagały opracowania specjalnych technik usuwania zakłóceń radarowych widzianych z kosmosu, niwelowania zakłóceń naziemnych i kompensacji przesunięć Dopplera doświadczanych przez szybko poruszające się satelity.

Kosmiczne systemy radarowe stały się bodźcem do rozwoju mniejszych, lżejszych i mniej kosztownych komponentów: monolitycznych mikrofalowych układów scalonych ( MMIC ) do pracy w zakresie częstotliwości od 1 GHz do 30 GHz (mikrofale) i od 30 GHz do 300 GHz (fala milimetrowa) zakresy. Wysokie poziomy mocy potrzebne do wykrywania są łatwiejsze do osiągnięcia przy częstotliwościach mikrofalowych. Wąskie wiązki wymagane do śledzenia celu w wysokiej rozdzielczości są najlepiej osiągane przy częstotliwościach fal milimetrowych. Firmy takie jak Texas Instruments , Raytheon , RCA , Westinghouse , General Electric i Hughes Electronics brały udział we wczesnym rozwoju MMICs.

Pierwszy całkowicie stały radar został zbudowany dla piechoty morskiej Stanów Zjednoczonych w 1972 roku przez General Electric. Był to mobilny system radarowy 3D z tablicą zamontowaną na obrotowej platformie do skanowania horyzontu. Pierwszym w pełni półprzewodnikowym radarem z układem fazowym był radar UHF PAVE PAWS (system precyzyjnego wjazdu pojazdu – układ ostrzegania z układem fazowym), zbudowany w 1978 r. dla Sił Powietrznych Stanów Zjednoczonych. Anteny z układem fazowym są również wykorzystywane w radioastronomii. Karl Jansky , odkrywca fal radiowych emanujących z Drogi Mlecznej, użył macierzy Bruce'a do eksperymentów, które przeprowadził w 1931 roku. Nowoczesne radioteleskopy z układem fazowanym zazwyczaj składają się z wielu małych, połączonych ze sobą anten, takich jak Murchison Widefield Array w Australii, zbudowany w 2012 roku.

Adaptacyjne szyki anten

LC van Atta jako pierwszy opisał antenę wsteczną , która przekierowuje (zamiast odbijać ) sygnał z powrotem w kierunku, z którego nadszedł, w swoim patencie z 1959 roku. Sygnał może być modulowany przez hosta przekierowującego do celów takich jak identyfikacja częstotliwości radiowej i kontrola ruchu (wzmocnienie docelowego echa radaru). Pierwsza matryca adaptacyjna, tłumik listków bocznych, została opracowana przez Paula Howellsa i Sida Applebauma w General Electric w 1959 roku w celu tłumienia sygnałów zagłuszania radaru. Opierając się na pracy Norberta Wienera z filtrami analogowymi, w 1960 roku profesor Uniwersytetu Stanforda Bernard Widrow i doktorant Ted Hoff opracowali algorytm najmniejszych średnich kwadratów (LMS), który automatycznie dostosowuje charakterystykę kierunkowości anteny w celu wzmocnienia pożądanych sygnałów. Ted Compton z Ohio State University opracował technikę anteny adaptacyjnej do odzyskiwania sygnałów o widmie rozproszonym o bezpośredniej sekwencji w obecności wąskopasmowych zakłóceń współkanałowych. Metoda Comptona, ogłoszona w 1974 roku, wymaga jedynie znajomości kodu pseudolosowego szumu (PN) pożądanego sygnału, a nie kierunku jego nadejścia. Pod koniec lat 70. Kesh Bakhru i Don Torrieri opracowali algorytm maksyminowy do odzyskiwania sygnałów przeskoków częstotliwości w obecności wąskopasmowych zakłóceń współkanałowych. Artykuł z 1977 roku autorstwa naukowców z Bell Labs, Douglasa O. Reudink i Yu S. Yeh, opisali zalety skanowania wiązek punktowych dla satelitów. Autorzy oszacowali, że skanujące wiązki punktowe mogą zaoszczędzić 20 dB w budżecie łącza, co z kolei może zostać wykorzystane do zmniejszenia mocy nadawania, zwiększenia przepustowości komunikacji i zmniejszenia rozmiaru anten stacji naziemnych. Satelitarne wiązki punktowe są obecnie wykorzystywane przez bezpośrednie systemy satelitarne, takie jak DirecTV i Dish Network .

Strategic Defense Initiative (SDI), zaproponowany w 1983 roku, stał się głównym źródłem finansowania badań technologii w wielu dziedzinach. Algorytmy opracowane do śledzenia międzykontynentalnych pocisków balistycznych i bezpośredniej broni laserowej wykorzystującej promieniowanie rentgenowskie miały szczególne znaczenie dla inteligentnych anten.

Cyfrowe tablice antenowe

Są to układy antenowe z wielokanałowym cyfrowym kształtowaniem wiązki , zwykle przy użyciu FFT .

Teoria "cyfrowych układów antenowych" (DAA) zaczęła pojawiać się jako teoria estymacji wielokanałowej. Jego początki sięgają metod opracowanych w latach 20. XX wieku, które były wykorzystywane do określania kierunku nadejścia sygnałów radiowych przez zestaw dwóch anten na podstawie różnicy faz lub amplitud ich napięć wyjściowych. Ocenę kierunków nadejścia pojedynczego sygnału przeprowadzono więc według wskazań wskazówkowych lub według krzywych Lissajous, rysowanych wiązką na ekranie oscyloskopu.

Pod koniec lat 40. podejście to spowodowało pojawienie się teorii trójkanałowych analizatorów antenowych, które umożliwiły rozwiązanie problemu separacji sygnału celu powietrznego i „antypodu” odbitego od podłoża poprzez rozwiązywanie układu równań uzyskanych za pomocą pomoc złożonych napięć trójkanałowego miksu sygnałów.

Rosnąca złożoność rozwiązywania takich problemów radarowych, a także konieczność wdrożenia efektywnego przetwarzania sygnałów do końca lat 50. przesądziły o zastosowaniu w tej dziedzinie komputerów elektronicznych. Na przykład w 1957 roku Ben S. Meltont i Leslie F. Bailey opublikowali bardzo znaczący artykuł z tej dziedziny, w którym autorzy zaproponowali możliwości implementacji operacji algebraicznych do przetwarzania sygnałów za pomocą układów elektronicznych, ich odpowiedników, w celu opracuj korelator sygnału na podstawie pewnego komputera analogowego.

Zastąpienie analogowych urządzeń komputerowych technologiami cyfrowymi trzy lata później, w 1960 r., było urzeczywistnione w idei wykorzystania szybkich komputerów do rozwiązywania problemów z wyznaczaniem kierunków, początkowo w celu zlokalizowania epicentrum trzęsienia ziemi. BA Bolt był jednym z pierwszych, który wdrożył ten pomysł w praktyce, opracował program dla IBM 704 do wyznaczania kierunku sejsmicznego w oparciu o metodę najmniejszych kwadratów. Niemal równocześnie podobne podejście zastosował Flinn, pracownik naukowy Australian National University.

Pomimo tego, że we wspomnianych eksperymentach interfejs między czujnikami a komputerem realizowany był za pomocą kart wprowadzania danych, taka decyzja była decydującym krokiem na drodze pojawienia się DAA. Pozostało wówczas tylko rozwiązać problem bezpośrednich danych cyfrowych, pozyskiwanych z elementów detekcyjnych, wprowadzanych do komputera, z wyłączeniem etapu przygotowania karty perforowanej i asysty operatora jako łącza nadmiarowego.

Podobno to właśnie Polikarpow BI jako pierwszy zwrócił uwagę na potencjalne możliwości analizatorów wielokanałowych w byłym ZSRR Polikarpow BI wykazuje zasadniczą możliwość rozdzielczości źródeł sygnału przy odległości kątowej mniejszej niż kąt apertury układu antenowego.

Jednak specyficzne rozwiązanie problemu superrayleighowskiej rozdzielczości źródeł emisji zaproponowali Waryukhin VA i Zablotskiy MA dopiero w 1962 r., wynaleźli odpowiednią metodę pomiaru kierunków do źródeł pola elektromagnetycznego. Metoda ta opierała się na przetwarzaniu informacji zawartych w rozkładzie amplitud zespolonych napięć na wyjściach wielokanałowych analizatorów amplitudowych, fazowych i fazowo-amplitudowych i pozwoliła na wyznaczenie współrzędnych kątowych źródeł w szerokości głównego listka odbiornika. system antenowy.

Ponadto Varyukhin VA opracował ogólną teorię analizatorów wielokanałowych, opartą na przetwarzaniu informacji zawartych w rozkładzie złożonych amplitud napięcia na wyjściach cyfrowego szyku antenowego. Ważnym kamieniem milowym w uznaniu wyników naukowych Varyukhina VA była obrona jego rozprawy doktorskiej, która odbyła się w 1967 roku.

Cechą charakterystyczną opracowanych przez niego podstaw teoretycznych jest maksymalna automatyzacja procesu oceny współrzędnych i parametrów sygnałów, natomiast podejście oparte na generowaniu funkcji odpowiedzi wielokanałowego analizatora sejsmicznego i ocenie jego możliwości rozdzielczości na podstawie wrażeń wizualnych właśnie powstało w tym czasie. Chodzi tu o metodę Capona i rozwiniętą dalszą klasyfikację sygnałów wielokrotnych (MUSIC), szacowanie parametrów sygnału za pomocą technik niezmienności rotacyjnej (ESPRIT) i inne metody projekcji estymacji widmowej.

Oczywiście niewdzięcznym jest wnioskowanie o priorytecie i znaczeniu różnych alternatywnych podejść naukowych w procesie rozwoju ogólnej teorii DAA, biorąc pod uwagę sklasyfikowany charakter większości prac i brak możliwości studiowania dziedzictwo naukowe tamtych czasów, nawet biorąc pod uwagę Internet. Proponowana tutaj podróż historyczna tylko nieznacznie podnosiła zasłonę czasu nad prawdziwym rozwojem badań naukowych, a jej głównym celem było wskazanie przez pryzmat tła historycznego ogólnej niszy i ram czasowych powstania teorii analizy wielokanałowej. Na samodzielną uwagę zasługuje szczegółowe przedstawienie historycznych etapów rozwoju teorii DAA.

Zaawansowane techniki przetwarzania

W 1979 roku Ralph O. Schmidt z Laboratorium Systemów Elektromagnetycznych (ESL, dostawca systemów rozpoznania strategicznego) opisał algorytm klasyfikacji wielokrotnych sygnałów (MUSIC) do szacowania kąta nadejścia sygnałów. Schmidt wykorzystał metodę podprzestrzeni sygnału opartą na modelowaniu geometrycznym, aby uzyskać rozwiązanie zakładające brak szumu, a następnie rozszerzył metodę, aby zapewnić dobre przybliżenie w obecności szumu. Artykuł Schmidta stał się najczęściej cytowany, a jego metoda podprzestrzeni sygnałowej stała się przedmiotem trwających badań.

Jack Winters wykazał w 1984 r., że sygnały odbierane z wielu anten można łączyć (przy użyciu techniki optymalnego łączenia) w celu zmniejszenia zakłóceń międzykanałowych w cyfrowych sieciach komórkowych. Do tego czasu różnorodność anten była wykorzystywana tylko do łagodzenia zaniku wielościeżkowego. Cyfrowe sieci komórkowe nie staną się jednak powszechne przez kolejne dziesięć lat.

Richard Roy opracował w 1987 r. algorytm szacowania parametrów sygnału za pomocą technik niezmienności rotacyjnej (ESPRIT). ESPRIT jest bardziej wydajnym algorytmem o wyższej rozdzielczości niż MUSIC do szacowania kąta nadejścia sygnałów. Brian Agee i John Treichler opracowali algorytm stałego modułu (CMA) do ślepego wyrównywania analogowych sygnałów FM i sygnałów telefonicznych w 1983 roku. CMA opiera się na znajomości kształtu fali sygnału, a nie na informacjach o stanie kanału lub sygnałach treningowych. Agee rozszerzyło CMA na anteny adaptacyjne w ciągu najbliższych kilku lat.

W latach 90. firmy, takie jak Applied Signal Technology (AST), opracowały systemy powietrzne do przechwytywania cyfrowych połączeń telefonicznych i wiadomości tekstowych dla celów organów ścigania i bezpieczeństwa narodowego. Podczas gdy system lotniczy może podsłuchiwać użytkownika mobilnego w dowolnym miejscu sieci komórkowej, wszystkie stacje mobilne będą odbierać ponownie wykorzystując tego samego użytkownika i sterować częstotliwościami przy mniej więcej tym samym poziomie mocy. Adaptacyjne techniki kształtowania wiązki i eliminacji zakłóceń są wykorzystywane do skoncentrowania się na docelowym użytkowniku. AST została przejęta przez Raytheon w 2011 roku.

Wielodostęp z podziałem przestrzeni (SDMA)

W 1947 roku Douglas H. Ring napisał wewnętrzne memorandum Bell Laboratories opisujące nowy sposób zwiększenia przepustowości metropolitalnych sieci radiowych. Ring zaproponował podzielenie miasta na komórki geograficzne za pomocą nadajników małej mocy z antenami dookólnymi i ponowne wykorzystanie częstotliwości w niesąsiadujących komórkach. Schemat łączności komórkowej Ringa nie stał się praktyczny aż do pojawienia się układów scalonych w latach siedemdziesiątych.

Wraz ze wzrostem liczby abonentów telefonii komórkowej w latach 80. i 90. naukowcy badali nowe sposoby zwiększania przepustowości sieci telefonii komórkowej. Do podziału komórek na sektory wykorzystano anteny kierunkowe. W 1989 r. Simon Swales z Bristol University w Wielkiej Brytanii zaproponował metody zwiększania liczby jednoczesnych użytkowników na tej samej częstotliwości. Sygnały odbiorcze można rozróżnić na podstawie różnic w ich kierunkach nadejścia w szyku antenowym komórki. Sygnały nadawcze mogą być skierowane do zamierzonego odbiorcy za pomocą formowania wiązki. Soren Anderson w Szwecji zaprezentował w następnym roku podobny schemat oparty na symulacjach komputerowych. Richard Roy i Björn Ottersten z Arraycomm opatentowali metodę wielodostępu z podziałem przestrzennym dla systemów komunikacji bezprzewodowej na początku lat 90-tych. Ta technologia została zastosowana w linii produktów IntelliCell firmy Arraycomm.

Pierwsze komercyjne inteligentne anteny

Richard Roy i francuski przedsiębiorca Arnaud Saffari założyli ArrayComm w 1992 roku i zrekrutowali Marty'ego Coopera , który kierował grupą Motoroli , która opracowała pierwszy przenośny telefon komórkowy, do kierowania firmą. Inteligentne anteny ArrayComm zostały zaprojektowane w celu zwiększenia przepustowości sieci bezprzewodowych wykorzystujących dupleks z podziałem czasu (TDD), takich jak sieci PHS ( Personal Handy-phone System ), które zostały wdrożone w całej Azji. Naukowiec z Bell Labs, Douglas O. Reudink, założył firmę Metawave Communications, producenta anten z przełączaną wiązką dla sieci telefonii komórkowej, w 1995 roku. Metawave twierdziła, że ​​skupiając się na obszarach o największym natężeniu ruchu, może zwiększyć pojemność komórki nawet o 75%. Chociaż firmie Metawave udało się sprzedać anteny z przełączaną wiązką przynajmniej jednemu dużemu operatorowi, firma wycofała się z działalności w 2004 roku. W 1997 roku AT&T Wireless Group ogłosiła plany oferowania stacjonarnych usług bezprzewodowych z prędkością do 512 kbit/s. Projekt Angel obiecał pokrycie bez linii wzroku (NLOS) za pomocą formowania wiązki i multipleksowania z ortogonalnym podziałem częstotliwości (OFDM). Usługa została uruchomiona w dziesięciu miastach w 2000 r. Jednak do 2002 r. AT&T sprzedała swoją działalność w zakresie stacjonarnych usług bezprzewodowych firmie Netro Corp.

Rozwój 4G MIMO

Badania nad inteligentnymi antenami doprowadziły do ​​opracowania 4G MIMO. Konwencjonalne techniki inteligentnych anten (takie jak zróżnicowanie i kształtowanie wiązki) zapewniają przyrostowe korzyści w zakresie wydajności widmowej. Technologia 4G MIMO wykorzystuje naturalną propagację wielościeżkową w celu zwielokrotnienia wydajności widmowej.

Naukowcy badający transmisję wielu sygnałów przez różne przewody w tej samej wiązce kablowej pomogli stworzyć teoretyczne podstawy dla 4G MIMO. W szczególności zbadano techniki eliminowania skutków przesłuchu przy użyciu wiedzy o sygnałach źródłowych. Wśród badaczy „wireline MIMO” znaleźli się Lane H. Brandenburg i Aaron D. Wyner (1974), Wim van Etten (1970), Jack Salz (1985) i Alexandra Duel-Hallen (1992). Chociaż optymalizacja transmisji wielu strumieni danych przez różne pary przewodów w tej samej wiązce wymaga kompensacji przesłuchów, transmisja wielu strumieni danych różnymi ścieżkami bezprzewodowymi ze względu na propagację wielościeżkową jest znacznie większym wyzwaniem, ponieważ sygnały mieszają się w czasie i przestrzeni i częstotliwość.

Artykuł Grega Raleigha z 1996 roku jako pierwszy zaproponował metodę zwielokrotnienia przepustowości łączy bezprzewodowych typu punkt-punkt przy użyciu wielu anten rozmieszczonych w tym samym miejscu na każdym końcu łącza w obecności propagacji wielościeżkowej. Artykuł dostarczył rygorystycznego matematycznego dowodu przepustowości MIMO w oparciu o precyzyjny model kanału i zidentyfikował OFDM jako najbardziej wydajny interfejs radiowy do użytku z MIMO. Dokument został przedłożony IEEE w kwietniu 1996 r. i zaprezentowany w listopadzie 1996 r. na Global Communications Conference w Londynie. Raleigh złożyła również dwa wnioski patentowe dla MIMO w sierpniu tego samego roku.

Raleigh odkrył, że propagację wielościeżkową można wykorzystać do zwielokrotnienia przepustowości łącza po opracowaniu ulepszonego modelu kanału, który pokazał, jak propagacja wielościeżkowa wpływa na kształty fal sygnału. W modelu uwzględniono takie czynniki, jak geometria propagacji radiowej (obiekty naturalne i sztuczne służące jako „odbłyśniki lokalne” i „odbłyśniki dominujące”), sterowanie układem anten, kąt nadejścia i rozproszenie opóźnienia. Badacz Bell Labs, Gerard J. Foschini , przedłożony we wrześniu 1996 r. i opublikowany w październiku tego samego roku, również przedstawił teorię, że MIMO może być wykorzystane do znacznego zwiększenia przepustowości łączy bezprzewodowych punkt-punkt. Bell Labs zademonstrowało prototypowy system MIMO oparty na technologii BLAST ( Bell Laboratories Layered Space-Time ) pod koniec 1998 roku. Kod blokowy czasoprzestrzeni (znany również jako kod Alamouti) został opracowany przez Siavasha Alamoutiego i jest szeroko stosowany w MIMO-OFDM systemy. Artykuł Alamoutiego z 1998 r. wykazał, że korzyści z różnorodności odbioru można również osiągnąć, stosując kombinację dywersyfikacji nadawania i blokowych kodów czasoprzestrzennych. Kluczową zaletą dywersyfikacji transmisji jest to, że nie wymaga wielu anten i łańcuchów RF w słuchawkach.

Multipleksowanie z ortogonalnym podziałem częstotliwości (OFDM)

OFDM pojawił się w latach pięćdziesiątych, kiedy inżynierowie z Collins Radio Company odkryli, że szereg nieciągłych podkanałów jest mniej podatny na zakłócenia międzysymbolowe (ISI). OFDM był badany bardziej systematycznie przez Roberta W. Changa w 1966 roku. Chang użył transformacji Fouriera, aby zapewnić ortogonalność. Sidney Darlington zaproponował zastosowanie dyskretnej transformaty Fouriera (DFT) w 1970 roku. Stephen B. Weinstein i Paul M. Ebert zastosowali dyskretną transformatę Fouriera (DFT) do wykonywania modulacji i demodulacji pasma podstawowego w 1971 roku. Modemy telefoniczne opracowane przez Gandalf Technologies i Telebit w latach 70. i 80. wykorzystywał OFDM do osiągania wyższych prędkości. Amati Communications Corp. wykorzystała swoją dyskretną wielotonową (DMT) formę OFDM do przesyłania danych z większą prędkością przez linie telefoniczne, również przenosząc połączenia telefoniczne w aplikacjach cyfrowej linii abonenckiej (DSL). OFDM jest częścią standardów DAB ( Digital Audio Broadcasting ) i DVB ( Digital Video Broadcasting ) opracowanych w Europie. OFDM jest również używany w standardach bezprzewodowych sieci LAN 802.11a i 802.11g .

Komercjalizacja 4G MIMO

Greg Raleigh, VK Jones i Michael Pollack założyli Clarity Wireless w 1996 roku. Firma zbudowała prototypowe stałe łącze bezprzewodowe MIMO-OFDM działające 100 Mbit/s w paśmie 20 MHz w paśmie 5,8 GHz i zademonstrowało bezbłędne działanie w ponad sześciu mil przy jednym wacie mocy nadawania. Firma Cisco Systems przejęła Clarity Wireless w 1998 r. za swoją technologię wektorową OFDM (VOFDM) bez linii widzenia. Broadband Wireless Industry Forum (BWIF) powstało w 1999 roku w celu opracowania standardu VOFDM. Arogyaswami Paulraj założył Iospan Wireless pod koniec 1998 roku, aby rozwijać produkty MIMO-OFDM. Iospan został przejęty przez firmę Intel w 2003 roku. Ani Clarity Wireless, ani Iospan Wireless nie dostarczały produktów MIMO-OFDM przed ich nabyciem.

Greg Raleigh i VK Jones założyli Airgo Networks w 2001 roku, aby opracować chipsety MIMO-OFDM dla bezprzewodowych sieci LAN. W 2004 roku Airgo stało się pierwszą firmą, która dostarczała produkty MIMO-OFDM. Qualcomm nabył Airgo Networks pod koniec 2006 roku. Surendra Babu Mandava i Arogyaswami Paulraj założyli Beceem Communications w 2004 roku, aby produkować chipsety MIMO-OFDM dla WiMAX. Firma została przejęta przez Broadcom w 2010 r. Instytut Inżynierów Elektryków i Elektroników (IEEE) utworzył pod koniec 2003 r. grupę zadaniową w celu opracowania standardu bezprzewodowej sieci LAN zapewniającego przepustowość co najmniej 100 Mbit/s danych użytkownika. Były dwie główne konkurencyjne propozycje: TGn Sync była wspierana przez firmy, w tym Intel i Philips, a WWiSE była wspierana przez firmy, takie jak Airgo Networks, Broadcom i Texas Instruments. Obie grupy zgodziły się, że standard 802.11n będzie oparty na MIMO-OFDM z opcjami kanałów 20 MHz i 40 MHz. TGn Sync, WWiSE i trzecia propozycja (MITMOT, wspierana przez Motorolę i Mitsubishi) zostały połączone, aby stworzyć coś, co nazwano Joint Proposal. Ostateczny standard 802.11n obsługuje prędkości do 600 Mbit/s (przy użyciu czterech jednoczesnych strumieni danych) i został opublikowany pod koniec 2009 roku. WiMAX został opracowany jako alternatywa dla standardów komórkowych, oparty jest na standardzie 802.16e i wykorzystuje MIMO-OFDM dostarczać prędkości do 138 Mbit/s. Bardziej zaawansowany standard 802.16m umożliwia pobieranie z prędkością do 1 Gbit/s. Ogólnopolska sieć WiMAX została zbudowana w Stanach Zjednoczonych przez Clearwire , spółkę zależną Sprint-Nextel , obejmującą 130 milionów popów do połowy 2012 roku. Clearwire następnie ogłosił plany wdrożenia LTE (standardu komórkowego 4G) obejmującego 31 miast do połowy 2013 roku. Pierwszy standard komórkowy 4G został zaproponowany przez NTT DoCoMo w 2004 roku. Długoterminowa ewolucja (LTE) opiera się na MIMO-OFDM i jest nadal rozwijana w ramach Projektu Partnerstwa Trzeciej Generacji ( 3GPP ). LTE określa prędkości downlink do 300 Mbit/s, uplink do 75 Mbit/s oraz parametry jakości usług, takie jak niskie opóźnienia. LTE Advanced dodaje obsługę pikokomórek, femtokomórek i kanałów wielu nośnych o szerokości do 100 MHz. LTE zostało przyjęte zarówno przez operatorów GSM /UMTS, jak i CDMA .

Pierwsze usługi LTE zostały uruchomione w Oslo i Sztokholmie przez TeliaSonera w 2009 roku. Wdrożenie jest najbardziej zaawansowane w Stanach Zjednoczonych, gdzie wszyscy czterej operatorzy Tier 1 posiadają lub budują ogólnokrajowe sieci LTE. Obecnie działa ponad 222 sieci LTE w 83 krajach z około 126 milionami połączeń (urządzeń).

Nowe standardy 5G MIMO-OFDM

802.11ac standardem bezprzewodowej sieci LAN został zaproponowany dostarczyć prędkością 1 Gbit / s i szybsze. Opracowanie specyfikacji rozpoczęło się w 2011 roku i ma zostać zakończone do 2014 roku. 802.11ac wykorzystuje pasmo 5 GHz, definiuje kanały o szerokości do 160 MHz, obsługuje do 8 jednoczesnych strumieni danych MIMO i zapewnia surowe szybkości danych do prawie 7 Gb/s. Obecnie dostępnych jest wiele produktów opartych na szkicowych specyfikacjach 802.11ac.

Koncepcje sieci komórkowych piątej generacji ( 5G ) są na etapie eksploracji. Komercjalizacja spodziewana jest na początku lat dwudziestych. W marcu 2013 r. NTT DoCoMo przetestowało łącze uplink 10 Gbit/s przy 400 MHz w paśmie 11 GHz. W maju 2013 r. Samsung ogłosił, że eksperymentuje w paśmie 28 GHz, wykorzystując stacje bazowe z maksymalnie 64 antenami i osiąga 1 Gbit/s na dystansie do 2 kilometrów. Samsung twierdzi, że technologia może dostarczyć dziesiątki Gbit/s na korzystnych warunkach. Artykuły naukowe sugerują, że sieci 5G prawdopodobnie będą składać się z małych rozproszonych komórek działających na częstotliwościach do 90 GHz przy użyciu „masywnego MIMO”. Według Jakoba Hoydisa z Bell Laboratories, Alcatel-Lucent , Niemcy, „ Zagęszczenie sieci jest jedynym rozwiązaniem problemu kryzysu wydajności”. Może to obejmować sieci dwupoziomowe („HetNets”) wykorzystujące istniejące komórkowe stacje bazowe w celu zapewnienia szerokiego zasięgu i wysokiej mobilności oraz przeplatanych małych komórek na potrzeby przepustowości i usług wewnętrznych. Masywne MIMO byłoby również stosowane w szybkich łączach dosyłowych.

Zobacz też

Bibliografia