Internetowa sieć komputerowa - Internet area network

Sieć internetowa ( IAN ) to koncepcja sieci komunikacyjnej, która łączy punkty końcowe głosu i danych w środowisku chmury przez IP, zastępując istniejącą sieć lokalną (LAN), sieć rozległą (WAN) lub publiczną komutowaną sieć telefoniczną ( PSTN).

Przegląd

Postrzegany przez zwolenników jako sieciowy model przyszłości, IAN bezpiecznie łączy punkty końcowe przez publiczny Internet, dzięki czemu mogą komunikować się i wymieniać informacje i dane bez przywiązania do fizycznej lokalizacji.

W przeciwieństwie do sieci LAN, która łączy komputery na ograniczonym obszarze, takim jak dom, szkoła, laboratorium komputerowe lub budynek biurowy, lub sieci WAN, która obejmuje rozległy obszar, na przykład dowolna sieć telekomunikacyjna łącząca się na obszarze metropolitalnym, regionalnym, lub granice państwowe, używając transportu sieci prywatnej lub publicznej, IAN całkowicie eliminuje profil geograficzny dla sieci, ponieważ aplikacje i usługi komunikacyjne zostały zwirtualizowane. Punkty końcowe muszą być podłączone tylko za pośrednictwem połączenia szerokopasmowego przez Internet.

Hostowana w chmurze przez dostawcę usług zarządzanych platforma IAN oferuje użytkownikom bezpieczny dostęp do informacji z dowolnego miejsca, w dowolnym czasie, za pośrednictwem połączenia internetowego. Użytkownicy mają również dostęp do usług telefonii, poczty głosowej, poczty elektronicznej i faksu z dowolnego podłączonego punktu końcowego. W przypadku firm model hostowany zmniejsza wydatki na IT i komunikację, chroni przed utratą danych i przestojami w przypadku awarii, jednocześnie zapewniając większy zwrot z zainwestowanych zasobów dzięki zwiększonej produktywności pracowników i obniżeniu kosztów telekomunikacyjnych.

Historia

IAN jest zakorzeniony w rozwoju chmury obliczeniowej , której podstawowa koncepcja sięga lat pięćdziesiątych; kiedy komputery mainframe na dużą skalę stały się dostępne w środowiskach akademickich i korporacjach, dostępne za pośrednictwem cienkich klientów i komputerów terminalowych . Ponieważ zakup komputera typu mainframe był kosztowny, ważne stało się znalezienie sposobów na uzyskanie największego zwrotu z inwestycji, umożliwiając wielu użytkownikom dzielenie zarówno fizycznego dostępu do komputera z wielu terminali, jak i współdzielenie czasu procesora. wyeliminowanie okresów bezczynności, które stały się znane w branży jako time-sharing .

Rosnące zapotrzebowanie na komputery i korzystanie z nich na uniwersytetach iw laboratoriach badawczych pod koniec lat sześćdziesiątych spowodowało potrzebę zapewnienia szybkich połączeń między systemami komputerowymi. Raport Laboratorium Promieniowania Lawrence'a z 1970 roku szczegółowo opisujący rozwój ich sieci "Octopus" dał dobry obraz sytuacji.

W miarę jak komputery stawały się coraz bardziej rozpowszechnione, naukowcy i technolodzy badali sposoby udostępnienia mocy obliczeniowej na dużą skalę większej liczbie użytkowników poprzez współdzielenie czasu, eksperymentując z algorytmami w celu zapewnienia optymalnego wykorzystania infrastruktury, platformy i aplikacji z priorytetowym dostępem do procesora i wydajnością użytkowników końcowych.

John McCarthy w latach 60. wyrażał opinię, że „obliczenia mogą kiedyś zostać zorganizowane jako narzędzie użyteczności publicznej ”. Prawie wszystkie współczesne cechy przetwarzania w chmurze (elastyczne dostarczanie jako narzędzie, online, iluzja nieskończonej podaży), porównanie z przemysłem energetycznym oraz wykorzystanie form publicznych, prywatnych, rządowych i społecznościowych zostały dokładnie zbadane w książce Douglasa Parkhilla z 1966 r., Wyzwanie narzędzia komputerowego. Inni badacze wykazali, że korzenie cloud computing sięgają lat pięćdziesiątych, kiedy naukowiec Herb Grosch (autor prawa Groscha ) postulował, że cały świat będzie działał na głupich terminalach zasilanych przez około 15 dużych centrów danych. Ze względu na koszty tych potężnych komputerów wiele korporacji i innych podmiotów mogło korzystać z możliwości obliczeniowych dzięki współdzieleniu czasu, a kilka organizacji, takich jak GE GEISCO, spółka zależna IBM The Service Bureau Corporation (SBC, założona w 1957 r.), Tymshare (założona w 1957 r.) 1966), National CSS (założony w 1967 i kupiony przez Dun & Bradstreet w 1979), Dial Data (kupiony przez Tymshare w 1968) oraz Bolt, Beranek i Newman (BBN) reklamowali dzielenie czasu jako przedsięwzięcie komercyjne.

Rozwój Internetu od skoncentrowania się na dokumentach poprzez dane semantyczne w kierunku coraz większej liczby usług został opisany jako „ Dynamiczna Sieć ”. Wkład ten koncentrował się w szczególności na potrzebie lepszych metadanych, które byłyby w stanie opisać nie tylko szczegóły implementacji, ale także szczegóły koncepcyjne aplikacji opartych na modelach.

W latach 90. firmy telekomunikacyjne, które wcześniej oferowały głównie dedykowane obwody danych punkt-punkt, zaczęły oferować usługi wirtualnej sieci prywatnej (VPN) o porównywalnej jakości usług, ale przy znacznie niższych kosztach. Przełączając ruch w celu zrównoważenia wykorzystania według własnego uznania, byli w stanie zoptymalizować ogólne wykorzystanie sieci. Symbol chmury służył do oznaczenia punktu rozgraniczenia między tym, za co odpowiadał dostawca, a tym, za co odpowiadali użytkownicy. Przetwarzanie w chmurze rozszerza tę granicę, obejmując zarówno serwery, jak i infrastrukturę sieciową.

Po bańce dot-com , Amazon odegrał kluczową rolę w rozwoju przetwarzania w chmurze, modernizując swoje centra danych , które, podobnie jak większość sieci komputerowych , wykorzystywały jednorazowo zaledwie 10% swojej pojemności, by tylko zostawić miejsce na sporadyczne kolce. Odkrywszy, że nowa architektura chmury przyniosła znaczną poprawę wydajności wewnętrznej, dzięki której małe, szybko działające „zespoły dwóch pizzy” (zespoły wystarczająco małe, aby nakarmić je dwiema pizzami) mogły szybciej i łatwiej dodawać nowe funkcje, Amazon zainicjował nowy produkt starania rozwojowe mające na celu zapewnienie przetwarzania w chmurze klientom zewnętrznym i uruchomienie Amazon Web Services (AWS) na podstawie obliczeń użytkowych w 2006 roku.

Na początku 2008 roku Eucalyptus stał się pierwszą platformą typu open source, zgodną z interfejsem AWS API do wdrażania chmur prywatnych. Na początku 2008 roku OpenNebula , udoskonalony w ramach finansowanego przez Komisję Europejską projektu RESERVOIR , stał się pierwszym oprogramowaniem typu open source do wdrażania chmur prywatnych i hybrydowych oraz do federacji chmur. W tym samym roku, w ramach projektu finansowanego przez Komisję Europejską IRMOS , skoncentrowano się na zapewnieniu gwarancji jakości usług (wymaganych przez interaktywne aplikacje działające w czasie rzeczywistym) dla infrastruktury opartej na chmurze, co skutkuje stworzeniem środowiska chmury czasu rzeczywistego . Do połowy 2008 r. Gartner dostrzegł szansę na przetwarzanie w chmurze „do kształtowania relacji między konsumentami usług IT, tymi, którzy korzystają z usług IT i tymi, którzy je sprzedają” i zauważył, że „organizacje przechodzą z zasobów sprzętowych i oprogramowania należących do firmy do modele oparte na usługach w zależności od użycia”, dzięki czemu „przewidywane przejście na komputery... spowoduje dramatyczny wzrost produktów IT w niektórych obszarach i znaczne redukcje w innych”.

W 2011 roku firma RESERVOIR powstała w Europie, aby tworzyć technologie open source, aby umożliwić dostawcom usług w chmurze tworzenie zaawansowanej chmury z równoważeniem obciążeń, obniżaniem kosztów i przenoszeniem obciążeń w różnych lokalizacjach geograficznych za pośrednictwem federacji chmur. Również w 2011 roku IBM ogłosił platformę Smarter Computing do obsługi Smarter Planet . Wśród różnych elementów fundamentu Smarter Computing, przetwarzanie w chmurze jest elementem krytycznym.

Obecnie wszechobecna dostępność sieci o dużej pojemności, tanich komputerów i urządzeń pamięci masowej, a także powszechne przyjęcie wirtualizacji sprzętu , architektury zorientowanej na usługi , przetwarzania autonomicznego i użytkowego doprowadziły do ​​ogromnego rozwoju przetwarzania w chmurze. Wirtualne światy i architektury peer-to-peer utorowały drogę koncepcji IAN.

iAreaNet została założona w 1999 roku przez dyrektora generalnego Jamesa DeCrescenzo jako firma o nazwie Internet Area Network, zajmująca się zapewnianiem przechowywania danych poza siedzibą firmy i zapobieganiem katastrofom, zanim chmura zaistniała w powszechnie stosowanej formie komercyjnej. To był pionierem pomysłu IAN. Od tego czasu wzmocniła działalność i poczyniła znaczne inwestycje w rozwój potężnej infrastruktury, aby zapewnić firmom szereg rozwiązań technologicznych, w tym zgłoszony do opatentowania iAreaOffice, który komercjalizuje koncepcję IAN, eliminując potrzebę tradycyjnej sieci LAN, WAN lub system telefoniczny do komunikacji biznesowej.

Zobacz też

Uwagi

Bibliografia

Linki zewnętrzne