Obliczenia sieciowe - Grid computing

Przetwarzanie siatkowe to wykorzystanie szeroko rozproszonych zasobów komputerowych do osiągnięcia wspólnego celu. Siatkę obliczeniową można traktować jako system rozproszony z nieinteraktywnymi obciążeniami, które obejmują wiele plików. Przetwarzanie gridowe różni się od konwencjonalnych systemów obliczeniowych o wysokiej wydajności, takich jak przetwarzanie klastrowe, tym, że komputery gridowe mają każdy węzeł ustawiony do wykonywania różnych zadań/aplikacji. Komputery gridowe są również bardziej heterogeniczne i rozproszone geograficznie (a zatem nie są fizycznie połączone) niż komputery klastrowe. Chociaż pojedyncza siatka może być dedykowana do konkretnego zastosowania, zwykle siatka jest używana do różnych celów. Siatki są często konstruowane przy użyciu bibliotek oprogramowania pośredniczącego ogólnego przeznaczenia . Rozmiary siatki mogą być dość duże.

Grid to forma przetwarzania rozproszonego, w której „super wirtualny komputer” składa się z wielu luźno połączonych w sieć komputerów, działających razem w celu wykonywania dużych zadań. W przypadku niektórych zastosowań przetwarzanie rozproszone lub siatkowe może być postrzegane jako specjalny rodzaj przetwarzania równoległego, który opiera się na kompletnych komputerach (z wbudowanymi procesorami, pamięciami masowymi, zasilaczami, interfejsami sieciowymi itp.) podłączonymi do sieci komputerowej (prywatnej lub publicznej) przez konwencjonalny interfejs sieciowy , taki jak Ethernet . Jest to sprzeczne z tradycyjnym pojęciem superkomputera , który ma wiele procesorów połączonych lokalną szybką magistralą komputerową . Technologia ta została zastosowana do obliczeniowo intensywnych problemów naukowych, matematycznych i akademickich poprzez obliczenia wolontariuszy i jest wykorzystywana w przedsiębiorstwach komercyjnych do tak różnorodnych zastosowań, jak odkrywanie leków , prognozowanie ekonomiczne , analiza sejsmiczna i przetwarzanie danych back office w celu wsparcia e- handel i usługi internetowe .

Przetwarzanie siatkowe łączy komputery z wielu domen administracyjnych w celu osiągnięcia wspólnego celu, rozwiązania pojedynczego zadania, a następnie może równie szybko zniknąć. Rozmiar siatki może być różny, od małej — ograniczonej na przykład do sieci komputerowych stacji roboczych w korporacji — do dużej, publicznej współpracy w wielu firmach i sieciach. „Pojęcie ograniczonej sieci może być również znane jako współpraca międzywęzłowa, podczas gdy pojęcie większej, szerszej sieci może zatem odnosić się do współpracy międzywęzłowej”.

Koordynowanie aplikacji w sieciach Grid może być złożonym zadaniem, zwłaszcza w przypadku koordynowania przepływu informacji w rozproszonych zasobach obliczeniowych. Gridowe systemy przepływu pracy zostały opracowane jako wyspecjalizowana forma systemu zarządzania przepływem pracy zaprojektowanego specjalnie do komponowania i wykonywania serii kroków obliczeniowych lub manipulacji danymi lub przepływu pracy w kontekście siatki.

Porównanie siatek i konwencjonalnych superkomputerów

Ogólnie rzecz biorąc, przetwarzanie „rozproszone” lub „sieciowe” to specjalny rodzaj przetwarzania równoległego, który opiera się na kompletnych komputerach (z wbudowanymi procesorami, pamięcią masową, zasilaczami, interfejsami sieciowymi itp.) podłączonymi do sieci (prywatnej, publicznej lub Internetu ) przez konwencjonalny interfejs sieciowy produkujący standardowy sprzęt, w porównaniu z niższą wydajnością projektowania i konstruowania niewielkiej liczby niestandardowych superkomputerów. Główną wadą wydajności jest to, że różne procesory i lokalne obszary pamięci nie mają szybkich połączeń. Ten układ jest zatem dobrze dopasowany do zastosowań, w których wiele równoległych obliczeń może odbywać się niezależnie, bez potrzeby przekazywania wyników pośrednich między procesorami. Wysoka skalowalność sieci rozproszonych geograficznie jest generalnie korzystna ze względu na niskie zapotrzebowanie na łączność między węzłami w stosunku do przepustowości publicznego Internetu.

Istnieją również pewne różnice w programowaniu i MC. Pisanie programów, które mogą działać w środowisku superkomputera, który może mieć niestandardowy system operacyjny lub wymagać od programu rozwiązywania problemów ze współbieżnością, może być kosztowne i trudne . Jeśli problem może być odpowiednio zrównoleglony, „cienka” warstwa infrastruktury „grid” może umożliwić konwencjonalnym, samodzielnym programom, biorąc pod uwagę inną część tego samego problemu, działanie na wielu maszynach. Umożliwia to pisanie i debugowanie na jednej konwencjonalnej maszynie i eliminuje komplikacje wynikające z wielu wystąpień tego samego programu działającego w tej samej pamięci współdzielonej i przestrzeni dyskowej w tym samym czasie.

Rozważania projektowe i odmiany

Jedną z cech rozproszonych siatek jest to, że mogą być tworzone z zasobów obliczeniowych należących do jednej lub wielu wielu osób lub organizacji (znanych jako wiele domen administracyjnych ). Może to ułatwić transakcje handlowe, jak w przypadku informatyki użytkowej , lub ułatwić tworzenie sieci komputerowych ochotników .

Jedną z wad tej funkcji jest to, że komputery, które faktycznie wykonują obliczenia, mogą nie być całkowicie godne zaufania. Projektanci systemu muszą zatem wprowadzić środki zapobiegające generowaniu przez awarie lub złośliwych uczestników fałszywych, mylących lub błędnych wyników oraz wykorzystywaniu systemu jako wektora ataku. Często wiąże się to z losowym przydzielaniem pracy do różnych węzłów (prawdopodobnie z różnymi właścicielami) i sprawdzaniem, czy co najmniej dwa różne węzły zgłaszają tę samą odpowiedź dla danej jednostki pracy. Rozbieżności pozwoliłyby zidentyfikować nieprawidłowo działające i złośliwe węzły. Jednak ze względu na brak centralnej kontroli nad sprzętem nie ma możliwości zagwarantowania, że węzły nie będą wypadać z sieci w przypadkowych momentach. Niektóre węzły (takie jak laptopy lub klienci korzystający z Internetu wdzwanianego ) mogą być również dostępne do obliczeń, ale nie do komunikacji sieciowej przez nieprzewidywalne okresy. Te różnice można uwzględnić, przypisując duże jednostki pracy (w ten sposób zmniejszając potrzebę ciągłej łączności sieciowej) i ponownie przypisując jednostki pracy, gdy dany węzeł nie zgłosi swoich wyników w oczekiwanym czasie.

Kolejny zestaw problemów, które można nazwać problemami z kompatybilnością społeczną we wczesnych dniach przetwarzania siatkowego, związanymi z celami twórców sieci, aby przenieść swoje innowacje poza pierwotną dziedzinę obliczeń o wysokiej wydajności i przez granice dyscyplinarne do nowych dziedzin, takich jak fizyka energii.

Wpływ zaufania i dostępności na wydajność i trudności w rozwoju może wpłynąć na wybór, czy wdrożyć w dedykowanym klastrze, na bezczynnych maszynach wewnętrznych w rozwijającej się organizacji, czy w otwartej zewnętrznej sieci wolontariuszy lub wykonawców. W wielu przypadkach uczestniczące węzły muszą ufać, że system centralny nie nadużywa przyznanego dostępu, zakłócając działanie innych programów, zniekształcając przechowywane informacje, przesyłając prywatne dane lub tworząc nowe luki w zabezpieczeniach. Inne systemy stosują środki mające na celu zmniejszenie poziomu zaufania, jakie węzły „klient” muszą pokładać w systemie centralnym, takie jak umieszczanie aplikacji na maszynach wirtualnych.

Systemy publiczne lub te przekraczające domeny administracyjne (w tym różne działy w tej samej organizacji) często powodują konieczność działania w systemach heterogenicznych , korzystających z różnych systemów operacyjnych i architektur sprzętowych . W przypadku wielu języków istnieje kompromis między inwestycjami w rozwój oprogramowania a liczbą obsługiwanych platform (a tym samym wielkością powstałej sieci). Języki międzyplatformowe mogą zmniejszyć potrzebę dokonywania tego kompromisu, choć potencjalnie kosztem wysokiej wydajności na dowolnym węźle (ze względu na interpretację w czasie wykonywania lub brak optymalizacji dla konkretnej platformy). Różne projekty oprogramowania pośredniczącego stworzyły ogólną infrastrukturę, aby umożliwić różnym projektom naukowym i komercyjnym wykorzystanie określonej powiązanej sieci lub w celu utworzenia nowych sieci. BOINC jest popularny w różnych projektach akademickich poszukujących wolontariuszy publicznych; więcej znajduje się na końcu artykułu .

W rzeczywistości oprogramowanie pośredniczące można postrzegać jako warstwę między sprzętem a oprogramowaniem. Oprócz oprogramowania pośredniczącego należy wziąć pod uwagę szereg obszarów technicznych, które mogą, ale nie muszą, być niezależne od oprogramowania pośredniczącego. Przykładowe obszary obejmują zarządzanie umowami SLA , zaufanie i bezpieczeństwo, zarządzanie organizacją wirtualną, zarządzanie licencjami, portale i zarządzanie danymi. Te obszary techniczne można załatwić w rozwiązaniu komercyjnym, chociaż przewaga każdego obszaru znajduje się często w konkretnych projektach badawczych badających tę dziedzinę.

Segmentacja rynku grid computing

Przy segmentacji rynku grid computing należy wziąć pod uwagę dwie perspektywy: po stronie dostawcy i po stronie użytkownika:

Strona dostawcy

Ogólny rynek sieci obejmuje kilka specyficznych rynków. Są to rynek oprogramowania pośredniego dla sieci grid, rynek aplikacji obsługujących sieci grid, rynek usług obliczeniowych oraz rynek oprogramowania jako usługi (SaaS).

Grid middleware to specyficzne oprogramowanie, które umożliwia współdzielenie heterogenicznych zasobów i wirtualnych organizacji. Jest instalowany i integrowany z istniejącą infrastrukturą zaangażowanej firmy lub firm i zapewnia specjalną warstwę umieszczoną wśród heterogenicznej infrastruktury i konkretnych aplikacji użytkownika. Główne oprogramowanie pośredniczące siatki to Globus Toolkit , gLite i UNICORE .

Przetwarzanie narzędziowe jest określane jako dostarczanie przetwarzania sieciowego i aplikacji jako usługi jako narzędzie otwartej sieci lub jako rozwiązanie hostingowe dla jednej organizacji lub VO . Głównymi graczami na rynku komputerów użytkowych są Sun Microsystems , IBM i HP .

Aplikacje obsługujące sieć grid to specyficzne aplikacje, które mogą wykorzystywać infrastrukturę grid. Jest to możliwe dzięki wykorzystaniu oprogramowania pośredniczącego sieci, jak wskazano powyżej.

Oprogramowanie jako usługa (SaaS) to „oprogramowanie, które jest własnością, dostarczane i zarządzane zdalnie przez jednego lub więcej dostawców”. ( Gartner 2007) Ponadto aplikacje SaaS są oparte na pojedynczym zestawie wspólnych definicji kodu i danych. Są one używane w modelu jeden-do-wielu, a SaaS korzysta z modelu Pay As You Go (PAYG) lub modelu subskrypcji opartego na wykorzystaniu. Dostawcy SaaS niekoniecznie są właścicielami zasobów obliczeniowych, które są wymagane do uruchomienia ich SaaS. Dlatego dostawcy SaaS mogą czerpać z rynku narzędzi obliczeniowych. Rynek narzędzi obliczeniowych zapewnia zasoby obliczeniowe dla dostawców SaaS.

Strona użytkownika

Dla firm działających na rynku przetwarzania gridowego po stronie popytu lub użytkownika, różne segmenty mają istotne implikacje dla ich strategii wdrażania IT. Strategia wdrażania IT, a także rodzaj dokonanych inwestycji IT są istotnymi aspektami dla potencjalnych użytkowników sieci i odgrywają ważną rolę w przyjęciu sieci.

Oczyszczanie procesora

Oczyszczanie procesora , cykliczne oczyszczanie lub współużytkowane przetwarzanie tworzy „siatkę” z nieaktywnych zasobów w sieci uczestników (zarówno na całym świecie, jak i wewnątrz organizacji). Zazwyczaj ta technika wykorzystuje „zapasowe” cykle instrukcji wynikające z okresowej bezczynności, która zwykle występuje w nocy, podczas przerw na lunch, a nawet podczas (stosunkowo niewielkich, choć licznych) momentów oczekiwania bezczynności, które współczesne procesory komputerów stacjonarnych działają przez cały dzień ( gdy komputer oczekuje na IO od użytkownika, sieci lub pamięci ). W praktyce komputery biorące udział w programie przekazują również pewną ilość miejsca na dysku, pamięć RAM i przepustowość sieci, oprócz surowej mocy procesora.

Wiele projektów komputerowych ochotników , takich jak BOINC , wykorzystuje model oczyszczania procesora. Ponieważ węzły mogą od czasu do czasu przechodzić w tryb „offline”, ponieważ ich właściciele wykorzystują swoje zasoby do swoich podstawowych celów, model ten musi być zaprojektowany do obsługi takich sytuacji.

Tworzenie środowiska oportunistycznego to kolejna implementacja oszczędzania procesora, w której specjalny system zarządzania obciążeniem przechwytuje bezczynne komputery stacjonarne do zadań wymagających dużej mocy obliczeniowej, określany również jako Enterprise Desktop Grid (EDG). Na przykład HTCondor , platforma oprogramowania open source o wysokiej przepustowości obliczeniowej do drobnoziarnistej, rozproszonej racjonalizacji zadań wymagających dużej mocy obliczeniowej, można skonfigurować tak, aby używała tylko komputerów stacjonarnych, na których klawiatura i mysz są bezczynne, aby skutecznie wykorzystać zmarnowaną moc procesora z nieaktywnych stacji roboczych . Podobnie jak inne w pełni funkcjonalne systemy wsadowe, HTCondor zapewnia mechanizm kolejkowania zadań, zasady planowania, schemat priorytetów, monitorowanie zasobów i zarządzanie zasobami. Może być również używany do zarządzania obciążeniem na dedykowanym klastrze komputerów lub może bezproblemowo integrować zarówno dedykowane zasoby (klastry montowane w stojaku), jak i niededykowane komputery stacjonarne (oczyszczanie cyklu) w jednym środowisku obliczeniowym.

Historia

Termin „ grid computing” powstał na początku lat dziewięćdziesiątych jako metafora uczynienia mocy komputerowej tak łatwo dostępnej jak sieć energetyczna . Metafora sieci energetycznej dla dostępnego przetwarzania szybko stała się kanoniczna, gdy Ian Foster i Carl Kesselman opublikowali swoją przełomową pracę „Sieć: plan nowej infrastruktury obliczeniowej” (1999). Poprzedziła to dekada metafora informatyki użytkowej (1961): informatyka jako użyteczność publiczna, analogiczna do systemu telefonicznego.

Oczyszczanie procesora i dobrowolne przetwarzanie zostały spopularyzowane począwszy od 1997 r. przez rozproszony.net, a później w 1999 r. przez SETI@home, aby wykorzystać moc komputerów podłączonych do sieci na całym świecie w celu rozwiązania problemów badawczych intensywnie korzystających z procesora.

Idee sieci (włącznie z rozproszonego, programowania obiektowego oraz usług internetowych) zostały zebrane przez Ian Foster i Steve Tuecke z University of Chicago i Carl Kesselman z University of Southern California „s Information Sciences Institute . Trio, które kierowało pracami nad stworzeniem Globus Toolkit , jest powszechnie uważane za „ojców sieci”. Zestaw narzędzi obejmuje nie tylko zarządzanie obliczeniami, ale także zarządzanie pamięcią masową , zapewnianie bezpieczeństwa, przenoszenie danych, monitorowanie oraz zestaw narzędzi do tworzenia dodatkowych usług opartych na tej samej infrastrukturze, w tym negocjowanie umów, mechanizmy powiadomień, usługi wyzwalania i agregację informacji. Podczas gdy Globus Toolkit pozostaje de facto standardem tworzenia rozwiązań gridowych, zbudowano szereg innych narzędzi, które odpowiadają na pewien podzbiór usług potrzebnych do stworzenia przedsiębiorstwa lub globalnej sieci grid.

W 2007 r. popularność zyskał termin cloud computing , który jest koncepcyjnie podobny do kanonicznej definicji przetwarzania sieciowego Fostera (w odniesieniu do zasobów obliczeniowych zużywanych tak, jak energia elektryczna pochodzi z sieci energetycznej ) i wcześniejszych obliczeń użytkowych. Rzeczywiście, przetwarzanie siatkowe jest często (ale nie zawsze) związane z dostarczaniem systemów przetwarzania w chmurze, czego przykładem jest system AppLogic firmy 3tera .

Postęp

W listopadzie 2006 roku Seidel otrzymał nagrodę Sidneya Fernbacha na Konferencji Superkomputerów w Tampa na Florydzie . „Za wybitny wkład w rozwój oprogramowania dla HPC i obliczeń siatkowych, aby umożliwić wspólne badanie numeryczne złożonych problemów fizyki, w szczególności modelowanie zderzeń czarnych dziur”. Ta nagroda, będąca jednym z najwyższych wyróżnień w dziedzinie informatyki, została przyznana za jego osiągnięcia w dziedzinie względności numerycznej.

Najszybsze wirtualne superkomputery

  • Od 7 kwietnia 2020 r. BOINC  – 29,8 PFLOPS.
  • Od marca 2020 r. Folding@home  – 1,1 exaFLOPS.
  • Od lutego 2018, Einstein@Home  – 3.489 PFLOPS.
  • Od 7 kwietnia 2020 r. SETI@Home  – 1,11 PFLOPS.
  • Od 7 kwietnia 2020 r. MilkyWay@Home  – 1,465 PFLOPS.
  • Od marca 2019 r. GIMPS  - 0,558 PFLOPS.

Ponadto w marcu 2019 r. Sieć Bitcoin miała zmierzoną moc obliczeniową odpowiadającą ponad 80 000 exaFLOPS (operacji zmiennoprzecinkowych na sekundę). Miara ta odzwierciedla liczbę FLOPS wymaganych do zrównania wyjścia haszującego sieci Bitcoin, a nie jej zdolności do ogólnych operacji arytmetycznych zmiennoprzecinkowych, ponieważ elementy sieci Bitcoin ( ASIC kopania bitcoinów ) wykonują tylko określone obliczenia haszowania kryptograficznego wymagane przez Bitcoin protokół.

Projekty i aplikacje

Obliczenia siatkowe oferują sposób rozwiązywania problemów Grand Challenge, takich jak zwijanie białek , modelowanie finansowe , symulacja trzęsień ziemi oraz modelowanie klimatu / pogody , i były integralną częścią działania Wielkiego Zderzacza Hadronów w CERN. Gridy oferują sposób optymalnego wykorzystania zasobów informatycznych wewnątrz organizacji. Zapewniają również środki do oferowania technologii informacyjnej jako narzędzia dla klientów komercyjnych i niekomercyjnych, przy czym klienci ci płacą tylko za to, z czego korzystają, np. za energię elektryczną lub wodę.

Według stanu na październik 2016 r. ponad 4 miliony maszyn z otwartą platformą Berkeley Open Infrastructure for Network Computing (BOINC) jest członkami World Community Grid . Jednym z projektów wykorzystujących BOINC jest SETI@home , który wykorzystywał ponad 400 000 komputerów do osiągnięcia 0,828 TFLOPS w październiku 2016 r. Według stanu na październik 2016 r. Folding@home , który nie jest częścią BOINC, osiągnął ponad 101 x86 petaflopsów na ponad 110 000 maszyn.

Unia Europejska projekty finansowane przez programy ramowe w Komisji Europejskiej . BEinGRID (Business Experiments in Grid) był projektem badawczym finansowanym przez Komisję Europejską jako projekt zintegrowany w ramach programu sponsorskiego szóstego programu ramowego (6. PR). Rozpoczęty 1 czerwca 2006 roku projekt trwał 42 miesiące, do listopada 2009 roku. Projekt był koordynowany przez Atos Origin . Zgodnie z arkuszem informacyjnym projektu, ich misją jest „ustanowienie skutecznych dróg sprzyjających przyjęciu obliczeń gridowych w całej UE oraz stymulowanie badań nad innowacyjnymi modelami biznesowymi z wykorzystaniem technologii gridowych”. Aby wydobyć najlepsze praktyki i wspólne tematy z eksperymentalnych wdrożeń, dwie grupy konsultantów analizują serię programów pilotażowych, jedną techniczną, jedną biznesową. Projekt ma znaczenie nie tylko ze względu na długi czas trwania, ale także ze względu na budżet, który przy 24,8 milionach euro jest największym ze wszystkich projektów zintegrowanych w ramach 6. PR. Z tego 15,7 mln zapewnia Komisja Europejska, a pozostałą część 98 współpracujących firm partnerskich. Od zakończenia projektu wyniki BEinGRID zostały przejęte i przeniesione przez IT-Tude.com .

Projekt Enabling Grids for E-science, z siedzibą w Unii Europejskiej i obejmujący ośrodki w Azji i Stanach Zjednoczonych, był kontynuacją projektu European DataGrid (EDG) i przekształcił się w Europejską Infrastrukturę Grid . To, wraz z LHC Computing siatki (LCG), został opracowany, aby wspierać eksperymenty z wykorzystaniem CERN Wielki Zderzacz Hadronów . Listę aktywnych witryn uczestniczących w LCG można znaleźć online, podobnie jak monitorowanie infrastruktury EGEE w czasie rzeczywistym. Odpowiednie oprogramowanie i dokumentacja są również publicznie dostępne. Spekuluje się, że dedykowane łącza światłowodowe, takie jak te zainstalowane przez CERN w celu zaspokojenia potrzeb LCG wymagających dużej ilości danych, mogą pewnego dnia być dostępne dla użytkowników domowych, zapewniając tym samym usługi internetowe z prędkością do 10 000 razy większą niż tradycyjne połączenie szerokopasmowe. Europejskiej sieci infrastruktury zostały również wykorzystane do innych działań w zakresie badań i eksperymentów, takich jak symulacji onkologicznych badaniach klinicznych.

Projekt distribution.net rozpoczął się w 1997 roku. Obiekt NASA Advanced Supercomputing (NAS) uruchamiał algorytmy genetyczne przy użyciu wymiatacza cyklu Condora działającego na około 350 stacjach roboczych Sun Microsystems i SGI .

W 2001 roku United Devices prowadziło United Devices Cancer Research Project w oparciu o swój produkt Grid MP , który cyklicznie przeszukuje komputery ochotników podłączone do Internetu. Projekt działał na około 3,1 miliona maszyn przed jego zamknięciem w 2007 roku.

Definicje

Obecnie istnieje wiele definicji obliczeń siatkowych :

  • W swoim artykule „Czym jest siatka? A Three Point Checklist”, Ian Foster wymienia te podstawowe atrybuty:
  • Plaszczak/Wellner definiują technologię grid jako „technologię, która umożliwia wirtualizację zasobów, udostępnianie na żądanie i współdzielenie usług (zasobów) między organizacjami”.
  • IBM definiuje przetwarzanie siatkowe jako „zdolność, przy użyciu zestawu otwartych standardów i protokołów, do uzyskania dostępu do aplikacji i danych, mocy obliczeniowej, pojemności pamięci masowej i szerokiego wachlarza innych zasobów obliczeniowych przez Internet. Grid to rodzaj równoległego i rozproszonego systemu, który umożliwia współdzielenie, selekcję i agregację zasobów rozproszonych w „wielu” domenach administracyjnych w oparciu o ich dostępność (zasoby), pojemność, wydajność, koszty i wymagania użytkowników dotyczące jakości usług ”.
  • Wcześniejszym przykładem pojęcia informatyki jako narzędzia był w 1965 roku Fernando Corbató z MIT. Corbató i inni projektanci systemu operacyjnego Multics wyobrażali sobie obiekt komputerowy działający „jak przedsiębiorstwo energetyczne lub wodociągowe”.
  • Buyya/Venugopal definiują grid jako „rodzaj równoległego i rozproszonego systemu, który umożliwia dynamiczne udostępnianie, wybór i agregację geograficznie rozproszonych autonomicznych zasobów w czasie wykonywania, w zależności od ich dostępności, możliwości, wydajności, kosztów i jakości usług użytkowników wymagania".
  • CERN , jeden z największych użytkowników technologii sieciowej, mówi o sieci : „usługa współdzielenia mocy komputera i pojemności przechowywania danych przez Internet ”.

Zobacz też

Pojęcia pokrewne

Sojusze i organizacje

Siatki produkcyjne

Projekty międzynarodowe

Nazwa Region Początek Koniec
Europejska infrastruktura sieciowa (EGI) Europa maj 2010 grudzień 2014
Open Middleware Infrastructure Institute Europe (OMII-Europa) Europa maj 2006 maj 2008
Włączanie Grid dla E-nauki (EGEE, EGEE II i EGEE III) Europa Marzec 2004 kwiecień 2010
Zdalne oprzyrządowanie z obsługą sieci z rozproszonym sterowaniem i obliczeniami (GridCC) Europa wrzesień 2005 wrzesień 2008
Europejska inicjatywa oprogramowania pośredniczącego (EMI) Europa maj 2010 aktywny
PoznajARC Europa czerwiec 2006 Listopad 2009
Skandynawska sieć danych Skandynawia i Finlandia czerwiec 2006 Grudzień 2012
Światowa siatka społeczności Światowy Listopad 2004 aktywny
XtreemOS Europa czerwiec 2006 (maj 2010) wew. do września 2010
NaszaSiatka Brazylia grudzień 2004 aktywny

Projekty krajowe

Standardy i API

Ramy monitorowania

Bibliografia

Bibliografia