GeForce - GeForce

GeForce
GeForce newlogo.png
RTX 3090 Founders Edition!.jpg
GeForce RTX 3090 Founders Edition
Producent Nvidia
Wprowadzono 1 września 1999 ;
22 lata temu
 ( 1999-09-01 )
Rodzaj Konsumenckie karty graficzne

GeForce to marka z grafiką Obudowy (GPU) zaprojektowanych przez Nvidia . Począwszy od serii GeForce 30 , projekt powstał w siedemnastu iteracjach. Pierwsze produkty GeForce były oddzielnymi procesorami graficznymi przeznaczonymi dla dodatkowych kart graficznych, przeznaczonymi dla wysokomarżowego rynku gier komputerowych, a później dywersyfikacja linii produktów obejmowała wszystkie poziomy rynku grafiki komputerowej, począwszy od oszczędnych procesorów graficznych zintegrowanych z płytami głównymi , do popularnych tablic sprzedaży detalicznej. Ostatnio technologia GeForce została wprowadzona do linii wbudowanych procesorów aplikacji firmy Nvidia, zaprojektowanych z myślą o elektronicznych urządzeniach przenośnych i telefonach komórkowych.

W stosunku do dyskretnych GPU, znalezionych w add-in-tablice graficzne NVIDIA GeForce i AMD „s Radeon procesory graficzne są tylko pozostali konkurenci na rynku high-end. Procesory graficzne GeForce są bardzo dominujące na rynku procesorów graficznych ogólnego przeznaczenia (GPGPU) dzięki ich zastrzeżonej architekturze CUDA . Oczekuje się, że GPGPU rozszerzy funkcjonalność GPU poza tradycyjną rasteryzację grafiki 3D, aby przekształcić ją w wysokowydajne urządzenie obliczeniowe zdolne do wykonywania dowolnego kodu programistycznego w taki sam sposób jak procesor, ale z różnymi mocami (wysoce równoległe wykonywanie prostych obliczeń ) i słabości (gorsza wydajność w przypadku złożonego kodu rozgałęziającego ).

Pochodzenie nazwy

Nazwa „GeForce” wywodzi się z konkursu zorganizowanego przez Nvidię na początku 1999 roku pod nazwą „Name That Chip”. Firma wezwała publiczność do nazwania następcy linii kart graficznych RIVA TNT2 . Otrzymano ponad 12 000 zgłoszeń, a 7 zwycięzców otrzymało w nagrodę kartę graficzną RIVA TNT2 Ultra. Brian Burke, starszy kierownik ds. PR w firmie Nvidia, powiedział Maximum PC w 2002 roku, że „GeForce” pierwotnie oznaczało „Geometry Force”, ponieważ GeForce 256 był pierwszym GPU dla komputerów osobistych, który obliczał geometrię transformacji i oświetlenia , odciążając tę ​​funkcję z Procesor .

Generacje procesorów graficznych

Oś czasu pokoleń
1999 GeForce 256
2000 Seria GeForce 2
2001 Seria GeForce 3
2002 Seria GeForce 4
2003 Seria GeForce FX
2004 Seria GeForce 6
2005 Seria GeForce 7
2006 Seria GeForce 8
2007
2008 Seria GeForce 9
Seria GeForce 200
2009 Seria GeForce 100
Seria GeForce 300
2010 Seria GeForce 400
Seria GeForce 500
2011
2012 Seria GeForce 600
2013 Seria GeForce 700
2014 Seria GeForce 800M
Seria GeForce 900
2015
2016 Seria GeForce 10
2017
2018 Seria GeForce 20
2019 Seria GeForce 16
2020 Seria GeForce 30

GeForce 256

Wprowadzony na rynek 1 września 1999 roku, GeForce 256 (NV10) był pierwszym chipem graficznym na poziomie konsumenckim dostarczanym ze sprzętową transformacją, oświetleniem i cieniowaniem, chociaż gry 3D wykorzystujące tę funkcję pojawiły się dopiero później. Początkowe karty GeForce 256 dostarczane były z pamięcią SDR SDRAM , a późniejsze karty dostarczane były z szybszą pamięcią DDR SDRAM .

Seria GeForce 2

Wprowadzony na rynek w kwietniu 2000 roku, pierwszy GeForce2 (NV15) był kolejnym wysokowydajnym układem graficznym. Nvidia przeszła na podwójny procesor tekstur na potok (4x2), podwajając szybkość wypełniania tekstur na zegar w porównaniu do GeForce 256. Później Nvidia wypuściła GeForce2 MX (NV11), który oferował wydajność podobną do GeForce 256, ale za ułamek ceny . MX był atrakcyjną wartością w segmentach rynku niskiego/średniego zakresu i był popularny zarówno wśród producentów komputerów OEM, jak i użytkowników. GeForce 2 Ultra był modelem z wyższej półki w tej serii.

Seria GeForce 3

Wprowadzony na rynek w lutym 2001 r. GeForce3 (NV20) wprowadził programowalne moduły cieniowania wierzchołków i pikseli w rodzinie GeForce oraz w akceleratorach graficznych na poziomie konsumenckim. Miał dobrą ogólną wydajność i obsługę shaderów, dzięki czemu był popularny wśród entuzjastów, chociaż nigdy nie osiągnął średniej ceny. NV2A opracowane dla Microsoft Xbox konsola do gier jest pochodną GeForce 3.

Seria GeForce 4

Wprowadzony na rynek w lutym 2002, ówczesny high-endowy GeForce4 Ti (NV25) był głównie udoskonaleniem GeForce3. Największe udoskonalenia obejmowały ulepszenia funkcji antyaliasingu, ulepszony kontroler pamięci, drugi vertex shader oraz zmniejszenie rozmiaru procesu produkcyjnego w celu zwiększenia szybkości zegara. Inny członek rodziny GeForce 4, budżetowy GeForce4 MX, był oparty na GeForce2 z dodatkowymi funkcjami GeForce4 Ti. Był skierowany do segmentu wartości na rynku i nie posiadał shaderów pikseli. Większość z tych modeli korzystała z interfejsu AGP 4×, ale kilka rozpoczęło przejście na AGP 8×.

Seria GeForce FX

Wprowadzony na rynek w 2003 roku GeForce FX (NV30) był ogromną zmianą w architekturze w porównaniu do swoich poprzedników. GPU zaprojektowano nie tylko pod kątem obsługi nowej specyfikacji Shader Model 2, ale także pod kątem wydajności w starszych tytułach. Jednak początkowe modele, takie jak GeForce FX 5800 Ultra, cierpiały z powodu słabej wydajności shaderów zmiennoprzecinkowych i nadmiernego ciepła, co wymagało niesławnie hałaśliwych dwuslotowych rozwiązań chłodzących. Produkty z tej serii noszą numer modelu 5000, ponieważ jest to piąta generacja GeForce, chociaż Nvidia sprzedawała karty jako GeForce FX zamiast GeForce 5, aby pochwalić się "świtem renderowania kinowego".

Seria GeForce 6

Wprowadzony na rynek w kwietniu 2004 roku GeForce 6 (NV40) dodał obsługę Shader Model 3.0 do rodziny GeForce, jednocześnie poprawiając słabą wydajność zmiennoprzecinkowego shadera swojego poprzednika. Zaimplementowano również obrazowanie o wysokim zakresie dynamiki oraz wprowadzono funkcje SLI (Scalable Link Interface) i PureVideo (zintegrowane częściowe sprzętowe dekodowanie MPEG-2, VC-1, Windows Media Video i H.264 oraz w pełni przyspieszone przetwarzanie końcowe wideo).

Seria GeForce 7

Siódma generacja GeForce (G70/NV47) została wprowadzona na rynek w czerwcu 2005 roku i była ostatnią serią kart graficznych Nvidii, która mogła obsługiwać magistralę AGP . Projekt był udoskonaloną wersją GeForce 6, z głównymi ulepszeniami polegającymi na poszerzeniu potoku i zwiększeniu szybkości zegara. GeForce 7 oferuje także nowe tryby supersamplingu przezroczystości i multisamplingu przezroczystości z antyaliasingiem (TSAA i TMAA). Te nowe tryby antyaliasingu zostały później włączone również dla serii GeForce 6. GeForce 7950GT był wyposażony w procesor graficzny o najwyższej wydajności z interfejsem AGP w linii Nvidia. Ta era rozpoczęła przejście na interfejs PCI-Express.

128-bitowy, 8 ROP wariant 7950 GT, zwany RSX „Reality Synthesizer” , jest używany jako główny procesor graficzny w Sony PlayStation 3 .

Seria GeForce 8

Wydany 8 listopada 2006 r. GeForce ósmej generacji (pierwotnie nazywany G80) był pierwszym w historii GPU w pełni obsługującym Direct3D  10. Wyprodukowany w procesie 90 nm i zbudowany wokół nowej mikroarchitektury Tesli , zaimplementował zunifikowany model cieniowania . Początkowo na rynek wprowadzono tylko model 8800GTX, podczas gdy wariant GTS został wprowadzony na rynek po miesiącach życia linii produktów, a zintegrowanie kart średniej klasy i OEM/mainstream z serią 8 zajęło prawie sześć miesięcy. Matryca zmniejszyła się do 65 nm, a wersja projektu G80 o nazwie kodowej G92 została zaimplementowana w serii 8 w modelach 8800GS, 8800GT i 8800GTS-512, wydanych po raz pierwszy 29 października 2007 r., prawie rok po początkowym G80 uwolnienie.

Seria GeForce 9 i seria 100

Pierwszy produkt został wydany 21 lutego 2008 roku. Niecałe cztery miesiące starsze niż początkowa wersja G92, wszystkie projekty z serii 9 są po prostu poprawkami istniejących produktów z późnych serii 8. 9800GX2 używa dwóch procesorów graficznych G92, stosowanych w późniejszych kartach 8800, w konfiguracji z dwoma płytkami PCB, a jednocześnie wymaga tylko jednego gniazda PCI-Express 16x. 9800GX2 wykorzystuje dwie oddzielne 256-bitowe magistrale pamięci, po jednej dla każdego GPU i odpowiadającej mu 512 MB pamięci, co odpowiada łącznie 1 GB pamięci na karcie (chociaż konfiguracja SLI chipów wymaga dublowania bufora ramki między dwa chipy, co skutecznie zmniejsza o połowę wydajność pamięci w konfiguracji 256-bitowej/512MB). Późniejszy 9800GTX ma pojedynczy procesor graficzny G92, 256-bitową magistralę danych i 512 MB pamięci GDDR3.

Przed premierą nie były znane żadne konkretne informacje poza tym, że urzędnicy twierdzili, że produkty nowej generacji mają moc przetwarzania zbliżoną do 1 TFLOPS, a rdzenie GPU nadal są wytwarzane w procesie 65 nm, oraz donoszą, że Nvidia umniejsza znaczenie Direct3D  10.1. W marcu 2009 roku kilka źródeł podało, że Nvidia po cichu wprowadziła na rynek nową serię produktów GeForce, a mianowicie GeForce 100 Series, która składa się ze zmodyfikowanych części z serii 9. Produkty z serii GeForce 100 nie były dostępne do indywidualnego zakupu.

Seria GeForce 200 i seria 300

Oparta na procesorze graficznym GT200 składającym się z 1,4 miliarda tranzystorów o nazwie kodowej Tesla, seria 200 została wprowadzona na rynek 16 czerwca 2008 roku. Następna generacja serii GeForce przenosi schemat nazewnictwa kart w nowym kierunku, zastępując numer serii ( np. 8800 dla kart z serii 8) z sufiksem GTX lub GTS (który szedł na końcu nazw kart, oznaczając ich „rangę” wśród innych podobnych modeli), a następnie dodawanie numerów modeli, takich jak 260 i 280 po że. Seria zawiera nowy rdzeń GT200 na matrycy 65 nm . Pierwszymi produktami były GeForce GTX 260 i droższy GeForce GTX 280. GeForce 310 został wydany 27 listopada 2009 roku, który jest rebrandingiem GeForce 210. Karty z serii 300 to przemianowane procesory graficzne kompatybilne z DirectX 10.1 z serii 200, które nie były dostępne do indywidualnego zakupu.

Seria GeForce 400 i seria 500

7 kwietnia 2010 r. Nvidia wypuściła na rynek GeForce GTX 470 i GTX 480, pierwsze karty oparte na nowej architekturze Fermi o nazwie kodowej GF100; były to pierwsze procesory graficzne Nvidii, które wykorzystywały 1 GB lub więcej pamięci GDDR5 . GTX 470 i GTX 480 były mocno krytykowane ze względu na wysokie zużycie energii, wysokie temperatury i bardzo głośny hałas, który nie był zrównoważony przez oferowaną wydajność, mimo że GTX 480 był najszybszą kartą DirectX 11 w momencie jej wprowadzenia.

W listopadzie 2010 r. Nvidia wypuściła nowy flagowy procesor graficzny oparty na ulepszonej architekturze GF100 (GF110) o nazwie GTX 580. Charakteryzował się wyższą wydajnością, mniejszym zużyciem energii, wydzielaniem ciepła i hałasem niż poprzedni GTX 480. Ten GPU otrzymał znacznie lepsze recenzje niż GTX 480. Nvidia wypuściła później także GTX 590, który zawiera dwa procesory graficzne GF110 na jednej karcie.

Seria GeForce 600, seria 700 i seria 800M

Asus Nvidia GeForce GTX 650 Ti, karta graficzna PCI Express 3.0 ×16

We wrześniu 2010 roku Nvidia ogłosiła, że ​​następcą mikroarchitektury Fermi będzie mikroarchitektura Kepler , wyprodukowana w procesie produkcyjnym TSMC 28 nm. Wcześniej, Nvidia zostały zakontraktowane do dostarczania swoich top-end rdzeni GK110 do stosowania w Oak Ridge National Laboratory „s «Titan»superkomputer , co prowadzi do niedoboru GK110 rdzeni. Po tym, jak AMD wypuściło na początku 2012 roku swoje coroczne odświeżenie, serię Radeon HD 7000, Nvidia rozpoczęła wypuszczanie serii GeForce 600 w marcu 2012 roku. Rdzeń GK104, pierwotnie przeznaczony dla segmentu średniej klasy, stał się flagowym GTX. 680. Wprowadził znaczną poprawę wydajności, ciepła i mocy w porównaniu z architekturą Fermi i był zbliżony do flagowego Radeona HD 7970 firmy AMD. Szybko po nim pojawiły się dwie karty GK104 GTX 690 i GTX 670, które miały tylko nieznacznie obniżone - obniżył rdzeń GK104 i był bardzo zbliżony wydajnością do GTX 680.

Wraz z GTX Titan, Nvidia wypuściła również GPU Boost 2.0, który pozwoliłby na nieograniczony wzrost taktowania GPU, aż do osiągnięcia ustawionego przez użytkownika limitu temperatury bez przekraczania określonej przez użytkownika maksymalnej prędkości wentylatora. Ostatnim wydaniem serii GeForce 600 był GTX 650 Ti BOOST oparty na rdzeniu GK106, będący odpowiedzią na premierę AMD Radeon HD 7790. Pod koniec maja 2013 r. Nvidia ogłosiła serię 700, która nadal opierała się na architekturze Kepler, jednak zawierała kartę opartą na GK110 na szczycie oferty. GTX 780 był nieco okrojonym Tytanem, który osiągnął prawie taką samą wydajność za dwie trzecie ceny. Posiadał ten sam zaawansowaną referencyjną konstrukcję chłodnicy, ale nie miał odblokowanych rdzeni o podwójnej precyzji i był wyposażony w 3 GB pamięci.

W tym samym czasie Nvidia ogłosiła ShadowPlay , rozwiązanie do przechwytywania ekranu, które wykorzystywało zintegrowany koder H.264 wbudowany w architekturę Kepler, którego Nvidia wcześniej nie ujawniała. Mogło być używane do nagrywania rozgrywki bez karty przechwytującej i przy znikomym spadku wydajności w porównaniu z rozwiązaniami do nagrywania programowego i było dostępne nawet na kartach z serii GeForce 600 poprzedniej generacji. Wersja beta oprogramowania dla ShadowPlay doświadczyła jednak wielu opóźnień i miała zostać wydana dopiero pod koniec października 2013 roku. Tydzień po premierze GTX 780, Nvidia ogłosiła, że ​​GTX 770 będzie rebrandingiem GTX 680. wkrótce potem GTX 760, który również był oparty na rdzeniu GK104 i podobny do GTX 660 Ti. Żadne karty z serii 700 nie zostały przewidziane do wydania w 2013 roku, chociaż Nvidia ogłosiła G-Sync, kolejną cechę architektury Kepler, o której Nvidia nie wspomniała, która pozwoliła GPU dynamicznie kontrolować częstotliwość odświeżania monitorów zgodnych z G-Sync, co wydany w 2014 roku, aby zwalczyć łzawienie i drganie. Jednak w październiku AMD wypuściło R9 290X, który był o 100 USD niższy niż GTX 780. W odpowiedzi Nvidia obniżyła cenę GTX 780 o 150 USD i wypuściła GTX 780 Ti, który miał pełny 2880 rdzeni GK110 rdzeń jeszcze mocniejszy niż GTX Titan, wraz z ulepszeniami systemu dostarczania mocy, które poprawiły podkręcanie i zdołały wyprzedzić nową wersję AMD.

Seria GeForce 800M składa się ze zrebrandowanych części z serii 700M opartych na architekturze Kepler oraz kilku niższych części opartych na nowszej architekturze Maxwell.

Seria GeForce 900

W marcu 2013 roku Nvidia ogłosiła, że ​​następcą Keplera będzie mikroarchitektura Maxwell . Został wydany we wrześniu 2014 roku. Była to ostatnia seria GeForce obsługująca analogowe wyjście wideo przez DVI-I.

Seria GeForce 10

W marcu 2014 roku Nvidia ogłosiła, że ​​następcą Maxwella będzie mikroarchitektura Pascala ; ogłoszone 6 maja 2016 r. i wydane 27 maja 2016 r. Udoskonalenia architektoniczne obejmują:

  • W Pascalu SM (multiprocesor strumieniowy) składa się ze 128 rdzeni CUDA. Kepler upakował 192 rdzenie, Fermi 32 i Tesla tylko 8 rdzeni CUDA w SM; GP100 SM jest podzielony na dwa bloki przetwarzania, z których każdy ma 32 rdzenie CUDA o pojedynczej precyzji, bufor instrukcji, harmonogram warp, 2 jednostki mapowania tekstur i 2 jednostki dyspozytorskie.
  • GDDR5X  – Nowy standard pamięci obsługujący szybkości transmisji danych 10Gbit/s i zaktualizowany kontroler pamięci. Tylko Nvidia Titan X (i Titan Xp), GTX 1080, GTX 1080 Ti i GTX 1060 (wersja 6 GB) obsługują GDDR5X. GTX 1070 Ti, GTX 1070, GTX 1060 (wersja 3 GB), GTX 1050 Ti i GTX 1050 używają GDDR5.
  • Pamięć zunifikowana — architektura pamięci, w której procesor i procesor graficzny mogą uzyskiwać dostęp zarówno do głównej pamięci systemowej, jak i pamięci na karcie graficznej za pomocą technologii zwanej „Page Migration Engine”.
  • NVLink  — magistrala o dużej przepustowości między procesorem a procesorem graficznym oraz między wieloma procesorami graficznymi. Pozwala na znacznie wyższe prędkości transferu niż te, które można osiągnąć przy użyciu PCI Express; szacuje się, że zapewnia od 80 do 200 GB/s.
  • 16-bitowe ( FP16 ) operacje zmiennoprzecinkowe mogą być wykonywane z dwukrotnie większą szybkością niż 32-bitowe operacje zmiennoprzecinkowe („pojedyncza precyzja”) i 64-bitowe operacje zmiennoprzecinkowe („podwójna precyzja”) wykonywane z połową szybkości 32-bitowych operacji zmiennoprzecinkowych (szybkość Maxwell 1/32).

Seria GeForce 20 i seria 16

W sierpniu 2018 r. Nvidia ogłosiła następcę GeForce Pascala. Nowa nazwa mikroarchitektury została ujawniona jako „ Turing ” na konferencji Siggraph 2018. Ta nowa mikroarchitektura GPU ma na celu przyspieszenie obsługi ray tracingu w czasie rzeczywistym i wnioskowania AI. Zawiera nową jednostkę ray tracingu (RT Core), która może dedykować procesory do sprzętowego ray tracingu. Obsługuje rozszerzenie DXR w Microsoft DirectX 12. Nvidia twierdzi, że nowa architektura jest do 6 razy szybsza niż starsza architektura Pascal. Całkowicie nowy projekt rdzenia Tensor, odkąd Volta wprowadził akcelerację głębokiego uczenia AI, która pozwala na wykorzystanie DLSS ( Deep Learning Super Sampling ), nowej formy antyaliasingu, która wykorzystuje sztuczną inteligencję, aby zapewnić bardziej wyraziste obrazy z mniejszym wpływem na wydajność. Zmienia również swoją całkowitą jednostkę wykonawczą, która może być wykonywana równolegle ze ścieżką danych zmiennoprzecinkowych. Zapowiedziano również nową zunifikowaną architekturę pamięci podręcznej, która podwaja przepustowość w porównaniu z poprzednimi generacjami.

Nowe procesory graficzne zostały zaprezentowane jako Quadro RTX 8000, Quadro RTX 6000 i Quadro RTX 5000. Wysokiej klasy Quadro RTX 8000 zawiera 4608 rdzeni CUDA i 576 rdzeni Tensor z 48 GB pamięci VRAM. Później, podczas konferencji prasowej Gamescom , dyrektor generalny Nvidii, Jensen Huang, zaprezentował nową serię GeForce RTX z RTX 2080 Ti, 2080 i 2070, która będzie wykorzystywać architekturę Turing. Pierwsze karty Turing miały trafić do konsumentów 20 września 2018 r. Nvidia ogłosiła RTX 2060 6 stycznia 2019 r. na targach CES 2019.

2 lipca 2019 r. Nvidia ogłosiła linię kart GeForce RTX Super, odświeżoną serię 20, która obejmuje wersje RTX 2060, 2070 i 2080 o wyższej specyfikacji. RTX 2070 i 2080 zostały wycofane.

W lutym 2019 roku Nvidia zapowiedziała serię GeForce 16 . Opiera się na tej samej architekturze Turing, co w serii GeForce 20, ale z pominięciem unikalnych dla tego ostatniego rdzenia Tensor ( AI ) i RT ( ray tracing ) na rzecz zapewnienia graczom bardziej przystępnego rozwiązania graficznego przy jednoczesnym zachowaniu wyższej wydajności w porównaniu do odpowiednich kart poprzednich generacji GeForce.

Podobnie jak w przypadku odświeżenia RTX Super, Nvidia 29 października 2019 r. ogłosiła karty GTX 1650 Super i 1660 Super, które zastąpiły swoje nie-Super odpowiedniki.

Seria GeForce 30

Nvidia oficjalnie ogłosiła na specjalnym wydarzeniu GeForce, że następcą serii GeForce 20 będzie seria 30. Wprowadzone specjalne wydarzenie GeForce miało miejsce 1 września 2020 r. i ustaliło 17 września jako oficjalną datę premiery procesora graficznego 3080, 24 września jako datę premiery procesora graficznego 3090 i października dla procesora graficznego 3070.

Warianty

Mobilne procesory graficzne

Układ GeForce zintegrowany z płytą główną laptopa.

Od czasu serii GeForce 2, Nvidia wyprodukowała szereg chipsetów graficznych do notebooków pod marką GeForce Go . Większość funkcji obecnych w odpowiednikach na komputery stacjonarne jest obecna w tych mobilnych. Te procesory graficzne są generalnie zoptymalizowane pod kątem mniejszego zużycia energii i mniejszej mocy cieplnej, aby mogły być używane w notebookach i małych komputerach stacjonarnych.

Począwszy od serii GeForce 8, marka GeForce Go została przerwana, a mobilne procesory graficzne zostały zintegrowane z główną linią procesorów graficznych GeForce, ale ich nazwa została uzupełniona o literę M . Zakończyło się to w 2016 r. wraz z wprowadzeniem na rynek laptopów z serii GeForce 10 – Nvidia zrezygnowała z przyrostka M , decydując się na ujednolicenie brandingu między ofertami procesorów graficznych do komputerów stacjonarnych i laptopów, ponieważ procesory graficzne Pascal dla notebooków są prawie tak wydajne, jak ich odpowiedniki na komputery stacjonarne (coś, co Nvidia przetestowała z ich "desktopowej klasy" notebooka GTX 980 GPU w 2015 r.).

GeForce MX marki, wcześniej używany przez Nvidia dla swoich graficznych dla komputerów desktop entry-level, została reaktywowana w 2017 roku wraz z wydaniem GeForce MX150 dla notebooków. MX150 jest oparty na tym samym procesorze graficznym Pascal GP108, który jest używany w desktopowym GT 1030 i został po cichu wydany w czerwcu 2017 roku.

Małe procesory GPU

Podobnie jak w przypadku mobilnych procesorów graficznych, Nvidia wypuściła również kilka procesorów graficznych w formacie „small form factor” do użytku w komputerach stacjonarnych typu „wszystko w jednym”. Te procesory graficzne mają przyrostek S , podobny do litery M używanej w produktach mobilnych.

Zintegrowane procesory graficzne dla płyt głównych do komputerów stacjonarnych

Począwszy od nForce 4 , Nvidia zaczęła włączać wbudowane rozwiązania graficzne do swoich chipsetów płyt głównych. Te wbudowane rozwiązania graficzne nazwano mGPU (GPU płyty głównej). Nvidia wycofała gamę nForce, w tym te mGPU, w 2009 roku.

Po wycofaniu serii nForce, Nvidia wypuściła swoją linię Ion w 2009 roku, która składała się z procesora Intel Atom współpracującego z słabszym procesorem graficznym z serii GeForce 9, zamocowanym na płycie głównej. Nvidia wypuściła zmodernizowany Ion 2 w 2010 roku, tym razem zawierający słabszy procesor graficzny z serii GeForce 300.

Nomenklatura

Od serii GeForce 4 do serii GeForce 9 używany jest poniższy schemat nazewnictwa.

Kategoria
karty graficznej

Zakres liczb
Przyrostek Przedział cenowy
( USD )

Ilość cieni
Pamięć Przykładowe produkty
Rodzaj Szerokość busa Rozmiar
Poziom podstawowy 000–550 SE, LE, bez przyrostka, GS, GT, Ultra <100 zł < 25% DDR , DDR2 25-50% ~25% GeForce 9400GT, GeForce 9500GT
Średni zakres 600–750 VE, LE, XT, bez przyrostka, GS, GSO, GT, GTS, Ultra 100–175 USD 25-50% DDR2, GDDR3 50-75% 50-75% GeForce 9600GT, GeForce 9600GSO
Wysokiej klasy 800–950 VE, LE, ZT, XT, bez sufiksu, GS, GSO, GT, GTO,
GTS, GTX, GTX+, Ultra, Ultra Extreme, GX2
> $175 50–100% GDDR3 75–100% 50–100% GeForce 9800GT, GeForce 9800GTX

Od czasu premiery procesorów graficznych z serii GeForce 100, Nvidia zmieniła schemat nazewnictwa swoich produktów na poniższy.

Kategoria
karty graficznej
Prefiks Zakres numerów
(ostatnie 2 cyfry)
Przedział cenowy
( USD )

Ilość cieni
Pamięć Przykładowe produkty
Rodzaj Szerokość busa Rozmiar
Poziom podstawowy bez prefiksu, G, GT 00–45 <100 zł < 25% DDR2, GDDR3, GDDR5 , DDR4 25-50% ~25% GeForce GT 430, GeForce GT 730, GeForce GT 1030
Średni zakres GTS, GTX, RTX 50–65 100–300 USD 25-50% GDDR3, GDDR5(X), GDDR6 50-75% 50–100% GeForce GTX 760, GeForce GTX 960, GeForce GTX 1060 (6 GB)
Wysokiej klasy GTX, RTX 70–95 > 300 zł 50–100% GDDR5, GDDR5X, GDDR6, GDDR6X 75–100% 75–100% GeForce GTX 980 Ti, GeForce GTX 1080 Ti, GeForce RTX 2080 Ti

Sterowniki urządzeń graficznych

Prawnie zastrzeżony

Nvidia opracowuje i publikuje sterowniki GeForce dla Windows 10 x86 / x86-64 i nowszych, Linux x86/x86-64/ ARMv7-A , OS X 10.5 i nowszych, Solaris x86/x86-64 i FreeBSD x86/x86-64. Aktualną wersję można pobrać z Nvidii, a większość dystrybucji Linuksa zawiera ją we własnych repozytoriach. Sterownik Nvidia GeForce 340.24 z 8 lipca 2014 obsługuje interfejs EGL , umożliwiając obsługę Wayland w połączeniu z tym sterownikiem. Może się to różnić w przypadku marki Nvidia Quadro , która jest oparta na identycznym sprzęcie, ale zawiera sterowniki urządzeń graficznych z certyfikatem OpenGL.

Podstawowa obsługa interfejsu ustawiania trybu DRM w postaci nowego modułu jądra o nazwie nvidia-modeset.kojest dostępna od wersji 358.09 beta. Obsługa kontrolera wyświetlania Nvidii na obsługiwanych procesorach graficznych jest scentralizowana w nvidia-modeset.ko. Tradycyjne interakcje wyświetlania (tryby X11, OpenGL SwapBuffers, prezentacja VDPAU, SLI, stereo, framelock, G-Sync itd.) są inicjowane z różnych komponentów sterownika trybu użytkownika i przepływają do nvidia-modeset.ko.

W tym samym dniu, w którym opublikowano publicznie interfejs graficzny Vulkan , Nvidia wydała sterowniki, które w pełni go obsługują.

Starszy sterownik:

Zwykle starszy sterownik obsługuje również nowsze procesory graficzne, ale ponieważ nowsze procesory graficzne są obsługiwane przez nowsze numery sterowników GeForce, które regularnie zapewniają więcej funkcji i lepsze wsparcie, zachęcamy użytkownika końcowego do korzystania z najwyższej możliwej liczby sterowników.

Obecny kierowca:

Bezpłatne i open-source

Stworzone przez społeczność, bezpłatne sterowniki o otwartym kodzie źródłowym istnieją jako alternatywa dla sterowników wydawanych przez Nvidię. Sterowniki typu open source są opracowywane głównie dla systemu Linux, jednak mogą istnieć porty do innych systemów operacyjnych. Najbardziej znanym alternatywnym sterownikiem jest darmowy i otwarty sterownik urządzeń graficznych Nouveau, który został poddany inżynierii wstecznej . Nvidia publicznie ogłosiła, że ​​nie zapewnia żadnego wsparcia dla takich dodatkowych sterowników urządzeń dla swoich produktów, chociaż Nvidia dodała kod do sterownika Nouveau.

Darmowe sterowniki i sterowniki typu open source obsługują dużą część (ale nie wszystkie) funkcji dostępnych w kartach marki GeForce. Na przykład, od stycznia 2014 r. sterownik nouveau nie obsługuje regulacji częstotliwości zegara GPU i pamięci oraz związanego z tym dynamicznego zarządzania energią. Ponadto zastrzeżone sterowniki Nvidii konsekwentnie radzą sobie lepiej niż nouveau w różnych testach porównawczych. Jednak od sierpnia 2014 r. i wersji 3.16 głównej linii jądra Linuksa wkład Nvidii umożliwił częściową obsługę regulacji częstotliwości taktowania procesora graficznego i pamięci.

Problemy z licencjonowaniem i prywatnością

Licencja ma wspólne warunki dotyczące inżynierii wstecznej i kopiowania oraz wyklucza gwarancje i odpowiedzialność.

Począwszy od 2016 roku licencja GeFORCE mówi, że Nvidia „OPROGRAMOWANIE może uzyskiwać dostęp, gromadzić informacje nieumożliwiające identyfikacji użytkownika, aktualizować i konfigurować system Klienta w celu prawidłowej optymalizacji takiego systemu do użytku z OPROGRAMOWANIEM”. Oświadczenie o ochronie prywatności mówi dalej: „W tej chwili nie jesteśmy w stanie odpowiedzieć na sygnały „Nie śledź” ustawione przez przeglądarkę. Zezwalamy również zewnętrznym sieciom reklamowym i firmom z mediów społecznościowych na zbieranie informacji... Możemy łączyć dane osobowe, które zbieramy o Tobie, z informacjami dotyczącymi przeglądania i śledzenia gromadzonymi przez te technologie [cookies i beacons]."

Oprogramowanie konfiguruje system użytkownika w celu optymalizacji jego użytkowania, a licencja mówi: „NVIDIA nie ponosi odpowiedzialności za jakiekolwiek uszkodzenia lub utratę takiego systemu (w tym utratę danych lub dostępu) wynikające lub związane z (a) wszelkimi zmianami w konfiguracji, ustawień aplikacji, zmiennych środowiskowych, rejestru, sterowników, systemu BIOS lub innych atrybutów systemu (lub dowolnej części takiego systemu) zainicjowanych przez OPROGRAMOWANIE".

Doświadczenie GeForce

Do czasu aktualizacji 26 marca 2019 r. użytkownicy GeForce Experience byli narażeni na wykonanie kodu , odmowę usługi i eskalację ataków uprzywilejowanych .

Bibliografia

Zewnętrzne linki