System kamer wirtualnych - Virtual camera system

Demo systemu kamer wirtualnych pokazujące parametry kamery, które można regulować.

W grach wideo 3D , a System Virtual kamera ma na celu kontrolę aparat lub zestaw kamer, aby wyświetlić widok 3D wirtualnego świata . Systemy kamer są wykorzystywane w grach wideo, których celem jest pokazanie akcji pod najlepszym możliwym kątem; bardziej ogólnie, są one używane w wirtualnych światach 3D, gdy wymagany jest widok z trzeciej osoby.

W przeciwieństwie do filmowców, twórcy wirtualnych systemów kamer mają do czynienia ze światem, który jest interaktywny i nieprzewidywalny. Nie można wiedzieć, gdzie postać gracza będzie w ciągu najbliższych kilku sekund; dlatego nie można zaplanować ujęć tak, jak zrobiłby to filmowiec. Aby rozwiązać ten problem, system opiera się na określonych regułach lub sztucznej inteligencji, aby wybrać najbardziej odpowiednie ujęcia.

Istnieją głównie trzy rodzaje systemów kamer. W systemach kamer stacjonarnych kamera w ogóle się nie porusza, a system wyświetla postać gracza w serii nieruchomych ujęć. Z kolei kamery śledzące śledzą ruchy postaci. Wreszcie, systemy kamer interaktywnych są częściowo zautomatyzowane i pozwalają graczowi na bezpośrednią zmianę widoku. Aby wdrożyć systemy kamer, twórcy gier wideo wykorzystują techniki, takie jak rozwiązywanie ograniczeń , skrypty sztucznej inteligencji lub autonomiczni agenci .

Widok z perspektywy trzeciej osoby

W grach wideo „trzecia osoba” odnosi się do perspektywy graficznej renderowanej ze stałej odległości za i nieco powyżej postaci gracza. Ten punkt widzenia pozwala graczom zobaczyć silniej scharakteryzowanego awatara i jest najczęściej spotykany w grach akcji i przygodowych grach akcji . Gry z tą perspektywą często wykorzystują dźwięk pozycyjny, w którym głośność dźwięków otoczenia zmienia się w zależności od pozycji awatara.

Istnieją przede wszystkim trzy rodzaje systemów kamer z perspektywy trzeciej osoby: „stałe systemy kamer”, w których pozycje kamer są ustalane podczas tworzenia gry; „systemy kamer śledzących”, w których kamera po prostu podąża za postacią gracza; oraz „interaktywne systemy kamer”, które są pod kontrolą gracza.

Naprawiony

Wybór ujęć w Resident Evil 2, które mają na celu wywołanie napięcia.

Dzięki systemowi nieruchomej kamery twórcy podczas tworzenia gry ustawiają właściwości kamery, takie jak jej położenie, orientacja czy pole widzenia . Widoki z kamer nie będą się zmieniać dynamicznie, więc to samo miejsce będzie zawsze wyświetlane pod tym samym zestawem widoków. Gry korzystające z kamer stacjonarnych to Grim Fandango (1998) oraz wczesne gry Resident Evil i God of War .

Zaletą tego systemu kamer jest to, że pozwala twórcom gier na użycie języka filmu , tworząc nastrój poprzez pracę kamery i wybór ujęć. Gry wykorzystujące tego rodzaju technikę są często chwalone za ich walory filmowe. Wiele gier ze stałymi kamerami wykorzystuje sterowanie czołgiem , w którym gracze kontrolują ruch postaci w odniesieniu do pozycji postaci gracza, a nie pozycji kamery; pozwala to graczowi zachować kierunek, gdy zmienia się kąt kamery.

Śledzenie

Ilustracja przedstawiająca bohatera, którym steruje gracz, oraz kamerę śledzącą tuż za, nieco powyżej i nieco zwróconą w dół w kierunku tej postaci.

Kamery śledzące podążają za postaciami od tyłu. Gracz w żaden sposób nie steruje kamerą - nie może np. obracać jej ani przesuwać w inne miejsce. Ten typ systemu kamer był bardzo popularny we wczesnych grach 3D, takich jak Crash Bandicoot czy Tomb Raider, ponieważ jest bardzo prosty w implementacji. Jest jednak z tym kilka problemów. W szczególności, jeśli aktualny widok nie jest odpowiedni (albo dlatego, że jest zasłonięty przez obiekt, albo ponieważ nie pokazuje tego, co interesuje gracza), nie można go zmienić, ponieważ gracz nie kontroluje kamery. Czasami ten punkt widzenia sprawia trudności, gdy postać odwraca się lub stoi twarzą do ściany. Kamera może szarpnąć lub znaleźć się w niewygodnej pozycji.

Interaktywny

Zamiast pozostawać za Mario, kamera inteligentnie obraca się, aby pokazać ścieżkę ( Super Mario 64 ).

Ten rodzaj systemu kamer jest ulepszeniem w stosunku do systemu kamer śledzących. Podczas gdy kamera nadal śledzi postać, niektóre jej parametry, takie jak orientacja lub odległość od postaci, można zmienić. W konsolach do gier wideo kamera jest często sterowana za pomocą drążka analogowego, aby zapewnić dobrą dokładność, podczas gdy w grach na komputery PC jest zwykle sterowana za pomocą myszy . Tak jest w przypadku gier takich jak Super Mario Sunshine czy The Legend of Zelda: The Wind Waker . W pełni interaktywne systemy kamer są często trudne do wdrożenia we właściwy sposób. W ten sposób GameSpot twierdzi, że duża część trudności Super Mario Sunshine wynika z konieczności kontrolowania kamery. The Legend of Zelda: The Wind Waker odniósł w tym większy sukces – IGN nazwał system kamer „tak inteligentnym, że rzadko wymaga ręcznej korekty”.

Jedną z pierwszych gier oferujących interaktywny system kamer był Super Mario 64 . Gra posiadała dwa rodzaje systemów kamer, pomiędzy którymi gracz mógł się przełączać w dowolnym momencie. Pierwszym z nich był standardowy system kamer śledzących, z tym że częściowo napędzany był sztuczną inteligencją . Rzeczywiście, system był „świadomy” struktury poziomu i dlatego mógł przewidywać pewne strzały. Na przykład na pierwszym poziomie, gdy ścieżka na wzgórze ma skręcić w lewo, kamera automatycznie zaczyna patrzeć również w lewo, przewidując w ten sposób ruchy gracza. Drugi typ pozwala graczowi sterować kamerą w stosunku do pozycji Mario . Naciskając lewy lub prawy przycisk, kamera obraca się wokół Mario, a naciśnięcie w górę lub w dół przybliża lub oddala kamerę od Mario.

Realizacja

Istnieje wiele badań dotyczących wdrażania systemu kamer. Rolą oprogramowania do rozwiązywania ograniczeń jest wygenerowanie najlepszego możliwego ujęcia przy danym zestawie ograniczeń wizualnych. Innymi słowy, narzędzie do rozwiązywania ograniczeń otrzymuje żądaną kompozycję ujęć, taką jak „pokaż tę postać i upewnij się, że zajmuje ona co najmniej 30 procent powierzchni ekranu”. Rozwiązujący następnie użyje różnych metod, aby spróbować stworzyć ujęcie, które spełniłoby to żądanie. Po znalezieniu odpowiedniego ujęcia solver wyprowadza współrzędne i obrót kamery, które mogą być następnie wykorzystane przez renderer silnika graficznego do wyświetlenia widoku.

W niektórych systemach kamer, jeśli nie można znaleźć rozwiązania, ograniczenia są rozluźniane. Na przykład, jeśli solver nie może wygenerować ujęcia, w którym postać zajmuje 30 procent powierzchni ekranu, może zignorować ograniczenie miejsca na ekranie i po prostu zapewnić, że postać jest w ogóle widoczna. Takie metody obejmują pomniejszanie.

Niektóre systemy kamer używają predefiniowanych skryptów, aby zdecydować, jak wybrać bieżące ujęcie dla często spotykanych scenariuszy ujęć zwanych idiomami filmowymi. Zazwyczaj skrypt jest uruchamiany w wyniku działania. Na przykład, gdy postać gracza zainicjuje rozmowę z inną postacią, uruchomi się skrypt „rozmowy”. Ten skrypt będzie zawierał instrukcje, jak „nakręcić” dwuznakową rozmowę. W ten sposób strzały będą kombinacją, na przykład, ujęć znad ramienia i ujęć z bliska . Takie podejścia oparte na skrypcie mogą przełączać kamerę między zestawem predefiniowanych kamer lub polegać na rozwiązaniu ograniczeń w celu wygenerowania współrzędnych kamery w celu uwzględnienia zmienności w układzie scen. To skryptowe podejście i użycie narzędzia do rozwiązywania ograniczeń do obliczania kamer wirtualnych zostało po raz pierwszy zaproponowane przez Druckera. Kolejne badania wykazały, w jaki sposób system oparty na skryptach może automatycznie przełączać kamery, aby wyświetlać rozmowy między awatarami w aplikacji czatu w czasie rzeczywistym.

Bill Tomlinson zastosował bardziej oryginalne podejście do problemu. Stworzył system, w którym kamera jest autonomicznym agentem z własną osobowością. Styl ujęć i ich rytm będzie zależeć od jego nastroju. W ten sposób szczęśliwa kamera będzie „częściej ciąć, spędzać więcej czasu na zbliżeniach, poruszać się z sprężystym, opadającym ruchem i jasno oświetlać scenę”.

Podczas gdy większość wcześniejszych prac w zautomatyzowanych systemach sterowania kamerą wirtualną była skierowana na zmniejszenie konieczności ręcznego sterowania kamerą przez człowieka, rozwiązanie Obiektyw reżysera oblicza i proponuje paletę sugerowanych ujęć z wirtualnej kamery, pozostawiając operatorowi człowieka kreatywność. wybór strzału. Podczas obliczania kolejnych sugerowanych ujęć z kamery wirtualnej, system analizuje kompozycje wizualne i wzorce edycji wcześniej zarejestrowanych ujęć, aby obliczyć sugerowane ujęcia z kamery, które są zgodne z konwencjami ciągłości, takimi jak nieprzekraczanie linii działania, dopasowywanie rozmieszczenia wirtualnych postaci tak, aby wyglądały na siebie w poprzek nacięć i faworyzuje te strzały, których operator używał wcześniej po kolei.

W zastosowaniach rzeczywistości mieszanej

W 2010 roku, Kinect został wydany przez Microsoft jako hybrydowe urządzenie peryferyjne ze skanerem 3D / kamerą internetową , które zapewnia wykrywanie całego ciała graczy Xbox 360 i sterowanie bez użycia rąk interfejsami użytkownika gier wideo i innego oprogramowania na konsoli. Zostało to później zmodyfikowane przez Olivera Kreylosa z University of California w Davis w serii filmów na YouTube, które pokazały, jak łączy Kinect z wirtualną kamerą opartą na komputerze PC. Ponieważ Kinect jest w stanie wykryć pełen zakres głębi (poprzez komputerowe widzenie stereo i światło strukturalne ) w przechwyconej scenie, Kreylos zademonstrował możliwości Kinect i wirtualnej kamery, aby umożliwić swobodne nawigowanie w zakresie głębokości, chociaż kamera mogła pozwolić tylko na przechwytywanie wideo sceny, jak pokazano z przodu sensora Kinect, co skutkowało czarnymi, pustą przestrzenią, w których kamera nie była w stanie przechwycić wideo w polu głębi. Później Kreylos zademonstrował dalsze opracowanie modyfikacji, łącząc strumienie wideo dwóch sensorów Kinect w celu dalszego ulepszenia przechwytywania wideo w widoku wirtualnej kamery. Rozwój Kreylosa przy użyciu Kinect został omówiony wśród prac innych osób ze społeczności hakerskiej i homebrew Kinect w artykule w New York Times .

Nagrywanie w czasie rzeczywistym i śledzenie ruchu

Kamery wirtualne zostały opracowane, które pozwalają na reżysera filmu motion capture i wyświetlanie cyfrowych znaków ruchy w czasie rzeczywistym w ampułko-skonstruowane środowiska cyfrowego, takich jak dom lub kosmicznym. Resident Evil 5 był pierwszą grą wideo wykorzystującą technologię, która została opracowana na potrzeby filmu Avatar z 2009 roku . Wykorzystanie przechwytywania ruchu do kontrolowania położenia i orientacji wirtualnej kamery umożliwia operatorowi intuicyjne poruszanie i celowanie wirtualnej kamery poprzez proste chodzenie i obracanie wirtualnej kamery. Wirtualna kamera składa się z przenośnego monitora lub tabletu, czujników ruchu, opcjonalnej platformy wsparcia i opcjonalnego joysticka lub przycisków, które są powszechnie używane do rozpoczynania lub zatrzymywania nagrywania i dostosowywania właściwości obiektywu. W 1992 roku Michael McKenna z Media Lab w MIT zademonstrował najwcześniejszą udokumentowaną platformę wirtualnej kamery, kiedy przymocował magnetyczny czujnik ruchu Polhemus i przenośny telewizor LCD 3,2 cala do drewnianej linijki. W ramach projektu Walkthrough Project na Uniwersytecie Północnej Karoliny w Chapel Hill powstało wiele fizycznych urządzeń wejściowych do sterowania wirtualnym widokiem z kamery, w tym dwa trzyosiowe joysticki i rekwizyt w kształcie kuli bilardowej, znany jako UNC Eyeball, który miał wbudowany sześciostopniowy śledzenie ruchu wolności i cyfrowy przycisk.

Zobacz też

Bibliografia