This is the Polish translation of Getting-started/Coordinate-Systems article of learnopengl.com tutorial series.
W ostatnim tutorialu dowiedzieliśmy się, jak wykorzystać macierze transformacji do przekształcania wszystkich wierzchołków. OpenGL oczekuje, że wszystkie wierzchołki, które chcemy, aby stały się widoczne, znajdują się w znormalizowanym układzie współrzędnych (ang. Normalized Device Coordinates (NDC)) po każdym wywołaniu Vertex Shader’a. Oznacza to, że współrzędne x, y i z każdego wierzchołka powinny mieścić się pomiędzy -1.0 i 1.0; współrzędne poza tym zakresem nie będą widoczne. To, co zazwyczaj robimy, to określenie współrzędnych, a w Vertex Shader przekształcamy te współrzędne do NDC. Współrzędne NDC są następnie podawane do rasteryzera, aby przekształcić je na współrzędne 2D/piksele na ekranie.
Przekształcanie współrzędnych do NDC, a następnie do współrzędnych ekranu, zazwyczaj następuje krok po kroku, gdzie przekształcamy wierzchołki obiektu do kilku układów współrzędnych, zanim ostatecznie przekształcimy je w współrzędne ekranu. Zaletą przekształcenia ich do kilku pośrednich układów współrzędnych jest to, że niektóre operacje/obliczenia są łatwiejsze w innych układach współrzędnych, co wkrótce stanie się bardziej zrozumiałe. Istnieje pięć różnych układów współrzędnych, które nas najbardziej interesują:
- Przestrzeń Lokalna / Przestrzeń Obiektu (ang. Local/Object Space)
- Przestrzeń Świata (ang. World Space)
- Przestrzeń Widoku / Przestrzeń Kamery/Oka (ang. View/Eye Space)
- Przestrzeń Obcinania (ang. Clip Space)
- Przestrzeń Ekranu (ang. Screen Space)
Są to różne stany, w których nasze wierzchołki się znajdą, zanim ostatecznie skończą jako fragmenty.
Prawdopodobnie jesteś teraz dość zdezorientowany tym, czym jest przestrzeń świata czy układ współrzędnych, więc teraz wyjaśnimy je w bardziej zrozumiały sposób, pokazując całkowity obraz tego, co konkretna przestrzeń rzeczywiście robi.
Ogólny obraz
Aby przekształcić współrzędne z jednej przestrzeni do następnej, użyjemy kilku macierzy transformacji, z których najważniejsze są macierze model/world (modelu/świata), view (widoku) i projection (projekcji). Nasze współrzędne wierzchołków znajdują się najpierw w przestrzeni lokalnej jako współrzędne lokalne i następnie są przetwarzane do współrzędnych globalnych, współrzędnych widoku, współrzędnych obcinania i ostatecznie kończą jako współrzędne ekranu. Poniższy obraz przedstawia cały proces i pokazuje, co każda transformacja robi:
- Lokalne współrzędne są współrzędnymi Twojego obiektu względem jego lokalnego punktu początkowego; są to współrzędne, w których zaczyna Twój obiekt.
- Następnym krokiem jest przekształcenie lokalnych współrzędnych do współrzędnych przestrzeni świata, które są współrzędnymi względem większego świata. Te współrzędne odnoszą się do globalnego punktu początkowego świata, łącznie z wieloma innymi obiektami, które są również umieszczone w stosunku do tego punktu.
- Następnie przekształcamy współrzędne świata do przestrzeni widoku, w taki sposób, aby każda współrzędna była widoczna z punktu widzenia kamery/obserwatora.
- Po tym jak współrzędne znajdą się w przestrzeni widoku, chcemy rzutować je do przestrzeni obcinania. Współrzędne obcinania są przetwarzane do zakresu -1.0 i 1.0 i określają, które wierzchołki będą pojawią się na ekranie.
- Na koniec przekształcamy współrzędne obcinania na współrzędne ekranu w procesie, który nazywamy transformacją obszaru renderowania (ang. viewport transform), która zmienia współrzędne z zakresu -1.0 i 1.0 do współrzędnych z zakresu zdefiniowanego przez glViewport. Otrzymane współrzędne są następnie wysyłane do rasteryzera, aby przekształcić je w fragmenty.
Prawdopodobnie masz niewielkie wyobrażenie, tego, do czego każda przestrzeń jest używana. Powodem, dla którego przekształcamy wierzchołki we wszystkie te różne przestrzenie, jest to, że niektóre operacje mają sens lub są łatwiejsze przy użyciu niektórych układów współrzędnych. Na przykład modyfikowanie obiektu najlepiej jest zrobić w przestrzeni lokalnej, podczas gdy obliczanie pewnych operacji na obiekcie w odniesieniu do pozycji innych obiektów ma największy sens we współrzędnych świata itd. Jeśli chcemy, możemy zdefiniować jedną macierz transformacji, która przekształca współrzędne z przestrzeni lokalnej do przestrzeni obcinania w jednej operacji, ale daje nam to mniej elastyczności.
Poniżej szczegółowo omówimy każdy układ współrzędnych.
Przestrzeń Lokalna
Przestrzeń lokalna to układ współrzędnych, który jest lokalny dla Twojego obiektu, tzn. układ, w którym zaczyna się obiekt. Wyobraź sobie, że utworzono kostkę w programie do modelowania (np. Blender). Środek kostki jest prawdopodobnie ustawiony na punkt (0,0,0), mimo że kostka może trafić do innej aplikacji końcowej. Prawdopodobnie wszystkie modele, które stworzyłeś, mają punkt (0,0,0) jako ich środek. Wszystkie wierzchołki Twojego modelu znajdują się w przestrzeni lokalnej: wszystkie są lokalne dla Twojego obiektu.
Wierzchołki kontenera, których używaliśmy, zostały określone jako współrzędne pomiędzy -0.5 i 0.5 z punktem 0.0 jako jego środkiem. Są to współrzędne lokalne.
Przestrzeń Świata
Gdybyśmy chcieli zaimportować wszystkie nasze obiekty bezpośrednio do aplikacji, prawdopodobnie wszystkie znalazłyby się gdzieś ułożone jeden na drugim wokół środka całego wirtualnego świata (0,0,0), czego nie chcemy. Chcemy zdefiniować pozycję dla każdego obiektu z osobna, aby umieścić je w większym świecie. Współrzędne przestrzeni świata są dokładnie tym: współrzędne wszystkich wierzchołków są umieszczane względem świata (gry). Jest to przestrzeń współrzędnych, w której obiekty przekształcane są w taki sposób, że wszystkie są w jakiś sposób rozmieszczone (najlepiej w sposób realistyczny). Współrzędne obiektu są przekształcane z przestrzeni lokalnej do przestrzeni świata; odbywa się to za pomocą macierzy model/world.
Macierz modelu/świata jest macierzą transformacji, która przesuwa, skaluje i/lub obraca obiekt, aby umieścić go w świecie w określonej lokalizacji/orientacji. Zastanów się nad tym, jak przekształcić dom, skalując go w dół (był nieco zbyt duży w przestrzeni lokalnej), ustawiając go na przedmieściach i obracając go nieco w lewo na osi y, tak aby pasował idealnie do sąsiednich domów. Możesz pomyśleć o macierzy, z poprzedniego samouczka, która umieszczała kontener w konkretnej lokalizacji na scenie jako o rodzaju macierzy modelu; przekształciliśmy lokalne współrzędne kontenera w inne miejsce na scenie/świecie.
Przestrzeń Widoku
Przestrzeń widoku jest tym, co ludzie zwykle określają jako kamera OpenGL (czasami też znana jest jako przestrzeń kamery lub przestrzeń oka). Przestrzeń widoku jest wynikiem przekształcania współrzędnych przestrzeni świata na współrzędne, które znajdują się przed widokiem użytkownikiem. Przestrzeń widoku jest zatem przestrzenią, dzięki której obserwujemy scenę z punktu widzenia kamery. Zwykle odbywa się to za pomocą kombinacji translacji i rotacji, aby przesunąć/obrócić scenę tak, aby niektóre elementy zostały przekształcone tak, aby były na przeciw kamery. Te połączone transformacje są zazwyczaj przechowywane wewnątrz macierzy widoku, która przekształca współrzędne świata do przestrzeni widoku. W następnym ćwiczeniu będziemy szerzej mówić o tym, jak utworzyć taką macierz widoku w celu symulacji wirtualnej kamery.
Przestrzeń Obcinania
Na końcu każdego wywołania Vertex Shader’a, OpenGL oczekuje, że współrzędne znajdą się w określonym przedziale i każda współrzędna poza tym zakresem zostanie obcięta. Współrzędne, które są obcięte, są odrzucane, a pozostałe współrzędne kończą jako fragmenty widoczne na ekranie. Od tego zabiegu pochodzi nazwa przestrzeń obcinania.
Ponieważ określenie wszystkich widocznych współrzędnych znajdujących się w zakresie -1.0 i 1.0 nie jest zbyt intuicyjne, określmy własny zestaw współrzędnych do pracy i przekonwertujmy je do NDC, tak jak OpenGL tego oczekuje.
W celu przekształcenia współrzędnych wierzchołków z przestrzeni widoku do przestrzeni obcinania, definiujemy tzw. macierz projekcji, która określa zakres współrzędnych np. -1000 i 1000 w każdym wymiarze. Macierz projekcji przekształca współrzędne w tym określonym zakresie do znormalizowanych współrzędnych urządzenia (NDC) (- 1.0, 1.0). Wszystkie współrzędne poza tym zakresem nie będą mapowane do przedziału -1.0 i 1.0, a zatem powinny zostać obcięte. W tym określonym przedziale macierzy projekcji, współrzędna (1250, 500, 750) nie byłaby widoczna, ponieważ współrzędna x jest poza zakresem, a zatem przekształca się w współrzędną większą niż 1.0 w NDC, a zatem zostaje ona obcięta.
Zauważ, że jeśli tylko część prymitywu, np. trójkąta, znajduje się poza obszarem obcinania, to OpenGL zrekonstruuje trójkąt jako jeden lub więcej trójkątów, aby dopasować go do obszaru obcinania.
To pudełko widoku macierzy projekcji nazywa się frustum i każda współrzędna, która znajduje się wewnątrz frustum, znajdzie się na ekranie użytkownika. Całkowity proces przekształcania współrzędnych z określonego zakresu do NDC, który może być łatwo odwzorowywany na współrzędne 2D przestrzeni widoku, nazywa się projekcją, ponieważ macierze projekcji mapują/rzutują współrzędne 3D na współrzędne 2D NDC.
Kiedy wszystkie wierzchołki zostaną przekształcone do przestrzeni obcinania, wykonana zostaje ostatnia operacja zwana dzieleniem perspektywicznym, gdzie dzielimy komponenty x, y i z wektorów pozycji przez składnik w tego wektora; dzielenie perspektywiczne jest tym, co przekształca współrzędne w przestrzeni obcinania 4D w współrzędnych 3D w NDC. Ten krok jest wykonywany automatycznie po zakończeniu każdego wywołania shadera.
Po tym etapie uzyskane współrzędne są odwzorowywane na współrzędne ekranu (używając ustawień funkcji glViewport) i zostają zamienione na fragmenty.
Macierz projekcji przekształcająca współrzędne widoku do współrzędnych obcinania może przybrać dwie różne formy, przy czym każda forma określa własną niepowtarzalną frustę. Możemy utworzyć macierz projekcji prostokątnej lub macierz projekcji perspektywicznej.
Projekcja prostokątna
Macierz projekcji prostokątnej definiuje frustum podobne do sześcianu, który definiuje przestrzeń obcinania, w której każdy wierzchołek poza tym pudełkiem zostanie obcięty. Podczas tworzenia macierzy projekcji prostokątnej określamy szerokość, wysokość i długość widocznej frusty. Wszystkie współrzędne, które znajdą się wewnątrz tej frusty, po przekształceniu ich w przestrzeń obcinania, za pomocą macierzy projekcji prostokątnej, nie zostaną obcięte. Frusta wygląda trochę jak pojemnik:
Frustum określa widoczne współrzędne i jest określona za pomocą szerokości, wysokości i bliską i daleką płaszczyznę. Każda współrzędna znajdująca się przed bliską płaszczyzną zostaje obcięta i to samo dotyczy współrzędnych znajdujących się za daleką płaszczyzną. Frusta prostokątna bezpośrednio mapuje wszystkie współrzędne wewnątrz frustum do znormalizowanych współrzędnych urządzenia (NDC), ponieważ składnik w każdego z wektorów zostanie nienaruszony; jeśli składnik w jest równy 1.0 dzielenie perspektywiczne nie zmienia jego współrzędnych.
Aby utworzyć macierz projekcji prostokątnej używamy wbudowanej funkcji GLM glm::ortho:
glm::ortho(0.0f, 800.0f, 0.0f, 600.0f, 0.1f, 100.0f);
Pierwsze dwa parametry określają lewą i prawą współrzędną frustum, a trzeci i czwarty parametr określają dolną i górną część frustum. Za pomocą tych 4 punktów określiliśmy rozmiary bliskiej i dalekiej płaszczyzny, a parametr 5. i 6. następnie określają odległości pomiędzy bliską i daleką płaszczyzną. Ta specyficzna macierz projekcji przekształca wszystkie współrzędne z tego zakresu x, y i z na znormalizowane współrzędne urządzenia (NDC).
Macierz projekcji prostokątnej bezpośrednio mapuje współrzędne na płaszczyznę 2D, która znajduje się na Twoim ekranie, ale w rzeczywistości bezpośrednia projekcja daje nierealistyczne wyniki, ponieważ nie uwzględnia perspektywy. To jest coś co projekcja perspektywiczna naprawia za nas.
Projekcja perspektywiczna
Jeśli kiedykolwiek cieszyłeś się grafiką jaką prawdziwe życie ma do zaoferowania, to pewnie zauważyłeś, że obiekty, które są dalej wydają się znacznie mniejsze. Ten dziwny efekt to coś, co nazywamy perspektywą. Perspektywa jest szczególnie zauważalna, gdy patrzy się w dół, na koniec nieskończonej autostrady lub torów kolejowy, tak jak to widać na poniższym obrazku:
Jak widać, z uwagi na perspektywę, wydaje się że linie bardziej oddalona są położone bliżej siebie, jakby miały się za chwilę połączyć. To jest właśnie efekt jaki projekcja perspektywiczna stara się naśladować i wykorzystuje do tego macierz projekcji perspektywicznej. Macierz projekcji mapuje dany zakres frustum do przestrzeni obcinania, ale również manipuluje wartością w każdej współrzędnej wierzchołka w taki sposób, że im dalej znajduje się wierzchołek, tym większy staje się ten składnik. Kiedy współrzędne zostaną przekształcone do przestrzeni obcinania to znajdują się one w zakresie -w i w (każdy wierzchołek poza tym zakresem zostanie obcięty). OpenGL wymaga, aby widoczne współrzędne znajdowały się w zakresie -1.0 i 1.0 jako wyjściowy wierzchołek Vertex Shader’a. Gdy współrzędne znajdują się w przestrzeni obcinania, zostaje zastosowane dzielenie perspektywiczne do współrzędnych w przestrzeni obcinania:
\[out = \begin{pmatrix} x /w \\ y / w \\ z / w \end{pmatrix}\]Każdy składnik wierzchołka podzielony jest przez jego składnik w, dający mniejsze współrzędne wierzchołka, im dalej znajduje się wierzchołek od obserwatora. Jest to kolejny powód, dla którego tak ważny jest składnik w, ponieważ pomaga nam w projekcji perspektywicznej. Otrzymane współrzędne znajdują się następnie w znormalizowanej przestrzeni urządzenia (NDC). Jeśli jesteś zainteresowany, aby dowiedzieć się, jak w rzeczywistości obliczane są macierze projekcji prostokątnej i perspektywicznej (i nie boisz się matematyki) mogę polecić ten świetny artykuł autorstwa Songho.
W GLM można utworzyć macierz projekcji perspektywicznej w następujący sposób:
glm::mat4 proj = glm::perspective(glm::radians(45.0f), (float)width/(float)height, 0.1f, 100.0f);
Funkcja glm::perspective tworzy duże frustum, które definiuje widoczną przestrzeń, a cokolwiek znajdzie się poza tym frustum zostanie obcięte (nie będzie tego finalnie widać na ekranie użytkownika). Frustum perspektywiczne można zwizualizować jako nierówne pudełko, gdzie każda współrzędna wewnątrz tego pola zostanie później dopasowana do przestrzeni obcinania. Wygląd frustum perspektywicznego przedstawiono poniżej:
Pierwszy parametr definiuje wartość fov, która oznacza pole widzenia (ang. field of view) i określa jak duży jest obszar widoku. Dla realistycznego widoku, ta wartość, jest zazwyczaj ustawiana na 45.0f stopni, ale w przypadku efektów rodem z Doom’a możesz ustawić ją na większą wartość. Drugi parametr określa współczynnik aspect ratio, który jest obliczany przez podzielenie szerokości przez wysokość ekranu. Trzeci i czwarty parametr ustawia bliską i daleką płaszczyznę frustum. Zwykle ustawiamy odległość do bliskiej płaszczyzny w pobliżu wartości 0.1f i odległość od dalszej płaszczyzny w okolicy 100.0f. Wszystkie wierzchołki między płaszczyzną bliską a daleką są wewnątrz frustum i zostaną wyrenderowane.
Kiedy wartość bliskiej płaszczyzny Twojej macierzy perspektywicznej jest zbyt wysoka (na przykład 10.0f), OpenGL będzie blokował wszystkie wierzchołki znajdujące się w pobliżu wirtualnej kamery (między 0.0f i 10.0f), co daje w efekcie znajomy efekt wizualny z gier wideo, dzięki któremu można patrzeć przez obiekty jeśli jest się zbyt blisko tych obiektów.
Kiedy używamy projekcji prostokątnej, każda z współrzędnych wierzchołka jest bezpośrednio odwzorowywana w przestrzeni obcinania bez jakiegokolwiek, fantazyjnego dzielenia perspektywicznego (następuje dzielenie perspektywiczne, ale wartość w nie jest zmieniana (pozostaje równe 1), a zatem nie ma ta operacja żadnego skutku). Ponieważ projekcja prostokątna nie wykorzystuje rzutów perspektywicznych, obiekty znajdujące się dalej nie wydają się mniejsze, co powoduje dziwny odbiór wizualny. Z tego powodu projekcja prostokątna jest wykorzystywana głównie do renderowania 2D oraz dla niektórych zastosowań architektonicznych lub inżynierskich, w których nie chcemy zniekształcać wierzchołków. Aplikacje, takie jak Blender, które są używane do modelowania 3D, czasem używa się w nich projekcji prostokątnej do modelowania, ponieważ dokładniej przedstawia ona wymiary każdego obiektu. Poniżej przedstawiono porównanie obu metod projekcji w programie Blender:
Widać że przy projekcji perspektywicznej, wierzchołki znajdujące się dalej oddalone są wydają się być znacznie mniejsze, podczas gdy przy projekcji prostokątnej każdy wierzchołek ma tę samą odległość od użytkownika.
Łączymy wszystko w całość
Tworzymy macierz transformacji dla każdego z wyżej wymienionych etapów: macierz modelu, widoku i projekcji. Następnie współrzędna wierzchołka zostaje przekształcona do współrzędnych obcinania w następujący sposób:
\[V_{clip} = M_{projection} \cdot M_{view} \cdot M_{model} \cdot V_{local}\]Zauważ, że kolejność mnożenia macierzy jest odwrotna (pamiętaj, że musimy odczytywać mnożenie macierzy od prawej do lewej). Otrzymany wierzchołek powinien być następnie przypisany do zmiennej wbudowanej gl_Position w Vertex Shader, a następnie OpenGL automatycznie wykona dzielenie perspektywiczne i obcinanie.
A potem?
Wyjście Vertex Shader’a wymaga, aby współrzędne znajdowały się w przestrzeni obcinania, co właśnie zrobiliśmy za pomocą macierzy transformacji. Następnie OpenGL wykonuje dzielenie perspektywiczne na współrzędnych w przestrzeni obcinania, aby przekształcić je w znormalizowane współrzędne urządzenia (NDC). OpenGL używa parametrów z funkcji glViewport, aby odwzorować znormalizowane współrzędne urządzenia do współrzędnych w przestrzeni ekranu, gdzie każda współrzędna odpowiada punktowi na ekranie (w naszym przypadku ekran ma rozmiar 800x600). Proces ten nazywa się transformacją obszaru renderowania.
Jest to trudny temat do zrozumienia, więc jeśli nadal nie jesteś pewien do czego używana jest każda z przestrzeni to nie martw się. Poniżej zobaczysz, w jaki sposób możemy użyć tych przestrzeni współrzędnych.
Uruchamianie 3D
Teraz, gdy wiemy, jak przekształcać współrzędne 3D na współrzędne 2D, możemy pokazać obiekty jako rzeczywiste obiekty 3D, zamiast pokazywać, jak do tej pory, zwykłą płaszczyznę 2D.
Aby rozpocząć rysowanie w 3D najpierw utworzymy macierz modelu. Macierz modelu składa się z translacji, skalowania i/lub rotacji, które chcielibyśmy zastosować do przekształcenia wszystkich wierzchołków obiektu do przestrzeni świata. Zmieńmy nieco naszą płaszczyznę, obracając ją wokół osi x, tak, aby wygląda jakby, kładła się na podłogę. Macierz modelu wygląda zatem tak:
glm::mat4 model;
model = glm::rotate(model, glm::radians(-55.0f), glm::vec3(1.0f, 0.0f, 0.0f));
Mnożąc współrzędne wierzchołków z tą macierzą modelu, przekształcamy współrzędne wierzchołków na do przestrzeni świata. Nasza płaszczyzna, która jest lekko na podłodze, reprezentuje płaszczyznę w globalnym świecie.
Następnie musimy utworzyć macierz widoku. Chcemy poruszyć się lekko w tył sceny, aby obiekt stał się bardziej widoczny (gdy jesteśmy w przestrzeni świata to obserwator znajduje się w punkcie początkowym (0,0,0)). Aby poruszać się po scenie, zastanów się nad następującymi kwestiami:
- Przesuwanie kamery w tył, jest tym samym co przesuwanie całej sceny do przodu.
To jest dokładnie to, co robi macierz widoku, przesuwamy całą scenę odwrotnie do punktu, w którym chcemy, aby znalazła się kamera. Ponieważ chcemy przesuwać się do tyłu, a ponieważ OpenGL operuje prawoskrętnym układzie współrzędnych, musimy poruszać się po dodatniej osi z. Wykonujemy to, przesuwając scenę na negatywną oś z. To daje wrażenie, że idziemy do tyłu.
Prawoskrętny układ współrzędnych
OpenGL używa prawoskrętnego układu współrzędnych. To oznacza, że dodatnia oś x jest po prawej stronie, dodatnia oś y jest skierowana w górę, a dodatnia oś z wychodzi z ekranu w Twoją stronę. Wyobraź sobie, że Twój ekran jest centrum 3 osi, a dodatnia oś z jest skierowana w Twoim kierunku. Osie są rysowane w następujący sposób:
Aby zrozumieć, dlaczego nazywamy to prawoskrętnym układem współrzędnych, wykonaj następujące czynności:
- Wyciągnij prawą rękę w górę, wzdłuż dodatniej osi y.
- Niech Twój kciuk wskazuje prawą stronę.
- Palec wskazujący niech będzie skierowany w górę.
- Teraz zegnij palec środkowy w dół o 90 stopni.
Jeśli zrobiłeś to dobrze, Twój kciuk powinien wskazywać dodatnią oś x, palec wskazujący powinien być skierowany w kierunku dodatniej osi y i środkowy palec w kierunku dodatniej osi z. Gdybyś to zrobił lewą ręką, to zobaczysz, że oś z będzie odwrócona. Jest to znane jako lewoskrętny układ współrzędnych i jest powszechnie używany przez DirectX. Zauważ, że w znormalizowanych współrzędnych urządzenia (NDC) OpenGL wykorzystuje właściwie lewoskrętny układ współrzędnych (macierz projekcji przełącza “skrętność”).
W następnym tutorialu omówimy bardziej szczegółowo, jak poruszać się po scenie. Teraz macierz widoku wygląda tak:
glm::mat4 view;
// Zauważ, że przesuwamy scenę w odwrotnym kierunku do miejsca, w którym chcemy się znaleźć
view = glm::translate(view, glm::vec3(0.0f, 0.0f, -3.0f));
Ostatnią rzeczą jaką musimy zdefiniować jest macierz projekcji. Chcemy użyć projekcji perspektywicznej dla naszej sceny, więc zadeklarujmy macierz projekcji w następujący sposób:
glm::mat4 projection;
projection = glm::perspective(glm::radians(45.0f), screenWidth / screenHeight, 0.1f, 100.0f);
Teraz, gdy stworzyliśmy macierze transformacyjne, powinniśmy przekazać je do naszych shader’ów. Najpierw zadeklaruj macierze transformacji jako zmienne uniform w Vertex Shader i pomnóż je przez współrzędne wierzchołków:
#version 330 core
layout (location = 0) in vec3 position;
...
uniform mat4 model;
uniform mat4 view;
uniform mat4 projection;
void main()
{
// Zauważ, że czytamy mnożenie macierzy od prawej do lewej
gl_Position = projection * view * model * vec4(position, 1.0f);
...
}
Powinniśmy też wysyłać macierze do programu cieniującego (zazwyczaj jest to wykonywane w każdej iteracji renderowania, ponieważ macierze transformacji mają tendencję do ulegania ciągłym zmianom):
GLint modelLoc = glGetUniformLocation(ourShader.Program, "model"));
glUniformMatrix4fv(modelLoc, 1, GL_FALSE, glm::value_ptr(model));
... // To samo dla View Matrix i Projection Matrix
Teraz, gdy nasze wierzchołki zostały przekształcane za pomocą macierzy modelu, widoku i projekcji, ostateczny obiekt powinien być:
- Przechylony do tyłu w kierunku podłogi.
- Nieco dalej od nas.
- Wyświetlany z perspektywą (powinien być mniejszy im jego wierzchołki są dalej od nas).
Sprawdźmy, czy wynik rzeczywiście spełnia te wymagania:
Rzeczywiście wygląda na to, że nasz płaszczyzna jest jest płaszczyzną 3D, która spoczywa na jakiejś wyimaginowanej podłodze. Jeśli nie otrzymasz tego samego wyniku, sprawdź kompletny kod źródłowy.
Więcej 3D
Do tej pory pracowaliśmy na płaszczyznach 2D, nawet w przestrzeni 3D. Wejdźmy więc na drogę poszukiwania przygód i rozszerzmy naszą płaszczyznę 2D do kostki 3D. Aby utworzyć sześcian potrzebujemy w sumie 36 wierzchołków (6 ścianki * 2 trójkąty * 3 wierzchołki każdy). 36 wierzchołków jest dużą ilością do utworzenia ale można je pobrać stąd.
Dla zabawy, będziemy kostkę obracać się w czasie:
model = glm::rotate(model, (float)glfwGetTime() * glm::radians(50.0f), glm::vec3(0.5f, 1.0f, 0.0f));
Później narysujmy sześcian przy użyciu glDrawArrays, ale tym razem z liczbą 36var> wierzchołków.
glDrawArrays(GL_TRIANGLES, 0, 36);
Powinieneś otrzymać coś podobnego do obrazka poniżej:
Wygląda raczej jak kostka, ale coś jest nie tak. Niektóre ściany kostki są rysowane na innych ściankach kostki. Dzieje się tak dlatego, że OpenGL rysując sześcian trójkąt po trójkącie, nadpisuje jego piksele, mimo tego że coś zostało już wcześniej narysowane. Z tego powodu niektóre trójkąty są rysowane jeden na drugim, podczas gdy nie powinny się one pokrywać.
Na szczęście, OpenGL przechowuje informacje o głębokości w buforze o nazwie z-bufor, który pozwala OpenGL zdecydować, kiedy narysować piksel, a kiedy nie. Korzystając z z-buforu możemy powiedzieć OpenGL, aby przeprowadzał testy głębokości.
Z-bufor
OpenGL przechowuje wszystkie informacje o głębokości w z-buforze, znanym również jako bufor głębokości. GLFW automatycznie tworzy taki bufor za Ciebie (podobnie jak bufor kolorów, który przechowuje kolory obrazu wyjściowego). Głębokość jest zapisywana w każdym fragmencie (jako wartość z fragmentu) i kiedy fragment chce wypisać swój kolor, OpenGL porównuje wartość głębokości tego fragmentu z wartością z z-bufora. Jeśli obecny fragment znajduje się za drugim fragmentem, jest on odrzucany, a w przeciwnym razie jest zastępowany. Ten proces nazywa się testem głębokości (ang. depth test) i jest wykonywany automatycznie przez OpenGL.
Jeśli chcemy mieć pewność, że OpenGL faktycznie przeprowadza test głębokości, najpierw musimy poinformować OpenGL, że chcemy włączyć testy głębokości; ta opcja jest domyślnie wyłączona. Możemy włączyć testy głębokości za pomocą glEnable. Funkcje glEnable i glDisable umożliwiają włączenie/wyłączenie niektórych funkcji w OpenGL. Ta funkcjonalność jest wtedy włączana/wyłączana, dopóki nie zostanie wykonane inne wywołanie, aby włączyć/wyłączyć tą funkcjonalność. Teraz chcemy włączyć testy głębokości, włączając GL_DEPTH_TEST:
glEnable(GL_DEPTH_TEST);
Ponieważ używamy buforu głębokości, chcemy wyczyścić bufor głębokości przed każdą iteracją renderowania (w przeciwnym razie informacje o głębokości poprzedniej ramki pozostają w buforze). Podobnie jak wyczyszczenie bufora kolorów, możemy wyczyścić bufor głębokości, określając bit DEPTH_BUFFER_BIT w funkcji glClear:
glClear(GL_COLOR_BUFFER_BIT | GL_DEPTH_BUFFER_BIT);
Ponownie uruchommy nasz program i zobaczmy, czy teraz OpenGL przeprowadza testy głębokości:
Mamy to! W pełni oteksturowana kostka z odpowiednim testem głębokości, która obraca się w czasie. Kod źródłowy możesz sprawdzić tutaj.
Więcej kostek!
Powiedzmy, że chcielibyśmy wyświetlić 10 naszych kostek na ekranie. Każda kostka będzie wyglądać tak samo, ale będzie się różnić tylko pozycją świecie i rotacją. Układ graficzny sześcianu jest już zdefiniowany, więc nie musimy zmieniać buforów ani tablic atrybutów podczas renderowania większej liczby obiektów. Jedyną rzeczą jaką musimy zmienić dla każdego obiektu jest jego macierz modelu, za pomocą której przekształcamy kostki do przestrzeni świata.
Najpierw określmy wektor translacji dla każdej kostki, która określa jego pozycję w przestrzeni świata. Zdefiniujemy 10 pozycji kostki w tablicy glm::vec3:
glm::vec3 cubePositions[] = {
glm::vec3( 0.0f, 0.0f, 0.0f),
glm::vec3( 2.0f, 5.0f, -15.0f),
glm::vec3(-1.5f, -2.2f, -2.5f),
glm::vec3(-3.8f, -2.0f, -12.3f),
glm::vec3( 2.4f, -0.4f, -3.5f),
glm::vec3(-1.7f, 3.0f, -7.5f),
glm::vec3( 1.3f, -2.0f, -2.5f),
glm::vec3( 1.5f, 2.0f, -2.5f),
glm::vec3( 1.5f, 0.2f, -1.5f),
glm::vec3(-1.3f, 1.0f, -1.5f)
};
Teraz, w obrębie pętli gry chcemy wywołać funkcję glDrawArrays 10 razy, ale za każdym razem przesyłając inną macierz modelu do Vertex Shader’a zanim dana kostka zostanie wyrenderowana. Tworzymy małą pętlę w obrębie pętli gry, która renderuje nasz obiekt 10 razy przy użyciu różnych macierzy modelu. Należy pamiętać, że dodajemy również niewielką rotację do każdego pojemnika.
glBindVertexArray(VAO);
for(unsigned int i = 0; i < 10; i++)
{
glm::mat4 model;
model = glm::translate(model, cubePositions[i]);
float angle = 20.0f * i;
model = glm::rotate(model, glm::radians(angle), glm::vec3(1.0f, 0.3f, 0.5f));
ourShader.setMat4("model", model);
glDrawArrays(GL_TRIANGLES, 0, 36);
}
Ten fragment kodu zaktualizuje macierz modelu za każdym razem, gdy zostanie narysowany nowy sześcian i wykona to łącznie 10 razy. Teraz powinniśmy móc patrzeć na świat wypełniony 10 obróconymi kostkami:
Świetnie! Wygląda na to, że nasz pojemnik spotkał się z przyjaciółmi. Jeśli masz problemy, możesz porównać swój kod z kodem źródłowym.
Ćwiczenia
- Spróbuj poeksperymentować z parametrami FoV i aspect-ratio funkcji projekcji perspektywicznej GLM. Zobacz, czy możesz dowiedzieć się, jak wpływają one na frustum perspektywiczne.
- Pobaw się macierzą widoku, przesuwając ją w kilku różnych kierunkach i zobacz, jak zmienia się scena. Pomyśl o macierzy widoku jak o kamerze.
- Postaraj się, aby co trzeci pojemnik (w tym pierwszy) obracał się w czasie, pozostawiając inne pojemniki bez zmian przy użyciu, tylko i wyłącznie, macierzy modelu: rozwiązanie.