Half-Life: projekt AI pokazujący, jak strzelanka może wyglądać „fotorealistycznie”

0
3

Czy to przyszłość grafiki w grach?

Legendarna strzelanka Half-Life ma już ponad 25 lat. Z uwagi na rewolucyjny status debiutanckiego tytułu skromnego wówczas studia deweloperskiego Valve, regularnie powstają fanowskie projekty.

Popularne modyfikacje zazwyczaj skupiają się na poprawie grafiki, na przykładnadając Half-Life’owi nowego blaskuza pomocą efektów ray tracingu. Na TikToku furorę robi obecnie klip, w którym wykorzystano sztuczną inteligencję, by pójść o krok dalej i pokazać Half-Life’a jako „fotorealistyczną” przygodę – ale najlepiej przekonać się o tym samemu!

W tym celu wykorzystano model AI od Runway ML o nazwie „Gen-3 Alpha”, który funkcjonuje tutaj jako model wideo-wideo. Jak wyjaśniła firma podczas premiery sztucznej inteligencji, Gen-3 Alpha ma służyć jako „znaczący krok w kierunku budowania modeli ogólnego świata”, tj. modeli sztucznej inteligencji, które mogą reprezentować sytuacje i interakcje tak kompleksowo, jak to tylko możliwe.

Używając podpowiedzi specjalnie dostosowanej do Half-Life, użytkownik „Soundtrick” był w stanie wygenerować poniższy film. Nie wykorzystuje on jednak rzeczywistej geometrii gry (ani żadnych innych dokładnych punktów danych). Zamiast tego „wszystko opiera się na końcowej klatce renderowanej przez grę”, jak wyjaśnia Soundtrick.

Jak bardzo realistyczne jest to wideo? &nbspJakkolwiek ładnie brzmi fotorealistyczny remake Half-Life, wciąż jest kilka przeszkód do pokonania. Na kanale Soundtrick na YouTube, w ciągu trzech minut klipu znajduje się wiele animacji, które są drewniane lub hacky

W szczególności mimika twarzy i dłonie wciąż wydają się być zbyt wymagające dla modelu AI, aby uzyskać trwale dobrze wyglądające rozwiązanie. W oczy rzuca się też fakt, że w całym klipie widać wyłącznie elementy „prawdziwe” lub wzorowane na rzeczywistości; na próżno szukać tu głowowych krabów z Half-Life’a – nawet jeśli nie jesteśmy pewni, czy naprawdę chcemy wyobrażać sobie pasożytnicze stworzenia w fotorealistyczny sposób.

Oczywiście problemem jest również czas przetwarzania. Podczas prezentacji Gen-3 Alpha, Runway ML podał czas przetwarzania około 45 sekund na wygenerowanie pięciosekundowego klipu. Obliczenia w czasie rzeczywistym, na które producent GPU Nvidia i inni mają nadzieję w odległej przyszłości, nie będą więc miały miejsca.

Tak więc do fotorealistycznego Half-Life’a jeszcze daleka droga – ale czy w ogóle ucieszyłbyś się z takiej nowej edycji? Którym klasykom przydałaby się graficzna aktualizacja? Dajcie nam znać w komentarzach poniżej