È questo il futuro della grafica dei giochi?
Il leggendario sparatutto Half-Life ha ormai più di 25 anni. Visto lo status rivoluzionario del titolo d’esordio dell’allora modesto studio di sviluppo Valve, vengono regolarmente creati progetti per i fan.
Le modifiche popolari si concentrano solitamente sul miglioramento della grafica, ad esempiodando ad Half-Life una nuova lucentezzacon l’aiuto di effetti di ray tracing. Attualmente sta facendo scalpore una clip su TikTok, in cui l’intelligenza artificiale viene utilizzata per fare meglio e mostrare Half-Life come un’avventura “fotorealistica” – ma è meglio vedere con i propri occhi!
Per questo è stato utilizzato il modello AI di Runway ML chiamato “Gen-3 Alpha”, che qui funziona come modello video-to-video. Come ha spiegato l’azienda in occasione del lancio dell’IA, Gen-3 Alpha vuole essere un “passo significativo verso la costruzione di modelli general-world”, ossia modelli di IA in grado di rappresentare situazioni e interazioni nel modo più completo possibile.
Utilizzando un prompt appositamente personalizzato per Half-Life, l’utente “Soundtrick” è riuscito a generare il video qui sotto. Tuttavia, questo non utilizza la geometria reale del gioco (o altri dati precisi). Invece, “tutto si basa sul fotogramma finale che il gioco renderizza”, come spiega Soundtrick.
Quanto è realistico il video?  Per quanto possa sembrare bello un remake fotorealistico di Half-Life, ci sono ancora alcuni ostacoli da superare. Sul canale YouTube di Soundtrick, nei tre minuti del filmato ci sono numerose animazioni che sono legnose o approssimative.
Le espressioni facciali e le mani, in particolare, sembrano essere ancora troppo impegnative per il modello di intelligenza artificiale per ottenere una soluzione di bell’aspetto permanente. Si nota anche che nell’intera clip si vedono solo elementi “reali” o modellati sulla realtà; cercherete invano i granchi della testa di Half-Life qui – anche se non siamo sicuri di voler davvero immaginare le creature parassitarie in modo fotorealistico.
Naturalmente, anche il tempo di elaborazione è un problema. Alla presentazione di Gen-3 Alpha, Runway ML ha indicato un tempo di elaborazione di circa 45 secondi per generare un clip di cinque secondi. Il calcolo in tempo reale, come il produttore di GPU Nvidia e altri sperano di fare in un futuro lontano, non avrà quindi luogo.
La strada per un Half-Life fotorealistico è ancora lunga, ma voi sareste disposti ad accogliere una nuova edizione? Quali classici potrebbero ancora beneficiare di un aggiornamento grafico? Fatecelo sapere nei commenti qui sotto