-
.
Nell'ultimo ATV viene presentato il sistema di personalizzazione dei personaggi di gioco.
Video
(A partire da 20.36 sui personaggi e 48.19 sui volti)
La possibilità di personalizzare i personaggi è importante sia per il giocatore che desidera modellare il proprio avatar in base al ruolo, preferenze e gusto ma anche per fornire una sufficiente varietà di aspetti per gli NPC che popoleranno sia SQ42 che il PU. Considerando il rapporto 1/9 tra giocatori e AI e l'oltre 1.700.000 di backer la quantità di personaggi stimabile nel PU sarà di oltre 20.000.000. E' chiaro che generare queste quantità di personaggi diversi risulta essere una sfida anche considerando il livello qualitativo richiesto dal "maniacale" perfezionismo di CR. CIG sta completando le tecnologie che consentiranno questo "miracolo" e ce ne da un primo assaggio. L'automazione richiesta dal processo di animazione dei personaggi in questo contesto richiede che le dimensioni di tutti i personaggi rientrino in una serie di caratteristiche standard. A titolo di esempio immaginiamo le animazioni di entrata in una nave. E' chiaro che sarebbe impossibile creare animazioni ad hoc per ciascun possibile personaggio rispetto a ciascuna postazione di ciascuna nave. La scelta è stata quella di rendere standard le dimensione delle postazioni, le dimensioni dei passaggi ed infine anche le dimensioni dei personaggi. Tutto questo vale anche per le animazioni della "vita quotidiana". Gli insiemi delle animazioni previsti possono, in questo modo, essere riutilizzati in modo completamente automatico per tutti i PC ed gli NPC nelle diverse situazioni. L'approccio, di contro, limita la possibilità di personalizzare alcuni aspetti dei personaggi come il peso e l'altezza, ad es. non esisteranno PC o NPC alti 2.10 m o pesanti 150 Kg.
Le limitazioni imposte dalla vastità del contesto vengono recuperate grazie alla qualità dei personaggi, delle animazioni e del sistema di personalizzazione. La personalizzazione dell'abbigliamento utilizza i meccanismi della personalizzazione delle navi oltre ad una serie di accorgimenti che permettono di sovrapporre più strati di vestiario "annullando" le parti non visibili di quelli sottostanti. L'accorgimento è fondamentale per ottimizzare il rendering ed evitare che, a causa di particolari movimenti del personaggio, gli strati di vestiario sottostanti compaiano a causa delle cosiddette collisioni tra le diverse geometrie. La stessa tecnica viene utilizzata per le tute di volo, le armature, le armi e le diverse componenti o gadget.
Una nota particolare merita il volto. Il volto del personaggio viene generato in modo pseudocasuale per gli NPC e configurato per i PC a partire da un insieme di scansioni facciali effettuate su persone. Grazie a tecnologie di morphing le diverse caratteristiche del volto vengono poi mescolate per comporre il volto unico del personaggio, la tecnica permette di creare milioni di volti diversi. Ogni volto sarà, in questo modo, potenzialmente unico pur avendo possibili somiglianze con altri, magari in base a eventuali parentele. CIG, per questi aspetti, si è appoggiato a 3Lateral che offre questo tipo di soluzioni. Chi volesse approfondire, può vedere alcuni filmati (molto belli) sul loro sito.
www.3lateral.com/projects. -
.
Cope promesso Battle(non)sense continua la sua analisi sull'ultima patch di Star Marine la 2.6.1.
Nonostante la situazione generale sia migliorata ed il gioco risulta essere più fluido, rimangono i problemi di ritardo relativi soprattutto ai movimenti. Il ritardo relativo all'uso alle armi risulta ridotto rispetto alla 2.6.0 mentre quello relativo a spostamenti e salto risulta aumentato. Le cause sono apparentemente da ricercarsi in una maggiore ottimizzazione del netcode (il lavoro è in corso ed un primo risultato lo avremo nella 2.6.2 prevista per fine marzo, mentre un più significativo intervento porterà a risultati cpon la 3.0), altro problema potrebbe essere relativo all'interpolazione effettuata dal motore grafico che prima di muovere i personaggi valuta direzione e velocità per rendere gli spostamenti più fluidi (anche su questo fronte potremo vedere dei miglioramenti a partire dalla 3.0).
Chi avesse già visto il video precedente può saltare l'introduzione dove vengono spiegati i concetti generali e andare direttamente alla presentazione dei risultati.
Video. -
.
SpeedTree ha reso disponibile i propri strumenti all'interno di Lumberyard il motore grafico di Amazon adottato da Star Citizen. La tecnologia, già utilizzata in campo cinematografico, permetterà di creare ambienti sempre più realistici per l'universo di SC e le nostre avventure. Di seguito un link ad una sintesi delle possibilità di SpeedTree ricavata da recenti film dove la tecnologia CGI è stata utilizzata per gli effetti speciali.
Video. -
.
Altro filmato simile dove si può osservare anche l'utilizzo degli strumenti.
Video
La tecnologia in se è ormai consolidata, la novità è il suo utilizzo in tempo reale in un motore di gaming.. -
.
Pazzesco. Tecnologia cinematografica nel gameplay di un videogame... veramente è la prima volta? Roba da non credere...
La domanda è: quanto dovremo investire in schede grafiche e tutto il resto per avere sta roba al meglio?. -
.
Cos'é quel pacco che è arrivato oggi? .... Oh niente, sai purtroppo si era rotta la scheda grafica . -
.
Il problema non è quello...
" Come mai hai caricato 2000 euro sulla prepagata? A cosa ti servono?"
" No, niente... è materiale didattico per la scuola... poi me li faccio ridare."
.....
"Pronto... scusi, è qui che vi occupate di trapianti? Sarei disposto a cedere un rene...". -
.
Nell'ultimo ATV CIG spiega la tecnologia RenderToTexture che è un importante ulteriore tassello per SC e SQ42.
In pratica all'interno del gioco vengono aperte viewport secondarie. Una viewport è un punto di osservazione dal quale il motore grafico effettua il rendering di tutti gli oggetti in gioco che risultano visibili da quella prospettiva. La viewport primaria è quella che genera l'immagine (o le frame) mostrate a video (60 o più volte al secondo se GPU e CPU ce la fanno ). Le viewport secondarie permettono di predisporre punti di osservazione ulteriori nell'universo di gioco. Le immagini prodotte dalle viewport secondarie vengono trasformate in tempo reale in texture che viene applicata a superfici (es. un monitor) o a volumi (es. un ologramma). A questo punto la viewport principale renderizza tutti gli oggetti di gioco incluse le texture prodotte dalle viewport secondarie producendo l'immagine finale. Una viewport secondaria può includere il risultato di un'altra viewport secondaria producendo effetti simili a due specchi posti uno di fronte all'altro o a quelli di una telecamera posta di fronte ad un monitor. Il tutto viene renderizzato prima del passo di rendering principale (quello che produce l'immagine per il monitor) La tecnologie è estremamente innovativa, nessun motore grafico o gioco ne dispone (almeno così mi risulta).
Ma a cosa serve?
Gli impieghi sono innumerevoli e garantiscono un livello di immersion senza precedenti.
Per realizzare la comunicazione video tra NPC ed il personaggio i giochi tradizionali renderizzano la comunicazione in precedenza (in fase di produzione del gioco) e memorizzano il filmato sul drive del client. Questo, oltre a richiedere una significativa dimensione sull'HD (tutte le comunicazioni e tutte le alternative), implica che le alternative delle conversazioni sono limitate e devono essere definite a priori. Inoltre non rispecchiano eventuali cambiamenti del NPC (vestiti, cicatrici o altro) che fossero avvenuti durante il gioco. Realizzare in questo modo la comunicazione tra PC risulta di fatto impossibile data la possibilità di personalizzazione che ciascun giocatore può applicare al proprio PC (volto, vestiti, ecc).
La tecnologia implementata da CIG supera queste limitazioni renderizzando in tempo reale la comunicazione, l'aspetto ed i movimenti del NPC grazie ad una viewport secondaria che lo inquadra. La viewport può trovarsi ovunque nel gioco ed il risultato può essere mostrato su più superfici/volumi sia in un client che su più client. La tecnologia rende possibile la comunicazione video tra PC (i loro avatar ovviamente) cosa impossibile altrimenti.
Oltre alle comunicazioni le viewport permettono di gestire briefing delle missioni dinamici (che tengono conto esattamente delle condizioni di gioco (quale nave su utilizza o si dispone, quali NPC/PC partecipano; le condizioni precise dell'ambiente), telecamere di monitoraggio ambientale che operano in tempo reale mostrando realmente quello che succede, telecamere di ausilio (ad es. una telecamera che mostra le immagini in coda alla nave su un MFD), le immagini mostrate da un telescopio, ...
. -
.
In collaborazione con Faceware CIG ha sviluppato un nuovo protocollo di comunicazione FoIP (Face over IP) che permette di trasmettere le espressioni facciali in rete. In pratica una normale telecametra per videoconferenza posizionata sullo schermo cattura l'espressione del volto ed i movimenti facciali del giocatore, il software Feceware analizza le immagini e traduce le informazioni mentre l'intrerfaccia software le trasferisce al "Rig" - l'insieme delle geometrie che permettono le animazioni del volto. La tecnologia, integrata nel modtore di SC, sincronizza in questo modo tutti i movimenti del volto del giocatore con quelli del suo avatar. Il dialogo tra i giocatori in multiplayer, grazie anche all'audio correttamente posizionato in 3D ed agli effetti ambientali, diventa a questo completamente diegetico entrando a far parte del contesto e dello svolgimento della storia/missione. A differenza di sistemi esterni come TeamSpeak, Discord ed altri simili, la nuova tecnologia messa a punto da CIG garantisce il completo realismo e la totale "immersion" nell'ecosistema di SC. L'integrazione con il contesto del gioco apre la possibilità di interazione realistica tra i giocatori sia in un ambiente (in base alla distanza) che nei contesti di (video)comunicazione tra navi e sui pianeti. La comunicazione potrà avere livelli qualitativi basati sulla distanza, sulle caratteristiche delle apparecchiature utilizzate e su eventuali inteferenze casuali o volute. Infine il travviamento del volto risulta integrato con i meccanismi di head tracking permettendo di guardarsi intorno muovendo la testa dell'avatar, un interessante sostituto delle tecnologie come Trak-IR.
https://robertsspaceindustries.com/comm-li...es-Announcement
. -
.
Nell'ultimo Inside Star Citizen gli sviluppatori hanno presentato l'attività di ricerca svolta per evolvere la tecnologia procedurale finalizzandola anche alla gestione delle caverne. La ricerca era stata recentemente presentata a Roma ad un convegno di game developer sulle evoluzioni tecnologiche più recenti.
Considerando la quantità di caverne da realizzare per lune e pianeti del 'verse è chiaro che non era possibile utilizzare metodi tradizionali. Sviluppare ciascuna caverna in modo "manuale" avrebbe richiesto quantità di tempo e risorse impensabili. D'altro canto la sfida principale è stata quella di trovare il cosiddetto "sweet spot" tra la completa randomizzazione dei risultati (non esteticamente piacevole) e l'eccessiva regolarità che avrebbe causato effetti di "già visto" (qualcuno ricorderà il caso estremo di DA2).
Gli sviluppatori hanno modificato la tecnologia procedurale già messa a punto dal team per la creazione delle stazioni spaziali creando una strutturazione delle caverne basata su moduli (stanze) montati tra loro in modo pseudo-casuale e connessi da percorsi generati dalla procedura. Successivamente hanno cominciato a popolare stanze e percorsi con oggetti distribuiti in modo procedurale utilizzando la tecnologia planetaria che già ha dato risultati più che soddisfacenti sulle superfici di pianeti e lune. Durante la sperimentazione gli asset di base utilizzati sono stati estremamente semplici dato che la qualità visiva dei risultati in quella fase non era rilevante.
A questo punto si sono poste due ulteriori sfide:
- Per garantire l'assenza dell'effetto "già visto" non era possibile utilizzare "stanze" prefabbricate montate in modo random, prima o poi qualcuno avrebbe riconosciuto le strutture distruggendo l'immersion. D'altra parte crearne un numero sufficientemente grande a mano era ancora improponibile.
- Gli ingressi delle caverne dovevano essere di aspetto vario e non troppo facilmente riconoscibili. Inoltre era necessario, dato che anche la distribuzione delle caverne deve essere procedurale, che gli ingressi venissero posizionati correttamente ed in modo naturale sulle superfici di pianeti e lune armonizzandosi nel contesto.
Gli sviluppatori hanno ulteriormente lavorato su questi aspetti definendo regole che permettono la creazione di moduli a partire da building block elementari quali pareti, colonne, pianori, pozzi, volte, ecc. Le stanze vengono create anche esse in modo procedurale. Questo ha richiesto ulteriore lavoro per garantire la "traversabilità" delle aree. Anche se in natura non necessariamente una caverna è visitabile e tutte le stanze sono raggiungibili, in un game non sarebbe un risultato auspicabile che un'area risultasse bloccata da oggetti o non raggiungibile perché i movimenti del PC non sono adeguati. E' stato coinvolto il reparto di "Level Design", il team sche studia le aree dal punto di vista della loro "giocabilità" ed interesse. La collaborazione ha permesso di inserire ulteriori regole nella tecnologia procedurale che permettono, in base ai movimenti possibili del PC, di raggiungere tutte le aree di interesse generate automaticamente nella caverna. Inoltre sono state previste regole per generare automaticamente le aree di interesse e i punti di spawn di NPC, oggetti, minerali, piante particolari, animali o altro. I Designer potranno utilizzare la parametrizzazione delle regole perché vengano generate automaticamente caverne sulla base del tipo di pianeta o luna, area dell'universo, condizioni geologiche e molto altro.
Le regole create per la costruzione delle stanze sono state infine adattate anche per la creazione degli ingressi. Per questo è stato necessario rendere il sistema in grado di "leggere" automaticamente le caratteristiche dell'area planetaria dove la caverna sarebbe stata posizionata in modo da indirizzare la creazione sul tipo di ingresso adatto e sulla sua disposizione pur mantenendo la necessaria casualità.
Gli ultimi video mostrano i risultati allo stato attuale. La sperimentazione continua inserendo asset con un livello di qualità più alta (ancorché non ancora quelli finali) e sperimentando la possibilità di introdurre aree sommerse (i PC saranno in grado presto di nuotare). E' stato convolto il team degli effetti VFX per definire regole di illuminazione, nebbie ed altri effetti. Anche se probabilmente in una caverna vera l'unica fonte di luce sarebbe la torcia frontale nel gioco, per ragioni estetiche, si preferisce generare un tipo di illuminazione che metta in risalto l'estetica del paesaggio. I risultati sono sorprendentemente simili ad alcune caverne esistenti sulla terra dove la bioluminescenza fornisce spettacoli mozzafiato.
La tecnologia è ancora in fase sperimentale e se tutto procede per il meglio potrebbe essere disponibile a fine anno per una prima verifica live su Microtech.
E' interessante anche l'ulteriore visibilità che viene data su tutta l'attività di sviluppo, realizzare qualunque cosa su Star Citizen, data la sua dimensione, implica sempre realizzare strumenti. spesso innovativi, che permettano di affrontare i problemi su scala globale tenendo conto dei casi limite e gestendoli automaticamente in modo appropriato. Ovviamente tutto questo richiede tempo
. -
.
Prima o poi mi aspetto anche l'introduzione di navi "spazio/atmosfera/subacquea" e mezzi anfibi.
Ottimo aggiornamento. Grande Max..