I ricercatori NVIDIA sviluppano un metodo di scansione 3
Se suona come fotogrammetria, dovrebbe. La fotogrammetria è il processo di acquisizione delle immagini di un oggetto da una serie di angolazioni diverse, per poi elaborarle in un software per interpretare un modello 3D. Questo è un processo comunemente utilizzato in questi giorni e sono disponibili più opzioni software, anche per dispositivi mobili.
Tuttavia, non è senza problemi. Ci sono tre questioni principali.
Le immagini catturate devono essere di qualità eccezionale, con motivi visibili, lunghezza focale costante, illuminazione uniforme, messa a fuoco precisa e numerazione a centinaia
Il tempo di elaborazione per generare un modello 3D può essere considerevolmente lungo
I modelli 3D risultanti sono spesso di bassa qualità a meno che non esistessero condizioni di acquisizione perfette
Di conseguenza, la fotogrammetria non viene utilizzata tanto quanto potrebbe. Ma ora i ricercatori di NVIDIA hanno sviluppato un nuovo approccio che potrebbe migliorare le cose.
La chiave è nell’elaborazione delle immagini.
Il software di fotogrammetria tradizionale tenta di creare una nuvola di punti confrontando le posizioni di motivi di sfondo riconoscibili quando l’angolo di visione cambia nelle immagini. Sulla base di questi calcoli angolari, a ciascun pixel viene assegnata una posizione nello spazio 3D. Il risultato è una nuvola di punti disordinata, con punti spruzzati sulla scena, che si spera rappresentino l’oggetto 3D.
Di solito ci sono tonnellate di punti periferici che, per un motivo o per l’altro, sono finiti nel posto sbagliato. Questo è solitamente il risultato di cattive condizioni di imaging. Riflessi, sfocatura e altri problemi possono facilmente causare il verificarsi di punti vaganti. Possono anche posizionare leggermente in modo errato i punti corretti.
Un secondo passaggio avviene poi per “pulire” la nuvola di punti semplificandola e rimuovendo i punti ovviamente sbagliati.
La fase finale consiste nell’unire quei punti avvolgendo una pelle di triangoli attorno ad essi. Esistono più algoritmi per farlo, ma il problema è che a causa del leggero posizionamento errato dei punti, la superficie generata tende a essere traballante. Ciò è particolarmente evidente se si esegue la scansione di una superficie piana: non è MAI piatta nella scansione acquisita.
I ricercatori NVIDIA hanno utilizzato un approccio diverso. Il loro algoritmo inizia con una forma 3D di base, diciamo una sfera o un toro, e poi la distorce gradualmente, iterazione dopo iterazione. Questo è abbastanza analogo all’utilizzo di uno strumento di scultura 3D come ZBrush, in cui una forma di base viene distorta nella forma desiderata. Tuttavia, qui il processo è automatizzato e abbinato alle immagini di input.
I risultati sono impressionanti. Il tempo di calcolo è significativamente più veloce rispetto alla generazione e all’elaborazione della nuvola di punti convenzionale e il modello 3D generato ha una qualità molto maggiore. L’algoritmo è anche in grado di catturare correttamente le texture anche in condizioni di illuminazione variabili.
L’algoritmo richiede, come potresti sospettare, capacità di elaborazione su GPU NVIDIA e per giunta veloci. Tuttavia, questo è un approccio che potrebbe eventualmente cambiare il modo in cui acquisiamo scansioni 3D per oggetti organici complessi.
Per ora questa è solo una ricerca, ma i risultati sono così impressionanti che è difficile immaginare che NVIDIA o altri non lo portino avanti con i prodotti commercializzati.