Questa settimana Luma AI ha annunciato una nuova tecnologia di generazione di modelli 3D, che sebbene rozza oggi, alla fine dominerà in futuro.
Come abbiamo riportato, Luma AI ha adattato la sua tecnologia di scansione 3D basata su AI NeRF (Neural Radiosity Field) per consentire un modo completamente nuovo di generare modelli 3D: Text to 3D.
Testo in 3D
Esatto: digiti letteralmente una frase e il sistema genera un modello 3D completamente solido e stampabile. Include anche una texture a colori. Non mi credi? Ecco un modello stampato in 3D che è stato creato in questo modo, senza alcun CAD utilizzato:
Questo è molto simile ai sistemi Text to Image recentemente popolari, come DALL-E 2, Midjourney o Stable Diffusion, tranne per il fatto che invece di un’immagine 2D, “Imagine 3D” di Luma AI produce modelli 3D.
È solo un comune trucco da salotto? Bene, la risposta è sì e sicuramente no.
I modelli 3D prodotti finora da Imagine 3D sono in realtà piuttosto grezzi. Puoi vedere nel mio post precedente che il campione che ho stampato era decente, ma certamente non di dettagli eccezionali. Il “busto altamente dettagliato di Aristotele” era carente in altri modi: manca un orecchio e c’è una strana ammaccatura nella parte posteriore dove ti aspetteresti parti del corpo.
Per me sono solo dettagli. Il punto qui è che Luma AI è stato in grado di produrre con successo un sistema in grado di generare modelli 3D relativamente competenti da un semplice prompt di testo. Nel tempo loro, e sicuramente altri, perfezioneranno questo concetto proprio mentre i sistemi Text to Image stanno migliorando.
Questo mi ricorda la vignetta editoriale con un cane che gioca a scacchi, e qualcuno si lamenta che il “cane perde sempre”. Questo è lo stesso scenario: è incredibile che tutto questo possa essere fatto.
Alla fine avremo un sistema in grado di produrre prontamente modelli 3D su richiesta con una qualità ragionevole, SENZA sistemi CAD o sforzi richiesti. Tutto ciò di cui hai bisogno è immaginazione, abilità nello sviluppo di un prompt adatto per il sistema e (probabilmente) un abbonamento al sistema AI CAD.
Quali sono le implicazioni di una tale tecnologia diffusa nel mondo? Ce ne sono molti, ma eccone due importanti che vedo arrivare e che arriveranno velocemente.
Stampa 3D di consumo
Anni fa c’era un ronzio sul fatto che le persone potessero improvvisamente avere stampanti 3D nelle loro case. Tutto può essere stampato in 3D! Mettine uno in ogni stanza!
Il ronzio si è placato quando i consumatori entusiasti hanno scoperto che le macchine non erano particolarmente affidabili e, cosa più importante, richiedevano la stampa di contenuti 3D che non potevano realizzare da soli. In risposta, sono comparsi numerosi repository online di modelli 3D, spesso realizzati dagli stessi produttori di stampanti 3D per supportare i loro sforzi di vendita.
Questi repository per lo più hanno fallito consumatori generici perché è essenzialmente impossibile conservare “tutti i modelli”. Semplicemente non sai cosa vogliono le persone, quindi il gioco consisteva nell’aggiungere sempre più modelli 3D. Oggi Thingiverse si sta avvicinando ai modelli 3D 6M ed è quasi impossibile trovare qualcosa di specifico. La ricerca di modelli 3D si è rivelata impossibile: o non trovi nulla che desideri, oppure trovi 12.441 vasi e non hai una settimana per scorrerli.
Ora i tavoli sono cambiati: con un sistema Text to 3D competente, letteralmente qualsiasi consumatore potrebbe “creare” contenuti su richiesta e sarebbe pronto per la stampa.
Ora ci saranno contenuti istantanei per le stampanti 3D di consumo.
I produttori di stampanti 3D intelligenti lo riconosceranno e inizieranno a incorporare questa funzionalità direttamente nei loro dispositivi. Sembrerebbe fattibile costruire una stampante 3D a cui si potrebbe chiedere verbalmente di “fare una tazza da tè”, e lo farebbe senza altri input.
Proprio come le persone stanno lentamente iniziando a passare dai servizi fotografici stock ai generatori di immagini AI, lo stesso potrebbe accadere con i modelli 3D.
Credimi, succederà, prima di quanto pensi.
Il risultato di questa capacità dovrebbe essere un massiccio aumento della domanda di stampanti 3D desktop di livello consumer dotate di funzionalità Text to 3D. Con ciò ci saranno inevitabilmente tutti i tipi di nuovi servizi e capacità man mano che le economie di scala finalmente, dopo decenni, entrano in gioco.
Appassire CAD?
Un’altra grande implicazione sono gli effetti sugli strumenti CAD. Oggi c’è un enorme spettro di strumenti, specializzati nella progettazione di particolari tipi di oggetti. La sofisticazione e il prezzo di questi strumenti vanno da zero a “tutto”.
Il mio sospetto è che gli strumenti CAD di livello inferiore e quasi gratuiti saranno i primi ad essere interessati. Piuttosto che usare, ad esempio, Tinkercad, per produrre un modello 3D di un drago, uno strumento di testo in 3D potrebbe funzionare altrettanto bene e molto più velocemente.
Tuttavia, se hai visto uno qualsiasi dei modelli 3D prodotti da Imagine 3D, ti accorgerai che non sono particolarmente precisi, mancano di dettagli e non potrebbero assolutamente essere utilizzati come parti meccaniche.
O potrebbero? Dove potrebbe andare questa tecnologia in futuro?
E se i modelli 3D fossero addestrati su vaste librerie di parti meccaniche invece che su forme di cartoni animati casuali? E se gli strumenti di intelligenza artificiale incorporassero vincoli dimensionali fissi nel processo di generazione? Potrebbe essere possibile generare parti accurate. Correzione: sarà possibile farlo, ma non immediatamente.
Un altro approccio potrebbe essere utilizzato all’interno degli strumenti CAD. Immagina che SOLIDWORKS sia in grado di generare rapidamente la forma di una parte di base utilizzando la funzionalità Testo in 3D. Quindi l’utente CAD potrebbe quindi “lavorare” su quel modello generato per perfezionarlo e aggiungere o regolare le funzionalità richieste. Ciò potrebbe accelerare la creazione del modello 3D per diversi fattori.
Un altro modo in cui gli strumenti CAD potrebbero utilizzare questa tecnologia è simile a ciò che i generatori di immagini AI chiamano “Image to Image”. In questo approccio, viene caricata un’immagine e quindi vengono utilizzati comandi di testo per modificarla, come “togli i baffi a quel tizio”, “aggiungi un barattolo di sottaceti sul tavolo”, “aggiungi un po’ di polvere su tutte le superfici” e così via . Posso immaginare di caricare (o generare) un modello 3D di base e quindi utilizzare comandi di testo di quel tipo per modificarlo.
Vedo due modi per andare avanti qui per CAD.
Innanzitutto, i produttori di strumenti CAD esistenti potrebbero iniziare a incorporare questa funzionalità nelle loro suite di prodotti come descritto sopra. In questo modo potrebbero cavalcare l’ondata dell’IA e ravvivare sempre più i loro prodotti con AI mojo.
In alternativa, i produttori di strumenti CAD esistenti potrebbero ignorare tutto questo, a loro rischio e pericolo. Potrebbero quindi essere soggetti a una crescente concorrenza da parte di nuove startup che progettano nuovi stili di strumenti CAD che si basano e sfruttano appieno i concetti di testo in 3D.
In che direzione andranno i produttori di strumenti CAD? Non possiamo saperlo, ma è meglio che parlino di questo RFN.