Skip to main content

Negli ultimi anni le capacità e l’accessibilità a tools basati sull’intelligenza artificiale sono aumentati esponenzialmente. Non solo queste AI ci assistono quotidianamente dal nostro smartphone, ma, con il tempo, si sono trasformate in veri e propri strumenti per i quali l’unico limite d’uso diventa l’immaginazione.

Il caso più popolare è senz’altro DALL-E, un sistema basato sull’intelligenza artificiale che genera immagini partendo da un testo. Più dettagliato sarà l’input, più i risultati saranno vicini al desiderato.

Con queste premesse vogliamo condividere con voi la nostra esperienza, che crediamo possa aiutare a comprendere l’enorme potenzialità di questo strumento.

Content creation e AI

Recentemente ci siamo trovati in una situazione abbastanza comune per un Content Creator. Dovevamo realizzare un’immagine da utilizzare su Instagram per il lancio di un nuovo prodotto all’interno di un e- commerce che seguiamo da tempo.

Una delle caratteristiche che amiamo di questo progetto è il fatto che il cliente ci lascia molta libertà nello stabilire il contenuto della comunicazione. Questo ci permette di viaggiare con la nostra fantasia e produrre contenuti divertenti ed insoliti. Il progetto del quale stiamo parlando è lacanapalegale.it

Molto spesso i prodotti di questo inconsueto e-commerce hanno nomi decisamente bizzarri o particolari: Orange Gelato, Blueberry x Melon, Cannatonic e Green Poison. È su quest’ultima genetica che dovevamo concentrarci per la realizzazione del post Instagram. Nella nostra immaginazione l’idea era vivida: una boccetta di veleno piena di prodotto, illuminata da una luce verde e circondata da fumo. 

Solitamente il processo per generare un’immagine di questo tipo si sviluppa in due modi:

  • grazie ad un set e una macchina fotografica, costruendo fisicamente la scena e fotografandola (soluzione che superava sia budget che tempo disponibile) 
  • oppure – soluzione che avevamo già utilizzato in altre occasioni – produrre l’immagine con photoshop.

Quest’ultima appunto era per noi la soluzione più accessibile ed efficace, ma il problema che si poneva era un altro: le immagini. I fotomontaggi hanno la limitazione di dover sempre avere una base di partenza, a cui unire altri elementi per creare ciò che si vuole ottenere. Dopo una ricerca all’interno delle diverse repository dalle quali ci forniamo, ci siamo resi conto che non c’era niente di lontanamente simile o vicino a quello che avevamo in testa.

Dopo aver valutato le diverse opzioni abbiamo dovuto quindi trovare una soluzione alternativa a queste più tradizionali. È cosi che e abbiamo deciso di sperimentare un nuovo modo di produrre immagini molto utilizzato nell’ultimo periodo: l’intelligenza artificiale DALL-E.

L’AI al servizio del design

Con DALL-E il nostro modo di produrre le immagini ha visto una svolta: finalmente potevamo creare immagini senza alcun tipo di vincolo fisico o di budget, perché in pochi minuti si possono generare diverse alternative. La limitazione dell’AI è infatti nella “comprensione del testo” o comunque nel dare l’interpretazione corretta alle parole che si inseriscono nel prompt. Essa interpreta infatti la descrizione che riceve, ma per poter “vedere dal vivo” l’immagine nella nostra testa dovevamo descriverla nel modo più preciso e accurato possibile.

Dopo diverse prove poco soddisfacenti, abbiamo provato a costruire l’immagine non più partendo dal soggetto, bensì dal contesto. DALL-E infatti permette di selezionare una porzione di immagine e modificare solo quella. In questo modo abbiamo potuto generare prima la bottiglietta di veleno in un contesto dark, per poi andare a inserire successivamente il prodotto.

Così facendo siamo riusciti a compartimentare l’immagine e di conseguenza la sua generazione, riducendo la possibilità di errore dell’AI. A quel punto ci è bastato dare gli ultimi ritocchi e inserire i testi con photoshop per ottenere quello che poi abbiamo postato online.

Creare immagini con l’intelligenza artificiale: sta tutto in cosa e come lo dici!

Questo processo di creazione ci ha fatto riflettere molto sulla modalità di produrre le immagini per i social. Spesso ci capita di dover ricorrere a immagini stock, che potrebbero non essere esattamente quello che cerchiamo, ma al quale abbiamo dobbiamo adattarci in quanto è “quello che offre il mercato”. Inoltre, non sempre si hanno le risorse per realizzare servizi fotografici professionali che rispecchino l’idea che si ha in mente.

Cosa ci siamo portati a casa da questa esperienza?

Sicuramente il piacere di vedere la propria idea prendere forma con un processo così insolito ed immateriale. All’inizio non eravamo certi che questa soluzione avrebbe portato i risultati attesi ma la nostra determinazione non ci ha permesso di fermarci.

Eravamo curiosi del effort che avrebbe richiesto un processo del genere. A dirla tutta non è stato facile: serviva un’idea definita, uno strumento performante e una capacità descrittiva ben tarata sulla capacità comprensiva dello strumento. La grossa difficoltà, infatti, è stata capire cosa e quanto dire del prodotto che desideravamo. 

Con DALL-E non si tratta infatti di andare passo passo verso un risultato ma si tratta di verificare istantaneamente se le parole usate hanno dato vita a ciò che immaginavamo. Non si può dare nulla per scontato e, soprattutto, non si può pretendere che un intelligenza artificiale ti legga nel pensiero (per ora) e sappia che vuoi una luce verde o che la boccetta di veleno alla quale ti riferisci deve essere vista in piedi e non appoggiata su un lato.

Vorremmo vedere altri lavori del genere che ci facciano capire quanto in la si può arrivare con uno sforzo linguistico e non tecnico per dare vita all’immagine che effettivamente abbiamo nel nostro cervello.

Mentre scrivevamo la conclusione di questo articolo ci è anche sorta una domanda: cosa succederebbe se questa tecnologia fosse applicata alla stampa 3d? Che cosa ci fermerebbe a quel punto?