I progressi dei software che generano immagini a partire da testi portano con sé esperimenti e scetticismi tra gli addetti ai lavori
Nelle ultime settimane sono circolate sui social network delle immagini particolari, a tratti surreali: fotografie, disegni o acquerelli, a volte ben riusciti, altre volte confuse e strane, ma tutte prodotte da un'intelligenza artificiale. O, più precisamente, da un modello di linguaggio chiamato Generative Pre-trained Transformer (GPT), in grado di generare immagini (ma anche testi) sulla base di input testuali.
Questo genere di modelli, normalmente, deve essere «allenato» dai suoi ricercatori, che scelgono, curano e inseriscono nel sistema documenti e testi in modo che l'intelligenza artificiale li possa analizzare, imparando i meccanismi della scrittura o dell'arte umana. La caratteristica principale di GPT è la sua relativa indipendenza: una volta ricevute le enormi moli di documenti su cui basarsi, il modello di linguaggio…