L’aggiornamento di Stable Diffusion rimuove la possibilità di copiare gli stili degli artisti o realizzare opere NSFW

Stable Diffusion, l’intelligenza artificiale in grado di generare immagini dal testo in un file sorprendentemente realistico modo, è stato aggiornato con un sacco di nuove funzionalità. Tuttavia, molti utenti non sono contenti, lamentandosi del fatto che il nuovo software non può più generare immagini negli stili di artisti specifici o generare opere d’arte NSFW, Il limite ha riferito.

La versione 2 introduce una serie di nuove funzionalità. La chiave tra queste è un nuovo codificatore di testo chiamato OpenCLIP che “migliora notevolmente la qualità delle immagini generate rispetto alle precedenti versioni V1”, secondo Stability AI, la società dietro Stable Diffusion. Include anche un nuovo filtro NSFW di LAION progettato per rimuovere i contenuti per adulti.

Altre caratteristiche includono un modello di diffusione da profondità a immagine che consente di creare trasformazioni “che sembrano radicalmente diverse dall’originale ma conservano comunque la coerenza e la profondità di un’immagine”, secondo Stability AI. In altre parole, se crei una nuova versione di un’immagine, gli oggetti appariranno ancora correttamente davanti o dietro altri oggetti. Infine, un modello di inpainting guidato da testo semplifica la sostituzione di parti di un’immagine, ad esempio mantenendo la faccia di un gatto mentre si modifica il suo corpo.

IA di stabilità

Tuttavia, l’aggiornamento ora rende più difficile creare alcuni tipi di immagini come immagini fotorealistiche di celebrità, output di nudo e pornografici e immagini che corrispondono allo stile di determinati artisti. Gli utenti hanno affermato di aver chiesto a Stable Diffusion Version 2 di generare immagini nello stile di Greg Rutkowski, un artista spesso copiato per immagini AI – non funziona più come prima. “Hanno nerfato il modello”, ha detto uno Utente reddit.

Stable Diffusion è stato particolarmente popolare per la generazione di arte AI perché è open source e può essere costruito, mentre rivali come DALL-E sono modelli chiusi. Ad esempio, il sito YouTube VFX Equipaggio di corridoio ha mostrato un add-on chiamato cabina dei sogni che ha permesso loro di generare immagini basate sulle proprie foto personali.

Stable Diffusion può copiare artisti come Rutkowski allenandosi sul loro lavoro, esaminando immagini e cercando modelli. Fare questo è probabilmente legale (sebbene in una zona grigia), come abbiamo dettagliato nel nostro spiegatore all’inizio di quest’anno. Tuttavia, l’accordo di licenza di Stable Diffusion vieta alle persone di utilizzare il modello in un modo che infranga qualsiasi legge.

Nonostante ciò, Rutkowski e altri artisti si sono opposti all’uso. “Probabilmente non sarò in grado di trovare il mio lavoro là fuori perché [the internet] sarà inondato di arte dell’intelligenza artificiale”, ha detto Rutkowski Revisione della tecnologia del MIT. “Questo è preoccupante.”

Tutti i prodotti consigliati da Engadget sono selezionati dalla nostra redazione, indipendente dalla nostra casa madre. Alcune delle nostre storie includono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, potremmo guadagnare una commissione di affiliazione. Tutti i prezzi sono corretti al momento della pubblicazione.

Leave a Comment