Buenos días compañeros! Hoy os vengo a hablar de un tema que está de actualidad y con el que he estado experimentando esta semana... Seguro que habéis oido hablar de la generación de imágenes usando inteligencia artificial con tan sólo describir en una frase escrita lo que quieres que tenga la imagen, que ha creado mucha polémica ya que muchos artistas creen que les puede quitar el trabajo (yo no lo pienso así, de hecho creo que es una herramienta muy útil). Algunos han llegado a demandar a las empresas que investigan dichas IA argumentando que al ser entrenadas a partir de imágenes de artistas humanos, las nuevas imágenes que crea la IA infringirían sus derechos de autor (algo absurdo, porque la IA no hace otra cosa diferente que cualquier artista humano cuando aprende a dibujar o pintar en algún estilo... todos nosotros nos basamos en el trabajo previo y la observación de creaciones anteriores, y adoptamos el estilo o mezcla de estilos de artistas anteriores a nosotros). También ha ocurrido que algunos bancos de imágenes se han negado a aceptar imágenes creadas de esta manera alineándose con ese grupo de artistas a los que no les gusta la IA.Madre mía compi, deberías poner que texto has puesto para conseguir esas chicas que no sólo le llaman la atención a Dani, jajaja.
De igual forma, otra polémica tiene que ver con temas eticos, ya que se pueden usar para crear deepfakes y porno, temas siempre espinosos.
Lo mejor que tienen es que son de uso muy sencillo y se pueden conseguir resultados espectaculares y cosas que parecen increíbles en cuestión de segundos. Las más famosas son Dall-E, Midjourney y Stable Diffusion. Yo las he probado las tres, aunque ahora sólo uso esta última. La más espectacular y avanzada es Midjourney, ya que con frases de por ejemplo cuatro o 5 palabras ya arroja resultados espectaculares, y es la más sencilla de usar. La pega es que tanto esta como Dall-E te ofrecen un número de usos gratis, y a partir de ahí tienes que pagar o suscribirte a un plan de pago.
Sin embargo, la que me tiene entusiasmado es Stable Diffusion, que a diferencia de las otras es open source, de uso gratuíto sin limitaciones, y sin censurar ningún tipo de contenido. Además de poderla usar online, se puede instalar localmente y tiene una enorme comunidad detrás creando modelos para ella para hacer todo tipo de imágenes y contenido (por ejemplo imágenes con el estilo artístico de los juegos de Vanillaware). Yo la tengo instalada tanto en mi ordenador de sobremesa como en mi portátil y la uso asiduamente.
Su uso es bastante sencillo como comenté antes... Veréis que aparece un formulario con dos líneas de texto, una para la frase 'positiva' y otra para la frase 'negativa'. En la primera escribimos bien la descripción, bien las palabras que definen los elementos que queremos que aparezcan en la imagen a generar (por ejemplo, mujer sueca de 21 años, pelo rubio, alta, bikini verde, atlética, observando atardecer en la playa), pudiendo marcar algunas palabras como más relevantes poniéndolas entre paréntesis (a más paréntesis, más relevancia) o entre corchetes (menos relevancia) para que se tenga en cuenta en el resultado. En la segunda línea, se hace lo mismo pero con todo lo que NO queremos que tenga o sea la imagen, y nos sirve no sólo para excluir elementos sino para acotar la calidad de la imagen y descartar imágenes que tengan defectos de generación (por ejemplo cuerpos deformes, menos dedos, más dedos, piernas faltantes, personajes fusionados, imágenes borrosas, etc...).
Y después tenemos una sección (esto sólo disponible usando la IA en local o con versiones online no oficiales de Stable Diffusion) en la que podemos indicar la resolución de la imagen, el número de iteraciones que queremos que haga la IA para generar la imagen final y un indicador en el que asignamos con un valor la fidelidad que queremos que tenga la IA con el texto que le hemos escrito a la hora de generar la imagen (que sea más o menos literal o estricta al tener en cuenta los elementos del texto).
Además tenemos un desplegable en el que podemos seleccionar otros modelos diferentes del oficial, que es donde salen los modelos descargados de la comunidad para cosas concretas, por ejemplo para generar anime, personas realistas, etc...
Por si fuera poco, además se nos ofrece un pequeño editor que permite importar una imagen (bien una imagen real, bien una previamente generada con la propia IA) y hacer la generación de la imagen basándose en el contenido de la imagen previa, e incluso podemos señalar con un marcador partes de la imagen para que sólo se modifique eso y deje el resto sin tocar, lo que nos dá posibilidades infinitas (por ejemplo cambiar de escenario en segundos sin tirarte horas en Photoshop). Además, es sencillísimo entrenar a la IA para incluir en la generación objetos, personas o nuevas características... Por ejemplo, para incluirme yo mismo en la generación de las imágenes sólo necesitaría unas 20 fotos mías, tres de cuerpo entero en varios ángulos, 5 o 6 del torso, y el resto de mi cara con diferentes expresiones. Con esas imágenes pones a la IA a entrenar y le asignas una eitiqueta, y para usar lo que has hecho en la imagen tan sólo tienes que escribir la etiqueta en la descripción.
Pero ahora vamos a lo interesante, los resultados... Y estos generados en cuestión de segundos, como comento. Se pueden generar personas indistinguibles de las reales (esto va a gustar a compañero @daninuyusio) como estas:
(https://i.imgur.com/ZNbVu0d.png)
(https://i.imgur.com/nBeintL.png)
(https://i.imgur.com/8ruIQfF.png)
(https://i.imgur.com/Q5LyOTP.png)
(https://i.imgur.com/CmoDL1P.png)
(https://i.imgur.com/kUdq5Se.png)
(https://i.imgur.com/bw1XZG5.png)
O imágenes en cualquier estilo artístico, por ejemplo unas waifus:
(https://i.imgur.com/TmWbNHl.png)
(https://i.imgur.com/wlQVvZY.png)
(https://i.imgur.com/EfCIAUt.png)
(https://i.imgur.com/YdS7Iby.png)
(https://i.imgur.com/AcgPCgJ.png)
(https://i.imgur.com/7xg7oSo.png)
(https://i.imgur.com/34ZhbD2.png)
Luego, se puede guardar la 'semilla' de una imagen generada y que haga variaciones a partir de ella, para obtener imágenes similares en las que los personajes cambian menos y son más parecidos de unas a otras, además de controlar el grado de variación, por ejemplo con estas:
(https://i.imgur.com/7aIBHBw.png)
(https://i.imgur.com/uWBdEIv.png)
(https://i.imgur.com/kUs2he5.png)
(https://i.imgur.com/CRQBhVH.png)
En fin, que aún estoy alucinando con todo esto y tiene muchas posibilidades de todo tipo... De hecho en el siguiente vídeo podéis ver cómo un diseñador usa Stable Diffusion para generar un personaje y luego animarlo haciendo uso de Photoshop y After Effects:
¿Qué os parece? Si os interesa el tema y queréis probar a instalar la IA y generar imágenes, sólo tenéis que seguir el siguiente tutorial:
https://rentry.co/UnofficialUnstableGuide (https://rentry.co/UnofficialUnstableGuide)
No es complicado de hacer pero hay que seguir paso a paso lo que dice la guía y dedicarle un par de horas... También que necesitaréis una gráfica más o menos potente, aunque la misma guía ya lo explica.
¡Jo... der! Esto podría ser muy útil para ilustrar libros con dibujos de los personajes, o para crear gráficos para aventuras (de hecho, creo que le iría como anillo al dedo para aventuras picantes como aquellas que hizo @iOtero), cómics, etc. Pero imagino que todos esos "modelos" que generan las IA acabarán siendo muy "clónicos" y se notará que falta la "mano del artista".
De todos modos, ¿no os da la sensación de estar los últimos años inundados de tecnología del ocio (smartphones ultra-potentes en la palma de la mano, TVs con resoluciones casi obscenas, criptomonedas que nadie sabe para que sirven, que si IAs bailando sardanas...), mientras que en cosas realmente importantes (salud, educación, problemas sociales, guerras) parece que todo avance a paso de tortuga por no decir que llevamos décadas estancados? ¿Qué opinaría una IA de todo esto? ;D :P
A mí, como dibujante me parece inmoral. lo mismo pensaría un taxista si se inventasen las cápsulas de teletransporte ;D
A mí, como dibujante me parece inmoral. lo mismo pensaría un taxista si se inventasen las cápsulas de teletransporte ;D
Pues parece que ya está pasando, justo esta mañana leía esta noticia sobre un corto de animación estrenado en Netflix (The Dog & The Boy) que ha sido hecha íntegramente con el uso de una IA...https://computerhoy.com/entretenimiento/nuevo-anime-netflix-causa-indignacion-incorporar-arte-generado-ia-dejar-lado-humano-1193916
... ¡la madre que parió a las IA estas! ??? ???
A mí, como dibujante me parece inmoral. lo mismo pensaría un taxista si se inventasen las cápsulas de teletransporte ;D
Pues parece que ya está pasando, justo esta mañana leía esta noticia sobre un corto de animación estrenado en Netflix (The Dog & The Boy) que ha sido hecha íntegramente con el uso de una IA...https://computerhoy.com/entretenimiento/nuevo-anime-netflix-causa-indignacion-incorporar-arte-generado-ia-dejar-lado-humano-1193916
... ¡la madre que parió a las IA estas! ??? ???
Yo tambien dibujo y sin embargo creo que es una herramienta muy útil incluso con el propio material de uno. Hay que verlo como la llegada en su día de programas de retoque fotográfico como el Photoshop.
En cuanto a la película de Netflix no es cierto que esté integramente hecha mediante una IA. La IA sólo la han usado para generar los fondos, todo lo demás ha sido realizado por ilustradores humanos como siempre. Además, ha habido una razón de peso para hacerlo: Desde después de la pandemia, muchos estudios de animación se están viendo con problemas para continuar las series debido a que hay una gran demanda de ilustradores, y los que hay tienen las agendas completas. Esto ha provocado que se hayan paralizado algunas series, algunas al poco de empezar, como ha pasado con la Nier Autómata, o con la de Isekai Ojisan, y en general con varias series de Aniplex. Por lo visto la situación es bastante grave de hecho...
Esto es un no parar ya... lo que no entiendo es el reciente boom que han experimentado casi de golpe todas las variantes.
Justo ayer estuve probando Midjourney.
https://midjourney.com/
y debo decir que quedé alucinado.
Se basa en pasarle una descripción y la IA te crea lo que le digas.
Super fácil de utilizar, dedicarle cinco minutos. Creo que será una herramienta muy útil pasa sacar bocetos, ideas, etc.
Saludos
Gus
Muy interesante !!! sin duda que lo probaré.
Y es que estas IAs tanto te hacen un zurcido como te cosen un descosido !!!
El diseño de un personaje:
(http://arcadespain.info/cpg/albums/userpics/14492/pikachu.png)
(http://arcadespain.info/cpg/albums/userpics/14492/personaje.png)
O un logo:
(http://arcadespain.info/cpg/albums/userpics/14492/logo.png)
Un libro para colorear:
(http://arcadespain.info/cpg/albums/userpics/14492/libro_coloreable.png)
El diseño de un producto e incluso una página web:
(http://arcadespain.info/cpg/albums/userpics/14492/diseno_producto.png)
O un logo para un foro !!!
(http://arcadespain.info/cpg/albums/userpics/14492/arcade.png)
Impresionante lo que sale a partir de los bocetos!!!Muy interesante !!! sin duda que lo probaré.
Y es que estas IAs tanto te hacen un zurcido como te cosen un descosido !!!
El diseño de un personaje:
(http://arcadespain.info/cpg/albums/userpics/14492/pikachu.png)
(http://arcadespain.info/cpg/albums/userpics/14492/personaje.png)
O un logo:
(http://arcadespain.info/cpg/albums/userpics/14492/logo.png)
Un libro para colorear:
(http://arcadespain.info/cpg/albums/userpics/14492/libro_coloreable.png)
El diseño de un producto e incluso una página web:
(http://arcadespain.info/cpg/albums/userpics/14492/diseno_producto.png)
O un logo para un foro !!!
(http://arcadespain.info/cpg/albums/userpics/14492/arcade.png)
Efectivamente... Y todo eso lo puedes hacer igual o mejor con Stable Diffusion. Midjourney la ventaja que tiene es que es más avanzada en el reconocimiento de las descripciones y da resultados espectaculares con pocas palabras, pero por el contrario no tiene ningún control que te permita evitar aberraciones o que salgan cosas que no quieres en las imágenes, además del problema de ser de pago por suscripción. Stable Diffusion, requiere de mejores 'prompts', descripciones más detalladas, pero a cambio tienes una línea de texto extra, el prompt negativo... Ahí pones todo lo que NO quieres que tenga la imagen, como que evite imágenes fotorrealistas si lo que quieres es una ilustración, que descarte imágenes borrosas, personajes deformes, manos extra, dedos extra, logos, texto, etc...
Además, Stable Diffusion la puedes instalar localmente en tu Pc por lo que no requiere de ningún tipo de servicio online y ni siquiera tienes que estar conectado a internet para usarla. Al ser Opensource, su uso es gratuíto y no hay limitaciones ni censura como en las otras. Te permite entrenar muy fácilmente tus propios modelos para incluir en las imágenes personas concretas, personajes, objetos o lo que necesites, estilos artísticos y nuevas funcionalidades, además de tener incluídas unas utilidades como img2img que permite usar la IA sobre una imagen ya previamente existente, o Inpaint, que hace eso mismo pero permite seleccionar 'pintando' con un puntero partes de la imagen y aplicar cambios sólo a lo que te interese, pudiendo hacer maravillas con esto. Es todo un mundo increíble esto...
Impresionante lo que sale a partir de los bocetos!!!Muy interesante !!! sin duda que lo probaré.
Y es que estas IAs tanto te hacen un zurcido como te cosen un descosido !!!
El diseño de un personaje:
(http://arcadespain.info/cpg/albums/userpics/14492/pikachu.png)
(http://arcadespain.info/cpg/albums/userpics/14492/personaje.png)
O un logo:
(http://arcadespain.info/cpg/albums/userpics/14492/logo.png)
Un libro para colorear:
(http://arcadespain.info/cpg/albums/userpics/14492/libro_coloreable.png)
El diseño de un producto e incluso una página web:
(http://arcadespain.info/cpg/albums/userpics/14492/diseno_producto.png)
O un logo para un foro !!!
(http://arcadespain.info/cpg/albums/userpics/14492/arcade.png)
Efectivamente... Y todo eso lo puedes hacer igual o mejor con Stable Diffusion. Midjourney la ventaja que tiene es que es más avanzada en el reconocimiento de las descripciones y da resultados espectaculares con pocas palabras, pero por el contrario no tiene ningún control que te permita evitar aberraciones o que salgan cosas que no quieres en las imágenes, además del problema de ser de pago por suscripción. Stable Diffusion, requiere de mejores 'prompts', descripciones más detalladas, pero a cambio tienes una línea de texto extra, el prompt negativo... Ahí pones todo lo que NO quieres que tenga la imagen, como que evite imágenes fotorrealistas si lo que quieres es una ilustración, que descarte imágenes borrosas, personajes deformes, manos extra, dedos extra, logos, texto, etc...
Además, Stable Diffusion la puedes instalar localmente en tu Pc por lo que no requiere de ningún tipo de servicio online y ni siquiera tienes que estar conectado a internet para usarla. Al ser Opensource, su uso es gratuíto y no hay limitaciones ni censura como en las otras. Te permite entrenar muy fácilmente tus propios modelos para incluir en las imágenes personas concretas, personajes, objetos o lo que necesites, estilos artísticos y nuevas funcionalidades, además de tener incluídas unas utilidades como img2img que permite usar la IA sobre una imagen ya previamente existente, o Inpaint, que hace eso mismo pero permite seleccionar 'pintando' con un puntero partes de la imagen y aplicar cambios sólo a lo que te interese, pudiendo hacer maravillas con esto. Es todo un mundo increíble esto...
Y lo puedo instalar en mi ordenador de gratis??? Se necesita equipo muy potente?
Enviado desde mi MI MAX 2 mediante Tapatalk
Impresionante lo que sale a partir de los bocetos!!!Muy interesante !!! sin duda que lo probaré.
Y es que estas IAs tanto te hacen un zurcido como te cosen un descosido !!!
El diseño de un personaje:
(http://arcadespain.info/cpg/albums/userpics/14492/pikachu.png)
(http://arcadespain.info/cpg/albums/userpics/14492/personaje.png)
O un logo:
(http://arcadespain.info/cpg/albums/userpics/14492/logo.png)
Un libro para colorear:
(http://arcadespain.info/cpg/albums/userpics/14492/libro_coloreable.png)
El diseño de un producto e incluso una página web:
(http://arcadespain.info/cpg/albums/userpics/14492/diseno_producto.png)
O un logo para un foro !!!
(http://arcadespain.info/cpg/albums/userpics/14492/arcade.png)
Efectivamente... Y todo eso lo puedes hacer igual o mejor con Stable Diffusion. Midjourney la ventaja que tiene es que es más avanzada en el reconocimiento de las descripciones y da resultados espectaculares con pocas palabras, pero por el contrario no tiene ningún control que te permita evitar aberraciones o que salgan cosas que no quieres en las imágenes, además del problema de ser de pago por suscripción. Stable Diffusion, requiere de mejores 'prompts', descripciones más detalladas, pero a cambio tienes una línea de texto extra, el prompt negativo... Ahí pones todo lo que NO quieres que tenga la imagen, como que evite imágenes fotorrealistas si lo que quieres es una ilustración, que descarte imágenes borrosas, personajes deformes, manos extra, dedos extra, logos, texto, etc...
Además, Stable Diffusion la puedes instalar localmente en tu Pc por lo que no requiere de ningún tipo de servicio online y ni siquiera tienes que estar conectado a internet para usarla. Al ser Opensource, su uso es gratuíto y no hay limitaciones ni censura como en las otras. Te permite entrenar muy fácilmente tus propios modelos para incluir en las imágenes personas concretas, personajes, objetos o lo que necesites, estilos artísticos y nuevas funcionalidades, además de tener incluídas unas utilidades como img2img que permite usar la IA sobre una imagen ya previamente existente, o Inpaint, que hace eso mismo pero permite seleccionar 'pintando' con un puntero partes de la imagen y aplicar cambios sólo a lo que te interese, pudiendo hacer maravillas con esto. Es todo un mundo increíble esto...
Y lo puedo instalar en mi ordenador de gratis??? Se necesita equipo muy potente?
Enviado desde mi MI MAX 2 mediante Tapatalk
Efectivamente y hasta puedes hacer porno si quieres xD No tiene ningún tipo de limitación. Sí que necesita de una gráfica más o menos potente, pero sobre todo que como mínimo tenga 6 GB de VRAM dedicada (para generar imágenes) u 8 GB o más para entrenar modelos (cuanta más VRAM mejor), algo, esto último, relativamente fácil de hacer y con posibilidades muy interesantes, como incluir a personas, personajes, animales concretos, etc... en las imágenes o incluir nuevos estilos artísticos (por ejemplo el estilo de Ibañez con Mortadelo y Filemón) con sólo un conjunto de fotos (bastan 20 o 30 para incluirte a tí mismo, por ejemplo).
Hay una guía de instalación que además proporciona los enlaces a todo lo necesario. No es complicado de hacer pero sí que requiere dedicarle un tiempo para instalar todo (el lenguaje Python, los repositorios, etc...). Yo en hora y media lo tenía ya funcionando. La guía la encuentras aquí: https://rentry.co/UnofficialUnstableGuide (https://rentry.co/UnofficialUnstableGuide)
Y luego, hay un sitio en el que encuentras miles de modelos ya entrenados para cosas específicas, como personas, personajes conocidos, especializados en fotorrealismo, en anime... en hentai, en porno... xD. Yo recomiendo al menos los siguientes:
- Anything V. 3 para anime
- Realistic Vision V 1.3 para imágenes fotorrealistas (es el que usé con los personajes del Gauntlet) y también es muy bueno Art & Eros en el mismo estilo
- DreamShaper para ilustraciones en todo tipo de estilos
- Los modelos de la serie Orangemix (AbyssOrangeMix, EerieOrangeMix y BloodOrangeMix) para anime y hentai (unos están más indicados para lo primero y otros para lo segundo, y también unos van más en un estilo de ilustración y otros más en estilo anime de Tv y cine)
Estos son los llamados 'Checkpoints', que son el modelo completo, pero hay 'minimodelos' (vamos a llamarlos así) como los LoRa o los Embbedings que sirven para incluir personajes concretos o estilos y poder usarlos conjuntamente con los modelos grandes... De estos hay miles y son los más fáciles de hacer para el usuario común.
El sitio este que digo es Civitai: https://civitai.com/ (https://civitai.com/)
Impresionante lo que sale a partir de los bocetos!!!Muy interesante !!! sin duda que lo probaré.
Y es que estas IAs tanto te hacen un zurcido como te cosen un descosido !!!
El diseño de un personaje:
(http://arcadespain.info/cpg/albums/userpics/14492/pikachu.png)
(http://arcadespain.info/cpg/albums/userpics/14492/personaje.png)
O un logo:
(http://arcadespain.info/cpg/albums/userpics/14492/logo.png)
Un libro para colorear:
(http://arcadespain.info/cpg/albums/userpics/14492/libro_coloreable.png)
El diseño de un producto e incluso una página web:
(http://arcadespain.info/cpg/albums/userpics/14492/diseno_producto.png)
O un logo para un foro !!!
(http://arcadespain.info/cpg/albums/userpics/14492/arcade.png)
Efectivamente... Y todo eso lo puedes hacer igual o mejor con Stable Diffusion. Midjourney la ventaja que tiene es que es más avanzada en el reconocimiento de las descripciones y da resultados espectaculares con pocas palabras, pero por el contrario no tiene ningún control que te permita evitar aberraciones o que salgan cosas que no quieres en las imágenes, además del problema de ser de pago por suscripción. Stable Diffusion, requiere de mejores 'prompts', descripciones más detalladas, pero a cambio tienes una línea de texto extra, el prompt negativo... Ahí pones todo lo que NO quieres que tenga la imagen, como que evite imágenes fotorrealistas si lo que quieres es una ilustración, que descarte imágenes borrosas, personajes deformes, manos extra, dedos extra, logos, texto, etc...
Además, Stable Diffusion la puedes instalar localmente en tu Pc por lo que no requiere de ningún tipo de servicio online y ni siquiera tienes que estar conectado a internet para usarla. Al ser Opensource, su uso es gratuíto y no hay limitaciones ni censura como en las otras. Te permite entrenar muy fácilmente tus propios modelos para incluir en las imágenes personas concretas, personajes, objetos o lo que necesites, estilos artísticos y nuevas funcionalidades, además de tener incluídas unas utilidades como img2img que permite usar la IA sobre una imagen ya previamente existente, o Inpaint, que hace eso mismo pero permite seleccionar 'pintando' con un puntero partes de la imagen y aplicar cambios sólo a lo que te interese, pudiendo hacer maravillas con esto. Es todo un mundo increíble esto...
Y lo puedo instalar en mi ordenador de gratis??? Se necesita equipo muy potente?
Enviado desde mi MI MAX 2 mediante Tapatalk
Efectivamente y hasta puedes hacer porno si quieres xD No tiene ningún tipo de limitación. Sí que necesita de una gráfica más o menos potente, pero sobre todo que como mínimo tenga 6 GB de VRAM dedicada (para generar imágenes) u 8 GB o más para entrenar modelos (cuanta más VRAM mejor), algo, esto último, relativamente fácil de hacer y con posibilidades muy interesantes, como incluir a personas, personajes, animales concretos, etc... en las imágenes o incluir nuevos estilos artísticos (por ejemplo el estilo de Ibañez con Mortadelo y Filemón) con sólo un conjunto de fotos (bastan 20 o 30 para incluirte a tí mismo, por ejemplo).
Hay una guía de instalación que además proporciona los enlaces a todo lo necesario. No es complicado de hacer pero sí que requiere dedicarle un tiempo para instalar todo (el lenguaje Python, los repositorios, etc...). Yo en hora y media lo tenía ya funcionando. La guía la encuentras aquí: https://rentry.co/UnofficialUnstableGuide (https://rentry.co/UnofficialUnstableGuide)
Y luego, hay un sitio en el que encuentras miles de modelos ya entrenados para cosas específicas, como personas, personajes conocidos, especializados en fotorrealismo, en anime... en hentai, en porno... xD. Yo recomiendo al menos los siguientes:
- Anything V. 3 para anime
- Realistic Vision V 1.3 para imágenes fotorrealistas (es el que usé con los personajes del Gauntlet) y también es muy bueno Art & Eros en el mismo estilo
- DreamShaper para ilustraciones en todo tipo de estilos
- Los modelos de la serie Orangemix (AbyssOrangeMix, EerieOrangeMix y BloodOrangeMix) para anime y hentai (unos están más indicados para lo primero y otros para lo segundo, y también unos van más en un estilo de ilustración y otros más en estilo anime de Tv y cine)
Estos son los llamados 'Checkpoints', que son el modelo completo, pero hay 'minimodelos' (vamos a llamarlos así) como los LoRa o los Embbedings que sirven para incluir personajes concretos o estilos y poder usarlos conjuntamente con los modelos grandes... De estos hay miles y son los más fáciles de hacer para el usuario común.
El sitio este que digo es Civitai: https://civitai.com/ (https://civitai.com/)
Que decepción con lo de la gráfica ya que mi equipo no tiene, jeje!
Oye, alguna recomendación de alguna gráfica con las 3 Bs? Ya sabéis, buena, bonita y barata...
Ya he entrenado mis primeros dos LoRAs y es muy fácil de hacer, una vez tienes instalado todo lo necesario... Es adictivo esto jejeje. El primero ha sido para integrar a una amiga en las imágenes y el resultado es espectacular, aunque no puedo poner las imágenes por cuestiones de privacidad, pero en resumen, tras crear el LoRA a partir de 28 imágenes suyas (y eso que casi todas son de su cara, ya que la mayoría de fotos que me ha enviado son las típicas hechas con el móvil), la he podido sacar con el traje de IronMan, con el de Thor, con el aspecto de un Navii de Avatar, con el diseño de un personaje de las películas de Don Bluth (el creador de Dragon's Lair, Todos los perros van al cielo, etc...), como pintura al óleo, como personaje de anime, etc... Hasta como si fuera un personaje de Jojo's Bizarre Adventure... Todos estilos muy diferentes y en todos reproduce sus características perfectamente y es reconocible, sus ojos, su sonrisa y sus gafas, el estilo del pelo, etc...
El segundo que he entrenado sí que lo puedo mostrar, y aunque lo he hecho para echar una mano a un compañero con una cosilla que andamos haciendo, el resultado ha sido muy bueno. Un problema que veía hasta ahora con Stable Diffusion era que la mayoría de modelos que la gente crea son de Anime, es de lo que más hay... pero muy poco de otros estilos gráficos de creadores occidentales. Hay estilos muy interesantes pero que al haber sido entrenados con ese tipo de arte no son aplicables cuando quieres crear personajes con aspecto occidental. El asunto es que se me ocurrió crear un LoRA para un tipo de ilustración al óleo muy común entre los 60 y 80 como las que se usaban en las portadas de los libros juveniles, así que hice el entrenamiento con 24 portadas de los libros de la saga de Los Tres Investigadores (que inicielmente se llama Alfred Hitchcock y Los Tres Investigadores), y el resultado es satisfactorio: Usándolo en modelos de anime como Anything V3, por ejemplo, automáticamente todos los personajes salen con ropa ochentera y dejan de tener estilo anime, y los fondos se notan como a pinceladas como si fueran óleos, que además al ser un LoRA el efecto se puede regular y hacerlo más o menos intenso. Incluso funciona en modelos para fotografía realista... Voy a mostrar algunos ejemplos:
(https://i.imgur.com/FamG82z.png)
(https://i.imgur.com/KIpwzfN.png)
(https://i.imgur.com/ysGkMq1.png)
(https://i.imgur.com/uAkYefl.png)
La verdad es que está genial poder introducir nuevos estilos... Se me ocurren mil ideas para hacer ;)
Ya he entrenado mis primeros dos LoRAs y es muy fácil de hacer, una vez tienes instalado todo lo necesario... Es adictivo esto jejeje. El primero ha sido para integrar a una amiga en las imágenes y el resultado es espectacular, aunque no puedo poner las imágenes por cuestiones de privacidad, pero en resumen, tras crear el LoRA a partir de 28 imágenes suyas (y eso que casi todas son de su cara, ya que la mayoría de fotos que me ha enviado son las típicas hechas con el móvil), la he podido sacar con el traje de IronMan, con el de Thor, con el aspecto de un Navii de Avatar, con el diseño de un personaje de las películas de Don Bluth (el creador de Dragon's Lair, Todos los perros van al cielo, etc...), como pintura al óleo, como personaje de anime, etc... Hasta como si fuera un personaje de Jojo's Bizarre Adventure... Todos estilos muy diferentes y en todos reproduce sus características perfectamente y es reconocible, sus ojos, su sonrisa y sus gafas, el estilo del pelo, etc...
El segundo que he entrenado sí que lo puedo mostrar, y aunque lo he hecho para echar una mano a un compañero con una cosilla que andamos haciendo, el resultado ha sido muy bueno. Un problema que veía hasta ahora con Stable Diffusion era que la mayoría de modelos que la gente crea son de Anime, es de lo que más hay... pero muy poco de otros estilos gráficos de creadores occidentales. Hay estilos muy interesantes pero que al haber sido entrenados con ese tipo de arte no son aplicables cuando quieres crear personajes con aspecto occidental. El asunto es que se me ocurrió crear un LoRA para un tipo de ilustración al óleo muy común entre los 60 y 80 como las que se usaban en las portadas de los libros juveniles, así que hice el entrenamiento con 24 portadas de los libros de la saga de Los Tres Investigadores (que inicielmente se llama Alfred Hitchcock y Los Tres Investigadores), y el resultado es satisfactorio: Usándolo en modelos de anime como Anything V3, por ejemplo, automáticamente todos los personajes salen con ropa ochentera y dejan de tener estilo anime, y los fondos se notan como a pinceladas como si fueran óleos, que además al ser un LoRA el efecto se puede regular y hacerlo más o menos intenso. Incluso funciona en modelos para fotografía realista... Voy a mostrar algunos ejemplos:
(https://i.imgur.com/FamG82z.png)
(https://i.imgur.com/KIpwzfN.png)
(https://i.imgur.com/ysGkMq1.png)
(https://i.imgur.com/uAkYefl.png)
La verdad es que está genial poder introducir nuevos estilos... Se me ocurren mil ideas para hacer ;)
Menuda pintaca, compi!
¿Oye, esto del LoRa que es exactamante?
Gracias compi.
Oye, teniendo en cuenta que no dispongo de gráfica y que tendría que ser todo online:
1. Que web he recomiendas para empezar a probar? Te lo comento porque comentabas en el primer post algo de webs no oficiales con opciones extras y tal...
2. Se podría hacer esto de entrenar con fotos mías, etc pero online?
Perdona por el tostón, jeje
Enviado desde mi MI MAX 2 mediante Tapatalk
Joder tío me encanta leerte.
He quedado alucinado con el LoRA de minis de Figma !!!
Me falta tiempo para probarlo todo !!!
Por cierto, una sugerencia si se me permite decir, cuando citéis a alguien y el texto contiene muchas imágenes podéis borrar parte del texto para que no sea tan largo, que me duelen los dedos de hacer scroll !!!!!
Saludos
Gus
Por cierto veo que siguen fallando en los dedos de las manos !!!
Saludos
Gus
@sirdrak me has hecho entrar ganas de meterme en el tema.
¿Puedes decirme donde descargo los LoRAs de minis de Figma y el de miniaturas pintadas?
Por cierto aquí explican bastante bien como utilizar Google collab con Stable DIffussion
Saludos
Gus
Lo encuentras todo en CivitAI, que es la web de referencia para descargar modelos, esta: https://civitai.com/ (https://civitai.com/)
Pones en el buscador Figma o Painted miniatures y te salen.
Citar
Lo encuentras todo en CivitAI, que es la web de referencia para descargar modelos, esta: https://civitai.com/ (https://civitai.com/)
Pones en el buscador Figma o Painted miniatures y te salen.
Jajajajjaja justo ahora estaba modificando mi post para incluirlo.
Bueno así de primeras parece más complicado de lo que parece sin siquiera haber instalado el software.
Por ejemplo, si quiero crear imágenes del tipo "Figma Anime Figures" necesito descargarme el LORA (150MB) que es este: https://civitai.com/models/7984/figma-anime-figures (https://civitai.com/models/7984/figma-anime-figures)
Además en la descripción del LORA hace referencia a otro modelo que se necesita, AbyssOrangeMix2 - SFW (5.2GB) que es este:
https://civitai.com/models/4437/abyssorangemix2-sfw (https://civitai.com/models/4437/abyssorangemix2-sfw)
* Al querer descargar el modelo veo que hay diferentes opciones:
- Model SafeTensor (5.19GB)
- Pruned Model PickleTensor (1.99GB)
- Pruned Model SafeTensor (1.99GB)
- VAE (319MB)
También hacen referencia al EasyNegative https://huggingface.co/datasets/gsdf/EasyNegative (https://huggingface.co/datasets/gsdf/EasyNegative) que aún no sé exactamente que es. Bueno imagino que serán unos prompts negativos ya preparados.
Pues como parece no es tan sencillo y va a llevar un poco más de trabajo hacerse con ello.
Vamos a seguir leyendo !!!
Saludos
Gus
Ahora estoy probando un modelo basado en Stable Diffusion 2.1 (una versión algo más avanzada de Stable Diffusion, que la mayoría de modelos y material son de la 1.5) llamado Illuminati diffusion y la verdad es que las imágenes que genera son espectaculares, del estilo a las de Midjourney (aunque lo cierto que Midjourney no es otra cosa que Stable Diffusion con un modelo especializado y con varios 'prompts precocinados' por debajo), como estas:
Avisa, que he abierto el móvil y me van a tachar de no se que, jajaja
Enviado desde mi MI MAX 2 mediante Tapatalk
Avisa, que he abierto el móvil y me van a tachar de no se que, jajaja
Enviado desde mi MI MAX 2 mediante Tapatalk
Pues entonces te voy a avisar del siguiente jejejeje... Ayer estuve entrenando el LoRA del estilo artístico del gran Azpiri, a partir de 74 imágenes en alta resolución... Había pensado también hacer luego un LoRA a parte para sus personajes Lorna y Mot, pero resulta que Lorna sale muy fácilmente con el LoRA de ayer sin haberlo entrenado en ella específicamente, simplemente describiendo algunas de sus características, así que sólo tendré que hacerlo de Mot. Es brutal lo bien que ha pillado el estilo y las imágenes que genera... Además otra cosa interesante que he visto es que bajando la fuerza del LoRA por debajo del 0.7 (70%) el estilo cambia a otro diferente, pero también occidental, más suave, realista y detallado, que también está genial.
Echaba en falta la existencia de más modelos y LoRAs de artistas occidentales, que casi todo lo que hay es anime, por eso me animé con este. Las imágenes no las pondré aún, ya que me quedan una pruebas por hacer (probarlo con más modelos y funcionando junto con otros LoRAs) antes de subirlo a Civitai, así que estás sobre aviso, que en el siguiente vienen imágenes (intentaré no obstante poner las más 'light', aunque ya aviso que tiene muchísima tendencia de sacar a las mujeres desnudas o casi desnudas (lógico ya que la mayor parte del material es de Lorna y otras historias con alto contenido erótico).
Están geniales. Esa gama de colores y tonalidades están muy chulas!!
Enviado desde mi MI MAX 2 mediante Tapatalk
Bueno pues ya está subido a Civitai... La verdad es que me está sorprendiendo muy gratamente las imágenes que crea, parecen salidas del propio artista... Voy a poner aquí las mismas que he puesto en Civitai:
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/918ca65f-1b81-43f2-17ad-1859cb529600/width=1264/302118)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/6797bf29-e050-4cb6-9b12-1e77be399200/width=1264/302111)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/3de49683-bbbf-480c-5eed-c8f194ec4000/width=1536/302115)
Bueno pues ya está subido a Civitai... La verdad es que me está sorprendiendo muy gratamente las imágenes que crea, parecen salidas del propio artista... Voy a poner aquí las mismas que he puesto en Civitai:
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/918ca65f-1b81-43f2-17ad-1859cb529600/width=1264/302118)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/6797bf29-e050-4cb6-9b12-1e77be399200/width=1264/302111)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/3de49683-bbbf-480c-5eed-c8f194ec4000/width=1536/302115)
JO-DER... ¡¡es tal cual Azpiri!! Como ya dijimos, esto va a quitar mucho trabajo a dibujantes, ilustradores, diseñadores de modelos 3D para juegos, etc.
Lo del pixel art estaría chulo que pudiera crear un spritesheet; ya sabes, hacer alguna animación para poder usar en juegos... :-)
Lo del pixel art estaría chulo que pudiera crear un spritesheet; ya sabes, hacer alguna animación para poder usar en juegos... :-)
De hecho se puede... Algunos modelos lo permiten y luego está la posibilidad de usar ControlNet con Openpose (el que permite clonar poses de imágenes previas o de una imagen con unos monigotes a base de líneas de colores). Los usuarios descubrieron que la forma de generar un mismo personaje en varias poses diferentes y mantener la consistencia (es decir, que aparezca con el mismo aspecto y ropa en todas ellas) era crear una imagen con varios muñecos de estos de poses en la misma imagen y que todas fueran el mismo personaje. De esta forma, puedes hacer una matriz de imágenes con el monigote de las poses con los distintos fotogramas de una animación y generar la animación de un personaje o una hoja de concept art. Aquí tienes varios ejemplos creados de dicha manera:
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/b3c0c3a7-460e-4b7f-ab16-d186166bf800/width=504)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/288f74e7-89d9-4e04-17ac-7c17fded5600/width=504)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/c5bd1fec-9201-40cb-5d9c-6b2ecc3ddc00/width=512)
(https://imagecache.civitai.com/xG1nkqKTMzGDvpLrqFT7WA/2845daf5-33d5-470c-429e-01ae8fc73500/width=512)
Bueno, pues para celebrar la salida de Zelda Tears of the Kingdom (y en especial que en sólo 3 días ha vendido 10 millones de unidades), he hecho algunas imágenes de Zelda y de ese nuevo personaje femenino misterioso que ha hecho furor desde que apareció en los trailers cuyo nombre no diré para no hacer spoilers:
(https://i.imgur.com/0KCGqfC.png)
(https://i.imgur.com/YJK5N6E.png)
(https://i.imgur.com/nnlhh1d.png)
(https://i.imgur.com/WaxoNRJ.png)
(https://i.imgur.com/Io0TBaQ.png)
(https://i.imgur.com/7zn1Tll.png)
(https://i.imgur.com/I8Sa4cQ.png)
(https://i.imgur.com/0cHHDj2.jpg)
(https://i.imgur.com/HHNOI14.jpg)
(https://i.imgur.com/NqXDMO5.png)
(https://i.imgur.com/Lv2WJz0.png)
(https://i.imgur.com/55RG9Bm.png)
(https://i.imgur.com/3hGpEHg.png)
(https://i.imgur.com/q1qwkgt.png)
(https://i.imgur.com/fXyFsO2.png)
(https://i.imgur.com/feDszoC.png)
(https://i.imgur.com/ihBWR1e.png)
(https://i.imgur.com/WYfQNIl.png)
(https://i.imgur.com/kwNE6Yy.png)
(https://i.imgur.com/yk3k4yA.png)
(https://i.imgur.com/86zgeT9.png)
(https://i.imgur.com/h0OVXbJ.png)
(https://i.imgur.com/IO0bNL5.png)
(https://i.imgur.com/3DIwoC7.png)
(https://i.imgur.com/7BQJA7b.png)
(https://i.imgur.com/uuiukH6.png)
Tengo que felicitar al que ha hecho el LoRA del personaje misterioso porque le ha salido genial usando tan sólo 15 imágenes para el entrenamiento. El modelo que he usado, en mi opinion uno de los mejores para ilustraciones semirrealistas, es revAnimated1.22, que se está convirtiendo en uno de mis favoritos...
Son brutales! La lástima es que hace falta mucho equipo o al menos mucha gráfica para poder crear...
Algo es algo, probaré a ver porque quería hacer un logo para una web y canal de YouTube... A ver que mojonaco me sale jajajaSon brutales! La lástima es que hace falta mucho equipo o al menos mucha gráfica para poder crear...
Para hacer algunas pruebas básicas siempre puedes usar el servicio online de Stability.Ai, que es gratuíto (aunque también tiene servicio de pago para reducir las esperas, pero tampoco son muy largas) y con el que puedes usar SD XL, usar estilos, con prompt negativo, diferentes resoluciones e incluso puedes hacer upscaling de las imágenes, con sólo ir aquí:
https://clipdrop.co/stable-diffusion (https://clipdrop.co/stable-diffusion)
Se puede usar hasta desde el navegador del móvil, de hecho con él creé algunas imágenes de Nicholas Cage como Thor, Aquaman o Wonder Woman jejeje
Y ahora os voy a mostrar algo inesperado que me hizo mucha gracia... Cuando estuve generando las imágenes anteriores esas con el granjero con sombrero de paja, con un campo de trigo, tractores, algunas granjas y una enorme nave espacial alienígena en el cielo, una de las veces la IA 'decidió ser creativa' y me generó esto:
(https://i.imgur.com/QFNdp9H.png)
Un alienígena granjero con un tractor en un campo de trigo llevando el platillo volante de sombrero ;D
Bueno, pues llevaba un tiempo sin postear novedades interesantes, así que comentaré algunas de los últimos meses... La mayoría de los que usamos Stable Diffusion en local, como sabéis, usamos Automatic1111 como interfaz a través del navegador para generar las imágenes, al ser la más completa y que más opciones tiene (los modos img2img, inpaint, las extensiones, los script para hacer upscaling, matrices de imágenes, etc...), pero no es la única, algo que se ha hecho patente y más notorio desde la silida de SD XL, debido a las mayores exigencias de esta versión de Stable Diffusion. La pega de Automatic1111 es que es la menos eficiente, de forma que requiere más potencia que las otras opciones para generar las mismas imágenes con la misma configuración de hardware. Por ello hoy voy a hablar de las otras opciones existentes para generar imágenes en local...
Las otras opciones actuales son las siguientes:
- ComfyUI: Es una interfaz muy versátil y rápida para generar imágenes con Stable Diffusion, y de hecho es la que utilizan directamente y recomiendan Stability.ai, la empresa creadora de Stable Diffusion. Tiene todas las posibilidades que tiene Automatic1111 e incluso algunas que no tiene aún a día de hoy relacionadas con las novedades de SD XL, como la posibilidad de usar simultáneamente dos prompts diferentes para el positivo y dos prompt diferentes para el negativo usando los dos 'Clips' que soporta nativamente XL al mismo tiempo (los Clips son básicamente el intérprete que hace que la IA entienda lo que le pedimos en lenguaje natural). Además fué la primera en tener soporte completo de los modelos base y refiner de XL (soporte que no llegó a Automatic1111 hasta su versión 1.6.0, la actual). Sus ventajas son que requiere mucho menos hardware para generar imágenes y además es extremadamente rápido, incluso a la hora de hacer reescalados, es muy fácil de instalar (es simplemente descomprimir una carpeta, ejecutar la primera vez un actualizador y luego sólo un .bat y a funcionar) y las imágenes que genera son de muy buena calidad. Otra característica que tiene, es que basta con arrastrar una imagen generada previamente con él al espacio de trabajo para que ya salga todo configurado incluído su prompt como cuando se generó dicha imagen, cosa que también se puede hacer con un archivo de configuración .json. Las pegas son que su interfaz es completamente antiintuitiva y compleja... De hecho casi se podría decir que no tiene interfaz, pues funciona a base de un sistema de módulos interconectados entre sí que recuerda a los lenguajes de programación visuales por objetos como los que usan Blender o Unreal Engine, lo que puede echar a muchísima gente para atrás por su aparente complejidad. En la siguiente imagen podéis ver un ejemplo:
(https://i.redd.it/d93znogxlbfb1.png)
Eso sí, si se tiene una máquina más limitada, es mucho mejor que Automatic1111... Por ejemplo, con ComfyUI es mucho más rápido generar imágenes en buena calidad de SD XL con una gráfica de sólo 6GB de VRAM o menos, de forma que la diferencia puede ser de hacer en menos de 30 segundos lo que en Automatic1111 puede llevar varios minutos. Se puede descargar aquí, de su Github: https://github.com/comfyanonymous/ComfyUI (https://github.com/comfyanonymous/ComfyUI)
- Fooocus y Fooocus-MRE: Llegamos a las dos opciones más recientes, esta vez enfocadas de forma exclusiva en generar imágenes de SD XL y hacerlo de la forma más sencilla posible, ideal para las personas que sólo quieren generar imágenes de la forma más sencilla posible sin usar opciones avanzadas. Ha sido creada nada menos que por los responsables de la extensión más importante y revolucionaria existente hasta la fecha de Stable Diffusion, ControlNET, de la que ya os he hablado en ocasiones anteriores. Tiene las ventajas de ser extremadamente fácil de instalar (al igual que con ComfyUI, es descargar y descomprimir un archivo, y en la carpeta resultante ejecutar un archivo .bat y a funcionar). Ni siquiera es necesario buscar aparte los modelos básicos para empezar porque los descarga automáticamente en el primer inicio (SD XL base y el refiner). Además, es también muy rápido y también consume menos recursos que Automatic1111, muy cerca de lo que hace ComfyUI en este sentido. Respecto a la interfaz y opciones, primero hablaré de Foocus y luego de las opciones extras que tiene Fooocus-MRE, que es un fork del primero.
En Fooocus, la mayor parte de la interfaz la ocupa la parte donde aparecen las imágenes generadas, y debajo simplemente un espacio para escribir el prompt. Luego hay una casilla para mostrar las opciones avanzadas de forma que nos permite escribir también prompt negativo, elegir entre una buena cantidad de resoluciones pero todas ellas fijas (esto es así porque son las resoluciones de las imágenes con las que se realizó el entrenamiento de SD XL, que lo que hace es que el resultado tenga la mejor calidad posible) y elegir entre priorizar calidad o rapidez en la generación de las imágenes. Todas estas opciones se muestran en un panel en el lateral derecho, que tiene tres pestañas con más opciones extra: La mencionada, una para elegir un estilo para las imágenes (otra de las novedades de SD XL) y otra que nos permite elegir el checkpoint a usar como modelo base, y el que se va a usar como Refiner, y además varias casillas para elegir y usar LoRAs y seleccionar su fuerza. Nada más... Como se puede ver, todo enfocado a una sencillez extrema y obtener buenos resultados sin complicaciones.
En Fooocus-MRE, que como comenté es un fork creado a partir del código fuente del Fooocus original con el objeto de añadir más opciones a la generación de imágenes, se incorporan opciones propias de Automatic1111 para las personas que quieren hacer cosas más avanzadas manteniendo la sencillez de uso y la interfaz de Fooocus y con las ventajas de su buen rendimiento. Las opciones que se incorporan nuevas son las siguientes:
* Modo img2img
* Posibilidad de configurar los mismos parámetros avanzados en la creación de las imágenes que en Automatic1111 (número de pasos, sampler, punto en el que se pasa del modelo Base al Refiner durante el proceso de generación, CFG, Clip Skip, etc...)
* Soporte de los LoRA especiales de Stability.ai que dan soporte de ControlNET a SD XL
* Posibilidad de usar resoluciones 'custom' en la generación de imágenes.
* Posibilidad de hacer Upscaling en el modo img2img.
* Posibilidad de usar estilos personalizados.
* Soporte de inpainting y outpainting.
Aquí podéis ver el aspecto que tiene la interfaz:
(https://user-images.githubusercontent.com/130458190/268508933-1d40c428-c30f-4e3f-b419-017bd395d00b.png)
Y se pueden descargar desde sus respectivos Githubs:
* Fooocus: https://github.com/lllyasviel/Fooocus (https://github.com/lllyasviel/Fooocus)
* Fooocus-MRE: https://github.com/MoonRide303/Fooocus-MRE (https://github.com/MoonRide303/Fooocus-MRE)
Por último, os quiero recomendar también un modelo fotográfico de Stable Diffusion 1.5 que me ha sorprendido por su realismo y sus espectaculares texturas de la piel, dando resultado imágenes como esta:
(https://i.imgur.com/7BXDjm1.jpg)
Y aquí un recorte de la cara para que podáis apreciar mejor el realismo de la piel:
(https://i.imgur.com/CMHbofY.jpg)
Como podéis ver, totalmente indistinguible de la realidad 100%... El modelo se llama epiCRealism, concretamente su última versión, llamada Natural Sin, que ha sido entrenada con imágenes de personas normales y no de modelos fotográficos, por eso consigue ese realismo. Se puede descargar de aquí: https://civitai.com/models/25694/epicrealism (https://civitai.com/models/25694/epicrealism)
Para obtener resultados como los de mi imagen, os recomiendo la siguiente configuración a la hora de generar imágenes con él:
- Resolución de 512x512, 512x768 o 768x512, de 20 a 30 pasos, CFG scale de 5 y de sampler Euler A o SDE 2M ++ Karras.
- Usar prompts simples evitando términos como masterpiece, best quality, 8k, intricate, high detail, (extremely detailed face), (extremely detailed hands), (extremely detailed hair) y similares ya que no son necesarios.
- En el prompt negativo usar cartoon, painting, illustration, (worst quality, low quality, normal quality:2)
- Al usar la opción Hires.fix, seleccionar 1'5x o 2x upscale, como upscaler 4x_NMKD-Superscale-SP_178000_G (luego pongo dónde se descarga) y un denoise de 0'35
- Si luego se hace upscaling en img2img con el script de SD Upscale, usar el mismo upscaler mencionado antes (basta con descargarlo y meterlo en la carpeta models/ESRGAN para que aparezca disponible en ambos modos).
El mencionado upscaler se puede descargar de aquí: https://huggingface.co/gemasai/4x_NMKD-Superscale-SP_178000_G/tree/main (https://huggingface.co/gemasai/4x_NMKD-Superscale-SP_178000_G/tree/main)
Que barbaridad!!!
La duda más importante... ¿Para ese link que pones no necesito gráfica????