@ElSev Ni caso te van a hacer, la cuestión ahora de los @admin son pelotas fuera con los asuntos de insultos, provocaciones, odios o racismo. Yo he denunciado alguna vez por desear mi muerte o insultos directos . Deben pensar, como tú también lo haces ( no es así, la verdad) pues que te den. Manda la publi y no pueden perder más fieles.
@onainigo hombre, hay algunos negativos fijos, si pones algo de Xataka tienes altas posibilidades de dos negativos con un comentario sobre xatamierda que copia, pero sin dar un enlace alternativo, si pones de algún sketch de Polonia tienes también dos negativos fijos con un comentario sobre que no tiene gracia, si estás cerca de 100 de karma en la noticia siempre hay un par que intenta tumbarla para llevarse karma, ¿pero a usuarios? Tenemos varios monotema que esos lo mismo están arriba que están abajo del todo, porque incluso en su monotemismo de vez en cuando ponen algo interesante, es más la fuente que el que lleva el cántaro @Zoidborg@Ripio@painful@plutanasio@ElSev@MiguelDeUnamano
@thorin Ya lo he visto. A cambio de 25GB d ram, casualmente solo tengo 24
Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda
@thorin Que yo sepa no, es simplemente el uso de menos Vram, pero parece que en nada ya se va a poder usar en las de 8GB de VRam que es el tamaño mas común entre las gráficas modernas de consumidor. Hace unos dias pedían mas de doce, asi que básicamente necesitabas una gráfica profesional, ya que las XX90 de nvidia en realidad son el equivalente de las antiguas Titan, no gráficas de videojuegos, en la ultima generación por poner un ejemplo tenían el conector ese que permite usar gráficas en paralelo, cuando el resto de las gráficas que se supone que son para el consumidor no.
@visualito Parece que Colab no ha podido con toda la gente experimentando con Stable Diffusión y han puesto un sistema de pago por unidades de computación que no entiende nadie: colab.research.google.com/signup/pricing
La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.
Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.
Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
Además, lo actualiza de vez en cuando.
El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.
@visualito Es que si he visto hacer cosas así con el inpainting o el img2img, es mucho trabajo y hay que saber hacerlo, pero también lo facilita inmensamente si te haces una foto en la pose que buscas.
Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes
Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew
Que a lo mejor es que yo soy muy torpe pero no es tan fácil como lo pintan
@visualito Con Dreambooth estas reentrenando el modelo entero, mientras que con la inversión textual solo estas relacionando un concepto con el modelo ya existente, o muy mal lo he entendido o Dreambooth usa muchísimos mas recursos.
Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local
@visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas
A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances
(joder, es que de ser así en año y medio lo tienes amortizado)
@MiguelDeUnamano
Que sepáis que no votáis negativo por su spam recurrente, ni por sus envíos muy humanos, ni por sus originales etiquetas, ni siquiera, por la valiosa info de cursos ,seminarios,suscripciones y ofertas de viajes . Lo hacéis porque es un usuario activo y sois haters, pobrecito.
old.meneame.net/story/polemica-escritora-ministerio-tiempo-bbc-asegura
La culpa de todo es de Chrome:
www.meneame.net/notame/3619663
(Es tan mierda el chrome segun sus palabras que lo usa a todas horas)
Y la culpa de no editar es de MnM y de los usuarios que pudiendo hacerlo no lo hacen
www.meneame.net/story/urna-contiene-restos-brasidas-general-espartano-
Y la de enviar duplicadas es del falaz contubernio.
Y patatas, porque si yo lo hago está bien.
Es el mundo que no quiere darmelo mascadito.
Aquí pasaba de dar explicaciones. Está por encima de eso. Aquí...
www.meneame.net/m/ciencia/cientificos-estadounidenses-desarrollan-nuev
Si usáis el webui de automatic han añadido el comando "AND" permitiendo fusionar 2 entradas de texto old.reddit.com/r/StableDiffusion/comments/xwplfv/and_prompt_combinatio
En 4chan, que es donde se esta desarrollando hay algún ejemplo útil de la diferencia boards.4channel .org/g/thread/89013562#p89014696
@thorin @ElSev @iveldie
A mi me sirve, tengo una RTX 2060 con 12 GB de VRAM y 64GB de RAM en el equipo
@thorin @ElSev @iveldie
Ya llegara, y total, tampoco tengo nada sobre lo que entrenar, estoy haciendo una inversión textual, con unas imágenes de prueba, y como pensaba, las imágenes de entrenamiento, o sus etiquetas son una mierda
@visualito @ElSev @iveldie
www.reddit.com/r/StableDiffusion/comments/xwdj79/dreambooth_training_i
@visualito @ElSev @iveldie
Comentar que en esta webui github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Textual-Inversion que es la que yo uso la inversión textual ya esta implementada sin tener que andar de historias
@visualito @ElSev @iveldie
¿Tienen alguna ventaja más allá de requerir menos VRAM?
@Nadieenespecial @ElSev @iveldie
Yo le estoy siguiendo la pista a esto:
www.reddit.com/r/StableDiffusion/comments/xsrafl/dreambooth_in_11gb_of
y a esto
www.reddit.com/r/StableDiffusion/comments/xtc25y/dreambooth_stable_dif
@Nadieenespecial @ElSev @iveldie
La gente está experimentando con otros servicios porque entre eso, y la lotería de que te toque alguna GPU decente, es algo frustrante.
Este video tiene buena pinta (Aunque no lo he visto entero), ya que muestra cómo hacerlo en otra plataforma similar de pago, pero está patrocinado, y seguramente no tardará en salir tutoriales para sitios alternativos: youtu.be/7m__xadX0z0
Es gracioso que el youtuber ha tenido que rehacer el video varias veces porque han introducido mejoras mientras grababa.
CC/ @Nadieenespecial @ElSev @iveldie
Si, esa es la clave, al ser abierto la velocidad con que avanzan las cosas es impresionante
Voy a espera a ver si actualizan una herramienta que tengo porque me gustaría probar el entrenamiento en mi máquina sino, google collab.
@Nadieenespecial @ElSev @iveldie
Tengo que decir que va muy bien y es más rápido de lo que pensaba. Unos 20-30 minutos en si (más el tiempo previo necesario para arrancar el Colab)
Además, lo actualiza de vez en cuando.
El mayor problema es seleccionar las fotos, pero en un caso en que tenía 4 fotos originales con ángulos diferentes de un mismo objeto, acabó sacando cosas de una calidad que no hubiera esperado el lunes pasado.
Yo creo que merece la pena pagar los 10 € del Colab en vez de Dall-E 2 por la flexibilidad de Stable diffusion, y que la comunidad está sacando cosas fáciles para gente como yo, que no sabe programar.
CC/ @Nadieenespecial @ElSev @iveldie
Mira esto que hice con famosas y con la versión de Stable Difussion 1.3
www.meneame.net/notame/3564739
www.meneame.net/notame/3564860
www.meneame.net/notame/3564866
www.meneame.net/notame/3564903
www.meneame.net/notame/3564927
www.meneame.net/notame/3564928
Y una comparación de las IA's en ese momento con el mismo Prompt
www.meneame.net/notame/3565052
@thorin @ElSev
Pero es que en el video están haciendo un cherrypicking brutal de los resultados, y que aunque no hayan postprocesado han tenido que probar muchas muchas combinaciones de parámetros de generación para obtener las imágenes
Lo que intento decir es que va ser tan fácil o difícil como coger a alguien que ya este en el modelo, y les hagas hacer esas diferentes cosas. Coge a tu famoso favorito, e intenta hacer que haga cosas como en el video de corridor crew
Que a lo mejor es que yo soy muy torpe pero no es tan fácil como lo pintan
@thorin @ElSev
Reentrenando el modelo da una imágenes que no es posible conseguir con impaiting o imgtoimg pero ni de cerca.,
mira este video:
www.youtube.com/watch?v=W4Mcuh38wyM
@thorin @ElSev
Tampoco he probado a usarlo, aparte de que no puedo reentrenar como tal porque pide mas de 8gb d vram (aunque al principio eran unos 40, antes de ayer 16 y hoy ya baja de 12, así que en un día o así podre ), es que no tengo un conjunto de imágenes preparadas para entrenar nada, que es lo mas importante. Ah y que yo solo trabajo en local
@visualito Sera mas trabajoso, pero con img2img, inpainting y el resto de opciones avanzadas se puede hacer ese tipo de cosas
A ver que sale de aquí a un par de meses, había uno de esos furrys que había ya encargado 8 rtx A6000 para entrenar sus paranoias, que le llegaba en noviembre. Yo flipo con la peña, cuesta seguir el ritmo de los avances
@thorin @ElSev