"Es tan realista que lo primero que he pensado al verlo ha sido 'qué has hecho'". Son las palabras a este periódico de Miriam Al Adib, la ginecóloga almendralejense (Badajoz) que ha denunciado este domingo en sus redes sociales el robo de imágenes de menores de edad de la localidad para manipularlas con Inteligencia Artificial y simular que estas niñas están desnudas: "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans', cuenta a este periódico.
Comentarios
como sigan dando detalles van a acabar encontrando el sitio de internet donde están publicadas esas fotos y las pajas van a llegar a la luna!! éste es un mal ejemplo de cómo no se debe informar de estos hechos. no es necesario dar ningún detalle de las características de las webs donde han podido ser difundidas estas imágenes, ni siquiera de dónde son las fotos utilizadas, simplemente del hecho y de las consecuencias para quienes lo han cometido... pero claro, entonces menos clic, menos ingresos por publicidad, etc. ascazo!
#1 ¿Eres consciente de que estás hablando de menores?
#2 se expresa un poco mal, pero creo que es perfectamente consciente de que son menores, el hecho le parece preocupante, y creo que le estais malinterpretando.
Es decir, lo que le parece mal, entre otras cosas es el exceso de información, como si para informar de un atentado con bomba se indicara de que web han sacado la lista de materiales necesarios para fabricarlos.
No estoy de acuerdo con el, creo que decir páginas tipo only fans no aclaran nada, es como decirte "pagina tipo Reddit"
#9 Efectivamente, no dan datos. Pero aunque los dieran, el hecho de querer buscarlo...miau.
#10 no esta diciendo que el los quiera buscar...
#80 , #89 Él, no. Pero está claro que habrá más gente que trate de buscarlo, den datos o no. Entiendo que se quejaba de el exceso de datos, cosa que yo no veo.
Por cierto, gracias a los renacidos del cementerio de la inactividad y a los recién creados por su apoyo
#10 Donde cojones dice que quiera buscarlo? Madre mía las cabezas por aquí.
#10 Precisamente lo que crítica es que se da datos que facilita la búsqueda.
#9 te agradezco el comentario, pero es inútil que te esfuerces, es gente que no lee más allá de la primera línea y que si lo hace tiene dificultades para seguir el hilo. a mí me da lo mismo, estoy acostumbrado a que interpreten lo que quieran sin fijarse en lo que de verdad se escribe. saludos
#13 ¡¡¿¿Cómo que agradeces el comentario y que no sabemos leer más allá de la primera línea??!!
Y ya lo de leerse el artículo es para nota
#2 son menores las cabezas, el cuerpo técnicamente no
#2 Pues precisamente porque son menores es aún más relevante su comentario. No entiendo porque hay que buscar polémica dónde no la hay, se dan tantos detalles que es fácil generar un efecto llamada.
#95 El cuerpo es "inventado" por una IA, ahora bien, creo que según la legislación española eso sigue siendo considerado pornografía infantil.
#95 Hombre que no!!! Ese cuerpo tendrá apenas unos días de existencia!
#1 Qué dices, tio...
#1 como que las pajas? Estas jodidamente enfermo....
#52 Se entiende perfectamente que no esta hablando de el. Si de verdad pensais que si se publica el enlace de fotos de niñas de 16 años desnudas, no va a haber cientos de enfermos que las van a buscar, es que no sabeis en que mundo viviis.
#52 ah, que te crees que la demanda de estas fotos es para realizar dibujo artístico...
#68 a ver, que no os enterais ni del nodo, el pavo esta criticando la información que se da en la noticia y lo que hace el es decir que las pajas van a llegar a la luna, de verdad os cuesta ver donde esta lo malo? Haceoslo mirar
#52 te voy a contar algo que no te va a sorprender, el cuerpo de una chica de 16 anyos es el mismo que tendra a los 30. fisicamente pocos cambios va a tener. ojo que no niego el delito de la noticia ni nada.
Pero vamos tampoco vamos a negar lo evidente. una adolescente de 16 anyos puede estar igual de buena que una de 25.
Se está poniendo a parir al autor de un comentario lógico y razonable que indica que dar detalles sobre donde se publica esa ignominia sólo sirve para extender su publicidad y que es contraproducente. No sé a que coño obedecen tantos negativos pero ahí va mi solidaridad con el comentario lúcido de una persona.
#15 gracias
#15 Lo de las pajas sobra en ese comentario tan «razonable». Ya sabemos que no se refiere a las suyas, pero cuando se habla de menores, hay que ser más cuidadoso con el lenguaje para no dar asco.
Recordemos que en España la creación de imágenes que representen menores es considerado pornografía infantil. Es decir que si tu pones la foto de una menor y la photoshopeas encima de un desnudo aunque la desnuda sea una mujer mayor de edad eso ya puede considerarse pornografía infantil.
En este caso supongo que también aplica, aunque la imagen del cuerpo sea falsa puesto que representan a menores de las que han usado sus caras sería considerado pornografía infantil aunque los cuerpos sean falsos asi que los autores se enfrentan a cargos serios.
#6 Como dice #16 quien ha modificado las fotos puede ser responsable de producción y distribución de pornografía infantil, y quién las ha compartido, de posesión y distribución. Son cargos serios. Aunque sean menores, si son mayores de 14 años son plenamente imputables.
#20 Exacto, de hecho ya ha pasado antes y el menor fue detenido.
Detenido menor que hacía montajes porno con fotografías de compañeras de su instituto
Detenido menor que hacía montajes porno con fotogr...
diariosur.es#20 ... pero cual es la ley en Espania? Solo si esas fotos corresponden a menores? Ese es el problema: si alguien pone fotos en internet y alguien las coje y las usa, es eso delito? bajo que circustancias? Poner fotos de gente en bolas es delito? Y en biquini o baniadores? Porque yo creci en un sitio con piscina y no hacia falta que la gente de mi edad estuviera desnudos/as.
O es el delito debido a que tienes un rendimiento economico? O que te es un atentado contra el honor? Porque entonces pueden argumentar que no son ellas si no gente que se les parece. Pero entonces cualquiera puede hacer revenge-porn con cualquiera y decir que no son ese tio o tia.
#25 Creo que quien mejor puede responder a esas preguntas es el propio Código Penal en su artículo 189:
El que produjere, vendiere, distribuyere, exhibiere, ofreciere o facilitare la producción, venta, difusión o exhibición por cualquier medio de pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección, o lo poseyere para estos fines, aunque el material tuviere su origen en el extranjero o fuere desconocido.
A los efectos de este Título se considera pornografía infantil o en cuya elaboración hayan sido utilizadas personas con discapacidad necesitadas de especial protección:
a) Todo material que represente de manera visual a un menor o una persona con discapacidad necesitada de especial protección participando en una conducta sexualmente explícita, real o simulada.
b) Toda representación de los órganos sexuales de un menor o persona con discapacidad necesitada de especial protección con fines principalmente sexuales.
c) Todo material que represente de forma visual a una persona que parezca ser un menor participando en una conducta sexualmente explícita, real o simulada, o cualquier representación de los órganos sexuales de una persona que parezca ser un menor, con fines principalmente sexuales, salvo que la persona que parezca ser un menor resulte tener en realidad dieciocho años o más en el momento de obtenerse las imágenes.
d) Imágenes realistas de un menor participando en una conducta sexualmente explícita o imágenes realistas de los órganos sexuales de un menor, con fines principalmente sexuales.
El artículo es más largo, incluyendo las agravantes y el delito de posesión de este material o el acceso a este tipo de contenido. Pero creo que quedan contestadas las preguntas.
#29 efectivamente, lo primero que hay que hacer es denunciar.
No me ha gustado nada que la prota de la noticia haya tenido tiempo de hacer un vídeo que sabe que le va a dar visitas y visibilidad, pero no de denunciar, que se hace en un momento.
Lo primero visitas y luego ya si eso...
#20 Seguro? Osease... y entro en debate sin meterme en un fregao.
Realmente es pornografía infantil una imagen generada con un ordenador? Un dibujo es pornografía? Por que no es una foto real, aun que se usara para ello una real no ilegal.
#99 Si, cualquier imagen o representación, real o simulada, siempre que sea realista. Quedan excluidos, por criterio de la Fiscalía General del Estado, los dibujos animados, manga o representaciones similares, por no perseguir el realismo en sus imágenes. Pero si el dibujo persigue el realismo, si. El quid de la cuestión es el realismo.
#16 Curioso, mis fotos en bolas con 5 anios son pronografia infantil?
#24 Pues depende de que ala sea el juez o jueza, si es de derechas, pues si, es pornografía infantil y compartirá las pruebas con su párroco para que lo corrobore y si es feminista, pues también pero uno que sea sensato una foto de un desnudo sin intencionalidad sexual, o sea, no pornográfica, pues diría que no, aunque en estos temas nunca se sabe.
#24 En manos de tus padres no, en manos de terceros que ni siquiera te conozcan pueden llegar a serlo.
#34 Esa es la respuesta que buscaba.
#24 Si alguien se pajea con ellas, sí. O si esas fotos se encuentran junto a las fotos de 5 años de otros 200 menores.
#70 A menos que tengas una camara donde el interfecto/a lo hagan...
#24 Lo decide el juez. Si el juez dice que son sexualmente explícitas puede ir con todo.
#74 Pues muy mal... y si las tiene mi pareja que es un tio de 40 anios?
#24 Por simplificar, si son encontradas en el ordenador de un pedófilo serán consideradas tales. Si están en el móvil de tu madre, o en el tuyo, lo mismo en algún momento te hacen pasar un mal rato. De hecho, en bola de dragón ya salen respresentaciones de desnudos sexualizados de menores. Se olvida que por ejemplo Bulma y Goku son "menores de edad".
#16 En #32 planteo el mismo problema, y si entiendo bien tu comentario, ¿aunque el trabajo lo hiciera completamente la IA se consideraría pornografía infantil?
#32 #35 #40 #41
https://www.telecinco.es/noticias/sociedad/20221221/detenido-pedofilo-manipulaba-fotos-crear-pornografia-infantil_18_08291349.html
#35 #48 Tengo entendido que según la ley, eso, y hasta los manga eróticos, serían considerados pornografía infantil. Eso sí, no sé hasta qué punto aplica dicha ley porque ha hecho poquísimo ruido, ya sea porque apenas se aplique, o porque no se le de relevancia.
De hecho, la mayoría de noticias como esa habla de detenciones, pero no de condenas. Hay que tener encuenta que incluso hace pococ había una surrealista noticia de alguien a quién decomisaron gigas y gigas de material pornográfico infantil, y luego resulta que el la mayoría (+70%) eran imágenes no pornográficas, como un niño jugando en un parque, o cosas que cada uno sube a sus propias redes sociales.
Así que de esas noticias puedes fiarte poco, pero como digo, nominalmente, según la ley serían pornografía infantil (cc #40).
#97 #40 #35 Hubo una reforma legal, hace no muchos años para modificar el código penal para que se considerara como pornografía infantil las "representaciones" de menores aunque no fueran reales.
En aquel momento hubo cierto revuelo porque enseguida algunos pensaron que te podrían sancionar por dibujos, como el manga. Pero la judicatura ya explico y creo que hubo hasta una circular, para explicar que no se trataba de eso, no iba de dibujos si no de representar menores reales.
Por ejemplo el photoshop o supongo que ahora la ai también cuenta.
Pero tienen que ser menores "reales" lo que no tiene que ser real es la imagen. No sé si me explico. Recortas la cara de una menor y la pegas en una foto de un desnudo, eso seria considerado pornografía infantil aunque la del desnudo sea mayor. También dijeron en su momento que debía revestir cierto aire de "credibilidad". Por ejemplo poner una foto de una niña en la cabeza de una negra con tetas como melones no contaría como pornografía infantil.
OJO, que no revista credibilidad no significa que no pueda ser sujeto de otros delitos como protección de datos, intromisión al honor o la propia imagen, etc. Lo de la credibilidad va dirigido a ser considerado pornografía infantil, aunque no sea el caso también puede ser otros delitos a parte de eso.
Una imagen 100% generada por AI, que no fuera una menor existente ni la cara ni nada teóricamente no, pero claro, la AI avanza a pasos agigantados así quien sabe.
#16 ufff seguro? No lo tengo yo tan claro, no obstante como sigo en otro comentario, es cuestión de dejarlo claro en la sentencia o que se amplíe la ley a los tiempos que corren y listo.
#16 curioso, no sabía ese dato. Pensaba que habría un vacío legal.
#16 Yo iría más allá porque si esas imágenes la han generado menores con un software con IA donde la intervención humana es mínima (entiéndase que no es un editor de imáganes ni nada por el estilo, algo más automático) también habría que procesar en esa causa a la empresa creadora de ese software por no controlar esos usos donde están involucrados menores que son tanto víctimas como autores
#63 Tranquilo. Todas estas cosas se emplean para ir limando el anonimato de los usuarios. Recuerda que siempre es "por nuestro bien".
#38 ¿y que tiene eso de malo? Malo es que le vayan haciendo comentarios a la persona o cuchicheando entre otros por pensar que es real, ¿Pero que uno se haga una paja mirando su cara? Como si fuera de ahora ponerse pensando en conocidos.
#42 Tranquilo, que ya propondrán implantar "chís" a los jóvenes para que monitoricen lo que imaginan en sus mentes.
Eso es como decir que todo aquel que salga en minifalda a la calle debe ser consciente a lo que se expone.
Pongamos el foco en el que ha cometido el delito, no en las víctimas.
"Cuando he visto esto lo he tenido muy claro y he cogido el micrófono que son las redes sociales para denunciarlo", dice.
Algunas madres ya han denunciado a la Policía Nacional y yo aún no he tenido tiempo",
Tiempo para ponerlo en las redes Sociales : OK
Tiempo para ir a la policía a denunciarlo : NOPE
Joder la sociedad actual.
#93 Esta es la razón por la que me creo 0 esta noticia.
-Una veintena de madres ---> Pero solo tenemos precisamente a la que no ha denunciado, lo de la veintena es porque nos lo ha dicho ella
-Una tiktoker que hacia tiempo no hacia directos (dicho por ella) y justo justo esto le pasa a ella, con sus miles de seguidores. Casualidades de la vida.
-Felicitandose de que se haga viral. Tiene tiempo para entrevistas al periodico pero no para ir a poner una denuncia (yo ya la estaria poniendo ese mismo dia. Es que me falta tiempo si le pasa algo asi a una hija mia)
Yo lo siento por ser tan desconfiado, pero no es ni medio normal que la madre diga que no ha tenido tiempo a ir a denunciar en la policia. Que puede que haya pasado? ( y que seguro va a ocurrir ) Vale, me lo creo porque esto lleva pasando siglos hasta poniendo fotos sobre cuerpos desnudos. Lo que me cuesta es confiar en que le haya ocurrido a esta persona, y no lo este usando de autobombo.
Todo aquel que comparta fotografías suyas al público en general debe ser consciente a lo que se expone.
#19 Te refieres a los que han creado y compartido fotografias trucadas de pornografia infantil? Pues sí, se exponen a penas de carcel bastante serias, al igual que los que han comparido y distribuido esas mismas imágenes de pornografia infantil.
#22 supongo que sabes que ambas son dos cosas completamente distintas.
Yo estoy haciendo referencia a ceder tu imagen voluntariamente, tu hablas de una ley local que penaliza determinados usos de esas imágenes.
#23 Si son compañeros de clase, pueden perfectamente haber cogido esas imágenes de fotos escolares u orlas. Qué hacemos? Prohibimos las fotos de fin de curso?
Por cierto, esas leyes que penalizan la creación y distribución de pornografia infantil no son locales, la Interpol, por ejemplo, las persigue alrededor del mundo...
#88 o del propio perfil del wapp, sin ir más lejos
#88 confundes conceptos.
Por un lado la foto de origen. Si la comparte voluntariamente la persona en un lugar público (como si es WhatsApp), pues está cediendo su imagen. Si la comparte una tercera sin su permiso es un ilícito contra el derecho a la imagen.
Sobre el tratamiento de las fotos. El Código Penal español considera pornografía infantil todo material (aunque sea un puñetero cómic) de un menor o que simplemente parezca un menor, en conductas sexuales. sea de forma real o simulada.
Ese es el delito del que estamos hablando y no el hecho de coger una foto pública, tratarla como te dé la gana y volverla a publicar. Eso no lo es.
Estoy casi convencido de que todas las legislaciones del planeta persiguen la pornografía infantil, distinto es las que localmente consideren pornografía infantil este supuesto. Por mero sentido común, podría asegurar que como mucho, si no es exclusivo de España, sólo serán algunos países occidentales que apliquen el baremo moral de los tiempos que corren. Personalmente me parece un despropósito por lo excesivo.
Que sirva esto de respuesta para #153 #64 y #44
#19 Si la noticia fuera de robo con violencia.
Todo aquel que sale a la calle debe ser consciente a lo que se expone
#44 No es novedad que te puedan robar en la calle ... Esto sí.
#61 Con más razón
#44 Todo aquel que existe debe ser consciente a lo que se expone.
#19 Hay que ser consciente de lo que se hace, pero si el baremo es no poder compartir una foto normal en cualquier grupo porque la pueden manipular... ya parece demasiado, ¿no? Una foto en la playa tranquilamente, o una foto de tu cara simplemente, o de cuerpo entero con ropa un poco pegada no son actitudes de riesgo pero podría usarse como base para despelotarte virtualmente, ¿también de eso hay que guardarse? Yo creo que ahí ya sí que tiene que entrar la regulación.
Pero me pregunto que pasaría un siglo o dos atrás cuando los artistas hacían desnudos y pintaban la cara de quien quisieran.
#18 No puedes comparar la situación actual con hace un siglo o dos. Hace un siglo o dos las menores eran usadas entre familias como monedas de cambio y la esclavitud estaba permitida en muchos sitios
#18 la mayor parte de los retratados en ese tipo de obras eran indigentes o trabajadores sexuales
He estado probando estos días la IA con la que puedes usar la voz de alguien y que diga lo que quieras y estando empezando los resultados pueden ser muy buenos. Vienen tiempos... Curiosos.
Precisamente ayer hablaba con un amigo que es CNP que dice que les va a tener que tocar lidiar con denuncias a miles por estos temas, a él ya le ha tocado estar mil veces en historias de "no sé quien dijo no sé que de mi por internet", etc. Imaginad cuando empiece el tema de que la gente haga fotos y audios falsos de otros.
#67 pues tendrán que buscar formas de garantizar la veracidad de esos materiales, o ponerlos en duda.
¿Volvemos a los tiempos en los que las cámaras no existían?
#67 Yo creo que lo mejor sería empezar a NO dar tanta importancia a esas cosas. Hace años, en un centro cercano, una adolescente envió una foto desnuda al novio. Había sido un drama del estilo "Ahhhhhrrggg! El fin de los estudios. Su vida destrozada para siempre. La gente corriendo en círculos y... bla, bla, etc." Yo pensaba. ¡Joder! Pobre chica. Tampoco hay que dramatizar tanto. Con que dejen pasar unos días, que la gente se olvide y punto. Y si alguien todavía la señala se le llama tonto, se le ridiculiza, se le denuncia si reenvía la foto y a tomar por culo. Y así ha sido. Nadie recuerda ni en que colegio ocurrió. ¡Es que como sigamos así vamos a tener que prohibir hasta las acuarelas de J. Sorolla!
#77 Bueno, es algo que sí le podía destrozar la vida, a veces por un tema de suerte, o justamente por esa reacción social de "le va a destrozar la vida". Es curioso que alguna vez he leído sobre como la percepción (en casos de violaciones) de "le han destrozado la vida" era una de las cosas que más hacía daño en una violación. Todo el mundo te percibe como un juguete roto que no puede aspirar a nada, pasa lo mismo en menor grado en todo tipo de lesiones. Vaya, una lesión de codo, no vas a ser Rafa Nadal...
Por mi parte, ojalá sea como dices y se le quite importancia al asunto.
#77 Siempre hay que proteger a los menores, pero esta claro que con adultos la cosa funciona de distinta manera, como por ejemplo el caso de Olvido Hormigos que pasas de ser política a personaje televisivo.
Pero esto es diferente y no le veo mucha solución, si antes tenias que controlar Photoshop y buscarte un poco la vida para hacer este tipo de montajes, ahora puedes meter a cualquier actriz conocida en una peli porno, y por supuesto para desnudar cualquier foto no tienes que instalarte Stable Diffusion y tener un ordenador medio potente y bla bla bla, no es necesario, ya hay apps y paginas webs que lo hacen sin que tengas que tener ni puta idea de nada ni ningún super equipo, lo único que nos va a salvar de todo esto es el pensamiento critico porque la linea entre la verdad y la mentira va estar mas difuminada que nunca.
#77 si lo piensas racionalmente está claro que llevas razón. Pero hay gente que le puede pillar en un momento delicado y literalmente le jodes la vida sin remisión.
#92 #128 Muchas veces es un error quitarle importancia y no combatir malos comportamientos.
PAsapollo, conto la historia de uno que le toca el culo a una chica y la madre la lia y al final la hija dice "Que verguenza me haces pasar".Tambien en la adolescencia todo lo que hacen los padres da verguenza.
Se podria asimilar a difundir bulos de gente. Siempre entra la posibiilidad de ser inventado. Pero hay gente que se lo cree o se genera duda.
Lo bulos no dejan de ser nocivos, porque la gente sepa que pueden ser inventados. Pero estan castigados.
Por otro lado no es lo mismo algo que alguien dice que un imagen, aunque tambien quepa la posibilidad de no corresponder a la realidad.
#138 #77
No hay que pasarse de dramatismo, pero hay que darle la importancia que tiene y tampoco quitarsela. Porque no actuar, para evitar que se difunda, ni castigar al deliicuente, ni dar un mensaje de que no se puede estas cosas, puede ser muy dañino para la victima.
Obviamente, decirle a la victima que no va levantar cabeza, no es bueno y compadecerse tal vez tampoco.
Hay veces que la actuacion posterior es mucho peor que el propio agravio.
El otro
A la periodista que ¿elisa? que le toco el culo un individuo, la forma de tratarlo el presentado, le hizo la situaciion mas violenta.
#141 Si alguien te acusa de robar el banco de Abu dabi. Te hace gracia porque no tiene ninguna credibilidad. Si te acusan de robar en el trabajo, a tu madre, el cepillo de la iglesia, etc, es mas creible y te perjudicará mas.
#67 Siendo realistas, a él le habrán tocado mil veces "lidiar" con esos temas, pero la mayoría de las veces no hará nada más que un informe y olvidarlo en un cajón. Hasta pasa con hurtos y robos tradicionales, tu denuncias, hacen el paripé, y a nadie le importa.
#38 Yo a los 15 no necesitaba ni foto ni dibujo para un pajote. Tenía imaginación suficiente.
#60 y nunca fantaseaste con una companera o profesora de clase? yo si.
Esto se ha hecho siempre, lo que pasa es que desde hace un tiempo, la forma de distribuir ese material es brutal. Pero lo de poner la cara de alguien en el cuerpo de otra persona... desnuda o no, se ha hecho toda la vida.
si quien lo ha hecho obtuvo las fotos de manera ilegal es el unico culpable, si estaban colgadas de manera publica tendrian que acusar al autor de esas subidas o en caso de ser los propios menores a sus responsables, de todos modos creando un prompting detallado de la cara midjourney mismo puede hacer una imagen muy realista sin usar fotos reales
#6 Supongo que lo han hecho por el morbo de ser compañeras o por una broma pesada, pero supongo que con la IA no necesitan la foto de nadie para generar el desnudo completo inventado.
Ufff, pensando en esto, ¿como se avanza legalmente para que se prohíban desnudos de niños generados por IA. Como se demuestra la edad de algo completamente generado por IA?
el mundo se va a la mierda más rápido de lo que siempre creí
#3 ¡Qué escándalo! chavales aburridos han aprendido a usar Photoshop-Gimp... como si para manipular una foto hiciera falta IA en lugar de cualquier PC o tablet y ganas de trollear.
#45 el mundo se va a la mierda por culpa de gente como tú que encima les ríe la gracia
#57 La ironía no es tu fuerte.
#57 Esto no es nada comparado con lo que sufren algunos menores por todo el mundo. El mundo se ha ido yendo a la mierda desde prácticamente siempre.
#57 Si ese fuera el problema... Se va a la mierda por mil problemas infinitamente más graves
#45 Hombre, la diferencia de esfuerzo entre uno y otro es notable. Aparte de que para hacerlo bien con Photoshop hay que saber bastante.
#45 #91 Hay herramientas que son prácticamente automáticas y no hace falta saber bastante, sin contar que tampoco buscan crear una imagen perfecta para que un forense no pueda detectar la manipulación, con dar el pego ya es suficiente. Y hay muchas herramientas disponibles para ello, algunas intentan vetar ese tipo de contenido pero empieza a convertirse en un tema de "ingeniería social-artificial" saltárselo.
#45 unas tijeras, unas fotos y una playboy..........
Han descubierto que el agua moja y los adolescentes están salidos.
#45 Mira, no tienes ni idea de lo que le puede hacer a la vida de una chica que circule una foto de ella desnuda a esas edades, normalmente porque algún hijo de puta de su edad la ha hecho pública sin su consentimiento, hasta ahora pensábamos que con educar a las chavalas para que no enviaran fotos y tuvieran cuidado de que no se las hicieran a traición era suficiente, pero ya no lo es, porque dará igual cuanto te cuides, un "chaval aburrido" tiene una herramienta para, sin ningún tipo de conocimiento, generar imágenes realistas de ti en cualquier tipo de situación ¿Y no ves el problema?
#3 Si crees que por eso el mundo se va a la mierda, ya se fue a la mierda hace muchos años. Con estas IA sólo ha acelerado un poco la marcha.
#81 estás diciendo exactamente lo mismo que yo "más rápido de lo que siempre creí". Yo ya hace años sabía que el mundo se iba a la mierda
#81 En realidad yo diría que el mundo ha decelerado. Cierto, hoy en día puedes convertir una imagen inocente en pornografía pero hace décadas un adulto se podía trajinar a un menor como si nada y la explotación infantil era el pan de cada día.
¿Niña de 17 años?
#75 Es lo que tiene la estupidez humana... ponemos la línea de transición de menor de edad a mayor de edad a los 18 años.
Y mucha gente ha pasado a decir que como es menor de 18 años es un niño. Pues no, si tiene 13 años en adelante es un adolescente. Que es menor de edad pero sus características físicas y psicológicas son muy diferentes a las de un niño.
#86 tiene que ser gradual, a más edad, más responsabilidad, hasta llegar a los 18.
Por ejemplo, si un niño mata o viola a los 16, que tenga la misma pena de cárcel que un mayor de edad.
El comentario despreciable del día.
Cada vez mas crios lo van a tener mas fácil para despelotar a sus compañeras que suban fotos a las RRSS, usando apenas apps y con el tiempo seguramente con una les valga... esto va a ser un caos incontrolable. Aparte que cualquiera con una máquina media puede darle al stable diffusion en local, a la que mejoren el tema y los móviles se hagan más potentes esto va a ser bastante demencial.
#4 Das por sentado que siempre serán crios los que lo hagan con compañeras, lo que hay que reprochar es que se pueda hacen en ambos sentidos.
#8 Yo imagino más algo como, chicas editando fotos de compañeras a las que quieren putear, para luego subirlas a redes y echarse unad risas. Las chicas son más así.
#8 tu y yo sabemos que va a ser un tema de chicos al 99%
#49 ya salió el género...
#96 Es una realidad, tanto como que no es un tema de gatos...
#4 en realidad no deja de ser una extensión de la imaginación. No es real. Lo único real serán los rostros. Aún así entiendo que genere muy mal rollo.
#11 Cierto. Es algo que una persona que tenga talento también podría hacer.
#56 pues sí. Creo que en un tiempo será tan normal que no lo veremos como algo tan amenazante. Claro que los malos usos seguirán siendo mal uso. Exactamente igual que el que pinta un cuadro al oleo con un contenido similar. Solo que ahora lo hace cualquiera.
#11 Es complicado, por una parte si la cara es real es un atentado contra su dignidad e imagen. Si son menores, tengo entendido que en España (y algún otro país) eso ya sería considerado pornografía infantil, incluso si no es una imagen real. Y el acoso que se puede generar con esa imagen es real.
Quizás esto traiga algo positivo, y es que si se normalizan esas imagenes, incluso si fuera una imagen real puede pasar más desapercibida, o alguien siempre tendrá el comodin de alegar que una imagen es falsa.
De repente me has recordado a Matrix: no es real, tu mente hace que lo sea.
#11 La diferencia es que en tu imaginación no hay difusión y nadie se da cuenta, pero cuando estás generando pornografía con caras de personas reales, y además la difundes estás haciendo un daño real a esa persona, por muy falso que sea el montaje.
Es más, aunque no existan desnudos, el simple hecho de enviar fotografías de una persona real a otras personas sin su consentimiento ya es un problema legal.
#11 la cuestión aquí está en la difusión de las imágenes, y en qué seguramente las han difundido como reales, no diciendo que eran montajes.
#4 Yo creo que se pueda hacer fácilmente va a ser la solución a este problema.
Cuando se pueda fingir fotos tan fácil y realisticamente, cuando tengan una real no sera creíble, tan simple como decir:
...payasos, no veis que no soy yo, que es mi cara en el cuerpo de Jordi El Niño Polla o Apolonia Lapiedra.
Eso dejara de poner tanto interes en este tipo de imagenes y videos porque todos asumiran que son fakes.
#14 a esto venía yo
#14 No creo teniendo en cuenta que hay gente a la que le vale para ponerse palote unos simples dibujos.
#14 Esperemos...
#14 pues venía a decir algo parecido, el problema será el intermedio entre ahora y dentro de unos años donde todo lo que veamos en foto, vídeo o audio asumiremos que será fake
#14 No es tan fácil. Esa idea tuya requiere una madurez y control de las propias emociones que ni siquiera una parte importante de los adultos tienen.
#53 No necesariamente, si fuera así (que yo también pienso que podría serlo) es un tema de saturación, es más, hasta puede que las imagenes "falsas" estén mejor que una "real".
#14 El tema es que ese día ya ha llegado. La cosa empezó en Julio, que casualmente es cuando los chavales (y/o chavalas, no estoy sentenciando sobre los autores aquí) han tenido tiempo de aburrirse.
De verdad, hay tutoriales por ahí sobre como hacer eso solo con herramientas gratuitas de IA (stable difusion) y los resultados son mejores que "x con el cuerpo de apolonia lapiedra", porque el cuerpo es totalmente inventado (no es un collage de fotos, así que no hay "cuerpo original" al que referenciar).
En estos casos con imagenes de gente real yo creo que con esto tendremos que acabar consdierándolo pornografia infantil (y tratándolo como tal a nivel legal). Es decir: si usa el rostro de un menor, aunque el cuerpo sea inventado es pornografia inantil y punto. Luego se les explica a los chavales que a nivel legal es lo mismo que le pongan un cuerpo inventado a su compañer@ de clase que si le hubieran sacado una foto en el vestuario y con eso sí que lo frenamos. Si no vamos por ahí... no veo cómo