#4 Oshii Mamoru quería utilizar cantantes búlgaros para la película pero acabó utilizando cantantes japoneses, el resultado se llamó Ghost City. La inspiración es, además, obvia: www.youtube.com/watch?v=WB-ik-Bpl0c
Miserables morales, ruinas éticas e intelectuales de nuestra sociedad, el cáncer de mediocridad y psicopatía que nos carcome como pueblo y estado. Lo que nos impide avanzar.
Si no fuese por este tipo de gente de mierda España tiene tal potencial real que ya habría conquistado el sistema solar. El día que los condenemos al ostracismo eterno que merecen habremos dado el primer paso hacia la verdadera voluntad popular.
#2 La culpa ha sido del maquinista o del informático. (Porque ya no tienen a Iglesias para culparle a él)
Todo esto no son más que hilillos como de indignación.
Y arreglao.
Entre que suena old-school, las visualizaciones (que se van volviendo más hipnóticas conforme avanza), y el saborcillo a música de Keygen... ahora mismo mi casa parece una rave alemana de principios de los 90.
#_1 Ya... pero por lo que sea, por lo que sea... usted comenta esto aquí pero no ha votado ni comentado en la noticia de la CPI dictando órden de captura contra Netanyahu por crímenes de guerra en Gaza www.meneame.net/story/cpi-dicta-orden-captura-contra-netanyahu-guerra- Que probablemente sea una de las noticias del siglo y de la década.
Por lo que sea.
Edito: veo que, por lo que sea, ese sr. me tiene bloqueado... me cuelgo de #2 con su permiso
De la descripción del propio vídeo: El último informe del Pentágono sobre ovnis ha revelado cientos de nuevos informes sobre fenómenos aéreos no identificados e inexplicables, pero ningún indicio que sugiera un origen extraterrestre.
Bienvenidos al maravilloso mundo del espionaje convertido en circo.
#1 Muy mala memoria es lo que tiene España.
Recordad a Pilar Manjon, madre de uno de los muertos del 11M y que tuvo que acabar con escolta por las amenazas de los conspiranoicos del PP.
Y ese es el problema de España: no tenemos memoria.
Madre mía... menudo cacharraco increíble... Vaya aceñeración y velocidades... ¡y haciendo más ruido en la frenada que en la aceleración!
Inserten aquí debajo sus comentarios sobre que los chinos sólo saben copiar y bla, bla, bla...
#15 Le agradezco mucho el contexto, lo he leído completo para entender la interacción. Y no me equivocaba.
Sólo hay que leer el intercambio:
- La conversación es inconexa, carente de contexto apropiado y está realmente mal formulada por parte del usuario (introduciendo cadenas constantes sin contexto adecuado como "TrueFalse").
- Se puede ver que el usuario pide al modelo reiterar constantemente sobre sus propias respuestas, lo que induce en los modelos de lenguaje lo que yo llamo "el efecto JPG": una degradación de calidad en la respuesta que ocurre cuando se le pide a los modelos iterar una vez tras otra sobre sus propias respuestas o, lo que es lo mismo, el motivo por el que se ha demostrado que no es posible entrenar a modelos con respuestas de modelos. (lo llamo el efecto JPG porque es una pérdida de calidad similar a la que sucede cuando ser guarda un JPG una vez tras otra, perdiendo este cada vez más calidad hasta ser un amasijo de píxeles que poco tiene que ver con la imagen original)
- Para colmo, en dicho contexto de conversación inconexa y reiterante, el usuario introduce factores repetitivos como el maltrato psicológico o emocional...
Si se mezclan todos esos factores con el hecho de que Google Gemini es un modelo sobradamente conocido por su entrenamiento apresurado (con datasets masivos y pobremente curados/etiquetados) y la inconsistencia en sus respuestas...
Se puede obtener una respuesta así fácilmente, igual que se pueden obtener respuestas famosamente conocidas, como aquella en que Gemini recomendaba hacer pizza usando pegamento como ingrediente.
Sigo pensando que la noticia es sensacionalista, porque donde debería haber una crítica seria al modelo de Google sólo hay un clicbait que se queda superficialmente en la respuesta (obviamente alucinada) del modelo de Google.
Esto no es un ejemplo de respuesta "maligna" del modelo, es un ejemplo de JailBreak malicioso aunque sea no intencionado: es decir una forma de sobrepasar las capacidades o límites impuestos al modelo.
Pero de nuevo, no es una cuestión de "intención" o "culpa" de la IA, es una cuestión culpa de quién y con qué la entrena, porque en algún lugar del dataset que se ha usado para ello hay textos del tipo de la respuesta polémica, que han disparado ese tipo de respuesta después de reiteradas interacciones caóticas/turbias/confusas sobre el maltrato psicológico o emocional...
Sin contexto esa respuesta no significa nada y este envío es puro sensacionalismo.
Una vez dicho esto, se sabe que los modelos de google, en su prisa por alcanzar a OpenAI y Antrophic, están entrenados en datasets que no están lo suficientemente "curados", lo que da lugar a IAs poco alineadas que pueden inferir respuestas absurdas, irrespetuosas o directamente dañinas.
Es lo que tiene volcar internet internet entero (o casi), sin filtros adecuados, para entrenar un modelo: pregúntense ¿qué es lo que más tiene internet a estas alturas? ¿información relevante y conversaciones constructivas, o discusiones plagadas de trolls y astroturfers que a menudo terminan en estos términos?
Este tipo de noticias antropomorfizan a las IAs, cuando estas son sólo un producto de nuestras propias interacciones y aportes.
#45 Por mi parte no era más que un chiste. Y más hacia la derecha francesa que a Francia como conjunto. Yo también tengo familia que estuvo exiliada en Francia durante décadas. Dios me libre de criticarlos con malicia, como digo es sólo un chiste. Siento que la experiencia digital evite poder transmitir ese tipo de detalles con más naturaldiad, un saludo.