edición general
walk_kindly_shout

walk_kindly_shout

En menéame desde septiembre de 2011

8,31 Karma
7.204 Ranking
4 Enviadas
1 Publicadas
2.435 Comentarios
1 Notas

Nuevas explosiones en Líbano, entre ellas varios dispositivos de comunicación de Hezbolá [EN] [164]

  1. #19 se recuperarían aquí, por ejemplo. En Líbano el sistema de salud se cae a pedazos.

Los californianos se "avergüenzan" de conducir Teslas (Eng) [154]

  1. #31 "así de alto es mi coche"

La nueva señal de tráfico verde que confunde a los conductores: ¿qué significa?. [130]

  1. #3 para dar por saco a los daltónicos.

Vox ilustra con datos manipulados su campaña electoral vasca bajo el lema “sabes que es verdad” [74]

  1. #1 Yo siempre me leo la propaganda de Vox en Euskadi para echarme unas risas. No sé cómo será en otros lados, pero aquí se les va la pinza un montón.

"Lavanda": La máquina de inteligencia artificial que dirige los bombardeos israelíes en Gaza [ENG] [15]

  1. #10 va a sonar a topicazo, pero esa desconexión que muestran, esa frialdad quirúrgica, me recuerda un montón a los nazis.
  1. En cuarto lugar, explicamos cómo el ejército flexibilizó el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, señalamos cómo los programas informáticos automatizados calculaban de forma inexacta la cantidad de no combatientes que había en cada hogar. Y en sexto lugar, mostramos cómo en varias ocasiones, cuando se atacaba una casa, normalmente por la noche, el objetivo individual a veces no estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.
  1. En una medida sin precedentes, según dos de las fuentes, el ejército decidió también durante las primeras semanas de la guerra que, por cada agente subalterno de Hamás marcado por Lavender, estaba permitido matar hasta 15 o 20 civiles; en el pasado, el ejército no autorizaba ningún "daño colateral" durante los asesinatos de militantes de bajo rango. Las fuentes añadieron que, en caso de que el objetivo fuera un alto cargo de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones la muerte de más de 100 civiles en el asesinato de un solo comandante.

    La siguiente investigación está organizada según las seis etapas cronológicas de la producción de objetivos altamente automatizada del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la propia máquina Lavender, que marcó a decenas de miles de palestinos utilizando IA. En segundo lugar, revelamos el sistema "¿Dónde está papá?", que rastreaba a estos objetivos y señalaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron las bombas "tontas" para atacar estos hogares.
  1. La máquina Lavender se une a otro sistema de IA, "The Gospel", sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas radica en la definición del objetivo: mientras que The Gospel marca edificios y estructuras desde los que, según el ejército, operan los militantes, Lavender marca a las personas, y las incluye en una lista negra.

    Además, según las fuentes, cuando se trataba de apuntar a supuestos militantes subalternos marcados por Lavender, el ejército prefería utilizar únicamente misiles no guiados, conocidos comúnmente como bombas "tontas" (en contraste con las bombas de precisión "inteligentes"), que pueden destruir edificios enteros encima de sus ocupantes y causar importantes bajas. "No quieres malgastar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de "cientos" de domicilios particulares de presuntos agentes subalternos marcados por Lavender, y que en muchos de esos ataques murieron civiles y familias enteras como "daños colaterales."
  1. El resultado, como atestiguaron las fuentes, es que miles de palestinos -en su mayoría mujeres y niños o personas que no participaban en los combates- fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.

    "No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o participaban en una actividad militar", dijo A., un oficial de inteligencia, a +972 y Local Call. "Al contrario, las IDF los bombardeaban en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está construido para buscarlos en estas situaciones".
  1. Formalmente, el sistema Lavender está diseñado para marcar a todos los presuntos operativos de las alas militares de Hamás y la Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales de bombardeo. Las fuentes dijeron a +972 y a Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que marcó hasta 37.000 palestinos como presuntos militantes -y sus hogares- para posibles ataques aéreos.

    Durante las primeras etapas de la guerra, el ejército dio su aprobación general para que los oficiales adoptaran las listas de asesinatos de Lavender, sin ningún requisito para comprobar a fondo por qué la máquina hizo esas elecciones o para examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo sólo servía de "sello de goma" para las decisiones de la máquina, añadiendo que, normalmente, sólo dedicaban personalmente unos "20 segundos" a cada objetivo antes de autorizar un bombardeo, sólo para asegurarse de que el objetivo marcado por Lavender era un hombre. Y ello a pesar de saber que el sistema comete lo que se consideran "errores" en aproximadamente el 10 por ciento de los casos, y de que se sabe que ocasionalmente marca a personas que sólo tienen una ligera conexión con grupos militantes, o ninguna conexión en absoluto.
  1. En 2021, un libro titulado "The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World" (El equipo humano-máquina: cómo crear una sinergia entre la inteligencia humana y la artificial que revolucionará nuestro mundo) se publicó en inglés bajo el seudónimo de "Brigadier General Y.S.". En él, el autor -un hombre que, según hemos confirmado, es el actual comandante de la unidad de élite de inteligencia israelí 8200- defiende el diseño de una máquina especial que pueda procesar rápidamente cantidades masivas de datos para generar miles de "objetivos" potenciales para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describe como un "cuello de botella humano tanto para localizar los nuevos objetivos como para la toma de decisiones para aprobarlos".

    Resulta que esa máquina existe. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como "Lavender", desvelado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que han servido en el ejército durante la actual guerra contra la Franja de Gaza y han participado de primera mano en el uso de IA para generar objetivos de asesinato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras fases de la guerra. De hecho, según las fuentes, su influencia en las operaciones de los militares era tal que esencialmente trataban los resultados de la máquina de IA "como si fuera una decisión humana".

El Supremo confirma la pena a un funcionario, ingeniero informático, que difundió en WhatsApp datos de 8.300 miembros de mesas electorales [92]

  1. #70 si tienes acceso no. Si tienes la posibilidad de copiar esos datos y pegarlos en un cliente de WhatsApp, sí es un problema de seguridad. El ordenador desde el que se podía acceder a los datos no debería haber permitido al usuario acceder a WhatsApp.
  1. #29 sí, mayormente sí. Pero también fue culpa de todos los superiores que permitieron que eso ocurriera. Pero esos se irán de rositas, claro. La seguridad de esos datos no puede depender de la buena voluntad de una sola persona, es una estupidez.

Estas fotos no son de un campo de concentración nazi de hace 80 años [99]

¿Cómo es posible que se hagan en #EuskalHerria más de 1/2 de las #huelgas de todo el Estado? [140]

  1. #26 el gaseoso, obviamente.

Bebés palestinos heridos por bombardeos israelíes en la Franja de Gaza [124]

  1. #39 la autodenominada "izquierda" de este país está del lado de Hamas porque vive anclada en los años 60. Estados Unidos malo, Unión Soviética buena. Entonces Israel malo porque Estados Unidos malo, Palestina buena porque es enemiga de Israel malo.

    Rusia buena porque Rusia == Unión Soviética, Ucrania mala porque Estados Unidos malo y Rusia buena.

    Eso es lo bueno de las religiones, que son fáciles de digerir.

La viñeta: la frasesita [40]

  1. #15 Bulo. Yasmin Porat no existe absolutamente en ningún lado salvo en páginas de "información alternativa". Es decir, propaganda.

Sigo en Gaza, acurrucado con mi familia en la habitación más segura, rezando [42]

  1. #10 no, porque ETA nunca ha gobernado, ni nunca ha mantenido 200 personas secuestradas al mismo tiempo después de hacer un atentado donde masacran a miles de personas.

Obligan a Greta Thunberg a borrar su foto en apoyo a Palestina por lo que se ve en una esquina: "¿En serio?" [111]

Escudos humanos [86]

  1. #6 Hamas piensa que absolutamente cualquier medio, por poco ético, reprensible o miserable vale, si el fin es la destrucción de Israel. Eso es un hecho, y lo llevan demostrando años.

Soy Sor Marta, monja benedictina. Pregúntame [406]

  1. #31 uy que afilado, seguro que esa no la ha oído nunca.
  1. #15 lo que tienen seguro es vocaciones.
  1. #6 entiéndelo, era una fase.

Los hospitales de Gaza se quedan sin agua y combustible con más de 12.000 heridos [100]

  1. Se quedan sin suministros gracias a la amable ayuda de Hamas:

    news.yahoo.com/un-agency-claims-fuel-medical-153757069.html

España vota a favor del uso del glifosato en la UE [71]

  1. #13 a la gente que viva cerca de los campos creo que les servirá de mucho.
« anterior1

menéame