edición general
147 meneos
1255 clics
La hipocresía cultural: demonizar la inteligencia artificial mientras se sucumbe a los algoritmos

La hipocresía cultural: demonizar la inteligencia artificial mientras se sucumbe a los algoritmos

El pasado jueves 26 de septiembre, en el marco de las Conversaciones de Formentor, se celebró un «Coloquio de revistas, suplementos y monográficos, literarios y culturales» que pretendía girar en torno al tema «El dilema postmoderno: ¿lectores o usuarios?», algo que no llegó a suceder. En este evento se reunieron responsables de medios y suplementos culturales para analizar y discutir la complejidad de los medios y suplementos culturales. A raíz de la intervención de Isaac Marcet de Playground Magazine el debate se centró en la inteligencia...

| etiquetas: hipocrecia , cultura , inteligencia , artificial , algoritmos
"Criticar la IA en nombre de la esencia cultural mientras se aplican fórmulas preestablecidas para satisfacer los algoritmos de posicionamiento es un acto de hipocresía. El verdadero dilema postmoderno no parece ser «lectores o usuarios», sino «principios o conveniencia»."

Magnífico análisis en dos simples frases. Muy buen artículo.
#1 Lo de ponerle nombre distinto a las IAs que gestionan el contenido y a las que "chatean" contigo es lo que tiene.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.

Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...

Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas

…   » ver todo el comentario
tul #3 tul *
#2 las leyes de la robotica? que eso es fantasia, ni existen, ni existiran en el mundo real.
#2 ok. Pensé que sabías de qué hablabas hasta que hablaste de las leyes de la robótica. Las leyes de la robótica tienen todos estos problemas:
1) Son un tropo literario. Nunca pretendieron ser nada científico. Y no lo son. No son leyes. Solo es literatura.
2) Asimov las expone para mostrarte en todas y cada una de las maneras que esas tres leyes fallan de todas maneras.
3) No es posible algorítmicamente diseñar circuitos que sigan esas leyes que son abstractas y literarias y no tienen una formulación matemática posible.

Todo esto leído a un experto en IA y habiendo leído muchos relatos de Asimov.
#5 Asimov: aquí tienes las leyes que todo robot debe cumplir

También asimov: aquí tienes decenas de cuentos y novela explicando porqué esas leyes van a fallar

Solo le faltaba haber propuesto soluciones a los problemas que sus leyes han creado para convalidar la carrera de político xD :troll:
#2 como puntillosito profesional agregaría que el gran cambio fue el backpropagation en el año 86.
#2 no es cierto, el paper de los transformers (Atention is all you need) es de 2017 y es lo que ha habilitado esta generación de IAs y ha abierto nuevas vías de investigación y de negocio.

Obviamente se apoya en fundamentos matemáticos desarrollados en los 50-60 como dices, pero no ha sido solo hardware.
#17 Claro...
Ese paper es la mejora algorítmica que comento, que permite la optimización bestial en el uso de memoria.
#2 “Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s” estas seguro de esto? en mi humilde opinión creo que es una peligrosa simplificación. Los diseños de transformers con atencion, RLHF para alineamiento, eficiente tuneado de parametros (LoRa y demas), redes convolucionares, o incluso bakpropagation usan principios que no creo que estuvieran have 50 años
#54 YA he contestado, realmente la "Atention is all you need" es la que comento y es básicamente una mejora de como se utiliza el hardware, lo demás son basadas en aquellas redes.
Al menos, cuando las estudié yo en los primeros 2000 todo estaba ya ahí y nadie hacía ni caso porque no daban para mas (bueno, casi nadie porque se estudiaban, pero ya me entiendes)
#55 Puedes decir lo que quieras, pero estas equivocado. 
Te he dado varios ejemplos, y el mas sencillo y antiguo es el de backpropagation, que posibilitó el aprendizaje profundo y que no existía hace 50 años. 
Si te pones hacer proclamas absurdas, no te cortes y di que todo esto ya existia desde que los sumerios introdujeron la numeración 
 
#56 Puede ser una visión de viejo, no lo dudo.
Como he dicho, yo estudié esto hace más de 20 años, durante la carrera y no me he puesto a estudiarlo de manera profunda.

Quitando ese paper no veo grandes diferencias cualitativas, cuantitativas si, que esa pieza ha permitido mejorar la potencia de manera exponencial.
Y eso es un gran cambio, porque permite que el grafo de decisiones sea mucho más poderoso, pero sigue siendo lo mismo...
Es como cuando tienes un procesador de más cores o de…   » ver todo el comentario
#1 eso era una buena entradilla...
A mi las IAs me parecen geniales mientras no manguen el trabajo de la gente para entrenarlas.
#4 En mi opinión nadie inventa nada, todo el mundo manga el trabajo de otros para entrenarse, desde Velázquez a Freddy Mercury.
#7 Si eso fuera cierto, seguiríamos en la Prehistoria, básicamente.
#7 Lo que dices es imposible, por pura lógica. En algún momento alguien ha tenido que crear algo para que otros puedan copiarlo. Si no, sería como dice #8
#8 #9 Obviamente comienzas interpretando la naturaleza, es lo primero que te dicen en historia del arte. Luego aprendes y reinterpretas lo que existe, es de lo primero que te dicen en historia del arte.
#8 Creo que más bien lo contrario. Si cada individuo tuviera que crear desde cero, entonces sí que seguiríamos en la prehistoria. Todo el conocimiento acumulado se refleja en cada creación, tanto artística como técnicamente. De vez en cuando aparecen "genios" que hacen algo totalmente diferente, pero ninguno de ellos tuvo que inventar el pincel, experimentar hasta entender la perspectiva o inventar un lenguaje musical.
#7 Por supuesto que se inventan cosas nuevas y por supuesto que mangan. No te hablo de una persona que se "Inspira" en algo ya hecho. Te hablo de una corporación que manga las imágenes de un banco de imágenes sin pagar la correspondiente licencia de uso para entrenar una IA generativa y cobrarte una suscripción por usar su "invento". Eso por poner un ejemplo real y que está en los tribunales.
#11, el problema son las corporaciones o la tecnología? Porque hay modelos de código abierto que pueden hacer cosas parecidas.

A mi me da que algunos prefieren prohibir una tecnología que bien utilizada nos podría llevar a una era de abundancia sin parangón, porque tienen el capitalismo tan metido en la cabeza, que no pueden imaginar una solución en la que podamos utilizar esta tecnología en beneficio de todos.
#20 Hace tiempo que tenemos tecnología que potencialmente puede solucionar todos los problemas de la humanidad. Ignorar que siempre hay quien va a querer capitalizarlo es naif, y ya me gustaría poder creer lo contrario. Cuando empecé a manejar internet me flipaba la democratización del conocimiento. Luego pasó lo de Aaron Schwarz y me caí del guindo. Y hoy por hoy cualquier simple búsqueda te recuerda que prácticamente todo está sujeto a intereses mercantiles.
#31, no en la magnitud ni con la abundancia de lo que se podrá lograr ahora.
#35 no en la magnitud ni con la abundancia de lo que se podrá podría lograr ahora
Fix'd
A mi pesar.
#20 Obviamente el problema son las corporaciones. La tecnología no toma la decisión de mangar el trabajo de un creador para aprovecharse económicamente del asunto.

Por eso en mi primer comentario digo que las IAs me parecen geniales siempre que no manguen el trabajo de nadie.
#11 Hace un año salió un arXiv ("Scalable Extraction of Training Data from (Production) Language Models") que mostraba evidencias de que es posible extraer datos de entrenamiento de los LLMs (el que más ChatGPT, a veces por el sobreentrenamiento sobre los mismos datos). Sumado a una nueva legislación en California para 2026 que estarán obligados a mostrar el origen de los datos, parece que empieza a haber esperanza por el lado legal de crujir a estas empresas por usar datos sin permiso (privatizar el beneficio y socializar las pérdidas), ojalá haya suerte.
#23 Ojalá. Con que publiquen los data sets yo me doy por satisfecho.
#33 De hecho curioso lo del ataque a la privacidad de esas empresas (desprotección de una hoja de Excel, también hablan de resúmenes de artículos protegidos por paywall):

x.com/LeylaKuni/status/1840863669166752092
#11#7 Bueno, el tema es algo más complejo, porque las licencias permiten ciertos usos (por ejemplo ver las imágenes), por ello -en principio- que yo o una IA estemos mirando bancos de imágenes para aprender no es automáticamente "mangar". La cosa es si al reproducir las ideas aprendidas la IA copia o no fragmentos de imágenes con derechos de autor.

Te pongo un ejemplo: Yo , o una IA, miramos un banco de imágenes para buscar ideas sobre como ilustrar el concepto "…   » ver todo el comentario
#27 Sin entrar es que una IA no "ve" las imágenes. Te pongo yo a ti un ejemplo mejor. Tu eres una persona y una IA no. Tu puedes mirar porque tienes ojos y capacidad suficiente para ver por ejemplo que una marca de agua no es parte de una imagen. Una IA es una máquina que no sabe de eso. Entonces ocurren cosas como la denuncia de Getty images a Stable difussion. Échale un ojo al enlace. En la primera imagen la IA copia hasta la marca de agua...

www.xataka.com/robotica-e-ia/getty-images-denuncia-a-stable-diffusion-
#34 Claro, yo mismo pongo el mismo ej de la marca de agua en #27 . Por eso digo que, en general, entiendo que la infracción del Copyright puede darse cuando IA reproduce una imagen con elementos protegidos por derechos de autor (que habría que juzgar caso a caso), pero usar esas imágenes para entrenar una IA me parece que entra dentro del uso legitimo. Por ejemplo hay IAs entrenadas en bancos de imágenes cuya función no es crear otras imágenes, si no reconocer elementos concretos - como la IA de Google Fotos que te ayuda a encontrar en tu propia galería las fotos que has hecho de "playas" o "comidas"- y creo que en esos casos ninguna denuncia por derechos de autor podría prosperar.
#36 En lo del uso legítimo es en lo que diferimos. Adobe por ejemplo usa las imágenes de Adobe Stock para entrenar Firerfly, pero paga a los contribuidores por ese uso. Igual que el resto de agencias de stock. No veo el motivo por que el una empresa externa puede venir a usar ese material sin pagar la correspondiente licencia de uso. Por el simple hecho de que una IA no está viendo una imagen, que obviamente es gratis. Es por el hecho de que estás usando esa imagen con un fin comercial que es sacar tajada de la venta de suscripciones a una IA generadora de imágenes.
#7 Hablar de aprendizaje o inspiración poniendo a la misma altura a seres humanos y a una aplicación hecha por una megacorporación. Aham. Sigue, José Luis, que me interesa.
#42 Insinuar que otra persona es un cuñado por dar una opinión sin que tú aportes absolutamente nada, ni datos ni opinión argumentada. Y te creerás que estás entre los listos de la clase. xD
Aham. Sigue, José Luis, que me interesa.
#45 Siento decirte que no puedo bajar allí donde te encuentras. En el barro siempre ganan los idiotas.
#7 en mi opinión, estamos hablando de churras y merinas. Yo he aprendido no sólo de diversos autores y diversos fotógrafos, sino de mi propia vida, mis vivencias y la serendipia del día a día. Esa serendipia del día a día —y esa forma de adaptarla e introducirla en mi arte— es lo que hace que mi arte sea único.

La IA no tiene vida, no tiene vivencias, no puede plantarse en una manifestación ni observar el juego de sombras y luces creado por un sombrero de paja. La IA no se enamora, no se pone cachonda ni se pone en modo hiperfijación autista.
#44 Si, es un punto de vista valido y no te falta razón, tiene esas carencias, pero la IA también tiene otras virtudes diferentes como la capacidad de generar contenido a gran velocidad, sin esfuerzo y con acceso a millones de referencias que un ser he es imposible que acumule.
No olvides que es una tecnología en pañales, dale unos años.
#46 ahí está la cosa, contenido. En donde trabajo, el lema es "más arte, menos contenido" por una razón. En general, no veo por qué alguien tendría que esforzarse en digerir algo que nadie se esforzó en crear en primer lugar.
#51 Pues porque conecte mejor con la obra creada digitalmente que con la creada por un artista mediocre, por poner el primer ejemplo que se me ocurre.
Por ejemplo si me ponen una canción que me guste generada por IA y no me dicen que es IA, puede parecerme un temazo, y si luego me dicen que es IA, debería dejar de parecermelo? Yo creo que no.

Me parece obvio que no por haberlo creado un ser humano tiene por qué ser mejor ni vice versa, pero esa es mi opinión personal y solo el tiempo demostrará si acierto o no.
#52 si fijas, no digo que sea mejor. Digo que es humano. Lo siento, en mi opinión un garabato hecho con un lápiz alpino tiene más valor que cualquier alucinación digital.
#37, el problema que tenéis algunos con la IA es que os falta perspectiva del ritmo al que evoluciona. Mira que he sido específico en mi comentario, he hablado de chatpt-o1-preview, no de la versión de chatGPT de la que habla la noticia que enlazas. Esta versión, liberada hace un par de semanas es mucho más robusta en cuanto alineación y hasta ahora nadie ha logrado saltarse las restricciones en cuanto alineación del modelo.
#38 ¿Te suena lo de hecha le ley hecha la trampa? El el problema que tenéis algunos es que pensáis que la solución a este dilema se puede alcanzar desde un perspectiva meramente técnica (Mejorando la IA), cuando el problema es epistemológico.

Las leyes de la robótica - o cualquier otra forma "alinear las IAs para que no se salgan de lo que sus diseñadores quieren que hagan" - requiere crear y programar un sistema normativo, pero el problema es que la única forma en que los humanos…   » ver todo el comentario
Teniendo en cuenta que la mayoría de páginas tienen la desfachatez de pedir dinero por navegar sin cookies en lugar de por el contenido que producen, es para desearles la ruina más absoluta.

Que fracase esta puta mierda de internet.

Se han convertido en putillas recabadoras de datos para grandes compañías y han adoptado un formato lleno de referencias a su web, de explicaciones que no vienen a cuento y de suposiciones sin fundamento.

Se han convertido en meros datos de entrada para…   » ver todo el comentario
Ha cambiado el titular
Las leyes de la robótica sí se pueden expresar mediante lógica formal. Pero las IAs modernas usan lógica probabilística, no es posible (actualmente) hacerlas razonar de forma que apliquen proposiciones lógicas a sus acciones.

Bueno, a las que eligen objetivos a los que disparar sí.
#10, no se que te refieres exactamente con la lógica probabilística de las IAs modernas. Pero desde luego que existen formas de alinear los modelos para que no se salgan de lo que sus diseñadores quieren que hagan. Intenta que chatpt-o1-preview te diga algo fuera de tono a ver si lo consigues.
#22 Los LLMs generan respuestas en base a la distribución de muestras con las que fueron entrenadas. Básicamente, analizan la entrada y generan su salida como la sucesión de sílabas (tokens) más probable que se correspondería a la misma. El muestreo es aleatorio y por ello responden cosas levemente distintas cada vez.

Lo que tienen los sistemas comerciales es filtros de moderación, que eliminan y modifican texto de la entrada y de la salida. Muchas veces es otra red por encima que bloquea la…   » ver todo el comentario
#25, no, no siempre es el token con mayor activación el que se muestra, para eso está la temperatura del modelo y de hecho está demostrado que la calidad de las respuestas empeora si la temperatura es cero.

Por otro lado lo de generar respuestas en base a la distribución es una definición muy vaga de cómo funcionan que podría incluso aplicarse a los humanos. Sinceramente, definir los LLM como modelos puramente probabilísticos es simplista y engañoso, uno podría pensar que se limitan a mostrar…   » ver todo el comentario
#29 Lo que están haciendo es eso, elegir el siguiente token teniendo en cuenta una serie de tokens de entrada, pasando dicha entrada por una función de codificación increíblemente compleja. La capacidad de comprensión está implícita en la distribución aprendida. Es decir, la mayoría de las preguntas han sido ya respondidas y el problema es "aprender" (en verdad guardar de forma comprimida) la relación entre pregunta y respuesta. Por eso pueden contestar con exactitud a preguntas…   » ver todo el comentario
#39, no es verdad. Es capaz de resolver nuevos problemas aplicando el conocimiento que ha aprendido anteriormente a nuevos contextos.

Por ejemplo, yo le dije que dibujase el escudo de mi ciudad utilizando primitivas OpenCV, esto no lo ha hecho nadie jamás, sin embargo, ha aprendido como es el escudo de mi ciudad y como se dibuja en OpenCV y ha combinado ambas cosas. No es distinto a lo que hacemos los humanos. La única diferencia es que nosotros podemos hacer experimentos en el mundo físico, pero a nivel de razonamiento la última versión ya supera a la mayoría de seres humanos en una amplia variedad de dominios, incluso en problemas que no ha visto antes ya que sabe cómo utilizar el conocimiento previo correctamente ante nuevos problemas.
#22 intenta que chatpt te diga algo fuera de tono a ver si lo consigues.

Lo consigues
www.lavanguardia.com/andro4all/tecnologia/chatgpt-no-es-perfecto-asi-d
Se sale un poco del contenido del artículo, pero es como cuando dicen que la IA solo copia y no tiene capacidad creativa, como si por ejemplo la música popular o el Hollywood de los últimos 50 años hubiera hecho muchos productos innovadores.
#6 La IA hace exactamente lo mismo que nosotros. Hay quien tiene la ilusión de pensarse que es super creativo, cuando lo que hace es tomar un 5% de este, un 5% del otro y al final resulta que añades un 1% nuevo propio. Y la mezcla de copias y la mínima aportación de uno da en muy contadas ocasiones la genialidad. Y eso es exactamente lo mismo que hace la IA. Pillar de uno y de otro y añadir algo própio, muy poco. Y alguna vez hará algo genial.
#12 Justo mi opinión sobre el tema.
#12 A lo mejor la diferencia es que la IA tiene tantas fuentes más que una persona y es tan eficiente compartimentando los conocimientos que el resultado canta demasiado a plagio. Tú tienes una combinación única y abundante de influencias en un batiburrillo en tu cabeza en el que coges algo que te gusta de este, esto otro que te gusta de esto otro, las influencias se interfieren y anulan entre sí dando como resultado una combinación "única", mientras que a la IA le dices, respóndeme a esto como si fueras mi madre y si la tiene en su base de datos te lo va a aislar de todo lo demás y te va a responder como mi madre.
#12 En realidad no es así, no hace lo mismo que nosotros. Pero entiendo que es muy dificil rebatir ese argumento con ejemplos cuando desde hace 30-40 años la producción creativa (por ejemplo la música o Hollywood, y también la literatura best-seller) apenas aporta contraejemplos de lo contrario, y mucho antes del advenimiento de los LLMs: el ecosistema creativo actual hace perfectamente válida esa afirmación.
Las IAs son BA SU CO.
comentarios cerrados

menéame