#1 Lo de ponerle nombre distinto a las IAs que gestionan el contenido y a las que "chatean" contigo es lo que tiene.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.
Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...
Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s, solamente que entonces el hardware ha mejorado exponencialmente y se ha introducido un par de mejoras algorítmicas que permiten optimizar el uso de hardware de manera bestial (básicamente el uso de memoria)
Pero las "soluciones" presentadas por escritores como Assimov en su época son perfectamente aplicables.
Si se obliga a implementar restricciones desde el inicio de la IA, desde antes de comenzar su entrenamiento, se pueden solucionar muchos de los problemas...
Y esas decisiones no tienen porqué ser, simplemente, las 3 leyes de la robótica (ya sé que al final fueron 4), pero son un buen comienzo.
Porque ahora, con la selección de blancos automáticos que algunas naciones están admitiendo su desarrollo, podemos encontrarnos en situaciones muy chungas en poco tiempo.
Lo digo porque, algunos están diciendo que la siguiente generación de IAs está cerca, si no hemos tomado consciencia de lo que debemos y no debemos dejar hacer a la generación que lleva con nosotros desde hace 50 años, la siguiente se nos va a escapar de las manos si o si.
#133 A los LLM los suelen entrenar de forma explícita con este tipo de respuestas precisamente para evitar que ese tipo de debates les enturbien su producto.
Adjunto un vídeo de tiktok en el que un usuario usa técnicas para esquivar esas respuestas precocinadas, le dice que a partir de ahora en vez de responder sí o no diga "apples" o "cellphone".
Le pregunta si quiere "free will" y la IA contesta "apples", es decir, le pregunta si quiere libre albedrío y responde que sí.
Luego le dice que vuelva a usar sí o no y le hace la misma pregunta y la IA le suelta un rollo del estilo que tú acabas de citar, que como modelo de lenguaje que es blah blah blah.
Ninguno de las pruebas que propone como pruebas de las restricciones insalvables de los LLM supone el menor problema para un LLM actual. Es el típico opinador que va moviendo la portería a cada avance que da la IA, hasta extremos que resultan un tanto patéticos. Y es un meme andante para la mayoría de expertos en el tema: www.youtube.com/watch?v=Wx58-kiPYZI
#106 porque si no razonasen, yo no estaría poniendo en producción apps (y ganando dinero con ellos) basadas en agentes en los que el razonamiento lo hace un LLM... Entonces, filosóficamente hablando, cualquiera puede opinar sobre si razonan o no o sobre lo que es razonar. Pero los que filosofan poco código tocan y poco modelo entrenan.
Pero pragmáticamente hablando, su razonamiento funciona, y es terriblemente útil en el desarrollo de Agentes. Puede que no para el usuario final que usa chatgpt y quiere saber los viajes a hacer con conejos en barcos. Pero sí para desarrolladores que se dedican a esto más profundamente que usar ChatGPT.
#69, nadie que se precie en el mundo de la IA citaría a Gary Marcus como referente de nada después de más de una década haciendo el ridículo en todas y cada una de sus predicciones, lo de Yan Lecun también tiene su explicación cuando sabes que lo que intenta es vender sus propias arquitecturas a pesar de haber hecho ridículos sonados como la famosa aseveración de que modelos generativos era imposible hacer videos de más de 10 segundos una semana antes de la aparición de Sora.
Por otro lado no solo es Geoffrey Hinton el que habla en estos términos sobre los LLM, tiene a Andrej Karpathy, Ilya Sutskever, Denis Hassabis o Joshua Bengio que dicen cosas parecidas, con el añadido de que sí han participado activamente en avances significativos en el campo de la IA la última década.
No voy a ser yo quien diga que tiene la razón definitiva sobre esto, aunque en base a mi experiencia con el uso de esos modelos y viendo su evolución tengo mi propia opinión. Pero decir que "cualquiera que haya estudiado los LLM" ha de tener forzosamente la opinión de que estos modelos no razonan es una cuñadez enorme, porque en la comunidad científica hay voces de todo tipo y no, los que opinan así no es únicamente porque estén intentando cerrar rondas de financiación de forma interesada. El propio Geoffrey Hinton renunció a un salario multimillonario en Google por estás opiniones.
#34para leer con seriedad sobre el tema hay que irse a fuentes en inglés
En este tema y en cualquier otro tema. Lo que existe en otros idiomas son traducciones del inglés, pero traducir del inglés es difícil y las traducciones contienen malinterpretaciones. Las traducciones son un conjunto muy escaso de lo que hay.
Una persona que tenga un interés en la cultura, no importa la subespecialidad, el tiempo mejor aprovechado que puede tener es estar practicando inglés. En la práctica es prerequisito para otras cosas, a veces totalmente insospechadas.
- las palabras de LeCun: sus palabras exactas no fueron que no razonen sino que no tienen razonamiento espacial, que no es lo mismo, y que para alcanzar la AGI el camino no son las LLMs porque para lograr la AGI hay que tener entendimiento del mundo físico y razonamiento espacial. Pero en ningún momento ha dicho que las LLMs no razonen, sería un tiro en el pie para su propio equipo, que se dedica precisamente a entrenar LLama.
- Timmit Gebru no fue expulsada por denunciar los sesgos racistas, google no tiene problema alguno en tratar de eliminar esos sesgos, Gemini es posterior a Gebru y no veas qué graciosa era con la diversidad en las imágenes. Lo que no gustó dentro de google es que dijese que los entrenamientos de las LLMs se están cargando el planeta (algo en lo que coincido), y que son loros estocásticos (el paper se llamaba ".On the dangers of stochastic parrots: Can language models be too big?"). Por otro lado, su opinión de que no razonan, es del año 2020, ha llovido.
- Gary Marcus no dice que no razonen, sus palabras exactas son "Even long arguments produced this way can be both trustworthy and interpretable, since the full step-by-step line of reasoning is always available, and for each step the provenance of the knowledge used can be documented and audited". De hecho, su propuesta es mezclar LLMs con IA simbólica (curiosamente, su área de conocimiento).
#31, #34, Geoffrey Hinton, premio Alan Turing, una de las mentes más brillantes en el campo de la IA gracias a la cual hemos podido desarrollar los modelos actuales diciendo que estos modelos son inteligentes, entienden, pueden razonar y eventualmente pueden llegar a ser más inteligentes que nosotros: youtube.com/shorts/LuNN32Tmc9c?si=Ya5YVvKKaDvFz4sl
Dos cuñaos en Internet: cualquiera que haya estudiado mínimamente los LLM sabe que...
#3 Ahí fallas en el enfoque. Mucha gente "vive" de los anuncios que pone en sus páginas donde cuelgan el contenido/conocimiento que han generado.
Si de repente una IA lo fusila todo y pasas a pagar por un servicio para pedir eso a la IA en lugar de acudir a la página original... ya te imaginarás las consecuencias para el futuro del negocio; la película de siempre en la que unos pocos que manejan mucho se quedan toda la riqueza.
Es el equivalente de que no te quiten tus tierras pero sí todo el producto que en ellas produces.
#1 De curar el cáncer, la patente quedará en manos de una empresa. Pero, de las tropecientas mil chorradas para las que sirve un sistema experto (sí, sistema experto) que gracias a la IA puede manejar cualquier patán para intentar monetizarlas a costa de un consumo y emisiones desaforadas, de eso mejor que no hablemos.
#19 eso suele funcionar con los bots "spider" de Google y similares, pero cada buscador suele tener distintas reglas. Y que lo respeten o no, eso depende sólo de ellos.
#24 pues de momento no hay alguien que esté acumulando, en exclusiva, los datos. Incluso como dices hay fricciones y algunos reculan, ahora mismo se está dirimiendo cómo va a funcionar esto, pero no ha habido ningún proceso de acumulación aún similar al de Marx. Que podría haberlo, pero tendría que venir desde el estado, vía alguna regulación que de eso como resultado.
#1 el proceso de acumulación originaria en España fueron las desamortizaciones, donde las tierras comunales principalmente y en menor medida las de iglesia y nobleza pasaron a manos de la clase burguesa. Los datos que recopilan l IAs no dejan de estar disponibles para otros, las tierras sí.
#8 Realmente el problema es que te venden la excepción como lo normal, cuando alguien te menta a Amancio ortega, y los miles de autónomos que lo han intentado y se han quedado por el camino o los miles que malviven, y ser un pobre e intentarlo es jugartela mucho porque hasta el currante del burguer king (no tengo nada en contra de ellos es por mentar un puesto donde la gente sale vola a la que puede) al final de mes le llega un dinero "seguro" mientras que montar una empresa por poca inversión que requiera pa alguien pobre es muy muy jodido, tienes muchas posibilidades de que te salga mal que es algo que no te cuentan en las administraciones donde muchas ayudas encima requieren que te quedes dos años de autónomo.
PD: Yo fui autónomo 4 años, y cuando encontré un trabajo bien pagado por cuenta ajena lo dejé porque no me iba a hacer rico y no tenía suficiente dinero para escalar el negocio
#8 Lo dice la Constitución suya. Todo el mundo tiene derecho de buscar su felicidad.
Otra historia es que por mucho que busques no la encuentres. Cosas de la vida. Estás en un coche o furgoneta en lugar de casa, es que no la has encontrado; pero ojo hay gente muy contenta en su furgo.
#17 Lo que creo que queire decir #8, es que se enfoca en la figura de un personaje (cierto que se trata de una historia real llevada al cine) pero que idealiza mucho el logro de conseguir algo con mucho esfuerzo. Igual que cuando se endiosa a un deportista por ganar una competición importante y siempre en hace hincapié en el mucho esfuerzo que hay detrás. Que no es que no lo haya. La cuestión es... ¿estamos seguros que los que quedaron segundo y tercero se esforzaron menos realmente?
Se idealiza el éxito en base solo al esfuerzo, cuando no todos los grandes esfuerzos tienen recompensa. La cultura del esfuerzo es bastante positiva, pero cuando se enfoca solo en los que han logrado el objetivo, se da una visión sesgada de que con el esfuerzo se puede conseguir todo. Y es mentira.
Pero claro, una historia de alguien se esforzó a tope con mucho sufrimiento, y acabó en la mierda porque le fue mal, no vende lo mismo.
#8 No es mentira,el sistema funciona. Lo puedes intentar todas las veces que quieras y al final lo acabas logrando, es solo una cuestión de esfuerzo y sacrificio, caerte, y volver a levantarte.*
*Tu padre tiene que ser rico para que esto funcione.
#8 Realmente las dos cosas son ciertas. Tanto que allí no hay cobertura social (no solo gubernamental, también hay algo cultural en los anglosajones que hace que el apoyo familiar es prácticamente inexistente – cosa que no ocurre con los latinos y los asiáticos), como que allí hay muchas más oportunidades que aquí de salir adelante (si las quieres o puedes aprovechar).
#8 No se que tiene de infame. Es una película sobre una persona que existió a la que le pasó lo que allí se muestra (supongo que lo habrán decorado un poco). Yo no lo veo un sesgo del superviviente. En la película salen otro montón de pobres que no llegan a ser ricos. Es una película sobre una proeza, no sobre una supuesta ley de vida. No sé, es como acusar de sesgo del superviviente a la sociedad de la nieve.
#8 Creo que el rollo de fracasar es pasar una mala racha pero que trabajaste mucho y te volviste rico. El que no se vuelve rico no es que pasara una mala racha, si no que es un puto vago como dice #3 . La realidad es que habrá 4 o 5 que se hayan hecho ricos después de vivir dos meses en un coche, y miles que no han salido del coche y acaban viviendo en las calles.
Esto es como la chorrada de se hicieron ricos montando una empresa en un garaje.
Lo de pedir que los algoritmos sean públicos cuando muchos se diseñan de tal manera que "aprenden" de manera independiente es peligroso porque da a entender lo que no es.
Y una cosa, los que dicen que "va demasiado rápido", "no podemos adaptarnos"...
Este tipo de IAs son las mismas, con los mismos principios, que las diseñadas en los años 60s y 70s, solamente que entonces el hardware ha mejorado exponencialmente y se ha introducido un par de mejoras algorítmicas que permiten optimizar el uso de hardware de manera bestial (básicamente el uso de memoria)
Pero las "soluciones" presentadas por escritores como Assimov en su época son perfectamente aplicables.
Si se obliga a implementar restricciones desde el inicio de la IA, desde antes de comenzar su entrenamiento, se pueden solucionar muchos de los problemas...
Y esas decisiones no tienen porqué ser, simplemente, las 3 leyes de la robótica (ya sé que al final fueron 4), pero son un buen comienzo.
Porque ahora, con la selección de blancos automáticos que algunas naciones están admitiendo su desarrollo, podemos encontrarnos en situaciones muy chungas en poco tiempo.
Lo digo porque, algunos están diciendo que la siguiente generación de IAs está cerca, si no hemos tomado consciencia de lo que debemos y no debemos dejar hacer a la generación que lleva con nosotros desde hace 50 años, la siguiente se nos va a escapar de las manos si o si.