#8 "En ese año su partido gobernaba en Aragón".
La riada fue en marzo del 2015, la presidenta de Aragón era Luisa Fernanda Rudi, del PP. El PSOE gobernaría Aragón meses más tarde, en Julio del 2015.
#54 ¿Seguro? Yo estuve allí de enero a marzo de 2022, me fui justo una semana antes de las protestas. El presidente era nacionalista y conservador, y les llevó a la ruina. Arruinó tanto el país que no podían importar gas, ni ninguna otra cosa. Tenían 4 centrales eléctricas, pero mal mantenidas, también porque desde el triunfo de los conservadores no había dinero para eso. ¿Sabes para qué sí había dinero? Para el ejército. Y para el presidente y sus amigos, claro. Pero al grano, a principios de febrero comenzaron los cortes de luz. Al principio eran de una hora al día y por distritos, yo estaba por aquel entonces en Weligama, normalmente nos tocaba de 19:00 a 20:00 de corte de luz. Los cortes se fueron incrementando. Cuando me fui de Sri Lanka, debido a que el ambiente se caldeaba, los cortes eran de 10 horas diarias, y no había gasolina en ningún sitio. Me costó mucho encontrar un transporte a Colombo, porque nadie tenía gasolina. Había colas enormes y racionamiento, a las 7 de la mañana ya veías colas increíbles para ver si había suerte de que la gasolinera diese algo de gasolina. La gente de allí estaba terriblemente enfadada. Todos los alimentos perdían el ciclo de frío porque las neveras no tenían electricidad, solamente se podían comer cosas no perecederas, así que vivíamos a base de curry de garbanzos y lentejas y alguna otra legumbre.
A la semana de irme, las protestas se hicieron fuertes. El presidente, conservador, de derechas, militar, huyó como una rata en un jet militar, y vive desde entonces en las Maldivas a base del dinero que robó de su patria.
¿Crees que les espera un tortazo? Perdón pero no, el tortazo ya lo han tenido, y no fue con el comunismo precisamente. Muy mal lo tendrían que hacer los nuevos políticos como para hacerlo tan mal como la rata cobarde de su expresidente conservador de las buenas derechas como a ti parecen gustarte.
¡Extra Extra! ¡Un artículo de 2024 habla de un libro de 2019 que se basa en algunas ideas ya recogidas en el libro Trekonomics (economía de Star Trek) de 2016 que recoge ideas planteadas en una serie de TV que comenzó en los años 60.
En la Federación se ha eliminado el concepto de dinero, dado que la tecnología, y sobre todo los replicadores, abastecen de las necesidades. Entonces, ¿por qué la gente trabaja? Por motivación, logro personal y por la prosperidad social. Esto es posible gracias a una economía post-escasez: la civilización se regía alrededor del axioma de la cantidad limitada de recursos, y esta cantidad limitada de recursos es la que originaba el capitalismo y el sistema monetario. Una vez la cantidad de recursos se torna ilimitada gracias a la tecnología, y abierta a todo individuo y no en manos de unos pocos, no hace falta el dinero para representar una equivalencia entre recursos, porque cada uno tiene acceso directo a dichos recursos.
#5 Yo sí, y gran parte de su filmografía. El problema de Megalópolis es estructural, contiene demasiadas ideas inconexas, retazos. Es como si tuviese su libro de notas de cosas que tenía pendientes, y las quisiese meter todas, pero eso resulta en meter ideas a medio terminar. Por otro lado intenta satirizar a la jet set newyorkinapor estar desconectada de la realidad, pero tampoco cuaja bien porque Coppola tampoco está conectado con la realidad.
Ojo, es una película digna de ver, un goce visual, un gran trabajo de edición, pero muestra a un Coppola que es ya Norma Desmond bajando las escaleras de su mansión en Sunset Boulevard. Pero es una decadencia que ya le pasa hace más de 10 años, porque sus últimas películas, como Tetro o Twixt, emiten la misma sensación de no reconocer a Coppola en ellas.
#106 porque si no razonasen, yo no estaría poniendo en producción apps (y ganando dinero con ellos) basadas en agentes en los que el razonamiento lo hace un LLM... Entonces, filosóficamente hablando, cualquiera puede opinar sobre si razonan o no o sobre lo que es razonar. Pero los que filosofan poco código tocan y poco modelo entrenan.
Pero pragmáticamente hablando, su razonamiento funciona, y es terriblemente útil en el desarrollo de Agentes. Puede que no para el usuario final que usa chatgpt y quiere saber los viajes a hacer con conejos en barcos. Pero sí para desarrolladores que se dedican a esto más profundamente que usar ChatGPT.
- las palabras de LeCun: sus palabras exactas no fueron que no razonen sino que no tienen razonamiento espacial, que no es lo mismo, y que para alcanzar la AGI el camino no son las LLMs porque para lograr la AGI hay que tener entendimiento del mundo físico y razonamiento espacial. Pero en ningún momento ha dicho que las LLMs no razonen, sería un tiro en el pie para su propio equipo, que se dedica precisamente a entrenar LLama.
- Timmit Gebru no fue expulsada por denunciar los sesgos racistas, google no tiene problema alguno en tratar de eliminar esos sesgos, Gemini es posterior a Gebru y no veas qué graciosa era con la diversidad en las imágenes. Lo que no gustó dentro de google es que dijese que los entrenamientos de las LLMs se están cargando el planeta (algo en lo que coincido), y que son loros estocásticos (el paper se llamaba ".On the dangers of stochastic parrots: Can language models be too big?"). Por otro lado, su opinión de que no razonan, es del año 2020, ha llovido.
- Gary Marcus no dice que no razonen, sus palabras exactas son "Even long arguments produced this way can be both trustworthy and interpretable, since the full step-by-step line of reasoning is always available, and for each step the provenance of the knowledge used can be documented and audited". De hecho, su propuesta es mezclar LLMs con IA simbólica (curiosamente, su área de conocimiento).
#31#36 Por aquí alguien que lleva trabajando con LLMs años, y en IA décadas, y no a nivel usuario, sino profesionalmente. Sí razonan, de hecho el estado del arte de desarrollo de Agentes se basa en que puedan razonar.
Hace más de un año que se presentó el paper de ReAct (Reasoning and Acting) arxiv.org/pdf/2210.03629
Ese paper se ha usado como marco de inicio para la evolución de cómo funcionan los Agentes, y se han evolucionado cositas desde entonces.
Para los que no sepan lo que es: un Agente es un programa que posee habilidades (Skills), y se pueden hacer programas complejos encadenando habilidades de uno o más agentes. Por poner un ejemplo, digamos que una habilidad es leer un excel, otra es hacer gráficas, otra es hacer un powerpoint... Entonces si hablo con mi bot y le digo "toma este excel, necesito que de la tabla ingresos me hagas una gráfica por mes y me generes un powerpoint" debería poder hacerlo.
Esto no es algo nuevo, se lleva haciendo incluso antes de la existencia de LLMs, pero antes tenías que hacer un segmentador que intentase partir el texto en acciones atómicas, un NLU para entender cada una, un NER para entender los parámetros (el "por mes" por ejemplo), y eso fallaba como una escopeta de feria.
A día de hoy con LLMs mucho mejor por su habilidad para razonar. Hay un problema, como no, y es que razonan pero a pasitos pequeños, por eso el secreto no es hacer una única llamada al LLM, sino ir haciendo llamadas para razonar paso a paso en las que para que la LLM tenga el contexto de sus decisiones anteriores se le pasa un scratchpad. Un prompt de ejemplo para hacer ReAct lo tenéis en el hub de langchain: smith.langchain.com/hub/hwchase17/react
Razonar razona, pero pasito a pasito no todo de golpe. Y estaría bien que la gente dejase de mover la portería una y otra vez con "inteligencia" y "razonar", porque vivimos en unos años en los que resulta que tu hamster es la hostia de inteligente porque es capaz de resolver un laberinto de tamaño ínfimo, pero un programa de toma de decisiones no lo es....
b) ¿No lo sabías antes de ir? Pues mira no, porque hace 5 años Estepona no estaba en la gran mierdísima turística que lleva los últimos tres años, con garitos por y para turistas, con las inmobiliarias con carteles solo en inglés, con terrazas ilegales que no dejan caminar. Antes había un garito que hacía un plato alpujarreño excelente, ahora es fritolandia. Por eso hacía la broma de si intentan matar a los turistas.
c) Lo que quiero decir es que no creo que el secreto de la longevidad sea el comer sano. En muchos países se come sano y no se llega tan a viejo. El señor más lóngevo de mi pueblo, 103 ya, no se puede decir que haya llevado una alimentación sana.
d) Tal, y solo tal vez, el hecho de que en el sur dé el sol y por ello tengamos vitamina D, felicidad, dopaminas, etc. nos dé ganas de vivir.
e) El tener una buena sanidad pública también aporta bastante, aunque traten de destruirla.
#63 tiene que ver con el tema dado que dices que la alimentación suma, pero en andalucía comiendo terribles mierdas conozco gente de más de 100 años. En Galicia comemos en exceso churrasco, chorizos, etc, y duramos 100 años. En Asturias con tremendas fabadas y cachopos, sano sano no es.
Pero somos felices. Tenemos ganas de vivir, y eso ayuda.
Viajo bastante a Japón, 2 o 3 veces al año. Por un lado es fascinante como destino turístico. Por otro lado es terrorífico.
La primera vez que fui me sorprendió que en Tokio, los fines de semana, ponían a personas de más de 70 años, uniformadas, a controlar el tráfico en cruces que ya tenían semáforo y paso de cebra y que ya todo el mundo respetaba la señalización. En algunos cruces había 4 ancianos encargados de "ayudar" al tráfico. Su trabajo: si el semáforo está en verde mueven las manos para decirte que pases, si está en rojo no. Con un cálculo rápido de lo absurdamente grande que es Tokio, te puedes hacer una idea de cuántos cruces con personas así hay.
Tuve que hacer una gestión en el JRE, y lo mismo, antes de pasar un señor me preguntaba si había tenido covid en las últimas 2 semanas. Ese era su único trabajo.
Y pregunté. Japón es el sueño húmedo capitalista, y eso tiene sus ventajas y sus inconvenientes. El mayor inconveniente es que el sistema de pensiones es una mierda, y la pensión máxima roza los 600€. Probad a buscar en Tokio una habitación en piso compartido por 600€ y que os sobre para comer, como mucho conseguiréis dormir en el futón de un cibercafé (allí se usan también como alojamientos). Entonces el gobierno, usa "minijobs" para los ancianos a modo de compensación: en época de vacas gordas hay muchos minijobs, en época de vacas flacas pues no tantos. ¿Te has jubilado? Perfecto, sigue trabajando hasta morir. Salvo si el gobierno va mal, en cuyo caso a lo mejor mueres antes porque no te dará el dinero para vivir.
Desde antes de Shinzo Abe, que se vivía una recesión brutal en Japón, ya muchos jóvenes sabían que la pensión no valdría para nada y que tendrían que ahorrar, y algunos soñaron con la independencia financiera y jubilarse antes. Claro, venían de tener un IVA del 3% y 5%, y un yen más o menos potente. No pensaban que el IVA subiría hasta el 10%, y que la economía se iría a la mierda: ahorrar dinero y tenerlo parado significaba que ese dinero cada vez valía menos.
Y nada, hasta hoy, donde muchos de ellos se dan cuenta de que el objetivo financieron de 600K del año 2010 ya no es válido para el año 2024, y que les va a tocar seguir trabajando.
#1 Ojalá. No hay compañía que me caiga peor que Boeing, y me encantaría que se hundiese en el fango, porque cada vez que tengo que coger un vuelo y me toca un boeing me entra ansiedad. "If Boeing I'm not going".
Si hubieses invertido 1000 napos en boeing en 2022 a inicios, efectivamente estaba más alto que hoy mismo.
Pero en 2022 también ha estado por debajo de la cotización actual. Comprando a finales de 2022 8 acciones habrías invertido 968,64€ y hoy mismo esas acciones valdrían 1428€
Y añado:
"Cuando una puerta se cierra otra se abre" - Boeing
Una de las preguntas dice "respecto de Java y Javascript se puede decir..." y la respuesta correcta según el examen es "Java es compilado en tiempo de ejecución y JavaScript interpretado". Hace ya bastantes años que esto no es verdad, porque los motores de JavaScript, como V8, usan un JIT compiler.
#139 Sobre pagar GPT4: hay dos formas de usar OpenAI, como usuario o como empresa montando una instancia privada. En la primera, los datos que introducen los usuarios pueden ser usados para reentreno de siguientes versiones. La sorpresa que se llevaron varias empresas cuando sus estrategias comerciales confidenciales estaban en gpt4 porque las habían usado en gpt 3.5 como usuarios. Volviendo a mí ejemplo de agencia tributaria, qué te parecería que tu declaración de la renta esté disponible en gpt5?
Cómo instancia privada, tengo mis reservas de que se pueda como entidad gubernamental y no como empresa, y dónde se alojarán los datos en tránsito y en persistencia... GDPR y esas cosas, ya sabes.
Y está el tema costes: se paga un precio por los tokens de input y otro por los de output. El input puede ser enorme porque el prompt que se añade suele ser grande, y porque va creciendo con la conversación para mantener el contexto.
Sobre lo de que aprende las lenguas romances rápido porque ya sabe castellano o italiano, no funciona así. No sé entrenan los lenguajes por separado en modelos multilenguaje. Y el problema al entrenar tu propio modelo es que puede que openai tenga unos datos buenos buenos para entrenar, pero ¿Tú ves que los comparta? Tendrán mucho de AI, pero poco de Open.
Por no hablar de que "si ya existe x para qué hacer y" es la fórmula perfecta para los monopolios y para avanzar más lento.
#38 Poco más que un proyecto de fin de carrera, ¿eh? Vamos a contestar a eso, contestando a #21
- Lo primero es aclarar que no solamente es español: hay que añadir euskera, gallego y catalán. Bases de datos bien curadas en estos últimos no son tan fáciles de encontrar, lo que significa un trabajo previo de elaboración de las bases de datos.
- Lo segundo es entender cuál sería la finalidad estatal de tener dichos modelos. No es entrenar, subirlos a huggingface y adiós muy buenas. La finalidad real es tener herramientas de tipo ChatGPT pero que preserven la privacidad y puedan ser utilizadas en administración, educación, fuerzas del estado.
A partir de esos dos preceptos, unas puntualizaciones sobre lo de entrenar LLM actuales a bajo coste: estamos hablando de modelos tipo Llama2 o Mamba, que están muy por debajo de las expectativas actuales de GPT 3.5 o 4. Si queremos acercarnos a algo tipo GPT 3.5, eso supone entrenar algo tipo phi-2 o mistral. Sigue sin ser un coste excesivamente elevado, pero desde luego no son 50€ de GPU, vas a necesitar algo más, más luego las quantizaciones del modelo. Por cierto, cantidad de modelos tipo mistral o phi en catalán, euskera o gallego: 0. En español hay 2 de mistral,
Pero una vez entrenando un 7B, descubres que no va tan fino en español como esperarías. ¿Por qué? Acompañadme en este maravilloso viaje por las conjugaciones y la historia de LLMs. Corría octubre del 2018 cuando se anunciaba BERT, y con él llegó un modelo multilenguaje entrenado en 104 idiomas, incluyendo el español. La primera tarea que hace un LLM es tokenizar, coger una palabra y conseguir separarla en "tokens", que representarían la raíz y sus afijos. En inglés, de la palabra "develop" sacas las derivadas "develops", "developer", "developers", "development", "developments", "developed", "developing". Un total de 7 palabras, y fáciles de tokenizar. Pero llegas al español… » ver todo el comentario
En realidad es peor. No es que se declare desierto y el dinero quede ahí. Es que se ha quedado desierto, y yo no sé quiénes se habrían presentado, pero el dinero se ha ido a dar a Celso Arango, psiquiatra de más de 50 años, de la cuerda política de vox (ponente en algunas de sus charlas), que además es tránsfobo.
Imaginad por un momento que sí se haya presentado gente de menos de 40 pero el dinerillo ya estuviese prometido.
#14 Date un paseo por los Campos Elíseos y lo vas a flipar, que palomas ni una, pero cuervos que cuando ven que sacas un bocata se acercan en plan "dame de esa mierda" hay los que quieras.
La riada fue en marzo del 2015, la presidenta de Aragón era Luisa Fernanda Rudi, del PP. El PSOE gobernaría Aragón meses más tarde, en Julio del 2015.
Ale, a pastar.