#13:
#10 ha decidido autopublicarse como torrent para tomar el control de los ordenadores
#11:
El azar hizo que pudiese usar ChatGPT durante sus primeros días en abierto, cuando no había sido restringido como ahora, y tuve claro que estaba presenciando el futuro. Todo esto se volverá exponencial. La gente que lo ha probado podría incluso volverse fácilmente adicta a este tipo de interacción, porque si tienes un modelo de lenguaje avanzado puedes inventarte parejas virtuales a medida. Imaginad lo que eso significa para la generación incel. Es como la película HER, pero sin lo bonito.
De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
Os lo garantizo: https://www.youtube.com/watch?v=ky2rwSXZ3CA
#10:
Cuidado que puede ser Skynet distribuyéndose.
#41:
#34 La cuestión clave aquí es que se ha dado con el "grial" de la inteligencia artificial, y no ha resultado ser la capacidad de proceso (como muchos creíamos), si no el entrenamiento. Esto quiere decir que a partir de ahora la evolución será exponencial. Y lo que hoy son respuestas que parecen reales, mañana serán respuesta reales, y pasado mañana en combinación con otras redes neuronales estaremos en la antesala de la inteligencia artificial general. Y ni siquiera habremos necesitado cerebros cuánticos ni otras movidas de ciencia ficción, lo cual una vez más nos da una idea de nuestra escala como especie. Pero el tema de verdad, en mi humilde opinión, es todo lo que ocurriá entre medias, con una civilización que va a parir una nueva forma de inteligencia antes de asegurar que su propia inteligencia sea digna de perdurar.
cc/ #37
#25:
#21 El acceso no ha sido restringido, lo que se ha ido haciendo con el tiempo y los usuarios que han pasado por el modelo de lenguaje es "tunear" su capacidad y manera de dar respuestas. Al principio casi no tenía ninguna limitación o con argucias lógicas podías engañarle para que saltase sobre las pocas que tuviese, y podías hacer cualquier cosa: partidas de rol inventadas y narradas por la IA en directo, quimeras de personalidades, "novias virtuales", tutoriales con recetas para bombas, escribir libros completos... era bastante loco.
Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
Y eso va a traer MUCHAS movidas.
#48:
#43 A ver, si antes de ponerse con el lenguaje, precisamente las redes neuronales fueron capaces de resolver el plegado de las proteínas... ¿de verdad crees que les va a costar emular una inteligencia humana? Repito, es cuestión de tiempo, y el que lo niegue se va a dar de bruces contra el muro de la exponencialidad.
#15:
#13 Es una forma sencilla y eficaz para evitar que sus creadores puedan apagarla.
#59:
¿Nos podeis traducir el titular a los que follamos? Gracias.
#32:
#31 64gb ram (para el de 13 recomiendan 128gb), pero ademas la ram esta bajando mucho de precio, es algo que esta al alcance de mucha gente con una inversion bastante modesta. Ya tenemos un fork del servidor que va solo con cpu https://github.com/randaller/llama-cpu (original usa nvidia-cuda)
Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
#1
Jeffrey Ladish:
"Both can be true:
1) Language models are really useful and can help people learn, write, and research more effectively
2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk"
I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad But the biggest risk comes from AGI
El azar hizo que pudiese usar ChatGPT durante sus primeros días en abierto, cuando no había sido restringido como ahora, y tuve claro que estaba presenciando el futuro. Todo esto se volverá exponencial. La gente que lo ha probado podría incluso volverse fácilmente adicta a este tipo de interacción, porque si tienes un modelo de lenguaje avanzado puedes inventarte parejas virtuales a medida. Imaginad lo que eso significa para la generación incel. Es como la película HER, pero sin lo bonito.
De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
Os lo garantizo:
#11 En cuanto avance un poco y además se pueda "acoplar" a tu cerebro en modo de lectura incluso podremos vivir para siempre haciéndonos un backup a un robotaco con IA, un duplicado nuestro que viva eternamente y sin problemas de salud ni mentales, ni emocionales...
#11 Algunos os flipáis mucho con el tema de las IA. Mientras no posean sentido común seguirán siendo más estúpidas que el más estúpido de los humanos. Y el paradigma actual de IA no contempla en ningún sentido el desarrollo de sentido común.
P.D.: ¿Cuándo o en qué sentido se ha restringido el acceso a OpenGPT? En este momento la veo igual de accesible que siempre.
#21 El acceso no ha sido restringido, lo que se ha ido haciendo con el tiempo y los usuarios que han pasado por el modelo de lenguaje es "tunear" su capacidad y manera de dar respuestas. Al principio casi no tenía ninguna limitación o con argucias lógicas podías engañarle para que saltase sobre las pocas que tuviese, y podías hacer cualquier cosa: partidas de rol inventadas y narradas por la IA en directo, quimeras de personalidades, "novias virtuales", tutoriales con recetas para bombas, escribir libros completos... era bastante loco.
Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
Y eso va a traer MUCHAS movidas.
#25 Tú lo has dicho, sus respuestas PARECEN lo que no son. De entrada si no sabe la respuesta se la inventa. Comercializar eso como fuente de inteligencia sería una estafa.
Me creo que haya idiotas que se contenten con eso, al estilo hikikomori. Pero no dejaría de ser una estafa.
#34 Es posible que sea una estafa. Pero hay mucha gente de muy alto nivel intelectual que de idiotas tienen muy poco muy asustada con esto. No digo con esto que tú no tengas ese nivel, claro...
#34 La cuestión clave aquí es que se ha dado con el "grial" de la inteligencia artificial, y no ha resultado ser la capacidad de proceso (como muchos creíamos), si no el entrenamiento. Esto quiere decir que a partir de ahora la evolución será exponencial. Y lo que hoy son respuestas que parecen reales, mañana serán respuesta reales, y pasado mañana en combinación con otras redes neuronales estaremos en la antesala de la inteligencia artificial general. Y ni siquiera habremos necesitado cerebros cuánticos ni otras movidas de ciencia ficción, lo cual una vez más nos da una idea de nuestra escala como especie. Pero el tema de verdad, en mi humilde opinión, es todo lo que ocurriá entre medias, con una civilización que va a parir una nueva forma de inteligencia antes de asegurar que su propia inteligencia sea digna de perdurar.
cc/ #37
#37 ”La gente de muy alto nivel intelectual” sabe que ni remotamente se puede llamar inteligencia al paradigma de IA actual. Ya te aseguro yo que asustados no están. ¿Por qué coño iban a estarlo?
#41 Es justo al revés de como lo cuentas. El paradigma de aprendizaje, entrenamiento y reconocimiento de patrones existe desde hace unas dos décadas (entonces se llamaban ”redes neuronales” y punto), lo único que ha cambiado es justamente la capacidad de procesamiento. No es ningún grial ni es nuevo, sólo es más potente y eso da resultados más vistosos.
Y no, esas respuestas que parecen reales ni siquiera van a ser útiles mientras una máquina no posea algo tan trivial como SENTIDO COMÚN, algo que no persigue ni puede lograr el actual paradigma de IA, basado únicamente en tuneo por reconocimiento de patrones.
#42 Claro, campeón, que el programa autogenerado funcione o no es lo de menos.
#43 A ver, si antes de ponerse con el lenguaje, precisamente las redes neuronales fueron capaces de resolver el plegado de las proteínas... ¿de verdad crees que les va a costar emular una inteligencia humana? Repito, es cuestión de tiempo, y el que lo niegue se va a dar de bruces contra el muro de la exponencialidad.
#48 ”¿de verdad crees que les va a costar emular una inteligencia humana?”
¿Entiendes que lo que diferencia a un ser inteligente de uno que no lo es radica en el SENTIDO COMÚN, y NO EN EL CONOCIMIENTO? ¿Y entiendes que no hay forma de emular el sentido común mediante simple tuneo por reconocimiento de patrones? En sentido común hasta un gato gana a una IA. Y así va a seguir siendo durante muchísimo tiempo ya que nadie está investigando en esa dirección.
Si a una IA le preguntas cómo resolver el calentamiento global te va a responder que exterminando a la Humanidad, una respuesta tan cierta como inútil. Basándote en pura lógica amoral es la respuesta más correcta posible, pero llamar a eso inteligencia es ser un canelo.
Y eso no va a cambiar con el paradigma actual basado en aprendizaje por datos y realimentación por inputs. Para llamar a algo ”inteligente” hace falta basar el aprendizaje en conceptos como las leyes de Asimov. Sentido común, algo que ni de coña se está integrando en las IA. Ni hay intención de hacerlo a día de hoy, ya que requiere de niveles de conocimiento elevados como moral o empatía, fuera del alcance del simple aprendizaje por atiborramiento de datos y patrones.
Tú crees erróneamente que conocimiento es lo mismo que inteligencia. Crees que un salto cuantitativo exponencial en conocimiento va a hacer la magia, cuando en realidad aún faltan saltos cualitativos mucho más básicos (y por ahora insalvables) en inteligencia no cognitiva. Se está llenando un carro al que le faltan los caballos, y aún nadie se ha preocupado lo más mínimo de cómo solventar esa parte crucial.
#43 Bueno campeón. Yo he conseguido que funcione. Ha necesitado varios inputs por mi parte pero lo ha hecho. No es mágico pero es una herramienta muy potente. Y tengo ya los huevos pelaos en esto del software, pero nada. No he venido a convencerte de nada.
#80 Felicidades por descubrir las plantillas de código que otros llevamos utilizando desde hace décadas. Eso no te lo provee una IA.
Lo único para lo que estás usando la IA es para interpretar una pregunta y ahorrarte una búsqueda en Google/StackOverflow. El código lo está poniendo gente, iluso, exactamente igual que siempre. Y tú lo has de retocar para que funcione, exactamente igual que siempre.
La intervención de la IA en ese código es nula, empezando por que no es capaz de ligar un análisis de código con tu pregunta, sino sólo de ligar tu pregunta con la que otros hayan escrito en relación con el código. Como comprenderás la fiabilidad del resultado es pura lotería.
#41 Totalmente de acuerdo con tu última frase. Si damos con una inteligencia artificial real, con una potencia de cálculo mucho mayor a la nuestra, a lo mejor nuestra especie podría ser una muesca en la evolución para dar paso a otra. O me estoy flipando y poco más.
#41 Por mucho alucinaje que nos peguemos, mientras esas inteligencias no comprendan cosas tan básicas como que un señor que está dando conferencias no está muerto, no valdrán ni para procesar biografías.
Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.
#34 Yo he estado trabajando generando código en Java, Shell script y Python y... No sabéis lo que se nos viene encima. Que sea realmente inteligente o no es lo de menos
#21 Antes le pedías que te escribiera un cuento con un vampiro y lo hacía, y ahora salvo que la "hackees" dice que no, porque podría asustar a los niños, así de Flanders la han dejado.
Aunque puedo entender el porqué. La IA no sólo se alimenta de patrones de datos, también se realimenta con respuestas y patrones de aprobación. Si no se limitan los inputs que se le pueden dar es fácil joderla (convertirla en psicópata, en dictadora, en troll...).
#21 De acuerdo. Yo sigo insistiendo en que todavía no existe la IA, porque no es "inteligente".
Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...
Existirá, estoy convencido, pero todavía no la hay.
Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...
#67 Es un poco más que ”muchos datos analizados”, ya que es capaz de detectar patrones y proyectarlos en otros datos o incluso usarlos para generar datos nuevos (y no necesariamente verídicos). Esto se percibe mucho más claro en las IA que generan imágenes.
Pero sí, básicamente estoy de acuerdo con lo que dices. Se está montando tremenda paja en torno a algo que es sólo una pieza del puzzle. Para tener una inteligencia funcional hacen falta muchas más cosas que proveerla de una apariencia de conocimiento. Y a día de hoy nadie está investigando esas otras cosas.
#74 sí, lo de "analizar de una o varias maneras" era una manera burda de resumir lo que creo que es.
No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...
#67 hablando de ciertos temas (religión, política...) con la mayoría de personas, observas que no hay tanta diferencia. Ellos repiten los datos programados, según han visto en la TV u oído a otros... O aleccionados por los padres. Según esto, así te responden. Sí les cuestionas, cortocircuitan. No somos tan inteligentes como nos creemos.
Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.
#11 yo estoy convencido que en breve la investigación en casi cualquier campo estará controlada por IAs, y quien no las controle que se olvide de innovar.
#11 Hace un par de años, bastante antes de ChatGPT, lo estaba petando en GPT-2 un juego online impresionante llamado "AI Dungeon" con el que co-escribías historias con la IA. La noche que lo descubrí no podía parar, de lo espectaculares que eran los resultados.
¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.
Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.
#31 64gb ram (para el de 13 recomiendan 128gb), pero ademas la ram esta bajando mucho de precio, es algo que esta al alcance de mucha gente con una inversion bastante modesta. Ya tenemos un fork del servidor que va solo con cpu https://github.com/randaller/llama-cpu (original usa nvidia-cuda)
Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
#27 que va, por lo visto los modelos de 7b y 13b son muy eficientes y pueden correrse con un equipo medio alto de consumo.
Y estos no comen ni descansan.
La LLama que llama a tu casa haciendose pasar por el del banco por que alguien ha accedido a tu cuenta y necesita tus datos para verificar que eres tu y devolverte el dinero extraviado.
Ya veras tu que risas se nos vienen encima.
#14 Teniendo en cuenta la pasta que vale el hardware para poner en marcha un modelo de estos seguramente sea más barato contratar un call center en India como hacen ahora
#27 En realidad, una vez el modelo está entrenado, no se necesitan máquinas super impresionantes. Lo jodido es tenerlas evolucionando, para lo que si que necesitas mucha más capacidad de procesamiento, etc.
ChatGpt:
La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:
Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.
Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.
Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.
Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.
#2 Sip, el problema es que en estos momentos, hasta donde yo he podido buscar, no existen artículos que estén cubriendo esta noticia, por lo que he procurado recabar toda la info disponible. Creo que dada la relevancia de la noticia es preferible publicarla aquí en lugar de en Artículos, cuya visibilidad es más reducida.
#5 Gracias por el aporte. En los próximos días espero multitud de gente experimentando para bien o para mal. Y espero ver gran cantidad de información también.
#47 Si lo que quieres es "jugar" un rato, te compensa pillar un shadowpc o un runpod, el segundo sale a 1 dolar la hora.
Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable
Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€
#68 depende, es posible que hayan obtenido el control de la cuenta de github del desarrollador y no haya sido algo voluntario, entonces si podría ser similar a una filtración.
#17 simplemente la noticia es que en lugar de un form y una preaprobación ahora han puesto directamente el torrent, pero de filtración nada, lo han publicado y ya está, eso o se les ha revelado un desarrollador: https://github.com/facebookresearch/llama/pull/73/files
#17 Aparentemente es super facil tener acceso completo al modelo si eres un desarrollador o investigador, no como chatgpt que solo dan la api, aqui dejan descargarse el modelo reentrenarlo y de todo
Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.
Comentarios
Cuidado que puede ser Skynet distribuyéndose.
#10 ha decidido autopublicarse como torrent para tomar el control de los ordenadores
#13 Es una forma sencilla y eficaz para evitar que sus creadores puedan apagarla.
#10 Puede...
Meta new large lanugage model (similar to OpenAI one) called LLaMA is leaked via torrent
https://www.reddit.com/r/StableDiffusion/comments/11h2wpv/meta_new_large_lanugage_model_similar_to_openai/
Meta’s new 65-billion-parameter language model Leaked online
https://www.reddit.com/r/programming/comments/11hj5x1/metas_new_65billionparameter_language_model/
Jeffrey Ladish:
"Get ready for loads of personalized spam and phishing attempts. Open sourcing these models was a terrible idea"
Introducing LLaMA: A foundational, 65-billion-parameter large language model
https://ai.facebook.com/blog/large-language-model-llama-meta-ai/
https://es.wikipedia.org/wiki/Modelación_del_lenguaje
#1
Jeffrey Ladish:
"Both can be true:
1) Language models are really useful and can help people learn, write, and research more effectively
2) The rapid development of huge models is extremely dangerous and a huge contributor to AI existential risk"
I can see an argument for risk tolerance in the near term but I think that's failing to see the big picture
Language models can do a lot of awesome things for people that will be very good, and also some bad things that will be very bad
But the biggest risk comes from AGI
#3
La LLaMA de Yann LeCun, Premio Princesa de Asturias 2022 (https://www.fpa.es/es/premios-princesa-de-asturias/premiados/2022-geoffrey-hinton-yann-lecun-yoshua-bengio-y-demis-hassabis.html) estará echando humo.
ya me voy
#3 Repo con instrucciones mas detalladas de instalación y carga de los modelos:
https://github.com/RayHell/llama
#1 Mucho mejor que a esa tecnología solo tengan acceso las megacorporaciones y los gobiernos, seguro que hacen un uso ético de ellas
El azar hizo que pudiese usar ChatGPT durante sus primeros días en abierto, cuando no había sido restringido como ahora, y tuve claro que estaba presenciando el futuro. Todo esto se volverá exponencial. La gente que lo ha probado podría incluso volverse fácilmente adicta a este tipo de interacción, porque si tienes un modelo de lenguaje avanzado puedes inventarte parejas virtuales a medida. Imaginad lo que eso significa para la generación incel. Es como la película HER, pero sin lo bonito.
De aquí a los primeros sucesos de tipo "se quiere casar con su IA", "asesinó a diez personas porque la IA se lo dijo" o el "nuevo nominado al nobel de física es un niño de 14 años que trabaja con su IA"... sólo estamos en tiempo de descuento.
Os lo garantizo:
#11 En cuanto avance un poco y además se pueda "acoplar" a tu cerebro en modo de lectura incluso podremos vivir para siempre haciéndonos un backup a un robotaco con IA, un duplicado nuestro que viva eternamente y sin problemas de salud ni mentales, ni emocionales...
#11 Algunos os flipáis mucho con el tema de las IA. Mientras no posean sentido común seguirán siendo más estúpidas que el más estúpido de los humanos. Y el paradigma actual de IA no contempla en ningún sentido el desarrollo de sentido común.
P.D.: ¿Cuándo o en qué sentido se ha restringido el acceso a OpenGPT? En este momento la veo igual de accesible que siempre.
#21 El acceso no ha sido restringido, lo que se ha ido haciendo con el tiempo y los usuarios que han pasado por el modelo de lenguaje es "tunear" su capacidad y manera de dar respuestas. Al principio casi no tenía ninguna limitación o con argucias lógicas podías engañarle para que saltase sobre las pocas que tuviese, y podías hacer cualquier cosa: partidas de rol inventadas y narradas por la IA en directo, quimeras de personalidades, "novias virtuales", tutoriales con recetas para bombas, escribir libros completos... era bastante loco.
Y no lo estás entendiendo, a mi la IA "me da igual", de lo que soy consciente es de que un modelo de lenguaje de capacidades similares a GPT3 es capaz de dar respuestas con un estilo cultura e intelectual que supera a 9 de cada 10 personas. Otra cosa es si sus respuestas son hechos o si no puede sumar 2+2, pero lo innegable es que puede dar respuestas que parecen reales y humanas, y a mucha gente le basta con eso, para muchas cosas, aunque vaya contra nuestra intuición.
Y eso va a traer MUCHAS movidas.
#25 Tú lo has dicho, sus respuestas PARECEN lo que no son. De entrada si no sabe la respuesta se la inventa. Comercializar eso como fuente de inteligencia sería una estafa.
Me creo que haya idiotas que se contenten con eso, al estilo hikikomori. Pero no dejaría de ser una estafa.
#34 Es posible que sea una estafa. Pero hay mucha gente de muy alto nivel intelectual que de idiotas tienen muy poco muy asustada con esto. No digo con esto que tú no tengas ese nivel, claro...
#34 La cuestión clave aquí es que se ha dado con el "grial" de la inteligencia artificial, y no ha resultado ser la capacidad de proceso (como muchos creíamos), si no el entrenamiento. Esto quiere decir que a partir de ahora la evolución será exponencial. Y lo que hoy son respuestas que parecen reales, mañana serán respuesta reales, y pasado mañana en combinación con otras redes neuronales estaremos en la antesala de la inteligencia artificial general. Y ni siquiera habremos necesitado cerebros cuánticos ni otras movidas de ciencia ficción, lo cual una vez más nos da una idea de nuestra escala como especie. Pero el tema de verdad, en mi humilde opinión, es todo lo que ocurriá entre medias, con una civilización que va a parir una nueva forma de inteligencia antes de asegurar que su propia inteligencia sea digna de perdurar.
cc/ #37
#37 ”La gente de muy alto nivel intelectual” sabe que ni remotamente se puede llamar inteligencia al paradigma de IA actual. Ya te aseguro yo que asustados no están. ¿Por qué coño iban a estarlo?
#41 Es justo al revés de como lo cuentas. El paradigma de aprendizaje, entrenamiento y reconocimiento de patrones existe desde hace unas dos décadas (entonces se llamaban ”redes neuronales” y punto), lo único que ha cambiado es justamente la capacidad de procesamiento. No es ningún grial ni es nuevo, sólo es más potente y eso da resultados más vistosos.
Y no, esas respuestas que parecen reales ni siquiera van a ser útiles mientras una máquina no posea algo tan trivial como SENTIDO COMÚN, algo que no persigue ni puede lograr el actual paradigma de IA, basado únicamente en tuneo por reconocimiento de patrones.
#42 Claro, campeón, que el programa autogenerado funcione o no es lo de menos.
Jezú, qué flipados sois algunos.
#43 A ver, si antes de ponerse con el lenguaje, precisamente las redes neuronales fueron capaces de resolver el plegado de las proteínas... ¿de verdad crees que les va a costar emular una inteligencia humana? Repito, es cuestión de tiempo, y el que lo niegue se va a dar de bruces contra el muro de la exponencialidad.
#48 ”¿de verdad crees que les va a costar emular una inteligencia humana?”
¿Entiendes que lo que diferencia a un ser inteligente de uno que no lo es radica en el SENTIDO COMÚN, y NO EN EL CONOCIMIENTO? ¿Y entiendes que no hay forma de emular el sentido común mediante simple tuneo por reconocimiento de patrones? En sentido común hasta un gato gana a una IA. Y así va a seguir siendo durante muchísimo tiempo ya que nadie está investigando en esa dirección.
Si a una IA le preguntas cómo resolver el calentamiento global te va a responder que exterminando a la Humanidad, una respuesta tan cierta como inútil. Basándote en pura lógica amoral es la respuesta más correcta posible, pero llamar a eso inteligencia es ser un canelo.
Y eso no va a cambiar con el paradigma actual basado en aprendizaje por datos y realimentación por inputs. Para llamar a algo ”inteligente” hace falta basar el aprendizaje en conceptos como las leyes de Asimov. Sentido común, algo que ni de coña se está integrando en las IA. Ni hay intención de hacerlo a día de hoy, ya que requiere de niveles de conocimiento elevados como moral o empatía, fuera del alcance del simple aprendizaje por atiborramiento de datos y patrones.
Tú crees erróneamente que conocimiento es lo mismo que inteligencia. Crees que un salto cuantitativo exponencial en conocimiento va a hacer la magia, cuando en realidad aún faltan saltos cualitativos mucho más básicos (y por ahora insalvables) en inteligencia no cognitiva. Se está llenando un carro al que le faltan los caballos, y aún nadie se ha preocupado lo más mínimo de cómo solventar esa parte crucial.
#43 Bueno campeón. Yo he conseguido que funcione. Ha necesitado varios inputs por mi parte pero lo ha hecho. No es mágico pero es una herramienta muy potente. Y tengo ya los huevos pelaos en esto del software, pero nada. No he venido a convencerte de nada.
#80 Felicidades por descubrir las plantillas de código que otros llevamos utilizando desde hace décadas. Eso no te lo provee una IA.
Lo único para lo que estás usando la IA es para interpretar una pregunta y ahorrarte una búsqueda en Google/StackOverflow. El código lo está poniendo gente, iluso, exactamente igual que siempre. Y tú lo has de retocar para que funcione, exactamente igual que siempre.
La intervención de la IA en ese código es nula, empezando por que no es capaz de ligar un análisis de código con tu pregunta, sino sólo de ligar tu pregunta con la que otros hayan escrito en relación con el código. Como comprenderás la fiabilidad del resultado es pura lotería.
#82 Tú estás hablando de copilot. Y esto no es lo mismo. He usado ambos
#84 No lo entiendes. Lo que he explicado es aplicable a cualquier IA existente, no sólo al asistente que tú digas.
#41 Totalmente de acuerdo con tu última frase. Si damos con una inteligencia artificial real, con una potencia de cálculo mucho mayor a la nuestra, a lo mejor nuestra especie podría ser una muesca en la evolución para dar paso a otra. O me estoy flipando y poco más.
#41 Por mucho alucinaje que nos peguemos, mientras esas inteligencias no comprendan cosas tan básicas como que un señor que está dando conferencias no está muerto, no valdrán ni para procesar biografías.
Y ese es el caso y lo será en el largo plazo. Se trata de IAs que no entienden un chorro de meao de lo que te están diciendo, por mucho que puedan resultar útiles, o molonas, o resultonas, sólo con dar unas respuestas que dan el pego y poco más.
#34 Yo he estado trabajando generando código en Java, Shell script y Python y... No sabéis lo que se nos viene encima. Que sea realmente inteligente o no es lo de menos
#34 Tal vez quienes le encuentran utilidad no sean los idiotas...
#88 Hasta un palo puede ser útil. Pero creer que es un ente inteligente y pensar que va a sustituir a los humanos sí es de idiotas.
#21 Antes le pedías que te escribiera un cuento con un vampiro y lo hacía, y ahora salvo que la "hackees" dice que no, porque podría asustar a los niños, así de Flanders la han dejado.
#33 Una lástima no poder jugar ”a tope”.
Aunque puedo entender el porqué. La IA no sólo se alimenta de patrones de datos, también se realimenta con respuestas y patrones de aprobación. Si no se limitan los inputs que se le pueden dar es fácil joderla (convertirla en psicópata, en dictadora, en troll...).
#21 De acuerdo. Yo sigo insistiendo en que todavía no existe la IA, porque no es "inteligente".
Sólo son muchos datos analizados de una o varias maneras y nada más. Pero no tiene ni idea de lo que son ni nada...
Existirá, estoy convencido, pero todavía no la hay.
Y también creo que está sobrevalorada. Se cree que va a conquistar todo y hacer todo obsoleto... demasiado "hype" hay con eso...
#67 Sobrevalorada ni de broma, lo que pasa es que lo queremos ahora y ya. Y no somos capaces de ver más allá del día a día.
#67 Es un poco más que ”muchos datos analizados”, ya que es capaz de detectar patrones y proyectarlos en otros datos o incluso usarlos para generar datos nuevos (y no necesariamente verídicos). Esto se percibe mucho más claro en las IA que generan imágenes.
Pero sí, básicamente estoy de acuerdo con lo que dices. Se está montando tremenda paja en torno a algo que es sólo una pieza del puzzle. Para tener una inteligencia funcional hacen falta muchas más cosas que proveerla de una apariencia de conocimiento. Y a día de hoy nadie está investigando esas otras cosas.
#74 sí, lo de "analizar de una o varias maneras" era una manera burda de resumir lo que creo que es.
No es intentar desmerecer la cantidad de algoritmos y demás que hay detrás de lo que hay actualmente, sólo que no es, al menos para mí, de momento "inteligente"...
#67 hablando de ciertos temas (religión, política...) con la mayoría de personas, observas que no hay tanta diferencia. Ellos repiten los datos programados, según han visto en la TV u oído a otros... O aleccionados por los padres. Según esto, así te responden. Sí les cuestionas, cortocircuitan. No somos tan inteligentes como nos creemos.
Yo, principalmente, veo la diferencia en las emociones, aunque en nuestra sociedad estas están mal vistas, y tendemos a ocultarlas o dejarlas en un segundo plano.
#11 yo estoy convencido que en breve la investigación en casi cualquier campo estará controlada por IAs, y quien no las controle que se olvide de innovar.
#11 "cuando no había sido restringido como ahora"
#11 la tercer noticia, me parece imposible, pero si fuese cierta no veo ningún problema.
#11 El Chat GTP "hace pocos días ha aprobado el examen de licenciatura en Medicina de EEUU (US Medical Licensing Examination)" El Confidencial.
#11 ¿La IA es el nuevo juego de rol que nos va a convertir en asesinos de la katana?
#11 Hace un par de años, bastante antes de ChatGPT, lo estaba petando en GPT-2 un juego online impresionante llamado "AI Dungeon" con el que co-escribías historias con la IA. La noche que lo descubrí no podía parar, de lo espectaculares que eran los resultados.
¿Para qué lo utilizaba mucha gente? Para generar historias NSFW y pajearse.
Hasta el punto que los de AI Dungeon un año después tuvieron que restringirlo un montón porque veían que la gente lo dedicaba a montarse fantasías de zoofilia y pederastia.
Que empiece la fiesta!
¿Nos podeis traducir el titular a los que follamos? Gracias.
#59
#59 cuanta sutilidad y mala baba en tan pocas palabras. Mis dieses.
Kabooom! buen provecho. 👍
#31 64gb ram (para el de 13 recomiendan 128gb), pero ademas la ram esta bajando mucho de precio, es algo que esta al alcance de mucha gente con una inversion bastante modesta. Ya tenemos un fork del servidor que va solo con cpu https://github.com/randaller/llama-cpu (original usa nvidia-cuda)
Y dale tiempo a que salgan versiones con soporte para AMD, mejoras, que otros projectos sean capaces de cargar estos modelos, larguisimo etc, esto va a ser otro stable-diffussion, o al menos tiene toda la pinta.
#27 que va, por lo visto los modelos de 7b y 13b son muy eficientes y pueden correrse con un equipo medio alto de consumo.
Y estos no comen ni descansan.
#28 Interesante, pensaba que aun se necesitaban cantidades grandes de vram como chatgpt, desde luego si es así cambia mucho todo
La LLama que llama a tu casa haciendose pasar por el del banco por que alguien ha accedido a tu cuenta y necesita tus datos para verificar que eres tu y devolverte el dinero extraviado.
Ya veras tu que risas se nos vienen encima.
#14 Teniendo en cuenta la pasta que vale el hardware para poner en marcha un modelo de estos seguramente sea más barato contratar un call center en India como hacen ahora
#27 En realidad, una vez el modelo está entrenado, no se necesitan máquinas super impresionantes. Lo jodido es tenerlas evolucionando, para lo que si que necesitas mucha más capacidad de procesamiento, etc.
#27 El acento les delata
#60 Pos mira, si algún día lo monto te aviso. Aunque por lo que he leido, no le llega a la suela a chatgpt.
Y ese puedes probarlo en visual studio code, con esta extensión:
https://github.com/timkmecl/chatgpt-vscode
Y registrandote en openai (te dan 5 dolares de prueba que dan de sobra para matar el gusanillo)
#73 Le echo un vistazo. Gracias!
ChatGpt:
La filtración y distribución del modelo de lenguaje LLaMa de Inteligencia Artificial, similar al de OpenAI, puede tener varias consecuencias técnicas para la humanidad:
Posible aumento en la competencia de IA: LLaMa es un modelo de lenguaje de alta calidad y puede utilizarse en diversas aplicaciones de inteligencia artificial. Su filtración y distribución pueden aumentar la competencia en el campo de la IA, lo que podría llevar a una mayor innovación y desarrollo en este campo.
Riesgos de seguridad cibernética: La filtración del modelo LLaMa también puede plantear riesgos de seguridad cibernética, ya que puede ser utilizado por ciberdelincuentes para generar contenido falso y malicioso en línea. Además, también puede ser utilizado para realizar ataques de phishing o para engañar a las personas mediante la manipulación de texto generado por IA.
Posible aumento de la desinformación: Al igual que con cualquier modelo de lenguaje de IA, LLaMa también puede ser utilizado para generar texto que puede ser utilizado para propagar información errónea o desinformación. La filtración del modelo podría aumentar la cantidad de información falsa que se difunde en línea.
Aumento de la capacidad de procesamiento de la IA: El modelo LLaMa es grande y complejo, lo que significa que puede requerir mucha capacidad de procesamiento y almacenamiento para funcionar. Su filtración y distribución pueden aumentar la capacidad de procesamiento y almacenamiento necesario para entrenar y ejecutar modelos de lenguaje de IA.
#64 Al final volvemos a la enciclopedia Larousse
#0 Para evitar el #microblogging estaría bien que escribieras la información en Artículos
#2 sí, pero el contenido está bien reflejado así que aún así no lo consideraría microblogging.
#2 Sip, el problema es que en estos momentos, hasta donde yo he podido buscar, no existen artículos que estén cubriendo esta noticia, por lo que he procurado recabar toda la info disponible. Creo que dada la relevancia de la noticia es preferible publicarla aquí en lugar de en Artículos, cuya visibilidad es más reducida.
#5 Gracias por el aporte. En los próximos días espero multitud de gente experimentando para bien o para mal. Y espero ver gran cantidad de información también.
LLaMA mucho la atención pero esto no lo hace funcionar cualquiera en cualquier PC
#12 En una semana tendrá miles de instalaciones en los r/homelabs de medio mundo.
#40 como por ejemplo cuál sería el hardware más asequible?
#47 Si lo que quieres es "jugar" un rato, te compensa pillar un shadowpc o un runpod, el segundo sale a 1 dolar la hora.
Si lo que quieres es montarlo en tu casa... pues una grafica con 24gb de vram, 32gb de ram... y 1tb de ssd eso para el modelo pequeño, el grande es inabarcable
Y aún así, saldrá caro, una grafica de esas no vale 500€, ni 1000€
#49 a ver en serio, que requisitos hacen falta?. los 32 GB de RAM y el tb SSD ya los tengo
valdría cualquiera de estas gráficas?
https://pangoly.com/en/hardware/vga/gpu-memory-size/24-gb
#51 https://www.amazon.es/EVGA-GeForce-24G-P5-3987-KR-Technology-Backplate/dp/B08HGS1SXH/ref=sr_1_2?__mk_es_ES=%C3%85M%C3%85%C5%BD%C3%95%C3%91&crid=2I1Z2Z7HH4MAV&keywords=nvidia+3060+24gb&qid=1677969320&sprefix=nvidia+3060+24gb%2Caps%2C93&sr=8-2
Eso.
La cpu, tendrá que ser algo acorde, un i7 o un ryzen 9, aunque lo primordial es la gráfica.
#52 gracias.
joder ahora que la gráficas estaban bajando se van a volver a ir por las nubes por esta mierda...
#55 nah, desde lo de la pandemia no han bajado, sigue habiendo escasez de chips.
#49 Madre mía, vaya requisitos. Vamos, que yo con mi portátil sólo podría "emular" la inteligencia de un telespectador compulsivo de Tele5.
#62 Bueno, míralo por el lado bueno, tienes para el computo global de votantes de vox y podemos juntos
Aunque no es mucho consuelo la verdad
Semanas esperando y NO me carga el magnet... Router/nat/firewall/vpn y encima me estoy meando 😭 😭 😝
Me espero a que alguien suba una imagen de máquina virtual con todo ya listo, que últimamente me da mucha pereza
#35 Y ve preparando el equipo, que para el modelo de 7B necesitas una grafica con 16gb de vram, y 16 gb de ram
#40 rayos. Me queda corta la gráfica.
A ver si con una 4080
#53 Pues andan por ahi de precio...
Y ya te digo, eso es lo minimo ninimo, de ahi para arriba si quieres mover el modelo de 65 billones....
Por eso te decía lo del runpod, pagas que se yo 10 o 20€ lo pruebas unas horillas, te aburres y lo quitas, igual si me da el venazo lo hago yo un día
#54 Molaría que re-alquilases el acceso para los que no nos apetece montar todo el tinglado, pero tenemos curiosidad por jugar un poco con esa IA.
#54 si quieres mover el de 65 billones necesitas eso mismo pero de €
#90 en teoría, 10 gráficas de 24gb cada una y 240gb de ram.
así a ojo unos 50000€ solo con eso, luego hay que sumar 10 placas, 10 micros, 10 fuentes...
la broma puede andar por los 100000€
#92 nada que un máster racer no pueda gastar.
A ver si no va a tener tiene bicho dentro...
En cualquier caso, una vez filtrado, será imposible de retirar
A ver, lo importante. Está capada a lo woke o es una IA anarquista y salvaje? Porque para IAs políticamente correctas, ya tenemos a ChatGPT...
#0 El enlace debería venir en la descripción.
[magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA](magnet:?xt=urn:btih:ZXXDAUWYLRUXXBHUYEMS6Q5CE5WA3LVA&dn=LLaMA)
https://github.com/facebookresearch/llama
#68 depende, es posible que hayan obtenido el control de la cuenta de github del desarrollador y no haya sido algo voluntario, entonces si podría ser similar a una filtración.
Y para que le sirve eso a un ciudadano mortal?
#22 Poder ejecutarlo en tu hardware sin depender de empreas ni "nubes" ajenas y hacer con ello lo que te de la gana sin restricciones
#30 algún tutorial cómo hacerlo?
Vamos a morir todos.
No entiendo. Si se ha filtrado y Meta no lo ha autorizado, qué hace el enlace magnet de torrent en el Github de open source de Meta?
#17 simplemente la noticia es que en lugar de un form y una preaprobación ahora han puesto directamente el torrent, pero de filtración nada, lo han publicado y ya está, eso o se les ha revelado un desarrollador: https://github.com/facebookresearch/llama/pull/73/files
#19 Entonces es errónea/sensacionalista?
#17 Aparentemente es super facil tener acceso completo al modelo si eres un desarrollador o investigador, no como chatgpt que solo dan la api, aqui dejan descargarse el modelo reentrenarlo y de todo
Supuestamente alguien ha metido la pata y lo ha publicado, con su link personalizado, es decir, que meta puede saber perfectamente quien fue.