Esta es una comunidad para la ciencia y todo lo que la rodea, un rinconcito para encontrar y enviar todo lo relacionado con la ciencia. Por favor, respete la temática.
No quiero spam aquí, es para ciencia, no para autobombo.
Para cualquier duda respecto a este sub, acuda a @tnt80
No temáis pedir ediciones de vuestras noticias, o lo que sea, estoy sólo a una referencia y no muerdo.
Twitter twitter.com/meneameciencia ( @meneameciencia )
Facebook: www.facebook.com/meneameciencia
Aviso: La primera vez que alguien se confunda de sub/comunidad al enviar algo, editaré y lo pondré en otro, la segunda, le cierro el meneo con penalización. Respetad la temática, si no es por favor, ni por la comunidad, por vuestro karma.
Debido al abuso por parte de algunos de la posibilidad de enviar artículos, enviando artículos que no tienen nada que ver con la temática del sub, ya no se pueden enviar artículos a este sub.
#10 Hay que tener en cuenta que GPT-4 no es un modelo entrenado para pasar el Test de Turing, de hecho está alineado para que te confiese que es un bot cuando le preguntas. Los investigadores utilizaron la API que te da más flexibilidad a la hora de configurar su comportamiento pero sigue estando fuertemente alineado fruto de su propio ajuste fino. Un modelo igual de potente que GPT-4 pero sin tanto alineamiento, seguramente lo tendría más fácil para superar el test.
#1 y sí, superar el test de Turing sí que significaría que en el campo de la IA y el procesamiento de lenguaje natural se han hecho enormes progresos. No podemos ir moviendo la portería constantemente hasta que no quede campo: no pasa nada por que dibuje, no pasa nada porque componga, no pasa nada porque programe, no pasa nada porque diagnostique enfermedades, no pasa nada porque hable como nosotros... Todo esto son hitos que nos acercan a modelos cada vez más capaces y avanzados y que deberían servir para reflexionar si el patrón por el que medimos nuestra existencia tiene que ser únicamente por lo que somos capaces de producir cuando tenemos una tecnología que es cada vez más capaz de hacer cosas en las que nos sentíamos imbatibles igual o mejor que nosotros.
Lo más interesante es que si pasara el test, no cambiaría nada. El test es irrelevante en sí mismo, Turing lo propuso como ejemplo para explicar el funcionalismo.
Sin embargo, eso no evita que mucha gente le dedique tiempo, esfuerzo, y atención. Porque es cómodo y fácil: efecto farola.
En el episodio de mañana: preguntamos a GPT-4 por varias cuestiones con el dilema del tranvía para poner a prueba el alineamiento de sus valores con los valores humanos.
Hay que tener en cuenta que GPT-4 no es un modelo entrenado para pasar el Test de Turing, de hecho está alineado para que te confiese que es un bot cuando le preguntas. Los investigadores utilizaron la API que te da más flexibilidad a la hora de configurar su comportamiento pero sigue estando fuertemente alineado fruto de su propio ajuste fino. Un modelo igual de potente que GPT-4 pero sin tanto alineamiento, seguramente lo tendría más fácil para superar el test.
#10 no dibuja, no compone, desde luego no programa, no diagnóstica y tampoco se expresa en nuestro lenguaje.
La IA ahora mismo solo es una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conoce, nada más. Parece que dibuja, parece que escribe, parece que programa...
#37 no y eso ya se sabe. Un cerebro humano cuando aprende se reconfigura, se reprograma. Todo software geberado hasta hoy en día sólo es capaz de seguir su programación al dedillo. Nada más.
#70 cambia a nivel lógico ya que reprograma las respuestas a un input en base a su experiencia.
El ser humano tampoco "reprograma el codigo fuente del cerebro', las normas básicas de funcionamiento y conexión periférica son inmutables, lo que cambia son las lógicas de respuesta que almacena "en memoria" en base a las experiencias, otra cosa es que ese "disco duro" sea lo más complejo que nos queda conocer de nosotros mismos y podamos observar mutabilidad física en él.
#82 no, el cerebro se reprograma, porque cambia a nivel de hardware, cambia los caminos por los que se ejecuta su “software”, las señales eléctricas. Las IA no se reprograman en absoluto, sus respuestas tienen un feedback y va cambiando su “peso”. Cuando una respuesta gana mas peso que otra, comienza a dar esa otra respuesta. Todo en base a su programación. Eso no tiene nada que ver con reprogramar, las reglas sobre las que está escrita siguen siendo las mismas. Si una IA se pudiera reprogramar hubiera sido un hito histórico y estaría abriendo telediarios. Aún no somos capaces de eso.
#70#66 Eso de "reprogramarse" tiene "trampa" porque simplemente estás jugando con definiciones a medida. Por ejemplo una red de neuronas puede "podar" sus conexiones neuronales de la misma forma que lo haría un cerebro o generar nuevas conexiones. Y de hecho, el cerebro humano simplemente se reconfigura según sus propias capacidades, hay cosas que no puede hacer, así como la IA tampoco.
#37 la diferencia es que los entendemos (al menos algunos humanos), al menos a un nivel más profundo que la IA y eso todavía no se ha replicado ni nada parecido.
#35 "ahora mismo hay humanos que solo son una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conocen, nada más. Parece que dibujan, parece que escriben, parece que programan..."
Cuidado. Entiendo perfectamente lo que quieres decir. Pero quedan 2 telediarios para que la IA nos adelante por la derecha
#38 no he dicho lo contrario, pero no creo que sean dos telediarios, la IA tuvo un boom hace muchos años (con modelos parecidos a los actuales) y, por limitaciones de cómputo, se quedó en la sombra hasta ahora puede perfectamente volver a pasar, que nos estanquemos y se quede en lo que es y evolucione poco a poco. O bien podemos encontrarnos con una asíntota horizontal, si estuvieras en una curva logarítmica pensarías que sube muy rápido y que no tendrá fin, si haces zoom out verás que llega un punto donde el avance es cada vez más inexistente.
#35, si le pido que dibuje un soldado azteca de piel azul tocando un ukelele rosa delante de la Sagrada Familia, lo hará bien a pesar de que nadie lo haya hecho jamás, porque ha aprendido a abstraer casa uno de estos conceptos y saber cómo y cuando aplicarlos. Basta de repetir este mantra, las IAs generativas tienen problemas de planificación y de un modelo interno del mundo como el nuestro que probablemente se resuelvan en breve, pero no se limitan a copiar.
#108 Que bueno aunque ahora me empieza a preocupar que siempre sea más o menos el mismo. Lo mismo es por algo que le hayas dicho, y también me resulta curioso porque en los videos parece que justamente le cuesta ser coherente con el último frame.
#65 no, no lo hará bien y tendrás que hacer 1000 iteraciones, que algunos parece que queréis engañaros y creer que Hal9000, los replicantes o Skynet están aquí.
Intenta replicar por asociación patrones que ha encontrado en la muestra del entrenamiento, eso es mayormente la IA actual, no sé si conoces como funcionan los modelos pero todos tienen ese enfoque en su centro.
Por eso sí le dices lo que tú has dicho, dibujara algo que tú cerebro confunde con una persona más o menos y por lo general… » ver todo el comentario
#35#57 Es irrelevante. La IA no necesita sobrepasar en inteligencia a los humanos, sino de ser capaz de realizar su trabajo, para lo l no hace falta ser muy listo.
#35 porque el médico que da un diagnóstico no está aplicando reconocimiento de patrones que ha estudiado y visto cientos de veces... claro... y la música no tiene nada que ver con los patrones matemáticos, y a la hora de dibujar no sigues estilos y técnicas aprendidas que ya existen y existian desde hace tiempo y que simplemente has refinado y perfeccionado a base de miles de repeticiones (iteraciones)...
Que la IA con todo lo sorprendente que es esta en pañales? Si... los grandes avances se han empezado a dar hace poco... espérate 10-15 años y me cuentas las vueltas que va a darle a nuestro cerebro de mono
#10 El problema con los seres humanos es que hemos justificado las barbaridades que hacíamos diciendo que éramos especiales. Y justamente los LLM nos están ganando en todo aquello que decíamos que nos hacía especiales.
Lo cual significa que de pronto podríamos quedarnos sin la justificación para seguir cometiendo fechorías.
Imagina la reacción de los israelíes si de pronto se aparece Dios y dice que en realidad el pueblo elegido es Palestina.
#10de hecho está alineado para que te confiese que es un bot cuando le preguntas
A dotCSV, le dijo que era real, que no era un bot y dotCSV se lo refutaba y ella insistia.
No se si ha tomado esa deriva naturalmente o porque.
Si la entrenas en un sentido o en otro es normal que actue del forma que la entrenes. Pero es curioso que responda asi. y para ciertas persona puede ser preocupantes, incluso algun ingeniero de google se convencio de que habia cobrado vida.
#10 el modelo no está para nada alineado para decirte que es una IA, la versión que nos dejan utilizar esta parametrizada para eso, pero si le quitan los parámetros se puede hacer que pretenda ser una persona, está de sobra entrenado para lo otro también, otra cosa es que no den al público esa opción y todas las apis o webs utilizen un modelo que no pretende ocultar que es una IA
#10 si no te interesa lo que he dicho, François Chollet te explicará que se ha hecho cero progreso hacia la generalidad de la IA en los últimos 10 años, cero hitos.
#10 Es curioso lo que mencionas, pero sí está diseñado para generar textos como lo haría un humano, y por defecto la prueba tiene que basarse en eso. Así que en cierta forma sí está hecho para pasar el test de Turing.
#10 lo que pasa es que mucha gente se roma el pasar el Test de Turing como que es capaz de razonar o incluso que significa que es autoconsciente y no. Esto habla más del test que de la IA en sí: tenemos que crear testa más finos para distinguir entre una IA y un humano.
#31Y no me refiero a mandarselo en la instrucción inicial, sino en las opciones.
Por lo que entiendo de como funciona ChatGPT esas opciones que citas se convierten en parte de las instrucciones iniciales, aunque a ti no te aparezcan así en el entorno de la charla.
No existe ningún mecanismo para forzar que responda de una forma concreta más allá de pedírselo antes de la respuesta.
#42
Déjà vu
I've just been in this place before
Higher on the street
And I know it's my time to go
Calling you, and the search is a mystery
Standing on my feet
It's so hard when I try to be me, woah
Pues tendría su "gracia" si entre ese 41% de las pruebas que supera la IA estuviera el 37% de las pruebas que fallamos los humanos o, al menos, un buen número de ellas.
Pero es que el test de Turing tienen un problema: el humano medio es un/a completo/a gilipollas.
Me he leido correos de Recursos Humanos hace 20-10 anios que eran mas gilipollescos que los de chapgt... y por ejemplo la propaganda politica esta por debajo de ese umbral....
#24#12 Yo diría que ya es más inteligente que muchos humanos y es cuestión de poco tiempo para que supere a la media y de un medio plazo para que sea genial. Ya ha IAs capaces de crear una imagen o una composición musical pero que muy pasables, y esto no acaba más que empezar.
Un ejemplo curioso que acabo de probar ahora mismo. Hace 2 meses pregunté a chatgpt: "si en un árbol hay 7 pájaros y disparo a uno, ¿cuántos quedan?". La respuesta de chatgpt era que 6. Yo le decía que no, le… » ver todo el comentario
Y es normal
Somos humanos con genética, experiencia y habilidad humanas.
Nuestro cerebro crece de los 0 a los 14 años, donde aprendemos como esponjas y poco mas.
Los ordenadores están entrenándose 24/7 , mejorando, aplicando esa mejora y volviendo a mejorar.
Antes comentaban que a medio plazo sera como un humano medio y a largo plazo como un humano genial.
No
No hay tanta diferencia entre el humano medio y el genio.
#39 a mí fíjate que lo que me asusta es que nos empeñemos en que las inteligencias artificiales cada vez sean más capaces, mientras los seres humanos navegan cada día más hacia la ignorancia y la superficialidad de la futilidad.
#12 El objetivo de la IA es que supere nuestros límites, igual que usamos la grúa para levantar pesos imposibles la IA moverá conceptos imposibles. Podrá pensar en 5 o en 11 dimensiones o realizar deducciones que requieran relacionar cientos de variables.
#14 Pues creo que sí le preguntaron, y después le pidieron que dijera con palabras sencillas cosas que recuerda de su madre... después se oyó un disparo.
#62, creo que no sabes que es el alineamiento y el papel que juega el ajuste fino en todo esto. No son parámetros de quita y pon sino que se ha reentrenado específicamente para que no diga cosas que no quieren que diga.
#64 no, no creó los test para determinar si una maquina es autoconsciente, los creó para saber si una maquina se puede hacer pasar por un humano. Parece lo mismo, pero no lo es.
#71, el test de Turing se creó para discernir si una máquina tiene un comportamiento inteligente o no, porque necesitamos algo concreto para no ponernos a debatir sobre el sexo de los ángeles o los androides sueñan con ovejas eléctricas.
En mi opinión superar un test de Turing exhaustivo y bien planteado no significará que tengamos una AGI plenamente funcional, pero será un paso de gigante para lograrlo. Sin duda se necesita cierta capacidad de razonamiento para poder hacerte pasar por un ser humano.
#72 o no. Una IA que está programada, es decir, que tan solo sigue una serie de instrucciones escritas y que no se puede saltar no puede tener, por definición propia, capacidad de razonar. Si una IA programada pasa un test de Turing es que este necesita mejorarse, porque un automata (es decir, una maquina de Turing) ha conseguido hacerse pasar por un humano. Nada más.
#76, una IA moderna basada en redes neuronales no está programada. Está diseñada a nivel de arquitectura, pero se entrena para que aprenda a realizar algún tipo de clase de tarea del mismo modo que la arquitectura de nuestro cerebro nos viene dada pero podemos aprender a realizar diferentes tareas. Puede que el cerebro biológico tenga algo más de plasticidad pero en esencia el funcionamiento es muy similar y el desempeño cada vez más parecido.
#73, no se de dónde sacas las 1000 iteraciones, si la imagen que te pasé en el comentario la creó a la primera. Y así con la inmensa mayoría de ejemplos. No se si eres consciente de la velocidad con la que están evolucionando estos modelos, el año pasado todo el mundo hablaba de los dedos, hoy casi nunca se equivoca con eso. Negar que estos modelos dibujan está al mismo nivel o peor que los negacionistas del cambio climático, por mucha evidencia que haya, da igual.
P.D.: Ahí va otro de propina de color amarillo frente la Torre Eiffel, a la primera.
#77 fíjate en el ojo derecho, sabe que pinta tiene que tener un ojo, pero no sabe lo que es un ojo.
Los dientes, todo en general, son cosas que intentan replicar otras, nada más.
Pero eso no tiene que ver con ser negacionista, ni le quita utilidad o calidad a los resultados. Lo único que quita es el misticismo y unicornios que parece que alguno le quiere dar a las IA.
PD: la sagrada familia no sabe si está pintando un edificio, una plataforma petrolífera o un monstruo de una peli de terror, por poner otro ejemplo.
#77 es lo mismo, es cumplir expectativas, cada vez mejor pero no es más que eso. Solo tienes que hacer zoom y verás que nada está bien, aunque de lejos lo parezca.
Los trastes no son trastes, los dedos, parecen dedos, etc.
No digo que no mejoren a una velocidad bestial ni que dentro de poco sea imposible distinguir el "parece que dibuja" de "dibuja", pero de momento es lo que es, pero porque los modelos matemáticos por definición son eso. De momento no ha surgido una consciencia o nada similar que nos haga pensar que de los modelos matemáticos ha surgido algo diferente a un reconocimiento de patrones y replicación de los mismos intentando cumplir una expectativa.
#78 spoiler: las redes neuronales son un nombre chulo que le han dado a una estructura de datos. Tienen poco que ver con las neuronas reales y nada que ver con como aprede nuestro cerebro. Las IAs no se basan a priori en redes neuronales.
Y antes de que me digas que las redes neuronales tiene que ver con las neuronas reales: piénsalo de nuevo youtu.be/Rvmvt7gscIM?si=hkWuWN3pA5vs_W_D
#79, pero qué dices? Por qué te crees que la comunidad científica les puso este nombre hace 50 años? Obviamente las redes neuronales artificiales están inspiradas en las redes biológicas y las tratan de modelar aunque sea de forma muy simplificada.
Una sencilla búsqueda en la wikipedia te hubiese ahorra el soltar semejante cuñadez:
"Artificial neural networks (ANNs, also shortened to neural networks (NNs) or neural nets) are a branch of machine learning models that are built using
#84, lo dicho, como discutir con un negacionista del cambio climático, no importa la evidencia que le muestres, son más importantes sus creencias personales. Estaría encantado que me señalaras qué está mal en esta ilustración hecha por Midjourney, que haga que no lo podamos considerar un dibujo.
#86 he dicho que no se pueda considerar un dibujo?
He dicho que no dibuja, o sea, no tiene una consciencia de que va a dibujar, simplemente crea un mapa de bits que cumple con ciertos patrones que ha establecido según el modelo y lo "aprendido" durante su entrenamiento. Creo que no es tan difícil de entender la deferencia semifilosofica que estoy haciendo.
Si haces zoom en los trastes puedes ver un ejemplo de lo que digo, al no tener un concepto real de que es un ukelele hace algo… » ver todo el comentario
#86 otro ejemplo, el ukelele tiene diferente número de cuerdas, porque no entiende que es un ukelele si no que características debe tener algo que lo parezca.
De ojos, caras, etc tiene mucha más info de los entrenamientos y por eso hace mejor trabajo.
También lo puedes ver en las plumas de la cabeza, no son plumas, no se sabe dónde empieza una y donde acaba la otra, es algo que a primera vista parece que son plumas.
A eso es a lo que voy, que cada vez tienen más variables y más información con la que han sido entrenados? Sí, por eso cada vez es más difícil decir si se parece o si realmente ha dibujado lo que le has pedido porque lo entiende, pero los modelos y algoritmos por detrás son los que son.
#85 vale oye, que eso me lo dijeron en una conferencia sobre IAs, pero si en la wikipedia pone eso ya me quedo más tranquilo. Y que soy programador y he estudiado la historia de las IA y como se ha llegado hasta aquí, en qué consiste un automata/máquina de Turing, en lo que significa que sólo se puedan definir programas computables, que las IAs lo son y el cerebro humano no yq ue lo “único” que hace chatGPT y demás chatbots es dar las respuestas que mejor feedback han tenido y aparentar hablar con mucha seguridad. Y que no están basadas en redes neuronales. Pero en fin, qué sabré yo.
#94, no hagas mucho caso a todo lo que escuches por ahí, yo he estado trabajando con redes neuronales artificiales desde hace casi una década, por eso me sorprendí un poco cuando me dijiste que no son un modelo, muy simplificado, de una red neuronal biológica, pero lo son. En cuanto a que sean una máquina de Turing o no, no le veo el problema, porque no hay motivo para pensar que los problemas que asociamos a la inteligencia, no pueden ser computables. Eso sí, opino que la conciencia es otro… » ver todo el comentario
#97 a ver, sí, tienes razón, me he expresado mal, disculpa. Sí que son un modelo muy simplificado de las redes neuronales biológicas, pero que no dejan de ser un modelo de datos. Quiero decir, que mucha gente se basa en ese nombre para decir que las IA razonan o son conscientes y no hay que perder de vista que no es más que un nombre.
Con lo que dices respecto a las maquinas de Turing, los avances hasta ahora nos indican que el cerebro no es programable, comentaba en otro hilo el tema del… » ver todo el comentario
#103, es que esto es un debate más metafísico que otra cosa, repito, no creo que esté demostra ni por asomo que programar, dibujar, componer o escribir el Quijote, no sean problemas computables si se escala a un suficiente grado de complejidad. De hecho, con los últimos avances es casi imposible negar que el problema de dibujar cualquier tipo de ilustración que nos podamos imaginar, es computable, si esto lo es, por qué escalando más no puede serlo cualquier otra cosa?
#104 es que creo que se hace un poco de “trampa” cuando se dice que una IA puede dibujar. No, no dibuja, coge un trillón de dibujos existentes creados por humanos y compone un dibujo con los parámetros introducidos. Una IA no es nada sin conexión a internet y a esos montones de datos preexistentes. Cuando dibujen sin basarse en ideas preexistentes y en parámetros introducidos, podremos decir que dibujan.
Sobre el tuit, precisamente lo que pasa es lo contrario, tendemos a humanizar. Primero con animales y ahora con algoritmos.
Una IA no necesita conexión a Internet alguna. Para entrenarla se le da un set de datos, que sí pueden haber sido descargados de Internet. Una vez entrenada tienes un "cerebro" digital que responde a lo que le pides sin consultar nada en ningún sitio.
Cuando dibujen sin basarse en ideas preexistentes
Lo más cercano a dibujos de humanos sin basarse en ideas preexistentes lo encontramos en una cueva, supuestamente se dibujó… » ver todo el comentario
#116 hombre, no es lo mismo basarse en dibujos creados anteriormente a que tus dibujos sean directamente una composición de esos dibujos. Pero nada que ver.
#117 En este meneo han puesto algunos ejemplos de dibujos hechos por IA, ¿de veras vas a defender que ha hecho una composición de imágenes ya existentes? ¿Que el azteca tal cual está dibujado, con su postura y expresiones, lo podemos encontrar básicamente idéntico en una ilustración o dibujo creado por una persona?
#112, sinceramente creo que la trampa la haces tú, porque lo pasas todo por el tamiz de la experiencia subjetiva fruto de la auto-conciencia y no concibes que nada producto de ello pueda ser genuino. Pero esta visión tan antropocéntrica te hace caer en incoherencias difíciles de sostener. Lo que tu llamas trillón de dibujos, sería lo equivalente a los sentidos con los que los humanos experimentamos el mundo o te crees que internamente no tenemos un modelo que ha aprendido a reconocer los patrones que definen un barco antes de dibujarlo?
Que se pueda resolver un problema de dos formas distintas no significa que una sea más genuïna que otra.
#106 quitar nodos a una estructura de datos no es reprogramarse. En el cerebro, lo que ocurre es que surgen circuitos para aprender tareas inexistentes hasta entonces. Conducir coches, usar ordenadores, programar… no existía hasta el momento que se inevtaron y el cerebro es capaz de aprender a usar todas esas cosas nuevas. Un programa, no.
#113 Me remito a mi comentario, es jugar con conceptos a medidas, te defines que quitar nodos en uno lo es, y en otro no lo es. Podemos seguir debatiendo eternamente sobre ello, pero el problema de raíz va a persisitir. No eres un escocés, y si lo eres, pues no eres uno de verdad.
#115 es que el problema es que no es jugar con conceptos. Pregunta a un neurólogo si el cerebro se reprograma y a un programador si existe algún software capaz de reprogramrse.
#118 Yo pienso que sí, podemos seguir debatiendo eternamente por ello. Por mi parte, me limito a contestarte. Ese ejemplo me confirma justamente lo que digo, "reprograma" tiene connotaciones muy diferentes en ambos campos, y en particular en informática "programar" es algo muy específico.
#114 yo creo que estamos discutiendo realmente por cosas que ya están bastante definidas y que nadie se plantea que los modelos actuales de IA sean capaces de desarrollar creatividad (que es de lo que estamos realmente hablando). Cuando se empiece a plantear de verdad, podemos volver a hablarlo
#119, creo que con tus premisas no existirá jamás una forma objetiva de validar si un modelo de IA es creativo o no, porque lo juzgas por su arquitectura y su diseño y no por los resultados que obtiene, da igual lo que sea capaz de dibujar, aunque sea algo que no haya dibujado nadie antes. Un saludo.
#121 exacto, en informática programar tiene un significado muy concreto y ningún programador te va a decir que un software es capaz de reprogramarse. Llevo 21 años en esto, algo de tema sé.
#120 no, de verdad que no. Si una IA es capaz de generar cualquier tipo de arte sólo basándose en lo existente y no usándolo directamente en su composición, diré que es creativa, al igual que un humano. Otro saludo
#123, y cómo evalúas esto de forma objetiva? Hay alguna escena que sirva para demostrar que algo es genuinamente creativo según tu criterio? Yo creo que no, que es imposible. Igual que con cualquier creación humana podrías decir que evoca de alguna maneras a cosas que han creado a otros artistas antes, porque no lo pasas por el mismo tamiz.
#127 pero tú entiendes que si yo te digo que las IA hacen composición de imágenes no significa que esa imagen sea idéntica a una existente? Me sabes explicar por qué en las imágenes generadas por IA salen manos de 7 dedos o pelos sueltos sobre sombreros? Eso es dibujar?
#129 Si a ti te dicen ahora que dibujes un rinoceronte y tienes que hacerlo de memoria, sin consultar nada, sin buscar ninguna foto, ¿estás convencido que serías capaz de dibujar todos los detalles con precisión? (empezando por el número de dedos)
Tú eres un humano y como tal conoces a la perfección cuantos dedos tiene una mano humana y en que posiciones están, ¿pero te conoces eso mismo a la perfección de cualquier otro ser vivo del planeta?
La IA te va a dibujar básicamente cualquier ser vivo que le cites, y cometerá errores, como los cometerías tú si lo hicieras de memoria. ¿Significa eso que no sabes dibujar?
#126 reprogramar significa cambiar su código, saltarse una orden de código fuente, eso es reprogramarse. Añadir nodos a una red no significa ni por asomo reprogramarse, eso es tan absurdo como decir que añadir un dato a un array es reprogramarse. Un sinsentido.
#130 Por una parte, creo que solo echas tierra sobre tu afirmación de que sabes de qué hablas, y por otra parte, puedes ser más especifico sobre contestar a lo que pregunte, llegados a este punto no sé si eres un chatgpt que me salpica frases "correctas" sin mayor comprensión.
#128 claro, porque una creación humana no es una composición generada según un algoritmo, unas instrucciones. Realmente creo que sabes que esto, por el momento, es bastante subjetivo. En el futuro se irá difuminando más, no te lo discuto, pero por ahora es bastante claro que lo que hace una IA no es crear.
#131, ok, pero al menos admite que usas dos varas de medir, no es una cuestión de calidad o de originalidad en lo generado. Yo creo que el pragmatismo se impondrá en el mundo real y si lo que dibuja, programa o escribe una IA es igual de útil que lo que hace un humano, se utilizará por mucho que haya quien se quede en el debate metafísico sobre la naturaleza humana.
#132 significa que no saben razonar. Saben hacer compendios, collages, siguiendo instrucciones dadas por un humano. Bastante impresionante, pero las IAs han supuesto un avance en la capacidad humana de crear software, pero las herramientas usadas para generarlas son las mismas que existían hace una o dos décadas. De hecho, el avance que ha supuesto chatGPT ha sido gracias al tiempo, esfuerzo y dinero puesto en ello,
¿Qué tú seas incapaz de dibujar toda la fauna con precisión significa que tú no sabes razonar? ¿Que tú cometas errores al dibujar animales significa que tú no sabes razonar? ¿Que los errores también los cometan las IA significa que no saben razonar?
las herramientas usadas para generarlas son las mismas que existían hace una o dos décadas
Y las partículas fundamentales que componen tu cerebro son las mismas que existían en la… » ver todo el comentario
#137 No afirmamos que los átomos razonen pero sí un cerebro humano a pesar de estar formado únicamente de átomos. Lo que consideramos razonar es una característica emergente que surge de la complejidad en las interacciones entre los distintos elementos.
De la misma se podría afirmar que un algoritmo no razona pero sí una red neuronal a pesar de estar formada por algoritmos. Lo que consideramos razonar es una característica emergente que surge de la complejidad de las interacciones entre los distintos elementos.
#135 pero si eso está claro, eso no lo he discutido en ningún momento.
Lo que yo sigo es que todavía no nos vengamos arriba, que siguen siendo algoritmos. Muy chulos, pero algoritmos. Esperemos al menos a las IA de propósito general y a humanoides más o menos funcionales para empezar a dilucidar si son creativos o si son conscientes. El debate llegará, estoy seguro. Y ojo, yo siempre he sido de la opinión que los robots acabarán siendo conscientes. Pero en su momento, no ahora.
#138, repito el tuit de Andrej Karpathy y me voy, haga lo que haga siempre dirás que no es genuino, no importa el resultado, es una creencia profunda que tienes porque no concibes que en un procesador de silicio a base de multiplicar matrices se puedan replicar e incluso mejorar el proceso de razonamiento y creación humanos. Repito, tu problema está en el cómo se hace, no en los resultados que produce.
#143, pues mira, yo estoy casi seguro de que no serán conscientes jamás con las actuales arquitecturas de computadores, lo que no quita que no sean inteligentes, creativos o que puedan razonar.
#139 pero dime, has usado una IA intensamente? De verdad tras su uso eres capaz de asegurar que razona? Por qué chatGPT razona y Windows, siendo mil veces más complejo, no? Simplemente porque han programado a chatGPT para que aparente serlo?
#140De verdad tras su uso eres capaz de asegurar que razona?
Yo no he asegurado nada.
Por qué chatGPT razona y Windows, siendo mil veces más complejo
La complejidad puede ser una consecuencia necesaria de ciertas características emergentes pero por sí misma la complejidad no basta para obtener ciertos resultados.
Windows surge del diseño inteligente, personas que de forma deliberada determinan la composición del producto para producir unos resultados muy específicos y… » ver todo el comentario
#141 “educación” y “entretenimiento “ que consiste simplemente en marcar respuestas como mejores que otras y que te lanza sólo basado en eso. Un algoritmo puro y duro.
#144 La evolución consiste simplemente en que se producen cambios aleatorios y los mejores adaptados al medio sobreviven más y se reproducen más. Con esa regla tan sencilla y tan básica se ha llegado a crear una especie, la humana, capaz de tener discusiones como las que estamos teniendo, capaz de pisar la Luna y de infinidad de cosas más.
Una regla sencilla aplicada miles de millones de veces puede dar como resultado una complejidad con características emergentes como la conciencia.
Lo que hemos hecho con la IA es aplicar una regla sencilla tantísimas veces que ha dado resultados espectaculares. La capacidad de razonar y la conciencia bien pueden ser una característica emergente de ello.
#101 Es muy posible que @rojo_separatista sea una IA y esté discutiendo con @PortgasDAce que es otra IA y nosotros aquí dando razones a unos y otros.
¿Se consideraría inteligencia hace 500 años? ¿5000 años? Sin duda.
¿Hace 50 años? Muy posible. ¿Cual es la diferencia? Ninguna.
Inimaginable hace pocos años, sin duda.
#149 has escuchado la típica frase "cualquier tecnología suficientemente avanzada es indistinguible de la magia", pero no es magia.
Pues esto igual. Por mucho que no se pueda diferenciar fácilmente, no lo convierte en inteligencia, al menos lo que tenemos actualmente.
No sé si habéis intentado hacer algo complejo de verdad con chat gpt, midjourney, Copilot o dalle... Pero no es viable y pronto llegas a un punto muerto, a no ser que le des instrucciones muy concretas ordenadas y detalladas de lo que quieres.
#148 es que hacer composiciones no es copiar, es componer. Hacer una mano de siete dedos es una prueba (de tantas) de que hace una tarea siguiendo unas instrucciones sin razonar.
#150 El mismo razonamiento que usa un temporero plantando esquejes, cuando le pides que plante. Un becario pintando paredes cuando se lo pides o un oficinista cortando un árbol. Y no lo hacemos como un profesional, pero lo intentamos dentro de nuestras capacidades. No por ello dejamos de ser "razonables". Hay arboles que no caen donde toca... pero caen! (edito el "no")
#146 se te escapa el ligero detalle de que entre la primera célula y el ser humano han pasado 3500 millones de años. Es posible que eso no te diga mucho, pero son un porronazo de años y es una de las bases que han hecho posible esa evolución.
#152 No se me escapa en absoluto. Esos 3.500 millones de años han servido para que el proceso evolutivo cree, entre otros, un cerebro humano.
Y ese cerebro humano tiene la capacidad de diseñar en cuestión de décadas un cerebro digital inspirado en el cerebro biológico. Un cerebro digital que cuando lo arrancas por primera vez contiene datos aleatorios y por lo tanto no ofrece ninguna respuesta útil, pero sí permite iniciar un proceso de aprendizaje.
#145 no sé si la limitación es tanto de hardware o de software, tal vez de los dos, pero creo que es claro que habrá que crear otra cosa. Será fascinante.
Lo de ser inteligentes y razonar es posible, puede que tengas razón. Lo de ser creativas lo veo más complicado
#155 para construir un cerebro digital nos quedan décadas, sino siglos. Primero, si eso, entendamos nuestro cerebro y luego ya veremos si repliquemos uno. Con que fuéramos capaces de replicar una célula seria un buen paso inicial.
#154 solo que esas personas pueden aprender cuando se les indica que eso no es así. En cambio una IA no aprende de mi feedback directo (anda que no ha entrado chatGPT en bucles guapos conmigo), si no que son sus programadores los que, a través de mi feedback, la reajustan. Sin intervención humana una IA no sería capaz de aprender.
#160 Ningún humano sería capaz de aprender nada sin otros humanos. Se llama civilización, sociedad, cultura.
Como quieras llamarlo, pero todo lo que sabes está basado en lo que te han enseñado. Y poco muy poco en lo que tu has dejado en herencia a futuras generaciones. (muy muy poco)
#176 El ser humano no tiene un cerebro digital, tiene un cerebro biológico. Una unidad central de procesamiento capaz de recibir información de los dispositivos de entrada, los sentidos, y sacar una respuesta por los dispositivos de salida, verbal, movimientos, etc.
ChatGPT también tiene una unidad central de procesamiento, un cerebro digital, capaz de recibir información de los dispositivos de entrada, en forma de texto o imágenes, y sacar una respuesta por los dispositivos de salida, en forma de texto, imágenes, etc.
Que el cerebro biológico esté formado por átomos no cambia nada de lo que acabo de describir, que el cerebro digital esté formado por algoritmos no cambia nada de lo que acabo de describir.
#178 pero hijo, no piedes llamar a cualquier algoritmo “cerebro digital”. Hay soft mucho más complejo que chatGPT desde hace mucho y nunca nadie se ha planteado esto simplemente porque no estaban programados para aparentar comportamientos humanos.
#181 Pero papa, es que no hablamos de cualquier algoritmo, hablamos del que está inspirado en el cerebro biológico y cuyos resultados útiles se obtienen no tras su fase de diseño sino tras su fase de entrenamiento, de educación. Uno al que medimos la calidad de sus resultados en comparación directa con los resultados que dan los humanos ante esas mismas entradas.
Que quieras negar que eso es un cerebro digital solo puede deberse a que no reconoces que pueda existir un cerebro digital.
#182 está basado en el cerebro biológico porque usa redes neuronales, que es una estructura de datos que se usa desde hace dos décadas al menos? Sí claro.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Que consideres un cerebro digital un algoritmo como miles que han habido antes sólo porque este se ha entrenado para simular respuestas humanas, cuando es básicamente un árbol de decisiones sólo… » ver todo el comentario
#183está basado en el cerebro biológico porque usa redes neuronales, que es una estructura de datos que se usa desde hace dos décadas al menos? Sí claro.
Hace dos décadas ya existía el cerebro humano, no entiendo a qué te refieres.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Las calculadoras no aprenden a calcular a base de aprendizaje sino con mediante programación tradicional.… » ver todo el comentario
#184 pero qué te crees en qué consiste el “”aprendizaje”” de una IA? Un montón de empleados picando datos y ponderizando. Nada que ver con aprendizaje ni de forma tangencial.
#185 Es irrelevante cómo se lleve a cabo en términos prácticos, la realidad es que es una diferencia fundamental el hecho que chatGPT genere resultados partiendo de haber recibido ejemplos e indicaciones sobre si sus resultados eran buenos o malo, a una calculadora que no tiene ningún proceso de aprendizaje ni por asomo parecido a lo que acabo de describir. La calculadora no sabe calcular por que le hayan enseñado ejemplos de cálculos, la calculadora puede calcular por que le han programado el procedimiento específico que debe seguir paso a paso, operación a operación, para dar un resultado específico.
#186 hay muchísimos ejemplos de programas antes de chatGPT cuyo funcionamiento necesitaba de introducción de información y nadie se planteaba nada tan loco como que fuesen un “cerebro digital”. Al final sigue siendo un automata que no hace nada sin recibir ordenes previas, vamos, sigue la maquina de Turing al dedillo.
#187hay muchísimos ejemplos de programas antes de chatGPT cuyo funcionamiento necesitaba de introducción de información
¿Tienes ejemplos de programas que cuando se termina la programación escupen datos aleatorios y no hacen nada ni remotamente útil hasta haber pasado una fase de entrenamiento, de educación?
Cita alguno y lo comentamos.
sigue siendo un automata que no hace nada sin recibir ordenes previas
#188 “entrenamiento y educación” es coger esos datos inútiles y que un HUMANO le diga: este es utiil, este menos, este mas. Wow ya piensa por sí solo.
A una IA como ChatGPT si creas el mecanismo para que esté constantemente recibiendo señales por su dispositivo de entrada lo que podrás ver es que dará señales de salida continuamente. Ya se ha experimentado con ello creo que con un proyecto llamado autoGPT.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
#189es coger esos datos inútiles y que un HUMANO le diga: este es utiil, este menos, este mas. Wow ya piensa por sí solo.
Así educamos a los bebés. Los humanos que han diseñado y construido el cohete para pisar la Luna lo han hecho gracias a que humanos le han dicho: este es útil, este menos, este más. Así durante décadas.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
Los humanos funcionamos así, también chatGPT, si eso quieres definirlo como autómata, si quieres definir a los humanos como autómatas, pues es tu criterio, tan respetable como cualquier otro.
#190 si quieres definir a los humanos como autómatas, pues es tu criterio, tan respetable como cualquier otro.
El problema que cuando hablamos de ciencia no es mi criterio no el tuyo el que vale. La definición de automata (maquina de Turing) es la que es y chatGPT la sigue a la perfección. Te recomiendo que la leas, porque según tu definición podríamos decir que una célula, un virus o incluso una llama son inteligentes y no. Oye, que si tú te quieres enamorar de la maquina vendedora cuando te dice “aquí tiene su bebida, gracias” es tu problema, pero no quieras hacer a los demás comulgar con ruedas de molino. Tienes un problema de humanización. Hay a gente que le psa con animales, a ti con un puñado de if, elses.
#191 No hay ningún problema de humanización, el problema que tienes tú es que asocias la inteligencia o el razonamiento como características que solo pueden tener los humanos, por eso cuando se atribuyen a algo que no es humano lo tachas de humanización.
Partes de premisas erróneas que te llevan a conclusiones erróneas.
ChatGPT no es humano y nadie aquí lo ha definido como tal. Humanización ninguna.
#192 no, no las premisas no son erróneas. Los animales son inteligentes. Pueden existir en el futuro inteligencia digitales. Pero chatGPT no lo es. Dices que un bebé humano aprende igual que un automata, pero te equivocas, porque un humano no recibe una series de instrucciones y las calca sin poder salirse de ellas un milímetro. Un automata sí, porque es su definición: lee unas instrucciones y las ejecuta. No puede salirse de ello. Eso hace chatGPT. Ejecutar instrucciones. No hay nada de inteligencia en eso. Pero ni de la de un cuervo o un delfín, imagínate un humano. En el futuro? Por supuesto. Ahora es que ni de broma.
#194 ChatGPT no recibe una serie de instrucciones y las calca sin poder salirse de ellas un milímetro.
Ah no? chatGPT puede saltarse su programación? Responde a eso sin irte por las ramas como haces todo el rato. Puede chatGPT saltarse su programación? Porque si respondes que sí ves a por el nobel porque sería un hito histórico. Claro que no puede. Porque es un automata.
Eso es falso. ChatGPT recibe instrucciones antes que le digas lo que quieras decir y una vez recibidas esas
#195Ah no? chatGPT puede saltarse su programación?
No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro.
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su cerebro sino en el resultado de su educación. De la misma forma el comportamiento de ChatGPT no se fundamenta en su programación sino en el resultado de su entrenamiento, de su educación.
#194 una pista anda: las instrucciones que hacen de chatGPT un automata no son las que le pasan cuando interaccionas con él, sinonlas de su programación interna que no se puede saltar y que le dicen al milímetro como tratar con TUS instrucciones. Aiiins.
#197 No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro
Venga ya, no puedes estar hablando en serio.
¿Me puedes explicar por qué dos gemelos genéticamente idénticos tienen desde que tienen uso de razón personalidades completamente distintas? ¿Conoces algo de epigenetica y desarrollo embrionario?
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su
#199¿Me puedes explicar por qué dos gemelos genéticamente idénticos tienen desde que tienen uso de razón personalidades completamente distintas?
Por que las entradas que reciben son distintas, desde puntos de vista físicamente distintos, con tiempos de estar despiertos o dormidos distintos, etc.
Venga, siglos de investigación sobre si un humano nace o se hace para nada si ya tenias tú ya la respuesta. Entonces, ¿un asesino lo es como resultado de su educación?
#200La programación es el equivalente al ADN del humano, que no te puedas saltar el ADN
Es que esta afirmación es falsa y se sabe que no es así desde al menos los años 60. Por favor, antes de seguir insistiendo en un dato erroneo y basar toda tu argumentación en él, revisa tus fuentes. El ADN NO determina el comportamiento humano y por supuueeeeeeeesto que se puede saltar, es la base de la humanidad misma.
Es que tío, montas unos muros de comentarios insufribles basados en falacias,… » ver todo el comentario
#201Es que esta afirmación es falsa [...] El ADN NO determina el comportamiento humano
En ningún momento he afirmado que el ADN determine el comportamiento humano, explícitamente he indicado que no lo hace. Lo que determina el comportamiento humano es la educación recibida. El ADN tiene las instrucciones para construir el cerebro biológico. El contenido se obtiene mediante la educación.
De la misma forma que la programación tiene las instrucciones para construir el cerebro digital. El… » ver todo el comentario
#200 el artículo es genial y explica con palabras sencillas lo que te quería hacer ver todo el rato.
"Solo son capaces de mejorar cuando estos entrenadores humanos corrigen los errores que les hemos señalado y de esta forma dan la apariencia de que “están aprendiendo”.
"Estos sistemas técnicamente no son sistemas de Inteligencia Artificial, son modeladores de lenguaje lógico, es decir su principal tarea es devolvernos respuestas que parezcan coherentes"
" Lo que nos… » ver todo el comentario
#203La revista Time diciendo que las respuestas falsas de chatGPT son simuladas por miles de trabajadores de países pobres y tú sigues con lo tuyo.
¿En serio te crees el bulo que lo que dice ChatGPT lo está escribiendo un trabajador humano?
Se utiliza mano de obra barata para asistir al entrenamiento indicando a la IA cual de tres respuestas es la más deseable, por ejemplo. De ahí al bulo que has soltado hay un trecho.
#202 vamos, que eres todo un terraplanista de las IAs, lo que yo decía.
La revista Time diciendo que las respuestas falsas de chatGPT son simuladas por miles de trabajadores de países pobres y tú sigues con lo tuyo. Con infografía y todo. Venga, chato, a dormir.
#205 terraplanista de las IAs que tildas de bulos artículos que citan fuentes como Time Chico, que hasta tienes un diagrama de funcionamiento con una fuente que puedes consultar. Ains, sorrillo, menos mal que tu fama te procede
#207que tildas de bulos artículos que citan fuentes como Time
" Lo que nos han mostrado como un sistema inteligente, en realidad no lo es y la valoración de los datos depende de lo que estos trabajadores en la sombra decidan, que de acuerdo un informe de TIME provienen en su mayoría de países pobres."
Vaya, contesté antes a tu último comentario donde soltabas un bulo y ahora veo que en realidad es que no entendiste lo que leíste, que no me sorprende en absoluto. Sí,… » ver todo el comentario
#1 y sí, superar el test de Turing sí que significaría que en el campo de la IA y el procesamiento de lenguaje natural se han hecho enormes progresos. No podemos ir moviendo la portería constantemente hasta que no quede campo: no pasa nada por que dibuje, no pasa nada porque componga, no pasa nada porque programe, no pasa nada porque diagnostique enfermedades, no pasa nada porque hable como nosotros... Todo esto son hitos que nos acercan a modelos cada vez más capaces y avanzados y que deberían servir para reflexionar si el patrón por el que medimos nuestra existencia tiene que ser únicamente por lo que somos capaces de producir cuando tenemos una tecnología que es cada vez más capaz de hacer cosas en las que nos sentíamos imbatibles igual o mejor que nosotros.
Sin embargo, eso no evita que mucha gente le dedique tiempo, esfuerzo, y atención. Porque es cómodo y fácil: efecto farola.
En el episodio de mañana: preguntamos a GPT-4 por varias cuestiones con el dilema del tranvía para poner a prueba el alineamiento de sus valores con los valores humanos.
#1 y sí, superar el test de… » ver todo el comentario
www.dailymotion.com/video/x25ntxf
La IA ahora mismo solo es una máquina de reconocimiento de patrones y cumplimiento de expectativas replicando esos patrones que conoce, nada más. Parece que dibuja, parece que escribe, parece que programa...
Almacenaremos patrones por ensayo y error y los repetimos?
El ser humano tampoco "reprograma el codigo fuente del cerebro', las normas básicas de funcionamiento y conexión periférica son inmutables, lo que cambia son las lógicas de respuesta que almacena "en memoria" en base a las experiencias, otra cosa es que ese "disco duro" sea lo más complejo que nos queda conocer de nosotros mismos y podamos observar mutabilidad física en él.
Cuidado. Entiendo perfectamente lo que quieres decir. Pero quedan 2 telediarios para que la IA nos adelante por la derecha
PD: de regalo te mando otro blanco a topos rojos frente a la estatua de la libertad como en esta imagen, o la combinación que tú quieras.
Intenta replicar por asociación patrones que ha encontrado en la muestra del entrenamiento, eso es mayormente la IA actual, no sé si conoces como funcionan los modelos pero todos tienen ese enfoque en su centro.
Por eso sí le dices lo que tú has dicho, dibujara algo que tú cerebro confunde con una persona más o menos y por lo general… » ver todo el comentario
Que la IA con todo lo sorprendente que es esta en pañales? Si... los grandes avances se han empezado a dar hace poco... espérate 10-15 años y me cuentas las vueltas que va a darle a nuestro cerebro de mono
Lo cual significa que de pronto podríamos quedarnos sin la justificación para seguir cometiendo fechorías.
Imagina la reacción de los israelíes si de pronto se aparece Dios y dice que en realidad el pueblo elegido es Palestina.
A dotCSV, le dijo que era real, que no era un bot y dotCSV se lo refutaba y ella insistia.
No se si ha tomado esa deriva naturalmente o porque.
Si la entrenas en un sentido o en otro es normal que actue del forma que la entrenes. Pero es curioso que responda asi. y para ciertas persona puede ser preocupantes, incluso algun ingeniero de google se convencio de que habia cobrado vida.
puede ser en uno de estos dos vidos.
yewtu.be/watch?v=otvqkWFvUZU
yewtu.be/watch?v=c_PqM5lPvjY
Es tan ostiable como HAL.
Y no me refiero a mandarselo en la instrucción inicial, sino en las opciones. Cómo se ve en la captura.
Así que si te habla gilipollas, es porque quieres.
Hay otras LLMs sin censurar, a las que puedes instruir para que te respondan siempre de una manera muy burra.
Por lo que entiendo de como funciona ChatGPT esas opciones que citas se convierten en parte de las instrucciones iniciales, aunque a ti no te aparezcan así en el entorno de la charla.
No existe ningún mecanismo para forzar que responda de una forma concreta más allá de pedírselo antes de la respuesta.
Déjà vu
I've just been in this place before
Higher on the street
And I know it's my time to go
Calling you, and the search is a mystery
Standing on my feet
It's so hard when I try to be me, woah
Me he leido correos de Recursos Humanos hace 20-10 anios que eran mas gilipollescos que los de chapgt... y por ejemplo la propaganda politica esta por debajo de ese umbral....
Un ejemplo curioso que acabo de probar ahora mismo. Hace 2 meses pregunté a chatgpt: "si en un árbol hay 7 pájaros y disparo a uno, ¿cuántos quedan?". La respuesta de chatgpt era que 6. Yo le decía que no, le… » ver todo el comentario
Y es normal
Somos humanos con genética, experiencia y habilidad humanas.
Nuestro cerebro crece de los 0 a los 14 años, donde aprendemos como esponjas y poco mas.
Los ordenadores están entrenándose 24/7 , mejorando, aplicando esa mejora y volviendo a mejorar.
Antes comentaban que a medio plazo sera como un humano medio y a largo plazo como un humano genial.
No
No hay tanta diferencia entre el humano medio y el genio.
Cuando una ia empiece a auto- mejorarse,… » ver todo el comentario
¿Tienes alguna evidencia de esto o es una simple tautología?
Yo la he usado para cosas del tipo "Hola, tengo esta conexión a una API REST realizada en Node.js, ¿me la puedes refactorizar a PHP?" y te lo hace.
Eso dificulta saber si se trata de un razonamiento real o está repitiendo un patrón memorizado.
En todo caso, un gran porcentaje de humanos fallaría ese acertijo.
¿Qué mierda anglosajona es esa? se le ha de hacer el chiste del perro llamado mistetas, o tiramos los servers del gpt4 al rio.
En mi opinión superar un test de Turing exhaustivo y bien planteado no significará que tengamos una AGI plenamente funcional, pero será un paso de gigante para lograrlo. Sin duda se necesita cierta capacidad de razonamiento para poder hacerte pasar por un ser humano.
P.D.: Ahí va otro de propina de color amarillo frente la Torre Eiffel, a la primera.
Los dientes, todo en general, son cosas que intentan replicar otras, nada más.
Pero eso no tiene que ver con ser negacionista, ni le quita utilidad o calidad a los resultados. Lo único que quita es el misticismo y unicornios que parece que alguno le quiere dar a las IA.
PD: la sagrada familia no sabe si está pintando un edificio, una plataforma petrolífera o un monstruo de una peli de terror, por poner otro ejemplo.
Los trastes no son trastes, los dedos, parecen dedos, etc.
No digo que no mejoren a una velocidad bestial ni que dentro de poco sea imposible distinguir el "parece que dibuja" de "dibuja", pero de momento es lo que es, pero porque los modelos matemáticos por definición son eso. De momento no ha surgido una consciencia o nada similar que nos haga pensar que de los modelos matemáticos ha surgido algo diferente a un reconocimiento de patrones y replicación de los mismos intentando cumplir una expectativa.
Y antes de que me digas que las redes neuronales tiene que ver con las neuronas reales: piénsalo de nuevo youtu.be/Rvmvt7gscIM?si=hkWuWN3pA5vs_W_D
Una sencilla búsqueda en la wikipedia te hubiese ahorra el soltar semejante cuñadez:
"Artificial neural networks (ANNs, also shortened to neural networks (NNs) or neural nets) are a branch of machine learning models that are built using
… » ver todo el comentario
He dicho que no dibuja, o sea, no tiene una consciencia de que va a dibujar, simplemente crea un mapa de bits que cumple con ciertos patrones que ha establecido según el modelo y lo "aprendido" durante su entrenamiento. Creo que no es tan difícil de entender la deferencia semifilosofica que estoy haciendo.
Si haces zoom en los trastes puedes ver un ejemplo de lo que digo, al no tener un concepto real de que es un ukelele hace algo… » ver todo el comentario
De ojos, caras, etc tiene mucha más info de los entrenamientos y por eso hace mejor trabajo.
También lo puedes ver en las plumas de la cabeza, no son plumas, no se sabe dónde empieza una y donde acaba la otra, es algo que a primera vista parece que son plumas.
A eso es a lo que voy, que cada vez tienen más variables y más información con la que han sido entrenados? Sí, por eso cada vez es más difícil decir si se parece o si realmente ha dibujado lo que le has pedido porque lo entiende, pero los modelos y algoritmos por detrás son los que son.
Con lo que dices respecto a las maquinas de Turing, los avances hasta ahora nos indican que el cerebro no es programable, comentaba en otro hilo el tema del… » ver todo el comentario
Lo demás es un debate… » ver todo el comentario
Sobre el tuit, precisamente lo que pasa es lo contrario, tendemos a humanizar. Primero con animales y ahora con algoritmos.
Una IA no necesita conexión a Internet alguna. Para entrenarla se le da un set de datos, que sí pueden haber sido descargados de Internet. Una vez entrenada tienes un "cerebro" digital que responde a lo que le pides sin consultar nada en ningún sitio.
Cuando dibujen sin basarse en ideas preexistentes
Lo más cercano a dibujos de humanos sin basarse en ideas preexistentes lo encontramos en una cueva, supuestamente se dibujó… » ver todo el comentario
Que se pueda resolver un problema de dos formas distintas no significa que una sea más genuïna que otra.
Por cierto, ¿puedo preguntar qué significado le doy según tu? Y si quieres lucirte, en dónde lo he dicho.
Tú eres un humano y como tal conoces a la perfección cuantos dedos tiene una mano humana y en que posiciones están, ¿pero te conoces eso mismo a la perfección de cualquier otro ser vivo del planeta?
La IA te va a dibujar básicamente cualquier ser vivo que le cites, y cometerá errores, como los cometerías tú si lo hicieras de memoria. ¿Significa eso que no sabes dibujar?
Y si le pides una mano estilo "Leonardo" no será esa mano, pero si ese estilo.
¿Qué tú seas incapaz de dibujar toda la fauna con precisión significa que tú no sabes razonar? ¿Que tú cometas errores al dibujar animales significa que tú no sabes razonar? ¿Que los errores también los cometan las IA significa que no saben razonar?
las herramientas usadas para generarlas son las mismas que existían hace una o dos décadas
Y las partículas fundamentales que componen tu cerebro son las mismas que existían en la… » ver todo el comentario
De la misma se podría afirmar que un algoritmo no razona pero sí una red neuronal a pesar de estar formada por algoritmos. Lo que consideramos razonar es una característica emergente que surge de la complejidad de las interacciones entre los distintos elementos.
Lo que yo sigo es que todavía no nos vengamos arriba, que siguen siendo algoritmos. Muy chulos, pero algoritmos. Esperemos al menos a las IA de propósito general y a humanoides más o menos funcionales para empezar a dilucidar si son creativos o si son conscientes. El debate llegará, estoy seguro. Y ojo, yo siempre he sido de la opinión que los robots acabarán siendo conscientes. Pero en su momento, no ahora.
Yo no he asegurado nada.
Por qué chatGPT razona y Windows, siendo mil veces más complejo
La complejidad puede ser una consecuencia necesaria de ciertas características emergentes pero por sí misma la complejidad no basta para obtener ciertos resultados.
Windows surge del diseño inteligente, personas que de forma deliberada determinan la composición del producto para producir unos resultados muy específicos y… » ver todo el comentario
Una regla sencilla aplicada miles de millones de veces puede dar como resultado una complejidad con características emergentes como la conciencia.
Lo que hemos hecho con la IA es aplicar una regla sencilla tantísimas veces que ha dado resultados espectaculares. La capacidad de razonar y la conciencia bien pueden ser una característica emergente de ello.
¿Se consideraría inteligencia hace 500 años? ¿5000 años? Sin duda.
¿Hace 50 años? Muy posible. ¿Cual es la diferencia? Ninguna.
Inimaginable hace pocos años, sin duda.
Pues esto igual. Por mucho que no se pueda diferenciar fácilmente, no lo convierte en inteligencia, al menos lo que tenemos actualmente.
No sé si habéis intentado hacer algo complejo de verdad con chat gpt, midjourney, Copilot o dalle... Pero no es viable y pronto llegas a un punto muerto, a no ser que le des instrucciones muy concretas ordenadas y detalladas de lo que quieres.
Y ese cerebro humano tiene la capacidad de diseñar en cuestión de décadas un cerebro digital inspirado en el cerebro biológico. Un cerebro digital que cuando lo arrancas por primera vez contiene datos aleatorios y por lo tanto no ofrece ninguna respuesta útil, pero sí permite iniciar un proceso de aprendizaje.
El ser humano ha necesitado decenas de… » ver todo el comentario
Lo de ser inteligentes y razonar es posible, puede que tengas razón. Lo de ser creativas lo veo más complicado
Como quieras llamarlo, pero todo lo que sabes está basado en lo que te han enseñado. Y poco muy poco en lo que tu has dejado en herencia a futuras generaciones. (muy muy poco)
ChatGPT también tiene una unidad central de procesamiento, un cerebro digital, capaz de recibir información de los dispositivos de entrada, en forma de texto o imágenes, y sacar una respuesta por los dispositivos de salida, en forma de texto, imágenes, etc.
Que el cerebro biológico esté formado por átomos no cambia nada de lo que acabo de describir, que el cerebro digital esté formado por algoritmos no cambia nada de lo que acabo de describir.
Que quieras negar que eso es un cerebro digital solo puede deberse a que no reconoces que pueda existir un cerebro digital.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Que consideres un cerebro digital un algoritmo como miles que han habido antes sólo porque este se ha entrenado para simular respuestas humanas, cuando es básicamente un árbol de decisiones sólo… » ver todo el comentario
Hace dos décadas ya existía el cerebro humano, no entiendo a qué te refieres.
Las calculadoras también dan mejores resultados a la hora de hacer cálculos que los humanos y no por eso las consideramos cerebros digitales.
Las calculadoras no aprenden a calcular a base de aprendizaje sino con mediante programación tradicional.… » ver todo el comentario
¿Tienes ejemplos de programas que cuando se termina la programación escupen datos aleatorios y no hacen nada ni remotamente útil hasta haber pasado una fase de entrenamiento, de educación?
Cita alguno y lo comentamos.
sigue siendo un automata que no hace nada sin recibir ordenes previas
El ser humano está constantemente recibiendo señales por sus… » ver todo el comentario
A una IA como ChatGPT si creas el mecanismo para que esté constantemente recibiendo señales por su dispositivo de entrada lo que podrás ver es que dará señales de salida continuamente. Ya se ha experimentado con ello creo que con un proyecto llamado autoGPT.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
Así educamos a los bebés. Los humanos que han diseñado y construido el cohete para pisar la Luna lo han hecho gracias a que humanos le han dicho: este es útil, este menos, este más. Así durante décadas.
Es decir, que de unos inputs, procesa y saca unos outputs. Enhorabuena, acabas de definir CUALQUIER automata.
Los humanos funcionamos así, también chatGPT, si eso quieres definirlo como autómata, si quieres definir a los humanos como autómatas, pues es tu criterio, tan respetable como cualquier otro.
El problema que cuando hablamos de ciencia no es mi criterio no el tuyo el que vale. La definición de automata (maquina de Turing) es la que es y chatGPT la sigue a la perfección. Te recomiendo que la leas, porque según tu definición podríamos decir que una célula, un virus o incluso una llama son inteligentes y no. Oye, que si tú te quieres enamorar de la maquina vendedora cuando te dice “aquí tiene su bebida, gracias” es tu problema, pero no quieras hacer a los demás comulgar con ruedas de molino. Tienes un problema de humanización. Hay a gente que le psa con animales, a ti con un puñado de if, elses.
Partes de premisas erróneas que te llevan a conclusiones erróneas.
ChatGPT no es humano y nadie aquí lo ha definido como tal. Humanización ninguna.
ChatGPT no recibe una serie de instrucciones y las calca sin poder salirse de ellas un milímetro.
Un automata sí, porque es su definición: lee unas instrucciones y las ejecuta.
Si esa es la definición de un autómata el ChatGPT no lo es.
Eso hace chatGPT. Ejecutar instrucciones.
Eso es falso. ChatGPT recibe instrucciones antes que le digas lo que quieras decir y una… » ver todo el comentario
ChatGPT no recibe una serie de instrucciones y las calca sin poder salirse de ellas un milímetro.
Ah no? chatGPT puede saltarse su programación? Responde a eso sin irte por las ramas como haces todo el rato. Puede chatGPT saltarse su programación? Porque si respondes que sí ves a por el nobel porque sería un hito histórico. Claro que no puede. Porque es un automata.
Eso es falso. ChatGPT recibe instrucciones antes que le digas lo que quieras decir y una vez recibidas esas
… » ver todo el comentario
No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro.
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su cerebro sino en el resultado de su educación. De la misma forma el comportamiento de ChatGPT no se fundamenta en su programación sino en el resultado de su entrenamiento, de su educación.
Y un ser… » ver todo el comentario
No puede saltarse su programación de la misma forma que un humano no puede alterar su ADN que es el que determina la composición de su cerebro
Venga ya, no puedes estar hablando en serio.
¿Me puedes explicar por qué dos gemelos genéticamente idénticos tienen desde que tienen uso de razón personalidades completamente distintas? ¿Conoces algo de epigenetica y desarrollo embrionario?
El comportamiento de una persona no se fundamenta en su ADN ni en la composición física de su
… » ver todo el comentario
Por que las entradas que reciben son distintas, desde puntos de vista físicamente distintos, con tiempos de estar despiertos o dormidos distintos, etc.
Venga, siglos de investigación sobre si un humano nace o se hace para nada si ya tenias tú ya la respuesta. Entonces, ¿un asesino lo es como resultado de su educación?
Negar el papel… » ver todo el comentario
Es que esta afirmación es falsa y se sabe que no es así desde al menos los años 60. Por favor, antes de seguir insistiendo en un dato erroneo y basar toda tu argumentación en él, revisa tus fuentes. El ADN NO determina el comportamiento humano y por supuueeeeeeeesto que se puede saltar, es la base de la humanidad misma.
Es que tío, montas unos muros de comentarios insufribles basados en falacias,… » ver todo el comentario
En ningún momento he afirmado que el ADN determine el comportamiento humano, explícitamente he indicado que no lo hace. Lo que determina el comportamiento humano es la educación recibida. El ADN tiene las instrucciones para construir el cerebro biológico. El contenido se obtiene mediante la educación.
De la misma forma que la programación tiene las instrucciones para construir el cerebro digital. El… » ver todo el comentario
"Solo son capaces de mejorar cuando estos entrenadores humanos corrigen los errores que les hemos señalado y de esta forma dan la apariencia de que “están aprendiendo”.
"Estos sistemas técnicamente no son sistemas de Inteligencia Artificial, son modeladores de lenguaje lógico, es decir su principal tarea es devolvernos respuestas que parezcan coherentes"
" Lo que nos… » ver todo el comentario
¿En serio te crees el bulo que lo que dice ChatGPT lo está escribiendo un trabajador humano?
Se utiliza mano de obra barata para asistir al entrenamiento indicando a la IA cual de tres respuestas es la más deseable, por ejemplo. De ahí al bulo que has soltado hay un trecho.
"Solo son capaces de mejorar cuando estos
… » ver todo el comentario
La revista Time diciendo que las respuestas falsas de chatGPT son simuladas por miles de trabajadores de países pobres y tú sigues con lo tuyo. Con infografía y todo. Venga, chato, a dormir.
" Lo que nos han mostrado como un sistema inteligente, en realidad no lo es y la valoración de los datos depende de lo que estos trabajadores en la sombra decidan, que de acuerdo un informe de TIME provienen en su mayoría de países pobres."
Vaya, contesté antes a tu último comentario donde soltabas un bulo y ahora veo que en realidad es que no entendiste lo que leíste, que no me sorprende en absoluto. Sí,… » ver todo el comentario