#330 nunca me verás negar rotundamente que una maquina pueda obtener conciencia de sí misma en el futuro, seria una tontería hacerlo.
Pero que un programa (un automata) simule comportamiento humano medio bien como chatGPT y emperrarse de forma enfermiza, soltando cosas que son medio verdad o rotundamente falsas para asegurar que chatGPT es una IAG como aquí el amigo pues no.
#329 “ El cerebro tampoco sabemos si tiene algo que propiamente se pueda llamar "código fuente", como para dirimir si realmente lo "reescribe", y sin embargo utilizamos analogías entre el código fuente / código máquina de un ordenador y lo que asumimos que sería el código fuente en el cerebro”.
Es una analogía, claro, pero vaya, el “procesamiento” lo producen las señales electrónicas, lo que pasa que es cierto que no sabemos qué conducen esas señales, así que te lo compro.
“ No tengo claro si realmente, como dices, el modelo es enteramente datos, pero creo que no es así, más bien es la información ejecutable extraída de los datos ( conceptualización, síntesis de lo que los datos "significan" transformado en algoritmia ) para poder llegar a otros datos.”
Es que los datos pueden ser muchas, muchas cosas, pero eso no dejan de ser datos. Todo lo que no sea el código propiamente dicho son datos.
“ Edito: Piensa que a un modelo le ofreces un input, lo procesa, y te devuelve un output. La capacidad de procesar es lo que define al código máquina, que es el resultado de compilar el código fuente, de modo que no veo tan desacertado decir que durante el entrenamiento reescribe su código”
El resultado de compilar el código fuente, exacto, y eso es inmutable por el propio código, porque el código fuente es ilegible para sí mismo
A mí este tema me fascina., porque ¿es infinito el universo? Y si no lo es, ¿qué hay al final? Y si lo es, ¿hay infinitas mundos ahí fuera? O tal vez sea cerrado cíclico, que es lo que a mí me cuadra.
Debe ser por el trabajo bien hecho, claro que sí. Luego cuando vuelva a disparar un encapuchado con las balas marcadas nos echaremos las manos a la cabeza.
#324 muy interesante tu post, pero en lo de que es “como si se reescribiera el código” no estoy de acuerdo, porque el modelo es enteramente datos y aunque en este caso es verdad que la diferencia entre código y datos se difumina, no es en absoluto lo mismo. Y de esa confusión vienen gran parte de los errores conceptuales que tienen otros usuarios en el hilo.
#23 sabiendo que estoy contestando a un mensaje irónico, la verdad es que sí que es desesperante.
Porque la derecha es única desviando la atención, echando la culpa a los demás, retorciendo y embarrando el mensaje y simplificando tanto el discurso que es imposible de contraargumentar. Y todo con tal de ganar.
Pero claro, la izquierda tiene que hacer autocrítica! Pero si no se luchan con las mismas armas!
Me dan ganas de llorar.
#300 claro, pero es que aun así no lo veo, porque como dices al final, un software no puede cambiar su conjunto de instrucciones (es la base de un automata), entonces aun admitiendo lo que comentas de que el software y el hardware en un cerebro biológico están más entrelazados (cosa de la que no sé si hay suficiente información como para afirmarlo), el cerebro estaría cambiando en tiempo real su conjunto de instrucciones, lo cual es bastante flipante. Es decir, hay inputs que pueden hacer cambiar su forma de actuar ante inputs similares futuros.
Eso es lo que creo que lo diferencia de un automata.
#296 por fin reconoces que chatGPT ha sido entrenado con mano de obra barata que lo único que hace es trabajo mecánico y que nada tiene que ver con inteligencia. Bien, poco a poco vamos avanzando.
#293 es que es como si chatGPT hubiera salido de la nada, nada de lo que digan las personas que más involucradas han estado en su entrenamiento te pueden hacer cambiar de opinión.
Negacionista de las Maquinas de Turing, hijo.
#286 no, no es su opinión y ya, es su opinión basada en lo que ha visto de primera mano. Y cualquiera que sepamos de esto y que lo hayamos usado intensivamente estaremos de acuerdo. Porque cuando le haces una pregunta que no se le había hecho antes y su respuesta es incorrecta, es incapaz de salir de ahí, entra en bucle. Me ha pasado montones de veces, incluso con GPTs específicos para tareas concretas (en la versión de pago se puede hacer). Se le ven las costuras enseguida.
#287 ya, claro que hay montones de IAs, lo que me refería es que ninguna hace frente a chatGPT, de hecho, muchas de ellas se basan en chatGPT para no tener que empezar de cero.
#284 no no, claro que no es lo mismo que cambiar el software, ahí creo que reside el “error”. El software en el cerebro serían las señales eléctricas, más los distintos neurotransmisores, más las ondas que genera el cerebro, que se está descubriendo que son bastante importantes. Pero el cerebro tendrá sus estructuras de datos, sus mapeos, sus buffers y demás estructuras de “software “, eso ya se me escapa.
#283 oye, que uno de los mandamases de una de las empresas de entretenimiento diga que no hay nada de inteligente en una IA es una mera opinión, no como lo tuyo que está basado en patatas. Pues ok.
#278 me he leído el articulo completo y si tú lo hubieras hecho verías que rebate todos tus argumentos uno a uno. De hecho te he dado muchos de ellos y los descartas porque no encajan con tu idea preconcebida.
Da igual, no te preocupes, no pasa nada. Tú dormirás bien pensando que tienes razón y yo sabiendo que sé de lo que hablo porque tengo el conocimiento. Todos contentos.
#276 solo un apunte a lo que has dicho, con lo que coincido bastante: no, que el cerebro sea plástico significa que “reescribe” su código. Incluso voy más allá: es cono si un programa pudiera rehacer los chips sobre los que se sustenta.
Ya sin entrar en si somos deterministas o no, eso nos hace muy diferentes a cualquier cosa que hayamos programado hasta el momento.
#274 no he parado de defender mi posición y simplemente te la resbala, es como discutir con un negacionista. Lo has hecho conmigo y con el resto de meneantes que te han dejado ya por imposible y que te permite creer que tienes razón. Pero no, no la tienes porque solo hablas de oídas. Y cuando ye intento dar información, la ignoras. Pues chico, ok.
#272 no, para identificar un “gato” lo que se hace es que cientos de personas le cargan miles de fotos de gatos y las mezclan con fotos que no son gatos y etiquetan una a una cual es gato y cual no.
Antes de la primera versión publica estuvieron dos años con cientos de miles de personas metiendo datos de ese estilo para crear el modelo más grande que se ha creado jamás para una IA. Pura fuerza bruta.
Por qué crees que ninguna otra de ls big tech han sacado ya algo que sea capaz de toser a chatGPT? Porque no pueden, el chorro de dinero que se ha invertido en chatGPT es tan descomunal que es difícil que se vuelva a repetir.