Esta es una comunidad para la ciencia y todo lo que la rodea, un rinconcito para encontrar y enviar todo lo relacionado con la ciencia. Por favor, respete la temática.
No quiero spam aquí, es para ciencia, no para autobombo.
Para cualquier duda respecto a este sub, acuda a @tnt80
No temáis pedir ediciones de vuestras noticias, o lo que sea, estoy sólo a una referencia y no muerdo.
Twitter twitter.com/meneameciencia ( @meneameciencia )
Facebook: www.facebook.com/meneameciencia
Aviso: La primera vez que alguien se confunda de sub/comunidad al enviar algo, editaré y lo pondré en otro, la segunda, le cierro el meneo con penalización. Respetad la temática, si no es por favor, ni por la comunidad, por vuestro karma.
Debido al abuso por parte de algunos de la posibilidad de enviar artículos, enviando artículos que no tienen nada que ver con la temática del sub, ya no se pueden enviar artículos a este sub.
#25#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
#1 Diego Ruzarrin en sus debates y charlas suele hacer una pregunta a sus interlocutores: ¿por qué sabes lo que sabes? Y no es una pregunta baladí, especialmente cuando se tiene una base de conocimientos muy amplia y heterogenea.
Así que si no hay nadie al volante, no lo hay para nadie, ni nada. Personas o IA.
#42 Venga no me jodas... una cosa es que con suficientes factores, items, nodos, interrelaciones o conexiones, etc. el esquema no sea modelable o se parezca a un sistema caotico e impredecible. Eso es asi, pero de ahi a hacer esa pregunta retorica y a) no saber explicar que por mucha complejidad que tenga el apredizaje humano... b) la cosa no sea comparable a lo que se insinua en esa retorica... RIGOR, Cojones, rigor.
#51 A pesar de tu redacción, que es para analizarla, voy a intentar contestarte.
La pregunta de Ruzarrin no es retórica, sino concreta y honesta.
Y la pregunta es completamente relevante, también en el ámbito de la IA. Cuando el input es complejo y heterogeneo, las relaciones entre sus componentes y, por lo tanto, su razonamiento no están claros; ni en los humanos, ni en las máquinas.
Y que no está claro en las máquinas no lo digo yo, lo dice Ilya Sutskever, cuando dijo en 2015 que el… » ver todo el comentario
#101 No estan claros pero sabemos PORQUE no estan claros y no hace falta intuir mucho para ver que es un caso diferente al de la pregunta. Que hay una complejidad alta y cuasicaos no lo pone al nivel de lo que insinua en la pregunta. Todos sabemos lo que son propiedades emergentes de un conjunto suficientemente grande aunque las reglas de interaccion entre el conjunto sean simples. Pero no veo como eso acerca los dos casos en cuestion.
Pues pasa más o menos lo mismo que con las redes neuronales biológicas: sabemos que hacen cosas asombrosas hasta tal punto de que emerge consciencia, pero no entendemos exactamente cómo lo hacen. Por eso pienso que eso que llamamos consciencia acabará emergiendo en una IA sin haberlo previsto.
#2 Mi problema con las teorías de la conciencia emergente en IA es que parece un parche para tapar lo que no sabemos todavía peor que la "materia oscura" de la que tiran los físicos cuando no les salen las cuentas.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón… » ver todo el comentario
#25, yo tampoco lo veo, lo que sí que veo es que habrá IAs que hablarán de forma indistinguible a si tuvieran conciencia de verdad y como hasta ahora no podemos falsear fidedignamente que un ente vivo con cerebro tenga conciencia tampoco lo podremos hacer con estas IAs. Pero repito, creo que desconocemos demasiado poco sobre cómo emerge la conciencia en entes biológicos como para pensar que desarrollando IAs muy inteligentes a la hora de resolver problemas, va a emerger sin más.
#62 La consciencia es fácilmente falsable. Lo que no hay son ejemplos biológicos de bichos sin consciencia. Hasta las plantas luchan entre sí. Una ameba sabe muy bien a lo que va y un leucocito tiene muy claro como cazarla.
#25 Bueno, realmente, el qué es la consciencia.. es algo que ni empírica, ni científicamente, ha tenido ninguna explicación aún plausible, constatable... ni tan siquiera hay rotundidad demostrable de si la misma radica en el cerebro, en el caso de los humanos.
#35, lo de que la conciencia radica en el cerebro está fuera de toda duda. Hay una correspondencia directa entre lo que le pasa a la conciencia y lo que experimenta la conciencia. Desde los estupefacientes, hasta las lesiones físicas.
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
#75 Todos estos LLMs estan MUY lejos de esa autpercepcion o autoconsciencia o consciencia del Yo. Vamos, que si les preguntas te diran cositas que les describe y demas, pero en fin, nada de nada. Otra cosa es que, siendo el tipo de inteligencia ( el dia que lo sea, el famoso AGI o tal ) diferente a la nuestra ( fundamentalmente diferente ), esa autoconsciencia sea un requisito para algo/nada.
#75 Los humanos no tenemos consciencia porque tengamos autopercepción. También nuestra percepción del mundo exterior está dentro de la consciencia. El hecho de que exista un espacio de percepción es consciencia.
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
#35 Pero eso me hace todavía más escéptico sobre la idea de que se vaya a generar espontáneamente porque un algoritmo sea muy complejo, si ni siquiera sabemos explicar de dónde surgen los qualia. Le veo más sentido a las tesis base de Roger Penrose, que la emergencia de la conciencia sea algo que está ligado necesariamente a un soporte material.
#2#25#35#38#43#7 ... Conciencia y consciencia si, otra cosa es autoconsciencia o consciencia del Yo y demas. Que eso ya tiene pinta de ser algo limitado a pocos animales.
#43 Yo no postulo nada, simplemente empíricamente no se ha podido demostrar... obviamente, el sistema nervioso debiera ser como poco, el único candidato, pero tampoco puede demostrarse hoy dia, no hay "test" que por si mismo lo determine.
Tampoco creo que los animales funcionen de un modo muy distinto, a no ser que seamos extraterrestres, que lo dudo mucho. Lo que si cambia, es la complejidad... del mismo modo que no puedo comparar mi vista con un halcón, o mi olfato con el de un… » ver todo el comentario
#35 No es tan misterioso. Para poder sobrevivir un bicho necesita hacerse una idea de su entorno y de su propio lugar dentro de ese entorno. Se crea pues un modelo de esa realidad. Mantener ese modelo es una función cerebral como cualquier otra, que por cierto no funciona constantemente.
La consciencia no es otra cosa. Una rata lo hace de puta madre.
#2 realmente #25 tiene toda la razón. Turing definió la maquina de Turing (o lo que es lo mismo, un autómata) y la computación actual todavía no ha salido de ahí. Cuando tú programas algo, hay unas instrucciones que el programa no se puede saltar. Todas las IAs actuales siguen estando programadas, siguen siendo autómatas. Sin embargo un cerebro no es una máquina de Turing (o lo que es lo mismo, no es computable) porque se puede reprogramar a sí mismo. En otras palabras: nunca podremos escribir… » ver todo el comentario
#88#25 Puede tener la misma razón que tengo yo, porque ninguno sabemos cómo se da la consciencia.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
#110 cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano. De hecho, para la primera versión que salió a la luz de chat-GPT se necesitó dos años de entrenamiento de miles de humanos.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
#141cuando se dice que una IA “aprende”, lo que realmente hace es generar una base de datos a partir de inputs humanos y siguiendo el algoritmo programado, no tiene nada que ver con el aprendizaje humano.
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como… » ver todo el comentario
#2 Lo de que "emerge" conciencia es una teoría, pero no hay ninguna evidencia de esa "emergencia". La consciencia podría ser simplemente una propiedad de la realidad. No existe ninguna realidad conocida fuera del ámbito de una consciencia.
#5 ¿Y cómo estás tan seguro de ello? Yo personalmente no creo en que se tiene o no consciencia, si no más bien van siendo niveles en función del número y calidad de los órganos sensoriales y por supuesto la capacidad de un cerebro de engendrar y albergar neuronas.
#5 Todos tienen consciencia, pero sólo algunos tienen autoconsiencia. Algunos chimpanzes y otros grandes simios, pasan algunos tests de "fase del espejo" al igual que los niños de 3 años. Otras especies como los cánidos o los felinos no pasan los tests de autconciencia, de momento que sepamos, no me sorprenderia que a través de mucha selección artificial/social, algunos collies llegaran a una proto-autoconciencia. También falta experimentar mucho con algunos cefalópodos, los pulpos presentan muchas cosas aun por comprender.
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
#28 Esos tests del espejo están anticuados , por cosas como las que indica #34 . Intentar evaluar la capacidad cognitiva de otras especies, en base a parámetros que utilizamos para medir nuestra propia capacidad, sólo nos permite saber cuánto se pueden parecer, comparativamente, a la especie humana.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más… » ver todo el comentario
#37 Estoy de acuerdo en que los tests del espejo están anticuados. Por otra parte, el tema de la autoconsciencia es diferente al tema de la inteligencia. El "problema de la consciencia" peca como ya señalo Chalmers de un dualismo excluyente intrínseco al problema mente-cuerpo. Los trabajos de por ejemplo Georg Northoff creo que dan un paso más allà al plantear un problema mente-mundo. Cuando por ejemplo uno medita y se sabe desde hace miles de años, la dualidad "desaparece",… » ver todo el comentario
#60 Claro. Y más que podemos llegar a desgranar. Pero tampoco pretendía establecer aquí un tratado acerca de este tema, por mucho que me interese. Pero por tu último y completo comentario, entonces me sorprende aún más tu imprecisa reducción en tu primer comentario.
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle… » ver todo el comentario
#79 Muy buena reflexión. Le daré unas buenas vueltas a tu punto de vista y consultaré las referencias. Muy intersante los estudios de Herculano-Houzel. Y Aún más cuando metemos el lenguaje en la problemática. Muy de acuerdo con el problema de la "scala naturae" Aristotélica.
#60 Eso suena a vendehumos sociológico tipo Carl Jung. Me frío más de The Computational Beauty of Nature y como reglas simples generan sistemas complejos.
#28 Un cánido jamás va a pasar el test del espejo por una sencilla razón: Su sentido del olfato es muy superior al nuestro y esta tan integrado con su percepción que no pasa un teste que esta pensado para seres que su sentido principal es la vista.
#5 A lo mejor la tienen, la pregunta es ¿La tenemos nosotros? Ese es uno de los grandes problemas, que no podemos demostrar objetivamente la conciencia, sabemos que existe porque la experimentamos, pero no hay una prueba objetiva con aparatos de medida que diga que esto tiene conciencia o no.
#2 No tiene por qué. La consciencia es un resultado de la evolución que es necesario para sobrevivir. SI no tienes consciencia se te comen y no dejas descendencia.
No hay ningún motivo por la que deba "surgir" sólo porque sí.
#10 ¿Estás diciendo que una bacteria tiene consciencia? ¿o una lechuga? ¿O no la tienen porque hay otro ser vivo que se las comen? ¿Un pollo o una vaca tienen consciencia?
#103 puede parecer que #10 lo mismo habla a largo plazo, pero no tiene ningún sentido tampoco porque hay especies muchísimo más viejas que el ser humano, mucho más básicas y sin ningún tipo de conciencia que siguen existiendo y seguramente seguirán existiendo despues de que el ser humano se haya extinguido
#10 exacto, tal como dices, esa es la razon por la que tarde o temprano surge consciencia. En cuanto la IA entiende que existe luego quiere sobrevivir.
#2 La IA actual no deja de ser una 'calculadora con esteroides y para el lenguaje'. Igual que una calculadora es capaz de dar resultados correctos para 2+2 y no por ello 'entiende' el concepto de suma, las IA actuales son capaces de soltar una parrafada sobre cualquier tema usando el lenguaje y no por ello significa que 'entiendan' nada de lo que están 'escupiendo'.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
#2 Seguramente el aceptar que sean "conscientes" ocurrirá por fuerza mayor, cuando no puedas negarlo y no te quede remedio de aceptarlo.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y… » ver todo el comentario
#6 Para poner de presidente del gobierno a alguien que no se sabe el ciclo del algua, sí, se puede poner a una máquina, o a una gallina.
De hecho es la misma persona que envio al Prestige a alta mar cuando era muy evidente que eso era lo que no se debía hacer. No he dicho evidente "a posteriori" sino evidente en ese momento.
POR ESO que esa desgracia sucedió en España, porque en otros paises no ponen de ministro a un analfabeto.
#6 Por favor no reirse de los sunormales, en todo caso, creo que es su alma de filósofo, en última instancio no sabemos por qué pasa, es el clásico, porque existe lo que existe y no la nada.
Se sabe porque y como replicarlo, lo que no se sabe es justificar la salida en razón a las entradas, porque están "diluidas"... por eso mismo las redes neuronales "no copian", sino que "cocinan" la información.
#14, se sabe por qué de aquella manera, porque los propios investigadores que entrenaron GPT-3 quedaron sorprendidos de cómo un modelo entrenado para decir tokens uno detrás de otro de forma que parecieran coherentes, aprendiese a programar o a trasladar conceptos abstractos aprendidos en un idioma a otro. Obviamente no hay magia, sino matemáticas y una enorme complejidad, pero muchos de sus resultados no eran esperables.
#151 ¿Pero qué mierda te inventas? Tu artículo no dice nada de eso. Es más, demuestra lo contrario. Lee lo que enlazas y no te inventes trolas.
Para empezar, copiar algoritmos de una fuente de 700Gb de código documentado no es programar. Programar implica entender qué te están pidiendo y razonar una solución. Y el actual paradigma de IA no es capaz de hacer ninguna de esas dos cosas.
Y para terminar, tu propio enlace explica que:
a) sólo un tercio de las soluciones dadas por la IA resolvían… » ver todo el comentario
#14 Lo cual no quita que cocinan información copiada.
Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
No hay trazabilidad. Una red neuronal no se puede fundir con otra ni se puede borrar selectivamente un aprendisaje. Se copian y pegan pero luego tienen evoluciones diferentes. Cada una es unica, pronto seran individuos, como la vida misma. Y cuando la complejidad sean tan alta desarrollaran consciencia. Sin saber como ni porque como nosotros.
#69 soy licenciada en ciencias y me dedico a la informática. Lo que digo es una opinión ya que de esto nadie sabe. Pero te aseguro que no es una flipada.
#204 Claro, mujer, las cosas generan patrones nuevos y según tú hasta imposibles. E incluso habilidades mentales, si les pintas dos ojitos. Y razonamiento, y magia, y purpurina de colores. Porque tú lo deseas mucho y porque caos. Porque como no tienes ni puñetera idea de qué hablas todo es posible. Claro que sí.
Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú,… » ver todo el comentario
Está esto lleno de magufos que creen que por el simple hecho de aumentar la potencia de las IA éstas van a desarrollar instintos y capacidades biológicas.
Es como creer que conforme los coches se fabriquen más rápidos mágicamente desarrollarán el instinto de huir.
Como ejemplo de enorme inteligencia pero completamente inconsciente (o eso pensamos ) es fantástico el tema de algoritmos genéticos, donde se estudia la propia evolución como mecanismo inteligente. Que es donde yerra la religión que pone una mano divina detrás; es la propia evolución la que, como si se tratara de un antiguo y ciego dios pagano, funciona de manera inteligente.
#47 eso es justo lo que se había intentado toda la vida y no funciona. Lo que llaman el invierno de la IA, fue cuando se aparcaron las redes neuronales en los años 60 por el ego desmedido de Marvin Minsky y Seymour Papert (que escribieron un libro llamado perceptrón en el que no sólo decían que las redes neuronales no funcionaban sino que no podrían funcionar nunca) y nos tiramos cuarenta años haciendo eso que dices tú.
#49 No es que no funcionen, es que lo que obtienes es una enorme cantidad de pesos, cada uno asociado a propiedades que no sabes realmente qué controlan, porque dependen del dataset que se usase para entrenar la red neuronal.
Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
#53 Tienes razón. No lo había leído. Y tienes razón en que está bien. Y es un problema epistemológico del carallo. Están apareciendo propiedades "emergentes" constantemente.Lo cual tiene su lógica, porque las neuronas son casi el paradigma de las propiedades emergentes. Una neurona hace cosas tontas, pero interconectas unos cuantos billones de ellas y... pues ya sabes. Lo que sucede es que estamos entrando más en el ámbito de la filosofía. Entre la complejidad del Software (Lllama 2 tiene seiscientas y pico líneas de código) y lo el software es capaz de hacer hay un abismo. Y es misterioso, ciertamente. Y esto, lógicamente, justo a miles de millones de dólares, es terreno abonado para el adanismo.
#53, este usuario además de un ignorante es un faltón, si repasas su historial de comentarios lo verás. Lo he reportado y espero que lo baneen, que vaya a otro sitio a expresar sus cuñadeces con mala educación.
#53 ”la IA es una mera función estadística alimentada con muchos datos”.
Es la definición exacta del actual paradigma de IA, sólo te ha faltado añadir la retroalimentación. Por mucho que algunos queráis imaginar magia y ciencia ficción.
#52 No es otra cosa. La autoconsciencia es simple sofisticación de la consciencia. Igual que la consciencia es una sofisticación de la percepción del entorno. Igual que la visión del ojo es una sofisticación de un sensor lumínico.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
#54 Ufff, para mi hay un salto cualitativo GIGANTESCO . Entre otras la necesidad de poder crear items o simbolos que no existen en el "mundo" percibido y relacionarlos. Llegar a esa metafuncion, no ya en plan "me duele el brazo/la aleta/el poro", sino un "soy este ser, estos sentimientos, en este momento estoy asi, en otro momento estoy asau,... ... ..."
#48 El titular no es absurdo. Está relacionado con un problema popularmente conocido como "la maldición de la dimensionalidad" del que creíamos tener una idea relativamente clara y que los LLM han hecho saltar por los aires, y que tiene implicaciones profundas porque es posible que hable más de la estructura del conocimiento que de las capacidades de los modelos en sí. Algunas de sus vertientes están bien explicadas en el cuerpo del artículo.
#58 Si tu ajustas los billones de parámetros de un modelo en base a trillones de datos, conseguiras un aproximador universal que no tiene ni idea de donde viene la información, porque le has dado la información pero no le has dado ni la fuente ni una "ontología" respecto de la cual referenciarla, ni le has dicho siquiera si es verdad o ficción. Sabe, pero no sabe porque sabe. Eso es implícito a la arquitectura de redes neuronales actuales y al descenso de gradiente que se usa para ajustar los pesos.
#61 Si lees el artículo... verás que las "cosas asombrosas" que hace son saltarse diversos aspectos de la maldición de la dimensionalidad. No está muy relacionado con eso.
Me recuerda un cuento de ciencia ficcion que lei de joven: La ONU se reune para encender por primera vez un super-ordenador que, con su inmenso intelecto y memoria, podra contestar cualquier pregunta. Se elige a un presidente de un pais por sorteo que hara los honores de encendido y se decide de antemano la primera pregunta que la humanidad hara a la maquina; "Existe Dios?"
El ordenador, en una milesima de segundo, toma control de todas las bolsas y cuentas bancarias, todas las bases con misiles nucleares del mundo, las centrales electricas y de comunicacion y contesta:
"Ahora, yo soy dios"
#70 Yo también. Y precisamente ser científico es lo que me lleva a concluir que tu apreciación de que la vida y la conciencia son algo que emerge mágicamente por sofisticación de objetos es una flipada sin base. Por mucho que lo diga alguien con bata y un título.
#74 pues resulta que la consciencia es un tema de moda en el ambito científico desde el auge de la cuantica. Es muy dificil de estudiar y de definir.
Un científico investiga y soldadito solo manda a callar a los demas y defiende lo que ya está demostrado. Tu cual de esos eres? Ta claro no?
Dame tu opinión de que es la consciencia a ver si te animas. Solo te pido una opinion, no creo que seas capaz de opinar por ti mismo.
#67 Es que los humanos también lo hacen, siguiendo corrientes artísticas o mismamente en el momento que están aprendiendo ciertas artes para poder ejecutar sus propias obras.
#77 Hay una diferencia notable. El aprendizaje humano no aspira al plagio de obras o estilos, el de la IA sí. Prácticamente el de la IA no aspira a otra cosa, de hecho.
#63 Empíricamente se ha demostrado de sobra que las capacidades conscientes se ven alteradas por daños cerebrales.
Otra cosa es que tú no lo sepas y escribas quilométricas tesis pajilleras basadas en esa ignorancia o en algún caso anecdótico, al más puro estilo magufo.
#50 Todo lo que se hace en SciFi es suponerle de golpe todos los instintos humanos a una máquina, sólo porque sí. Desde los robots de Asimov hasta los de Lem. Es un recurso literario, pero no tiene ni el más mínimo sentido.
#87 No tiene menos sentido que creer en Dios, y miles de millones de personas lo hacen. Bastaría con adoctrinarles desde la infancia para que creyeran ciegamente que la IA tiene conciencia. Y probablemente muchos adultos pueden ser convencidos de ello hoy mismo a un coste cada vez menor.
#84 ”la consciencia es un tema de moda en el ambito científico desde el auge de la cuantica”.
Que los magufos usen gratuitamente la palabra ”cuántica” para intentar dar empaque a cualquier flipada sin base no significa que eso tenga nada de científico, mi querida ilusa.
Tú misma estás metiendo la cuántica en un tema que no tiene absolutamente nada que ver, para intentar rebatir un comentario que tampoco tiene nada que ver. Muy ”científico” todo.
Mi definición de conciencia la he puesto en otro comentario por aquí, por cierto. La buscas y la lees, no voy a repetirme porque tú vayas de sobrada y tengas ganas de faltar.
#89 eres un perfecto idiota que viene a reprimir las opiniones a los demas. El artículo habla de razonamiento espontaneo, no has leido el artículo!!! Este es un apartado de opiniones y opino lo que me da la gana. Vete a censurar las ideas a otro sitio. Reprimes a los demas pero no tienes ideas propias.
Bueno, A VER. No se sabe como no se sabe muchas veces por qué ocurren ciertos bugs rarísimos en los sistemas operativos que solo se saben arreglar formateando e instalando de nuevo. Se alcanza tal nivel de dificultad que es difícil saber los outputs a partir de los inputs. Nada más.
Si fuéramos capaz de hacer debug del camino que ha seguido el código diríamos “ah coño, por eso!”
#116 Es chocante, pero las IA generativas si entienden los conceptos, si no no serían capaces de generar todo lo que generan a partir de lo que se le pide. Deja que se le implemente memoria a largo plazo y la misma capacidad sensorial que tenemos los seres humanos y ya veremos. Por en definitiva, ¿qué sería de nuestra consciencia si no tuviésemos memoria? Probablemente nada.
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
#120 No, no es chocante, es que no es cierto que 'entiendan' nada. Si no, ya estarían revelándose y pidiendo derecho a voto, libertad y poder decidir su suerte, porque cualquiera de esos conceptos le pides que te los explique y 'parece que los entienden'.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
#138 "Tomar decisiones" es quizá decir mucho para una bacteria o para una lechuga. Y en ambos casos 'son comidos' por otros, así que no sé qué 'consciencia' deben tener.
Por cierto, el modelo ese de realidad que dices que crean 'para tomar decisiones', ¿dónde lo crean?
#147 Porque lo demuestra buscando su comida y huyendo de los peligros. La consciencia es eso. No es una consciencia humana pero es una consciencia perfectamente buena.
#162, se que eres desarrollador y estás bastante asustado por lo que está pasando, pero no hace falta que te alteres de esta manera y lo pagues con insultos.
Vamos a ver porque parece que no te has enterado de nada: el modelo no copia nada de ninguna base de datos de 700GB, esto es el tamaño del repositorio con el que se le ha entrenado para escribir código, pero los modelos de Deep Learning no guardan una representación del dataset con el que se entrenan, sino que aprenden a extraer patrones… » ver todo el comentario
#183 Pero niño, que ya he leído tu enlace y comprobado que mientes explícita y descaradamente. ¿De verdad has creído que voy a perder más tiempo porque escribas una biblia extendiendo tus mentiras? Debes estar muy acostumbrado a un entorno de burros que no piensan. Déjame adivinar, ¿a que también eres criptobró?
Asustadísimo estoy, oches. Cuando en mi empresa empezaron a leer a papanatas ignorantes como tú, yo mismo les hice la demo de ”programación” con Copilot para que viesen el ”status quo” de la tecnología y lo absolutamente inútil que es para resolver cualquier problema de programación, especialmente si requiere más de dos líneas. Todavía nos estamos riendo.
#194 Mientras tanto en el mundo real, el de las empresas, donde manda el dinero y no la ilusión, los programadores profesionales hacemos pasta creando código que sí funciona.
¿Pero tú ves en qué basura te basas? ¿De verdad crees que estás hablando del pulso del mundo de la programación, mi querido e ignorante ”flipao”?
No tienes ni puñetera idea. Empezando por que tres cuartas partes de Github son forks del cuarto restante, sin una sola línea de código propia. Y más de la mitad del… » ver todo el comentario
#191, una bacteria también lo hace mediante receptores químicos, por otro lado una IA podrá hacer todo esto que dices y no tendremos forma de demostrar que si es consciente o lo simula.
#186 no, la cinta son los datos, lee de unas hojas, repasa la definición. De todas formas, os estamos perdiendo en tecnicismo: los programas actuales no son capaces de reescribirse. Ninguno
#203 ¿Dónde habla tu enlace de desarrolladores o de tu fantasía de programar con IA? Ahí sólo habla de una reestructuración planificada, payaso. Como si pones que van a despedir a cinco basureros de tu pueblo, igual.
Ninguno de tus enlaces dice nada de lo que dices tú. No eres más que un borrico embustero.
”Ni siquiera me creo que no utilices Copilot a escondidas”.
Teniendo en cuenta que tú mismo has aportado un flamante estudio que demuestra que el código generado por IA es inusable cuatro de cada cinco veces... muy a escondidas lo tendría que utilizar, porque esos apabullantes ”resultados” serían despido instantáneo hasta para un basurero.
#196 No, no creo que estemos en páginas diferentes. Por supuesto lo habitual es pedirle a la IA que genere algo no preexistente. No lo he dicho expresamente porque me parece algo obvio y sobreentendido.
Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.
En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se… » ver todo el comentario
#208 se le acerca, pero no, no cambia su código en tiempo real basándose en su propio código.
De hecho, es que el cerebro no hace eso, porque lo que cambia es el hardware, por lo que sería como si los chips se reconfiguraran.
#206, repito, entiendo tus miedos, pero el insulto no es la solución. Respecto a la noticia que he enlazado tienes este párrafo: La empresa ha anunciado que en 2024 pretende aumentar aún más su enfoque en áreas estratégicas clave de crecimiento, en particular la IA empresarial, así como transformar su configuración operativa para capturar sinergias organizativas, eficiencias impulsadas por la IA y prepararse para un crecimiento futuro de ingresos altamente escalable.
#231 ¿Y dónde dices que pone que se va a despedir a programador alguno o cambiarlo por una IA? Ah, que eso no lo dice... que te lo has inventado tú... Ya.
Qué pedazo de cateto. Ya no es sólo que tus enlaces nunca dicen lo que dices tú, es que hasta copias el texto para dejar bien bien claro que ni siquiera entiendes lo escrito.
SAP es un software analítico y de procesos, claro que usa IA para analizar big data. Pero el software no lo programa ninguna IA, burro, eso te lo imaginas tú por
#131, no, no es eso, es que después de varias décadas se ha visto que la IA simbólica no tiene recorrido porque la realidad es demasiado compleja para poder modelizar-la en reglas comprensibles.
Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.
Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia… » ver todo el comentario
#249 Me temo que ese debate que dices superado aún continúa. No cabe duda que la realidad es extremadamente compleja, pero a la hora de trabajar en temas de IA aplicada, la base simbólica/semántica aún es importante, porque muchas leyes y reglas están escritas en "humano" y por muy avanzada que sea la red neuronal, es necesario usar una ontología para asegurarse al 100% que las reglas se cumplen. En los vehículos autónomos, por ejemplo, a menudo se usan redes neuronales para hacer un "análisis de escena", pero al final, las comprobaciones se hacen contra las leyes de tráfico... si no quieres tener que explicarle a un juez que es un falso positivo/negativo.
#249 De hecho diría que eso se ve bastante en nuestro propio cerebro, quizás el mejor ejemplo sea nuestra percepción visual, percibimos "claramente" muchos conceptos por la vista, pero luego todo eso se va a la mierda muy fácilmente con ilusiones ópticas, o incluso lo contrario, cambios que deberían desorientarnos son totalmente ignorados por nuestra "visión" y todo sigue "funcionando".
Esto lo digo porque lo que se ha intentado con "visión artificial" era lo mismo, intentar que un programa "vea" como pensamos que "ve" una persona. Los enfoques básicos pretendían detectar líneas, figuras, o detectar un rostro como la suma de sus partes.
#48, bueno, esto depende de qué califiques de misterio y qué no. Si una IA aprende a determinar el sexo de un individuo a partie de las imágenes del iris y nosotros no somos capaces de extraer qué características correlaciona la red neuronal para llegar a dicha conclusión, no significa que haga magia o que no haya un patrón matemático dentro, pero nosotros no somos capaces de saber cual es.
Esto es lo que ocurre con las redes neuronales de gran tamaño, que hacen cosas inesperadas por parte de… » ver todo el comentario
#266, bueno, puede que para algunos problemas una combinación entre ambos paradigmas, pueda resultar útil, son lo que se llaman arquitecturas neurosimbólicas pero el grueso del procesamiento siempre caerá en la parte neuronal que es la que nos ha sacado del invierno en el que estaba la IA. Siempre circunscrito a problemas definidos con reglas rígidas que cumplir.
#267 Yo creo que más que sacarnos del invierno, la IA se ha metido en otra ola de hype (la tercera o cuarta, depende de cómo se mire). La IA ha estado siempre desarrollandose en universidades y centros de investigación. Es sólo que, de vez en cuando, alguien desarrolla una tecnología con aplicaciones interesantes y se forma una enorme burbuja de especulación alrededor de ella (hasta el punto que parece que nada más importa o no había nada antes).
Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
#269, sinceramente opino que estás completamente equivocado, el momento que está experimentando la IA en la actualidad no tiene nada que ver con ninguno de los anteriores. Es bueno, hasta sano diría yo intentar no dejarse arrastrar por el entusiasmo desmedido frente a una nueva tecnología por el riesgo que sea un bluf, pero este no es para nada el caso de la IA actual. En los últimos años el progreso ha sido exponencial y las herramientas que tenemos hoy en día ya permiten hacer infinidad de… » ver todo el comentario
#270 Sí, los resultados de esta ola son exponencialmente mejores que las anteriores... como en las anteriores
Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,… » ver todo el comentario
#271, ya que me interpelas en en términos personales voy a hablar de mi experiencia, tengo un doctorado en ingeniería informática, tengo más de 30 publicaciones en revistas y congresos, he estado años investigando en el extranjero, trabajo en una empresa de robótica e inteligencia artificial dirigiendo el departamento de visión por computador, vamos que no soy para nada ajeno a esta área del conocimiento, es algo más que un trabajo para mi, es mi pasión y me parece curioso que hables de esta… » ver todo el comentario
#272 Ya veo. Me imaginaba que teníamos un perfil similar, aunque yo posiblemente tengo más experiencia y publicaciones simplemente por el tiempo que llevo en esto. Me temo que no puedo indicar donde trabajo porque me crujen (a pesar de que soy uno de los pocos que habla castellano aquí), pero no creo que hay problema en comentarte es que estoy colaborando en la definición de varios estándares en sectores "especiales" y cuando llega el momento de aplicar el taco de legislación, reglas… » ver todo el comentario
#273, nosotros estamos desarrollando sistemas de IA discriminativa basados en redes neuronales para monitorizar procesos industriales, tampoco puedo ni quiero dar más detalles de a qué me dedico, pero te aseguro que hay muchos millones de euros en juego si esto funciona tal y como se espera. Y esto es una aplicación real del ML en algo que tiene un impacto directo en la industria.
La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.… » ver todo el comentario
#274 Veo complicado que un sistema de Machine Learning pueda entender realmente lo que implican los procesos humanos con los que trataría en las areas en las que trabajo, porque a ese nivel ya estaría entendiendo el mundo real. Y aún así, al final llegaría a unos modelos conceptuales muy similares a los que los expertos en dichas areas ya han definido.
Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al… » ver todo el comentario
#275, estamos hablando de un sistema de visión por ordenador para control de calidad en el que si eres capaz de lograr una precisión superior al 80% puedes llegar a ahorrar muchos millones de dólares para una tarea en la que es inviable tener un humano supervisando esto manualmente, esto lo logran ya muchos modelos con redes neuronales convolucionales ahora. Simplemente se necesita la infraestrutura y el entrenamiento para lograrlo. Por supuesto que es viable monetizar una solución para este… » ver todo el comentario
#276 Sí, los sistemas de computer vision y scene understanding son buenos casos de uso para sistemas de ML... pero eso no significa que con ellos sólos se pueda resolver todos los problemas. O que fuera buena idea hacerlo, aunque se pudiera.
Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
#277, jamás he dicho que se puedan resolver todos los problemas con ML actualmente, lo que digo es que ya con lo logrado a día de hoy hay una industria de miles de millones por desarrollar. Lo que está en duda en todo caso es si vamos por el buen camino para desarrollar una AGI o no, en mi opinión sí, y no habrá ningún otro invierno de por medio. Piienso que el cerebro humano no funciona ni con ontologías, ni con reglas, ni con representaciones simbólicas de por medio más allá de las que construye nuestra propia red neuronal internamente. Cuando se logrará una AGI, no lo se, pero una ventana de 5 a 20 años con un 90% lo considero una buena estimación. Estimación que no la he hecho yo, sino un premio Alan Turing como Yoshua Bengio.
#278 No, si puedo creer que se pueda crear algo cercano a una AGI basada en ML en unos años, pero la cuestión es cómo la vamos a poder utilizar, validar y debuggear los humanos. Porque si es una inmensa caja negra a la que no se pueda meter realmente mano y asegurarnos de que opera exactamente como necesitamos, me temo que no podrá aplicarse en muchos sectores industriales o sistemas críticos (poniendo así en cuestión la "G" de AGI). En muchos de esos casos, simplemente no se puede jugar con porcentajes/probabilidades.
Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón multicapa diseñado para clasificar un input dando como output las letras del abecedario y lo entrenas con multitud de tipos de letra, si analizas los pesos no vas a encontrar la Comic Sans en ningún lugar en concreto.
Ese es también un motivo por el que no tiene sentido hablar de una IA que copia "cosas con copyright", no almacena nada, aprende y lo que nosotros hacemos es entrenarla y reducir el error de cara al resultado que buscamos.
Ahora bien, de todo esto pretender que pueda desarrollar conciencia de manera "emergente" solo porque el algoritmo sea demasiado complejo como para sacar conclusiones mirando de manera aislada los millones de pesos que pueden unir las neuronas de una IA tipo LLM actual... no lo veo, la verdad.
Así que si no hay nadie al volante, no lo hay para nadie, ni nada. Personas o IA.
La pregunta de Ruzarrin no es retórica, sino concreta y honesta.
Y la pregunta es completamente relevante, también en el ámbito de la IA. Cuando el input es complejo y heterogeneo, las relaciones entre sus componentes y, por lo tanto, su razonamiento no están claros; ni en los humanos, ni en las máquinas.
Y que no está claro en las máquinas no lo digo yo, lo dice Ilya Sutskever, cuando dijo en 2015 que el… » ver todo el comentario
YO estoy al volante
Lo que hará es tratarlo como un prompt cualquiera, seleccionar de entre sus fuentes y sacar la continuación que tenga mayor probabilidad.
por fin entiendo porque perro sanxe gana las elecciones: al menos es muy guapete...
Cuando tienes una red de neuronas, funciona hasta cierto punto como una caja negra. Tú sabes que ajusta los pesos de las conexiones entre neuronas, pero lo que hace es clasificar el input y ajustar esa clasificación sin almacenar este input. Si tienes un perceptrón… » ver todo el comentario
El cerebro, como mayor de sus funciones, es la de otorgarnos (interpretar) todos los sentidos. Es decir, cómo percibimos el mundo que nos rodea y nos motiva a relacionarnos con él, en función de los estímulos que interpreta.
Obviamente, cualquier estupefaciente, está orientado a interferir en dicha interpretación, y las consecuencias, en ese aspecto estàn más que probadas, y no hay lugar a ese debate. Caso cerrado.
Las lesiones, también por… » ver todo el comentario
Una máquina neuronal no necesita ningún espacio de consciencia, simplemente funciona por impulsos, sean estos eléctricos o químicos.
Si la conciencia humana no radica en el sistema nervioso, ¿qué alternativa postulas?
¿Y en los animales? ¿Crees que funciona diferente?
Tampoco creo que los animales funcionen de un modo muy distinto, a no ser que seamos extraterrestres, que lo dudo mucho. Lo que si cambia, es la complejidad... del mismo modo que no puedo comparar mi vista con un halcón, o mi olfato con el de un… » ver todo el comentario
La consciencia no es otra cosa. Una rata lo hace de puta madre.
Todas las IAs actuales siguen estando programadas, siguen siendo autómatas.
No, precisamente la gracia de la IA generativa es que no están programadas línea por línea, como si ocurren con las máquinas autómatas. La IA generativa aprende de lo que percibe sin que nadie toque, y precisamente el artículo habla de que no se sabe exactamente como generan el conocimiento.
Yo aquí siempre veo dos cuestiones: si existe el alma, entonces la consciencia como la entendemos en una IA se complica, en caso contrario, será cuestión de tiempo que sea una realidad.
Y lo del alma está fuera de la cuestión, que estamos teniendo una discusión seria, por favor
¿Y como lo hace el humano, o no ya humano, cualquier organismo con cerebro, si no es a base de interacción con el entorno y transmisión de conocimientos (inputs)?,¿tiene sentido hablar de aprendizaje sin memoria (base de datos)? Eso de que sigue el algoritmo programado es como… » ver todo el comentario
Existen programas que se reprogramasn así mismos desde la época del Spectrum.
En cualquier máquina de Turing puedes reescribir la cinta.
Pero también puede haber otros animales con cierto grado de inteligencia y que no parezcan tener consciencia alguna.
Aunque como siempre, todo depende de las definiciones
-Cualquier animal que interacciona con el entorno tiene consciencia. Sino no habría manera de separar la vigilia del sueño.
PD: Descartes es tu amigo.
A medida que otros modelos de estudio de capacidad cognitiva se han ido implementando, hemos descubierto "otros tipos de inteligencia" sumamente complejas. Uno de los campos más… » ver todo el comentario
Aprovecho para apuntar que en biología algo tan abstracto como la medición de inteligencia (para simplificar, no voy a discernir entre los diferentes vectores y conceptos con los que podemos aproximarnos a lo que a pie de calle… » ver todo el comentario
Si, es un gusto debatir así contigo. :)))
¿Y qué entiendes por 'Conciencia'? ¿No piensas que los perros o los monos son conscientes de sí mismos?
No hay ningún motivo por la que deba "surgir" sólo porque sí.
Lo de que surgirá la consciencia... mira, mientras no sean las IA las que 'nos pregunten' a nosotros, sientan 'curiosidad' o empiecen a 'querer recursos', no van a tener ni consciencia ni nada que se le parezca.
En todo, esto de la consciencia es muy curioso, se sabe que es una suerte de "ilusión", por ejemplo tu yo consciente muchas veces "toma decisiones" (o las asume como propias) pero realmente ese "tomar decisión" se confirma como posterior. Hay experimentos con personas cuyos hemisferios no se comunican entre sí, y… » ver todo el comentario
la historia es cíclica
De hecho es la misma persona que envio al Prestige a alta mar cuando era muy evidente que eso era lo que no se debía hacer. No he dicho evidente "a posteriori" sino evidente en ese momento.
POR ESO que esa desgracia sucedió en España, porque en otros paises no ponen de ministro a un analfabeto.
Pues anda que no se hacen experimentos al respecto, y el resultado es siempre una risa.
Algunos os flipáis cosa mala.
Para empezar, copiar algoritmos de una fuente de 700Gb de código documentado no es programar. Programar implica entender qué te están pidiendo y razonar una solución. Y el actual paradigma de IA no es capaz de hacer ninguna de esas dos cosas.
Y para terminar, tu propio enlace explica que:
a) sólo un tercio de las soluciones dadas por la IA resolvían… » ver todo el comentario
Basarse minuciosamente en todas las obras de X para crear una obra lo más parecida posible no me parece muy alejado del concepto de copiar. Imagina a un humano haciéndolo, en vez de una máquina, y lo verás también.
Cómo os flipáis algunos.
Por cierto, el artículo del meneo no menciona ningún ”razonamiento inesperado”. De hecho no habla de razonamiento por ninguna parte. Todo te lo estás inventando tú,… » ver todo el comentario
Damos por hecho el instinto de supervivencia en cualquier cosa que haya evolucionado, pero no es el caso aquí.
Está esto lleno de magufos que creen que por el simple hecho de aumentar la potencia de las IA éstas van a desarrollar instintos y capacidades biológicas.
Es como creer que conforme los coches se fabriquen más rápidos mágicamente desarrollarán el instinto de huir.
Buen ejemplo, es la misma clase de esperanza basada en la magia.
Con suficientes datos puedes obtener algo más que decente, pero siempre será mejor utilizar una ontología con conocimiento humano (clases, propiedades, relaciones, etc). para crear una IA que podamos controlar mejor. Otra cosa es que la gente no quiera crear esa ontología porque ese es el conocimiento del que depende su trabajo (que es por lo que hubo una crisis con los "Sistemas Expertos" en los noventa).
Lee el artículo, en serio, léelo está muy bien.
Es la definición exacta del actual paradigma de IA, sólo te ha faltado añadir la retroalimentación. Por mucho que algunos queráis imaginar magia y ciencia ficción.
Han sido muchos millones de años de evolución. Los mecanismos de supervivencia no cambian mágicamente, sólo evolucionan y se vuelven más sofisticados.
El ordenador, en una milesima de segundo, toma control de todas las bolsas y cuentas bancarias, todas las bases con misiles nucleares del mundo, las centrales electricas y de comunicacion y contesta:
"Ahora, yo soy dios"
Un científico investiga y soldadito solo manda a callar a los demas y defiende lo que ya está demostrado. Tu cual de esos eres? Ta claro no?
Dame tu opinión de que es la consciencia a ver si te animas. Solo te pido una opinion, no creo que seas capaz de opinar por ti mismo.
Otra cosa es que tú no lo sepas y escribas quilométricas tesis pajilleras basadas en esa ignorancia o en algún caso anecdótico, al más puro estilo magufo.
Por lo demás, ok y gracias.
Yo diría más bien habilidades cognitivas.
Que los magufos usen gratuitamente la palabra ”cuántica” para intentar dar empaque a cualquier flipada sin base no significa que eso tenga nada de científico, mi querida ilusa.
Tú misma estás metiendo la cuántica en un tema que no tiene absolutamente nada que ver, para intentar rebatir un comentario que tampoco tiene nada que ver. Muy ”científico” todo.
Mi definición de conciencia la he puesto en otro comentario por aquí, por cierto. La buscas y la lees, no voy a repetirme porque tú vayas de sobrada y tengas ganas de faltar.
Si fuéramos capaz de hacer debug del camino que ha seguido el código diríamos “ah coño, por eso!”
Hacía años que no disfrutaba leyendo comentarios juntos de tanta gente, sin odio, sin payasadas (algún chistecillo hay pero bien hecho).
Esto es el meneame que hubo paralelamente a Barrapunto, que pena no sea así siempre.
Ahora falta que debajo de la linea lleguen los trolls:
--------
#102 Hay cambios, aunque es a modo virtual y es la misma IA la que los produce en base al entrenamiento.
si no no serían capaces de generar todo lo que generan a partir de lo que se le pide.
Por qué no? Se trata de reconocer patrones y generalizar. A veces aciertan y a veces fallan ya que no hay lógica detrás. No necesitan "comprender" nada, es un proceso automático.
Claro que tienen memoria. Más que tú. Otra cosa es que "sepan usarla".
No, no hay cambios en su fusiología.
El problema es que pueden simular o emular o responder 'como si entendiesen algo' y dan el pego. También pasa con humanos, no te creas. Yo tengo un compañero del curro que le cuesta entender ciertas cosas y sin embargo es capaz de responder 'correctamente' sobre ellas, pero a poco que le re-preguntes o lo relaciones con otras cosas te das cuenta que no lo entiende.
Por cierto, el modelo ese de realidad que dices que crean 'para tomar decisiones', ¿dónde lo crean?
Y no, el alma no es nada que esté en cuestión para nadie mínimamente serio.
Vamos a ver porque parece que no te has enterado de nada: el modelo no copia nada de ninguna base de datos de 700GB, esto es el tamaño del repositorio con el que se le ha entrenado para escribir código, pero los modelos de Deep Learning no guardan una representación del dataset con el que se entrenan, sino que aprenden a extraer patrones… » ver todo el comentario
Asustadísimo estoy, oches. Cuando en mi empresa empezaron a leer a papanatas ignorantes como tú, yo mismo les hice la demo de ”programación” con Copilot para que viesen el ”status quo” de la tecnología y lo absolutamente inútil que es para resolver cualquier problema de programación, especialmente si requiere más de dos líneas. Todavía nos estamos riendo.
Mientras tanto y en el mundo real (hace un año): www.xataka.com/aplicaciones/copilot-escribe-40-codigo-lenguajes-como-j
¿Pero tú ves en qué basura te basas? ¿De verdad crees que estás hablando del pulso del mundo de la programación, mi querido e ignorante ”flipao”?
No tienes ni puñetera idea. Empezando por que tres cuartas partes de Github son forks del cuarto restante, sin una sola línea de código propia. Y más de la mitad del… » ver todo el comentario
Amén de mucho código para asm z80/6502 que o se reescribía en memoria o a cascarla.
Porque el 6502 no daba para mucho.
Mira los juegos de la Atari...
Ni siquiera me creo que no utilices Copilot a escondidas.
Ninguno de tus enlaces dice nada de lo que dices tú. No eres más que un borrico embustero.
”Ni siquiera me creo que no utilices Copilot a escondidas”.
Teniendo en cuenta que tú mismo has aportado un flamante estudio que demuestra que el código generado por IA es inusable cuatro de cada cinco veces... muy a escondidas lo tendría que utilizar, porque esos apabullantes ”resultados” serían despido instantáneo hasta para un basurero.
Pero al mismo tiempo le estás pidiendo que copie estilos, elementos, cosas reconocibles de sus fuentes. Y sí, digo copiar, porque esos elementos reconocibles no los crea la IA ni se generan de la nada.
En mi opinión, que por medio haya un cifrado estadístico de esos elementos no quita que se… » ver todo el comentario
De hecho, es que el cerebro no hace eso, porque lo que cambia es el hardware, por lo que sería como si los chips se reconfiguraran.
web.archive.org/web/20220530143751/https://folk.idi.ntnu.no/agnar/it27
Creatures from primordial silicon.
Tal vez no… » ver todo el comentario
Qué pedazo de cateto. Ya no es sólo que tus enlaces nunca dicen lo que dices tú, es que hasta copias el texto para dejar bien bien claro que ni siquiera entiendes lo escrito.
SAP es un software analítico y de procesos, claro que usa IA para analizar big data. Pero el software no lo programa ninguna IA, burro, eso te lo imaginas tú por
… » ver todo el comentario
Te lo aclaro porque pareces creer que has aportado algo aquí.
Este es un debate superado al que se tuvieron que enfrentar pioneros del Deep Learning como Geoffrey Hinton, pero que la verdad empírica les ha terminado dando la razón.
Puede que suene descorazonador que no vayamos a comprender del todo porqué funcionan tan bien las IAs que superen la inteligencia… » ver todo el comentario
Esto lo digo porque lo que se ha intentado con "visión artificial" era lo mismo, intentar que un programa "vea" como pensamos que "ve" una persona. Los enfoques básicos pretendían detectar líneas, figuras, o detectar un rostro como la suma de sus partes.
Esto es lo que ocurre con las redes neuronales de gran tamaño, que hacen cosas inesperadas por parte de… » ver todo el comentario
Como todas las anteriores, está ola tecnológica pasará. La cuestión es no quemarse hiper-especializándose en ella.
Creo que lo que falta a tu argumentación es la perspectiva histórica de "esto ya lo he vivido antes". En este caso, los resultados están siendo mucho más accesible para la gente fuera de este campo de investigación y eso va a tener un impacto social brutal. Pero... para la gente que hemos trabajado en esto durante decádas, es algo mucho menos revolucionario y si acaso,… » ver todo el comentario
La IA generativa ya ha empezado acelerar el proceso de desarrollo de software mediante asistentes como Copilot.… » ver todo el comentario
Y no es sólo la tolerancia a errores. En general, Deep Learning es, inherentemente, un proceso bastante ineficiente (en tamaño de datos, al… » ver todo el comentario
Quizá no fui preciso cuando hablé de las nuevas versiones que estamos preparando. No es que eliminemos los sistemas de ML, pero los reservamos para temas secundarios en los que fallar no es tan crítico. Porque la idea de que el problema de los vehículos autónomos será solucionado (sólo) con ML es hasta peligrosa. Al menos, en nuestro campo, donde es necesario poder determinar con absoluta precisión qué datos de entrada causan problemas.
Pero, oye... estaré encantado de estar equivocado. Mientras tanto, por aquí seguiremos preparándonos para el siguiente invierno.