Si unas moléculas químicas muy complicadas son capaces de hacer a los humanos inteligentes, del mismo modo, unos circuitos electrónicos muy complicados pueden hacer a los ordenadores inteligentes. Si los ordenadores son inteligentes pueden desarrollar otros ordenadores de mayor complejidad e inteligencia...
#9:
Hay un muy buen libro, "La nueva mente del Emperador", escrito por Roger Penrose, matemático y compañero de Hawkings en alguno de sus trabajos, en el que se explica muy claramente como una máquina de Turing no puede llegar a resolver cierto tipo de problemas que el cerebro humano sí sabe resolver. Para afirmar que una máquina podrá realizar los procesos mentales que el ser humano realiza habría primero que saber cómo se realizan y cuáles son, cosa que hasta el momento se desconoce. Eso hace que por el momento la potencia de cálculo de las máquinas actuales sea irrelevante a la hora de conseguir otorgarle inteligencia pues el proceso no es válido.
#7:
La complejidad de cálculos de los computadores igualara a la humana en el 2050, en velocidad de cálculo esta claro que nos sobrepasarón hace décadas pero físicos auguran que dentro de 4 décadas podrán tener una capacidad de autoconciencia, pseudosentimientos, empatía, capacidad de replicamiento, etc...
Pero tales físicos no veían esto como una amenaza, más bién como una manera de alargar en el tiempo la existencia humana (o de su inteligencia), cuando los años, siglos, milenios, eones... hayan pasado quizás lo único que quede de nosotros sea el fuerte y frio acero juntos a circuitos integrados megacomplejos... y pensarán que la especie humana fueron dioses que los crearon en tiempos que ni casi ellas recuerdan.
Me rayo.
#37:
No hace falta entender algo para modelar su comportamiento. Por ejemplo, los algoritmos genéticos se basan en crear un "ecosistema" de algoritmos, en los que el código muta aleatoriamente y se replica, facilitándose la supervivencia del más apto según una serie de criterios. Afinando este sistema, se pueden conseguir algoritmos de gran complejidad... sin tener demasiada idea de cómo funcionan, ya que son fruto de una evolución.
Lo mismo puede hacerse en hardware, implementando circuitos de forma aleatoria, quedándose con los N que mejor se ajustan a unos objetivos y usándolos como base para una nueva generación. En no demasiadas generaciones se pueden conseguir funcionalidades muy complejas.
La gracia de estos sistemas es que, a diferencia de las personas, que hemos necesitado millones de años para llegar donde estamos, todo esto se puede hacer a velocidades electrónicas, acelerando el proceso bastantes órdenes de magnitud. Por tanto, tal vez el que no haya pasado ya se debe a que falta refinar los mecanismos de mutación/reproducción/selección, o tal vez no hayamos llegado al tamaño mínimo que debe tener el ecosistema. Pero es algo que puede pasar en cualquier momento, yo no lo descartaría por fantasioso.
#1:
Comentarios sobre Skynet, Sarah Connor y Terminator debajo de la línea
------------------------------------------------------------------------------------------------------------------------------------
#14:
#7 Dar fechas en esos temas es una tonteria, porque no sabes que avances se producirán por medio.
De todas formas, como informático, programador y todo eso, pienso que es imposible hacer ordenadores inteligentes.
Primero y fundamental: ¿que consideramos inteligencia? Parece una tonteria, pero es una definición que no está clara, y es más un tema filosófico que otra cosa. Si no sabemos que es la inteligencia, ¿cómo podemos formalizarla de forma que un ordenador la utilice?
Esto es un tema bastante árido, porque no solo se mezclan temas técnicos, si no también filosóficos.
#23:
No parece que Hawking esté muy al tanto de los "inmensos" avances en IA en los últimos 60 años, a pesar de que la capacidad de cálculo se ha multiplicado por varios millones.
Una máquina "inteligente" dudo que tenga ese progreso lineal que él dice. Si algo indica el cerebro humano es que la inteligencia es una combinación de muchos factores y que normalmente lo que ganas de un lado lo pierdes por otro. Sospecho que esto es debido a algo, por ejemplo, que no importa la capacidad de cálculo que tengas: la inteligencia por su estructura inherente no permite una progresión como la que indica este señor.
Una cosa que aun nadie ha resuelto en el campo de la IA, es una cosa en mi opinión bastante obvia: todos nuestros cerebros tienen el mismo potencial, y a pesar de eso todos son diferentes (cada persona es un mundo). ¿Nadie se ha parado a pensar que para desarrollar una inteligencia un cerebro tiene que "entrenarse" con estímulos sensoriales y experiencias físicas, emocionales, sociales... durante unos 20 años o más? ¿No se han dado cuenta de que no hay una sola persona que domine todos los campos al mismo tiempo?
Dudo mucho que puedan sintetizar todo eso en una máquina por su cara bonita y recopilando datos, excepto que hagan una máquina que aprenda como nosotros. Estos científicos que predicen la revolución en la IA (que lleva viniendo hace décadas pero nunca llega y ni siquiera nos acercamos) pecan de simplistas e ilusos. Lo más que se conseguirá será imitar un cerebro humano y aun así faltarán cosas vitales para el desarrollo de una inteligencia: experiencias, sensaciones, contexto, cultura, crianza...
Estos científicos viven en una torre de marfil tan alta que no ven las cosas más obvias. Y que conste que leo mucho a este señor, pero hacen algunas predicciones con una ingenuidad que da la risa.
#31:
#9 Bienvenido a la informática teórica, a la jerarquía de Chomsky y a los problemas Turing-computables. Obviamente, cualquier problema que no se pueda definir por un lenguaje recursivo enumerable no es Turing-computable y, por tanto, a día de hoy irresoluble para una máquina.
Mucho me temo que "desarrollar otros ordenadores" no es Turing-computable. Así que, por un tiempo, esto no son más que especulaciones por mucho que lo diga Hawking o mi vecino del cuarto.
Hay un muy buen libro, "La nueva mente del Emperador", escrito por Roger Penrose, matemático y compañero de Hawkings en alguno de sus trabajos, en el que se explica muy claramente como una máquina de Turing no puede llegar a resolver cierto tipo de problemas que el cerebro humano sí sabe resolver. Para afirmar que una máquina podrá realizar los procesos mentales que el ser humano realiza habría primero que saber cómo se realizan y cuáles son, cosa que hasta el momento se desconoce. Eso hace que por el momento la potencia de cálculo de las máquinas actuales sea irrelevante a la hora de conseguir otorgarle inteligencia pues el proceso no es válido.
Eso es como decir si las personas son inteligentes pueden fabricar odenadores más inteligentes que ellos y hoy por hoy eso no es real. Que bien está lanzar teorias que no son comprobables pero que a mucha gente le parecerá muy curioso.
Con respecto a lo que dice #9 las personas tomamos decisiones en base a toda nuestra experiencia anterior, por ejemplo cuando elegimos un LCD para el salón nuestra mente tiene acceso a la mayoría de los comentarios que hemos leído y escuchado, a las experiencias pasadas con esa marca de TV, etc, etc, manejando una cantidad de información bestial, cosa que un ordenador no puede hacer.
#9 Bienvenido a la informática teórica, a la jerarquía de Chomsky y a los problemas Turing-computables. Obviamente, cualquier problema que no se pueda definir por un lenguaje recursivo enumerable no es Turing-computable y, por tanto, a día de hoy irresoluble para una máquina.
Mucho me temo que "desarrollar otros ordenadores" no es Turing-computable. Así que, por un tiempo, esto no son más que especulaciones por mucho que lo diga Hawking o mi vecino del cuarto.
#9#31 Vuestro argumento es falaz, incluso aparte de lo que indica #39. Tomado de una crítica al libro de Penrose del "Times Literary Supplement" (siento no tener tiempo de traducirlo): http://ase.tufts.edu/cogstud/papers/penrose.htm
What minds can do, Penrose claims, is see or judge that certain mathematical propositions are true by "insight" rather than mechanical proof. And Penrose then goes to some length to argue that there could be no algorithm, or at any rate no practical algorithm, for insight.
But this ignores a possibility--an independently plausible possibility--that can be made obvious by a parallel argument. Chess is a finite game (since there are rules for terminating go-nowhere games as draws), so in principle there is an algorithm for either checkmate or a draw, one that follows the brute force procedure of tracing out the immense but finite decision tree for all possible games. This is surely not a practical algorithm, since the tree's branches outnumber the atoms in the universe. Probably there is no practical algorithm for checkmate. And yet programs--algorithms--that achieve checkmate with very impressive reliability in very short periods of time are abundant. The best of them will achieve checkmate almost always against almost any opponent, and the "almost" is sinking fast. You could safely bet your life, for instance, that the best of these programs would always beat me. But still there is no logical guarantee that the program will achieve checkmate, for it is not an algorithm for checkmate, but only an algorithm for playing legal chess--one of the many varieties of legal chess that does well in the most demanding environments. The following argument, then, is simply fallacious:
(1) X is superbly capable of achieving checkmate.
(2) There is no (practical) algorithm guaranteed to achieve checkmate.
therefore
(3) X does not owe its power to achieve checkmate to an algorithm.
So even if mathematicians are superb recognizers of mathematical truth, and even if there is no algorithm, practical or otherwise, for recognizing mathematical truth, it does not follow that the power of mathematicians to recognize mathematical truth is not entirely explicable in terms of their brains executing an algorithm.
Comentarios sobre Skynet, Sarah Connor y Terminator debajo de la línea
------------------------------------------------------------------------------------------------------------------------------------
La complejidad de cálculos de los computadores igualara a la humana en el 2050, en velocidad de cálculo esta claro que nos sobrepasarón hace décadas pero físicos auguran que dentro de 4 décadas podrán tener una capacidad de autoconciencia, pseudosentimientos, empatía, capacidad de replicamiento, etc...
Pero tales físicos no veían esto como una amenaza, más bién como una manera de alargar en el tiempo la existencia humana (o de su inteligencia), cuando los años, siglos, milenios, eones... hayan pasado quizás lo único que quede de nosotros sea el fuerte y frio acero juntos a circuitos integrados megacomplejos... y pensarán que la especie humana fueron dioses que los crearon en tiempos que ni casi ellas recuerdan.
#7 Dar fechas en esos temas es una tonteria, porque no sabes que avances se producirán por medio.
De todas formas, como informático, programador y todo eso, pienso que es imposible hacer ordenadores inteligentes.
Primero y fundamental: ¿que consideramos inteligencia? Parece una tonteria, pero es una definición que no está clara, y es más un tema filosófico que otra cosa. Si no sabemos que es la inteligencia, ¿cómo podemos formalizarla de forma que un ordenador la utilice?
Esto es un tema bastante árido, porque no solo se mezclan temas técnicos, si no también filosóficos.
No hace falta entender algo para modelar su comportamiento. Por ejemplo, los algoritmos genéticos se basan en crear un "ecosistema" de algoritmos, en los que el código muta aleatoriamente y se replica, facilitándose la supervivencia del más apto según una serie de criterios. Afinando este sistema, se pueden conseguir algoritmos de gran complejidad... sin tener demasiada idea de cómo funcionan, ya que son fruto de una evolución.
Lo mismo puede hacerse en hardware, implementando circuitos de forma aleatoria, quedándose con los N que mejor se ajustan a unos objetivos y usándolos como base para una nueva generación. En no demasiadas generaciones se pueden conseguir funcionalidades muy complejas.
La gracia de estos sistemas es que, a diferencia de las personas, que hemos necesitado millones de años para llegar donde estamos, todo esto se puede hacer a velocidades electrónicas, acelerando el proceso bastantes órdenes de magnitud. Por tanto, tal vez el que no haya pasado ya se debe a que falta refinar los mecanismos de mutación/reproducción/selección, o tal vez no hayamos llegado al tamaño mínimo que debe tener el ecosistema. Pero es algo que puede pasar en cualquier momento, yo no lo descartaría por fantasioso.
No parece que Hawking esté muy al tanto de los "inmensos" avances en IA en los últimos 60 años, a pesar de que la capacidad de cálculo se ha multiplicado por varios millones.
Una máquina "inteligente" dudo que tenga ese progreso lineal que él dice. Si algo indica el cerebro humano es que la inteligencia es una combinación de muchos factores y que normalmente lo que ganas de un lado lo pierdes por otro. Sospecho que esto es debido a algo, por ejemplo, que no importa la capacidad de cálculo que tengas: la inteligencia por su estructura inherente no permite una progresión como la que indica este señor.
Una cosa que aun nadie ha resuelto en el campo de la IA, es una cosa en mi opinión bastante obvia: todos nuestros cerebros tienen el mismo potencial, y a pesar de eso todos son diferentes (cada persona es un mundo). ¿Nadie se ha parado a pensar que para desarrollar una inteligencia un cerebro tiene que "entrenarse" con estímulos sensoriales y experiencias físicas, emocionales, sociales... durante unos 20 años o más? ¿No se han dado cuenta de que no hay una sola persona que domine todos los campos al mismo tiempo?
Dudo mucho que puedan sintetizar todo eso en una máquina por su cara bonita y recopilando datos, excepto que hagan una máquina que aprenda como nosotros. Estos científicos que predicen la revolución en la IA (que lleva viniendo hace décadas pero nunca llega y ni siquiera nos acercamos) pecan de simplistas e ilusos. Lo más que se conseguirá será imitar un cerebro humano y aun así faltarán cosas vitales para el desarrollo de una inteligencia: experiencias, sensaciones, contexto, cultura, crianza...
Estos científicos viven en una torre de marfil tan alta que no ven las cosas más obvias. Y que conste que leo mucho a este señor, pero hacen algunas predicciones con una ingenuidad que da la risa.
#23 ya te digo, que asco de científicos visionarios... si el otro día leí que querían mandar un cohete a la luna, están locos, eso es imposible, esta gente no ve las cosas más obvias...
Y estos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y nosotros desde nuestras capsulas diremos "Qué buena está esa mujer de rojo"
Bueno, lo que dice es bastante genérico. Si el ser humano es un taco de moléculas, nada más, nada impide crear artificialmente otro taco de moléculas que sea inteligente.
Por ningún lado dice que necesariamente sean digitales, ni máquinas de Turing, ni leches.
Vamos, que es más una reflexión filosófica que una afirmación tajante basada en avances contrastables
Curioso algunos de los comentarios, lo que ha dicho este hombre es simplemente una obviedad que podría haber dicho cualquiera que tenga capacidad de desprenderse de todos los prejuicios pero... que difícil es eso, y hay es donde radica lo extraordinario de este hombre.
¡Ojalá!
Lo que está claro es que la especie humana está limitada por la selección natural para vivir en este planeta, si no nos lo cargamos antes. Solo las máquinas pueden colonizar otros mundos y prepararlos para nosotros, y para hacer eso necesitan ser creativas.
Las máquinas no estarán limitadas por creencias ni ideología, espero que nos traten tan benévolamente como hacemos nosotros con nuestras mascotas.
Que yo sepa, Stephen Hawking NO es experto en Arquitectura de Computadores y lógica. Esta es simplemente su opinión. Si opinara sobre medicina o economía tendría el mismo peso.
Si a alguien le gusta este tema le recomendaría muchos libros de Asimov, pero concretamente, y siguiendo el tema de los comentarios de #19 y #26, recomiendo a todo el mundo la recopilación de historias cortas escritas por Asimov titulado 'El Robot Completo'. Horas y horas intentando anticiparme a la actuación de las máquinas - según las tres simples leyes - y al final siempre encontraba un pero .
Siempre hay gente que dice que terminaran con nosostros... A mi entender una inteligencia artificial no tendria las mismas motivaciones ni necesidades que nosotros, por tanto no tendrian necesidad de enfrentarse a nosotros. Una inteligencia de este tipo podria "vivir" (no se si sera correcto usar este termino) en Marte, la luna... Si de alguna manera molestasemos solo tendrian que irse, nosotros somos los limitados a el entorno de este planeta. No obstante pienso que en un futuro desaparecera la dualidad humanos / inteligencia artificial y los humanos nos integraremos algun tipo de dispositivo computacional cuantico para potenciar nuestra propia inteligencia. Considero que los problemas que tenemos normalmente son causados porque no tenemos la suficiente inteligencia para analizar nuestros propios pensamientos y acciones, asi pues en mi opinion lo que esto traera si la raza humana llega hasta ese momento es unos seres humanos mas cercanos a la perfeccion mediante una evolucion artificial.
Los apocalipticos no estaran nada conformes con esto, no obstante personalmente prefiero un punto de vista mas apoteosico que apocaliptico.
De hecho, la noticia aquí es que Hawking está en sintonía con las predicciones de estos dos señores y sus colegas del Singularity Institute for Artifical Intelligence.
Este hombre no tuvo que aprobar Teoria de la Computabilidad en la carrera como sí tuve que hacer yo. Si lo hubiera hecho sabria que los ordenadores, con el actual esquema que tiene basado en la maquina de Touring, es imposible que resuelvan una gran cantidad de problemas. Simplemente, no son computables.
De la teoría de Penrose leí una refutación hace ya muchos años en "La conciencia explicada" de Daniel C. Dennett (y no es el único). De hecho creo que Penrose lleva mucho tiempo publicando "correcciones" y "aclaraciones" a su teoría de que es imposible que una máquina piense como un ser humano. La pregunta ante esto es: ¿qué es el cerebro, sino una máquina? Supongamos que su funcionamiento se debe a fenómenos de computación cuántica, como parece que sugiere Penrose (creo que esto tiene bastantes críticas también, ya que no parece posible que en una célula se puedan cumplir las condiciones para ello): ¿por qué no iba a ser posible emular ese funcionamiento cuántico? Es curioso los defensores del "nunca se podrá..." al mismo tiempo creen que el cerebro humano es algo prácticamente "mágico", mientras que subestiman terriblemente las capacidades del mismo de encontrar soluciones a problemas complejos, como es el de desarrollar una máquina pensante. Intuitivamente todos "sabemos" que una máquina jamás podrá alcanzar al cerebro... y eso sólo demuestra los límites de nuestra intución.
"Los ordenadores pueden ser inteligentes y desarrollar otros ordenadores más complejos e inteligentes"
Precisamente en esa premisa se basa el genial, increible y maravilloso relato de Asimov llamado "La última pregunta". Un relato corto absolutamente magistral, sinó el mejor que he leido nunca.
Recomiendo el libro El Universo Inteligente que habla de un Universo que en realidad es un sistema operativo creado por un hacker y nosotros interactuamos como los bytes interactuan en nuestros ordenadores. Es una teoría creacionista, sí, pero muy interesante el libro... de verdad...
Los ordenadores tan inteligentes como los humanos! Dios mio, entre sobornos, regalitos autocomplacientes, envidias, rencores, que si yo tengo mas que tu, que si soy mas guapo, a que te tiro una bomba, te mato por ser de windows, solo aceptamos ordenadoras... no se si va a caber tanta ego en un solo mundo.
Bueno, efectivamente, creo que hawking no esta muy puesto en este tema.
Yo tambien he leido a Roger Penrose y creo que su teoria es muy sugerente. Viene a decir que nuestra inteligencia pero sobre todo nuestra consciencia subyace a fenomenos cuanticos que ocurririan en nuestro cerebro que en si mismos son no computables y por tanto nunca seremos capaces de hacer maquinas inteligentes.
Bueno, Penrose ha sido muy criticado por esto, claro. Aunque pienso que algo de cierto tiene, lo que no es menos cierto es que nuestro cerebro es algo fisico y por tanto ya hay un ejemplo de "maquina" (biologica) que puede hacer emanar inteligencia y consciencia. No veo porque en un futuro la ciencia y tecnologia no podria ser capaz de fabricar dispositivos que aprovechasen esos fenomenos no computables para generar inteligencia como en nuestro cerebro. A no ser, claro, que la propia naturaleza de dichos fenomenos cuanticos nos impida saber lo que sucede, que podria tambien ser posible. Por ejemplo, como ya sabemos, no podemos conocer todas las variables fisicas de un sistema (hablo de fisica cuantica) en un momento concreto.
Lo lo veo posible, lo que más nos diferencia a las personas de los ordenadores es que en lugar de instalarnos el software éste se forma sólo con nuestras experiencias, por eso cada uno es diferente. Habría que replicar esa forma de aprender, es difícil pero no imposible.
O bien las hacemos superinteligentes, o bien tan rapidas que con algoritmos de fuerza bruta te resuelven cualquier cosa en segundos (lo cual es incluso más plausible)
Si los humanos son capaces de crear ordenadores inteligentes, lo que molaría es que los ordenadores fueran capaces de crear otros humanos más inteligentes
Comentarios
Hay un muy buen libro, "La nueva mente del Emperador", escrito por Roger Penrose, matemático y compañero de Hawkings en alguno de sus trabajos, en el que se explica muy claramente como una máquina de Turing no puede llegar a resolver cierto tipo de problemas que el cerebro humano sí sabe resolver. Para afirmar que una máquina podrá realizar los procesos mentales que el ser humano realiza habría primero que saber cómo se realizan y cuáles son, cosa que hasta el momento se desconoce. Eso hace que por el momento la potencia de cálculo de las máquinas actuales sea irrelevante a la hora de conseguir otorgarle inteligencia pues el proceso no es válido.
#25 Te has explicado muy bien.
Eso es como decir si las personas son inteligentes pueden fabricar odenadores más inteligentes que ellos y hoy por hoy eso no es real. Que bien está lanzar teorias que no son comprobables pero que a mucha gente le parecerá muy curioso.
Con respecto a lo que dice #9 las personas tomamos decisiones en base a toda nuestra experiencia anterior, por ejemplo cuando elegimos un LCD para el salón nuestra mente tiene acceso a la mayoría de los comentarios que hemos leído y escuchado, a las experiencias pasadas con esa marca de TV, etc, etc, manejando una cantidad de información bestial, cosa que un ordenador no puede hacer.
#9 Bienvenido a la informática teórica, a la jerarquía de Chomsky y a los problemas Turing-computables. Obviamente, cualquier problema que no se pueda definir por un lenguaje recursivo enumerable no es Turing-computable y, por tanto, a día de hoy irresoluble para una máquina.
Mucho me temo que "desarrollar otros ordenadores" no es Turing-computable. Así que, por un tiempo, esto no son más que especulaciones por mucho que lo diga Hawking o mi vecino del cuarto.
#9 #31 Vuestro argumento es falaz, incluso aparte de lo que indica #39. Tomado de una crítica al libro de Penrose del "Times Literary Supplement" (siento no tener tiempo de traducirlo): http://ase.tufts.edu/cogstud/papers/penrose.htm
What minds can do, Penrose claims, is see or judge that certain mathematical propositions are true by "insight" rather than mechanical proof. And Penrose then goes to some length to argue that there could be no algorithm, or at any rate no practical algorithm, for insight.
But this ignores a possibility--an independently plausible possibility--that can be made obvious by a parallel argument. Chess is a finite game (since there are rules for terminating go-nowhere games as draws), so in principle there is an algorithm for either checkmate or a draw, one that follows the brute force procedure of tracing out the immense but finite decision tree for all possible games. This is surely not a practical algorithm, since the tree's branches outnumber the atoms in the universe. Probably there is no practical algorithm for checkmate. And yet programs--algorithms--that achieve checkmate with very impressive reliability in very short periods of time are abundant. The best of them will achieve checkmate almost always against almost any opponent, and the "almost" is sinking fast. You could safely bet your life, for instance, that the best of these programs would always beat me. But still there is no logical guarantee that the program will achieve checkmate, for it is not an algorithm for checkmate, but only an algorithm for playing legal chess--one of the many varieties of legal chess that does well in the most demanding environments. The following argument, then, is simply fallacious:
(1) X is superbly capable of achieving checkmate.
(2) There is no (practical) algorithm guaranteed to achieve checkmate.
therefore
(3) X does not owe its power to achieve checkmate to an algorithm.
So even if mathematicians are superb recognizers of mathematical truth, and even if there is no algorithm, practical or otherwise, for recognizing mathematical truth, it does not follow that the power of mathematicians to recognize mathematical truth is not entirely explicable in terms of their brains executing an algorithm.
#4 HELLO DAVE_
Comentarios sobre Skynet, Sarah Connor y Terminator debajo de la línea
------------------------------------------------------------------------------------------------------------------------------------
#1 No creo que haya muchos comentarios en esta noticia. LLeva ya mucho rato y pocos meneos.
#2 Es que es muy tarde, yo me voy a dormir, espero no levantarme mañana en un mundo dominado por las máquinas
#3 Con esa actitud las máquinas acabaran con nosotros, yo me mantendre vigilante....
#4 ¿Sigue todo bien?
#2 Fail!!
SKYNEEEEEEEEEEEEEEEEET!!!!!!!!!!!!!!!
Contento #1 ?
#1 No se porque me he acordado antes de Rascapiquilandia http://data6.blog.de/media/515/4030515_81621becce_s.jpeg
#1 Sacado de mi blog y publicado hace ya unos días: http://knsweb.net/wordpress/?p=1744 Asimov ya pensaba así en el '73 :)
#1 ----------------------------------------------------------------------------
¿Por qué la "motillo" que lleva el chaval de terminator tiene tantas marchas?
La complejidad de cálculos de los computadores igualara a la humana en el 2050, en velocidad de cálculo esta claro que nos sobrepasarón hace décadas pero físicos auguran que dentro de 4 décadas podrán tener una capacidad de autoconciencia, pseudosentimientos, empatía, capacidad de replicamiento, etc...
Pero tales físicos no veían esto como una amenaza, más bién como una manera de alargar en el tiempo la existencia humana (o de su inteligencia), cuando los años, siglos, milenios, eones... hayan pasado quizás lo único que quede de nosotros sea el fuerte y frio acero juntos a circuitos integrados megacomplejos... y pensarán que la especie humana fueron dioses que los crearon en tiempos que ni casi ellas recuerdan.
Me rayo.
#7 Dar fechas en esos temas es una tonteria, porque no sabes que avances se producirán por medio.
De todas formas, como informático, programador y todo eso, pienso que es imposible hacer ordenadores inteligentes.
Primero y fundamental: ¿que consideramos inteligencia? Parece una tonteria, pero es una definición que no está clara, y es más un tema filosófico que otra cosa. Si no sabemos que es la inteligencia, ¿cómo podemos formalizarla de forma que un ordenador la utilice?
Esto es un tema bastante árido, porque no solo se mezclan temas técnicos, si no también filosóficos.
No hace falta entender algo para modelar su comportamiento. Por ejemplo, los algoritmos genéticos se basan en crear un "ecosistema" de algoritmos, en los que el código muta aleatoriamente y se replica, facilitándose la supervivencia del más apto según una serie de criterios. Afinando este sistema, se pueden conseguir algoritmos de gran complejidad... sin tener demasiada idea de cómo funcionan, ya que son fruto de una evolución.
Lo mismo puede hacerse en hardware, implementando circuitos de forma aleatoria, quedándose con los N que mejor se ajustan a unos objetivos y usándolos como base para una nueva generación. En no demasiadas generaciones se pueden conseguir funcionalidades muy complejas.
La gracia de estos sistemas es que, a diferencia de las personas, que hemos necesitado millones de años para llegar donde estamos, todo esto se puede hacer a velocidades electrónicas, acelerando el proceso bastantes órdenes de magnitud. Por tanto, tal vez el que no haya pasado ya se debe a que falta refinar los mecanismos de mutación/reproducción/selección, o tal vez no hayamos llegado al tamaño mínimo que debe tener el ecosistema. Pero es algo que puede pasar en cualquier momento, yo no lo descartaría por fantasioso.
No parece que Hawking esté muy al tanto de los "inmensos" avances en IA en los últimos 60 años, a pesar de que la capacidad de cálculo se ha multiplicado por varios millones.
Una máquina "inteligente" dudo que tenga ese progreso lineal que él dice. Si algo indica el cerebro humano es que la inteligencia es una combinación de muchos factores y que normalmente lo que ganas de un lado lo pierdes por otro. Sospecho que esto es debido a algo, por ejemplo, que no importa la capacidad de cálculo que tengas: la inteligencia por su estructura inherente no permite una progresión como la que indica este señor.
Una cosa que aun nadie ha resuelto en el campo de la IA, es una cosa en mi opinión bastante obvia: todos nuestros cerebros tienen el mismo potencial, y a pesar de eso todos son diferentes (cada persona es un mundo). ¿Nadie se ha parado a pensar que para desarrollar una inteligencia un cerebro tiene que "entrenarse" con estímulos sensoriales y experiencias físicas, emocionales, sociales... durante unos 20 años o más? ¿No se han dado cuenta de que no hay una sola persona que domine todos los campos al mismo tiempo?
Dudo mucho que puedan sintetizar todo eso en una máquina por su cara bonita y recopilando datos, excepto que hagan una máquina que aprenda como nosotros. Estos científicos que predicen la revolución en la IA (que lleva viniendo hace décadas pero nunca llega y ni siquiera nos acercamos) pecan de simplistas e ilusos. Lo más que se conseguirá será imitar un cerebro humano y aun así faltarán cosas vitales para el desarrollo de una inteligencia: experiencias, sensaciones, contexto, cultura, crianza...
Estos científicos viven en una torre de marfil tan alta que no ven las cosas más obvias. Y que conste que leo mucho a este señor, pero hacen algunas predicciones con una ingenuidad que da la risa.
#23 ya te digo, que asco de científicos visionarios... si el otro día leí que querían mandar un cohete a la luna, están locos, eso es imposible, esta gente no ve las cosas más obvias...
Y estos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y esos desarrollarán otros más inteligentes, y nosotros desde nuestras capsulas diremos "Qué buena está esa mujer de rojo"
Bueno, lo que dice es bastante genérico. Si el ser humano es un taco de moléculas, nada más, nada impide crear artificialmente otro taco de moléculas que sea inteligente.
Por ningún lado dice que necesariamente sean digitales, ni máquinas de Turing, ni leches.
Vamos, que es más una reflexión filosófica que una afirmación tajante basada en avances contrastables
En cuanto los ordenadores desarrollen el GOD MODE estaremos perdidos.
"Los ordenadores son inútiles. sólo pueden darte respuestas." (Pablo Picasso) / http://www.citasyrefranes.com/famosas/autor/915/3 )
#22 Sólo pueden darte repuestas... Y PRON ¡TONELADAS DE PRON!
Y finalmente, por fin el comentario garrulo y tonto.
Yo recomiendo la lectura de Yo,Robot, de Asimov, y no confundir con la pélicula que no tiene nada que ver.
Dejarlo que el otro dia vio matrix por primera vez...
Curioso algunos de los comentarios, lo que ha dicho este hombre es simplemente una obviedad que podría haber dicho cualquiera que tenga capacidad de desprenderse de todos los prejuicios pero... que difícil es eso, y hay es donde radica lo extraordinario de este hombre.
¡Ojalá!
Lo que está claro es que la especie humana está limitada por la selección natural para vivir en este planeta, si no nos lo cargamos antes. Solo las máquinas pueden colonizar otros mundos y prepararlos para nosotros, y para hacer eso necesitan ser creativas.
Las máquinas no estarán limitadas por creencias ni ideología, espero que nos traten tan benévolamente como hacemos nosotros con nuestras mascotas.
Que yo sepa, Stephen Hawking NO es experto en Arquitectura de Computadores y lógica. Esta es simplemente su opinión. Si opinara sobre medicina o economía tendría el mismo peso.
¿Nadie va a hablar de Daneel R. Olivaw, de las dos Fundaciones, ni de los robots con cerebros positrónicos?
http://es.wikipedia.org/wiki/R._Daneel_Olivaw
Si a alguien le gusta este tema le recomendaría muchos libros de Asimov, pero concretamente, y siguiendo el tema de los comentarios de #19 y #26, recomiendo a todo el mundo la recopilación de historias cortas escritas por Asimov titulado 'El Robot Completo'. Horas y horas intentando anticiparme a la actuación de las máquinas - según las tres simples leyes - y al final siempre encontraba un pero .
#0 Si mi abuela tuviera ruedas podria ser una kawasaki....
Pero como no las tiene no lo es....
No se si me explico....
Siempre hay gente que dice que terminaran con nosostros... A mi entender una inteligencia artificial no tendria las mismas motivaciones ni necesidades que nosotros, por tanto no tendrian necesidad de enfrentarse a nosotros. Una inteligencia de este tipo podria "vivir" (no se si sera correcto usar este termino) en Marte, la luna... Si de alguna manera molestasemos solo tendrian que irse, nosotros somos los limitados a el entorno de este planeta. No obstante pienso que en un futuro desaparecera la dualidad humanos / inteligencia artificial y los humanos nos integraremos algun tipo de dispositivo computacional cuantico para potenciar nuestra propia inteligencia. Considero que los problemas que tenemos normalmente son causados porque no tenemos la suficiente inteligencia para analizar nuestros propios pensamientos y acciones, asi pues en mi opinion lo que esto traera si la raza humana llega hasta ese momento es unos seres humanos mas cercanos a la perfeccion mediante una evolucion artificial.
Los apocalipticos no estaran nada conformes con esto, no obstante personalmente prefiero un punto de vista mas apoteosico que apocaliptico.
Me extraña que nadie haya nombrado aún a Ray Kurzweil o Vernor Vinge:
http://es.wikipedia.org/wiki/Singularidad_tecnol%C3%B3gica
http://es.wikipedia.org/wiki/Raymond_Kurzweil
De hecho, la noticia aquí es que Hawking está en sintonía con las predicciones de estos dos señores y sus colegas del Singularity Institute for Artifical Intelligence.
Un último link con un resumen de algunas de las predicciones de Kurzweil:
http://es.wikipedia.org/wiki/La_era_de_las_m%C3%A1quinas_espirituales#Predicciones_sobre_los_avances_sucesivos_de_la_tecnolog.C3.ADa
sí claro, pero... como los van a programar? en java?
#47 Pascal
#52 #47 Intercal. Lo harán así sólo por joder.
http://es.wikipedia.org/wiki/INTERCAL
Este hombre no tuvo que aprobar Teoria de la Computabilidad en la carrera como sí tuve que hacer yo. Si lo hubiera hecho sabria que los ordenadores, con el actual esquema que tiene basado en la maquina de Touring, es imposible que resuelvan una gran cantidad de problemas. Simplemente, no son computables.
Hay un componente básico para que exista conciencia, la libertad. Sin libertad no hay consciencia, solo apariencia de conciencia.
Luego se lo escuchó decir: "Skynet 1 - Humanos 0"
De la teoría de Penrose leí una refutación hace ya muchos años en "La conciencia explicada" de Daniel C. Dennett (y no es el único). De hecho creo que Penrose lleva mucho tiempo publicando "correcciones" y "aclaraciones" a su teoría de que es imposible que una máquina piense como un ser humano. La pregunta ante esto es: ¿qué es el cerebro, sino una máquina? Supongamos que su funcionamiento se debe a fenómenos de computación cuántica, como parece que sugiere Penrose (creo que esto tiene bastantes críticas también, ya que no parece posible que en una célula se puedan cumplir las condiciones para ello): ¿por qué no iba a ser posible emular ese funcionamiento cuántico? Es curioso los defensores del "nunca se podrá..." al mismo tiempo creen que el cerebro humano es algo prácticamente "mágico", mientras que subestiman terriblemente las capacidades del mismo de encontrar soluciones a problemas complejos, como es el de desarrollar una máquina pensante. Intuitivamente todos "sabemos" que una máquina jamás podrá alcanzar al cerebro... y eso sólo demuestra los límites de nuestra intución.
¿Es que nadie se acuerda de Multivac?
And they have a plan.
Algún día darán con el #42
"Los ordenadores pueden ser inteligentes y desarrollar otros ordenadores más complejos e inteligentes"
Precisamente en esa premisa se basa el genial, increible y maravilloso relato de Asimov llamado "La última pregunta". Un relato corto absolutamente magistral, sinó el mejor que he leido nunca.
Aquí está disponible para leerlo, dedicarle el tiempo para hacerlo porque vale la pena
http://www.fis.puc.cl/~jalfaro/fiz1111/charla/laultimapregunta.pdf y si os gusta no olvideis comprar alguno de sus libros.
#57 go to #30
Recomiendo el libro El Universo Inteligente que habla de un Universo que en realidad es un sistema operativo creado por un hacker y nosotros interactuamos como los bytes interactuan en nuestros ordenadores. Es una teoría creacionista, sí, pero muy interesante el libro... de verdad...
Corto relacionado: "The Second Renaissance (Animatrix)".
Sayonara Baby
Los ordenadores tan inteligentes como los humanos! Dios mio, entre sobornos, regalitos autocomplacientes, envidias, rencores, que si yo tengo mas que tu, que si soy mas guapo, a que te tiro una bomba, te mato por ser de windows, solo aceptamos ordenadoras... no se si va a caber tanta ego en un solo mundo.
Y al final haremos un programa informatico que se termine a sí mismo
Bueno, efectivamente, creo que hawking no esta muy puesto en este tema.
Yo tambien he leido a Roger Penrose y creo que su teoria es muy sugerente. Viene a decir que nuestra inteligencia pero sobre todo nuestra consciencia subyace a fenomenos cuanticos que ocurririan en nuestro cerebro que en si mismos son no computables y por tanto nunca seremos capaces de hacer maquinas inteligentes.
Bueno, Penrose ha sido muy criticado por esto, claro. Aunque pienso que algo de cierto tiene, lo que no es menos cierto es que nuestro cerebro es algo fisico y por tanto ya hay un ejemplo de "maquina" (biologica) que puede hacer emanar inteligencia y consciencia. No veo porque en un futuro la ciencia y tecnologia no podria ser capaz de fabricar dispositivos que aprovechasen esos fenomenos no computables para generar inteligencia como en nuestro cerebro. A no ser, claro, que la propia naturaleza de dichos fenomenos cuanticos nos impida saber lo que sucede, que podria tambien ser posible. Por ejemplo, como ya sabemos, no podemos conocer todas las variables fisicas de un sistema (hablo de fisica cuantica) en un momento concreto.
Que buena teoria, sera que en la practica funciona??
Los cylon ya lo han alcanzado ... además están buenas.
Lo lo veo posible, lo que más nos diferencia a las personas de los ordenadores es que en lugar de instalarnos el software éste se forma sólo con nuestras experiencias, por eso cada uno es diferente. Habría que replicar esa forma de aprender, es difícil pero no imposible.
Eso ya salia en "La guia de autoestopista galactico"
Oh sí! y al final construiremos un ordenador que construya otro ordenador mas complejo para que nos de la respuesta a la gran pregunta
Spoiler: 42
#17 Sal de mi mente!
#18 Positivo sólo por tu avatar. Que cachondo
Como hizo Deep Think en la Guía del Autoestopista Intergaláctico.
O bien las hacemos superinteligentes, o bien tan rapidas que con algoritmos de fuerza bruta te resuelven cualquier cosa en segundos (lo cual es incluso más plausible)
el caso es que nos tomarán el relevo algun dia.
Cambio climático en el Polo Norte.
Si los humanos son capaces de crear ordenadores inteligentes, lo que molaría es que los ordenadores fueran capaces de crear otros humanos más inteligentes