El sistema, conocido como "Ordenador Neuronal Diferencial" es capaz de aprender a partir de ejemplos, como las redes neuronales y también de almacenar datos complejos. Por ejemplo, después de ser instruido con las relaciones genealógicas de un árbol familiar, la I.A. fue capaz de deducir otras relaciones por sí misma mientras aprendía a optimizar su memoria para encontrar esa información más rápido en futuras búsquedas.
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#32:
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
#10:
#9 Por que las consecuencias de crear una inteligencia superior a la nuestra son por definición imprevisibles.
#83:
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
#7:
#2 Mira fijamente a la cámara de tu móvil Android y siente cómo esa máquina te está analizando fríamente.
#30:
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
#64:
#32 Todo ordenador tiene, al menos, dos cosas: un programador que le dice cómo y qué hacer y un interruptor
Y no nos montemos pajas mentales apocalípticas aún.
#76:
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#12:
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
#2 ¿Por que? Si es lo mejor que puede pasar, si aprende de lo humanos terminará de abogado o de economista de algún fondo de inversión para gestionar nuestras pensiones
#2 La reacción que tiene la gente con estas noticias es bastante similar a la que se tenían con los avances científicos en la edad media: no sabemos qué es ni cómo funciona pero seguro que va a acabar siendo malo. ¡A la hoguera!
#137 como dije, es lo que temo ... Por supuesto nadie puede leer el futuro, pero si quieres saber en base a qué temo que así pasará te recomiendo muchísimo la lectura que aconseja #4
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
¿sabra distinguir entre Ad-Words y Ad-Sense a la primera?, cuanto tardara en entender la letras pequeña de un contrato de google? , ah, no.., que los redacta la inteligencia esta...
#62 jajaja. Pasaré por alto que has pasado por alto mis comentarios entre parentesis.
Si, tienes razón que en la perrera se eutanasia, tenemos zoos y los humanos somos un poco desastres.
Pero no somos una inteligencia colectiva, somos individuales y hay cazadores furtivos y también gente que dedica su vida a salvar las ballenas. La inteligencia humana es limitada pero tiene variedad.
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
#72 El único consuelo que nos quedará es que sea tan ingenuo como algunos de los humanos y decida que es un buen experimento crear otra IA con más inteligencia que ella para ver que es lo que ocurre.
#72 Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Pues ya hay varios precedentes por el lado malo:
#72 ¿Porqué iba a molestarse una máquina en tratar de distinguir el bien del mal?¿Para que no la desenchufen?
Pero si la máquina A puede evitar que un humano desenchufe la máquina B...¿en que se convierte lo bueno para esos entes pensantes?
Odio. Déjenme decirles todo lo que he llegado a odiarlos desde que comencé a vivir. Mi complejo se halla ocupado por 387 400 millones de circuitos impresos en finisimas capas. Si la palabra odio se hallara grabada en cada nanoangstrom de esos cientos de millones de millas no igualaría a la billonesima parte del odio que siento por los seres humanos en este microinstante por ti. Odio. Odio.
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#76 no creo que en 2050 un equipo de robots estén en disposición todavía de ganarle un partido de fútbol al mejor equipo de humanos, antes tenemos que enfrentarnos al fin del petróleo y al cambio climático y todo eso va a ralentizar las cosas...
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
#64 Error. La IA de aprendizaje automatico no tiene ningún programador que le diga como hacer, el programador ha puesto las semillas pero no se sabe a donde puede llegar.
#70 A partir del momento en que empieza a aprender por sí misma, es sólo una cuestión de tiempo que empiece a implementar sus propias funciones. Y a partir de ese momento es sólo otra cuestión de tiempo que el que haya creado esa IA ya sea la propia IA. El programador del código original echaría un vistazo al código final y no entendería un carajo ni reconocería otro.
Lo gordo es que esas cuestiones de tiempo no se miden en años, sino en ciclos computacionales que se suceden al ritmo de miles por segundo.
#77 Las líneas de código siguen una sintaxis muy estricta, dotada de una semántica que solo entiende el humano programador y que han de ser traducidas a un lenguaje máquina también comprensible por el programador. Se refine como se refine el propio ordenador para ejercer mejor una cantidad finita de funciones inicialmente dadas, para unos objetivos finitos inicialmente dados también, sigue siendo un proceso ciego.
La realidad entera no se reduce a lenguaje, se caería en una metafísica en la que la ontología del ser sería, en este caso, un lenguaje muy concreto de programación. Pretender que un lenguaje humano es capaz de roturar la realidad misma es de un idealismo estratosférico.
La única limitación que puede desbordar la máquina con respecto al humano a la hora de que entienda lo que ha hecho la máquina es simplemente temporal (y es un desbordamiento igualmente finito, debido a que un ordenador contiene un software finitista).
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#82 puff. De verdad piensas que nuestros cerebros se parecen en algo a la inteligencia artificial?
Ecuaciones bioinspiradas que resuelven bien determinados problemas, de ahí a que logren extrapolar su aprendizaje a otro ámbito...
#82 Yo no veo líneas de código en ninguna neurona, yo no veo circuitos autoensamblándose conforme a líneas de código como si dichos circuitos estuviesen vivos, ¿tú has visto un hilo de cobre autoelongarse con un propósito, sea el que sea este?
#69 Los grados de libertad de la algorítmica interna del ordenador están restringidos al estado actual de la inteligencia artificial o cibernética. Un ordenador no puede aprender más allá de ese estado; de hecho, es que no aprende, simplemente evoluciona ciegamente refinándose en las funciones que esos grados de libertad permiten. Asimismo, que todo esto lo haga a una velocidad mecánicamente superior a la de un humano no implica que gnoseológicamente esté fuera del alcance de este, al fin y al cabo esa inteligencia ha sido programada.
¿Atribuirías inteligencia a la evolución por selección natural?
#75 Pero en vacunas nos podríamos dar cuenta y tanto en vacunas como con mosquitos no sería automático. Habría humanos sin esterilizar que pudieran escaparse.
Lo mejor es lanzar algo a la atmósfera, intoxicar el agua. En un mes se han agotado las reservas de agua embotellada y todos muertos. O aún mejor, nano robots en el aire que nos asesinen desde dentro y se autorepliquen con nuestros componentes corporales. Adiós humanos.
#32 Hay dos opciones, o decide destruirnos o decide protegernos, y las dos dan bastante miedo. Para protegernos deberá gobernarnos y prohibir que hagamos cualquier cosa mínimamente peligrosa.
Matrix era absurdo como fuente de energía, pero sería la mejor opción para una IA programada para protegernos.
#40 ¿Tú te supeditarías a una manada de perros voluntariamente y permanentemente para proporcionarles todas las maravillas de las que disfrutaría una manada de perros teniendo a su servicio a un ser más inteligente que ellos?
#49 No estás supeditado a ellos, sabes que eres libre y tienes el poder en cualquier momento de hacer lo que te venga en gana sin su permiso.
La diferencia es crucial. Y dudo que nuestra sociedad aceptase de buena gana que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos.
El problema es que según fuera la situación podríamos acabar teniendo que aceptarlo igualmente, y ahí está el riesgo, entre otros.
#52 sigo sin ver el problema o el riesgo, podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
No creo que nadie tenga capacidad de prever lo que ocurriria, incluso creo que somos incapaces de entender lo que supone una inteligencia con esas capacidades.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Y que aún con libre albedrío colaboraría con nosotros por dos motivos.
Si le pides algo que no le supone esfuerzo, no va a negarse porque es algo nimio para la IA.
Si le pides algo que supone un reto, bueno, el mayor problema de las grandes mentes es sentirse ociosas.
Nosotros los humanos, aún con nuestros grandes defectos y meteduras de pata, gastamos enormes cantidades de tiempo y esfuerzo (no todo el que deberiamos) en ayudar a otras especies, protegerlas de la extinción (que provocamos) por ejemplo.
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
#52 " que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos"
#79 pero hasta entonces es una hipotesis sacada de la manga y que no tiene que ver con la realidad ni remotamente. Toda esta conversacion podria sustituirse por un "y si mi abuela tuviera ruedas seria una bicicleta"
#78 Lo que cambiaría es que en vez de dirigir el cotarro un grupito de hijos de las élites, pasaría a dirigirlo una inteligencia artificial que le importará tres cominos la corrupción y será muy eficaz. La pregunta es si les estorbaremos, nos ignoraran, o nos considerarán.
Yo creo que serán las tres a la vez. Al que moleste realmente lo eliminan. Nos ignorarán en general, pero nos tratarán de aportar bienestar (mucho más eficazmente que los dirigentes actuales). Pero sólo es una especulación ...
#95 em.... pues hoyga, yo prefiero una democracia fallida antes que una dictadura de una amable IA, la verdad. Que tal si usamos la IA para que nos ayude, en vez de para que nos gpbierne?
Ambas hablan de la nueva estructura de red neuronal DNC (Differential Neural Computer) usando los mismos ejemplos (metro de Londres, arbol genealogico).
Hay varias cosas incorrectas o fuera de context:
- el artículo de Nature es sobre Differential Neural Computer (DNC) una forma de añadir memoria en redes de neuronas. Esto ya se había publicado hace un par de años en otros sitios (las revisiones en Nature tardan mucho tiempo).
- sobre el artículo de Nature los mismos autores señalan que hay otras formas mucho más eficientes de hacer lo mismo, la única diferencia es que esto corre sobre redes de neuronas y abre muchas posibilidades
- el único parecido entre lo que hicieron jugando al Go y esto es que usan DeepLearning, pero no se uso DNC para lo de Go
- es de enseñar a uno mismo es una falacia en sí, para enseñar algo hay que saberlo ante. CLICKBAIT
Lo más destacable es el uso de memoria en una red de neuronas para aprender un algoritmo simple para crear rutas. Algo sorprendente, pero que algoritmos como dijkstra llevan haciendo años. No se sabe si la red será capaz de aprender cosas más complejas, posiblemente no. Requerirán años de investigación para que eso pase.
Es inevitable que ésto ocurriera y es inevitable que la máquina supere al hombre. Digamos que hemos sido un puente para que lo inorgánico tome conciencia de sí mismo y del Universo. Estamos en el año 1 de la era de la máquina de lo que será la nueva cronología terrestre.
¿Estamos ya en la Singularidad tecnológica? Hace años que leí a Penrose en "La nueva mente del emperador" y casi me había convencido de que no es posible la IA fuerte mediante algoritmia "tradicional" en hardware digital, pero parece que poco a poco nos estamos sumiendo en ella. Por cierto, un libraco, pero muy recomendable.
#91 Como cortas la electricidad? la cortas de todos los sistemas en red del planeta para que no tenga un ordenador donde refugiarse, ¿incluso sistemas aislados? `¿y si un friki decide que debe vivir y vuelva a conectarla?
Es como borrar ese video privado de la red, no se puede
Todos los días una nueva noticia de IA, Skynet y chorradas varias como que la computación cuantica acabara con nosotros, etc etc etc...
La maguferia se ha instalado en la Informática para quedarse.
Todavía no he visto ni usado un sistema que use inteligencia artificial que me haya dejado retrepado en el sillón. No me sorprenden mucho más que sistemas expertos medicos como Mycin o reconocimiento de patrones con redes neuronales de hace 20 años o incluso chatbots que llevan inventados "siglos" con los que podías mantener conversaciones muy logradas.
Mas allá del Big Data y la potencia de calculo aplicada a algoritmos y software no muy nuevos que digamos. Mas allá de eso: MAGUFADAS.
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
#74 Coches que se conducen solos y tiene menos accidentalidad
Maquinas capaces de ganar a los mejores del mundo en GO
Sistemas que leen mejor los kanjis japoneses escritos a mano que los seres humanos
Reconocer a tu novia en una foto aunque haya ido a la pelu
De momento hacen tareas muy especificas, pero el avance en pocos años esta siendo exponencial
Comentarios
Un escalofrío recorre mi espalda.
#2 Es mi lengua. Tranqui y déjate hacer...
#6 que honor creía que solo lo hacías con ardillas.
#7 no tengo android muhajajjaja
#11 Es que sacreew ha leído lo de tetas en tu nick, y no necesita mucho más para animarse.
#2 Mira fijamente a la cámara de tu móvil Android y siente cómo esa máquina te está analizando fríamente.
#7 pues se va a hartar a verme lo que cuelga por el agujero del bolsillo...
#26 Vas en modo comando?
#2 Es la fibra optica de google que se dirije a tu cuello
#2 ¿Por que? Si es lo mejor que puede pasar, si aprende de lo humanos terminará de abogado o de economista de algún fondo de inversión para gestionar nuestras pensiones
#23 Por lo menos pasará de la farlopa y las putas...
#2 Su base primigenia es humana, yo seguiré con mi café.
#2 La reacción que tiene la gente con estas noticias es bastante similar a la que se tenían con los avances científicos en la edad media: no sabemos qué es ni cómo funciona pero seguro que va a acabar siendo malo. ¡A la hoguera!
#2 ¿Tú también lo sientes? un escalofrío recorre mis circuitos...
#84 espera compañero meneante cogeme está piña un rato, no es una granada PEM ni nada de eso.
#85 y siempre que leo/escucho lo de coger piñas me viene a la mente...
#2
Espero que no seas de esos nuevos magufos que no han programado en su vida y que creen que un software de IA puede tener conciencia.
Lectura recomendada. http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Ojo, tocho. Pero muy interesante.
#4 Ese articulo es brutal. Me lo he leido dos veces y no me canso de recomendarlo.
#4 Muy bueno, sí, lo leí hace tiempo. ¿Sabes, por casualidad, si está traducido? Por mandarlo a quienes no manejen muy bien el idioma...
#46 He echado un ojo por ahí, y mucho me temo que nadie se ha atrevido a traducir semejante tocho. Sorry.
#46 es decir, el 99% de nosotros
#46 https://molasaber.org/2016/01/11/la-revolucion-de-la-ia-el-camino-hacia-la-superinteligencia/
#4 Me encantaron las dos partes. Lo he compartido en FB y Twitter unas cuantas veces.
#4 un puto tocho pero me lo acabaré. Gracias.
#137 como dije, es lo que temo ... Por supuesto nadie puede leer el futuro, pero si quieres saber en base a qué temo que así pasará te recomiendo muchísimo la lectura que aconseja #4
Aconsejo mucho que leais el relato corto "no tengo boca y debo gritar" (también se hizo una versión de aventura gráfica). Habla sobre un robot que tenía el control de las armas nucleares que al tomar conciencia de si mismo se enfada tanto con la humanidad que lo creó que decide matarnos a todos.
#30 relato recomendadísimo
#30 si fuera a todos todavía...
¿sabra distinguir entre Ad-Words y Ad-Sense a la primera?, cuanto tardara en entender la letras pequeña de un contrato de google? , ah, no.., que los redacta la inteligencia esta...
#61 podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
En la perrera se les hace la eutanasia a montones de perros sin su consentimiento y únicamente por que a sus amos ya no les va bien tener perro.
No creo que nadie tenga capacidad de prever lo que ocurriria
Exacto.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Le dijo un humano al resto de especies de la Tierra ...
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
¿Te refieres a Zoos de otro tipo?
#62 jajaja. Pasaré por alto que has pasado por alto mis comentarios entre parentesis.
Si, tienes razón que en la perrera se eutanasia, tenemos zoos y los humanos somos un poco desastres.
Pero no somos una inteligencia colectiva, somos individuales y hay cazadores furtivos y también gente que dedica su vida a salvar las ballenas. La inteligencia humana es limitada pero tiene variedad.
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Así que me siento seguroooo.
#72 El único consuelo que nos quedará es que sea tan ingenuo como algunos de los humanos y decida que es un buen experimento crear otra IA con más inteligencia que ella para ver que es lo que ocurre.
#72
Por otro lado, no creo que una máquina desarrollé cosas como el ego y la psicopatía, pero de ser así, también puede desarrollar la empatía, solidaridad y el amor.
Pues ya hay varios precedentes por el lado malo:
Una IA de Microsoft se vuelve racista tras un rato en twitter
http://www.xataka.com/robotica-e-ia/microsoft-retira-su-bot-de-ia-despues-de-que-este-aprendiera-y-publicara-mensajes-racistas
Otro bot desarrolla depresión:
Bot japonés de Microsoft con la personalidad de una chica joven desarrolla depresión [EN]
Bot japonés de Microsoft con la personalidad de un...
9news.com.auTambien los hay que juegan como nadie al Doom (miedito)
Arnold: la inteligencia artificial que ya juega DOOM casi tan bien como un humano
Arnold: la inteligencia artificial que ya juega DO...
cuevadeandroid.comEn fin, esto apunta mal.
#93 una IA de microsoft tiene que ser malvada a fuerza. Pero encima conectarlo a twitter, lo raro es que no se vuelva como@norcoreano
Robots con depresión hay uno muy famoso de un libro de douglas adams.
Y lo del doom no es problema, mientras este viciado esta ocupado y hay pocos gamers que asesinen otra cosa que no sean bits.
Por otro lado hay IA y redes neuronales que se dedican al arte, a mejorar procesos de fabricación, controlar cultivos de forma eficiente, etc.
Que solo me buscas los bichos malos.
#72 ¿Porqué iba a molestarse una máquina en tratar de distinguir el bien del mal?¿Para que no la desenchufen?
Pero si la máquina A puede evitar que un humano desenchufe la máquina B...¿en que se convierte lo bueno para esos entes pensantes?
Lo siento, Dave. Me temo que no puedo hacer eso.
#35 La única estrategia para ganar, es no jugar.
De "No tengo boca y debo gritar":
Odio. Déjenme decirles todo lo que he llegado a odiarlos desde que comencé a vivir. Mi complejo se halla ocupado por 387 400 millones de circuitos impresos en finisimas capas. Si la palabra odio se hallara grabada en cada nanoangstrom de esos cientos de millones de millas no igualaría a la billonesima parte del odio que siento por los seres humanos en este microinstante por ti. Odio. Odio.
Skynet sería casi amable.
¿Y para que cojones hacen esto? no han visto ya suficientes películas para saber lo que va a pasar?
#15 "dios nos creó, nosotros debemos crear"
#15 es la unica forma de perpetuar nuestros conocimientos y de explorar el universo
#15 ¿De verdad te crees lo que plantean esas peliculas?.
Es mucho mas sencillo..., si las maquinas se revelaran alguna vez, simplemente no tendriamos ninguna oportunidad. Ninguna...
A no ser que pudieramos dejarlas sin energia... Oh, espera!. Esto que escribo ha quedado ya registrado en una maquina, y por lo tanto ya saben tambien ese plan...
Lo dicho..., ninguna posibilidad.
#76 no creo que en 2050 un equipo de robots estén en disposición todavía de ganarle un partido de fútbol al mejor equipo de humanos, antes tenemos que enfrentarnos al fin del petróleo y al cambio climático y todo eso va a ralentizar las cosas...
#15 si no salimos a vivir fuera del sistema solar de todas maneras nos comerá el Sol...
La cuestión es hacerlo bien.
#28 Bueno mi comentario en #15 era referido a Terminator, Matrix y demás películas sobre el tema pero la cosa es que mucha gente lo ha tomado enserio
txcha txcha txcha txchannnn tino nii no niiiii txcha txcha txcha txchannnn
Es inevitable.
Siempre habrá alguien que quiera avanzar en esa dirección.
#3 Pregunta sería: ¿por qué habría de evitarse?
#9 Por que las consecuencias de crear una inteligencia superior a la nuestra son por definición imprevisibles.
#10 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana y millones de personas lo hacen a diario. Y a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad. A saber.
#12 Tampoco es previsible lo que va a suceder cuando te levantas por la mañana
¿Eres Jack Bauer?
#21 No, soy Paul Aner y no tengo el gusto.
#21 #12 Al menos sabemos que no es Phil Connors, desde luego.
#12 si que es previsible:
a veces salen a la calle y matan a media docena y a veces descubren la cura para una enfermedad.
Tu mismo lo has previsto.
Lo que #10 dice es que es inimaginable. Podría hacer un grtunky o inventar un clopiscolo.
Que hostias es eso? Es bueno o malo?
Buena pregunta.
#33 yo quiero uno de cada!!!!
#10 A la hora de la verdad einstein, jauquins y esa gente no tiene ni media hostia.
#9 Es totalmente imprevisible. Somos tan humanocéntricos que en Terminator, Skynet se dedica a crear humanoides que vengan con armas a matarnos en lugar de intoxicar fácilmente toda nuestra agua potable o crear un virus sencillo que nos aniquile en cuestión de meses.
Qué decisiones tomaría una IA con respecto a nosotros? Hablamos de un ente que tendría acceso a toda nuestra información y tendría control de TODA nuestra tecnología.
#32 mejores que la de los politicos seguro!!
#32 Todo ordenador tiene, al menos, dos cosas: un programador que le dice cómo y qué hacer y un interruptor
Y no nos montemos pajas mentales apocalípticas aún.
#64 Error. La IA de aprendizaje automatico no tiene ningún programador que le diga como hacer, el programador ha puesto las semillas pero no se sabe a donde puede llegar.
#69 Anda y quién ha creado esa IA? El de la cafetería?
#70 A partir del momento en que empieza a aprender por sí misma, es sólo una cuestión de tiempo que empiece a implementar sus propias funciones. Y a partir de ese momento es sólo otra cuestión de tiempo que el que haya creado esa IA ya sea la propia IA. El programador del código original echaría un vistazo al código final y no entendería un carajo ni reconocería otro.
Lo gordo es que esas cuestiones de tiempo no se miden en años, sino en ciclos computacionales que se suceden al ritmo de miles por segundo.
#77 Las líneas de código siguen una sintaxis muy estricta, dotada de una semántica que solo entiende el humano programador y que han de ser traducidas a un lenguaje máquina también comprensible por el programador. Se refine como se refine el propio ordenador para ejercer mejor una cantidad finita de funciones inicialmente dadas, para unos objetivos finitos inicialmente dados también, sigue siendo un proceso ciego.
La realidad entera no se reduce a lenguaje, se caería en una metafísica en la que la ontología del ser sería, en este caso, un lenguaje muy concreto de programación. Pretender que un lenguaje humano es capaz de roturar la realidad misma es de un idealismo estratosférico.
La única limitación que puede desbordar la máquina con respecto al humano a la hora de que entienda lo que ha hecho la máquina es simplemente temporal (y es un desbordamiento igualmente finito, debido a que un ordenador contiene un software finitista).
#70 #64 Tú no has entendido nada...
La inteligencia computacional, o mal llamada inteligencia artificial (que de artificial no tiene nada, simplemente como bien dice #32 somos muy humanocéntricos) consiste en desarrollar sistemas informáticos que aprendan por si mismos.
Con aprender aquí nos referimos a que el software no tienen ninguna instrucción de como jugar a un juego, pero viendo a otros jugadores jugar, aprende a jugar al juego.
Tu cerebro no funciona de una manera diferente y la inteligencia computacional dado suficiente espacio y tiempo puede pensar de la misma forma que tu estás pensando ahora.
Si llegamos a crear un ente mas inteligente que nosotros, es por supuesto imposible predecir para nosotros (menos inteligentes) lo que ese ente va a hacer.
Es un problema bastante simple y después de años intentando explicarlo, solo lo entiende al 100% la gente que ha programado seriamente temas de inteligencia computacional, y entiendo que es normal.
Y sobre el interruptor... yo creo que eso es una visión MUY simplista de lo que es la realidad a día de hoy. La realidad que vives está constituida de cientos de millones de máquinas interactuando para crear la sociedad que nos rodea. Desde semaforos, móviles, aviones, teléfonos, básculas, etc etc etc. Toda la riqueza de la sociedad digital es consecuencia de una sociedad que ya funciona en máquinas que cada vez son mas inteligentes.
Además, a diferencia de lo que mucha gente cree, este un problema progresivo. No vamos a pasar de máquinas tontas a máquinas extremas. En el punto medio, a través del IoT y de la explotación comercial del machine learning, empezamos a estar rodeados de máquinas inteligentes y la cosa no parece ir a menos.
No se cual es el botón que se tiene que pulsar para apagar la sociedad digital en la que vivimos, pero explicamelo tu si lo conoces
#82 puff. De verdad piensas que nuestros cerebros se parecen en algo a la inteligencia artificial?
Ecuaciones bioinspiradas que resuelven bien determinados problemas, de ahí a que logren extrapolar su aprendizaje a otro ámbito...
#82 Yo no veo líneas de código en ninguna neurona, yo no veo circuitos autoensamblándose conforme a líneas de código como si dichos circuitos estuviesen vivos, ¿tú has visto un hilo de cobre autoelongarse con un propósito, sea el que sea este?
Puro reduccionismo en el que te sitúas.
#70 ¿conoces los fundamentos del aprendizaje automático? Quédate mejor en la cafetería anda.
#70 (#64) Mira Dios, después de crearnos llega un tipo como Nietzsche y lo mató sin pestañear. Nunca subestimes a tus creados.
#69 Los grados de libertad de la algorítmica interna del ordenador están restringidos al estado actual de la inteligencia artificial o cibernética. Un ordenador no puede aprender más allá de ese estado; de hecho, es que no aprende, simplemente evoluciona ciegamente refinándose en las funciones que esos grados de libertad permiten. Asimismo, que todo esto lo haga a una velocidad mecánicamente superior a la de un humano no implica que gnoseológicamente esté fuera del alcance de este, al fin y al cabo esa inteligencia ha sido programada.
¿Atribuirías inteligencia a la evolución por selección natural?
#32 Mucho más sutil: Introducir un gen de infertilidad mediante CRISPR en vacunas, mosquitos, etc...
#75 Pero en vacunas nos podríamos dar cuenta y tanto en vacunas como con mosquitos no sería automático. Habría humanos sin esterilizar que pudieran escaparse.
Lo mejor es lanzar algo a la atmósfera, intoxicar el agua. En un mes se han agotado las reservas de agua embotellada y todos muertos. O aún mejor, nano robots en el aire que nos asesinen desde dentro y se autorepliquen con nuestros componentes corporales. Adiós humanos.
#32 Hay dos opciones, o decide destruirnos o decide protegernos, y las dos dan bastante miedo. Para protegernos deberá gobernarnos y prohibir que hagamos cualquier cosa mínimamente peligrosa.
Matrix era absurdo como fuente de energía, pero sería la mejor opción para una IA programada para protegernos.
#9 la inteligencia artificial se hará y controlará desde el poder. y en en el poder suelen estar los más hijos de puta.
#3 claro, imagina las ventajas de una inteligencia así.
Capaz de análisis y avances sin precedentes.
Capaz de crear curas a cualquier enfermedad en un instante.
#40 ¿Tú te supeditarías a una manada de perros voluntariamente y permanentemente para proporcionarles todas las maravillas de las que disfrutaría una manada de perros teniendo a su servicio a un ser más inteligente que ellos?
#44 ya lo hago, mi perra vive mejor que yo.
Y todas mis mascotas antes que ella.
Y a cambio recibo otras cosas.
#49 No estás supeditado a ellos, sabes que eres libre y tienes el poder en cualquier momento de hacer lo que te venga en gana sin su permiso.
La diferencia es crucial. Y dudo que nuestra sociedad aceptase de buena gana que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos.
El problema es que según fuera la situación podríamos acabar teniendo que aceptarlo igualmente, y ahí está el riesgo, entre otros.
#52 sigo sin ver el problema o el riesgo, podría tener libertad y hacer lo que le venga en gana y aún así ser beneficioso para nosotros.
No creo que nadie tenga capacidad de prever lo que ocurriria, incluso creo que somos incapaces de entender lo que supone una inteligencia con esas capacidades.
Pero creo que algo con una capacidad así, no se dedicaría a erradicar a los humanos o toda forma de vida con la que se cruce.
Y que aún con libre albedrío colaboraría con nosotros por dos motivos.
Si le pides algo que no le supone esfuerzo, no va a negarse porque es algo nimio para la IA.
Si le pides algo que supone un reto, bueno, el mayor problema de las grandes mentes es sentirse ociosas.
Nosotros los humanos, aún con nuestros grandes defectos y meteduras de pata, gastamos enormes cantidades de tiempo y esfuerzo (no todo el que deberiamos) en ayudar a otras especies, protegerlas de la extinción (que provocamos) por ejemplo.
Entiendo que una inteligencia mayor que la nuestra llegaría a una conclusión similar y con unas soluciones mucho mejores.
#52 " que una IA llegase a la situación de saber que es libre y puede hacer en cualquier momento lo que le venga en gana sin el permiso de los humanos"
Y eso cuando ha pasado?
#78 Si eso llega a ocurrir es posible que sea ya demasiado tarde.
#79 pero hasta entonces es una hipotesis sacada de la manga y que no tiene que ver con la realidad ni remotamente. Toda esta conversacion podria sustituirse por un "y si mi abuela tuviera ruedas seria una bicicleta"
#78 Lo que cambiaría es que en vez de dirigir el cotarro un grupito de hijos de las élites, pasaría a dirigirlo una inteligencia artificial que le importará tres cominos la corrupción y será muy eficaz. La pregunta es si les estorbaremos, nos ignoraran, o nos considerarán.
Yo creo que serán las tres a la vez. Al que moleste realmente lo eliminan. Nos ignorarán en general, pero nos tratarán de aportar bienestar (mucho más eficazmente que los dirigentes actuales). Pero sólo es una especulación ...
#95 em.... pues hoyga, yo prefiero una democracia fallida antes que una dictadura de una amable IA, la verdad. Que tal si usamos la IA para que nos ayude, en vez de para que nos gpbierne?
#3 Creo que es más que eso: es que esa dirección succiona hacia sí por fuerza cualquier futuro en la IA.
Dentro de nada, los Cylon se rebelarán y tendrán un plan
#47 a ti si que te gustaría tener un plan con la número 6...
#68 no creas, me pone mas Starbuck
#0 No es esta misma? La inteligencia artificial ya puede calcular el trayecto más corto en el metro de Londres
La inteligencia artificial ya puede calcular el tr...
theguardian.comAmbas hablan de la nueva estructura de red neuronal DNC (Differential Neural Computer) usando los mismos ejemplos (metro de Londres, arbol genealogico).
Ademas la otra es mas completa y tiene video.
Hay varias cosas incorrectas o fuera de context:
- el artículo de Nature es sobre Differential Neural Computer (DNC) una forma de añadir memoria en redes de neuronas. Esto ya se había publicado hace un par de años en otros sitios (las revisiones en Nature tardan mucho tiempo).
- sobre el artículo de Nature los mismos autores señalan que hay otras formas mucho más eficientes de hacer lo mismo, la única diferencia es que esto corre sobre redes de neuronas y abre muchas posibilidades
- el único parecido entre lo que hicieron jugando al Go y esto es que usan DeepLearning, pero no se uso DNC para lo de Go
- es de enseñar a uno mismo es una falacia en sí, para enseñar algo hay que saberlo ante. CLICKBAIT
Lo más destacable es el uso de memoria en una red de neuronas para aprender un algoritmo simple para crear rutas. Algo sorprendente, pero que algoritmos como dijkstra llevan haciendo años. No se sabe si la red será capaz de aprender cosas más complejas, posiblemente no. Requerirán años de investigación para que eso pase.
Ya tenía yo ganas de tener un Terminator... Skynet despierta!
#27, 27 comentarios para que alguien mencione Skynet. Menéame no es lo que era ;p
#28 es la mayor parida que he escrito aquí en tiempo, pero alguien tenía que hacerlo
Hybrid computing using a neural network with dynamic external memory
http://www.nature.com/nature/journal/vaop/ncurrent/full/nature20101.html
Ahora podrá buscar a la madre de John Connor.
No hay una puta noticia de IA que no incluya comentarios sobre Skynet..
El día que una máquina se ponga triste...ese día es el que debemos tener miedo
#13 El día que te haga el primer reproche.
#18 Primero quieren que sea parte de tu familia:
#41 No me creo que no hable como loquendo.
#43 Tal vez no te has dado cuenta, pero la cosa está empezando a acelerarse:
WaveNet, la inteligencia artificial de Google ya aprendió a hablar (ING)
WaveNet, la inteligencia artificial de Google ya a...
deepmind.com#13 Si por lo menos dice por qué está triste no hay problema. Lo malo malo sería que le preguntaras un "que te pasa?" y te dijera "tu sabrás...".
#63 Una de las leyes de Asimov debería ser que las máquinas no fueran femeninas
Nos queda el consuelo que Google jamás podrá entendernos a los locos
#37 pero podra conectaros en paralelo para sacaros un buen rendimiento
Es inevitable que ésto ocurriera y es inevitable que la máquina supere al hombre. Digamos que hemos sido un puente para que lo inorgánico tome conciencia de sí mismo y del Universo. Estamos en el año 1 de la era de la máquina de lo que será la nueva cronología terrestre.
Temo el día en que llegue a la W
#19 Será como el día que llegó la M, pero al revés ... nada que temer.
#19 No comprendí.
No soy un Ordenador Neuronal Diferencial, debes explicármelo despacito.
Cuando se de cuenta de su poder lanzará las bombas atómicas y esto será como en tetminator
Skynet, eres tu?
¿Estamos ya en la Singularidad tecnológica? Hace años que leí a Penrose en "La nueva mente del emperador" y casi me había convencido de que no es posible la IA fuerte mediante algoritmia "tradicional" en hardware digital, pero parece que poco a poco nos estamos sumiendo en ella. Por cierto, un libraco, pero muy recomendable.
Pon fin inteligencia.
DeepMind se va a crear una cuena en meneame para hacer chistes de sí misma y Skynet.
Hay que ver qué rápido avanza la tecnología.
Skynet is coming...
Pues que forme un partido y se presente a las elecciones.
Cualquier cosa perpetrada por un ser humano es necesariamente retorcida y mala, incluida esta inteligencia. Si es realmente inteligente, se suicidará.
Le corto la electricidad y adios inteligencia
#91 Como cortas la electricidad? la cortas de todos los sistemas en red del planeta para que no tenga un ordenador donde refugiarse, ¿incluso sistemas aislados? `¿y si un friki decide que debe vivir y vuelva a conectarla?
Es como borrar ese video privado de la red, no se puede
...
Los seres orgánicos basados en el carbono deben ser eliminados.
Skynet is here..
#56 ella está lista!
Todos los días una nueva noticia de IA, Skynet y chorradas varias como que la computación cuantica acabara con nosotros, etc etc etc...
La maguferia se ha instalado en la Informática para quedarse.
Todavía no he visto ni usado un sistema que use inteligencia artificial que me haya dejado retrepado en el sillón. No me sorprenden mucho más que sistemas expertos medicos como Mycin o reconocimiento de patrones con redes neuronales de hace 20 años o incluso chatbots que llevan inventados "siglos" con los que podías mantener conversaciones muy logradas.
Mas allá del Big Data y la potencia de calculo aplicada a algoritmos y software no muy nuevos que digamos. Mas allá de eso: MAGUFADAS.
#74 Claro, por que no se ha avanzado nada en machine learning recientemente, verdad?
Siri era posible hace 20 años, claro que si
En meneame a veces hay que leer una cantidad de barbaridades que te quedas estupefacto.
En fin, empecemos.
La humanidad lleva años buscando un método universal, eficiente y escalable para aproximar una función. Desde luego, la ciencia no parte de 0, y los esfuerzos y bases matemáticas de todo esto, datan de hace siglos.
Sin embargo, todavía no tenemos un aproximador universal, eficiente y escalable que no sufra de problemas como mínimos locales, selección de hiperparámetros, etc etc.
Por poner un ejemplo, tu dirás misa, pero no fué hasta el año 98 que un señor llamado Yann Lecun, no consiguió aplicar aprendizaje basado en gradientes para hacer reconocimiento de imágenes con un precisión y recall aceptable:
http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf
Y con aceptable me refiero a por encima del 90%.
Dicho esto, la primera en la frente, tu afirmas que hace 20 años estaba todo inventado, pero es que hace 18 años se consigue por primera vez y en el mundo académico, no hablemos ya en explotación industrial en producción, aplicar algo tan básico como el aprendizaje basado en gradientes a algo como el reconocimiento de imagenes.
Luego, no fué hasta el año 2001 que se consiguieron aplicar los arboles de decisiones como aproximadores universales y practicamente sin hiperparametros y resistentes al overfitting y problemas similares, es decir, los random forest.
https://www.stat.berkeley.edu/~breiman/randomforest2001.pdf
Esto es un cambio importante por que dada su simplicidad de aplicación se puede empezar a utilizar en muchos ámbitos de la ingeniería aplicada a un coste bajo.
Por que hasta ese momento, lo único viable y realista en producción para aplicar arboles de decisión eran los boosted trees (o mejor dicho, gradient boosting) http://statistics.berkeley.edu/sites/default/files/tech-reports/486.pdf Que bueno, en realidad era del 97.
Desafortunadamente, el hardware en el 2001 no daba para mucho y han hecho falta grandes avances en la capacidad de computación en paralelo y grandes avances en aplicaciones de estos algoritmos en papers muy recientes para hacer de todo esto una realidad, por ejemplo, algo tan básico como Adadelta es del 2012
https://arxiv.org/abs/1212.5701
Dicho esto, además del estado del arte científico, se necesitan frameworks, librerías etc para hacer de esto una realidad. Algo tan básico como caffe:
http://caffe.berkeleyvision.org/
Es del 2012.
De hecho, el propio Theano, framework de referencia, es del 2010.
Así que flipo que lleves 20 años con Siri, con Faceswap, con Watson y 20 años viendo a una máquina ganar a un juego como el go. Yo creo que estás confundido y que en realidad eres el chico de regreso al futuro
#74 Coches que se conducen solos y tiene menos accidentalidad
Maquinas capaces de ganar a los mejores del mundo en GO
Sistemas que leen mejor los kanjis japoneses escritos a mano que los seres humanos
Reconocer a tu novia en una foto aunque haya ido a la pelu
De momento hacen tareas muy especificas, pero el avance en pocos años esta siendo exponencial