Recientemente he visto este vídeo www.youtube.com/watch?v=XAgXwUwQoPA y he pensado en todas las veces que nos han dicho, por todas partes, a los que nos gusta la ciencia-ficción (y a los que no les gusta, casi que también) que la AI es peligrosa, porque le podría dar algún día por dominar el mundo y "poner a la humanidad en la lista negra", pero .... ¿y si estamos cometiendo un error en todo esto?
Todas esas advertencias se basan en un punto clave, aplicar nuestra propia lógica, lo que haríamos nosotros, a lo que haría una AI con poder para contrarlo todo, pero, ¿serían de verdad lo bastante parecidas las dos formas de pensar como para que se pudiera hacer esa extrapolación de forma tan alegre?. Las máquinas son fáciles de arreglar, salvo gran destrastre, y si quitas de en medio la obsolescencia programada, pueden hacerse para que duren mucho tiempo, más que un humano. ¿No podría una máquina "pensar" de manera distinta? Nosotros hacemos guerra por avaricia y como forma más inmediata de resolver algo, pero una máquina podría pensar más rápido, podría calcular los costes de esa posible guerra, calcular lo que cuesten las alternativas, calcular el coste de las reconstrucciones, el tiempo que tardaría, la producción que se perdería durante la reconstrucción, etc., vamos, podría hacer algo que, en el caso de guerras, a los humanos nos cuesta (emocionalmente) hacer, pensar friamente en el largo plazo. Y si hacen eso, podrían decidir cositas como que una guerra no les saliese rentable, por ejemplo :P y barajar alternativas más económicas pero que lleven más tiempo, que a ella no le importase tanto invertir, para conseguir lo mismo, incluso podrían "decidir" que les sale más rentable evitar un conflicto, y colonizar de cero algún sitio en el que los humanos no puedan vivir.
¿Y si, al pensar en un conflicto entre la AI y las personas estamos suponiendo demasiado?