Un nuevo estudio sugiere que el desarrollo de la Inteligencia Artificial (IA) hacia una Superinteligencia Artificial (ASI) podría explicar por qué no hemos detectado aún otras civilizaciones avanzadas en el cosmos, a pesar de la alta probabilidad de su existencia: en vez de supernovas, plagas, guerras nucleares o eventos climáticos extremos que hayan sido un límite o punto final para esas civilizaciones, dicho tope o "filtro" podría estar impuesto por un desarrollo no regulado de la IA
|
etiquetas: ia , gran filtro , michael garrett
En cualquier caso, si la conclusión es que habría que poner algún tipo de control al desarrollo de las AI, creo que ahí casi todos estamos de acuerdo, el problema es que no creo que sea posible establecer esos límites, algo que tambien asume despues el artículo:
" la regulación de esta nueva tecnología va a ser muy difícil, si no imposible, de lograr. Sin una regulación práctica, hay muchas razones para creer que la IA podría representar una
… » ver todo el comentario
Pero pensar que va a cambiar el marco capitalista es lo mismo que pensar que esto se puede regular, no lo veo posible de ninguna forma.
...suponiendo que existiera vida fuera de la Tierra, que esa vida fuera inteligente y que esa vida inteligente desarrollara una civilización. Lo cual hasta el momento es muchisísimo suponer. Son tres inmensos saltos exponenciales de los cuales no hay ni rastro del primero de ellos.
Las IAs no se supone que destruyen civilizaciones, se supone que son una evolución de las civilizaciones, una nueva etapa.
Claro que tendría interés. Lo primero que hace una IA para progresar, es acumular datos. Y una nueva civilización son nuevos datos. Y hablar y contarnos cosas es lo primero que le pedimos a una IA por aqui. Y si acabaron con sus creadores, también les puede interesar acabar con la competencia.