La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con 'voluntad' propia. De ser así, podrían acabar con la humanidad en un segundo. Esta opinión sobre el peligro que acarrea la inteligencia artificial corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, y autor del famoso libro 'La superinteligencia: caminos, peligros, estrategias'. En una entrevista a la revista 'Esquire' el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial. Y no es único que piensa así. Últimamente se ha reavivado el tema de las consecuencias de la creación de la superinteligencia artificial y varios científicos, entre ellos Elon Musk y Stephen Hawking, se han pronunciado en contra de estos avances ya que en
Blog dedicado a la difusión de artículos relevantes sobre tecnología, redes y aplicaciones móviles.