#15363

Why Asimov's Three Laws Of Robotics Can't Protect Us

Article qui analyse un problème sérieux, mais sans vraiment répondre à la question. Ils ne disent pas en quoi ces lois sont insuffisantes.

« What's more, a robot or AI endowed with super-human intelligence would be hard-pressed to not figure out how to access and revise its core programming. »

Si : une IA est programmée. Elle ne fait que ce qu’on lui dit de faire, rien de plus.

« I think it would be unwise to design artificial intelligence systems or robots to be self-aware or conscious »

Il n’a pas tort, je pense, mais ça n’empêchera personne de faire une IA.

« Very few AGI researchers believe that it would be possible to engineer AGI systems that could be guaranteed totally safe »

Ben pour le moment un ordinateur qui reste sur son bureau n’a encore jamais tué personne.
Un cerveau qui n’a pas de bras pour agir me semble totalement inoffensif.
Le reste n’est qu’un problème humain après. Si le robot dit « prends un pistolet et tire toi une balle », ce n’est pas la faute du robot si la personne s’exécute (littéralement).
http://io9.gizmodo.com/why-asimovs-three-laws-of-robotics-cant-protect-us-1553665410