Note

#16245

Hé, je viens d’avoir une idée concernant les voitures autonomes et le dilemme de la protection des passagers VS la protection des autres usagers de la rouge.

Si les voitures sont robotisées, et tant que toutes les voitures ne le sont pas, pourquoi ne pas appliquer les 3 lois de la robotique sans tenir compte des passagers ?

Je m’explique : si les passagers sont volontaires pour se faire transporter par une voiture autonome, ils acceptent que la voiture fasse des choix. Ça me semble évident.

À ce moment là, la protection des passagers est rapporté à la loi 3 de la robotique, c’est à dire « le robot doit protéger son existence tant que ça n’entre pas en conflit avec les lois 1 et 2 ».
La loi 1 ne concerne alors que les humains à l’extérieur, et la loi 2 ne concerne que les ordres donnés par le conducteur (ou les passagers, si la notion de conducteur voue à disparaître).

À mon avis, on ne peut pas responsabiliser une voiture pour le moment. J’ai l’impression que les assurances et les constructeurs vont dans ce sens également. Il faut donc responsabiliser le conducteur, et donc en diminuant leur priorité de survie en cas de problèmes (ce qui les forcera à rester vigilant un minimum).

Quelques cas de figure :

Si un passager décide de faire le con et donne un coup dans le volant, la voiture doit le refuser pour éviter de blesser les autres avant tout.
Si les passagers sont suicidaires, ce n’est pas le problème de la voiture (loi 2 > loi 3), donc elle devra obéir si il n’y a pas d’autres humains (en pleine campagne par exemple).

Si il y a un accident et que la voiture doit faire un choix entre protéger les passagers (et elle-même) et protéger des piétons (ou d’autres humains dans d’autres voitures), elle protégera les piétons en priorité (loi 1 > loi 3 — les passagers faisant partie de la voiture, et ayant en quelque sorte accepté cela). Une fois une trajectoire pour éviter les humains dehors trouvée, elle l’ajuste pour respecter la loi 3, ou elle écoute un passager pour respecter la loi 2.

(Enfin, une bonne partie des problèmes viennent du fait que les humains et les voitures empruntent parfois le même espace (par exemple sur les passages piéton). On n’a pas de problèmes avec le métro ou les avions. Et aussi parce qu’on va passer par une phase de cohabitation entre voitures autonomes et voitures non-autonomes, ce qui à mon avis la phase la plus difficile à gérer).

https://lehollandaisvolant.net/?mode=links&id=20170303170524

Bilan de 3 ans d’utilisation d’un aspirateur robot | {niKo[piK]}

#16041

+1

http://lehollandaisvolant.net/?mode=links&id=20160209173222

Et pour le prix, je le rentabilise comme ça : 250€, ça revient à ~25h de travail.
Si je passe l’aspi ou le balai, j’en ai pour 30 minutes, une fois par semaine.
Donc en 50 semaines (une année), j’aurais passé 25 heures à faire le ménage.

Avec le robot, au bout d’un an, mon temps est rentabilisé et ce que j’ai passé à bosser pour avoir le robot, je peux maintenant l’utiliser pour autre chose que cette corvée.

Oui, je compte mes investissements en nombre d’heures de travail. Essayez, ça change pas mal les perspectives :
– un plein à 50€ ? Une matinée de travail.
– un téléphone à 600€ ? Deux semaines de taf.
– 10€ de plats préparés qui permettent de gagner 30 minutes de temps ? Ce n’est pas rentable.

L’argent est artificiel, et on nous fait croire que c’est essentiel.
Il y a une seule et unique chose de limitée dans la vie : le temps. C’est tout.

https://www.nikopik.com/2016/08/bilan-de-3-ans-dutilisation-dun-aspirateur-robot.html

Please Consider This Frightening Tale of Pooptastrophe Before Getting a Roomba With Pets - Cheezburger

#16025

Oops.

Si vous avez un Roomba (robot aspirateur) et des animaux, vérifiez avant de lancer le roomba que vos animaux n’ont pas chié quelque part.
Ça serait bête que le roomba roule dans la merde et en mettre partout… n’est-ce pas ?

http://cheezburger.com/897029/dogs-roomba-please-consider-this-frightening-tale-of-pooptastrophe-before-getting-a-roomba-with-pets

image - 371x365px

#15691

Juste un robot à 4 pattes qui… fail :D

https://external-lhr3-1.xx.fbcdn.net/safe_image.php?d=AQCvQrQt7-k5Qu6f&url=http%3A%2F%2Fi.imgur.com%2FVaxIFs6.gif%3Fnoredirect&ext=gif

Les robots, bientôt qualifiés de "personnes électroniques" avec des droits ? L'Europe y pense

#15663

Bien, vraiment ><

Vouloir considérer les robots comme humains et dans le même temps faire passer des humains pour des robots en les faisant bosser 60 h/sem.

Et je ne parle pas des gens qui sont traités comme de la merde, à cause de leur sexe, âge, couleur, emploi ou absence d’emploi, qualité, croyance…

Ni des animaux.

http://www.clubic.com/mag/sciences/actualite-810018-robots-qualifies-personnes-electroniques-droits-europe-pense.html

Why Asimov's Three Laws Of Robotics Can't Protect Us

#15363

Article qui analyse un problème sérieux, mais sans vraiment répondre à la question. Ils ne disent pas en quoi ces lois sont insuffisantes.

« What's more, a robot or AI endowed with super-human intelligence would be hard-pressed to not figure out how to access and revise its core programming. »

Si : une IA est programmée. Elle ne fait que ce qu’on lui dit de faire, rien de plus.

« I think it would be unwise to design artificial intelligence systems or robots to be self-aware or conscious »

Il n’a pas tort, je pense, mais ça n’empêchera personne de faire une IA.

« Very few AGI researchers believe that it would be possible to engineer AGI systems that could be guaranteed totally safe »

Ben pour le moment un ordinateur qui reste sur son bureau n’a encore jamais tué personne.
Un cerveau qui n’a pas de bras pour agir me semble totalement inoffensif.
Le reste n’est qu’un problème humain après. Si le robot dit « prends un pistolet et tire toi une balle », ce n’est pas la faute du robot si la personne s’exécute (littéralement).

http://io9.gizmodo.com/why-asimovs-three-laws-of-robotics-cant-protect-us-1553665410