[Annonce] Morale automobile. Se mesurer à l'IA

FoLuxo

Silence, on roule !
Membre du personnel
30/6/14
4 631
4 313
790
39
Luxembourg
Quant à la vision purement matérialiste du problème réduisant le problème à la réparation d'un préjudice au civil, pardon, je vais vomir...
Après réflexion, et pour faire plaisir aux faibles d’esprit, il sera également envisageable de mettre les voitures autonomes en prison (au garage ?) ou de leur faire faire la marche de la honte, à la Game of Thrones. Ça apprendra aux autres à se tenir.
 

mark13

Membre HybridLife Confirmé
13/12/16
6 120
3 147
690
@Timeo Danaos on est bien d'accord donc: établies en amont avec le temps de la réflexion et de la concaténation , une fois pour toutes, des lois cybernétiques s'appliqueront immédiatement et complètement, indépendamment de la volonté du conducteur.
La responsabilité morale, en plus du civil..... et du pénal ?.... deviendra celle du constructeur, le conducteur pourra dormir sur ses deux oreilles depuis la programmation de sa destination. ... enfin.... presque ... enfin... pour le moment... ,;)
 

Timeo Danaos

Membre HybridLife Confirmé
17/9/18
939
953
690
59
Justement, ces "lois cybernétiques" ne pourront pas légalement être écrites dans un programme, parce que contraires à la loi, puisque établissant des hiérarchies entre les vies humaines. Et il n'est absolument pas nécessaire d'introduire de tels critères de choix dans un programme de voiture autonome.
 
  • Like
Reactions: mark13

mark13

Membre HybridLife Confirmé
13/12/16
6 120
3 147
690
Ouf! Tu me rassures !
Ce test est donc sans objet.... enfin.... je l'espère. :)
 

Timeo Danaos

Membre HybridLife Confirmé
17/9/18
939
953
690
59
Oui, pour ma part, non seulement il est sans objet, mais aussi il est complètement biaisé, les intervenants ayant tout leur temps pour penser leurs réponses, et surtout, étant sensibilisés au fait que ce qui est évalué, c'est la réponse au choix cornélien proposé. Mais peut être aussi que ce test a un tout autre objet, toujours dans le sens de l'expérience de Milgram, et qu'on évalue …. autre chose, comme la manière de hiérarchiser les vies humaines en fonction des cultures et des pays… Qui sait ?
 

Bwoah_Kimi

Membre HybridLife Confirmé
23/12/18
343
228
490
29
Roubaix
Les résultats parlent d'eux même. Pourquoi peu de personne choisissent l'option de ne rien faire ?
On commande soit un train, soit la voiture autonome. Mais par définition enfin plutôt dans l'exemple, le train va tout droit ou change de voie, la voiture autonome c'est pareil. Dans tout les cas on est confronté, obligé à devoir tuer quelqu'un. On est influencé par la direction que le véhicule nous impose de prendre et donc que la question nous pose. C'est humain c'est normal, hors réellement comme vous dites et donc moralement, ils seraient bien plus probable de voir des gens ne pas réagir et donc de ne rien faire ou de faire tout autre chose que les exemples demandés. C'est comme un effet tunnel. Pour le véhicule autonome certains même sauterais du véhicule disant que ah non c'est pas moi c'est ma voiture elle ne s'arrête pas. Oui, il y en a qui le ferais pour penser échapper aux responsabilités.
C'est pour cela que l'exemple du train et plus probant puisque un train ça ne s'arrête pas comme une voiture au bout de 50 100 ou 200 m.
C'est donc inquiétant puisque c'est vrai par cette expérience comment choisir et définir qu'elle est la bonne ou la meilleure réaction/choix ?
Peut on donc laisser l'IA gérer une telle chose et comment la définir et oui donc légiférer la dessus ?
C'est pas qu'une question de loi, de sens ou de morale ça va plus loin que ça.