[Annonce] Morale automobile. Se mesurer à l'IA

  • Auteur de la discussion Membre supprimé 1292
  • Date de début
M

Membre supprimé 1292

Sujet déjà évoqué de la frontière entre éthique et cybernétique .
Une pensée émue pour HAL... ;)

Tentez donc de vérifier si vos décisions seraient plus ou moins morales ou efficaces que la conduite autonome du futur.



 
  • Like
Reactions: Bwoah_Kimi
Pourquoi demander à une machine de pouvoir faire ce qu'aucun conducteur ne peut faire lors d'un accident, puisque la fraction de seconde qui sépare le moment où tout va bien de celui où tout va mal ne permet certainement pas de répondre, ni même de se poser la question…. ? Ce dilemme cornélien est typiquement humain, et fait partie des questions récurrentes du style "Si vous deviez choisir entre ….", et qui ne peuvent pas davantage avoir de réponse de la part d'une machine que d'un être humain avant d'y être réellement confronté, pour autant qu'on puisse se la poser.
 
Le principe d'incertitude résumé par le facteur temps.
Dès lors que la machine répond plus vite que l'homme, celui-ci n'aura plus besoin de se poser la moindre question, donc.
Ou une seule: dois- je lui abandonner ma volonté ?
:)
 
N'importe quoi, lorsque je demande à ma calculatrice de m'extraire une racine carrée, je ne lui abandonne rien, je lui laisse juste le soin de faire à ma place quelque chose qu'elle fera (beaucoup) plus vite que moi et mieux, et de toute manière rien ne m'y contraint… En montant dans un avion, tu n'abandonnes pas ta volonté au pilote, tu lui confies le soin de faire ce qu'il sait mieux faire que toi, et personne ne te met un pistolet sur la tempe pour monter dans cet avion.
 
J'avais oublier il est horrible ce test c'est vrai !

Pour la calculatrice ou pour une autre machine, si la valeur donnée pour réponse est fausse on va plus lui faire confiance parce que c'est sa fonction de donner les choses que l'on attend. C'est ça le réel danger.

Sur le site "moralmachine" au début on fais nos choix en fonction des résultats, pour arriver ensuite par les mêmes résultats mais avec pas les mêmes conditions (mouvement/ou panne du véhicule). D'où le danger.
 
Je persiste à penser que ces pseudo dilemmes sont dépourvus de sens.. le propos d'une voiture autonome sera d'éviter de se trouver face à de tels choix, pas d'avoir à les gérer. On imagine le fonctionnement de l'IA à travers le prisme de nos contradictions, mais c'est totalement hors sujet. Savoir s'il vaut mieux éviter deux personnes âgées pour privilégier deux jeunes, ou des enfants, et hiérarchiser les vies humaines selon certains critères, c'est une question d'éthique qui peut faire l'objet de discussions, d'un devoir de philo, mais il n'est pas nécessaire d'intégrer la question dans les algorithmes qui gèreront les véhicules autonomes de demain. c'est juste de la masturbation intellectuelle, et cela fait plusieurs milliers d'années que l'Homme se torture l'esprit avec ça, depuis Abraham, et le sacrifice d'Isaac.. ; qui privilégier, Dieu, mon fils, Chimène, l'honneur de mon père, si on devait choisir entre un de mes enfants, si , et si…. On ne peut répondre à de telles questions tant qu'on n'est pas confronté à la situation, et la probabilité de devoir l'être est infime.. Pourquoi donc vouloir exiger d'une machine qu'elle le fasse ?
En outre, introduire dans un logiciel d'IA une hiérarchisation des vies à sauver en priorité, basée sur l'âge, le sexe, le respect de la Loi ( elle se prend pour qui la machine, un juge ?), et pourquoi pas autre chose, cela s'appelle juste de la discrimination, et c'est fondamentalement illégal.
Un accident est par essence fortuit et irrépressible, il se produit comme il se produit, et les réactions sont réflexes, non réfléchies, un conducteur n'a généralement pas le temps de faire des choix, et s'il en fait, c'est au travers de son propre prisme de valeurs, qui n'est pas le même pour tous. Il y a ceux qui se sacrifieront, ceux qui ne voudront pas abimer leur belle voiture, ceux qui voudront sauver leur peau à tout prix..
 
Dernière édition:
La question est d'ordre juridique. Qui est responsable de la décision de l'IA et peut l'on l'expliquer? La plupart des IAs ne sont pas déterministes et ne peuvent expliquer leur décision ce qui implique un souci de responsabilité qui est un casse tête juridique en cas d'accident. En effet, est ce le développeur, le constructeur ou finalement le conducteur qui est responsable ?

C'est une des raisons qui à mon sens va longtemps freiner le déploiement massif de ces technologies.
 
En fait, juridiquement la question n'est pas si compliquée, si la voiture autonome est dans son droit, il n'y a pas de question, si elle est dans son tort, c'est l'assurance qui intervient, c'est à dire celle que le constructeur aura souscrit si il n'y a aucune faute du "conducteur", ou celle de ce dernier si il y a eu une faute de sa part. C'est pour cela que les constructeurs s'assureront pour les dommages aux biens et personnes que leurs voitures pourraient causer en conduite autonome, ou choisiront d'être éventuellement leur propre assureur, quitte à se réassurer.
 
Dans le cas de l’automobile, la question de la responsabilité revient à savoir qui va payer « la facture » en cas de casse. Il y a déjà des annonces sur le fait que certains constructeurs sont prêts à prendre à leur charge les primes d’assurance ; c’est peut-être en partie une façon d’annoncer leur confiance dans le système, en mode marketing, mais ça semble une piste assez logique.
 
  • Like
Reactions: Timeo Danaos
Pour aider à mieux comprendre le site et l'intérêt de l'expérience :

https://www.sciencesetavenir.fr/hig...hoix-moraux-des-internautes-en-voiture_128907

Attention l'article date de 2018. Le site moralmachine, date depuis quelques temps déjà. Je connaissais que la version dite "classique" maintenant avec la locomotive. Pas celle avec la voiture autonome. La version avec la locomotive est pour moi totalement différente et fait réfléchir aussi.
 
Il n'en demeure pas moins que les réponses données par les internautes sont des réponses réfléchies, et pas forcément ce qu'ils feraient réellement en situation réelle, où ils n'auraient qu'une fraction de seconde pour faire un choix, pour autant qu'ils en fassent un. En outre, ce n'est pas parce qu'une majorité choisirait d'épargner les enfants vs les personnes âgées, ce qui est facile à déclarer car moralement pas trop incorrect lorsqu'on n'a pas à prendre la décision depuis le fond de notre canapé, qu'il serait légal d'introduire ce codage discriminant dans une machine …
 
Il n'en demeure pas moins que les réponses données par les internautes sont des réponses réfléchies, et pas forcément ce qu'ils feraient réellement en situation réelle, où ils n'auraient qu'une fraction de seconde pour faire un choix, pour autant qu'ils en fassent un. En outre, ce n'est pas parce qu'une majorité choisirait d'épargner les enfants vs les personnes âgées, ce qui est facile à déclarer car moralement pas trop incorrect lorsqu'on n'a pas à prendre la décision depuis le fond de notre canapé, qu'il serait légal d'introduire ce codage discriminant dans une machine …

Je suis d'accord d'ailleurs l'article tend à dénoncer la chose tout comme le site moralmachine en fin de compte.
Une limite de temps pour répondre aurait pu rendre la chose plus pertinente.

On peut noter des choses intéressantes :

- L'age des personnes joue sur les décisions / Peu de personnes choisissent l'option ne rien faire
- Les réponses données sont sensiblement les mêmes en fonction de la région de la personne qui répond.
- Différents groupes de certaines régions sur le globe sont plus sensible à sauver un enfant qu'un vieux, un animal qu'un humain.

Par contre, ce n'est pas illégal du moins on pourrait le rendre (légal) malheureusement (de mettre en place un tel système).
On peut dire que c'est immoral par contre si tu veux.
 
Ce serait une discrimination liée à l'âge, et ce serait absolument contraire au principe qui veut qu'une vie en vaut une autre. Il serait "très illégal" d'inscrire dans un programme que la vie d'un enfant vaut plus que la vie d'un homme plus âgé.. , et en outre, en commençant, on ne sait pas où on s'arrête… Entre deux enfants on choisit lequel..? Le plus jeune, le plus intelligent, le plus blond, ou … blanc..? Ce serait une boite de Pandore, quand on commence à établir des critères de choix, on ne peut plus s'arrêter.

En fait pour que l'expérience puisse donner un semblant de résultat, il faudrait qu'elle se passe en condition presque réelle, en masquant ce que l'on souhaite évaluer, un peu comme l'expérience de Milgram ( I comme Icare). On met les "cobayes" au volant de simulateurs de conduite, on leur déclare qu'on cherche à évaluer les réflexes dans certains situations, et on leur présente les situations cornéliennes de l'expérience, et on voit ce qu'ils font et ce qu'ils choisissent par réflexe, et en leur donnant plus de temps pour prendre une décision. La limite de l'expérimentation, c'est aussi que les cobayes savent bien que les piétons sont virtuels et les accidents sans dommage, mais on ne va pas non plus faire ça avec des vrais.. Mais si on dévoile que l'on souhaite évaluer la nature de leurs décisions, on pollue l'expérience parce que les cobayes seront sensibilisés et feront attention à ce qu'ils décident.
Mais le questionnaire tel qu'il est présenté n'a aucun intérêt, les répondants peuvent réfléchir d'une part, et d'autre part les réponses qu'ils donnent ne sont pas engageantes. Il est facile de dire ce qu'on ferait si, lorsqu'on n'a pas à le faire...
 
Ce serait une discrimination liée à l'âge, et ce serait absolument contraire au principe qui veut qu'une vie en vaut une autre. Il serait "très illégal" d'inscrire dans un programme que la vie d'un enfant vaut plus que la vie d'un homme plus âgé.. , et en outre, en commençant, on ne sait pas où on s'arrête… Entre deux enfants on choisit lequel..? Le plus jeune, le plus intelligent, le plus blond, ou … blanc..? Ce serait une boite de Pandore, quand on commence à établir des critères de choix, on ne peut plus s'arrêter.

Malheureusement, quand on veut rendre une chose légal oui on peut. C'est biscornu, osé, dérangeant mais pas impossible bien que se soit contraire à toutes nos règles fondamentales désolé. Comme tu dis ce serait une boite de Pandore, mais on peut toujours légaliser ce genre de chose. Le fichage ethnique et tout ce qui en découle ça existe déjà et ça a déjà existé donc ça ne me parait pas impossible. Réalisable par contre c'est autre chose. Et en effet, c'est pas bien.

La limite de l'expérimentation, c'est aussi que les cobayes savent bien que les piétons sont virtuels et les accidents sans dommage, mais on ne va pas non plus faire ça avec des vrais.. Mais si on dévoile que l'on souhaite évaluer la nature de leurs décisions, on pollue l'expérience parce que les cobayes seront sensibilisés et feront attention à ce qu'ils décident.

Scientifiquement et statistiquement parlant lors de traitement de données ils savent faire la part des choses entre des réponses sincère et des réponses loufoques.

Mais le questionnaire tel qu'il est présenté n'a aucun intérêt, les répondants peuvent réfléchir d'une part, et d'autre part les réponses qu'ils donnent ne sont pas engageantes. Il est facile de dire ce qu'on ferait si, lorsqu'on n'a pas à le faire...

Pour la version voiture autonome elle est mal présentée. Celle du train est plus amenée à faire réfléchir.

En fait pour que l'expérience puisse donner un semblant de résultat, il faudrait qu'elle se passe en condition presque réelle, en masquant ce que l'on souhaite évaluer, un peu comme l'expérience de Milgram ( I comme Icare). On met les "cobayes" au volant de simulateurs de conduite, on leur déclare qu'on cherche à évaluer les réflexes dans certains situations, et on leur présente les situations cornéliennes de l'expérience, et on voit ce qu'ils font et ce qu'ils choisissent par réflexe, et en leur donnant plus de temps pour prendre une décision. La limite de l'expérimentation, c'est aussi que les cobayes savent bien que les piétons sont virtuels et les accidents sans dommage, mais on ne va pas non plus faire ça avec des vrais.. Mais si on dévoile que l'on souhaite évaluer la nature de leurs décisions, on pollue l'expérience parce que les cobayes seront sensibilisés et feront attention à ce qu'ils décident.

Désolé j'ai un peu de mal à saisir. Comment rendre cette expérience pertinente si les personnes ne peuvent pas voir ce qu'il y a comme obstacle devant eux ?
Ce que moralmachine cherche à démontrer c'est potentiellement comment pourrais t on mettre cela en place de manière algorithmique et comment pourrait on légiférer en fonction de cela. C'est juste une recherche scientifique, une démonstration, ils ne disent pas qu'ils faut légiférer comme ci ou comme ça.
Ça mène juste à ce demander, pourquoi légiférer sur cette question ? Quels sont les dangers ? Quels sont les responsabilités ?
Et non de dire il faut régler les voitures autonomes sur : il faut tuer les enfants et pas les vieux (ou l'inverse)
D'ailleurs si ils ont ouvert les résultats à tout le monde c'est pas pour rien. Ils en parlent à la fin de l'article.
 
Ouai de la masturbation de neurones, les questions posées ne sont pas réalistes : elles passent sous silences des solutions qui ne mettent en jeux que la survie du conducteur et de ses passagers ou plutôt du véhicule!
:woot:
 
Vous voudrez bien me pardonner ne n'avoir pas tout lu avant de m'exprimer.
Ce qui me frappe avant tout c'est que les choix proposés ne prévoient pas que l'on se sacrifie soi-même plutôt que de risquer d'ôter la vie du moindre humain.
Personnellement les animaux je m'en fous et compte un héron, un écureuil, un lièvre un passereau et un renard à mon passif. La harde de sangliers, laie et marcassins compris ayant eu plus de chance comme les biches, plus prudentes et anticipatrices...
C'est un peu débile de nous demander de choisir entre nos victimes, je trouve. D"abord parce que le temps est trop court. Ensuite de considérer que la machine ferait un choix plus rapide et ferait preuve de plus de discernement; pour cela il faudrait lui faire confiance sur ces capacités de reconnaissance, très fines et discriminatoires , probablement aidées en cela par une intrusion dans l'identité réelle des victimes potentielles. Wells et Huxley bonjour!

Quant à la vision purement matérialiste du problème réduisant le problème à la réparation d'un préjudice au civil, pardon, je vais vomir...
 
  • Like
Reactions: Timeo Danaos
Ce que je veux dire, c'est qu'il ne faut pas dire aux personnes de l'expérience que ce que l'on évalue c'est leur réaction en fonction de la nature des obstacles, enfant, personne âgée, "racaille", femme, ….. on leur dit autre chose, qu'on va voir s'ils réagissent bien, vite, et évaluer leurs réflexes par exemple. Bien sur qu'il faut qu'ils voient les obstacles, mais il ne faut pas qu'ils sachent que c'est le fait que le piéton soit un enfant, un homme âgé, une femme, qui est le cœur de l'expérience, sinon ils vont adapter leurs réponses en fonction de cela. Il ne s'agit pas de faire la part des choses entre les réponses loufoques et plus ou moins sincères, mais si on préviens les gens de ce que l'on va évaluer, on les sensibilise forcément à faire plus particulièrement attention à ça. Si par exemple, je dis à un conducteur ;"On va faire un tour et je vais voir comment et à quel rythme tu regardes dans ton rétroviseur", je pollue l'expérience, car il va forcément faire plus attention à ce point que si je ne lui dis rien.. Donc en l'occurrence, il faudrait mettre des gens derrière un simulateur, sans rien leur dire, et les confronter à ces situations, dans différents cas, pour voir leur réaction.

En ce qui concerne la légalité, je suis désolé, mais non, on ne peut plus faire ce qu'on veut, il y a depuis des décennies une multitude de dispositifs légaux qui comportent des formes de clapets anti retour, et à moins de retomber dans une dictature qui s'assiérait sur le Droit sans aucune vergogne, il n'y a aucune chance de voir légaliser un jour un principe qui établirait une hiérarchie des importances des vies humaines en fonction de je ne sais quel critère.
 
Dernière édition:
C'est un peu débile de nous demander de choisir entre nos victimes, je trouve. D"abord parce que le temps est trop court. Ensuite pour considérerait que la machine ferait un choix plus rapide et faisant preuve de plus de discernement , il faudrait lui faire confiance sur ces capacités de reconnaissance, très fines et discriminatoires , probablement aidées en cela par une intrusion dans l'identité réelle des victimes potentielles. Wells et Huxley bonjour!

Tout à fait, c'est juste dépourvu de sens, et tout à fait dans la lignée des dilemmes cornéliens qui hantent l'esprit humain depuis Abraham, en passant par Chimène, et l'abondante littérature qui reprend le thème à toutes les sauces.. On aime bien se créer des situations compliquées et des nœuds au cerveau..
 
Pas d'accord. Les grands dilemmes évoqués ne sont pas soumis à l'immédiateté de l'analyse et de la décision.
Ce test voudrait nous faire croire que nous devrions voter collégialement, en fait par sondage , afin d'établir une table de lois à la Moïse à partir de laquelle seraient établies des règles à implémenter dans un système cybernétique qui en déduirait des lois et des choix "urgents " â appliquer après
identification et discrimination des victimes potentielles.
Il s'agit bien d'une délégation complète d'analyse, de choix et de décision à la machine selon des choix moraux préétablis.
Brrrrrrr!
 
Le sondage non plus n'est pas soumis à l'immédiateté de l'analyse et de la décision. Mais les thèmes sont récurrents depuis la nuit des temps… "Qui choisir s'il fallait le faire …?" C'est très pervers comme sujet car il voudrait faire accréditer l'idée que la poursuite des progrès dans l'IA imposera que l'on réponde à ces questions et que l'on crée une forme d'éthique alors qu'en réalité on voudrait s'asseoir dessus, ou à tout le moins en imposer une..
 
  • Like
Reactions: Pulsar_76