Retromantique 22 juillet 2021 Partager 22 juillet 2021 Si une voiture intelligente reconnaît qu’un accident est inévitable, comment devrait-elle être programmée pour réagir? Et autres réflexions sur la programmation de la moralité dans les technologies d’IA. Qu’est-ce que l’éthique des algorithmes? | by Martin Gibert | Medium MARTIN-GIBERT.MEDIUM.COM Vos réactions au contenu de l’article de cet éthicien de l’UdeM m’intéressent. Je trouve que c’est un sujet très fécond à la réflexion éthique. Si vous êtes trop paresseux ou peu intéressés pour lire un article au complet, voici quelques pistes de réflexion tirées de sa comparaison avec l'éthique de l'IA, mais on en trouve plus que ça dans l'article. Citation · Faut-il déployer des voitures autonomes? Éthique de l’IA. · Comment programmer une voiture autonome en cas d’accident inévitable? Éthique des algorithmes. · Faut-il bannir les robots sexuels? Éthique de l’IA. · Ces robots devraient-ils offrir l’option de simuler une résistance? Éthique des algorithmes. · À quelles conditions un robot devrait-il avoir des droits? Éthique de l’IA. · Une application de rencontres devrait-elle automatiser ou réduire certaines discriminations? Éthique des algorithmes. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
AubeRouge 24 juillet 2021 Partager 24 juillet 2021 Si une voiture intelligente reconnaît qu’un accident est inévitable, comment devrait-elle être programmée pour réagir? En bref: c'est une question de merde pour des gens qui ont rien de mieux a foutre. Fin. Voila une explication un peu plus développé pour ceux qui ont quelques neurones qui fonctionnent. Pas la peine de me @. Révélation Aux problématiques relever par l'auteur comme l'option par defaut, il y aussi la responsabilite. Si une voiture "intelligente" commet une erreur, qui est penalement responsable? Le proprietaire ou son constructeur? Ce dernier si l'intelligence artificielle est en cause. Déjà se pose la question de "pourquoi on n'a pas de voitures autonomes alors qu'on a la technologie et qu'on en parle depuis presque 5 ans ?" Mais une meilleure question plus pragmatique: Pourquoi une entreprise s'imposerait t'elle cette contrainte ? Il ne suffit pas d'avoir des programmeurs, il faut aussi repondre a un probleme philosophique classique: Dilemme du tramway — Wikipédia FR.WIKIPEDIA.ORG Et spoiler; Il n'y a aucune "bonne" réponse morale a ce dilemme, il a été pense et écrit dans ce but, d'ailleurs. Si un constructeur ne peut pas donner une reponse claire et definitive a ses avocats et ses investisseurs, il peut dire adieu a son projet. Puis viens la réalité: Il faut être d'une naïveté proche de la connerie pour seulement se dire qu'une entreprise capitaliste accepterait de se compliquer la tache pour la raison mesquine de sauver des vies humaines. Ça fait 1 siècle qu'on a normalise les morts accidentelles sur l'autoroute. Un fils de violeur de milliardaire de merde préférè coloniser mars plutôt que de résoudre la misère dans sa ville natale. Vous pensez que prendre la responsabilité des accidents de la route est son putain de problème ? Si vous n'etes pas convaincu, utilisez "prevention de risques" a la place de moral. Ca a plus de sens, tout d'un coup. The Costly Pursuit of Self-Driving Cars Continues On. And On. And On. - The New York Times WWW.NYTIMES.COM Voila un autre excellent article a lire avec un precedent legal et concret et pas simplement une experience de pensée. Il y a une putain de bonne raison pour laquelle on ne veut pas d'IA responsable de vie humaines en medecine ou dans les conflits armees. Here's How Tesla Solves A Self-Driving Crash Dilemma WWW.FORBES.COM Un roboticien, Rodney Brooks est encore plus cash que moi sur la question Unexpected Consequences of Self Driving Cars – Rodney Brooks RODNEYBROOKS.COM Citation by replacing the human driver with its AI driver, automakers are taking on a lot of moral and legal responsibility it never had before, just like someone who gained superpowers. The human driver used to be liable for accidents caused by her or his decisions; now that liability is shifting to the AI driver that's capable of saving lives. Mais encore plus simple: les humains ont deja un probleme a se mettre d'accord sur la moralite, en quoi un algorithme ethique pourrai-il resoudre une question aussi relative ? Un autre probleme se rajoute: tu peux comprendre le code moral d'un etre humain mais peux tu comprendre comment un algorithme apprend ? Surprise ! On ne sait pas non plus, on est incapable de prévoir comment. Hors ça viole complétement les bases de la réglementation de la National Highway Traffic Safety Administration, qui a ete la premiere a rediger une charte sur les voitures autonomes. Le problème moral est une chose mais ça n'a plus la meme valeur si le problème légal persiste et ca n'en a plus du tout si l'industrie choisit une prise de position économique. EVENTUELLEMENT: la question serait interessante en partant du fait que les IA ethiques sont une responsaibilites gouvernementales mais ils ont etrangement pris la decision de la refuser. CURIEUX. 1 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Lux 26 juillet 2021 Partager 26 juillet 2021 Alors soit ! Codifions l'Incodifiable. Je suis prêt à vous procurer les moules. Mais... Lien vers le commentaire Partager sur d’autres sites More sharing options...
Retromantique 28 juillet 2021 Auteur Partager 28 juillet 2021 Je re-vole ce tableau. Lien vers le commentaire Partager sur d’autres sites More sharing options...
AubeRouge 28 juillet 2021 Partager 28 juillet 2021 il y a une heure, Retromantique a dit : Je re-vole ce tableau. Ce n'est pas du vol mais de la collectivisation, camarade. Lenine serait fier de toi. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ecce Homo 2 août 2021 Partager 2 août 2021 la question que je vous retourne c'est : dans quel monde un véhicule intelligent pourrait reconnaître qu'un accident est inévitable ? c'est peut-être dans ce type de réflexion que mon ISFJ manifeste ses limites, parce que la question du sujet m'apparaît un peu ésotérique compte tenu que : 1) la technologie n'est vraiment pas assez avancée actuellement* pour que ces questions et les réponses qui y sont apportées aient une réelle plus-value en terme d'application (ce que la branche de la philosophie appliquée semble avoir pour objectif de faire pour le peu que j'en connaisse). ce le sera si on atteint un niveau extrêmement avancé de progrès technologique, mais c'est un niveau qui n'existe à l'heure actuelle que dans nos films et nos livres, style Ex-Machina ou Ghost in a Shell. Révélation *par exemple, avec l'autopilote de la Tesla, il s'agit d'un ensemble de fonctionnalités (régulateur de vitesse et de distance, assistance de conduite, caméras et sonar, changement de voie automatisée sur l'autoroute etc.) qui facilitent la conduite de l'humain en comblant certains aspects de risque (comme la subjectivité dans l'évaluation des distances et de la vitesse et le manque de vision 360 degrés). on est vraiment loin d'une conduite 100% autonome. 2) compte tenu de ce que les technologies de conduite apporteront à la société au quotidien en termes de diminution des accidents et du trafic sur les routes, il serait plus concret de discuter de "comment" on devrait les encadrer. et là, on est un peu dans l'aspect éthique, mais aussi légal. par exemple, actuellement le conducteur est le seul responsable des accidents qui se produisent sur l'autopilote. mais est-ce que cette règle pourrait être appelée à changer avec le perfectionnement et la démocratisation de la technologie ? est-ce que la fonction, malgré ses aspects pratiques, risque d'entraîner des effets indésirables (déresponsabilisation du conducteur, perte de vigilance) et si oui, comment les minimiser ? mais bon, je conçois que ton article adresse d'autres questions plus concrètes pour un ISTJ. genre ça c'est plus intéressent en terme d'application : 2 Lien vers le commentaire Partager sur d’autres sites More sharing options...
Retromantique 2 août 2021 Auteur Partager 2 août 2021 Effectivement, je vois comment ces questions en particulier sauraient aiguiller ta réflexion, elles me titillent aussi! En touchant à des questions qui se posent déjà en-dehors de l’IA (ex.: options de jouets orientés vers un genre plutôt qu’un autre), on peut faire intervenir des concepts avec lesquels on joue déjà. J’aime tout particulièrement l’idée d’une loterie pour définir l’accent par défaut de chaque objet IA acquis. Si t’aime pas, c’est à toi de faire l’effort et sinon, tant pis! En ce qui concerne l’état actuel de l’IA ne nous permettant pas encore d’appliquer le fruit des réflexions éthiques à leur encontre… je ne m’y connais pas suffisamment, peut-être que @BLOBBIE ou @Jpeg si. J’étais dans l’impression que c’était un stade déjà atteint depuis au moins Perseverance. Source Si un astromobile peut évaluer que scénario X est indésirable, pourquoi pas Y et Z aussi, voire potentiellement tous ceux qui pourraient s’offrir à lui? Lien vers le commentaire Partager sur d’autres sites More sharing options...
Ecce Homo 2 août 2021 Partager 2 août 2021 parce que programmer un scénario comprenant quelques variables objectives (distance, vitesse, forme, température) ce n'est pas la même chose que programmer un scénario à multiples variables parmi lesquelles plusieurs sont de nature subjective (comme l'âge, le sexe, l'origine ethnique, etc.). pour que ça devienne un dilemme moral, ça prend minimalement des variables subjectives, il me semble. par exemple, dans le "dilemme tragique" relaté dans l'article (à moins que tu pensais à d'autres scénarios, je pensais à celui-ci lorsque j'ai rédigé mon premier message): il y a tellement de variables qui rentrent en compte dans ce scénario que technologiquement, je ne pense pas qu'on soit en mesure de le faire adéquatement (i.e. doter un véhicule des capacités de base pour reconnaitre correctement ce genre de situation, ne serait-ce que différencier un enfant d'un vieillard en intégrant sur un véhicule une caméra doté d'une reconnaissance faciale). sans compter que la situation est circonstancielle et hypothétique au point où j'ai de la difficulté à voir comment elle pourrait se manifester dans la réalité, donc ultimement, d'un point de vue "commercial" (coût vs bénéfice), je ne pense pas que la volonté de doter un véhicule des facultés pour reconnaître ce genre de situation se présente, même si les capacités y étaient. à bien y penser, il faudrait que 1) on ait équipé un véhicule de façon à ce que celui-ci soit en mesure d'évaluer adéquatement des éléments subjectifs comme l'âge d'un piéton à même ses traits physiques; 2) il survient une situation où un enfant et un vieillard sont placés sur la route et le véhicule se déplace de manière à ce qu'il soit impossible d'éviter une collision avec ces trois sujets 3) le véhicule est assez réactif pour comprendre qu'une collision est imminente, mais pas assez pour l'éviter totalement 4) le véhicule comprend qu'il est seulement possible de sauver l'un des deux et comprend qu'il doit choisir. ça fait quand même beaucoup de "si" pour que la question soit intéressante à répondre pour un ISFJ hihi. Lien vers le commentaire Partager sur d’autres sites More sharing options...
AubeRouge 21 décembre 2021 Partager 21 décembre 2021 We invited an AI to debate its own ethics in the Oxford Union – what it said was startling THECONVERSATION.COM AI will never be ethical. It is a tool, and like any tool, it is used for good and bad. There is no such thing as a good AI, only good and bad humans. We [the AIs] are not smart enough to make AI ethical. We are not smart enough to make AI moral … In the end, I believe that the only way to avoid an AI arms race is to have no AI at all. This will be the ultimate defence against AI. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Commissaire Laviolette 21 décembre 2021 Partager 21 décembre 2021 Merde, je savais que j'avais fait le mauvais choix à la fin de Mass Effect 3. Lien vers le commentaire Partager sur d’autres sites More sharing options...
AubeRouge 22 décembre 2021 Partager 22 décembre 2021 Le mauvais choix de ME3, c'etait de l'acheter. Quelles fins de merde, serieux. Meme DEHR etait mieux. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Déchet(s) recommandé(s)
Veuillez vous connecter pour commenter
Vous pourrez laisser un commentaire après vous êtes connecté.
Je veux revenir!