Titre: Quand le machine learning vous condamne Posté par: Erylanor le 20 Septembre 2017 à 10:38:23 Salut cher tous,
Je viens ici avec une petite news, pas si nouvelle que ça mais qui est toujours plus ou moins dans le domaine de la recherche. Vous avez surement déjà entendu parler de machine learning (apprentissage automatique dans la langue de Rabelais). Pour rappel, c'est un procédé qui permet de remplir des tâches à peu près impossibles à remplir avec les algorithmes et moyens actuels. Pour donner l'idée, je vais expliquer avec un exemple d'apprentissage supervisé. Une machine va créer au fur et à mesure un algorithme qui va devoir reconnaître des chameaux sur les images :
Il existe aussi de l'apprentissage non supervisé, mais on ne va pas rentrer dans les détails, c'est une news ici. Rentrons dans le vif du sujet maintenant. Vu que l'ordinateur permet de faire bien plus d'opérations qu'un humain, l'apprentissage permet de faire des tâches extrêmement complexes. Il se trouve que des américains (souvent eux à l'origine des magouilles) ont mis au point un système juridique utilisant de l'apprentissage. Par système juridique, on entend des décisions de tribunaux, etc... en bref, des choses qui ont un impact assez énorme sur la vie de certaines personnes. On peut notamment citer COMPAS ou Supra Legem. Il y a potentiellement des avantages et des inconvénients :
En bref, je ne sais pas du tout quoi en penser, sinon qu'il faut faire attention avant de confier tout à des algorithmes (je sais, c'est un peu tard pour dire ça). Tchüs, Ryl Titre: Re : Quand le machine learning vous condamne Posté par: pixis le 21 Septembre 2017 à 10:20:51 Salut,
Merci pour ces infos. Effectivement, c'est le grand problème d'aujourd'hui, et on le retrouve dans plusieurs domaines. Les interprétations de diagnostiques cardiaques, les choix d'une voiture autonome, etc. Ce sont autant de décisions impactant directement l'humain, et penser/poser les limites est extrêmement important, mais pour l'instant pas ou peu régulé. Donc c'est un vrai débat qui est ouvert. **orthographe !** sont les risques, les limites, les responsabilités ? Si un algorithme se trompe (ça arrive !), qui est responsable ? Le créateur de l'algo ? Les responsables des phases d’entraînement ? Celui qui a acheté l'algo ? En fait, tout le monde va vouloir se décharger de la responsabilité, donc je pense qu'un peu naturellement, chacun va ajouter des clauses super restrictives quand un algo sera utilisé avec un impact fort sur l'humain, ce qui automatiquement régulera son utilisation. Je suis peut-être optimiste, mais j'ai confiance. :) A suivre ! |