logo Homepage
Pages: [1]
  Imprimer  
Auteur Fil de discussion: Quand le machine learning vous condamne  (Lu 3950 fois)
Erylanor
Newseur
Profil challenge

Classement : 350/54254

Néophyte
**
Hors ligne Hors ligne
Messages: 10


Voir le profil
« le: 20 Septembre 2017 à 10:38:23 »

Salut cher tous,

Je viens ici avec une petite news, pas si nouvelle que ça mais qui est toujours plus ou moins dans le domaine de la recherche.

Vous avez surement déjà entendu parler de machine learning (apprentissage automatique dans la langue de Rabelais). Pour rappel, c'est un procédé qui permet de remplir des tâches à peu près impossibles à remplir avec les algorithmes et moyens actuels.

Pour donner l'idée, je vais expliquer avec un exemple d'apprentissage supervisé. Une machine va créer au fur et à mesure un algorithme qui va devoir reconnaître des chameaux sur les images :
  • On donne plein de photos avec ou sans chameaux dont on connaît la réponse et la machine va essayer d'améliorer l'algorithme à chaque fois qu'il se trompe. C'est la phase d’apprentissage. A la fin de cette phase, la machine va sortir l'algorithme qui reconnaîtra (plus ou moins) les chameaux
  • on donne plein de photos à l'algorithme dont on connaît encore la réponse pour vérifier s'il se trompe souvent. C'est la phase de test
Maintenant, on a un algo qui reconnaît des chameaux avec une certaine probabilité (mesurée dans la phase de test).

Il existe aussi de l'apprentissage non supervisé, mais on ne va pas rentrer dans les détails, c'est une news ici.

Rentrons dans le vif du sujet maintenant. Vu que l'ordinateur permet de faire bien plus d'opérations qu'un humain, l'apprentissage permet de faire des tâches extrêmement complexes.

Il se trouve que des américains (souvent eux à l'origine des magouilles) ont mis au point un système juridique utilisant de l'apprentissage. Par système juridique, on entend des décisions de tribunaux, etc... en bref, des choses qui ont un impact assez énorme sur la vie de certaines personnes.
On peut notamment citer COMPAS ou Supra Legem. Il y a potentiellement des avantages et des inconvénients :
  • Ça économiserait beaucoup de temps, surtout dans le droit, où les jeunes avocats passent la majorité de leur temps à éplucher des dossiers passés pour trouver des cas similaires
  • Mais ça poserait de sérieux problèmes éthiques : depuis quand une machine serait qualifiée pour résoudre des problèmes humains ?
  • L'apprentissage peut être biaisé. Forcément, si on utilise des cas passés biaisés pour la phase d'apprentissage (par exemple avec de fortes discriminations), on retrouvera ces biais dans l'algo final. Petit article résumant certaines problématiques https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  • Dans un autre sens, cela permettrait de limiter les erreurs de jugement humains du genre biais cognitifs (même quand on les connaît, on continue à se faire avoir)

En bref, je ne sais pas du tout quoi en penser, sinon qu'il faut faire attention avant de confier tout à des algorithmes (je sais, c'est un peu tard pour dire ça).

Tchüs,

Ryl
« Dernière édition: 20 Septembre 2017 à 13:36:52 par Erylanor » Journalisée
pixis
Administrateur

Profil challenge

Classement : 16/54254

Membre Héroïque
*****
Hors ligne Hors ligne
Messages: 664


Voir le profil WWW
« #1 le: 21 Septembre 2017 à 10:20:51 »

Salut,

Merci pour ces infos. Effectivement, c'est le grand problème d'aujourd'hui, et on le retrouve dans plusieurs domaines. Les interprétations de diagnostiques cardiaques, les choix d'une voiture autonome, etc. Ce sont autant de décisions impactant directement l'humain, et penser/poser les limites est extrêmement important, mais pour l'instant pas ou peu régulé.

Donc c'est un vrai débat qui est ouvert. **orthographe !** sont les risques, les limites, les responsabilités ? Si un algorithme se trompe (ça arrive !), qui est responsable ? Le créateur de l'algo ? Les responsables des phases d’entraînement ? Celui qui a acheté l'algo ?

En fait, tout le monde va vouloir se décharger de la responsabilité, donc je pense qu'un peu naturellement, chacun va ajouter des clauses super restrictives quand un algo sera utilisé avec un impact fort sur l'humain, ce qui automatiquement régulera son utilisation. Je suis peut-être optimiste, mais j'ai confiance.

A suivre !
Journalisée

Newbie Contest Staff :
Pixis
Statut :
Administrateur
Blog :
hackndo
Pages: [1]
  Imprimer  
 
Aller à: