Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Présentation

  • : Le blog du C.L.A.P33
  • : Collectif bordelais Contre les Abus Policiers
  • Contact

Recherche

LOIS LIBERTICIDES

Contester une amende
pour manif interdite

Juin 2019 : klik !

******

La censure
sur Internet

Avril 2019 : klik !

******
Etat d'urgence


Le cadre légal : klik


****
Kezaco la loi
"Etat d'urgence"



C'est par là : klik !

*****
Notre Facebook

 

C'est par là :
facebook.com/clap33

*****

Agenda des luttes

 En ligne ici : klik !

Et encore...

 



https://a2-images.myspacecdn.com/images04/2/8050b970040d479da3e063184a2bbb9c/full.jpg

 


 

 

https://a4-images.myspacecdn.com/images04/10/085780129eb0413dbdf3961ab6da8567/full.jpg

 

 

15 septembre 2019 7 15 /09 /septembre /2019 09:25

Le 24 mai 2016

Une enquête du magazine ProPublica montre que des juges américains se reposent sur un « logiciel raciste » pour évaluer le risque de récidive ou de commission de crimes et délits d'un individu, lorsqu'il faut décider de le remettre en liberté.

Les États-Unis ont une passion pour la prison. Le pays a le taux d’incarcération le plus élevé au monde, avec 743 prisonniers pour 100 000 habitants (contre 102 en France), et l’on estime que les prisonniers américains représentent près d’un quart (23 %) de l’ensemble de la population carcérale mondiale !

Selon les statistiques officielles, plus des deux tiers des personnes incarcérées aux États-Unis sont des Afro-Américains, alors qu’ils ne représentent que 13 % de la population.

Mais quand il s’agit de libérer un individu ou de lui faire bénéficier d’une peine alternative, une part importante de la décision est de plus en plus mise entre les mains d’un algorithme secret, qui serait lui-même coupable de racisme.

Le magazine ProPublica a en effet publié une longue enquête sur un logiciel utilisé par l’administration judiciaire dans près d’une dizaine d’États aux États-Unis (Arizona, Colorado, Delaware, Kentucky, Louisiane, Oklahoma, Virginie, Washington et Wisconsin), vendu par la société privée Northpointe, dont le slogan est « Faire avancer la justice. Embrasser la communauté ».

Avec ce logiciel, les juges qui doivent décider d’une remise en liberté peuvent consulter une « note de risque » de 1 à 10, calculée selon les réponses à 137 questions complétées par l’administration pénitentiaire ou par le prisonnier lui-même.

La note permet d’évaluer le risque de commission d’un délit ou d’un crime de toute nature après la libération, ou le risque de récidive.

La tentation est grande pour les juges, qui le feraient de plus en plus, de se reposer largement sur ce logiciel « scientifique » pour décider de l’avenir de l’individu.

Un logiciel raciste par préjugés ?

Or les journalistes ont découvert que ce logiciel, inventé en 1989 par un professeur de statistiques et le gestionnaire d’un programme pénitencier, n’avait jamais fait l’objet d’une évaluation sérieuse de son efficacité, et surtout de son éventuel effet discriminatoire.

Pourtant, en examinant les notes de risques attribuées à plus de 7 000 individus dans un conté de Floride en 2013 et 2014, ProPublica a remarqué que le logiciel était tout sauf fiable, et tout sauf impartial :

  • 20 % des personnes notées comme « à risque » de commettre des crimes violents en ont effectivement commis un dans les années suivantes ;
  • Quand l’individu est noir, le logiciel a deux fois plus tendance à juger à tort que la personne est à risque ;
  • Quand l’individu est blanc, le logiciel a davantage tendance à juger à tort que la personne n’est pas à risque.

L’enquête de ProPublica ne va pas jusqu’à accuser NorthPointe de racisme volontaire, d’autant que la « race » (selon la terminologie américaine) ou la couleur de peau ne fait pas partie des 137 questions sur lesquelles l’algorithme se base.

Mais ce dernier est un secret industriel bien gardé, et les journalistes se demandent si certains facteurs de risque n’ont pas un poids excessif dans l’algorithme, alors qu’ils sont sociologiquement plus fréquents chez les Noirs pour des raisons historiques de ségrégation sociale (pauvreté, absence de diplôme, cercle d’amis qui incluent des vendeurs ou consommateurs de drogues, etc.).

Le logiciel serait donc indirectement raciste, et pourrait conforter les juges dans leur propre racisme, voire les conduire à un racisme inconscient qui n’était pas le leur.

Il est en effet possible que certains juges ne remettent pas en cause leurs préjugés erronés sur le risque de récidive ou de crime plus élevés chez les Noirs, en voyant une confirmation de leur racisme par un logiciel « scientifique » qui est pourtant lui-même biaisé.

Source :
https://www.numerama.com/politique/172272-aux-usa-logiciel-aide-juges-a-devenir-racistes.html

Partager cet article

Repost0

commentaires

Documentation

ACTIONS C.L.A.P33 & Co...

Guides juridiques - C.L.A.P33
Porter plainte contre la police
Garde A Vue, manifs - Conseils

*****

******
Soutien à m.
Nous n'oublierons pas
le 19 Mars 2009 à Bordeaux !

Infos : klik !

******
Violences Policières

France - Quatre rapports
ACAT : klik !

Amnesty International : klik !
Paris Luttes Infos : klik !
Bastamag :  klik !

 

*****
L'impact disproportionné
de l'état d'urgence

Un rapport d'Amnesty  : klik !

****
Retrouvez toutes nos vidéos

klik là !

****
Hommage aux victimes

21 Mars 2015

 
15 mars 2014
 

19 mars 2011
 

****

" Vétérante "

O.P.A