Overblog Suivre ce blog
Editer l'article Administration Créer mon blog

Présentation

  • : Le blog du C.L.A.P33
  • Le blog du C.L.A.P33
  • : Collectif bordelais Contre les Abus Policiers
  • Contact

Recherche

ETAT D'URGENCE

Le cadre légal : klik

****
Kezaco la loi
"Etat d'urgence"


C'est par là : klik !

****
Agenda des luttes

 
http://demainlegrandsoir.org/IMG/arton913.png

  En ligne ici : klik !

*****

Non à la loi renseignement

Infos : klik !

****
Retrouvez toutes

les brochures du C.L.A.P33

***
"Résistons Ensemble"


http://resistons.lautre.net/

***

Et encore...

Notre flux Rss




https://a2-images.myspacecdn.com/images04/2/8050b970040d479da3e063184a2bbb9c/full.jpg

http://blog.cgtbayard.org/public/solidar.jpg


 

22 septembre 2016 4 22 /09 /septembre /2016 10:09

Le 118 juillet 2016

Technologie : Parties intégrantes du big data, les bad data sont de faux amis qui se cachent dans les vastes gisements de données et qu’il faut absolument éviter. Il s’agit de données incomplètes, fausses ou inexploitables, qu’il convient de repérer avant qu'elles ne nuisent aux prises de décisions.

« La bonne information, à la bonne personne, au bon moment, pour prendre les bonnes décisions ». Cette célèbre phrase du professeur d’université américain Michael Porter sur les enjeux de l’intelligence économique est plus que jamais d’actualité aujourd’hui. Car si tout le monde parle des promesses que nous réservent les gisements de données internes ou externes, structurées ou non, de plus en plus de voix s’élèvent pour nous mettre en garde contre les risques liés aux bad data, ces données fausses, incomplètes ou susceptibles d’être mal interprétées.

Le danger ? Prendre pour argent comptant ces mauvaises données qui se cachent dans les big data, et en tirer des conclusions erronées qui risquent de mener l’entreprise dans la mauvaise direction.

Nombreux sont les articles qui rappellent qu’au cours d’une analyse, une petite erreur d’interprétation sur un mot au départ peut générer une grande différence de résultat à l’arrivée.
Lire ici :
http://www.techpageone.fr/business-fr/big-data-peut-tromper/

On ne compte plus les incidents boursiers engendrés par une interprétation hâtive ou erronée de certains chiffres ou les problèmes posés par des bases de contacts incomplètes ou obsolètes.

“Toute donnée est potentiellement mauvaise si elle est regardée sous le mauvais prisme.”

Des analyses plus poussées

« Du big data au bad data, le pas est vite franchi et le paradoxe évident : si la granularité des données est aujourd’hui beaucoup plus forte, la fiabilité finale des chiffres ne s’est pas forcément accrue », écrit par exemple Didier Le Menestrel, président de La Financière de l’Echiquier, société française spécialisée dans la gestion de fonds, dans un billet de blog.

Il invite les investisseurs à privilégier « les fourchettes », plutôt que les « chiffres exacts », et à relativiser les indicateurs toujours plus nombreux en les comparant à d’autres statistiques « moins prisées mais parfois plus pertinentes ».
Lire ici :
https://www.lfde.com/2016/04/04/bad-data/

D’un point de vue technologique, les solutions sont multiples : elles passent principalement par de nouveaux outils d’analyse des données, l’intégration des données stockées jusqu’alors dans des silos distincts, l’optimisation du stockage de ces données et la mise en place d’infrastructures évolutives, qui vous garantiront un accès à la demande à toute la puissance de calcul utile pour traiter en temps réel de très larges corpus de données.

Ces changements aideront à conduire des recherches ad hoc et à identifier plus facilement les « bonnes » questions.

Bad un jour, bad toujours ?

Face à la croissance exponentielle des data, l’éradication pure et simple des bad data semble illusoire. D’une part, toute donnée peut être mauvaise si elle est regardée sous le mauvais prisme. Et d’autre part, une bad data est parfois aussi une « B.A.D. Data » (« Best Avalailable Data »), qui s’ignore.

Autrement dit, cette dernière a peut-être simplement besoin d’être enrichie et vérifiée par un « data scientist » pour devenir « la meilleure info à disposition ». Pour le cabinet français Jems Research, « la solution consiste à fiabiliser ces mauvaises données en supprimant les doublons, en redressant celles qui sont mal formées ou incomplètes pour les amener au même niveau de qualité que les autres ».

Même une bad data peut avoir bon fond.

Source :
http://www.zdnet.fr/actualites/bad-data-le-faux-ami-dissimule-dans-vos-donnees-39839454.htm

Partager cet article

Repost 0

commentaires

Documentation

ACTIONS C.L.A.P33 & Co...

****
Bordeaux - 18 mars 2017

Journée contre

les violences policières

Notre appel : klik !

*****
Violences Policières

France - Trois rapports
ACAT : klik !

Amnesty International : klik !
Paris Luttes Infos : klik !

 

*****
L'impact disproportionné
de l'état d'urgence

Un rapport d'Amnesty  : klik !

****
Hommage aux victimes

21 Mars 2015

 
15 mars 2014
 

19 mars 2011
 

****

" Vétérante "

O.P.A

******
Soutien à m.
Nous n'oublierons pas
 le 19 Mars 2009 à Bordeaux !
 
Infos :  klik !
 

 

L'oeil de Pancho

D'autres dessins de Pancho : klik

Retour à la page d'accueil