Le 6 mai 2013.
Dans le désert de l’Utah les Etats-Unis construisent un centre d’espionnage gigantesque. On peut y rassembler et évaluer du monde entier des courriers électroniques, des entretiens téléphoniques, des demandes de recherches sur Google, des routes de voyage, des achats de livres, tous les curriculum vitae et des données informatiques personnelles.
Des amis de cercles de services secrets nous ont passé quelques données. Ainsi les serveurs seront placés sur une surface de 8000 mètres carrés. Sur une autre surface de 275 0000 mètres carrés seront placés des mémoires de données. La quantité d’informations qui pourra y être sauvegardée est à peine imaginable.
Car aujourd’hui un teraoctet de données va déjà sur un chip de la taille de l’ongle d’un doigt. Les quantités de données que la National Security Agency (NSA) veut saisir sont énormes : l’ancien patron de Google Eric Schmidt a estimé l’ensemble du savoir humain, qui a été généré jusqu’en 2003, à 5 exaoctet.
Selon l’entreprise internet Cisco, le trafic mondial de données sur internet entre 2010 et 2015 va quadrupler et atteindre un volume de 9766 exaoctet. Pourtant 1 million d’exaoctet correspondent à 1 yottaoctet. Le Pentagone tente de manier dans son réseau de communication mondial avec des yottabytes de données pour pouvoir exploiter en direct (!) des images de satellites ainsi que des données provenant de capteurs et de communications …
De même la NSA va sauvegarder et traiter plusieurs yottaoctets de données. Ainsi elle pourra sauvegarder les données constamment publiées sur Internet pendant plusieurs années. Grâce à ce centre construit pour 2 milliards de dollars, on pourra, à partir d’automne 2013, enfin appliquer l’idée du traitement total de toutes les informations qui avait déjà été planifiée sous le président Georg W. Bush. Un employé de la NSA caractérise la situation en rapprochant le pouce de l’index en disant :
«Nous sommes encore éloigné de ça d’un Etat totalitaire clés en main …»
Les quantités de données sont procurées par le réseau de surveillance mondial de la NSA («aspirateur dans l’espace») et par les capacités de sauvegarde élargies. Pour augmenter la capacité de calcul, la NSA a déjà décidé en 2004 de lancer un nouveau projet, le «High Productivity Computing Systems Program» (HPCS). Le but est de multiplier la performance de calcul par mille.
Les nouveaux ordinateurs appelés Patflop doivent pouvoir faire au moins mille billions, donc 1015, de pas de calcul par seconde(!). Comme déjà lors du Projet Manhattan top secret, dans lequel la bombe atomique avait été développée, on a choisi pour le programme du nouveau super-ordinateur la ville d’Oak Ridge. Là, se trouve le Oak Ridge National Laboratory du ministère de l’Energie.
Le programme du superordinateur consistait en une partie publique, qui publiait ses résultats de recherches, et en une partie secrète où la NSA a développé son propre superordinateur. En 2009, les chercheurs publics ont réussi à développer l’ordinateur le plus rapide du monde nommé XT-5 qui avait à cette époque une performance de calcul de 1,75 petaflop.
Lire la suite :
http://www.mondialisation.ca/centre-despionnage-gigantesque-aux-etats-unis/5334119