NSA hat Speicherbedarf im Yottabyte-Bereich
Zwar ist die NSA sehr verschwiegen, wenn es darum geht, wie ihr Abhörprogramm Prism und andere Programme funktionieren, doch eine Vielzahl an Funktionen und Abläufen ist inzwischen durchgesickert und gibt einen Einblick in die unvorstellbaren Ausmaße der Bespitzelung durch die US-Regierung und ihre Behörden.
Im Zusammenhang mit den Enthüllungen von Edward Snowden über das amerikanische Abhörprogramm Prism werden vor allem die rechtlichen Aspekte diskutiert. Doch parallel dazu ist auch die technische Realisierung dieser immensen Abhöranlage von Interesse. Obwohl die NSA selbst nur wenige Informationen herausrückt, lässt sich mit umfangreicher Internetrecherche ein Mosaik konstruieren, bei dem die wesentlichen Funktionsmerkmale ersichtlich werden.
Prism ist zunächst einmal nur ein umfangreiches grafisches User-Interface (GUI), mit dem die Analysten der NSA komplexe Abfragen und Korrelationen ausführen können. Diese laufen auf eigenen Servern ab, das heißt, die Abfragen können nur auf solche Daten angewendet werden, die zuvor in den Servern abgelegt wurden. Allgemein gesprochen, funktionieren Prism und die anderen NSA-Programme ähnlich wie das, was man von Google, Amazon und Ebay gewohnt ist: Die Nutzerdaten werden ausgewertet und einer ausgiebigen Analyse unterzogen, um dem potenziellen Kunden dann spezielle Werbeeinblendungen, Büchertipps oder andere Kaufempfehlungen zu präsentieren. Bei der NSA sind diese „Tipps“ dann natürlich Verknüpfungen zu anderen Personen, Orten, Gegenständen, Aktionen oder Objekten.
Keine „direkte“ Hintertür zu den Servern der beteiligten Unternehmen
Da das alles nur mit den eigenen Daten möglich ist, können Anfragen auch ins Leere gehen. In so einem Fall generiert das System automatisch eine Datenanforderung an alle am Prism-Programm beteiligten Unternehmen wie Google oder Amazon. Das heißt aber auch: Entgegen ersten Berichten gibt es keine direkte „Hintertür“ zu den Servern der beteiligten Unternehmen.
Diese Datenanforderungen werden automatisch generiert und berufen sich rechtlich auf sehr vage formulierte weitreichende Allgemein-
anforderungen durch den Generalstaatsanwalt. Die Anforderungsflut ist hoch. Jeweils 200 solcher Anforderungen gehen pro Woche bei jedem der große Provider ein. Diese beziehen sich jeweils auf rund 400 bis 1000 Nutzerkonten.
Bei derart immensen Datenanforderungen haben mehrere Datenprovider das Verfahren vereinfacht und eine elektronische Zwischenablage geschaffen, in der die NSA ihre Datenwünsche ablegt und wo sie dann später die entsprechenden Daten abholen kann. Einem Bericht der New York Times zufolge soll u. a. Facebook einen solchen Datenaustausch ermöglichen. Anders ist es dagegen bei Google. Laut deren Sprecher Chris Gaither stellt Google seine Daten per sicherem FTP-Transfer der NSA zur Verfügung.
NSA speichert alle Daten in einem riesigen Rechenzentrum
Alle Daten werden bei der NSA in einem riesigen Rechenzentrum gespeichert, das im Laufe der Zeit zu klein geworden ist. Deshalb werden ab Herbst 2013 alle Daten in einem neuen Rechenzentrum in Bluffdale im US-Staat Utah gesammelt und aufbereitet. Das 1,7 Mrd. $ teure Zentrum soll als interne Cloud sowohl die eigenen Analysten am Hauptsitz in Maryland, als auch die anderen Agenturen wie FBI und CIA bedienen.
James Bamford, Autor vieler Bücher über die NSA, meint, dass das neue Rechenzentrum einen Anschlusswert von 65 MW haben wird und es 1 Yottabyte (1 YByte: 1024 Byte) an Daten aufnehmen kann. Zum Vergleich: Würde man 1 YByte auf 64-GByte-micro-SD-Karten speichern wollen, würde das Volumen etwa dem der Großen Pyramide von Gizeh entsprechen.
Ein echtes Big-Data-Problem also, das mit eigens entwickelten Werkzeugen angegangen wird. Hauptkomponente ist die Open-Source-Software Accumulo, deren Entwicklung 2008 bei der Nasa begann und die 2011 der Open-Source-Gemeinde überstellt wurde. Accumulo hat eine sogenannte „schemalose Datenbankstruktur“ und kann Daten in unterschiedlichen Formaten aufnehmen. Mit weiteren Echtzeitanalysefunktionen ausgestattet, kann Accumulo dann Berichte über bestimmte Korrelationsmuster in nahezu Echtzeit generieren.
NSA kann inzwischen alle handelsüblichen Kodierungen knacken
Eines der Probleme dieser Art des Internetabhörens ist z. B. bei Onlinebankgeschäften die häufig verwendete SSL-Kodierung, die praktisch nicht geknackt werden kann, ohne dass es auffällt. Doch hierzu hat sich die NSA eine ganz raffinierte Methode einfallen lassen.
Es begann im Jahr 2007, als Microsoft anfing, der NSA den direkten Zugang zu seinen Cloud-Servern zu gewähren. Damit entfiel die SSL-Dekodierung, denn man hatte ab sofort den direkten Zugang zu den unverschlüsselten Daten auf den Cloud-Servern der Provider.
Wer andere kommerzielle Verschlüsselungen wie TOR nutzt, macht sich natürlich sofort hochverdächtig und es nützt (fast) nichts, denn die NSA kann inzwischen nahezu alle handelsüblichen Kodierungen knacken. Außerdem heben verschlüsselte Information die Löschvorgabe auf, die normalerweise auf fünf Jahre beschränkt ist. „Kodierte E-Mails dürfen so lange aufbewahrt werden, bis sie dekodiert werden können“, heißt es in den Vorgaben des Fisa-Court (Fisa: Foreign Intelligence Surveillance Act, zu Deutsch: Gesetz zum Abhören in der Auslandsaufklärung).
Doch kein System ist perfekt. Zwar betont die NSA immer wieder, dass ihre Bespitzelungen keine US-Bürger betreffen. Doch eine FBI-Auswertung der verschlüsselten Kommunikation des früheren CIA-Chefs David Patraeus enthüllte seine Sexaffäre mit seiner Biografin Paula Broadwell und lieferte den Beweis, dass auch hochrangige US-Bürger auf dem Radarschirm der NSA zu finden sind.
Ein Beitrag von: