24111 Kiel, Rendsburger Landstraße 436
+49 431 12807082
kanzlei@grafkerssenbrock.com

Auch Baden-Württemberg will Palantir einsetzen

Arbeitsrecht – Erbrecht - Kommunalrecht

Auch Baden-Württemberg will Palantir einsetzen

Symbole

Dazu auch: Palantir Gotham: Ursprung, Einsatz und rechtliche Debatten

Nach Hessen, Nordrhein-Westfalen und Bayern plant Baden-Württemberg den Einsatz von Palantir-Software („Gotham“) im Polizeibereich. Ziel ist die bessere Vernetzung und Analyse sicherheitsrelevanter Daten zur Gefahrenabwehr und Strafverfolgung.

Doch die Entscheidung wirft erhebliche verfassungs- und datenschutzrechtliche Fragen auf:

Wie wird sichergestellt, dass Grundrechte wie das Recht auf informationelle Selbstbestimmung (BVerfG 1 BvR 209/83) gewahrt bleiben?

Wie wird verhindert, dass Daten aus unterschiedlichen Quellen – etwa Verkehr, Migration, Gesundheit – zweckwidrig zusammengeführt werden (Art. 5 DSGVO)?

Wer kontrolliert, wie Palantir die Daten analysiert – und ob daraus automatisierte Entscheidungen mit belastender Wirkung entstehen (Art. 22 DSGVO)?

Wenn man beginnt, den Menschen primär als „Datenpunkt“ zu betrachten, verliert man dann den Blick auf seine Würde als Rechtssubjekt?


Die Preisgabe personenbezogener Daten erhält im Zusammenhang mit dem Einsatz von Palantir-Software eine grundlegend neue Qualität, da hier die Möglichkeit zur vernetzten Auswertung, Verhaltensprognose und staatlich-wirtschaftlichen Steuerung im Raum steht. Palantir ist nicht bloß ein Datenverarbeitungstool, sondern ein System zur intelligenten Integration, Analyse und operationalen Auswertung heterogener Massendaten.


I. Palantir – Funktion und Reichweite

Palantir bietet Softwarelösungen (u.a. Gotham, Foundry, Apollo), die entwickelt wurden, um:

  • massive, disparate Datenquellen zu verknüpfen (z. B. Migrationsdaten, Gesundheitsdaten, Verkehrsdaten, Social-Media-Daten),

  • in Echtzeit Muster, Netzwerke, Anomalien und Prognosen zu erkennen,

  • und daraus operative Entscheidungen für Sicherheitsbehörden, Regierungen und Unternehmen vorzubereiten.

Kunden sind u.a.:

  • US-Geheimdienste (NSA, CIA),

  • Bundeswehr und Bundeskriminalamt,

  • europäische Nachrichtendienste,

  • private Großunternehmen (Banken, Pharma, Automotive).


II. Datenpreisgabe und ihre rechtlichen Implikationen im Palantir-Kontext

1. Verlust der Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO)

Die ursprüngliche Datenerhebung erfolgt oft für eng umgrenzte Zwecke (z. B. Steuererklärung, Kundenbindung, Gesundheitsversorgung). Durch Systeme wie Palantir wird diese Zweckbindung durch Queranalysen aufgehoben, da Daten aus völlig unterschiedlichen Lebensbereichen zu personenbezogenen Profilen verknüpft werden können.

Beispiel: Gesundheitsdaten, Verkehrsdaten und Kommunikationsmuster werden zu einer polizeilichen Risikobewertung zusammengeführt („predictive policing“).


2. Gefahr der Totalerfassung und Profilbildung

Palantir macht aus fragmentarischen Spuren kohärente Verhaltensmodelle. Die Kombination aus öffentlicher und privater Datenpreisgabe (siehe vorheriger Beitrag) ermöglicht:

  • Scoring-Systeme zur Bewertung von Risikopotentialen,

  • soziometrische Netzwerkanalysen,

  • Vorhersagen zukünftigen Verhaltens (präventive Eingriffslogik).

Diese Form der verhaltensbezogenen Steuerung verletzt u.U. Art. 22 DSGVO (Verbot rein automatisierter Entscheidungen mit rechtlicher Wirkung) und berührt die Menschenwürdegarantie (Art. 1 Abs. 1 GG).


3. Rechtsstaatliche Fragwürdigkeit bei staatlichem Einsatz

Beim Einsatz durch Polizei, Verfassungsschutz oder Zoll (z. B. Projekt „Gotham“ in Hessen und NRW) ergeben sich verfassungsrechtlich problematische Konstellationen:

  • Keine richterliche Kontrolle über Datenverknüpfungen,

  • Unklare Rechtsgrundlagen für die automatische Risikoeinstufung (Verstoß gegen Bestimmtheitsgebot, Art. 20 Abs. 3 GG),

  • Missachtung der Trennung von Nachrichtendienst und Polizei (Verstoß gegen Art. 10 GG i.V.m. BVerfG-Urteile zur automatisierten Analyse).


III. Wirtschaftlicher Kontext: Datenpreisgabe als Rohstoff für strategische Steuerung

Palantir-Software wird auch in der Wirtschaft eingesetzt:

  • zur Optimierung von Lieferketten,

  • zur Mitarbeiterüberwachung,

  • zur Finanzrisikoanalyse,

  • zur Verhaltensprognose von Kunden (Consumer Intelligence).

Je mehr Menschen ihre Daten unkontrolliert preisgeben, desto wertvoller wird das zugrundeliegende Modell für diese Unternehmen – und desto weniger kontrollierbar wird die Nutzung im Sinne des Betroffenen.


IV. Vom Datenbesitzer zum Datenobjekt

Der Mensch wird im Palantir-System nicht mehr als Souverän seiner Informationen, sondern als Risiko, Ressource oder Ziel betrachtet – modelliert anhand seiner Daten.

Die Kombination aus freiwilliger Datenpreisgabe, staatlichem Zugriff und kommerzialisierter Auswertung führt zu einer Erosion der Grundrechte, insbesondere:

  • des Rechts auf informationelle Selbstbestimmung (BVerfG 1983),

  • der Zweckbindung und Transparenzpflicht (Art. 5 DSGVO),

  • und des Prinzips der Verhältnismäßigkeit staatlichen Handelns.

 


Werden wir täglich zur „Daten-Kuh“  ohne es zu merken?

Die Metapher des Menschen als „Daten-Kuh“, geprägt von Yuval Noah Harari, ist kein Science-Fiction-Szenario, sondern Teil des digitalen Alltags. Tag für Tag geben wir bereitwillig und oft unbewusst unsere Daten preis:

1. Das Smartphone – unsere persönliche Wanze

Bereits beim Einschalten beginnt die Datenweitergabe:

  • Standortdaten,

  • App-Nutzungsverhalten,

  • Bewegungsprofile,

  • Gesundheitsdaten via Wearables.

Beispiel: Google Maps erfasst jede Route. Gesundheits-Apps protokollieren Schlafverhalten, Schritte und Pulsfrequenz.


2. Soziale Netzwerke – freiwillige Preisgabe der Persönlichkeit

Facebook, Instagram, TikTok oder X (ehemals Twitter) leben davon, dass Nutzer:

  • ihre Vorlieben,

  • Beziehungsnetze,

  • politische Haltungen,

  • Urlaubsorte und Gesichter

öffentlich teilen – häufig im Austausch gegen Aufmerksamkeit oder Bestätigung.

Folge: Erstellung umfassender Persönlichkeitsprofile, nutzbar für gezielte Werbung, Wahleinflussnahme (Cambridge Analytica!) oder algorithmische Manipulation.


3. Suchmaschinen – Spiegel unserer intimsten Gedanken

Suchbegriffe offenbaren:

  • Interessen,

  • Ängste,

  • Krankheiten,

  • sexuelle Orientierung,

  • finanzielle Sorgen.

Google speichert standardmäßig jeden Suchverlauf, sofern nicht aktiv deaktiviert – ein digitales Tagebuch unserer Gedankenwelt.


4. Online-Shopping – gläserner Konsument

Beim Einkauf bei Amazon, Zalando oder auch im Supermarkt mit Kundenkarte offenbaren wir:

  • Kaufkraft,

  • Markenpräferenzen,

  • Lebensgewohnheiten,

  • Ernährungsstil.

Beispiel: Aus dem Kauf von laktosefreier Milch, Magnesium und Schwangerschaftstests lassen sich Rückschlüsse auf Gesundheitszustand oder Lebenslage ziehen.


5. Smart Home und IoT – Datenströme aus dem Wohnzimmer

Sprachassistenten (Alexa, Siri), smarte Kühlschränke, Thermostate oder Sicherheitskameras senden kontinuierlich Daten:

  • Gesprächsfetzen,

  • Tagesrhythmus,

  • Anwesenheitszeiten.

Diese Daten ermöglichen hochpräzise Verhaltensanalysen – oft ohne bewusstes Einverständnis im juristischen Sinne.


6. Banken & FinTech – wirtschaftliches Profiling

Schon die Nutzung von Girokonto, Kreditkarte oder mobilen Bezahl-Apps gibt Einblicke in:

  • Konsumverhalten,

  • finanzielle Verlässlichkeit,

  • Investitionsrisiken.

Beispiel: Scoring-Modelle von SCHUFA, Klarna oder Neobanken arbeiten mit sekundären Datenquellen wie Mobilfunkrechnungen oder Klickverhalten.


7. Staat und Verwaltung – stille Mitleser?

Auch der Staat erhebt, speichert und nutzt:

  • Steuerdaten (über ELSTER),

  • Gesundheitsdaten (ePA),

  • Bewegungsdaten (z. B. bei Maut oder Pandemiebekämpfung).

Je mehr Systeme digital vernetzt sind, desto höher die Gefahr der Zweckentfremdung staatlich gesammelter Daten – Stichwort: Vorratsdatenspeicherung.


8. Arbeitgeber – Überwachung im Betrieb

Leistungsüberwachung durch:

  • Zeiterfassung,

  • Mausbewegungen,

  • Tastaturanschläge,

  • interne Messenger.

Juristisch besonders sensibel: § 26 BDSG (Datenverarbeitung im Beschäftigungsverhältnis) erlaubt dies nur unter engen Voraussetzungen – wird aber oft faktisch umgangen.

 


Der Verlust der informationellen Selbstbestimmung

Der Einzelne verliert zunehmend die faktische Kontrolle über die Preisgabe und Verwendung seiner personenbezogenen Daten – häufig in Unkenntnis oder mangels realer Entscheidungsfreiheit. Die in Art. 8 Abs. 1 EU-GRCharta sowie Art. 1 Abs. 1 i.V.m. Art. 2 Abs. 1 GG geschützte informationelle Selbstbestimmung wird durch systematische Datenerhebung, -verarbeitung und -verwertung ausgehöhlt.

Genau an dieser Stelle setzt aber Palantir an, ein System zur intelligenten Integration, Analyse und operationalen Auswertung heterogener Massendaten.

Palantir Gotham: Ursprung, Einsatz und rechtliche Debatten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Translate »