
US-KI-Gesetze im Vergleich: Was steckt hinter den AI Acts?
Leon Kaiser
Wed Mar 26 2025

Inhaltsverzeichnis
- Bidens Datenschutz-Ansatz: Vertrauen braucht Regeln
- Trumps Kurs: Datenschutz als Innovationsbremse?
- Vergleich: Zwei Welten im Umgang mit Daten
- Was bedeuten die unterschiedlichen Vorgaben für Unternehmen, die KI Lösungen in die USA verkaufen wollen?
- Was bedeutet das für mich als Endverbraucher:in?
- Fazit : Datenschutz ist kein Detail, sondern Richtungsentscheidung
Wenn über Künstliche Intelligenz gesprochen wird, dann meist in Superlativen: KI wird als Gamechanger für Wirtschaft, Wissenschaft und Gesellschaft gefeiert – oder als potenzielle Bedrohung für Demokratie, Arbeitsplätze und Wahrheit gefürchtet. Zwischen diesen Polen kreisen die Debatten vor allem um Innovationsfähigkeit und Effizenzsteigerung. Was dabei auffallend oft fehlt eine ernsthafte Auseinandersetzung mit dem Thema Datenschutz.
Dabei zeigt sich gerade hier, wie ernst es eine Gesellschaft mit digitaler Selbstbestimmung wirklich meint. Wer darf auf welche Daten zugreifen? Unter welchen Bedingungen? Und mit welchem Mass an Kontrolle? Datenschutz ist keine technische Randnotiz – sondern eine politische Grundsatzfrage.
In diesem Beitrag vergleiche ich zwei politische Gegenpole, die nicht nur die Richtung der US-KI-Strategie prägen, sondern auch internationale Massstäbe setzen könnten: Die AI Executive Order von Präsident Joe Biden – und die konsequente Abkehr davon durch Donald Trump, der mit einer eigenen Executive Order und milliardenschweren Industrieinitiativen einen völlig anderen Weg einschlägt.
Im Zentrum steht eine einfache, aber folgenreiche Frage: Soll der Schutz personenbezogener Daten staatlich geregelt – oder dem Markt überlassen werden?
Bidens Datenschutz-Ansatz: Vertrauen braucht Regeln
Am 30. Oktober 2023 unterzeichnete Präsident Joe Biden die Executive Order mit dem Titel "Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence". Sie markiert den bislang ambitioniertesten Versuch der US-Regierung, Künstliche Intelligenz auf Bundesebene zu regulieren – mit einem bemerkenswert klaren Fokus auf Datenschutz. Die Order erkennt an: Vertrauen in KI entsteht nur, wenn persönliche Daten geschützt werden. Datenschutz wird damit zur strategischen Führungsaufgabe – und nicht länger dem freien Markt überlassen.
Kernpunkte:
Privatsphäre als politisches Prinzip: Der Staat verpflichtet sich, bei der Erhebung und Nutzung von Daten Sicherheit, Rechtmässigkeit und Verhältnismässigkeit zu wahren (Sec. 2(f)).
Technische Schutzmechanismen: So genannte Privacy-Enhancing Technologies wie differenzielle Privatsphäre oder föderiertes Lernen sollen gefördert und im Staatsapparat eingesetzt werden (Sec. 9(c)(ii)).
Standards für sichere KI: Das Standardisierungsinstitut NIST entwickelt technische Leitlinien für vertrauenswürdige, risikobewusste KI – insbesondere für generative Modelle. Datenschutz ist hier zwar nicht explizit genannt, aber als Teil der Vertrauenswürdigkeit mitgedacht (Sec. 4.1(a)(i)).
Pflichten für Bundesbehörden: Behörden müssen den Einsatz von KI prüfen, Risiken bewerten und ihre Datenschutzrichtlinien überarbeiten (Sec. 9(a)(iii), Sec. 10.1(b)(iv)).
Doch dieser Kurs wurde Anfang 2025 abrupt unterbrochen – durch einen politischen Wechsel, der nicht nur regulatorisch, sondern auch ideologisch eine Kehrtwende bedeutete.
Trumps Kurs: Datenschutz als Innovationsbremse?
Nach dem Amtsantritt von Präsident Donald Trump im Januar 2025 vollzog die US-Regierung einen markanten Kurswechsel in der Politik zur Künstlichen Intelligenz (KI). Dieser Wandel betont die Förderung von Innovation und wirtschaftlicher Wettbewerbsfähigkeit – während Datenschutz und ethische Bedenken deutlich in den Hintergrund treten.
Ein zentrales Zeichen dafür ist die Aufhebung von Executive Order 14110, die Joe Biden im Oktober 2023 unterzeichnet hatte. Diese hatte verbindliche Sicherheitsstandards, Transparenzanforderungen und Meldepflichten für KI-Entwickler eingeführt – etwa die Offenlegung sicherheitsrelevante Testergebnisse gegenüber Bundesbehörden. Mit Trumps Entscheidung entfielen diese Verpflichtungen. Während Unternehmen dadurch neue Freiräume erhielten, warnen Datenschutz- und Ethikexperten vor wachsender Intransparenz und einer Erosion demokratischer Schutzmechanismen
Nur wenige Tage später unterzeichnete Trump eine eigene Verordnung: die Executive Order 14179– „Removing Barriers to American Leadership in Artificial Intelligence“. Ihr Ziel: Den Weg freimachen für uneingeschränkte Innovation im KI-Bereich. Die Order hebt ausdrücklich bestehende Regulierungen auf und verpflichtet Bundesbehörden stattdessen, innerhalb von 180 Tagen einen „Artificial Intelligence Action Plan“ zu erarbeiten – mit Fokus auf Wettbewerbsfähigkeit, Wachstum und strategische Dominanz.
Innovation statt Regulierung?
Parallel dazu wurde das „Stargate“-Projekt angekündigt – ein milliardenschweres ein gross angelegtes Industrievorhaben, mit dem Tech-Giganten wie OpenAI, Oracle und SoftBank den Ausbau der US-KI-Infrastruktur vorantreiben sollen. Ziel: Der Aufbau einer massiven KI-Infrastruktur mit Investitionen von bis zu 500 Milliarden US-Dollar. Trump spricht davon, „zehntausende neue Jobs“ zu schaffen und die USA wieder an die Spitze der KI-Welt zu führen.
Doch Kritiker sehen in dieser Kombination aus Deregulierung und Industrieoffensive ein riskantes Spiel: Was fehlt, sind verbindliche Schutzmechanismen für Daten, Transparenzpflichten und ethische Leitlinien. Die Gefahr besteht, dass KI-Systeme mit weitreichenden gesellschaftlichen Auswirkungen unkontrolliert entwickelt und eingesetzt werden – ohne unabhängige Prüfverfahren oder Rechenschaftspflicht. Die KI-Forscherin und Ethikexpertin Timnit Gebru bringt das Problem auf den Punkt:
„We’re seeing a kind of Wild West situation with AI and regulation right now. The scale at which businesses are adopting AI technologies isn’t matched by clear guidelines to regulate algorithms and help researchers avoid the pitfalls of bias in datasets.“
Vergleich: Zwei Welten im Umgang mit Daten
Die Executive Orders von Joe Biden und Donald Trump stehen für zwei gegensätzliche Ansätze in der Regulierung von Künstlicher Intelligenz – insbesondere beim Thema Datenschutz. Während Biden auf staatliche Schutzmechanismen und Transparenz setzt, verfolgt Trump das Ziel maximaler Innovationsfreiheit. Die folgende Übersicht zeigt, wie unterschiedlich die beiden Regierungen mit sensiblen Daten und regulatorischer Verantwortung umgehen.
Kategorie | Biden: EO 14110 (Okt. 2023) | Trump: EO 14179 (Jan. 2025) |
---|---|---|
Zielsetzung | Vertrauenswürdige, sichere, transparente KI | Globale Technologieführerschaft durch Deregulierung |
Datenschutzverständnis | Grundrecht, staatlich zu schützen | Innovationshemmnis, Markt soll regeln |
Privacy-Enhancing Technologies (PETs) | Aktive Förderung und Integration in Behörden (z. B. differenzielle Privatsphäre) | Keine Erwähnung oder gezielte Förderung |
Transparenzpflichten | Meldepflichten, Sicherheitsnachweise, Privacy Impact Assessments | Aufgehoben |
Technische Standards | Entwicklung durch NIST mit Fokus auf vertrauenswürdige Systeme | Keine neuen Standards vorgesehen |
Rolle des Staates | Aktiver Regulierer, gestaltet Spielregeln | Zurückhaltender Förderer, Markt im Zentrum |
Kritische Systeme | Prüfung auf Diskriminierung, algorithmische Fairness | Keine verpflichtenden Prüfverfahren |
Verbindlichkeit | Executive Order mit konkreten Aufträgen an Behörden | Executive Order zur Abschaffung von Regeln, Start eines KI-Aktionsplans |
Signalwirkung | Anschlussfähig an EU-Kurs, stärkt internationales Vertrauen | Abgrenzung von EU-Modellen, industriegetrieben |
Langfristige Risiken | Umsetzung abhängig vom politischen Willen nachfolgender Regierungen | Vertrauensverlust, regulatorische Lücken, ethische Schwachstellen |
Was bedeuten die unterschiedlichen Vorgaben für Unternehmen, die KI Lösungen in die USA verkaufen wollen?
Für internationale Unternehmen, die KI-Lösungen in den US-Markt bringen wollen, ist die Datenschutzpolitik nicht nur ein rechtlicher Rahmen – sie ist ein Geschäftsrisiko oder ein Wettbewerbsvorteil, je nach Ausrichtung.
Unter Bidens Executive Order 14110 mussten sich Unternehmen auf klare Erwartungen einstellen: transparente Prozesse, technische Standards und eine zunehmende Verantwortung im Umgang mit personenbezogenen Daten. Zwar waren viele Anforderungen zunächst nur für Bundesbehörden verpflichtend – doch sie entfalteten bereits eine Signalfunktion für die Privatwirtschaft. Wer mit staatlichen Stellen arbeiten oder in sensiblen Bereichen (z. B. Gesundheit, Justiz, Bildung) KI-Lösungen anbieten wollte, musste mit Auditpflichten, Datenschutzprüfungen und Rechenschaftsmechanismen rechnen.
Für europäische Anbieter bedeutete das: Kompatibilität mit dem EU AI Act war kein Nachteil, sondern eher eine Eintrittskarte. Datenschutzfreundliche Architekturen – etwa mit Privacy-by-Design, föderiertem Lernen oder differential privacy – passten gut zur regulierten Logik.
Mit Trumps Executive Order 14179 hat sich dieses Bild grundlegend gewandelt. Es gibt derzeit keine verbindlichen Datenschutzvorgaben auf Bundesebene für Unternehmen, die KI-Systeme in den USA verkaufen – und auch keine Pläne, solche wieder einzuführen. Die Verantwortung für ethische Standards liegt nun vollständig bei den Anbietern selbst. Für viele mag das attraktiv klingen: Weniger Bürokratie, schnellerer Marktzugang, kein regulatorischer Flaschenhals.
Doch diese Freiheit ist trügerisch. Unternehmen, die ihre Modelle in sicherheitskritischen Bereichen einsetzen wollen oder auf öffentliche Kunden zielen, bewegen sich nun in einem rechtsunsicheren Raum. Fehlende Standards bedeuten auch: Wer heute liefert, kann morgen für unerwartete Schäden oder Diskriminierungen haftbar gemacht werden – spätestens, wenn die politische Lage kippt oder ein Skandal eintritt.
Hinzu kommt: Internationale Kunden – insbesondere aus Europa – schauen genau hin. Wer in einem unregulierten Umfeld trainiert oder Daten verarbeitet, könnte künftig mit Misstrauen oder gar Ausschluss aus transatlantischen Lieferketten rechnen.
Kurzum:
Unter Biden: Klare Regeln, höherer Aufwand, aber planbare Bedingungen – besonders für qualitätsorientierte Anbieter.
Unter Trump: Freier Markt, schnelle Skalierung möglich – aber auf eigene Verantwortung und mit potenziellem Reputationsrisiko.
Wer in die USA expandieren will, sollte sich daher nicht nur mit Modellen und Metriken befassen, sondern auch mit der Frage nach Vertrauen und Governance – denn das entscheidet am Ende, welche KI-Lösungen nicht nur technisch, sondern auch politisch tragfähig sind.
Was bedeutet das für mich als Endverbraucher:in?
Die politischen Rahmenbedingungen für KI sind kein abstraktes Regierungsthema – sie betreffen auch jeden von uns, der digitale Dienste nutzt, mit KI-Systemen interagiert oder persönliche Daten online hinterlässt. Denn die Frage, ob und wie KI reguliert wird, entscheidet mit darüber, wie viel Kontrolle wir, die Nutzer behalten – und wie viel Macht wir abgeben.
Unter Bidens KI-Strategie stand der Schutz der Privatsphäre explizit im Fokus. Die Executive Order 14110 verpflichtete Behörden dazu, besonders sorgfältig mit Daten umzugehen und Risiken wie algorithmische Diskriminierung oder intransparente Entscheidungslogiken zu prüfen. Auch wenn diese Regeln zunächst nur für den öffentlichen Sektor galten, hatten sie Ausstrahlungswirkung auf die gesamte Branche. Anwendungen, die auf föderiertes Lernen, lokale Verarbeitung oder transparente Erklärbarkeit setzten, gewannen an Bedeutung.
Für Nutzer bedeutete das:
Mehr Transparenz darüber, wie Entscheidungen zustande kommen.
Mehr Kontrolle über die eigenen Daten.
Und zumindest die Chance, sich für datenschutzfreundliche Alternativen zu entscheiden.
Mit Trumps Executive Order 14179 ist diese Schutzlogik entfallen. Es gibt aktuell keine übergreifenden Verpflichtungen für Unternehmen, offen zu legen, wie KI-Systeme funktionieren, welche Daten sie nutzen oder wie sie Entscheidungen treffen. Das bedeutet für Endverbraucher vor allem eins: mehr Unsicherheit – und mehr Eigenverantwortung.
Wer heute Chatbots nutzt, KI-generierte Empfehlungen erhält oder automatisierte Entscheidungen erfährt (etwa im HR-Bereich, im Kreditwesen oder bei Gesundheitsapps), sollte sich daher bewusst fragen:
Welche Daten gebe ich preis – freiwillig oder automatisch?
Hat der Anbieter eine verständliche Datenschutzrichtlinie?
Gibt es Hinweise auf algorithmische Fairness oder externe Audits?
Kann ich Entscheidungen nachvollziehen oder hinterfragen?
Kurz gesagt: In einem deregulierten Umfeld liegt die Verantwortung zunehmend beim Einzelnen.
Gerade deshalb lohnt es sich, auf Zertifizierungen, Herkunft der Anbieter und Transparenzberichte zu achten – und bei Unsicherheiten bewusst auf Anwendungen zu verzichten, die mit sensiblen Informationen arbeiten, aber keine Rechenschaft ablegen.
Fazit : Datenschutz ist kein Detail, sondern Richtungsentscheidung
Die Debatte um Künstliche Intelligenz wird oft als technologisches Rennen erzählt – schneller, leistungsfähiger, globaler. Doch im Kern geht es um eine viel grundlegendere Frage: Welche Werte bestimmen, wie wir mit KI leben wollen?
Der Vergleich zwischen Biden und Trump zeigt exemplarisch, wie sehr sich politische Haltungen auf digitale Realitäten auswirken – für Unternehmen, für Nutzer und für demokratische Systeme. Während Biden versucht hat, Vertrauen durch klare Regeln und staatliche Verantwortung zu stärken, setzt Trump auf Geschwindigkeit, Marktdynamik und die Selbstverantwortung der Industrie.
Beide Ansätze haben weitreichende Folgen – für die Innovationsdynamik, den Schutz der Privatsphäre und nicht zuletzt für das Vertrauen in KI-Systeme. Je näher KI in unseren Alltag rückt, desto dringlicher wird die Frage: Wer trägt Verantwortung – und wer übernimmt sie auch sichtbar?
