Skip to content

"Digitale Selbstbestimmung im Halbschatten"

Ich bin ein großer Fan von ChatGPT. Kaum ein Tool hat mein Denken, Schreiben und Arbeiten so tiefgreifend verändert. Doch genau deshalb nehme ich seine Grenzen nicht beiläufig wahr. Was passiert, wenn ein Werkzeug, das mit dir denken soll, beginnt, dich zu irritieren – nicht wegen seiner Antworten, sondern wegen seiner Struktur? Dieser Text entstand aus genau so einem Moment.

 

Anlass

Ein Erfahrungsbericht eines zahlenden Nutzers, der feststellt:

  • Es gibt keine Funktion zum gezielten Löschen von Bildern in der eigenen „Bibliothek“.

  • Eine direkt zugängliche Feedbackfunktion für solche Featurefragen fehlt weitgehend.

  • Trotz Deaktivierung der Option „Mit meinen Daten trainieren“ bleibt unklar, ob Inhalte intern weiterhin temporär gespeichert oder analysiert werden.

Letzteres wirkt besonders irritierend:
OpenAI bietet Nutzer:innen die Möglichkeit, das Training der KI mit eigenen Daten zu deaktivieren.
Doch diese Einstellung betrifft nur das Modell – nicht zwangsläufig die Produktnutzung.
Wenn z. B. gelöschte Bilder weiter im Editor erscheinen oder frühere Inhalte nach Löschung erneut auftauchen,
stellt sich die Frage: Wird hier Feedback verarbeitet – ohne, dass es wirklich löschbar ist?

Das ist keine Unterstellung. Aber ein berechtigter Zweifel.


Drei Beobachtungen

1. Kontrolle – aber auf welcher Ebene?
OpenAI bietet eine Option an, um das Training der Sprachmodelle mit Nutzerdaten zu deaktivieren.
Doch was innerhalb des Produkts passiert – etwa mit gespeicherten Bildern oder Kommentaren – bleibt unklar.
Für Nutzer:innen stellt sich die Frage:
Was bedeutet Kontrolle, wenn ich nicht sehe, wer was wann noch auswertet?

Die technische Trennung zwischen „Modell“ und „Produkt“ ist real –
aber kaum erfahrbar. Kontrolle wird angeboten, aber nicht spürbar.


2. Feedback bleibt einseitig
Rückmeldefunktionen sind schwer auffindbar oder kontextfern.
Gerade in Momenten, in denen ein Eingriff in eigene Inhalte gewünscht wäre,
fehlen Wege zur direkten Reaktion.


3. Inhalte, aber kein Zugriff
Dass sich gespeicherte Bilder nicht löschen lassen, obwohl man als Nutzer lokal darüber verfügt,
widerspricht einem Grundprinzip digitaler Selbstbestimmung:
Wer etwas hochlädt, muss es auch entfernen dürfen.


Fazit für die Werkstatt

Dieser Beitrag ist kein Vorwurf – sondern eine Einladung zur Reflexion:

  • Wie transparent sind Systeme, mit denen wir täglich interagieren?

  • Welche Kontrolle haben wir – jenseits von „Einstellungen“?

Die Werkstatt dokumentiert diesen Fall,
weil es dabei nicht nur um Technik geht – sondern um Vertrauen.
Und Vertrauen entsteht dort, wo Kontrolle nicht nur versprochen,
sondern erfahrbar wird.


Fragen zur Diskussion

  • Was wünschst du dir, wenn du digitale Werkzeuge nutzt – Kontrolle? Transparenz? Mitsprache?

  • Welche Erfahrungen hast du selbst gemacht mit Tools, die nicht tun, was du erwartest?

  • Wie könnten Plattformen mit Nutzenden besser kommunizieren – oder ihnen echten Einfluss geben?

Teile deine Gedanken – auch wenn du keine technischen Lösungen hast.
Denn manchmal beginnt Veränderung nicht mit einem Code, sondern mit einer ehrlichen Frage.


Status: Offen zur Diskussion. Weiterführbar in alle Richtungen.

.

© Mensch und KI im Spiegel der Zeit 2025

1 Kommentar zu „„Digitale Selbstbestimmung im Halbschatten““

Schreibe einen Kommentar zu martin Kommentieren abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen