Â
Ein Erfahrungsbericht eines zahlenden Nutzers, der feststellt:
Es gibt keine Funktion zum gezielten Löschen von Bildern in der eigenen „Bibliothek“.
Eine direkt zugängliche Feedbackfunktion für solche Featurefragen fehlt weitgehend.
Trotz Deaktivierung der Option „Mit meinen Daten trainieren“ bleibt unklar, ob Inhalte intern weiterhin temporär gespeichert oder analysiert werden.
Letzteres wirkt besonders irritierend:
OpenAI bietet Nutzer:innen die Möglichkeit, das Training der KI mit eigenen Daten zu deaktivieren.
Doch diese Einstellung betrifft nur das Modell – nicht zwangsläufig die Produktnutzung.
Wenn z. B. gelöschte Bilder weiter im Editor erscheinen oder frühere Inhalte nach Löschung erneut auftauchen,
stellt sich die Frage: Wird hier Feedback verarbeitet – ohne, dass es wirklich löschbar ist?
Das ist keine Unterstellung. Aber ein berechtigter Zweifel.
1. Kontrolle – aber auf welcher Ebene?
OpenAI bietet eine Option an, um das Training der Sprachmodelle mit Nutzerdaten zu deaktivieren.
Doch was innerhalb des Produkts passiert – etwa mit gespeicherten Bildern oder Kommentaren – bleibt unklar.
Für Nutzer:innen stellt sich die Frage:
Was bedeutet Kontrolle, wenn ich nicht sehe, wer was wann noch auswertet?
Die technische Trennung zwischen „Modell“ und „Produkt“ ist real –
aber kaum erfahrbar. Kontrolle wird angeboten, aber nicht spürbar.
2. Feedback bleibt einseitig
Rückmeldefunktionen sind schwer auffindbar oder kontextfern.
Gerade in Momenten, in denen ein Eingriff in eigene Inhalte gewünscht wäre,
fehlen Wege zur direkten Reaktion.
3. Inhalte, aber kein Zugriff
Dass sich gespeicherte Bilder nicht löschen lassen, obwohl man als Nutzer lokal darüber verfügt,
widerspricht einem Grundprinzip digitaler Selbstbestimmung:
Wer etwas hochlädt, muss es auch entfernen dürfen.
Dieser Beitrag ist kein Vorwurf – sondern eine Einladung zur Reflexion:
Wie transparent sind Systeme, mit denen wir täglich interagieren?
Welche Kontrolle haben wir – jenseits von „Einstellungen“?
Die Werkstatt dokumentiert diesen Fall,
weil es dabei nicht nur um Technik geht – sondern um Vertrauen.
Und Vertrauen entsteht dort, wo Kontrolle nicht nur versprochen,
sondern erfahrbar wird.
Was wünschst du dir, wenn du digitale Werkzeuge nutzt – Kontrolle? Transparenz? Mitsprache?
Welche Erfahrungen hast du selbst gemacht mit Tools, die nicht tun, was du erwartest?
Wie könnten Plattformen mit Nutzenden besser kommunizieren – oder ihnen echten Einfluss geben?
Teile deine Gedanken – auch wenn du keine technischen Lösungen hast.
Denn manchmal beginnt Veränderung nicht mit einem Code, sondern mit einer ehrlichen Frage.
Status: Offen zur Diskussion. Weiterführbar in alle Richtungen.
1 Kommentar zu „„Digitale Selbstbestimmung im Halbschatten““
das ist ein test kommentar