Digitale Souveränität

Alles ist da. Bis es weg ist.

In einem Beitrag für Nature schildert der Kölner Professor Marcel Bucher, wie ihm nach dem Deaktivieren einer Datenoption in ChatGPT zwei Jahre Arbeit verloren gingen: Entwürfe, Lehrmaterialien, Forschungsstände, Publikationsfassungen.

von Oli Feiler · 24. Februar 2026

Der Vorfall ist mehr als eine technische Anekdote. Er zeigt, wie tief wir uns daran gewöhnt haben, Verfügbarkeit mit Verlässlichkeit zu verwechseln — und warum professionelle KI-Nutzung ohne kontrollierte Ablage, Export und Wiederherstellung zum Risiko wird.

Es gehört zu den stillen Eigentümlichkeiten der digitalen Moderne, dass wir das Speichern verlernt haben. Nicht technisch, sondern kulturell. Wir klicken kaum noch auf „Sichern“, wir denken selten in Versionen, wir fragen uns fast nie, wo ein Inhalt eigentlich liegt. Texte sind einfach da. Mails auch. Entwürfe ebenso. Selbst Gesprächsverläufe haben etwas Beruhigendes bekommen: Sie warten auf uns, wenn wir zurückkehren, als wären sie weniger Software als Landschaft. Die Oberfläche hat uns erzogen. Sie hat uns beigebracht, dass Verfügbarkeit sich anfühlt wie Besitz.

Dann reicht ein Klick.

In Nature beschreibt Marcel Bucher, wie ihm nach dem Ausschalten einer ChatGPT-Datenoption der Zugriff auf zwei Jahre akademischer Arbeit verloren ging. Genannt werden dabei unter anderem Materialien für Förderanträge, Lehrveranstaltungen und Publikationen.

Gerade weil der Fall nicht wie ein spektakulärer Hackerangriff aussieht, sondern wie eine scheinbar administrative Handlung mit maximaler Konsequenz, ist er so aufschlussreich. Er legt ein Missverständnis frei, das längst tief in unsere Arbeitskultur eingesickert ist.(1)

Die Oberfläche als Beruhigungsmaschine

Gute digitale Produkte nehmen uns Komplexität ab. Das ist ihre zivilisatorische Leistung. Sie reduzieren Reibung, glätten Brüche, übersetzen technische Vorgänge in einfache Handlungen. Niemand möchte in Dateipfaden, Speicherdialogen und Sicherungsroutinen wohnen. Gute UX entlastet.

Aber jede Entlastung hat einen Preis. Sie kann dazu führen, dass wir nicht nur Komplexität aus dem Blick verlieren, sondern auch Verantwortung. Wenn eine Oberfläche ruhig, konsistent und immer verfügbar ist, entsteht fast zwangsläufig ein psychologischer Nebeneffekt: Wir halten das, was bequem zugänglich ist, irgendwann auch für betrieblich gesichert. Nicht weil uns das ausdrücklich gesagt würde. Sondern weil der Alltag es suggeriert.

Genau darin liegt die eigentliche Schärfe dieses Vorfalls. Nicht darin, dass „die KI“ plötzlich unzuverlässig wäre. Sondern darin, dass ein Interface Erwartungen erzeugen kann, die von der darunterliegenden Systemlogik womöglich nie gedeckt waren. Ein Chatverlauf fühlt sich nicht an wie ein flüchtiger Arbeitsdialog. Er fühlt sich an wie Bestand. Wie ein Raum, in dem Gedanken aufgehoben sind. Wie ein Ort, an den man zurückkehren kann. Das ist keine bloße Fehleinschätzung einzelner Nutzer. Es ist ein kulturell erlerntes Vertrauen in digitale Oberflächen.

Und vielleicht ist genau das die beunruhigendste Pointe: Dass so viele Menschen diesen Fall sofort intuitiv verstehen, weil sie längst ähnlich arbeiten.

Wenn ein Gespräch zum Archiv wird

Das vielleicht größte Missverständnis der gegenwärtigen KI-Nutzung besteht darin, den produktiven Dialog mit einem belastbaren Dokumentensystem zu verwechseln. Ein Chat ist ein hervorragendes Werkzeug für Annäherung: zum Sortieren, Entwerfen, Verdichten, Prüfen, Verwerfen, Neuformulieren. Er ist schnell, niedrigschwellig, kognitiv anschlussfähig. Er passt sich dem Denken an, statt vom Denken zu verlangen, sich erst in starre Ablagen zu übersetzen.

Gerade deshalb ist er als alleiniger Ort wertvoller Arbeit so problematisch.

Denn was im Chat entsteht, ist zunächst Prozessmaterial. Es kann strategisch wertvoll, sprachlich präzise, fachlich komplex und geschäftlich relevant sein. Aber es ist noch nicht automatisch archiviert, versioniert, strukturiert, freigegeben oder institutionell gesichert. Hier beginnt die eigentliche betriebliche Frage: Bleiben wertvolle Zwischenstände im Verlauf eines fremden Systems hängen — oder werden sie in eine Umgebung überführt, die Dauer, Rechte, Wiederauffindbarkeit und Wiederherstellung kennt? In eine Umgebung also, in der aus Erzeugung auch Ablage, aus Ablage auch Struktur und aus Struktur am Ende betriebliche Nutzbarkeit wird.

OpenAI weist darauf hin, dass Nutzer ihre ChatGPT-Daten exportieren können. Zugleich dokumentiert das Unternehmen, dass gelöschte Chats sofort aus der Ansicht entfernt werden und innerhalb von bis zu 30 Tagen dauerhaft gelöscht werden, sofern keine rechtlichen oder sicherheitsbezogenen Ausnahmen greifen. Archivierte Chats bleiben zwar erhalten, gelöschte Chats sind jedoch nicht wiederherstellbar. Genau diese Kombination ist für professionelle Nutzung heikel: Export ist möglich, aber Wiederherstellung gelöschter Verläufe nicht. Wer einen Chatverlauf faktisch zum Primärspeicher relevanter Arbeit macht, arbeitet also in einem System, dessen Komfort größer sein kann als seine Resilienz. (2, 3, 4)

An diesem Punkt kippt Bequemlichkeit in Abhängigkeit. Denn in dem Moment, in dem ein Unternehmen oder eine Institution seine wertvollen Arbeitsstände faktisch in einem externen Interface belässt, verschiebt sich nicht nur der Speicherort. Es verschiebt sich die Hoheit. Dann hängen Wiederauffindbarkeit, Export, Wiederherstellung und im Ernstfall sogar die Existenz von Arbeitsergebnissen nicht mehr an der eigenen Betriebslogik, sondern an den Regeln, Einstellungen und Grenzen eines fremden Systems.

Man kann das modern nennen. Präziser wäre: riskant.

Verfügbarkeit ist nicht Souveränität

Der Fall ist deshalb nicht nur ein Lehrstück über ein prominentes Tool. Er ist ein Lehrstück über digitale Souveränität. Über eine Unterscheidung, die in den letzten Jahren zu oft verwischt wurde: Nur weil etwas jederzeit erreichbar ist, ist es noch lange nicht unter eigener Kontrolle. Nur weil Inhalte in einer Cloud sichtbar bleiben, stehen sie noch nicht in einem belastbaren betrieblichen Zusammenhang. Nur weil ein System geschmeidig funktioniert, ist es noch kein tragfähiger Ort für geschäftskritisches Wissen.

Verfügbarkeit ist eine Komfortkategorie. Souveränität ist eine Infrastrukturkategorie.

Wer mit KI professionell arbeitet, sollte deshalb nicht zuerst fragen, welches Modell die besseren Formulierungen liefert. Die wichtigere Frage lautet: Was passiert mit den Ergebnissen? Wo landen sie? Wie werden sie abgelegt? Wer kann sie löschen? Wie werden Fassungen nachvollziehbar? Wie schnell lässt sich ein definierter Zustand wiederherstellen? Und ist das System so gebaut, dass produktive Inhalte nicht im Interface enden, sondern in einer kontrollierten Umgebung weiterleben, weiterverarbeitet und in reale Arbeitszusammenhänge übersetzt werden können?

Hier trennt sich Spielerei von Betriebsfähigkeit.

Man muss ChatGPT dafür nicht verteufeln. Im Gegenteil. Solche Systeme sind produktiv, oft erstaunlich hilfreich und in vielen Kontexten sinnvoll einsetzbar. Das Problem ist nicht ihre Existenz. Das Problem beginnt dort, wo man fremde Plattformlogik mit eigener Betriebslogik verwechselt. Dort, wo man glaubt, ein Werkzeug, das hervorragend beim Generieren hilft, sei damit automatisch auch ein verlässlicher Ort für dauerhafte Ablage.

Gerade für Unternehmen ist das eine gefährliche Verwechslung. Denn betriebliche Realität misst sich nicht an Eleganz, sondern an Wiederherstellbarkeit. Ein professionelles System erkennt man nicht daran, dass nie etwas schiefläuft. Sondern daran, dass ein Fehler nicht sofort zum Totalverlust wird. Ein falscher Klick, eine geänderte Einstellung, eine missverständliche Nutzerführung oder eine Kontosperrung dürfen nicht darüber entscheiden, ob Monate oder Jahre an Arbeit noch existieren.

Deshalb führt die Debatte am Ende auch nicht in eine platte Frontstellung zwischen „Cloud schlecht“ und „On-Premise gut“. So schlicht ist die Welt nicht. Aber sie führt zu einer unbequemen Einsicht: Je sensibler Daten, je wertvoller Inhalte und je kritischer Prozesse werden, desto weniger darf ihre betriebliche Belastbarkeit von einem fremden Interface abhängen. Wer KI wirklich professionell einsetzen will, braucht Systeme, in denen wertvolle Ergebnisse nicht nur erzeugt, sondern zuverlässig überführt, strukturiert abgelegt und nutzbar gemacht werden. Systeme, deren Speicher- und Sicherungslogik nicht bloß versprochen, sondern beherrscht wird. Systeme, in denen aus einem produktiven Dialog kein blinder Fleck der Organisation wird.

Erst dort beginnt digitale Reife.

Vielleicht ist das die eigentliche Pointe dieses Vorfalls. Dass er uns nicht nur etwas über ein einzelnes Produkt erzählt, sondern über uns selbst. Über eine Arbeitskultur, die sich so sehr an die Freundlichkeit ihrer Werkzeuge gewöhnt hat, dass sie deren Bedingungen kaum noch mitdenkt. Über eine Gegenwart, in der das Sichtbare schnell für das Sichere gehalten wird. Und über eine digitale Bequemlichkeit, die so lange unsichtbar bleibt, bis plötzlich etwas fehlt, das eben noch selbstverständlich da war.

Alles ist da. Bis es weg ist.

Und genau deshalb sollte die wichtigste Frage beim professionellen Einsatz von KI nicht lauten, wie gut ein System formuliert. Sondern wie gut es sich in verlässliche Prozesse, kontrollierte Ablage und belastbare Betriebswirklichkeit übersetzen lässt.