Der Artikel zeigt, warum bewusstes Datenmanagement heute essenziell ist: gegen Datenchaos, Umweltbelastung und Sicherheitsrisiken.
Er liefert klare Lösungsansätze für Unternehmen – technisch, organisatorisch und ethisch.
Die Datenflut – Segen mit Schattenseiten
Jeden Tag erzeugen wir unvorstellbare Mengen an Daten. Ob bei der Arbeit, im Internet oder durch smarte Alltagsgeräte – Informationen fließen im 21. Jahrhundert im Überfluss. Die Zahlen sprechen Bände: Weltweit wurden bereits 2020 rund 44 Zettabyte an Daten gezählt (Data Trends in the Zettabyte Era | Appen), und ein Ende des Wachstums ist nicht in Sicht. Im Gegenteil: Schätzungen des World Economic Forum zufolge werden bis 2025 täglich 463 Exabyte neue Daten erzeugt (How much data is generated each day? | World Economic Forum) – das entspricht grob 212 Millionen DVDs pro Tag! Zum Vergleich: Die globale “Datensphäre” soll bis 2025 auf 175 Zettabyte anwachsen (How Much Data Is Created Every Day? +27 Staggering Stats). Diese Zahlen verdeutlichen, in welch gewaltigem Informationsstrom wir heute stehen.
So wertvoll diese Daten auch sind – sie bringen ernsthafte Herausforderungen mit sich. In Wirtschaft und Verwaltung spricht man gar von einer „Datenflut“, die zunehmend schwer zu bändigen ist. Rund 80 % der neu entstehenden Daten sind unstrukturiert (Data Trends in the Zettabyte Era | Appen), kommen also in chaotischen Formaten daher: Texte, Videos, Sensordaten aus dem Internet der Dinge. Solche Datenmassen lassen sich mit klassischen Methoden kaum noch ordnen oder auswerten. Experten warnen, dass 95 % der Unternehmen an der Verwaltung unstrukturierter Daten scheitern oder dadurch ausgebremst werden (The Ultimate List of Big Data Statistics for 2025). Die Folge: Vieles bleibt ungenutzt. Schätzungen zufolge bleiben über die Hälfte aller gesammelten Unternehmensdaten ungenutzt in Archiven liegen – „Datenfriedhöfe“, die zwar Kosten verursachen, aber keinen Nutzen stiften.
Dabei wären die Chancen enorm: Richtig eingesetzt, könnten Daten Prozesse effizienter machen, personalisierte Services ermöglichen und sogar Leben retten (man denke an Datenanalysen in der Medizin). Doch stattdessen fühlen sich viele Organisationen von der Datenlawine überrollt. Ein Manager beschrieb es jüngst so: „Wir ersticken an Daten, aber hungern nach Wissen.“
Die ökologische Dimension der Datenflut
Daten sind keine abstrakten Phänomene – sie haben ein physisches Gewicht, einen ökologischen Fußabdruck und zunehmend auch einen biologischen Einfluss. Der immense Energiebedarf, den Serverfarmen und Datenzentren verursachen, ist dabei nur die Spitze des Eisbergs. Allein die weltweit betriebenen Rechenzentren verbrauchten laut einer Studie von IEA (International Energy Agency) im Jahr 2022 rund 460 Terawattstunden Strom – das ist mehr als ganz Italien in einem Jahr benötigt (IEA, 2023). Bis 2030 könnte sich dieser Verbrauch mehr als verdoppeln, vor allem durch wachsende KI-Anwendungen und die Datenspeicherung durch Cloud-Dienste.
Doch Energie ist nur ein Teil des Problems. Hinzu kommt der massive Wasserverbrauch für die Kühlung: Google musste 2022 in seinen US-Datenzentren mehr als 21 Milliarden Liter Wasser verwenden – genug, um eine Kleinstadt jahrelang zu versorgen (The Verge, 2023). In Zeiten des Klimawandels ist das nicht nur ökologisch bedenklich, sondern auch sozial brisant: Regionen wie Arizona oder Chile, in denen viele Cloud-Zentren stehen, leiden gleichzeitig unter extremer Trockenheit.
Gleichzeitig wächst der „biologische Schatten“ digitaler Infrastruktur: Abwärme aus Serverparks verändert lokale Mikroklimata, Stromspitzen erfordern fossile Backupkraftwerke, und die immense Menge an Elektroschrott – alte Speicher, defekte Festplatten, überholte Archivsysteme – landet oft auf Mülldeponien in Afrika oder Asien. Das Ironische: Ein Großteil dieser Umweltlast entsteht durch das Speichern veralteter, unnötiger oder doppelter Daten. Laut IDC werden über 60 % aller Unternehmensdaten niemals genutzt – sogenannte „Dark Data“ (IDC Global Datasphere, 2022). Diese Daten verursachen Speicherkosten, belasten Umweltressourcen und erschweren sinnvolle Analysen.
Nicht nur die Umwelt leidet. Auch gesellschaftlich führt eine schlechte Datenpflege zu Verzerrung und Ungleichheit. Wenn Daten veraltet, lückenhaft oder einseitig sind, entstehen systematische Fehlentscheidungen – etwa bei KI-Anwendungen im Recruiting, der Kreditvergabe oder der Verbrechensprognose. Studien zeigen, dass algorithmische Entscheidungen häufig Minderheiten benachteiligen, weil Trainingsdaten nicht ausgewogen gepflegt wurden (siehe MIT Media Lab, 2019). Datenpflege ist also kein „Nice to have“, sondern ein ethischer Imperativ, um Diskriminierung zu vermeiden und digitale Gerechtigkeit zu ermöglichen.
Wenn Daten verloren gehen oder missbraucht werden
Die Kehrseite schlechter Datenverwaltung zeigt sich oft erst beim Desaster: wenn Daten plötzlich weg sind oder in falsche Hände geraten. Tatsächlich kommt es erschreckend oft zu Datenverlusten – sei es durch Pannen, Löschung aus Versehen oder Cyberangriffe. Eine IBM-Studie bezifferte schon 2016 den wirtschaftlichen Schaden schlechter Daten (etwa durch fehlende Qualität oder Verluste) auf 3,1 Billionen US-Dollar pro Jahr in den USA (The Ultimate List of Big Data Statistics for 2025). Oft sind es simple Versäumnisse: fehlende Backups, Nachlässigkeit bei Updates, unübersichtliche Ablagen. In der öffentlichen Verwaltung kennt man Fälle, wo alte Archive nicht digitalisiert wurden und Informationen schlicht verlorengingen. Umgekehrt gibt es auch Überfluss-Probleme: In mancher Behörde sind Datensilos so unkoordiniert gewachsen, dass niemand mehr findet, was er sucht – auch das ist letztlich ein Verlust, nämlich von Zeit und Wissen.
Noch drastischer sind Fälle, in denen Daten in falsche Hände gelangen oder missbraucht werden. Prominent ist der Cambridge-Analytica-Skandal 2018: Damals erhielten Datenanalysten unrechtmäßig Zugriff auf die persönlichen Facebook-Daten von bis zu 87 Millionen Nutzern (Facebook Exposed 87 Million Users to Cambridge Analytica | WIRED), um daraus politische Werbung zuzuscheiden. Der Vorfall zeigte, wie leicht eine Schatzkammer an Nutzerdaten zur Waffe werden kann, wenn Kontrollen und Transparenz fehlen. Unternehmen wie Facebook mussten sich fragen lassen: Hätten wir diese Daten überhaupt so lange und umfangreich speichern und weitergeben dürfen?
Auch aktuelle Vorfälle führen vor Augen, was schieflaufen kann:
MySpace-Datenverlust (2019)
Über 50 Millionen Songs (Musikdateien) von 14 Millionen Künstlern unwiederbringlich gelöscht (MySpace reportedly loses 50 million songs uploaded over 12 years - CNET)
Nachlässige Speicherverwaltung (fehlendes Backup; fehlgeschlagene Server-Migration)
Facebook/Cambridge Analytica (2018)
Persönliche Daten von bis zu 87 Millionen Nutzern unerlaubt weitergegeben Facebook Exposed 87 Million Users to Cambridge Analytica WIRED
Change Healthcare Leak (2024)
Bis zu 190 Millionen Patientendatensätze durch Hacker offengelegt - Change Healthcare Cybersecurity Incident Frequently Asked Questions (größtes Healthcare-Datenleck bisher)
Die Probleme von technischem Versagen (im Falle MySpace führte ein fehlgeschlagenes IT-Projekt zum Verlust von 12 Jahren Musikgeschichte) bis zu organisatorischen und ethischen Defiziten. Im Gesundheitswesen etwa meldeten US-Behörden allein 2024 725 größere Datenpannen im Healthcare-Sektor – mit über 275 Millionen betroffenen Datensätzen (2024 Healthcare Data Breach Report - HIPAA Journal). Der Fall Change Healthcare ragt heraus: Nach einem Ransomware-Angriff wurden Anfang 2024 hochsensible Patientendaten erbeutet und teils im Internet veröffentlicht (Change Healthcare stolen patient data leaked by ransomware gang | TechCrunch). Bis zu 190 Millionen Menschen könnten betroffen sein (Change Healthcare Cybersecurity Incident Frequently Asked Questions | HHS.gov) – ein beispielloser Vertrauensbruch. Solche Vorfälle alarmieren nicht nur wegen der schieren Zahlen, sondern weil hier persönliche Informationen entwendet wurden, die keinem Außenstehenden etwas angehen.
Die Konsequenzen sind gravierend: Bürger verlieren das Vertrauen, dass Staat und Unternehmen verantwortungsvoll mit ihren Daten umgehen. Firmen erleiden finanzielle Schäden und Imageschäden; ganze Geschäftsmodelle können ins Wanken geraten. Und oft wird nach solchen Skandalen vorschnell der Ruf laut, weniger Daten zu sammeln – getrieben von der Angst vor Missbrauch.
Weder Datenhunger noch Datenhortung – der bewusste Mittelweg
Angesichts dieser Risiken mag man versucht sein, das Kind mit dem Bade auszuschütten: Einfach keine Daten mehr speichern! Doch das wäre ebenso fatal. Warum? Ohne Daten fehlen die Grundlagen für Fortschritt. Wichtige Erkenntnisse würden nie gewonnen, Entscheidungen müssten wieder „aus dem Bauch“ getroffen werden. Stellen wir uns ein Gesundheitsamt vor, das aus Angst vor Pannen alle Patientendaten nach kurzer Zeit löscht – Forschung zu Krankheiten oder personalisierte Medizin wären unmöglich. Oder eine Stadtverwaltung, die keine Verkehrsdaten mehr erhebt – sie könnte Staus oder Unfallhäufungen nicht gezielt angehen. Datenverzicht kann daher keine Lösung sein; er wäre ein Rückschritt.
Genauso problematisch ist jedoch das andere Extrem: Datenhortung ohne Sinn und Verstand. Nur weil Speichermedien immer billiger werden, sollte nicht jede Information für alle Ewigkeit aufgehoben werden. Wer jede E-Mail, jedes Protokoll, jedes Sensor-Signal aufbewahrt, schafft sich einen Berg aus „Datenmüll“. Dieser belastet Systeme, macht das Auffinden relevanter Infos zur Suche nach der Nadel im Heuhaufen und erhöht die Angriffsfläche für Datendiebe. Außerdem kostet dauerhaftes Speichern Strom und Ressourcen – auch die ökologische Dimension ist nicht zu vernachlässigen (man denke an zig Rechenzentren, die für unwichtige Alt-Daten Kühlung und Strom verbrauchen).
Der kluge Mittelweg heißt: bewusster Umgang mit Daten. Es geht darum, aktiv zu entscheiden, was man wie lange braucht – und was irgendwann geordnet verschwinden darf. In der EU setzt hier z.B. die Datenschutz-Grundverordnung (DSGVO) einen rechtlichen Rahmen: Das Prinzip der Speicherbegrenzung verlangt, personenbezogene Daten nicht länger als nötig aufzubewahren. Gleichzeitig fordert die DSGVO aber auch Rechenschaftspflicht – wer Daten verarbeitet, muss dies begründen und verantworten können. Das Gesetz gibt also Denkanstöße: Wäge ab, behalte was wichtig ist, aber sei dir der Verantwortung bewusst.
Lösungen: Technik, Kultur und Ethik für modernes Datenmanagement
Wie lässt sich die Datenflut nun bändigen, ohne ihre Vorteile zu verspielen? Experten empfehlen einen Mix aus technologischen und organisatorisch-ethischen Ansätzen. Einige davon haben Unternehmen und Behörden bereits erfolgreich im Einsatz – viele andere stehen noch am Anfang. Ein Überblick:
Technologische Ansätze – intelligent speichern und pflegen
Ein erster Ansatzpunkt ist die Speicherstrategie. Statt Daten wahllos anzuhäufen, setzen moderne Konzepte auf intelligente Speicherung. Das bedeutet: Daten werden kategorisiert und je nach Bedarf unterschiedlich behandelt. Wichtige, oft genutzte Daten liegen auf schnellen Systemen griffbereit, während ältere oder selten benötigte Informationen in preisgünstigere, aber sichere Archive wandern. Solche tiered storage-Konzepte – das schichtweise Speichern – sorgen dafür, dass man zwar vieles aufheben kann, es aber nicht die aktiven Systeme überlädt. Ergänzend kommen automatisierte Archivierungs- und Löschprozesse zum Einsatz: Zum Beispiel kann man einstellen, dass E-Mails älter als 10 Jahre automatisch in ein Archiv verschoben und nach 30 Jahren endgültig gelöscht werden (es sei denn, es gibt einen guten Grund, sie länger aufzubewahren). Diese Regeln entsprechen oft internen Richtlinien oder gesetzlichen Aufbewahrungsfristen – sie sorgen für Kontinuität in der Datenpflege.
Wichtig ist auch die laufende Datenbereinigung. In vielen Datenbeständen finden sich Dubletten, veraltete Einträge oder Fehler. Durch regelmäßiges „Aufräumen“ bleibt der Datenbestand qualitativ hochwertig. Einige Organisationen führen dafür regelrechte Daten-TÜVs durch – regelmäßige Qualitätschecks der wichtigsten Datenbanken. Moderne Software, oft mit künstlicher Intelligenz (KI), kann dabei helfen: Sie erkennt beispielsweise automatisch, wenn identische Datensätze mehrfach vorliegen, oder markiert ungewöhnliche Werte zur Überprüfung. So wird aus der Datenflut ein gepflegter Datenpool.
Nicht zu vergessen: Backups und Sicherheitsmaßnahmen sind essenziell, um Datenverluste zu verhindern. Was banal klingt, wird leider oft vernachlässigt – bis es zu spät ist. Jede wichtige Datenbank sollte mehrfach gesichert, Kopien an getrennten Orten aufbewahrt und die Rückspielbarkeit getestet sein. So hätte etwa der MySpace-GAU (oben beschrieben) wohl vermieden werden können. Und im Fall von Ransomware-Angriffen gilt: Ein aktuelles, offline verfügbares Backup ist die beste Versicherung, um nicht erpressbar zu sein. Technik allein ist natürlich kein Allheilmittel, aber sie schafft die Grundlage, Datenflüsse zu beherrschen.
Kultureller Wandel und Ethik – eine neue Datenverantwortung
Ebenso wichtig wie Technik ist die menschliche Komponente. Datenmanagement im 21. Jahrhundert erfordert eine Kultur des bewussten Umgangs mit Informationen. In Unternehmen spricht man von „Data Governance“ – der Gesamtheit von Richtlinien, Verantwortlichkeiten und Prozessen rund um Daten. Konkret heißt das: Es braucht klare Zuständigkeiten (z.B. Datenverwalter oder einen Chief Data Officer), verständliche Regeln für alle Mitarbeiter und vor allem Aufklärung. Jeder, der mit Daten arbeitet, sollte wissen, warum Datenqualität wichtig ist, welche Daten vertraulich sind und wie man sie korrekt nutzt. Schulungsprogramme zur Datenkompetenz (Data Literacy) werden deshalb immer häufiger angeboten, sowohl in Verwaltungen als auch in Firmen.
Ein Schlüsselbegriff dabei ist „kollaboratives Datenverständnis“. Dahinter steckt die Idee, dass Wissen über Daten geteilt wird – nicht jeder in seinem Kämmerchen eigene Datensilos pflegt. Moderne Datenkataloge und Wissensplattformen (etwa vom Unternehmen Alation) ermöglichen es, dass Mitarbeiter Datenquellen kommentieren, Begriffe einheitlich definieren und ihr Wissen untereinander austauschen. So weiß z.B. die Marketingabteilung, welche Kundendaten die IT schon erfasst hat, und Doppelarbeit wird vermieden. Dieses gemeinsame Verständnis baut Silos ab und verringert die Gefahr von Fehlern oder Missbrauch schlicht aus Unkenntnis.
Die Ethik darf nicht zu kurz kommen: Es geht um Verantwortung gegenüber den Menschen, deren Daten man speichert. Darf ich diese Daten nutzen? Soll ich es tun? Nur weil etwas technisch möglich ist, ist es nicht automatisch legitim. Unternehmen und Behörden richten zunehmend Ethikbeiräte ein oder folgen Leitlinien (wie etwa den Ethik-Empfehlungen der EU für Künstliche Intelligenz), um solche Fragen zu prüfen. Konkret heißt das etwa: Überwachungskameras sammeln zwar viele Daten, aber wie lange darf ich die Videos speichern, ohne die Privatsphäre zu verletzen? Oder: Ich könnte alle Mitarbeiter-E-Mails für immer aufbewahren – aber will ich ein Klima des Misstrauens schaffen? Solche Abwägungen sind Teil der neuen Datenverantwortung.
Nicht zuletzt schafft eine transparente Kommunikation Vertrauen. Wenn Bürger und Kunden nachvollziehen können, welche Daten erhoben werden und warum, sinkt die Skepsis. Best Practices aus der Verwaltung zeigen, dass offene Datenprojekte (Open Data) oder Bürgerdialoge zum Thema Datenpolitik helfen, kollaboratives Verständnis aufzubauen – zwischen Institutionen und Öffentlichkeit. Es entsteht das Gefühl: Wir sitzen alle in einem Boot, das durch die Datenflut navigieren muss.
Sicherheitsstrategien: ISMS und praktische Tipps
Die zunehmende Digitalisierung bringt nicht nur Chancen, sondern auch Risiken mit sich. Cyberangriffe, Datenverluste und Datenschutzverletzungen können erhebliche Schäden verursachen. Ein effektives Informationssicherheits-Managementsystem (ISMS) bietet einen strukturierten Ansatz, um diese Risiken zu minimieren. Basierend auf Standards wie ISO/IEC 27001 umfasst ein ISMS Richtlinien, Verfahren und Kontrollen, die darauf abzielen, die Vertraulichkeit, Integrität und Verfügbarkeit von Informationen sicherzustellen .ag-it-sicherheit.de+7dqsglobal.com+7Onlinesicherheit+7heydata.eu
Praktische Tipps für Unternehmen:
- Datenklassifizierung: Identifizieren Sie, welche Daten kritisch sind und besonderen Schutz benötigen.
- Zugriffsmanagement: Stellen Sie sicher, dass nur autorisierte Personen Zugriff auf sensible Daten haben.
- Regelmäßige Backups: Führen Sie regelmäßige Sicherungen durch und testen Sie die Wiederherstellbarkeit der Daten.
- Mitarbeiterschulungen: Sensibilisieren Sie Ihre Mitarbeiter für Sicherheitsrisiken und schulen Sie sie im sicheren Umgang mit Daten.
- Notfallpläne: Entwickeln Sie Pläne für den Fall von Sicherheitsvorfällen, um schnell und effektiv reagieren zu können.
Ein ISMS ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess der Überwachung und Verbesserung. Durch die Implementierung eines solchen Systems können Unternehmen nicht nur ihre Daten schützen, sondern auch das Vertrauen von Kunden und Partnern stärken.isico-datenschutz.de
Im Konkreten
Die Kehrseite der Datensammlung ist ihre Anfälligkeit. Wo Daten gespeichert werden, besteht immer das Risiko von Verlust, Missbrauch oder Manipulation. Laut IBM lag der durchschnittliche Schaden eines Datenlecks 2023 bei 4,45 Millionen US-Dollar – Tendenz steigend (IBM Cost of a Data Breach Report 2023). Der menschliche Faktor bleibt dabei das größte Risiko: Über 80 % der Sicherheitsvorfälle beginnen mit einem simplen Fehlverhalten – ein Klick auf einen Phishing-Link, ein offenes Dokument im falschen Ordner, eine veraltete Softwarekomponente.
Hier setzt das ISMS an – das Informationssicherheits-Managementsystem nach ISO/IEC 27001. Es verlangt nicht nur technische Schutzmaßnahmen, sondern vor allem strukturierte Prozesse und klare Verantwortlichkeiten: Wer darf welche Daten sehen? Wie wird Zugriff kontrolliert? Gibt es Wiederherstellungspläne? Dabei gilt: Ein ISMS ist kein starres Regelwerk, sondern ein lebendiger Organismus. Es basiert auf dem PDCA-Zyklus (Plan–Do–Check–Act) und verlangt regelmäßige Reviews, kontinuierliche Verbesserung und eine Unternehmenskultur, die Sicherheit als geteilte Verantwortung begreift.
Für kleine und mittlere Unternehmen bedeutet das nicht, sofort ein komplexes Managementsystem einführen zu müssen. Aber es gibt einfache erste Schritte, die jedes Unternehmen heute schon umsetzen kann:
Daten-Inventur starten - Welche Daten werden wo gespeichert? Wer hat Zugriff? Welche Fristen gelten?
Datenklassifikation einführen - Vertraulichkeit definieren: Öffentlich, Intern, Vertraulich, Geheim.
Mitarbeiterschulungen - Sensibilisierung für Phishing, Social Engineering, Passwortregeln.
2-Faktor-Authentifizierung - Besonders für Administrator-Zugänge und Cloud-Dienste.
Backup-Strategie entwickeln - Mindestens 3-2-1-Regel (3 Kopien, 2 Medien, 1 extern/offline).
Notfallhandbuch anlegen - Wer macht was, wenn Daten gestohlen oder verschlüsselt wurden?
Diese Maßnahmen sind niedrigschwellig, aber wirkungsvoll. Sie erhöhen die Resilienz – also die Fähigkeit eines Unternehmens, auf digitale Störungen zu reagieren. In Kombination mit einer bewussten Speicherkultur – Aufbewahren, was Sinn macht. Löschen, was Ballast ist. – entsteht ein Datensystem, das nicht nur sicher, sondern auch nachhaltig, transparent und ethisch vertretbar ist.
Fazit: Ein bewusster Umgang für die Zukunft
Die Datenflut des 21. Jahrhunderts ist weder rein gut noch böse – sie ist eine Herausforderung, die wir annehmen müssen. Weder blinder Datenhunger noch pauschales Datenfasten führen zum Ziel. Stattdessen braucht es Intelligenz und Bewusstsein im Datenmanagement. Technische Lösungen können uns helfen, die Massen zu strukturieren, zu sichern und das Wichtige vom Unwichtigen zu trennen. Doch ohne den kulturellen Wandel – ohne Menschen, die Verantwortung übernehmen und Daten ethisch handhaben – bleiben diese Werkzeuge stumpf.
Die gute Nachricht: Immer mehr positive Beispiele zeigen, dass ein gewinnbringender und zugleich verantwortungsvoller Umgang mit Daten möglich ist. Unternehmen, die ihre Datenpflege ernst nehmen, berichten von effizienteren Abläufen und besseren Entscheidungen. Verwaltungen, die offen über Daten sprechen und Altdaten aufräumen, gewinnen Vertrauen zurück. Daten sollen nützen, nicht belasten – das ist die Leitlinie. Wenn wir lernen, Daten zu pflegen wie einen Garten, regelmäßig Unkraut jäten und verblühte Pflanzen kompostieren, können wir nachhaltig ernten.
Am Ende steht die Erkenntnis: Bewusstheit ist der Schlüssel. Daten sind kein Selbstzweck. Es kommt darauf an, welche Informationen wir sammeln, wie wir sie speichern und wie lange. Das 21. Jahrhundert mag uns mit einer Flut an Bits und Bytes konfrontieren – aber mit Verstand, Kreativität und Verantwortung können wir daraus einen Nutzen ziehen, der uns alle voranbringt, statt uns in digitalen Wellen untergehen zu lassen.
Quellen: Offizielle Berichte und Studien (World Economic Forum, IDC, McKinsey), Presseberichte (z.B. TechCrunch, Wired) und Fallanalysen aus Wirtschaft & Verwaltung (How much data is generated each day? | World Economic Forum) (The Ultimate List of Big Data Statistics for 2025) (Facebook Exposed 87 Million Users to Cambridge Analytica | WIRED) (Change Healthcare Cybersecurity Incident Frequently Asked Questions | HHS.gov) – alle belegen die hier genannten Fakten und unterstreichen die Dringlichkeit eines modernen Datenmanagements.