Ohne Daten läuft in der deutschen Wirtschaft kaum noch etwas. Fast alle Unternehmen analysieren Daten, gerade einmal acht Prozent verzichten drauf, so eine Umfrage des Digitalverbands Bitkom.
Aber die Mehrheit verwendet Daten nur für einfache Analysen. Obwohl man sich der möglichen Vorteile durch KI bewusst ist. Rund jedes zweite Unternehmen gibt an, KI könnte Mitarbeiter entlasten und menschliche Fehler im Arbeitsalltag vermeiden. Jedes dritte Unternehmen erwartet schnellere und präzisiere Problemanalysen.
Diese Vorteile bleiben bislang vor allem aus zwei Gründen ungenutzt: Jedem zweiten Unternehmen hierzulande mangelt es an Know-how und Fachkräften im Bereich der KI. Hinzu kommt die Unsicherheit, wie sich dabei der Datenschutz gewährleisten lässt.
Dabei besteht selbst bei sensiblen Gesundheitsdaten eine große Offenheit in der Bevölkerung, die eigenen Daten zu Analyse- und Forschungszwecken zur Verfügung zu stellen, wie eine weitere Bitkom-Umfrage ergab.
Voraussetzung ist, dass der Datenschutz wirksam umgesetzt wird. Doch klassische Anonymisierungsverfahren scheitern oftmals. Sie verhindern nicht wirksam, dass sich durch Re-Identifizierung die Identität einer Person aus einem Datensatz erschließen lässt. Auch sind Rückschlüsse auf einzelne Personen möglich, die Einblicke in die Privatsphäre gewähren können.
Differential Privacy in der Praxis
Dieses Whitepaper erläutert, warum Datenanonymisierung bislang gescheitert ist – und was das Open Source-Toolkit SmartNoise anders macht.
Daten schützen und Chancen durch KI nutzen
Um Daten zuverlässig nach Datenschutz-Grundverordnung (DSGVO) zu schützen, bietet sich die sogenannte Differential Privacy an. Differential Privacy bedeutet, dass jedem Datensatz und jedem Analyseergebnis eine kleine Menge statistischen Rauschens hinzugefügt wird.
Das Rauschen ist signifikant genug, um die Privatsphäre einer Person zu schützen, aber immer noch klein genug, um die Genauigkeit der extrahierten Antworten nicht wesentlich zu beeinträchtigen.
Untersucht man zum Beispiel das Verhalten eines Bundeslandes bei einer Internetsuche, addiert oder subtrahiert man Suchende aus einem kleinen Gebiet in dem Bundesland, um für das Rauschen zu sorgen. Die Trends in der Analyse bleiben erhalten, doch detaillierte Rückschlüsse auf eine kleine Personengruppe werden deutlich erschwert.
Zusätzlich wird bei Differential Privacy jedem Datensatz ein "Datenschutzbudget" zugeordnet. Bei jeder Analyse dieses Datensatzes wird die Menge an Informationen berechnet, die aus der Analyse hervorgehen, und von diesem Budget abgezogen. Ist es aufgebraucht, sind keine weiteren Abfragen möglich. Diese Sicherung verhindert, dass Analysen zu viele Daten preisgeben, welche die Privatsphäre einer Person gefährden könnten.
Differential Privacy wurde von Microsoft Research entwickelt und wird zum Beispiel von Forschern der Princeton-Universität als Goldstandard für den Schutz der Privatsphäre bezeichnet.
Differential Privacy lässt sich frei in KI-Anwendungen und innovative Datenanalysen integrieren. Die Werkzeuge zur Nutzung von Differential Privacy sind als Open Source frei verfügbar und stehen als Toolkit SmartNoise zur Verfügung.
Wie Differential Privacy in der Praxis funktioniert
Differential Privacy ist bei Microsoft im Einsatz, um die Privatsphäre der Benutzer in Anwendungen zu schützen, darunter Diagnosedaten in Windows und vorgeschlagene Antworten auf E-Mails in Outlook.
Mehr Details zur Praxis von Differential Privacy erläutert dieses 8-minütige Video aus der Serie "AI - The Show":
Ein Werbetreibender kann dank Differential Privacy auf LinkedIn herausfinden, welche Artikel von Softwareentwicklern oder Mitarbeitern eines bestimmten Unternehmens gelesen werden. Er kann jedoch nicht feststellen, welche einzelnen Benutzer die Artikel gelesen haben.
Eine weitere Anwendung sind Manager-Dashboards in Workplace Analytics. Das Tool ermöglicht es Unternehmen, die Metadaten in Online-Diensten wie Exchange,
Microsoft Teams oder SharePoint für die Lösung strategischer oder organisatorischer Herausforderungen in der täglichen Arbeit zu nutzen. Konkret zeigt Workplace Analytics beispielsweise auf, welche Teams häufig miteinander kommunizieren, wo im Unternehmen die Kommunikationsstränge verlaufen, wie die Zusammenarbeit aus organisatorischer Perspektive funktioniert und womit welches Team wie viel Zeit verbringt. Das kann beispielsweise bei der Raumplanung hilfreich sein: Führungskräfte können so identifizieren, welche Teams räumlich nah beieinandersitzen sollten, um den täglichen Austausch zu vereinfachen.
Workplace Analytics wertet dabei weder die Inhalte der Kommunikation noch eventuelle Dateianhänge aus. Die Datenanalyse erfolgt anhand von deidentifizierten und aggregierten Daten. Durch Differential Privacy lassen sich dabei keine Rückschlüsse auf Verhaltensmuster der einzelnen Beschäftigten ziehen.
KI und Datenschutz zusammenbringen
Mit SmartNoise bietet Microsoft Tools und Technologien, die es ermöglichen, einzelne Informationen zu schützen und gleichzeitig Datenanalysen und KI datenschutz-konform zu nutzen. So lassen sich die Vorgaben der Datenschutz-Grundverordnung zuverlässig umsetzen.
Es gibt auch KI-Dienste aus der Cloud mit eingebautem Datenschutz. Wie solche so genannten Confidential AI Services den Weg zu einer datenschutzgerechten KI-Nutzung ebnen, erfahren Sie in diesem Beitrag.
Weitere Informationen zum Datenschutz in der Praxis bietet das KI-Webinar von Microsoft. Diskutiert werden dabei auch ethische Fragen, zum Beispiel, wie eine Maschine transparente und faire Entscheidungen treffen kann.
Alle Artikel aus Sicherheit
Neue Risiken erfordern neue Antworten. Diese Technologien und Konzepte bringen Sie auf den neuesten Stand.