Guten Tag, mein Name ist Thomas Langkabel.
Ich arbeite bei Microsoft Deutschland und
bin für Technologiethemen zuständig, übergreifend
über viele Produkte, über die breiteren
Trends, über die Zukunftsperspektiven von
Technologie und in diesem
Zusammenhang beschäftige
ich mich schon seit einiger Zeit mit dem Thema
Künstliche Intelligenz und was das für Wirtschaft,
für Gesellschaft bedeutet.
Ich glaube es ist wichtig, dass wir dazu kommen,
dass wir nicht nur über Werte und Ethik diskutieren
– was sicherlich nötig und richtig ist
– sondern tatsächlich auch zu konkreten
Umsetzungsmaßnahmen.
Das heißt was machen wir denn jetzt eigentlich
mit den Erkenntnissen, die wir aus diesen
Diskussionen gewinnen?
Ich persönlich finde es extrem wertvoll,
dass uns Künstliche Intelligenz mittlerweile
dazu herausfordert uns viel mehr als bisher
mit unseren Werten auseinanderzusetzen, mit
Entscheidungen, unter denen wir bislang vielleicht
elegant hinwegtauchen konnten, weil wir sagen
diese Informationsflut kann ein Mensch nicht
bewältigen, er kann nicht schnell genug reagieren.
Jetzt plötzlich haben wir mit den Instrumenten
von Künstlicher Intelligenz die Möglichkeiten
mit kognitiven Diensten, mit Massendaten,
mit Echtzeit-Massendatenverarbeitung viel
zeitlich situativer reagieren zu können und
handeln zu können und wir müssen jetzt Entscheidungen
über Entscheidungswege bereits im Vorfeld
von dem Systemdesign treffen, um zu sagen:
Was erwarten wir denn eigentlich, was aus
so einem System herauskommt?
Wir beschäftigen uns bei Microsoft schon
seit einigen Jahren mit diesen Herausforderungen.
Auch unsere Kollegen von Microsoft Research,
zu denen nicht nur Engineers und Entwickler
gehören, sondern auch Forscher und Forscherinnen,
die im Bereich Sozio-Technik unterwegs sind,
das heißt ganz genau untersuchen, welche
Auswirkungen neue Technologien auf die Gesellschaft
haben und wir haben dort für uns selber,
weil es bisher ja wenig, oder keine gültige
internationale Regulierung oder Zertifizierung
oder Rahmenpläne gibt, überlegt: Nach welchen
Regeln wollen wir arbeiten?
Was sind die Leitplanken, die wir uns bei
Microsoft setzen, wenn über wir über Künstliche
Intelligenz reden?
Wir haben uns dort sechs Prinzipien aufgestellt,
nach denen wir handeln.
Dies ist zum einen das Thema Fairness, das
heißt Künstliche Intelligenz muss alle Menschen
fair behandeln, darf nicht diskriminieren
und Menschen ausschließen.
Das ist keine leichte Aufgabe, das dann auch
in solchen Systemen zu implementieren.
Sie muss zuverlässig arbeiten, darf Menschen
nicht gefährden, also das Thema Zuverlässigkeit
und Schutz ist ein wichtiger Aspekt.
Dann das Thema Sicherheit, IT-Sicherheit und
Datenschutz.
Künstliche Intelligenz lebt von Daten.
Ohne große Datenmengen kann man heute keine
künstlichen Intelligenzsysteme schaffen.
Wo kommen diese Daten her?
Wo werden sie aufbewahrt?
Wie werden sie geschützt?
Ein ganz wichtiger Aspekt im Bereich Künstliche
Intelligenz.
Dann das Thema Transparenz natürlich.
Das heißt wie ist so ein System überhaupt
aufgebaut?
Wer hat es entwickelt?
Wie ist es zustande gekommen?
Was waren die Ausgangsdaten, die gewählt
wurden?
Wie sind Überprüfungen vorgenommen worden
zu den Ergebnissen?
Dann das Thema Inklusion.
Künstliche Intelligenzen dürfen nicht nur
funktionieren für Menschen ohne Behinderung,
sondern ganz bewusst für alle.
Ich gebe ein Beispiel: Sie haben sicher schon
einmal wahrgenommen, dass gehörlose Menschen
eine andere Art von Sprache haben.
Sie sind ja nicht sprachlos, sie sind ja nur
gehörlos, das heißt sie können sich ja
durchaus ausdrücken, aber es geht in einer
anderen Tonlage.
Auch KI-Systeme müssen in der Lage sein,
damit umzugehen, wenn es etwa um Spracherfassung
geht, wenn es um Übersetzungen, wenn es um
automatische Untertitelung geht.
Das ist ein Beispiel für den Bereich Inklusion.
Und der letzte Bereich natürlich Verantwortlichkeit,
das heißt sicherzustellen, dass in solchen
KI-Systemen klar geregelt ist, wer haftet
dafür, wer ist verantwortlich, dass ein System
so zustande kommt, an wen kann man sich wenden,
wenn das System nicht so funktioniert wie
es funktionieren soll.
Diese sechs Prinzipien legen wir für uns
selbst zugrunde.
Die EU-Kommission hat in ihrem Whitepaper
von Februar ähnliche Prinzipien formuliert,
die in diese Richtung gehen.
Ich glaube es ist wichtig, dass wir gerade
auch als Hersteller von Werkzeugen und Plattformen
uns mit solchen Dingen auseinandersetzen.
Und dann ist es eben wichtig, dass man es
nicht auf einer theoretischen Ebene macht,
sondern ganz konkret sagt: Was heißt das
jetzt für Projekte, für Umsetzungsprojekte,
für Entwicklungen, die man vornimmt und dann
einen Lebenszyklus implementiert, um dann
zu sagen wir laufen durch eine Phase wo die
Projektideen entwickelt werden, wo Prototyping
gemacht wird, wo die eigentliche Entwicklung
stattfindet, wo dann das Deployment stattfindet,
wo die Auslieferung stattfindet, wo dann Überprüfungen
stattfinden.
All diese Projektphasen müssen bewusst begleitet
werden, dadurch, dass man sich eben auch Werte
– oder Messwerte – setzt, wie ich denn
diese eben beschrieben Prinzipien erreichen
und umsetzen möchte.
Also beispielsweise das ich klar definiere,
dass ich in der Entwicklung alle Stakeholder
beteilige, die relevant sind oder betroffen
sein könnten von so einem KI-Projekt.
Dass ich mir sehr strukturiert angucke wo
kommen die Daten her?
Sind sie geeignet das System zu trainieren?
Dass ich mir möglicherweise eine Third Party,
also eine dritte Partei, mit ins Boot hole,
die noch einmal das Vorgehen und ähnliches
überprüft.
All das sind Dinge, die wir in unseren Projekten
vorgeben als Maßnahmen, die für unsere eigenen
Produktentwicklungen gelten.
Wir haben kaum noch Produkte, die aktuellen
Produkte, in denen wir nicht in irgendeiner
Weise KI-Elemente zum Einsatz bringen – und
ich meine damit jetzt nicht „predictive“
irgendwas… – sondern tatsächlich naheliegende
Dinge wie zum Beispiel eine Echtzeit-Untertitelung
oder die Designvorschläge in Powerpoint Präsentationen
oder Hinweise zur Gewährleistung von Accessibility,
wenn es darum geht Bilder in Dokumente einzuarbeiten.
Also sehr irdische Alltags-KI, die schon zum
Einsatz kommt.
Aber auch dort müssen wir uns sehr genau
mit den gleichen Prinzipien auseinandersetzen.
Das waren so ein paar Gedanken, die ich zum
Thema verantwortungsvoller Umsatz mit Künstlicher
Intelligenz teilen möchte und mein Appell
ist, dass man sich sehr genau überlegt, wie
und in welchen Projekten man mit solchen Prinzipien,
vielleicht auch mit eigenen Prinzipien, die
man zugrunde legt, KI zum Erfolg macht.
Die Potenziale von Künstlicher Intelligenz
in nahezu allen gesellschaftlichen Bereichen
sind riesig, aber wir werden sie nur nutzen,
wenn wir einen verantwortungsvollen Umgang
damit gestalten können.
Vielen Dank.
