Gastbeitrag von Kai Grunwitz
Die vierte industrielle Revolution mit Digitalisierung und Künstlicher Intelligenz führt zu gravierenden gesellschaftlichen und wirtschaftlichen Veränderungen. Unverzichtbar sind politische, ökonomische und ethische Rahmenbedingungen, um einer unkontrollierten Entwicklung vorzubeugen.
Der Künstliche-Intelligenz (KI)-Siegeszug ist nicht mehr aufzuhalten und KI-basierte Lösungen sind schon heute nicht mehr aus dem Alltag wegzudenken. Im Consumer-Bereich lernt Alexa jeden Tag etwas Neues und wird immer smarter, in der Medizin wird KI zur Erkennung von Hautkrebs verwendet, Customer Experience KI analysiert unser Verhalten im Netz, Autos werden immer autonomer und Cyber-Security nutzt KI zur Früherkennung von Angriffen.
Die künstliche Intelligenz betrifft letztlich in unterschiedlicher Form alle Branchen. KI oder spezifische Ausprägungen wie etwa Maschinelles Lernen (ML) sind für verschiedenste Anwendungsszenarien geeignet. In erster Linie werden sie zunächst vor allem in Bereichen genutzt, in denen große Datenmengen analysiert und bewertet werden müssen. KI-Systeme sind besser in der Lage als der Mensch, massive Datenmengen zu analysieren, mit unterschiedlichsten Referenzpunkten zu korrelieren und damit bessere Entscheidungsgrundlagen zu schaffen.
KI und die Arbeitswelt
Die zahlreichen Vorteile KI-basierter Systeme sind inzwischen hinlänglich bekannt und ausreichend beschrieben, zu kurz kommen dabei aber vielfach die damit verbundenen Veränderungen, Gefahren und vor allem auch die Sicherheitsrisiken. So bedeutet KI zunächst einmal für die Arbeitswelt einen signifikanten Wandel, da sie das menschliche Tätigkeitsspektrum beeinflusst. Das heißt, die Arbeitsprofile und Anforderungen werden sich für die Mitarbeiter nachhaltig verändern, gerade in Branchen, in denen verstärkt Maschinen und Roboter zum Einsatz kommen, wie der Fertigungsindustrie.
Ein Großteil der Bevölkerung ist besorgt in Bezug auf die Übernahme von menschlichen Tätigkeiten durch Maschinen und KI. Viele Menschen fragen: „Wie passe ich in die digitale Zukunft, wenn intelligente Roboter meinen Job übernehmen?“ Gerade Menschen der älteren Generation reagieren mit großer Skepsis auf die technologische Entwicklung und zunehmende Nutzung smarter Maschinen. Die technische Weiterentwicklung auf der einen Seite und die Beunruhigung der Bevölkerung auf der anderen Seite machen es zwingend erforderlich, gesellschaftspolitische Initiativen zu ergreifen, in denen bildungspolitische Vorkehrungen und digitalpolitische Strategien entwickelt und umgesetzt werden. An diesem Punkt sind Politik und Industrie gleichermaßen gefordert.
KI und der potenzielle Kontrollverlust
Beim zunehmenden KI-Einsatz sind aber nicht nur die Auswirkungen auf die Arbeitswelt zu thematisieren, sondern es muss vor allem auch die Frage „Was darf KI und was nicht?“ geklärt werden, das heißt „Wie viele Entscheidungsbefugnisse geben wir der KI und einer Maschine?“ Es besteht nämlich durchaus die Gefahr, schnell in Abhängigkeit zu geraten und nicht mehr nachvollziehen zu können, wie eine Maschine oder ein Algorithmus zu einem Ergebnis gekommen ist. Allerdings wird man sich in kritischen Bereichen und bei schnellen Entscheidungsprozessen – etwa bei einer erforderlichen sofortigen Abschaltung eines Kernkraftwerks – künftig wohl auf Informationen einer Maschine verlassen müssen, da die in solchen Fällen notwendigen „komplexen Gedankengänge“ nicht schnell genug nachvollzogen werden können.
Potenziert wird die Gefahr noch durch KI, die ihre Nachfolger selbst und unabhängig von Menschen entwickelt, wie das AutoML-Projekt von Google zeigt. Hier entsteht eine nicht mehr zu kontrollierende Dynamik, die in der Tat beunruhigend ist. Umso mehr muss es ein Gebot der Stunde sein, moralische und ethische Rahmenbedingungen zu schaffen und entsprechende Leitplanken für KI zu setzen.
KI und die Sicherheitsrisiken
Schlussendlich muss beim KI-Einsatz immer auch die Sicherheit thematisiert werden. Und dabei sind mehrere Aspekte zu berücksichtigen. Zunächst erzeugt der KI-Hype vielfach das Gefühl einer Sicherheit, die allerdings nicht unbedingt gegeben ist. Viele Lösungen basieren nach Marketingaussagen auf Machine Learning, selbst wenn nur ein singulärer Algorithmus verwendet wird und dieser oftmals aufgrund der kurzen Time-to-Market nicht genügend ausgetestet und angelernt wurde. Dabei ist festzuhalten, dass im Bereich des Supervised-Learnings die Qualität der Algorithmen von der Art und Weise abhängt, wie die Systeme trainiert werden. Dies wiederum ist abhängig von den ausgewählten Datensätzen und Beispielen. Und ungenügende Datenqualität bedeutet zwangsläufig eine schwache KI, eine schlechte Erkennungsquote und damit eine Scheingenauigkeit und -sicherheit.
Es gibt beispielsweise bereits Fälle, in denen Vorurteile der Vergangenheit dazu geführt haben, dass die KI falsch angelernt wurde und zum Beispiel im Recruiting Maschinen in der Vorauswahl Frauen ausgeschlossen haben. Es wurden einfach die alten Vorurteile der menschlichen Experten übernommen beziehungsweise erlernt. Maschinen sind damit nicht frei von Vorurteilen, sie können in den Algorithmen stecken. Durch richtige Anlernprozesse müssen solche Gefahren ausgeschlossen werden.
KI und die Cyber-Sicherheit
Nicht zuletzt besitzt das Thema KI eine hohe Relevanz für die Cyber-Sicherheit – sowohl positiv als auch negativ. Generell sind KI und Machine Learning aus der Cyber-Security nicht mehr wegzudenken, da sie für die Früherkennung von Cyber-Angriffen eine signifikante Erleichterung sind. Die Analyse der enormen Datenmengen, die für die Identifizierung von Angriffen beziehungsweise Auffälligkeiten notwendig sind, kann durch KI-gestützte Systeme deutlich effizienter als auf traditionellen Wegen realisiert werden. Gerade in sogenannten Security-Operation-Centern (SOC) können dadurch eine Vielzahl von Routinetätigkeiten und Datenanalysen durch Maschinen erledigt werden, sodass die Security-Experten sich auf kritische Problemfälle fokussieren können. Hier gilt ebenso zu beachten, dass Machine Learning nicht gleich Machine Learning ist. Zum Teil sind aufgrund einer schwachen Datenbasis die Algorythmen nur unzureichend angelernt und erkennen Angriffe eventuell nicht. Es gilt für die Nutzer kritisch den Hype bei Cybersecurity Lösungen zu hinterfragen.
Zudem sollte die Gefahr nicht unterschätzt werden, dass Cyber-Kriminelle KI zur Vorbereitung gezielter Angriffe nutzen. Sie könnten etwa massive Datenvolumina aus sozialen Netzen und anderen Quellen auswerten, um Phishing-Angriffe zu starten. Kein Mensch kann so viele Daten parallel analysieren, um Spear-Phishing-Angriffe über präparierte Webseiten oder Mails zu generieren. Die KI wird hier zum Handlanger der Kriminellen.
Unternehmen wie Gesellschaft stehen zwar hinsichtlich KI- und ML-Nutzung noch immer am Anfang des Veränderungsprozesses. Allerdings sind die mit KI verbundenen gravierenden gesellschaftlichen und wirtschaftlichen Auswirkungen schon heute klar erkennbar. Gefordert sind deshalb – und zwar hier und jetzt – Politik und Wirtschaft, die adäquaten Rahmenbedingungen zu schaffen, um auch für die zukünftigen Generationen die richtigen Weichen zu stellen.
Weiterführende Informationen zum Unternehmen unter:
NTT Security