Künstliche Intelligenz (KI) – im englischen Sprachraum besser bekannt unter dem Begriff Artificial Intelligence (AI) – gilt als die Technologie der Zukunft, um in vielen Bereichen modern gestalteter Gesellschaften die Menschen zu entlasten. Einige Beispiele für die Anwendung von KI-Technologie, die sich daraus ergebenden Vorteile und die damit einhergehenden Risiken möchten wir Ihnen in diesem Artikel näher erläutern. Dabei gehen wir vor allem der Frage nach, was starke und schwache KI ist und welche Arten von Künstlicher Intelligenz es gibt. Wir gehen außerdem auf Unterformen der künstlichen Intelligenz ein und erläutern, wie KI und Machine Learning (ML) bzw. Deep Learning zusammenhängen.
Als Künstliche Intelligenz (KI) bzw. Artificial Intelligence (AI) wird die Fähigkeit von Maschinen bezeichnet, wie ein Mensch selbstständig beobachten, denken und reagieren zu können. Als Grundlage für die Existenz von Künstlicher Intelligenz dient dabei die Vorstellung, dass sich die menschliche Intelligenz in exakte Fähigkeiten aufschlüsseln lässt, um anschließend durch programmierte Computer nachgeahmt werden zu können. Künstliche Intelligenz ist somit als ein Oberbegriff zu verstehen, der ein breites Spektrum von Konzepten und Technologien beschreibt – einschließlich Maschinelles Lernen (ML). KI und Machine Learning werden häufig synonym verwendet. Allerdings handelt es sich bei ML nur um einen Teilbereich von Künstlicher Intelligenz.
Was zählt zu KI?
Künstliche Intelligenz einfach erklärt, besteht diese aus vielen Teilgebieten, in denen Techniken und KI-Technologie zur Nachahmung bestimmter Verhaltensweisen eingesetzt werden. Und die wir mit natürlicher menschlicher Intelligenz verbinden. So können Menschen beispielsweise nicht nur eine Sprache sprechen, sondern ebenso hören, lesen und schreiben, um aus den einzelnen Wörtern und Sätzen einen Sinn zu ziehen. Die Bereiche natürliche Spracherkennung und Sprachverarbeitung ahmen eben jene Fähigkeiten nach, indem mithilfe von Künstlicher Intelligenz die verschiedenen Audiosignale erst in Text umgewandelt und anschließend verarbeitet werden, um dessen Bedeutung zu erfassen.
Andere Teilbereiche der Künstlichen Intelligenz sind der Aufbau künstlicher Systeme, die in erster Linie mit Hilfe von KI-Technologie menschliche Verhaltensweisen nachahmen wie zum Beispiel die Fähigkeit, sich durch die uns umgebende, physische Umwelt zu bewegen (Robotik bzw. Robotics), visuelle Informationen zu sehen und zu verarbeiten (maschinelles Sehen bzw. Computer Vision) und Objekte zu identifizieren und zu kategorisieren (Mustererkennung bzw. Pattern Recognition). In unserer modernen Welt gibt es viele Anwendungsmöglichkeiten für KI-Algorithmen und unzählige Forschungsprojekte, die den Einsatz von Künstlicher Intelligenz und KI-Technologie ständig neu erforschen.
Wann ist KI entstanden?
Der Informatiker John McCarthy gilt als Vater der Künstlichen Intelligenz und hat die KI-Entwicklung maßgeblich vorangetrieben. 1955 prägte er den Begriff der KI und schrieb mit LISP eine der ersten KI-Programmiersprachen überhaupt. Aber er war nicht der Erste, der die Möglichkeit künstlicher Intelligenz in den Raum stellte.
Konzepte künstlicher Intelligenz waren in der Science Fiction seit Beginn des 20. Jahrhunderts im Umlauf. Doch erst mit der Inbetriebnahme der ersten speicherprogrammierten Computer 1949 wurden die Voraussetzungen für die Realisierung von KI und KI-Technologie geschaffen. Innerhalb weniger Jahre stellten Wissenschaftler und Gelehrte die Theorie auf, dass Computer in der Lage sein könnten, über die Verarbeitung nach logischen Regeln hinaus tatsächlich zu „Denkmaschinen“ zu werden und KI-Algorithmen durchführen zu können.
Eine der bemerkenswertesten Personen der KI-Entwicklung war der englische Mathematiker Alan Turing, der in seinem 1950 erschienenen Aufsatz „Computing Machinery and Intelligence“ eine Methode zur Prüfung der Intelligenz von Maschinen vorschlug, die als „Turing-Test“ bekannt geworden ist. Fünf Jahre später schufen Herbert Simon, Allen Newell und John Shaw mit Logic Theorist das erste Programm, das die Fähigkeiten eines Menschen zur Problemlösung nachahmen sollte.
Bis John McCarthy den Begriff der „Künstlichen Intelligenz“ bzw. der „Artificial Intelligence“ in einem Projektantrag für eine Forschungskonferenz zu diesem Thema niederschrieb, war das, was wir heute allgemein unter KI bzw. KI-Technologie verstehen, ein noch nicht festgelegtes Feld. McCarthy änderte all dies, als er in seinem Antrag Folgendes schrieb: „Die Studie soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die aktuell dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern.“
Eine der bemerkenswertesten Personen der KI-Entwicklung war der englische Mathematiker Alan Turing, der in seinem 1950 erschienenen Aufsatz „Computing Machinery and Intelligence“ eine Methode zur Prüfung der Intelligenz von Maschinen vorschlug, die als „Turing-Test“ bekannt geworden ist. Fünf Jahre später schufen Herbert Simon, Allen Newell und John Shaw mit Logic Theorist das erste Programm, das die Fähigkeiten eines Menschen zur Problemlösung nachahmen sollte.
Bis John McCarthy den Begriff der „Künstlichen Intelligenz“ bzw. der „Artificial Intelligence“ in einem Projektantrag für eine Forschungskonferenz zu diesem Thema niederschrieb, war das, was wir heute allgemein unter KI bzw. KI-Technologie verstehen, ein noch nicht festgelegtes Feld. McCarthy änderte all dies, als er in seinem Antrag Folgendes schrieb: „Die Studie soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die aktuell dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern.“
Es mag seltsam klingen, aber die Artificial Intelligence (AI) bzw. Künstliche Intelligenz (KI) kann und wird in Zukunft genauso viel leisten, wie man ihr eben zugestehen will und wie weit die eigene Fantasie reicht. Soll heißen: Die Einsatzmöglichkeiten sind enorm vielfältig und abhängig davon, inwieweit der Mensch sowohl KI-Technologien als auch KI-Algorithmen bei der Bewältigung tagtäglicher Aufgaben und sich wiederholender Abläufe möglichst sinnvoll einbinden möchte. Als wichtigster Maßstab zählt dabei immer, inwiefern Künstliche Intelligenz humane Ressourcen entlastet – egal in welchem Bereich unserer Gesellschaft oder der Wirtschaft. So wird Künstliche Intelligenz in Zukunft wohl dazu beitragen, dass sich Autos wie von Geisterhand gesteuert durch die Straßen bewegen, Roboter im Gesundheitswesen die eigenständige Versorgung und Überwachung der Patienten übernehmen bzw. wichtige Aufgaben auf dem Gebiet der Forschung erfüllen und Maschinen eigenständig dabei helfen, komplexe Prozesse vollautomatisiert zu steuern und einzelne Arbeitsschritte bis ins Detail zu optimieren.
Bereits heute ist Künstliche Intelligenz in der Lage, eigenständig Sprache zu verarbeiten, riesige Datenmengen zu analysieren und komplexe Verhaltensmuster zu erkennen. Hierfür bietet Splunk die unterschiedlichsten Tools und Services, um KI bzw. KI-Technologien möglichst effektiv in vorhandene Prozesse einzubetten. Durch diese Fähigkeiten ist Künstliche Intelligenz heute schon in der Lage, elektronische Geräte ganz einfach per Sprachbefehl zu steuern, Türen via Gesichtserkennung zu öffnen und komplexe Produktionsprozesse deutlich effizienter zu gestalten. Gleichzeitig können KI-Technologien aber auch Betrugsversuche im E-Commerce abgewehrt, Prognosen im Finanzbereich erstellt, perfekt zugeschnittene Online-Werbung ausgespielt oder mithilfe intelligent vernetzter Technologien die heimische Heizungs- und Stromanlage gesteuert werden.
Der Einsatz von Künstlicher Intelligenz bzw. von KI-Technologien verspricht in vielerlei Hinsicht zahlreiche Vorteile. In Zukunft dürfte deren Einsatz von KI aber vor allem zu einer grundlegenden Geschäftsanforderung gehören. Denn in erster Linie können (weitestgehend) autonom agierende Roboter bzw. Systeme und KI-Technologien dabei helfen, wichtige Entscheidungen datenbasiert zu treffen, vorhandene Prozesse gezielt zu optimieren, Ressourcen zu schonen und die Betriebskosten nachhaltig zu senken. In erster Linie sorgt KI-Technologie aber für zufriedenere Kundenbeziehungen, weniger Produktionsausfallzeiten und eine insgesamt bessere Arbeitsproduktivität.
Auch die Verbesserung der Funktionalität oder Leistungsfähigkeit von Produkten bzw. die Entwicklung völlig neuer Innovationen kann durch den Einsatz von KI bzw. KI-Algorithmen vorangetrieben werden. Auch wenn immer wieder Ängste geschürt werden, der Faktor Mensch könne in Zukunft vielleicht nur noch eine untergeordnete Rolle spielen (lesen Sie dazu unbedingt unser E-Book „5 Große Mythen um KI und Machine Learning – Widerlegt“), am Ende überwiegen doch jedes Mal die zahlreichen Vorteile der Künstlichen Intelligenz:
Kostengünstiger: KI-Technologie mag unter Umständen hohe Anschaffungskosten verursachen, bietet auf lange Sicht gesehen aber enorme Kostenvorteile, da Ausgaben vermieden werden können, die ohne die Nutzung von Künstlicher Intelligenz auftreten würden.
Genauer: Maschinen, die mithilfe Künstlicher Intelligenz arbeiten oder auf Basis von KI-Algorithmen gesteuert werden, sind in der Regel präziser als der Mensch – und dass unabhängig von der jeweiligen Einsatzdauer und der Art der zu erledigenden Arbeit.
Vorausschauender: Durch die fortlaufende Analyse und umgehende Auswertung unterschiedlichster Daten kann die Künstliche Intelligenz eigenständig Prognosen erstellen und auf Basis dessen zum Beispiel eine Maschine warten lassen, um unnötige Ausfälle im Vorhinein zu verhindern.
Zuverlässiger: Menschen machen Fehler. Demgegenüber erledigt KI-Technologie seine Aufgaben kontinuierlich und exakt gemäß den programmierten Vorgaben – sofern die KI-Algorithmen erst einmal korrekt definiert wurden. Das Ergebnis ist vor allem konstante Qualität.
Schneller: Unsere kognitiven Kapazitäten sind beschränkt. Demgegenüber ist Künstliche Intelligenz in der Lage, etwaige Muster in sich wiederholenden Prozessen innerhalb kürzester Zeit zu erkennen. Somit braucht KI-Technologie weitaus weniger Zeit, um bspw. eine Diagnose zu erstellen oder Betrugsversuche zu identifizieren.
Selbständiger: Einmal programmiert, brauchen Maschinen für ausgewählte und sich wiederholende Aufgaben im Grunde genommen kaum noch beaufsichtigt werden. Indem die Künstliche Intelligenz ständig dazulernt, kann die KI-Technologie einen Algorithmus nicht nur zuverlässig und ganz nach Vorschrift erledigen, sondern bei etwaig auftretenden Fehlern auch korrigierend reagieren.
Wie bereits erwähnt werden die Begriffe „Künstliche Intelligenz“ und „Machine Learning“ bzw. „Deep Learning“ fälschlicherweise häufig synonym gebraucht. Es stellt sich nun also die Frage, was ist der konkrete Unterschied zwischen Maschinellem Lernen (ML) bzw. Deep Learning (DL) und Künstlicher Intelligenz (KI)?
Während KI das große Ganze beschreibt, bezieht sich der Begriff des Maschinellen Lernens nur auf einen Teilbereich der Künstlichen Intelligenz. Denn beim sogenannten Machine Learning handelt es sich lediglich um eine KI-Anwendung, die es Computern ermöglicht, aus Erfahrungen zu lernen und die Leistung bestimmter Aufgaben zu verbessern. Darüber hinaus stellt ML sicher, dass Computer entsprechende Daten analysieren und statistische Verfahren anwenden können. Immer mit dem Ziel, auf Basis der Auswertungen etwas zu lernen und Prozessabläufe langfristig zu optimieren. Hierfür wird Machinelles Lernen häufig in zwei Gruppen unterteilt: „überwacht“ (bzw. „supervised“) und „unüberwacht“ (bzw. „unsupervised“). Beim Deep Learning (DL) handelt es sich hingegen um eine Disziplin des Maschinellen Lernens, bei der künstlich-neuronale Netze als Adäquat zu biologisch-neuronalen Netzen zum Einsatz kommen.
Was ist überwachtes Machine Learning?
Beim überwachtem Machine Learning (Supervised Machine Learning) lenkt ein Data Scientist einen KI-Algorithmus durch den Lernprozess. Hierfür stellt der Data Scientist dem KI-Algorithmus entsprechende Trainingsdaten zur Verfügung, die sowohl Beispiele als auch spezifische Soll-Ergebnisse für jedes Beispiel umfassen. Dann entscheidet der Data Scientist, welche Variablen analysiert werden sollen und gibt Feedback zur Genauigkeit der Prognosen des Computers. Nach intensivem Training (oder Überwachung) ist der Computer in der Lage, die Trainingsdaten gezielt zu nutzen und das Ergebnis neu empfangener Daten vorab zu prognostizieren.
Was ist unüberwachtes Machine Learning?
Bei unüberwachtem Machine Learning (Unsupervised Machine Learning) erhalten Algorithmen entsprechende Trainingsdaten, aber keine bekannten Ergebnisse zum Vergleich. Stattdessen werden Daten analysiert, um zuvor unbekannte Muster zu entdecken. Unüberwachte KI-Algorithmen können ähnliche Daten bündeln, Anomalien innerhalb eines Datensets erkennen und Muster finden, bei denen verschiedene Datenpunkte korrelieren.
Bei teilüberwachten Machine Learning-Algorithmen (Semi-Supervised Machine Learning Algorithms) handelt es sich, wie der Name schon sagt, um eine Kombination aus klassifizierten und unklassifizierten Trainingsdaten. Die Verwendung einer kleinen Menge klassifizierter Trainingsdaten verbessert dabei die Vorhersagegenauigkeit erheblich und reduziert gleichzeitig den Zeit- und Kostenaufwand für die Klassifizierung großer Datenmengen.
Um KI-Technologien erfolgreich im Unternehmen etablieren zu können, sollte man sich über die wichtigsten Einsatzgebiete und Grundlagen von Künstlicher Intelligenz im Klaren sein. Nur wer die spezifischen Unterschiede zwischen den verschiedenen Spielarten der KI kennt und sich über deren möglichen Anwendungsbereiche informiert hat, kann KI und die in diesem Zusammenhang verwendeten KI-Technologien auch gezielt und vor allem sinnvoll in bestehende Prozesse mit einbinden. Grundsätzlich wird dabei zwischen starker und schwacher KI unterschieden. Denn auch wenn Künstliche Intelligenz das menschliche Denken und Handeln in vielen Bereichen mittlerweile erreicht oder sogar übertrifft, stoßen KI genauso wie auch deren KI-Technologien noch immer regelmäßig an ihre Grenzen.
Was ist schwache KI?
Schwache KI (auch „enge KI“ bzw. „Narrow AI“ genannt) wird verwendet, um auf der Grundlage von Programmieralgorithmen menschenähnliche Reaktionen auf Eingaben zu erzeugen. Schwache KI-Tools erbringen keine wirkliche Denkleistung. Doch das scheint nur so. Sprachaktivierte persönliche Assistenten wie Siri, Cortana und Alexa sind bekannte Beispiele für eine schwache KI. Wenn man solchen KI-Technologien eine Frage stellt oder eine Anweisung gibt, hört deren vermeintlich schwache Künstlichen Intelligenz auf akustische Hinweise im Gesagten und folgt dann einer Reihe programmierter Schritte, um die richtige Antwort zu generieren. Allerdings „versteht“ die schwache KI die gesprochenen Worte oder ihre Bedeutung im weitesten Sinne nicht. Dafür braucht es starke künstliche Intelligenz.
Ist starke KI möglich?
Als starke KI bzw. „Strong AI“ bezeichnet man Systeme, die selbst denken können. Doch solche KI-Systeme können noch weitaus mehr: Neben der Fähigkeit zu lernen, zu planen und zu kommunizieren, kann die starke KI auch Einschätzungen treffen und ein gewisses Maß an Bewusstsein besitzen. Im Wesentlichen ahmt die starke KI die menschliche Intelligenz nicht nach, sondern besitzt – so zumindest in der Theorie – eine eigene Intelligenz. Wenn wir die Architektur und Funktion des menschlichen Gehirns replizieren können, glauben Experten, dass wir Maschinen mit echten kognitiven Fähigkeiten und einer starken künstlichen Intelligenz bauen können. Im KI-Teilbereich Deep Learning nutzen Wissenschaftler neuronale Netze, um Computern beizubringen, autonomer zu agieren. Doch wir sind noch immer weit davon entfernt, Arten unabhängiger Künstlicher Intelligenz wie in Science-Fiction-Romanen und SciFi-Filmen zu entwickeln. Die KI-Entwicklung schreitet zwar rapide voran, doch momentan ist echte starke KI noch immer eher Philosophie als Realität.
Was sind Expert Systems (Expertensysteme)?
Neben der starken und schwachen KI existieren auch noch sogenannte Expertensysteme. Dabei handelt es sich um eine frühe Form von Künstlicher Intelligenz, welche auf die 1970er Jahre und die Anfänge der KI zurückgeht. Ein sogenanntes Expert System unterstützt den Menschen bei der Lösung von komplexen Problemen, indem es die Entscheidungsfindung auf menschlicher Ebene nachahmt und Handlungsempfehlungen aus einer Wissensbasis heraus ableitet. Hierfür wird das Problem durch eine Progression von Wenn-dann-Entscheidungen geschleust, um mit Hilfe dieses KI-Algorithmus letztendlich eine Expertenentscheidung zu erhalten. Da sich solche Expertensysteme durch ein Hinzulernen aus externen Daten jedoch nicht schrittweise selbst verbessern können, werden sie zumeist auch nicht als echte Beispiele für KI angesehen.
Sobald physische und virtuelle Technologien miteinander vernetzt werden und interagieren, sprechen wir vom sogenannten „Internet of Things“ – kurz IoT. Kommt nun noch die Künstliche Intelligenz inklusive ihrer KI-Technologien mit hinzu, wird aus dem IoT konsequenterweise eine Artificial Intelligence of Things (AIoT). Besser bekannt auch als Künstliche Intelligenz der Dinge (KIoT). Als Grundlage dient ein digitales Netzwerk, das den Austausch von Informationen und die gezielte Kommunikation untereinander überhaupt erst ermöglicht. Allerdings sind die einzelnen IoT-Geräte (bspw. GPS, Sensoren, Kameras, etc.) nur bedingt in der Lage, die verfügbaren Daten für sich selbst nutzbar zu machen. Hier kommt nun die Künstliche Intelligenz ins Spiel: Denn wird das Internet der Dinge analog zum Menschen als neuronales Nervensystem interpretiert, dann ist die KI quasi das Gehirn, welches sämtliche Funktionen und Prozesse innerhalb des Systems autonom steuert. Mit dem Unterschied, dass es noch einen gewissen Lernfaktor mit einbringt, Daten interpretiert und Muster erkennt – sich also das IoT-System mit Hilfe von Künstlicher Intelligenz und KI-Technologie zum KIoT- bzw. AIoT-System entwickelt.
Soll heißen: Durch den Einsatz von Künstlicher Intelligenz und KI-Technologie sind die im Netzwerk angeschlossenen Dinge bzw. IoT-Geräte in der Lage, selbst Daten zu analysieren, eigene Entscheidungen zu treffen und Handlungen anzustoßen. Nehmen wir das Beispiel eines smart vernetzten Bürogebäudes, das über eine Vielzahl an Sensoren verfügt. Durch den Einsatz von Künstlicher Intelligenz, KI-Algorithmen und die Implementierung von KI-Technologie innerhalb des Systems kann nun je nach Anzahl der anwesenden Personen die Temperatur in den einzelnen Räumen reguliert werden. Größter Vorteil eines solchen AIoT-Systems ist es, dass sich die einzelnen Elemente bzw. Prozesse ohne Einfluss von außen eigenständig optimieren können. Dadurch ist das gesamte System des AIoT in der Lage, dazuzulernen und sich selbst zu verbessern. Auf diese Weise vermindert sich das Risiko für mögliche Systemausfälle, die Effizienz der gesamten Prozessabläufe wird gesteigert und Kosten werden nachhaltig gesenkt.
Mit DevOps wird ein prozessorientierter Ansatz beschrieben, der zur Verbesserung von Entwicklungs- und Arbeitsabläufen zwischen einzelnen Teams im IT- und Softwarebereich dient. Dabei setzt sich der Begriff aus den beiden Wörtern „Development“ (Dev) für Entwicklung und „IT Operations“ (Ops) für den IT-Betrieb zusammen. Ziel von DevOps ist es, die generelle Zusammenarbeit zwischen den beiden sonst relativ autark voneinander agierenden Bereichen zu optimieren und Entwicklungszyklen von Software-Lösungen, Apps oder digitalen Anwendungen und Websites effizienter zu gestalten bzw. zu beschleunigen.
Kommt bei eben diesen DevOps nun Künstliche Intelligenz bzw. KI-Technologie zum Einsatz, lassen sich neue Anwendungen leichter entwickeln, bereitstellen, einsetzen und verwalten. Darüber hinaus helfen KI-Technologien und KI-Algorithmen aber auch dabei, bestehende Systeme oder neue Software-Lösungen gezielt zu prüfen, zu codieren, freizugeben und zu überwachen. Denn ohne Künstliche Intelligenz müssten sich die Experten mühevoll durch unendliche Datenmengen arbeiten und unzählige Tests durchführen, um bspw. einen bei Inbetriebnahme aufgetretenen Fehler zu finden und erfolgreich zu beseitigen. Künstliche Intelligenz, KI-Technologien und KI-Algorithmen können also maßgeblich dazu beitragen, mögliche Muster in großen Datensätzen zu identifizieren, Informationen aus verschiedenen Quellen zusammenzuführen und eigenständig diverse Software-Tests durchzuführen.
Ebenso sind die Teams dank KI-Technologie und KI-Algorithmen nun in der Lage, auftauchende Fehlermeldungen besser klassifizieren, Anomalien im System früher erkennen, die Fehlerursache umfassend analysieren und wiederholbare Routine- bzw. Wartungsaufgaben automatisieren zu können. All die mit dem Einsatz von Künstlicher Intelligenz mitgebrachten Vorteile tragen also dazu bei, dass sich die Entwicklungs- und Betriebsteams wieder mehr auf das konzentrieren, wofür sie eigentlich zuständig sind: Ein funktionierendes System zum Laufen zu bringen und anschließend auch am Laufen zu halten.
Immer wenn Künstliche Intelligenz oder KI-Technologien zum Einsatz kommen, ergeben sich durch die (voll)automatisierte Übernahme von Handlungen, Aufgaben oder sogar Entscheidungen unzählige Chancen. Zugleich eröffnen sich aber auch neue Herausforderungen und ethische Fragen. Denn gerade weil KI-Technologie den Faktor Mensch in Zukunft zunehmend zurückdrängen könnte, braucht es einen verantwortungsvollen Umgang mit lernenden Systemen und Künstlicher Intelligenz. Hierzu zählen auch entsprechende Rahmenbedingungen für den Einsatz von KI-Technologien und KI-Systemen – sei es was die Integration als solche betrifft oder inwieweit etwaige Fehlfunktionen mit eingeplant werden müssen. Dementsprechend sollten bereits vor der Nutzung bzw. Einbindung von KI immer auch die damit verbundenen rechtlichen, gesellschaftlichen und technischen Folgen im Blick behalten werden.
KI-Systeme einschließlich der darin zum Einsatz kommenden KI-Technologien und KI-Algorithmen sollen in erster Linie menschliche Akteure dabei unterstützen, je nach Kontext die richtigen Entscheidungen zu treffen. Damit Künstliche Intelligenz dazu aber überhaupt in der Lage ist, muss diese seitens der Software-Entwickler und Systembetreiber von Anfang an so gestaltet, programmiert und eingesetzt werden, dass ethische, rechtliche und gesellschaftliche Normen bzw. Werte zu keiner Zeit verletzt werden.
Was ist eine vertrauensvolle KI?
Von einer verantwortungsvollen KI ist immer dann die Rede, wenn deren Einsatz keinerlei Schaden für Einzelpersonen, Gemeinschaften oder auch die Umwelt verursacht. Oder zumindest der erwartbare Nutzen der verwendeten KI-Technologie höher ausfällt als die kalkulierbaren Folgen durch den Schaden selbst, wie es im „Ethik Briefing - Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen“ der Plattform Lernende Systeme empfohlen wird. Mindestens vorausgesetzt wird aber in jedem Fall, dass der Einsatz von KI-Systemen auf einer rechtskonformen und robusten Grundlage beruht, sodass unannehmbare Sicherheitsrisiken jederzeit ausgeschlossen werden können.
Warum ist eine vertrauensvolle KI so wichtig?
Künstliche Intelligenz, KI-Technologien und KI-Algorithmen können in vielerlei Hinsicht für eine willkommene Entlastung sorgen. Gleichermaßen stellen sie uns aber auch vor immer größere Probleme. Denn sobald es bei der Erfassung, Analyse und Verarbeitung sensibler Daten zu folgenschweren Fehleinschätzungen kommt, sind Diskriminierungen – sogenannte BIAS – und anderweitige „Folgeschäden“ nicht mehr weit. Somit gilt es, mögliche Fehlerquellen bereits bei der KI-Entwicklung bzw. im Vorfeld der Integration von KI-Technologien zu verstehen – oder besser gleich ganz zu vermeiden.
Zu möglichen Fehlerquellen zählen:
Verzerrungen und Fehler bei der Datenerfassung im Allgemeinen
Verzerrungen und Diskriminierung (BIAS) bei der Umwandlung von Daten in Entscheidungen auf Basis von Algorithmen
Verzerrungen durch die Verwendung „falscher“ Ergebnisse bzw. Weitergabe von Daten an eine Anwendung/Software-Lösung
Was sind die wichtigsten Aufgaben verantwortungsvoller KI?
Die wichtigste Aufgabe einer verantwortungsvollen KI ist es, Unternehmen jeder Art und Größe dabei zu unterstützen, sowohl ökologisch verträglich als auch sozial gerecht und wirtschaftlich erfolgreich handeln zu können. Zugleich soll durch den ethisch vertretbaren, transparenten und verantwortungsvollen Einsatz von KI-Technologien und KI-Algorithmen sichergestellt werden, dass die Erwartungen der Nutzer mit den Werten und Zielen von Unternehmen auf einen gemeinsamen Nenner gebracht werden können – ohne dass dadurch gesellschaftliche Gesetze und/oder Normen verletzt werden.
Dementsprechend soll bzw. muss verantwortungsvolle Künstliche Intelligenz in erster Linie…:
- …vor der Verwendung voreingenommener Daten oder Algorithmen schützen.
- …sicherstellen, dass automatisierte Entscheidungen gerechtfertigt und erklärbar sind.
- …dabei helfen, das Vertrauen in selbstlernende Systeme zu stärken.
- …jederzeit den Schutz der Privatsphäre gewährleisten.
- …Ergebnisse und Entscheidungen für den Nutzer klar nachvollziehbar machen.
- …zu ethisch legitimen Anwendungen und idealerweise zur Förderung des Gemeinwohls beitragen.
- …Schäden für Einzelpersonen, die Gemeinschaft oder für die Umwelt vermeiden bzw. aktiv verhindern.
- …menschliche Akteure bei der Entscheidungsfindung unterstützen.
Was macht eine verantwortungsvolle KI wirklich aus?
Mit Blick auf die mitzubringenden Eigenschaften von KI und die von KI-Technologien zu erfüllenden Voraussetzungen bzw. Normen kristallisieren sich grundlegende Faktoren heraus, die Künstliche Intelligenz überhaupt erst zu einer verantwortungsvollen KI machen. Denkt also ein Unternehmen über die Integration und den Einsatz von KI-Technologien, KI-Algorithmen oder KI-Systemen nach, sollte es von Anfang folgende Punkte berücksichtigen.
Gleichberechtigung: Beim Einsatz von KI oder KI-Technologie muss sichergestellt sein, dass keinerlei Diskriminierung stattfindet und alle Menschen bzw. Nutzer unvoreingenommen und fair behandelt werden – unabhängig von Alter, Geschlecht, Religion oder sexueller Orientierung.
Transparenz: Es sollte immer eindeutig nachvollziehbar sein, wie eine KI ihre Entscheidungen trifft und anhand welcher KI-Algorithmen entsprechende Daten erfasst, analysiert und verarbeitet werden.
Empathie: Verantwortungsvolle KI sollte den Nutzer immer ganzheitlich betrachten und dessen Bedürfnisse in den Mittelpunkt stellen. Nur so ist es für die KI-Technologie möglich, relevante und hilfreiche Entscheidungen zu treffen.
Robustheit: Ein KI-System bzw. KI-Technologie sollte auch bei sich verändernden (Rahmen-)Bedingungen immer konstant zufriedenstellende Ergebnisse liefern. Hierfür braucht es jedoch entsprechende Schutzmechanismen, Regeln und Leitlinien.
Wertesystem: Eine verantwortungsvolle KI ist immer auch fester Bestandteil der eigenen Werte und Leitlinien eines Unternehmens. Denn nur so lässt sich bei der Konzeption und Entwicklung von KI-Systemen von Anfang an die Erfüllung ethischer wie auch gesetzlicher Vorgaben mitberücksichtigen.
Design: Bei der Gestaltung von KI-Technologien, KI-Algorithmen oder KI-Systemen sollte nicht nur auf die Funktionalität geachtet werden, sondern vor allem auf eine unmittelbar nachvollziehbare Gewährleistung von Datenschutz, Transparenz und Sicherheit.
Monitoring: Auch bei der besten KI muss die Kontrolle und Prüfung festgelegter KI-Algorithmen durch menschliche Akteure möglich sein. Nur so lassen sich etwaige Fehlerquellen erkennen und notwendige Anpassungen vornehmen, um die Erfüllung wertorientierter Richtlinien jederzeit sicherstellen zu können.
Ausbildung: Will ein Unternehmen die Vorteile von KI-Technologie und KI-Algorithmen vollumfänglich nutzen, braucht es entsprechend geschultes, aufgeklärtes und ausgebildetes Personal. Dadurch steigt nicht nur die Akzeptanz gegenüber dem Einsatz von KI-Technologien, sondern wird auch die Funktionsweise von KI-Systemen besser verstanden und können die Mitarbeiter selbst Verbesserungsvorschläge einbringen.
Die oben aufgeführten Grundlagen verantwortungsvoller KI werden von verschiedenen Stellen geteilt. So sind sie unter anderem fester Bestandteil der vom Bundesministerium für Bildung und Forschung geförderten Plattform „Lernende Systeme“ und wurden in deren „Ethik-Briefing: Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen“ festgehalten. Auch Accenture hat die einzelnen Punkte in seinem Leitfaden „RESPONSIBLE AI: A Framework for Building Trust in Your AI Solutions" aufgeführt.
Es gibt Befürchtungen, dass KI intelligente Maschinen schaffen wird, die Menschen Arbeitsplätze wegnehmen. Andere befürchten, dass Maschinen potenziell schädliche Entscheidungen treffen könnten, je besser sie in der Lage sind, ohne menschliche Anleitung selbstständig zu handeln. Elon Musk sagte 2017 vor der U.S. National Governors Association: „Künstliche Intelligenz ist ein grundlegendes Risiko für die Existenz der menschlichen Zivilisation in einer Weise, wie es Autounfälle, Flugzeugabstürze, fehlerhafte Medikamente oder verdorbene Lebensmittel nicht waren – sie waren zwar für eine Reihe von Individuen innerhalb der Gesellschaft schädlich, aber sie waren nicht schädlich für die Gesellschaft als Ganzes.“ In einem Interview mit der BBC aus dem Jahr 2014 sagte der mittlerweile verstorbene Wissenschaftler Stephen Hawking, dass die „Entwicklung einer vollständigen künstlichen Intelligenz das Ende der Menschheit bedeuten könnte“. Andere sagen voraus, dass KI und KI-Technologien das menschliche Leben verbessern werden, indem sich wiederholende und einfache Aufgaben automatisiert werden, sodass Menschen Zeit für angenehmere Aktivitäten haben.
McKinsey rechnet damit, dass 375 Mio. (oder 14 %) der globalen Arbeitnehmer bis 2030 die Beschäftigungskategorie wechseln werden müssen, da sie durch künstliche Intelligenz bzw. deren Arbeit durch KI-Technologien ersetzt wurden. Demgegenüber sagen einige Studien voraus, dass KI auch mindestens genauso viele Arbeitsplätze schaffen wird, wie sie zerstört. Gartner erwartet bis 2025 außerdem einen Nettozuwachs von 2 Mio. Stellen.
Erstens sollten Sie sich fragen, ob die Aufgabe, die Sie bewältigen müssen, so komplex ist, dass sich eine Investition in Machine Learning oder Deep Learning tatsächlich lohnt. Die Bandbreite von Anwendungsmöglichkeiten für KI-Technologien im Unternehmen ist enorm, und der beste Weg, um festzustellen, ob Sie starke und schwache KI einführen sollten, ist die Suche nach ähnlichen Anwendungsfällen bei anderen Unternehmen – sei es in Form kompletter KI-Systeme oder nur einzelner KI-Technologien.
Eine der beliebtesten Einsatzmöglichkeiten von Machine Learning ist die Analyse von Kundendaten, um die Vorlieben, Kaufgewohnheiten und andere Verhaltensweisen eines Kunden bei der Interaktion mit einem Unternehmen zu erfahren. Dies liefert die notwendigen Informationen, um überaus personalisierte Botschaften, Dienstleistungen und Produkte kundenbezogen anbieten zu können – eine Nutzung von Künstlicher Intelligenz, die für viele Unternehmen und Branchen relevant ist.
Im Finanzdienstleistungssektor wird künstliche Intelligenz dafür eingesetzt, die Erkennung von Kreditkartenbetrug zu verbessern. Denn Betrugsmethoden entwickeln sich so schnell, dass selbst die wachsamsten Menschen kaum mithalten können. Machine Learning ermöglicht es Systemen, sich in Echtzeit anzupassen, um neue Betrugsarten schneller und genauer als jeder Mensch zu erkennen. Tatsächlich bietet sich Machine Learning für eine ganze Reihe von Aufgabenstellungen im Bereich Sicherheit und Risikomanagement an, mit leicht zugänglichen Beispielen in der Finanz-, Gesundheits- und anderen Branchen.
Sobald Sie festgestellt haben, dass es sich lohnt, in Machine Learning zu investieren, ist es an der Zeit, Ihre Daten unter die Lupe zu nehmen. Machine Learning erfordert sehr viele Daten, um erfolgreich zu sein. Doch noch wichtiger als die Quantität der Daten ist ihre Qualität. „Saubere Daten sind besser als viele Daten“ ist ein beliebter Grundsatz bei Data Scientists. Daten ohne Struktur und Organisation liefern nicht die notwendigen Geschäftsinformationen, egal wie viele Sie davon haben.
Neue Daten sind eine weitere Anforderung. Angesichts der rasanten Veränderungen in den meisten Branchen können riesige Datenmengen, selbst wenn sie nur wenige Jahre alt sind, keine Relevanz für aktuelle Trends in Ihrem Unternehmen haben und Ihnen wahrscheinlich keinen prognostischen Nutzen bringen.
Überwachtes Lernen zur Vorhersage künftiger betrügerischer Transaktionen mit Hilfe von KI-Technologien
Unternehmen, die anfangen, sich mit Machine Learning zu beschäftigen, sollten zunächst mit überwachtem Lernen beginnen. Mit ihrem einfacheren, gelenkten Trainingsprozess sorgen überwachte Lernanwendungen oft für ein übersichtlicheres KI-Pilotprojekt. Wie bereits erwähnt, erfordert Machine Learning, dass Daten über vorhandene Klassifizierungen verfügen, um auf dieser Basis Vorhersagen treffen zu können. Anhand des obigen Beispiels zum Kreditkartenbetrug könnte eine Bank Daten mit der Klassifizierung „Betrug“ in Verbindung mit anderen Transaktionsdaten verwenden, um künftige betrügerische Transaktionen vorherzusagen. Ohne diese Klassifizierung als Einstieg in den Prozess wird die Machine Learning-Anwendung wesentlich komplexer und nur schleppend Ergebnisse liefern.
Beginnen Sie schließlich mit einer kleinen Datenmenge und einem kurzen Zeitrahmen von etwa zwei Monaten für das Projekt. Formulieren Sie eine Frage zu einem bestimmten geschäftlichen Problem, welche die KI beantworten soll und sammeln Sie dann Feedback zu den Ergebnissen. Auf diese Weise können Sie entscheiden, welchen Nutzen Machine Learning für Ihr Unternehmen hat und bei welchen länger angelegten Projekten Sie es einsetzen können. Neue Daten sind eine weitere Anforderung. Angesichts der rasanten Veränderungen in den meisten Branchen können riesige Datenmengen – selbst wenn sie nur wenige Jahre alt sind – keine Relevanz für aktuelle Trends in Ihrem Unternehmen haben und Ihnen wahrscheinlich keinen prognostischen Nutzen bringen. Unternehmen, die anfangen, sich mit Machine Learning zu beschäftigen, sollten zunächst mit überwachtem Lernen beginnen. Mit ihrem einfacheren, gelenkten Trainingsprozess sorgen überwachte Lernanwendungen oft für ein übersichtlicheres KI-Pilotprojekt.
Wie bereits erwähnt, erfordert Machine Learning, dass Daten über vorhandene Klassifizierungen verfügen, um auf dieser Basis Vorhersagen treffen zu können. Anhand des obigen Beispiels zum Kreditkartenbetrug könnte eine Bank Daten mit der Klassifizierung „Betrug“ in Verbindung mit anderen Transaktionsdaten verwenden, um künftige betrügerische Transaktionen vorherzusagen. Ohne diese Klassifizierung als Einstieg in den Prozess wird die Anwendung von Machine Learning wesentlich komplexer und nur schleppend Ergebnisse liefern.
Beginnen Sie schließlich mit einer kleinen Datenmenge und einem kurzen Zeitrahmen von etwa zwei Monaten für das Projekt. Formulieren Sie eine Frage zu einem bestimmten geschäftlichen Problem, die KI beantworten soll, und sammeln Sie dann Feedback zu den Ergebnissen. Auf diese Weise können Sie entscheiden, welchen Nutzen Machine Learning für Ihr Unternehmen hat und bei welchen länger angelegten Projekten Sie es einsetzen können.
Fazit: Es ist an der Zeit, über KI und KI-Technologien nachzudenken – selbst wenn nicht viele Daten im Unternehmen verfügbar sind.
Kleinunternehmen können KI und KI-Technologien auch dann nutzen, wenn sie nicht über viele unternehmensinterne Daten verfügen. So können z. B. Social-Media-Daten direkt aus ihren Quellen gesammelt und im Handumdrehen analysiert werden. Ähnlich verhält es sich mit einem KI-System, das Immobilienpreise verfolgt und analysiert. Einer überaus beliebten KI-Anwendung in der Immobilienbranche, die diese Daten in der Regel aus öffentlich zugänglichen Quellen bezieht.
Künstliche Intelligenz und Machine Learning sind mehr als „esoterische“ Forschungsprojekte der Informatik an Universitäten wie Stanford und dem MIT. KI-Algorithmen und KI-Technologien können weitaus mehr leisten, als nur Schachweltmeister zu entthronen oder virtuelle persönliche Assistenten zu betreiben. Kognitives Computing sorgt für eine Transformation – vom Gesundheitswesen bis zur Entwicklung autonomer Fahrzeuge. Wenn Sie bisher noch Bedenken haben sollten, mit künstlicher Intelligenz zu experimentieren, keine Panik. KI-Technologie wird immer erschwinglicher und in Zukunft noch leichter zu nutzen sein. Und zwar mit jedem Tag mehr.
Welche Vorteile bietet der Einsatz Künstlicher Intelligenz?
Was ist der Unterschied zwischen Machine Learning, Deep Learning und künstlicher Intelligenz?
Was ist starke und schwache KI?
KIoT bzw. AIoT: Was ist die Künstliche Intelligenz der Dinge?
Welche Bedeutung hat KI für DevOps?
Ethik beim Einsatz von Künstlicher Intelligenz
Deshalb sollten Sie Künstliche Intelligenz und Maschinelles Lernen in Ihrem Unternehmen einsetzen!
Prognosen zu IT & Observability
Gibt es etwas besseres als Überraschungen? Ja, nämlich auf alles vorbereitet zu sein. Unsere Experten verraten, wie das geht - in ihren Prognosen zu den wichtigsten Trends des kommenden Jahres.