Künstliche Intelligenz gilt als die Technologie der Zukunft, um in vielen Bereichen modern gestalteter Gesellschaften die Menschen zu entlasten. Einige Beispiele für die Anwendung von KI und die sich daraus ergebenden Vorteile, aber auch die mit Künstlicher Intelligenz einhergehenden Risiken, möchten wir Ihnen in diesem Artikel näher erläutern.
Als Künstliche Intelligenz (KI) wird die Fähigkeit von Maschinen bezeichnet, wie ein Mensch selbstständig beobachten, denken und reagieren zu können. Als Grundlage für die Existenz von Künstlicher Intelligenz dient dabei die Vorstellung, dass sich die menschliche Intelligenz in exakte Fähigkeiten aufschlüsseln lässt, um anschließend durch programmierte Computer nachgeahmt werden zu können. Künstliche Intelligenz ist somit als ein Oberbegriff zu verstehen, der ein breites Spektrum von Konzepten und Technologien beschreibt. Einschließlich dem Machine Learning (Maschinelles Lernen, ML). Einem Begriff, der zwar häufig synonym für „Künstliche Intelligenz“ verwendet wird, aber im Grunde genommen nur ein Teilbereich von KI ist.
Die Künstliche Intelligenz besteht aus vielen Teilgebieten, in denen Techniken zur Nachahmung bestimmter Verhaltensweisen eingesetzt werden. Und die wir mit natürlicher menschlicher Intelligenz verbinden. So können Menschen beispielsweise nicht nur eine Sprache sprechen, sondern ebenso hören, lesen und schreiben, um aus den einzelnen Wörtern und Sätzen einen Sinn zu ziehen. Die Bereiche natürliche Spracherkennung und Sprachverarbeitung ahmen eben jene Fähigkeiten nach, indem mithilfe von künstlicher Intelligenz die verschiedenen Audiosignale erst in Text umgewandelt und anschließend verarbeitet werden, um dessen Bedeutung zu erfassen. Andere Teilbereiche der Künstlichen Intelligenz sind der Aufbau künstlicher Systeme, die in erster Linie menschliche Verhaltensweisen nachahmen, wie etwa die Fähigkeit, sich durch die uns umgebende, physische Umwelt zu bewegen (Robotik bzw. Robotics), visuelle Informationen zu sehen und zu verarbeiten (maschinelles Sehen bzw. Computer Vision) und Objekte zu identifizieren und zu kategorisieren (Mustererkennung bzw. Pattern Recognition).
In unserer modernen Welt gibt es viele Anwendungsmöglichkeiten für KI-Algorithmen und unzählige Forschungsprojekte, die den Einsatz von Künstlicher Intelligenz ständig neu erforschen.
Wer hat künstliche Intelligenz erfunden?
Der Informatiker John McCarthy gilt als Vater der künstlichen Intelligenz. Er hat den Begriff 1955 geprägt und mit LISP eine der ersten KI-Programmiersprachen geschrieben. Aber er war nicht der Erste, der die Möglichkeit künstlicher Intelligenz in den Raum stellte.
Konzepte künstlicher Intelligenz waren in der Science Fiction seit Beginn des 20. Jahrhunderts im Umlauf. Doch erst mit der Inbetriebnahme der ersten speicherprogrammierten Computer 1949 wurden die Voraussetzungen für die Realisierung von KI geschaffen. Innerhalb weniger Jahre stellten Wissenschaftler und Gelehrte die Theorie auf, dass Computer in der Lage sein könnten, über die Verarbeitung nach logischen Regeln hinaus tatsächlich zu „Denkmaschinen“ zu werden.
Eine der bemerkenswertesten Personen war der englische Mathematiker Alan Turing, der in seinem 1950 erschienenen Aufsatz „Computing Machinery and Intelligence“ eine Methode zur Prüfung der Intelligenz von Maschinen vorschlug, die als Turing-Test bekannt geworden ist. Fünf Jahre später schufen Herbert Simon, Allen Newell und John Shaw mit Logic Theorist das erste Programm, das die Fähigkeiten eines Menschen zur Problemlösung nachahmen sollte.
Bis John McCarthy den Begriff „künstliche Intelligenz“ in einem Projektantrag für eine Forschungskonferenz zu diesem Thema niederschrieb, war das, was wir heute unter KI verstehen, ein noch nicht festgelegtes Feld. McCarthy änderte all dies, als er in seinem Antrag Folgendes schrieb: „Die Studie soll von der Annahme ausgehen, dass grundsätzlich alle Aspekte des Lernens und anderer Merkmale der Intelligenz so genau beschrieben werden können, dass eine Maschine zur Simulation dieser Vorgänge gebaut werden kann. Es soll versucht werden, herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu benutzen, Abstraktionen vorzunehmen und Konzepte zu entwickeln, Probleme von der Art, die aktuell dem Menschen vorbehalten sind, zu lösen, und sich selbst weiter zu verbessern.“
Es mag seltsam klingen, aber die Künstliche Intelligenz kann und wird in Zukunft genauso viel leisten, wie man ihr eben zugestehen will und wie weit die eigene Fantasie reicht. Soll heißen: Die Einsatzmöglichkeiten sind enorm vielfältig und abhängig davon, inwieweit der Mensch die KI bei der Bewältigung tagtäglicher Aufgaben und sich wiederholender Abläufe möglichst sinnvoll einbinden möchte. Als wichtigster Maßstab zählt dabei immer, inwiefern Künstliche Intelligenz humane Ressourcen entlastet – egal in welchem Bereich unserer Gesellschaft oder der Wirtschaft.
So wird Künstliche Intelligenz in Zukunft wohl dazu beitragen, dass sich Autos wie von Geisterhand gesteuert durch die Straßen bewegen, Roboter im Gesundheitswesen die eigenständige Versorgung und Überwachung der Patienten übernehmen bzw. wichtige Aufgaben auf dem Gebiet der Forschung erfüllen und Maschinen eigenständig dabei helfen, komplexe Prozesse vollautomatisiert zu steuern und einzelne Arbeitsschritte bis ins Detail zu optimieren.
Bereits heute ist Künstliche Intelligenz in der Lage, eigenständig Sprache zu verarbeiten, riesige Datenmengen zu analysieren und komplexe Verhaltensmuster zu erkennen. Hierfür bietet Splunk die unterschiedlichsten Tools und Services, um KI möglichst effektiv in vorhandene Prozesse einzubetten.
Durch diese Fähigkeiten ist Künstliche Intelligenz heute schon in der Lage, elektronische Geräte ganz einfach per Sprachbefehl zu steuern, Türen via Gesichtserkennung zu öffnen und komplexe Produktionsprozesse deutlich effizienter zu gestalten. Gleichzeitig können so auch Betrugsversuche im E-Commerce abgewehrt, Prognosen im Finanzbereich erstellt, perfekt zugeschnittene Online-Werbung ausgespielt oder mithilfe intelligent vernetzter Technologien die heimische Heizungs- und Stromanlage gesteuert werden. Was KI sonst noch zu bieten hat, erfahren Sie in unserem Artikel: „Künstliche Intelligenz in der Wirtschaft“.
Der Einsatz von Künstlicher Intelligenz bzw. KI-Technologien verspricht in vielerlei Hinsicht zahlreiche Vorteile. In Zukunft dürfte deren Einsatz aber vor allem zu einer grundlegenden Geschäftsanforderung gehören. Denn in erster Linie können (weitestgehend) autonom agierende Roboter bzw. Systeme dabei helfen, wichtige Entscheidungen datenbasiert zu treffen, vorhandene Prozesse gezielt zu optimieren, Ressourcen zu schonen und die Betriebskosten nachhaltig zu senken. In erster Linie sorgt KI-Technologie aber für zufriedenere Kundenbeziehungen, weniger Produktionsausfallzeiten und eine insgesamt bessere Arbeitsproduktivität.
Auch die Verbesserung der Funktionalität oder Leistungsfähigkeit von Produkten bzw. die Entwicklung völlig neuer Innovationen kann durch den Einsatz von KI vorangetrieben werden. Auch wenn immer wieder Ängste geschürt werden, der Faktor Mensch könne in Zukunft vielleicht nur noch eine untergeordnete Rolle spielen (lesen Sie dazu unbedingt unser E-Book „5 Große Mythen um KI und Machine Learning – Widerlegt“), am Ende überwiegen doch jedes Mal die zahlreichen Vorteile der Künstlichen Intelligenz:
- Kostengünstiger: KI-Technologie mag unter Umständen hohe Anschaffungskosten verursachen, bietet auf lange Sicht gesehen aber enorme Kostenvorteile, da Ausgaben vermieden werden können, die ohne die Nutzung von Künstlicher Intelligenz auftreten würden.
- Genauer: Maschinen, die mithilfe Künstlicher Intelligenz arbeiten, sind in der Regel präziser als der Mensch – und dass unabhängig von der jeweiligen Einsatzdauer und der Art der zu erledigenden Arbeit.
- Vorausschauender: Durch die fortlaufende Analyse und umgehende Auswertung unterschiedlichster Daten kann die Künstliche Intelligenz eigenständig Prognosen erstellen und auf Basis dessen zum Beispiel eine Maschine warten lassen, um unnötige Ausfälle im Vorhinein zu verhindern.
- Zuverlässiger: Menschen machen Fehler. Demgegenüber erledigt KI-Technologie – erst einmal korrekt programmiert – seine Aufgaben kontinuierlich und exakt gemäß den programmierten Vorgaben. Das Ergebnis ist vor allem konstante Qualität.
- Schneller: Unsere kognitiven Kapazitäten sind beschränkt. Demgegenüber ist KI in der Lage, etwaige Muster in sich wiederholenden Prozessen innerhalb kürzester Zeit zu erkennen. Somit braucht KI-Technologie weitaus weniger Zeit, um bspw. eine Diagnose zu erstellen oder Betrugsversuche zu identifizieren.
- Selbständiger: Einmal programmiert, brauchen Maschinen für ausgewählte und sich wiederholende Aufgaben im Grunde genommen kaum noch beaufsichtigt werden. Indem die Künstliche Intelligenz ständig dazulernt, kann die KI-Technologie einen Algorithmus nicht nur zuverlässig und ganz nach Vorschrift erledigen, sondern bei etwaig auftretenden Fehlern auch korrigierend reagieren.
Wie bereits erwähnt werden die Begriffe „Künstliche Intelligenz“ und „Machine Learning“ fälschlicherweise häufig synonym gebraucht. Es stellt sich nun also die Frage, was der konkrete Unterschied zwischen Maschinellem Lernen (ML) und Künstlicher Intelligenz (KI) ist? Während KI das große Ganze beschreibt, bezieht sich der Begriff des Maschinellen Lernens nur auf einen Teilbereich der Künstlichen Intelligenz. Denn beim sogenannten Machine Learning handelt es sich lediglich um eine KI-Anwendung, die es Computern ermöglicht, aus Erfahrungen zu lernen und die Leistung bestimmter Aufgaben zu verbessern. Darüber hinaus stellt ML sicher, dass Computer entsprechende Daten analysieren und statistische Verfahren anwenden können. Immer mit dem Ziel, auf Basis der Auswertungen etwas zu lernen und Prozessabläufe langfristig zu optimieren.
Hierfür wird Machinelles Lernen häufig in zwei Gruppen unterteilt: „überwacht“ (bzw. „supervised“) und „unüberwacht“ (bzw. „unsupervised“).
Was ist überwachtes Machine Learning?
Beim überwachtem Machine Learning (Supervised Machine Learning) lenkt ein Data Scientist einen KI-Algorithmus durch den Lernprozess. Hierfür stellt der Data Scientist dem Algorithmus entsprechende Trainingsdaten zur Verfügung, die sowohl Beispiele als auch spezifische Soll-Ergebnisse für jedes Beispiel umfassen. Dann entscheidet der Data Scientist, welche Variablen analysiert werden sollen und gibt Feedback zur Genauigkeit der Prognosen des Computers. Nach intensivem Training (oder Überwachung) ist der Computer in der Lage, die Trainingsdaten gezielt zu nutzen und das Ergebnis neu empfangener Daten vorab zu prognostizieren.
Was ist unüberwachtes Machine Learning?
Bei unüberwachtem Machine Learning (Unsupervised Machine Learning) erhalten Algorithmen entsprechende Trainingsdaten, aber keine bekannten Ergebnisse zum Vergleich. Stattdessen werden Daten analysiert, um zuvor unbekannte Muster zu entdecken. Unüberwachte Lernalgorithmen können ähnliche Daten bündeln, Anomalien innerhalb eines Datensets erkennen und Muster finden, bei denen verschiedene Datenpunkte korrelieren.
Bei teilüberwachten Machine Learning-Algorithmen (Semi-Supervised Machine Learning Algorithms) handelt es sich, wie der Name schon sagt, um eine Kombination aus klassifizierten und unklassifizierten Trainingsdaten. Die Verwendung einer kleinen Menge klassifizierter Trainingsdaten verbessert dabei die Vorhersagegenauigkeit erheblich und reduziert gleichzeitig den Zeit- und Kostenaufwand für die Klassifizierung großer Datenmengen.
Um KI-Technologien erfolgreich im Unternehmen etablieren zu können, sollte man sich über die wichtigsten Einsatzgebiete und Grundlagen Künstlicher Intelligenz im Klaren sein. Nur wer die spezifischen Unterschiede zwischen den verschiedenen Spielarten der KI kennt und sich über deren möglichen Anwendungsbereiche informiert hat, kann KI auch gezielt und vor allem sinnvoll in bestehende Prozesse mit einbinden. Denn auch wenn Künstliche Intelligenz das menschliche Denken und Handeln in vielen Bereichen mittlerweile erreicht oder sogar übertrifft, stößt KI noch immer regelmäßig an ihre Grenzen.
Was ist schwache KI?
Schwache KI, auch enge KI bzw. „Narrow AI“ genannt, wird verwendet, um auf der Grundlage von Programmieralgorithmen menschenähnliche Reaktionen auf Eingaben zu erzeugen. Schwache KI-Tools erbringen keine wirkliche Denkleistung. Doch das scheint nur so. Sprachaktivierte persönliche Assistenten wie Siri, Cortana und Alexa sind bekannte Beispiele für schwache KI. Wenn Sie ihnen eine Frage stellen oder eine Anweisung geben, hören sie auf akustische Hinweise im Gesagten und folgen dann einer Reihe programmierter Schritte, um die richtige Antwort zu generieren. Allerdings „versteht“ die Künstliche Intelligenz die gesprochenen Worte oder ihre Bedeutung im weitesten Sinne nicht.
Was ist starke KI?
Als starke KI bzw. „Strong AI“ bezeichnet man Systeme, die selbst denken können. Doch solche KI-Systeme können noch mehr: lernen, planen, kommunizieren, Einschätzungen treffen und ein gewisses Maß an Bewusstsein besitzen. Im Wesentlichen ahmen sie die menschliche Intelligenz nicht nach, sondern besitzen – zumindest in der Theorie – eine eigene Intelligenz. Wenn wir die Architektur und Funktion des menschlichen Gehirns replizieren können, glauben Experten, dass wir Maschinen mit echten kognitiven Fähigkeiten bauen können. Im KI-Teilbereich Deep Learning nutzen Wissenschaftler neuronale Netze, um Computern beizubringen, autonomer zu agieren, doch wir sind noch immer weit entfernt von den Arten unabhängiger KI wie aus Science Fiction-Romanen und -Filmen. Die Entwicklung schreitet zwar rapide voran, doch momentan ist echte starke KI noch immer eher Philosophie als Realität.
Was sind Expert Systems (Expertensysteme)?
Neben der schwachen bzw. starken KI existieren auch noch sogenannte Expertensysteme. Dabei handelt es sich um eine frühe Form von Künstlicher Intelligenz, welche auf die 1970er Jahre und die Anfänge der KI zurückgeht. Ein sogenanntes Expert System unterstützt den Menschen bei der Lösung von komplexen Problemen, indem es die Entscheidungsfindung auf menschlicher Ebene nachahmt und Handlungsempfehlungen aus einer Wissensbasis heraus ableitet. Hierfür wird das Problem durch eine Progression von Wenn-dann-Entscheidungen geschleust, um am Ende eine Expertenentscheidung zu erhalten. Da sich solche Expertensysteme durch ein Hinzulernen aus externen Daten jedoch nicht schrittweise selbst verbessern können, werden sie zumeist auch nicht als echte Beispiele für KI angesehen.
Sobald physische und virtuelle Technologien miteinander vernetzt werden und interagieren, sprechen wir vom sogenannten „Internet of Things“ – kurz IoT. Kommt nun noch die Künstliche Intelligenz hinzu, wird aus dem IoT konsequenterweise ein Artificial Intelligence of Things. Besser bekannt auch unter der Kurzform AIoT bzw. KIoT. Als Grundlage dient ein digitales Netzwerk, das den Austausch von Informationen und die gezielte Kommunikation untereinander überhaupt erst ermöglicht. Allerdings sind die einzelnen IoT-Geräte (bspw. GPS, Sensoren, Kameras, etc.) nur bedingt in der Lage, die verfügbaren Daten für sich selbst nutzbar zu machen. Hier kommt nun die Künstliche Intelligenz ins Spiel: Denn wird das Internet der Dinge analog zum Menschen als neuronales Nervensystem interpretiert, dann ist die KI quasi das Gehirn, welches sämtliche Funktionen und Prozesse innerhalb des Systems autonom steuert. Mit dem Unterschied, dass es noch einen gewissen Lernfaktor mit einbringt, Daten interpretiert und Muster erkennt – sich das IoT-System zum AIoT-System entwickelt.
Soll heißen: Durch den Einsatz von Künstlicher Intelligenz sind die im Netzwerk angeschlossenen Dinge bzw. IoT-Geräte in der Lage, selbst Daten analysieren, eigene Entscheidungen treffen und Handlungen anstoßen zu können. Nehmen wir das Beispiel eines smart vernetzten Bürogebäudes, das über eine Vielzahl an Sensoren verfügt. Durch den Einsatz von Künstlicher Intelligenz kann nun je nach Anzahl der anwesenden Personen die Temperatur in den einzelnen Räumen reguliert werden. Größter Vorteil eines solchen AIoT-Systems ist es, dass sich die einzelnen Elemente bzw. Prozesse ohne Einfluss von außen selbst optimieren. Dadurch ist das gesamte System des AIoT in der Lage, dazulernen und sich eigenständig zu verbessern. Auf diese Weise vermindert sich das Risiko für mögliche Systemausfälle, wird die Effizienz der gesamten Prozessabläufe gesteigert und die Kosten nachhaltig gesenkt.
Mit DevOps wird ein prozessorientierter Ansatz beschrieben, der zur Verbesserung von Entwicklungs- und Arbeitsabläufen zwischen einzelnen Teams im IT- und Softwarebereich dient. Dabei setzt sich der Begriff aus den beiden Wörtern „Development“ (Dev) für Entwicklung und „IT Operations“ (Ops) für den IT-Betrieb zusammen. Ziel von DevOps ist es, die generelle Zusammenarbeit zwischen den beiden sonst relativ autark voneinander agierenden Bereichen zu optimieren und Entwicklungszyklen von Software-Lösungen, Apps oder digitalen Anwendungen und Websites effizienter zu gestalten bzw. zu beschleunigen.
Kommt bei eben diesen DevOps nun Künstliche Intelligenz zum Einsatz, ermöglicht diese, neue Anwendungen leichter entwickeln, bereitstellen, einsetzen und verwalten zu können. Darüber hinaus helfen KI-Technologien aber auch dabei, bestehende Systeme oder neue Software-Lösungen gezielt zu prüfen, zu codieren, freizugeben und zu überwachen.
Denn ohne Künstliche Intelligenz müssten sich die Experten mühevoll durch unendliche Datenmengen arbeiten und unzählige Tests durchführen, um bspw. einen bei Inbetriebnahme aufgetretenen Fehler zu finden und erfolgreich zu beseitigen. KI kann also dabei helfen, mögliche Muster in großen Datensätzen zu identifizieren, Informationen aus verschiedenen Quellen zusammenzuführen und eigenständig diverse Software-Tests durchzuführen.
Ebenso sind die Teams dank KI-Technologie nun in der Lage, auftauchende Fehlermeldungen besser klassifizieren, Anomalien im System früher erkennen, die Fehlerursache umfassend analysieren und wiederholbare Routine- bzw. Wartungsaufgaben automatisieren zu können. All das trägt dazu bei, dass sich die Entwicklungs- und Betriebsteams wieder mehr auf das konzentrieren, wofür sie eigentlich zuständig sind: ein funktionierendes System zum Laufen zu bringen und anschließend auch am Laufen zu halten.
Immer wenn Künstliche Intelligenz zum Einsatz kommt, ergeben sich durch die (voll)automatisierte Übernahme von Handlungen, Aufgaben oder sogar Entscheidungen unzählige Chancen. Zugleich eröffnen sich aber auch neue Herausforderungen und ethische Fragen. Denn gerade weil KI-Technologie den Faktor Mensch in Zukunft zunehmend zurückdrängen könnte, braucht es einen verantwortungsvollen Umgang mit lernenden Systemen. Hierzu zählen auch entsprechende Rahmenbedingungen für deren Einsatz – sei es was die Integration als solche betrifft oder inwieweit etwaige Fehlfunktionen mit eingeplant werden müssen. Dementsprechend sollten bereits vor der Nutzung bzw. Einbindung von KI immer auch die damit verbundenen rechtlichen, gesellschaftlichen und technischen Folgen im Blick behalten werden.
Was ist verantwortungsvolle KI?
KI-Systeme sollen in erster Linie menschliche Akteure dabei unterstützen, je nach Kontext die richtigen Entscheidungen zu treffen. Damit Künstliche Intelligenz dazu aber überhaupt in der Lage ist, muss diese seitens der Software-Entwickler und Systembetreiber von Anfang an so gestaltet, programmiert und eingesetzt werden, dass ethische, rechtliche und gesellschaftliche Normen bzw. Werte zu keiner Zeit verletzt werden. Von einer verantwortungsvollen KI ist also immer dann die Rede, wenn deren Einsatz keinerlei Schaden für Einzelpersonen, Gemeinschaften oder auch die Umwelt verursacht. Oder zumindest der erwartbare Nutzen höher ausfällt als die kalkulierbaren Folgen durch den Schaden selbst, wie es im „Ethik Briefing - Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen“ der Plattform Lernende Systeme empfohlen wird. Mindestens vorausgesetzt wird aber in jedem Fall, dass der Einsatz von KI-Systemen auf einer rechtskonformen und robusten Grundlage beruht, sodass unannehmbare Sicherheitsrisiken jederzeit ausgeschlossen werden können.
Warum ist eine vertrauensvolle KI so wichtig?
Künstliche Intelligenz kann in vielerlei Hinsicht für eine willkommene Entlastung sorgen. Gleichermaßen stellt sie uns aber auch vor immer größere Probleme. Denn sobald es bei der Erfassung, Analyse und Verarbeitung sensibler Daten zu folgenschweren Fehleinschätzungen kommt, sind Diskriminierungen – sogenannte BIAS – und anderweitige „Folgeschäden“ nicht mehr weit. Somit gilt es, mögliche Fehlerquellen bereits bei der Entwicklung bzw. im Vorfeld der Integration von KI-Technologien zu verstehen – oder besser gleich ganz zu vermeiden. Zu möglichen Fehlerquellen zählen:
- Verzerrungen und Fehler bei der Datenerfassung im Allgemeinen
- Verzerrungen und Diskriminierung (BIAS) bei der Umwandlung von Daten in Entscheidungen auf Basis von Algorithmen
- Verzerrungen durch die Verwendung „falscher“ Ergebnisse bzw. Weitergabe von Daten an eine Anwendung/Software-Lösung
Was sind die wichtigsten Aufgaben verantwortungsvoller KI?
Die wichtigste Aufgabe einer verantwortungsvollen KI ist es, Unternehmen jeder Art und Größe dabei zu unterstützen, sowohl ökologisch verträglich als auch sozial gerecht und wirtschaftlich erfolgreich handeln zu können. Zugleich soll durch den ethisch vertretbaren, transparenten und verantwortungsvollen Einsatz von KI-Technologien sichergestellt werden, dass die Erwartungen der Nutzer mit den Werten und Zielen von Unternehmen auf einen gemeinsamen Nenner gebracht werden können – ohne dass dadurch gesellschaftliche Gesetze und/oder Normen verletzt werden
Dementsprechend soll bzw. muss verantwortungsvolle Künstliche Intelligenz in erster Linie…:
- …vor der Verwendung voreingenommener Daten oder Algorithmen schützen.
- …sicherstellen, dass automatisierte Entscheidungen gerechtfertigt und erklärbar sind.
- …dabei helfen, das Vertrauen in selbstlernende Systeme zu stärken.
- …jederzeit den Schutz der Privatsphäre gewährleisten.
- …Ergebnisse und Entscheidungen für den Nutzer klar nachvollziehbar machen.
- …zu ethisch legitimen Anwendungen und idealerweise zur Förderung des Gemeinwohls beitragen.
- …Schäden für Einzelpersonen, die Gemeinschaft oder für die Umwelt vermeiden bzw. aktiv verhindern.
- …menschliche Akteure bei der Entscheidungsfindung unterstützen.
Was macht eine verantwortungsvolle KI wirklich aus?
Mit Blick auf die mitzubringenden Eigenschaften von KI und die zu erfüllenden Voraussetzungen bzw. Normen kristallisieren sich grundlegende Faktoren heraus, die Künstliche Intelligenz überhaupt erst zu einer verantwortungsvollen KI machen. Denkt also ein Unternehmen über die Integration und den Einsatz von KI-Technologien oder KI-Systemen nach, sollte es von Anfang folgende Punkte berücksichtigen.
Gleichberechtigung: Beim Einsatz von KI muss sichergestellt sein, dass keinerlei Diskriminierung stattfindet und alle Menschen bzw. Nutzer unvoreingenommen und fair behandelt werden – unabhängig von Alter, Geschlecht, Religion oder sexueller Orientierung.
Transparenz: Es sollte immer eindeutig nachvollziehbar sein, wie eine KI ihre Entscheidungen trifft und anhand welcher Algorithmen Daten erfasst, analysiert und verarbeitet werden.
Empathie: Verantwortungsvolle KI sollte den Nutzer immer ganzheitlich betrachten und dessen Bedürfnisse in den Mittelpunkt stellen. Nur so ist es für die KI-Technologie möglich, relevante und hilfreiche Entscheidungen zu treffen.
Robustheit: Ein KI-System sollte auch bei sich verändernden (Rahmen-)Bedingungen immer konstant zufriedenstellende Ergebnisse liefern. Hierfür braucht es jedoch entsprechende Schutzmechanismen, Regeln und Leitlinien.
Wertesystem: Eine verantwortungsvolle KI ist immer auch fester Bestandteil der eigenen Werte und Leitlinien eines Unternehmens. Denn nur so lässt sich bei der Konzeption und Entwicklung von KI-Systemen von Anfang an die Erfüllung ethischer wie auch gesetzlicher Vorgaben mitberücksichtigen.
Design: Bei der Gestaltung von KI-gestützten Anwendungen oder Systemen sollte es nicht nur auf die Funktionalität, sondern vor allem auf eine unmittelbar nachvollziehbare Gewährleistung von Datenschutz, Transparenz und Sicherheit.
Monitoring: Auch bei der besten KI muss die Kontrolle und Prüfung festgelegter Algorithmen durch menschliche Akteure möglich sein. Nur so lassen sich etwaige Fehlerquellen erkennen und notwendige Anpassungen vornehmen, um die Erfüllung wertorientierter Richtlinien jederzeit sicherstellen zu können.
Ausbildung: Will ein Unternehmen die Vorteile von KI-Technologie vollumfänglich nutzen, braucht es entsprechend geschultes, aufgeklärtes und ausgebildetes Personal. Dadurch steigt nicht nur die Akzeptanz, sondern wird auch die Funktionsweise von KI-Systemen besser verstanden und können die Mitarbeiter selbst Verbesserungsvorschläge einbringen.
Die oben aufgeführten Grundlagen verantwortungsvoller KI werden von verschiedenen Stellen geteilt. So sind sie unter anderem fester Bestandteil der vom Bundesministerium für Bildung und Forschung geförderten Plattform „Lernende Systeme“ und wurden in deren „Ethik-Briefing: Leitfaden für eine verantwortungsvolle Entwicklung und Anwendung von KI-Systemen“ festgehalten. Auch Accenture hat die einzelnen Punkte in seinem Leitfaden „RESPONSIBLE AI: A Framework for Building Trust in Your AI Solutions“ aufgeführt.
Es gibt Befürchtungen, dass KI intelligente Maschinen schaffen wird, die Menschen Arbeitsplätze wegnehmen. Andere befürchten, dass Maschinen, je besser sie in der Lage sind, ohne menschliche Anleitung selbstständig zu handeln, potenziell schädliche Entscheidungen treffen könnten. Elon Musk sagte 2017 vor der U.S. National Governors Association: „Künstliche Intelligenz ist ein grundlegendes Risiko für die Existenz der menschlichen Zivilisation in einer Weise, wie es Autounfälle, Flugzeugabstürze, fehlerhafte Medikamente oder verdorbene Lebensmittel nicht waren – sie waren zwar für eine Reihe von Individuen innerhalb der Gesellschaft schädlich, aber sie waren nicht schädlich für die Gesellschaft als Ganzes.“ In einem Interview mit der BBC aus dem Jahr 2014 sagte der mittlerweile verstorbene Wissenschaftler Stephen Hawking, dass die „Entwicklung einer vollständigen künstlichen Intelligenz das Ende der Menschheit bedeuten könnte“. Andere sagen voraus, dass KI das menschliche Leben verbessern wird, indem sich wiederholende und einfache Aufgaben automatisiert werden, sodass Menschen Zeit für angenehmere Aktivitäten haben.
McKinsey rechnet damit, dass 375 Mio. (oder 14 %) der globalen Arbeitnehmer bis 2030 die Beschäftigungskategorie wechseln werden müssen, da sie durch künstliche Intelligenz ersetzt wurden. Doch einige Studien sagen voraus, dass KI mindestens so viele Arbeitsplätze schaffen wird, wie sie zerstört. Gartner prognostiziert, dass bis 2020 aufgrund der zunehmenden Bedeutung von KI 1,8 Mio. Arbeitsplätze abgebaut werden. Doch Gartner sagt auch voraus, dass die verloren gegangenen 1,8 Mio. Arbeitsplätze durch die Schaffung von 2,3 Mio. neuen Arbeitsplätzen bis 2020 ausgeglichen werden, was einem Zuwachs von 500.000 Stellen entspricht. Gartner erwartet bis 2025 außerdem einen Nettozuwachs von 2 Mio. Stellen.
Erstens sollten Sie sich fragen, ob die Aufgabe, die Sie bewältigen müssen, so komplex ist, dass sich eine Investition in Machine Learning lohnt. Die Bandbreite von KI-Anwendungsmöglichkeiten im Unternehmen ist enorm, und der beste Weg, um festzustellen, ob Sie KI einführen sollten, ist die Suche nach ähnlichen Anwendungsfällen bei anderen Unternehmen.
Eine der beliebtesten Einsatzmöglichkeiten von Machine Learning ist die Analyse von Kundendaten, um die Vorlieben, Kaufgewohnheiten und andere Verhaltensweisen eines Kunden bei der Interaktion mit einem Unternehmen zu erfahren. Dies liefert die notwendigen Informationen, um überaus personalisierte Botschaften, Dienstleistungen und Produkte kundenbezogen anbieten zu können. Dies ist eine Nutzung von KI, die für viele Unternehmen und Branchen relevant ist.
Im Finanzdienstleistungssektor wird künstliche Intelligenz zum Verbessern der Erkennung von Kreditkartenbetrug eingesetzt. Betrugsmethoden entwickeln sich so schnell, dass selbst die wachsamsten Menschen kaum mithalten können. Machine Learning ermöglicht es Systemen, sich in Echtzeit anzupassen, um neue Betrugsarten schneller und genauer als jeder Mensch zu erkennen. Tatsächlich bietet sich Machine Learning für eine ganze Reihe von Aufgabenstellungen im Bereich Sicherheit und Risikomanagement an, mit leicht zugänglichen Beispielen in der Finanz-, Gesundheits- und anderen Branchen.
Sobald Sie festgestellt haben, dass es sich lohnt, in Machine Learning zu investieren, ist es an der Zeit, Ihre Daten unter die Lupe zu nehmen. Machine Learning erfordert sehr viele Daten, um erfolgreich zu sein. Doch noch wichtiger als die Quantität der Daten ist ihre Qualität. „Saubere Daten sind besser als viele Daten“ ist ein beliebter Grundsatz bei Data Scientists. Daten ohne Struktur und Organisation liefern nicht die notwendigen Geschäftsinformationen, egal wie viele Sie davon haben.
Neue Daten sind eine weitere Anforderung. Angesichts der rasanten Veränderungen in den meisten Branchen können riesige Datenmengen, selbst wenn sie nur wenige Jahre alt sind, keine Relevanz für aktuelle Trends in Ihrem Unternehmen haben und Ihnen wahrscheinlich keinen prognostischen Nutzen bringen.
Unternehmen, die anfangen, sich mit Machine Learning zu beschäftigen, sollten zunächst mit überwachtem Lernen beginnen. Mit ihrem einfacheren, gelenkten Trainingsprozess sorgen überwachte Lernanwendungen oft für ein übersichtlicheres KI-Pilotprojekt. Wie bereits erwähnt, erfordert Machine Learning, dass Daten über vorhandene Klassifizierungen verfügen, um auf dieser Basis Vorhersagen treffen zu können. Anhand des obigen Beispiels zum Kreditkartenbetrug könnte eine Bank Daten mit der Klassifizierung „Betrug“ in Verbindung mit anderen Transaktionsdaten verwenden, um künftige betrügerische Transaktionen vorherzusagen. Ohne diese Klassifizierung als Einstieg in den Prozess wird die Machine Learning-Anwendung wesentlich komplexer und nur schleppend Ergebnisse liefern.
Beginnen Sie schließlich mit einer kleinen Datenmenge und einem kurzen Zeitrahmen von etwa zwei Monaten für das Projekt. Formulieren Sie eine Frage zu einem bestimmten geschäftlichen Problem, welche die KI beantworten soll und sammeln Sie dann Feedback zu den Ergebnissen. Auf diese Weise können Sie entscheiden, welchen Nutzen Machine Learning für Ihr Unternehmen hat und bei welchen länger angelegten Projekten Sie es einsetzen können.
Neue Daten sind eine weitere Anforderung. Angesichts der rasanten Veränderungen in den meisten Branchen können riesige Datenmengen – selbst wenn sie nur wenige Jahre alt sind – keine Relevanz für aktuelle Trends in Ihrem Unternehmen haben und Ihnen wahrscheinlich keinen prognostischen Nutzen bringen.
Unternehmen, die anfangen, sich mit Machine Learning zu beschäftigen, sollten zunächst mit überwachtem Lernen beginnen. Mit ihrem einfacheren, gelenkten Trainingsprozess sorgen überwachte Lernanwendungen oft für ein übersichtlicheres KI-Pilotprojekt. Wie bereits erwähnt, erfordert Machine Learning, dass Daten über vorhandene Klassifizierungen verfügen, um auf dieser Basis Vorhersagen treffen zu können. Anhand des obigen Beispiels zum Kreditkartenbetrug könnte eine Bank Daten mit der Klassifizierung „Betrug“ in Verbindung mit anderen Transaktionsdaten verwenden, um künftige betrügerische Transaktionen vorherzusagen. Ohne diese Klassifizierung alsEinstiegin den Prozess wird die Anwendung von Machine Learning wesentlich komplexer und nur schleppend Ergebnisse liefern.
Beginnen Sie schließlich mit einer kleinen Datenmenge und einem kurzen Zeitrahmen von etwa zwei Monaten für das Projekt. Formulieren Sie eine Frage zu einem bestimmten geschäftlichen Problem, die KI beantworten soll, und sammeln Sie dann Feedback zu den Ergebnissen. Auf diese Weise können Sie entscheiden, welchen Nutzen Machine Learning für Ihr Unternehmen hat und bei welchen länger angelegten Projekten Sie es einsetzen können.
Kleinunternehmen können KI auch dann nutzen, wenn sie nicht über viele unternehmensinterne Daten verfügen. So können z. B. Social-Media-Daten direkt aus ihren Quellen gesammelt und im Handumdrehen analysiert werden. Ähnlich verhält es sich mit einem KI-System, das Immobilienpreise verfolgt und analysiert, einer beliebten KI-Anwendung in der Immobilienbranche, die diese Daten in der Regel aus öffentlich zugänglichen Quellen bezieht.
Künstliche Intelligenz und Machine Learning sind mehr als „esoterische“ Forschungsprojekte der Informatik an Universitäten wie Stanford und dem MIT. KI-Algorithmen leisten mehr, als nur Schachweltmeister zu entthronen oder virtuelle persönliche Assistenten zu betreiben. Kognitives Computing sorgt für eine Transformation – vom Gesundheitswesen bis zur Entwicklung autonomer Fahrzeuge. Wenn Sie Scheu haben, mit künstlicher Intelligenz zu experimentieren, keine Panik. KI-Technologie wird immer erschwinglicher und einfacher zu nutzen, und zwar mit jedem Tag mehr.