24
Was Amazon, Microsoft, Salesforce & Co. konkret anbieten Worum es beim Machine Learning geht (FAQ) Wie Wissenschaftler Maschinen das Denken beibringen Künstliche Intelligenz INSIDER Preis: 4,99 Euro

Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

• WasAmazon,Microsoft,Salesforce&Co.konkretanbieten• WorumesbeimMachineLearninggeht(FAQ)• WieWissenschaftlerMaschinendasDenkenbeibringen

Künstliche Intelligenz

INSIDERPrei

s: 4,

99 E

uro

Page 2: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

2

KünstlicheIntelligenzasaService

AI-IntelligenzasaServicevon Dr. Klaus Manhart

DieEinstiegshürdefürdieBereitstellungintel-ligenterAnwendungenwirdimmerniedriger.FastallegroßenCloud-AnbieterwieMicrosoft,Amazon,IBModerGooglebietenkostengünstigeEntwicklungswerkzeugefürArtificialIntelligence(AI)aufSaaS-Basisan.MachineLearningbildetdenSchwerpunkt,dochesgibtauchimmermehranderekognitiveServicesausderCloud.

Künstliche Intelligenz (Artificial Intelligence) ist kein Marketing-Trend mehr, sondern ein wichtiger IT-Pfeiler, der in den nächsten Jahren die Wettbe-werbsfähigkeit von Unternehmen bestimmt. Laut der aktuellen Crisp-Research-Studie Machine Learning im Unternehmenseinsatz befassen sich bereits 64 Prozent von gut 250 befragten IT-Entscheidern aus der DACH-Region mit entsprechenden Techniken, darunter auch maschinelles Lernen. Ein Fünftel nutzt maschinelles Lernen bereits produktiv.

Vielen Unternehmen fehlen aber das technische Know-how und die Infrastruktur, die erforderlich sind, um AI-Lösungen zu entwickeln. Die Hürden sind hoch: Die Bereitstellung von AI-Anwendungen ist mit einem großen Aufwand an Software, Hardware und Manpower verbunden. Es braucht eine ganz neue Infrastruktur und erhebliche technische Ressourcen. Riesige Datenmen-gen müssen miteinander in Verbindung gebracht wer-den. Für den Aufbau der Modelle sind AI-Spezialisten und Datenwissenschaftler notwendig. Vor allem aber ist nicht klar, ob sich der Aufwand wirklich lohnt. Denn bei allen Innovationen, die mit Künstlicher Intelligenz verbunden sind, gibt es auch viele Unwägbarkeiten.

DieCloudsenktdieEinstiegshürdefürKünstlicheIntelligenz

Cloud-Services lösen dieses Dilemma und senken die Einstiegshürde für Artificial Intelligence auf ein akzep-tables Niveau. Ohne hohe Kosten oder neue Hardware und Software können Entwickler und Data Scientists, aber auch ganz normale Nutzer, AI-Anwendungen direkt in der Cloud umsetzen und ausführen. Die Servi-ces bieten verbreitete Machine-Learning- und andere AI-Verfahren an. Sie sind beliebig nach unten und oben skalierbar und können für erste spielerische Experi-mente ebenso wie für ernsthafte Business-Anwendun-gen eingesetzt werden.

Ein weiterer Vorteil: Die Cloud-Dienstleister kombinie-ren ihre Machine-Learning-Angebote mit komplemen-tären Services und Werkzeugen. Zudem können auch die großzügig dimensionierten Speicherdienste der Ser-viceanbieter genutzt werden. Einziger Wermutstropfen: Wer sich einmal für einen Service-Provider entschie-den hat, kann sich nur schwer wieder von ihm lösen.

ArtificialIntelligence-wasgibtesbeidenCloud-Providern?

Amazon Web Services, Google Cloud Plattform, IBM BlueMix und Microsoft Azure sind momentan mit ihren AI-Cloud-Plattformen die Platzhirsche. Schwerpunkt der meisten Angebote ist Machine Learning as a Ser-vice. Das ist nicht weiter erstaunlich, weil maschinelles

Cloud-ServicessenkendieEinstiegshürdefürArtificialIntelligenceaufeinakzeptablesNiveau.Foto:PHOTOCREOMichalBednarek-shutterstock.com

Page 3: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

3

Lernen methodisch und technisch das am weitesten fortgeschrittene AI-Gebiet ist.

Mit dem Machine-Learning-Verfahren Deep Learning steht die derzeit erfolgreichste Implementierung eines künstlichen neuronalen Netzes zur Verfügung. Sie lässt sich sehr gut praktisch anwenden, wenn es gilt, Daten in Wissen zu verwandeln und Vorhersagemodelle etwa für Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln.

Andere AI-Anwendungen wie Natural Language Processing sind bei den Web-Services und in den Unternehmen noch unterrepräsentiert. Dabei wären Sprachanalyse und Sprachservices mindestens ebenso nützlich wie Machine Learning. Chat-Bots könnten zum Beispiel einfache Kundenanfragen in natürlicher Sprache beantworten, die der Kunde kaum von einem menschlichen Assistenten unterscheiden kann.

Fortgeschrittene Modelle verstehen schon heute die Absichten von Kunden und können Dialoge erzeugen, die nicht von natürlichen Gesprächen zu diffenzieren sind. Wird es schwierig, leitet der Bot die Anfrage an einen menschlichen Agenten weiter. Solche AI-gestütz-ten Sprachsysteme könnten Unternehmen sehr flexibel einsetzen und damit den den Prozentsatz der Fragen erhöhen, die sie sehr schnell beantworten können.

Microsoft-AzureMLundCognitiveServices

Das Azure Machine Learning (ML) Studio ist eine Art Baukastensystem und Drag-and-Drop Tool zum Erstel-len, Testen und Bereitstellen von Machine Learning-Modellen auf Pay as you go Basis. Das ML-Studio wendet sich damit an Entwickler und Interessenten, die keine oder wenig Erfahrung mit Machine Learning haben.

AzureMachineLearningisteinvollständigverwalteterCloud-Dienst,mitdemAnwenderPredictiveAnalytics-Lösungengenerierenundbereit-stellenkönnen.Foto:Microsoft

Page 4: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

4

Die Bausteine bilden Datensätze oder Module zur Datenaufbereitung oder zur Datenanalyse. In einem interaktiven und visuellen Arbeitsbereich werden die Modelle aufgebaut und gestartet. Der Nutzer definiert zunächst ML-Experimente, zieht dann in einem Editor Bausteine auf seine Arbeitsoberfläche, verknüpft diese miteinander und startet sie schließlich. Der fertige Workflow kann dann als Web-Service gestartet werden und mit frischen Daten versorgt werden, damit das trai-nierte Modell seine Vorhersage treffen kann.

Der Microsoft-Service ist auf Predictive Analytics ausgerichtet. Große Datenmengen lassen sich damit schnell auf bestimmte Muster und Trends untersuchen, und damit für Prognosen einsetzen. Typische Anwen-dugen sind Empfehlungssysteme wie sie von Amazon bekannt sind oder Vorhersagesysteme zum Beispiel für die Entwicklung der Preise von Storage-Systemen.

Um das Studio wirklich produktiv nutzen zu können, sind dennoch grundlegende ML-Kenntnisse Vorausset-zung. Für anspruchsvollere Modelle sind Programmier-kenntnisse notwendig. Bei der Datentransformation werden beispielsweise R- und Python-Skripte verwen-det. Dennoch hilft der Microsoft-Service über viele Ein-stiegshürden hinweg. Eine ausführliche Dokumentation und interaktive Lernelemente unterstützen dabei.

Andere AI-Anwendungen hat Microsoft unter dem Namen Cognitive Services zusammengefasst. Die Dienste lassen sich über APIs in Unternehmensanwen-dungen einbinden, befinden sich teilweise aber noch im Preview-Status. Aktuell umfasst Cognitive Services 25 Dienste für Bildanalyse, Suche, Wissen und Sprache - für Letzteres gibt es zum Beispiel APIs zu Language Understanding, Textanalyse, Übersetzung und Spra-cherkennung.

Für die Entwicklung von Chatbots stellt Microsoft den Azure Bot Service bereit. Er soll dabei helfen, intelli-gente Bots zu erstellen, die in allen Unternehmensbe-reichen zum Einsatz kommen können, in denen Nutzer mit der Firma in Kontakt treten. Hierfür greifen Ent-wickler auf Tools wie Codes, Links und Plug-ins zu.

AmazonWebServices-AIundMachineLearning

Die Dienste von Amazon Web Services (AWS) für Artificial Intelligence umfassen maschinelles Lernen einschließlich Deep Learning, visuelle Such- und Bil-derkennung, natürliches Sprachverständnis, automa-tische Spracherkennung und die Transformation von Text zu Sprache.

DieCognitiveServicesvonMicrosoftenthaltenunteranderemDiens-tefürBildanalyseundGesichtserkennung.Foto:Microsoft

AmazonMachineLearningunterstütztdenAnwenderbeiderFehler-analysevonVorhersagemodellen.Foto:AmazonWebServices

Page 5: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

5

Das Zentrum der AI-Entwickler-Services bildet Ama-zon Machine Learning. Mit dem Service können Prog-noseanwendungen wie Betrugserkennung oder Nach-frage- und Klickvorhersagen ohne großen Aufwand erstellt werden. Dazu werden Muster in vorhandenen Daten gesucht und die Erkenntnisse auf neue Daten angewendet.

Der Amazon Dienst versucht, komplexe Machine Lear-ning-Prozesse vor dem Entwickler zu verbergen und bietet damit eine Art Blackbox für Machine Learning-Anwendungsszenarien. Das Verfahren zum Aufbauen von ML-Modellen mit Amazon Machine Learning be-steht aus drei Vorgängen: Datenanalyse, Modelltraining und Bewertung. Visualisierungstools und Assistenten begleiten den Anwender durch den Aufbauprozess der Modelle, ohne dass komplexe Algorithmen und ?Tech-nologien erlernt werden müssen.

Wenn ein Modell aufgebaut ist, hilft die intuitive Kon-sole bei der Modellbewertung und Feinabstimmung, so dass Anwender die Stärken und Schwächen des Modells kennenlernen und die Leistung den Geschäftszielen an-gepasst werden kann. Sind die Modelle für die Progno-sen fertig, lassen sie sich bei Amazon Machine Learning mithilfe einfacher APIs abrufen. Die Implementierung von benutzerdefiniertem Code oder Verwaltung von Infrastrukturen braucht es dazu nicht.

Neben maschinellem Lernen stellt Amazon eine Reihe weiterer AI-Services in seiner Cloud bereit. Unter Amazon Lex können Entwickler mit Hilfe von Alexa-Technologie Konversations-Schnittstellen für Sprache und Text und Chatbots bauen. Amazon Polly ist ein Service, der Text in natürliche Sprache konvertiert. Er unterstützt 24 Sprachen und 47 natürliche Stimmen. Amazon Rekognition bietet eine einfach Bildanalyse auf Basis von Deep Learning, die auch Gesichter in Bildern erkennen kann.

GoogleCloudMachineLearning

Das Hauptprodukt von Google‘s AI-Services ist die Cloud Machine Learning Platform. Sie besteht aus einer ganzen Reihe unterschiedlich ausgerichteter Dienste, die sich mit anderen Cloud-Plattformen von Google verbinden lassen. Über APIs können diese Services in eigene Unternehmens-Anwendungen integriert wer-den.

Die APIs, die Google AI-Entwicklern anbietet, sind breit gefächert und eignen sich dafür, Anwendungen das Sehen, Hören oder Übersetzen beizubringen. Beispiels-weise ermöglicht die Google Cloud Vision API Bildana-lyse und die Google Cloud Speech API Spracherken-nung. Mit der Natural Language API sind Textanalysen möglich und mit der Translate API Übersetzungen.

MitAmazonLexkönnenChatbotsbeispielsweisefürVerbraucheranfragenerstelltwerden.Foto:AmazonWebServices

Page 6: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

6

In jedem Fall profitieren Entwickler von den Vorteilen von Googles eigenen Diensten. Allerdings sind sie damit auch auf die angebotenen Google-Services beschränkt.

Eigene Modelle für maschinelles Lernen lassen sich mit der Cloud ML Plattform erstellen und trainieren. Deren Verwendung erfordert allerdings gute Machine-Learning-Fähigkeiten. Basis dafür ist das ebenfalls von Google stammende Open-Source Framework Tensor-Flow. Die Bibliothek für maschinelles Lernen basiert auf einer Deep-Learning-Infrastruktur und macht das neuronale Netz damit allgemein verfügbar.

Zur Verbesserung der Prognosegenauigkeit gibt es eine Funktion namens HyperTune. Diese durchforstet die erstellten Modelle und verbessert automatisch die Vorhersagegenauigkeit. Weil Hypertune automatisch Parameter aufeinander abstimmt können Entwicklern ihre Modelle nicht nur besser machen, sondern diese auch schneller bauen.

Zur Datenverwaltung lassen sich Cloud Storage, Cloud Dataflow und Cloud Datalab verwenden. Da Cloud ML deutlich mehr Kenntnisse im Bereich des maschinel-

len Lernens erfordert als andere Angebote hat Google den Professional Service „Machine Learning Advanced Solutions Lab“ eingeführt, über den sich Interessenten beraten lassen können.

IBMBluemixundMachineLearning

Auf der IBM Cloud-Plattform Bluemix finden Entwick-ler zahlreiche kognitive AI-Services, die über APIs bereitgestellt werden. Die meisten dieser AI-Anwen-dungen beruhen auf Watson-Technologie, IBMs kogni-tivem AI-System, und können über die Watson Services abgerufen werden. Aktuell sind dort mehr als 30 Wat-son Dienste verfügbar, unter anderem für semantische Analysen, Bild-, Gesichts- und Spracherkennung sowie Übersetzungsdienste und Speech-To-Text-Transforma-tion.

Mit Conversation lassen sich beispielsweise Chatbots entwicklen, die bei eingeschränkem Kontext natürliche Sprache verstehen und damit helfen, Kunden gezielt und individuell zu beraten. Bei den APIs findet man in Bluemix neben der Dokumentation auch Beispiele und Tutorials, wie man damit eigene Software erstellt und wie man sie in eigene Software einbindet.

ÜberAPIslassensichGoogleAI-ServicesineigeneAnwendungenintegrieren.Foto:Google DasvonGooglestammendeOpen-SourceFrameworkTensorflowist

dieBasisvonCloudML.Foto:Google

Page 7: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

7

Mit IBM Machine Learning hat der Konzern eine neue Plattform an den Start gebracht, welche die Entwick-lung und den Einsatz selbstlernender Analysemodelle in der Private Cloud ermöglicht. Sie erlaubt Datenwis-senschaftlern den Einsatz und die Erstellung operatio-naler Analysemodelle. Unterstützt werden verschiede-ne Programmiersprachen wie Java und Python sowie diverse Machine Learning Frameworks wie Apache SparkML und TensorFlow.

Mit Cognitive Automation for Data Scientists auto-matisiert IBM Machine Learning erstmals Machine-Learning-Prozesse. Datenspezialisten können damit den passenden Algorithmus für ihre Modelle finden.

Dazu werden die Daten mit den verfügbaren Algorith-men verglichen und der richtige Algorithmus für den jeweiligen Bedarf bereitgestellt. IBM hat hierfür die Machine-Learning-Technik von Watson extrahiert und stellt diese Technik erstmals auf z System Mainframes zur Verfügung.

HPEHavenOnDemand

Hewlett Packard Enterprise (HPE) offeriert mit Haven OnDemand eine Cloud-basierte Machine-Learning-Platform für die Datenanalyse und einige andere AI-Anwendungen. Der SaaS-Service richtet sich nach HPE-Angaben an professionelle Entwickler, Startups sowie Unternehmen und beinhaltet mehr als 60 APIs und Services für AI-Anwendungen mit Schwerpunkt maschinelles Lernen - darunter auch Deep Learning.

Mit Haven können AI-Anwendungen generiert werden wie Predicitve Analytics, Gesichtserkennung, Speech-to-Text-Funktionen, Empfehlungsdienste und wissens-basierte Graphanalyse- letzteres ist letztendlich Bilder-kennung in Videos. An Daten lassen sich strukturierte und unstrukturierte Text-, Audio-, Bild-, soziale, Web- und Videoquellen entweder aus dem eigenen Fundus oder sozialen Netzwerken und dem Internet nutzen.

Der HPE-Service ist in zwei Anwendungsbereiche auf-geteilt: Der Big-Data-Analytics-Service Vertica zielt auf das Big-Data-Umfeld im Unternehmensbereich. IDOL hingegen dient mehr als Analysewerkzeug im Web, mit dem große Datenmengen etwa aus sozialen Netzwerken schnell untersucht werden können.

IBMbietetaufderCloud-PlattformBluemixzahlreicheWatson-ba-sierteAI-Anwendungen.Foto:IBM

IBMMachineLearningermöglichtdieEntwicklungunddenEinsatzselbstlernenderAnalysemodelleinderPrivateCloud.Foto:IBM

Page 8: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

8

Haven OnDemand wird als Freemium-Produkt über die Microsoft Azure Cloud angeboten, Azure ist also Vor-aussetzung um den HPE-Service nutzen zu können.

SalesforceEinstein

Einen ganz anderen Ansatz als die bislang vorgestellten Dienste verfolgt Cloud-Pionier Salesforce mit seinem AI-Service Einstein. Er unterstützt Salesforce-Kunden mit AI-Algorithmen, die im Hintergrund arbeiten, ohne dass sich der Anwender explizit darum kümmern muss. Allerdings werden die Services nur für Salesforce-Kun-den bereitgestellt.

Jeder Salesforce-Anwender kann mit Einstein AI-Funktionen für Marketing und Analytics bis hin zum Verkauf nutzen. Die AI-Services werden dabei entwe-der in die bestehenden Angebote integriert oder als als Zusatz-Service bereitgestellt. Mittels maschinellem Lernen, Predictive Analytics, natürlicher Sprachver-arbeitung und intelligenter Datenerkennung können Modelle automatisch für jeden einzelnen Kunden ange-passt werden.

Predictive Lead Scoring erlaubt es beispielseweise Vertriebsmitarbeitern, sich auf die vielversprechends-ten Leads zu konzentrieren. Opportunity Insights gibt Warnmeldungen aus, wenn ein Geschäft nach oben oder unten tendiert. Und Product Recommendations passt Produktempfehlungen individuell an den Käufer an.

Für das Generieren und Trainieren der Modelle greift Salesforce auf alle Daten zurück, die dem Unternehmen zur Verfügung stehen - also Kundendaten, Aktivitäts-daten von Chatter, E-Mail, E-Commerce, Social Media-Daten wie Tweets und Bilder und sogar IoT-Signale. Das mag heikel erscheinen, weil hier Kundendaten von zahlreichen Unternehmen einfließen. Salesforce ver-

MithilfederGesichtserkennungs-APIvonHPEkönnenEntwicklerinFotosgefundeneDatenimportieren,extrahierenundanalysieren.Foto:HPE

SalesforceEinstein:PredictiveContentliefertKundenaufBasisvonmaschinellemLerneneineindividuelleEmpfehlungfürdasbesteProdukt.Foto:Salesforce

Page 9: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

9

sichert aber, dass alle Datenschutzregularien beachtet werden und die Daten anonymisiert in die Entwicklung der AI-Modelle einfließen.

Fazit

Unternehmen mit wenig Erfahrung in Sachen Entwick-lung, Artificial Intelligence und maschinelles Lernen werden mit den Angeboten von Microsoft und insbe-sondere Amazon gut zurecht kommen. Amazon schottet den Anwender fast vollständig von AI-spezifischen Pro-blemen ab, was den Dienst besonders für viele kleinere Unternehmen attraktiv machen könnte.

IBM, Google und auch HPE ermöglichen die Erstel-lung sehr anspruchsvoller AI-Modelle. Das setzt mehr Verständnis der Materie voraus. Salesforce Einstein mit seinen fertig integrierten AI-Systemen bietet Künstliche Intelligenz aus der Box, die Cloud-Services sind aber auf die geschlossene Welt des Anbieters be-schränkt.

FAQMachineLearning

WasSieüberMaschinellesLernenwissenmüssenvon Dr. Klaus Manhart

DasThemaMachineLearningistinallerMunde.DochwasverbirgtsichhinterdemBegriff-undwelcheChancenbietensichfürUnternehmen?

Maschinelles Lernen wird heute mehr und mehr zum Mainstream. Waren selbstlernende Programme noch bis vor wenigen Jahren ausschließlich ein Thema für Universitäten, Forschungseinrichtungen und einige Technologieunternehmen, finden sie heute zunehmend Eingang in ganz normale Produkte und Lösungen. Un-ser Alltag und unser Geschäftsleben wird immer mehr von intelligenten Programmen bestimmt, die aus Daten lernen und das Gelernte verallgemeinern.

Spracherkennung auf Mobiltelefonen wie dem iPhone oder den Google Handys wird beispielsweise wesentlich von Machine-Learning-Algorithmen gesteuert - ebenso wie Spam-Filter in PCs und Notebooks oder die Ge-sichtserkennung bei der Verwaltung von Fotos. Oft sind wir auch im Kontakt zu lernenden Systemen, ohne es zu wissen - etwa bei der personalisierten Online-Werbung. Und immer mehr Unternehmen erkennen den Wert von Machine Learning, wenn es darum geht, ihr Business zu optimieren und Kosten zu sparen.

Für die meisten IT-Anwender ist Machine Learning ein unübersichtliches Feld, weil es viele verschiedene kon-zeptuelle, methodische und theoretische Ansätze gibt. Diese FAQ klärt die wichtigsten Fragen und stellt die zentralen Begriffe, Methoden und Anwendungen vor.

WasistMachineLearning?

Salopp gesagt ist maschinelles Lernen die Kunst, einen Computer nützliche Dinge tun zu lassen, ohne ihn ausdrücklich dafür zu programmieren. Etwas genauer formuliert ist maschinelles Lernen der Erwerb neuen Wissens durch ein künstliches System. Der Computer generiert analog wie ein Mensch selbstständig Wissen aus Erfahrung und kann eigenständig Lösungen für neue und unbekannte Probleme finden.

Dazu analysiert ein Computerprogramm Beispiele und versucht mit Hilfe selbstlernender Algorithmen, in den Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Das Ziel von Machine Learning ist es, Daten intelligent miteinander zu verknüpfen, Zusammenhän-ge zu erkennen, Rückschlüsse zu ziehen und Vorhersa-gen zu treffen.

Page 10: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

10

WiefunktioniertMachineLearningprinzipiell?

Im Prinzip so ähnlich wie menschliches Lernen. Ana-log wie beispielsweise ein Kind lernt, dass auf Bildern bestimmte Objekte zu sehen sind, kann auch ein Com-puter „lernen“, Objekte zu identifizieren oder Personen zu unterscheiden. Dazu wird die Lernsoftware zunächst mit Daten gefüttert und trainiert. Beispielsweise sagen die Programmierer dem System, dass ein bestimmtes Objekt „ein Hund“ und ein anderes „kein Hund“ ist. Im Fortlauf erhält die Lernsoftware ständig Rückmeldun-gen vom Programmierer, die der Algorithmus nutzt, um das Modell anzupassen und zu optimieren: Mit jedem neuen Datensatz wird das Modell besser und kann schließlich eindeutig Hunde von Nicht-Hunden unter-scheiden.

WelcheVorteilebietetmaschinellesLernen?

Maschinelles Lernen hilft Menschen, effizienter und kreativer zu arbeiten. Zum Beispiel können sie maschi-nelles Lernen verwenden, um ihre Bilder schneller zu organisieren und zu bearbeiten. Mit Machine Learning können sie auch langweilige oder aufwändige Arbeiten dem Computer überlassen. Papierdokumente wie Rech-nungen kann lernende Software selbständig scannen, speichern und ablegen.

Vor allem sind selbstlernende Maschinen in der Lage, für den Menschen sehr komplexe Aufgaben zu über-nehmen - etwa die Erkennung von Fehlermustern oder mögliche Schäden in der Fertigung (Predictive Main-tenance). Selbst bei der Erkennung von Krebstumoren in der Medizin und bei Therapieempfehlungen helfen inzwischen selbstlernende Programme - und übertref-fen dabei oft die besten menschlichen Experten. Diese Fähigkeit, komplexe Zusammenhänge zwischen der Eingabe und der Ausgabe von großen Datenmengen verarbeiten zu können, ist einer der Hauptvorteile von Machine Learning.

IstMachineLearningdasselbewieArtificialIntelligence?

Nein. Machine Learning ist ein Teilgebiet von Artificial Intelligence (AI). Im gleichen Sinn sind Logik, Analysis und Stochastik Teilgebiete der Mathematik; Mechanik, Thermodynamik und Quantenphysik Teilgebiete der Physik. Die Artificial Intelligence selbst ist eine Teil-disziplin der Informatik und beschäftigt sich allgemein mit der Automatisierung menschlichen intelligenten Verhaltens. Zur Künstlichen Intelligenz - so der deut-sche Begriff - gehören neben dem Machine Learning Teilgebiete wie wissensbasierte (Experten-)Systeme, Mustererkennung, Robotik, die Verarbeitung natürli-cher Sprache und maschinelles Übersetzen. Allerdings gilt Machine Learning zurzeit als eine der zentralen und erfolgreichsten Artificial-Intelligence-Disziplinen.

WarumerlebtMachineLearninggeradejetzteinenHöhenflug?

Maschinelles Lernen beruht auf Forschung im Be-reich Mustererkennung, die bereits in den 80er Jahren durchgeführt wurde. Das Gebiet stagnierte dann auf-grund technischer Beschränkungen ziemlich lange. Erst vor wenigen Jahren erlebte Maschinelles Lernen einen Durchbruch mit der Möglichkeit, Daten parallel in Gra-fikprozessoren (GPUs) zu verarbeiten - die eigentlich für die Videospiele-Industrie entwickelt wurden. Gra-fikprozessoren besitzen Tausende von Recheneinheiten und sind im Vergleich zu Lösungen mit klassischen CPUs deutlich schneller.

Computerkönnenlernen,menschlicheGesichterzuunterscheiden.FacebooknutztdasfürdieautomatischeGesichtserkennung.Foto:Facebook

Page 11: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

11

Weitere Entwicklungen wie Multi-Core-Architekturen, verbesserte Algorithmen und superschnelle In-Memo-ry-Datenbanken wie SAP HANA machen das maschi-nelle Lernen gerade auch für den Unternehmensbe-reich attraktiv. Ein weiterer wesentlicher Faktor ist die zunehmende Verfügbarkeit großer Mengen strukturier-ter und unstrukturierter Daten aus einer Vielzahl von Quellen, darunter Sensoren oder digitalisierte Doku-mente und Bilder, mit denen sich die Lernalgorithmen „trainieren“ lassen.

WelcheVerfahrenwerdenbeimMachineLearningverwendet?

Maschinelles Lernen nutzt mathematische und sta-tistische Modelle, um aus Datenbeständen zu lernen. Im Detail gibt es Dutzende unterschiedlicher Verfah-ren. Prinzipiell unterscheidet man beim maschinellen Lernen zwischen zwei Systemen: Erstens symbolische Ansätze wie aussagenlogische Systeme, in denen das Wissen - sowohl die Beispiele als auch die induzierten Regeln - explizit repräsentiert ist. Zweitens subsymboli-sche Systeme wie Künstliche Neuronale Netze, die nach dem Vorbild des menschlichen Gehirns funktionieren und in denen das Wissen implizit repräsentiert ist.

Die algorithmische Umsetzung von Machine Learning geschieht mit überwachtem oder unüberwachtem Lernen. Beim überwachten Lernen lernt das System aus gegebenen Paaren von Ein- und Ausgaben. Dabei stellt ein „Lehrer“ während des Lernens den passenden bzw. korrekten Wert zu einer Eingabe bereit. Ziel beim überwachten Lernen ist, dass dem Netz nach mehreren Rechengängen mit unterschiedlichen Ein- und Aus-gaben die Fähigkeit antrainiert wird, Verbindungen herzustellen. Beim unüberwachten Lernen erzeugt ein Algorithmus ein Modell, das die Eingaben beschreibt und Vorhersagen ermöglicht. Das Netz erstellt dann selbständig Klassifikatoren, nach denen es die Eingabe-muster einteilt.

WiefunktionierteinKünstlichesNeuronalesNetz?

Künstliche Neuronale Netze simulieren nach dem Vorbild des Gehirns ein Netzwerk aus miteinander verbundenen Neuronen. Sie lernen aus Erfahrung, in-dem sie die Verbindungsstärke der simulierten Neuro-nenverbindungen verändern. Auf diese Art und Weise können sich Maschinen Fähigkeiten wie Sehen, Hören, Sprechen, Lesen und Schreiben aneignen. Um sie für diese Fähigkeiten zu trainieren, werden Methoden des überwachten Lernens angewendet.

Der Lernprozess läuft grob gesagt wie folgt ab: Zunächst lernt das Netz in der Trainingsphase anhand des vor-gegebenen Materials. Der „Trainer“ gibt dem Netz eine

AndersalsdasBildsuggeriertistMachineLearningeinTeilgebietvonArtificialIntelligence–allerdingseinsehrwichtiges.Foto:IBM

DieführendenCompaniesimMachineLearningnutzenfürdiepar-alleleVerarbeitungderDatenGrafikprozessoren(GPUs)-etwavonNvidia.Foto:Nvidia

Page 12: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

12

Reihe von Beispielen und wiederholt das Ganze. Für jedes Beispiel ist bekannt, was die gewünschte Ausgabe sein soll. Stimmt die Ausgabe des Netzes für ein Beispiel mit dem gewünschten Output überein, dann braucht nichts weiter getan zu werden. Weichen tatsächliche und gewünschte Ausgabe voneinander ab, dann müs-sen die Verbindungsstärken bzw. Gewichte im Netz so verändert werden, dass sich der Fehler bei der Ausgabe verringert.

Je größer der Betrag des Gewichtes ist, desto größer ist der Einfluss eines Neurons auf ein anderes Neuron. Ein positives Gewicht übt auf ein anderes Neuron einen erregenden, verstärkenden Einfluss auf, ein negati-ves einen hemmenden. Das Gewicht der Verbindung bestimmt also maßgeblich, ob ein Neuron von einem anderen beeinflusst wird. Es ist einer der entscheiden-den Faktoren für Lernvorgänge, man kann sagen: Das Wissen eines neuronalen Netzes ist in den Gewichten gespeichert. Dieser Trainings-Prozess erfolgt im Ideal-fall so lange, bis alle Beispiele richtig berechnet werden. Der ganze Lernprozess ist also ein iterativer Vorgang bei dem ein spezieller Algorithmus die Gewichte so ein-stellt, dass der Output möglichst genau dem bekannten Ergebnis entspricht.

WasistDeepLearning?

Deep Learning ist die derzeit erfolgreichste Implemen-tierung eines Künstlichen Neuronalen Netzes. Zugleich ist Deep Learning inzwischen auch das am weitesten verbreitete maschinelle Lernverfahren und wird von großen IT-Unternehmen wie Google, Apple oder Face-book eingesetzt. Die Spracherkennung von iPhone „Siri“ basiert beispielsweise auf Deep Learning. Eines der wichtigsten Einsatzgebiete für Deep Learning ist neben der Sprachverarbeitung das Erkennen von Objekten in Bildern.

Das Verfahren macht viele Arbeitsschritte klassischer Neuronaler Netze überflüssig, weil der Computer alle Zwischenschritte übernimmt. Der Forscher muss dem Neuronalen Netzwerk lediglich Daten wie zum Beispiel Bilder präsentieren; wie diese zu identifizieren sind, findet das Netz dann ganz von allein heraus.

Deep Learning verwendet den analogen Mechanismus, wie ein Kleinkind beispielweise den Begriff „Hund“ lernt: Zunächst werden dem Computerprogramm Trai-ningsdaten zur Verfügung gestellt, beispielsweise eine Reihe von Bildern, von denen ein Mensch jedes mit den Meta-Tags „Hund“ oder „nicht Hund“ markiert hat. Das Programm verwendet die Informationen, die es aus den Trainingsdaten erhält, um ein Feature-Set für Hunde zu erzeugen und ein Vorhersagemodell zu bauen.

Die Einheiten der ersten Ebene registrierten lediglich Helligkeitswerte der Pixel. Die nächste Ebene würde er-kennen, dass einige der Pixel zu Linien verbunden sind, woraufhin die darauffolgende zwischen horizontalen und vertikalen Linien unterscheidet. Dies geht so weiter bis schließlich eine Ebene erreicht wird, in der Beine unterschieden werden können.

In einem weiteren Modell würde der Computer viel-leicht vorhersagen, dass alles in einem Bild, das vier Bei-ne hat, ein Hund ist, bis er schließlich soweit ist, Hunde von Nicht-Hunden unterscheiden zu können. Bei jeder Iteration wird das Vorhersagemodell, das der Computer erstellt, immer komplexer und genauer.

DeepLearningVerfahrenlernenerstLow-LevelElementewieHellig-keitswerte,dannElementeaufmittlererEbeneundschließlichHigh-LevelElementewieganzeGesichter.Foto:Nvidia

Page 13: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

13

KannMachineLearningmitmenschlichenLernenmithalten?

Ja. Das beweisen immer wieder Mensch-Maschine-Wettkämpfe, die höchste kognitive Fähigkeiten er-fordern. So hat IBMs kognitives lernbasiertes System Watson in einem TV-Wissensquiz schon im Jahr 2011 die menschlichen Kandidaten klar geschlagen. Im letz-ten aufsehenerregenden Mensch-Maschine Wettkampf besiegte Googles AlphaGo Machine-Learning-System Anfang 2016 den amtierenden Go-Weltmeister in einem Spiel über fünf Runden deutlich mit 4:1. AlphaGo nutzte eine Variante des Deep-Learning-Verfahrens.

Das asiatische Strategiespiel galt bisher aufgrund seiner Komplexität als zu kompliziert für Computer, weil es eine nahezu unbegrenzte Zahl möglicher Positionen gibt. Die Spieler müssen sich daher meist auf ihre Intu-ition verlassen. Der entwickelte AlphaGo-Algorithmus hilft Google nun unter anderem beim Stromsparen. Mithilfe des Algorithmus konnte in Googles Rechen-zentren der Energieverbrauch um 15 Prozent verringert werden.

WassinddiepopulärstenAnwendungenmaschi-nellenLernens?

Maschinelles Lernen findet man bei den Empfehlungs-diensten von Amazon und Netflix ebenso wie bei der Gesichtserkennung von Facebook. Die Möglichkeit, einzelne Mitglieder mit ihren Namen auf Bildern zu markieren, hat bei Facebook zur weltweit größten Sammlung von Gesichtern in einer Datenbank geführt. Diese Daten kann Facebook nutzen, um Maschinen gezielt auf visuelle Erkennung zu schulen.

Auch hinter E-Mail-Anwendungen, die automatisch Spam erkennen, stecken maschinelle Lernverfahren. Der Computer analysiert die Daten, die in der E-Mail enthalten sind, und kategorisiert diese gemäß den erkannten Mustern als Spam oder Nicht-Spam. Wird eine Nachricht als Junk markiert, lernt der Rechner und kann dadurch Junk-Nachrichten noch besser identifi-zieren. Ebenfalls angewendet werden Lernverfahren bei der Abwehr von Computerattacken, der Bekämpfung von Internet-Kriminalität und dem Suchmaschinen-Ranking.

WielässtsichMachineLearningkommerziellanwenden?

Maschinelles Lernen verwandelt Business-Daten in bare Münze. Unternehmen, die maschinelle Lernver-fahren nutzen, können sowohl ihren Umsatz als auch die Kundenzufriedenheit steigern und gleichzeitig Kosten reduzieren. So hilft Machine Learning beispiels-weise, die Bedürfnisse von Kunden genauer zu erken-nen. Werbemaßnahmen können personalisiert werden. Das verbessert nicht nur das Kundenerlebnis, sondern erhöht auch die Kundenbindung.

Maschinelles Lernen hilft auch, zu erkennen, dass Kun-den möglicherweise in nächster Zeit abwandern. Dafür werden zum Beispiel Supportanfragen von Kunden automatisch ausgewertet. Oder man extrahiert aus be-reits abgewanderten Kunden diejenigen Merkmale, die sie gemeinsam haben. Selektiert man auf Basis dieser Merkmale Kunden des aktuellen Kundenbestands, er-

MaschineschlägtMensch:2016besiegteGooglesMachineLearningSystemAlphaGodenWeltmeisterimSpielGo.Foto:Google

Page 14: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

14

hält man die aktuell abwanderungsgefährdeten Kunden. Diese können dann gezielt „umsorgt“ werden.

Im telefonischen Kundenservice werden schon heute immer mehr Chat-Bots eingesetzt - automatisierte Pro-gramme, die mit dem Kunden kommunizieren. Durch die Sammlung von Stimmdaten in verschiedenen Situa-tionen kann der Chat-Bot seine kognitive Fähigkeit zur Interpretation des Umgangstons verbessern. Und noch viel wichtiger: Der Bot kann den Anruf an einen Call-Center-Mitarbeiter weiterleiten, wenn ein komplexeres Problem vorliegt.

Durch den automatischen Abgleich von Lebensläufen kann maschinelles Lernen helfen, schneller die besten Kandidaten für eine Stelle zu finden. Sie können struk-turierte und unstrukturierte Kontextinformationen analysieren und automatisch Berichte generieren. Statt in der Versicherungsbranche jede Forderung manuell von einem Mitarbeiter prüfen zu lassen, können Ver-sicherungsunternehmen Maschinen einsetzen, um in simplen Versicherungsfällen eine Vorentscheidung zu treffen und ein Antwortschreiben aufzusetzen.

Maschinelles Lernen ist auch eine Schlüsseltechnologie für die Entwicklung autonomer Systeme: kollaborative Roboter, die mit ihren menschlichen Kollegen Hand in Hand arbeiten, gehören ebenso dazu wie selbstfahrende Autos.Auch jenseits rein kommerzieller Anwendungen sind die Einsatzgebiete fast unendlich: Automatisierte Diagnoseverfahren, Erkennung von Kreditkartenbetrug und Aktienmarktanalysen sind häufige Anwendungen. Selbstlernende Programme können sogar helfen, Leben zu retten. Forscher der University of Liverpool trainier-ten beispielsweise ein Programm erfolgreich darauf, die Muster von Landminen in den Daten von Radar- und Akustiksensoren zu erfassen.

WelcheAnbietersinddieTechnologieführerbeimMaschinellenLernen?

Die großen Internet- und Technologiekonzerne IBM, Google, Microsoft, Facebook, Amazon und Apple inves-tieren viele Millionen in Machine Learning und nutzen es sehr intensiv. IBMs Supercomputer Watson ist die

populärste Appliance für maschinelles Lernen, die zum Beispiel im Finanz- und Gesundheitswesen eingesetzt wird und die wirksamsten Therapien für Patienten findet. Apple nutzt maschinelles Lernen bei seinem Spracherkennungssystem Siri, Microsoft bei Cortana, Facebook bei der Bilderkennung und Google bei vielen seiner Dienste wie im Suchmaschinen-Ranking oder den Bilddiensten.

Alle diese Hersteller bieten viele unterschiedliche Services, die maschinelle Lernverfahren einsetzen und aquirieren immer wieder kleinere Machine-Learning-Startups. In Deutschland hat sich SAP dazu verpflich-tet, zukünftig alle Unternehmensanwendungen intel-ligent zu gestalten und auf breiter Basis zur Verfügung zu stellen. So soll man künftig auf der SAP HANA Cloud Platform auch maschinelles Lernen nutzen können.

WiekannmanMachine-Learning-Anwendungenentwickeln?

Cloud-Anbieter wie Microsoft, IBM, Google und Amazons Webservice-Sparte haben inzwischen eigene Services für maschinelles Lernen geschaffen. Damit können Entwickler ohne spezielles Machine-Learning

IBMWatsonintegriertmehrereArtificialIntelligenceMethoden:NebenmaschinellemLernensinddasAlgorithmendernatürlichenSprachverarbeitungunddesInformationRetrieval,derWissensreprä-sentationundderautomatischenInferenz.Foto:IBM

Page 15: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

15

Know-how intelligente Anwendungen bauen, die aus einem frei wählbaren Datenbestand lernen. Bei IBM heißt diese Plattform Watson, bei Microsoft ist es das Azure ML Studio, bei Amazon ist es Amazon Machine Learning und bei Google Tensorflow und andere Platt-formen.

Zudem gibt es inzwischen ein großes Spektrum an freier, qualitativ hochwertiger Open-Source-Software, die maschinelles Lernen für ein breites Publikum von Datenspezialisten und Entwicklern zugänglich macht. Auf Programmiersprachenebene wird besonders Pyhton favorisiert, Weka ist eine auf Java basierende Open-Source-Software mit zahlreichen Lernalgorith-men. Deeplearning4j ist eine in Java programmierte Open-Source-Software, die ein künstliches neuronales Netz implementiert. Apache Spark schließlich bietet ebenfalls ein bekanntes Machine-Learning-Framework auf Open-Source Basis. Sein umfangreiches Angebot an Algorithmen wird ständig überarbeitet und erweitert.

KIundMachineLearning

EinekleineGeschichtederKünstlichenIntelligenzvon Klaus Manhart

DieKünstlicheIntelligenzboomt–abersieistnichtvomHimmelgefallen.Waswirheuteerleben,istdasErgebnisvonGedankenundTüfteleiengeni-alerVordenker.EinekleineGeschichtederKIzeigtdiewichtigstenStationen-vonTuringbisWatson.

In den letzten Jahren wurden in der Computerwissen-schaft und KI unglaubliche Fortschritte erzielt. Wat-son, Siri oder Deep Learning zeigen, dass KI-Systeme inzwischen Leistungen vollbringen, die als intelligent und kreativ eingestuft werden müssen. Und es gibt heute immer weniger Unternehmen, die auf Künstliche Intelligenz verzichten können, wenn sie ihr Business optimieren oder Kosten sparen möchten.

EinekleineGeschichtederKIzeigtdiewichtigstenStationenderKünstlichenIntelligenz-vomMathematikerTuringbiszumIBM-SystemWatson.Foto:JohnWilliamsRUS-shutterstock.com

Page 16: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

16

KI-Systeme sind zweifellos sehr nützlich. In dem Maße wie die Welt komplexer wird, müssen wir unsere menschlichen Ressourcen klug nutzen, und qualitativ hochwertige Computersysteme helfen dabei. Dies gilt auch für Anwendungen, die Intelligenz erfordern. Die andere Seite der KI-Medaille ist: Die Möglichkeit, dass eine Maschine Intelligenz besitzen könnte, erschreckt viele. Die meisten Menschen sind der Ansicht, dass In-telligenz etwas einzigartiges ist, was den Homo sapiens auszeichnet. Wenn Intelligenz aber mechanisiert wer-den kann, was ist dann noch einzigartig am Menschen und was unterscheidet ihn von der Maschine?

Das Streben nach einer künstlichen Kopie des Men-schen und der damit verbundene Fragenkomplex sind nicht neu. Die Reproduktion und Imitation des Denkens beschäftigte schon unsere Vorfahren. Vom 16. Jahrhun-dert an wimmelte es in Legenden und in der Realität von künstlichen Geschöpfen. Homunculi, mechanische Automaten, der Golem, der Mälzel‘sche Schachautomat oder Frankenstein waren in den vergangenen Jahrhun-derten alles phantasievolle oder reale Versuche, künst-lich Intelligenzen herzustellen - und das zu nachzuah-men, was uns Wesentlich ist.

KünstlicheIntelligenz-dieVorarbeiten

Allein, es fehlten die formalen und materiellen Mög-lichkeiten, in denen sich Intelligenz realisieren konnte. Dazu sind zumindest zwei Dinge notwendig. Auf der einen Seite braucht es eine formale Sprache, in die sich kognitive Prozesse abbilden lassen und in der sich rein formal - zum Beispiel durch Regelanwendungen - neues Wissen generieren lässt. Ein solcher formaler Apparat zeichnete sich Ende des 19. Jahrhunderts mit der Logik ab.

Die Philosophen und Mathematiker Gottfried Wilhelm Leibniz, George Boole und Gottlob Frege haben die alte aristotelische Logik entscheidend weiterentwickelt, und in den 30er Jahren des letzten Jahrhunderts zeigte der Österreicher Kurt Gödel mit dem Vollständigkeits-satz die Möglichkeiten - und mit den Unvollständig-keitssätzen die Grenzen - der Logik auf.

Auf der anderen Seite war - analog dem menschlichen Gehirn - ein „Behältnis“ oder Medium notwendig, in dem dieser Formalismus „ablaufen“ konnte und in dem sich die künstliche Intelligenz realisieren lässt. Mecha-nische Apparate waren hierfür nicht geeignet, erst mit der Erfindung der Rechenmaschine eröffnete sich eine aussichtsreiche Möglichkeit. In den dreißiger Jahren des 20. Jahrhunderts wurde die Idee einer Rechenma-schine, die früher schon Blaise Pascal und Charles Bab-bage hatten, wiederbelebt. Während Pascal und Babbage lediglich am Rechner als Zahlenmaschine interessiert waren, die praktischen Zwecken dienen sollte, entstan-den zu Beginn des 20. Jahrhunderts konkrete Visionen einer universellen Rechenmaschine.

DerbritischeMathematikerAlanTuringbeeinflusstedieEntwicklungderKünstlichenIntelligenzmaßgeblich.Foto:Computerhistory.org

Page 17: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

17

Einer der wichtigsten Visionäre und Theoretiker war Alan Turing (1912-1954): 1936 bewies der britische Mathematiker, dass eine universelle Rechenmaschi-ne - heute als Turing-Maschine bekannt - möglich ist. Turings zentrale Erkenntnis ist: Eine solche Maschine ist fähig, jedes Problem zu lösen, sofern es durch einen Algorithmus darstellbar und lösbar ist. Übertragen auf menschliche Intelligenz bedeutet das: Sind kognitive Prozesse algorithmisierbar - also in endliche wohldefi-nierte Einzelschritte zerlegbar - können diese auf einer Maschine ausgeführt werden. Ein paar Jahrzehnte später wurden dann tatsächlich die ersten praktisch verwendbaren Digitalcomputer gebaut. Damit war die „physische Trägersubstanz“ für künstliche Intelligenz verfügbar.

DerTuring-Test:1950

Turing ist noch wegen einer anderen Idee wichtig für die KI: In seinem berühmten Artikel „Computing Ma-chinery and Intelligence“ aus dem Jahr 1950 schildert er folgendes Szenario: Angenommen, jemand behaup-tet, er hätte einen Computer auf dem Intelligenzniveau eines Menschen programmiert. Wie können wir diese Aussage überprüfen? Die naheliegende Möglichkeit, ein IQ-Test, ist wenig sinnvoll. Denn dieser misst lediglich den Grad der Intelligenz, setzt aber eine bestimmte Intelligenz bereits voraus. Bei Computern stellt sich aber gerade die Frage, ob ihnen überhaupt Intelligenz zugesprochen werden kann.

Turing war sich des Problems bei der Definition von intelligentem menschlichem Verhalten im Vergleich zur Maschine bewusst. Um philosophische Diskussio-nen über die Natur menschlichen Denkens zu umgehen, schlug Turing einen operationalen Test für diese Frage vor.

Ein Computer, sagt Turing, sollte dann als intelligent bezeichnet werden, wenn Menschen bei einem beliebi-gen Frage-und-Antwort-Spiel, das über eine elektrische Verbindung durchgeführt wird, nicht unterscheiden können, ob am anderen Ende der Leitung dieser Com-puter oder ein anderer Mensch sitzt. Damit die Stimme

und andere menschliche Attribute nichts verraten, solle die Unterhaltung, so Turing, über eine Fernschreiber-verbindung - heute würde man sagen: ein Terminal mit Tastatur - erfolgen.

Turings Test zeigt, wie Intelligenz ohne Bezugnahme auf eine physikalische Trägersubstanz geprüft werden kann. Intelligenz ist nicht an die biologische Träger-masse Gehirn gebunden und es würde nichts bringen, eine Denkmaschine durch Einbettung in künstliches Fleisch menschlicher zu machen. Unwichtige physi-sche Eigenschaften - Aussehen, Stimme - werden durch die Versuchsanordnung ausgeschaltet, erfasst wird das reine Denken. Turings Gedankenspiele mündeten später in die Auseinandersetzung zwischen starker und schwacher KI.

BigBanginDartmouth:DasersteKI-Programm-1956

Drei Jahre nach Turings Tod, im Jahr 1956, beginnt die eigentliche Geschichte der Künstlichen Intelligenz. Als KI-Urknall gilt das „Summer Research Project on Ar-tificial Intelligence“ in Dartmouth im US-Bundesstaat New Hampshire. Unter den Teilnehmern befanden sich der Lisp-Erfinder John McCarthy (1927-2011), der kürzlich verstorbene KI-Forscher Marvin Minsky (1927-2016), IBM-Mitarbeiter Nathaniel Rochester (1919-2001), der Informationstheoretiker Claude Shan-non (1916-2001) sowie der Kognitionspsychologe Alan Newell (1927-1992) und der spätere Ökonomie-Nobel-preisträger Herbert Simon (1916-2001).

DerTuring-Test:WeristMenschundweristMaschine?Foto:SureshKumarMukhiya

Page 18: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

18

Gemeinsam teilten die Konferenzteilnehmer die Überzeugung, dass Denken auch außerhalb der mensch-lichen Hirnschale stattfinden könne. Doch wie dies rea-lisiert werden sollte, darüber gab es keine Einigkeit. Die Divergenzen begannen schon bei der Bezeichnung für das neue Gebiet: der von McCarthy vorgeschlagene Ter-minus „Artificial Intelligence“ stieß auf Widerstand und auch McCarthy war nicht glücklich mit diesem Namen. Dennoch wurde er beibehalten und später wortwörtlich ins Deutsche übernommen.

Die inhaltlichen Ergebnisse der Konferenz waren hingegen recht dürftig - mit einer Ausnahme: Inmitten der allgemeinen Diskussion tauchte etwas auf, was alle ersehnten und niemand hatte: ein erstes intelligentes und funktionierendes KI-Programm. Das Programm hieß LOGIC THEORIST und wurde geschrieben von Newell, Shaw und Simon. Der LOGIC THEORIST war in der Lage, 38 Theoreme aus Russel und Whiteheads Grundlagenwerk Principia Mathematica zu beweisen. Mit dem Theorembeweiser konnten die Schöpfer einen zentralen Grundpfeiler der neuen Disziplin demonst-rieren: Dass Computer nicht nur Zahlen, sondern auch Symbole verarbeiten können.

McCarthy stellte kurze Zeit später mit LISP eine eigene Programmiersprache für die Verarbeitung symboli-

scher Strukturen vor, die in den folgenden Jahrzehnten vor allem in den USA die Standardsprache für KI-An-wendungen werden sollte. In der Zeit nach Dartmouth wird die KI zu einer ernsthaften Forschungsdisziplin und etabliert sich an verschiedenen US-Universitäten. Carnegie-Mellon, das MIT und die Stanford-University werden zu KI-Zentren.

DerallgemeineProblemlöser:KIzwischen1957und1965

Die erste Ära etwa zwischen 1957 und etwa 1965 lässt sich als eine Phase charakterisieren, in der vorrangig schlussfolgernde syntaktische Systeme ohne Wissen gebaut wurden. Ein „allgemeiner Problemlöser“ sollte reichen, intelligentes Verhalten hervorzubringen. In dieser Anfangsphase waren die Erwartungen hoch. Herbert Simon prognostizierte 1957 unter anderem, dass innerhalb der nächsten zehn Jahre ein Computer Schachweltmeister werden und einen wichtigen mathe-matischen Satz entdecken und beweisen würde. Diese Prognosen trafen nicht zu.

Die KI-Forscher orientierten sich in dieser Phase an menschlichem Problemlöseverhalten und versuchten, dieses zu imitieren (Kognitive Simulation). Der all-gemeine Problemlöser oder „GENERAL PROBLEM

EineTafelamGebäudedesDartmouthCollegeerinnertandielegendä-reKonferenzvon1956,aufderderBegriff„ArtificialIntelligence“insLebengerufenwurde.Foto:Dartmouth.edu

FünfderTeilnehmerderDartmouth-KonferenzimspäterenAlter:Vonlinks:TrenchardMore,Lisp-ErfinderJohnMcCarthy,MarvinMinsky,OliverSelfridgeundRaySolomonoff.

Page 19: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

19

SOLVER“ (GPS) wurde dann auch tatsächlich von Newell, Shaw und Simon Ende der 50er Jahre gebaut. Er beruhte auf der sogenannten Means-End-Analyse (Mittel-Zweck-Analyse) und löste das Missionar-Kan-nibale-Problem und andere solcher Spielprobleme. Für komplexe, reale Probleme, die Wissen erfordern, war der GPS nicht geeignet. Er wurde 1967 aufgegeben.

In der Sprachverarbeitung war man überzeugt, dass die Syntax eines Satzes genügt und man ohne Semantik und Wissen auskommt. Prototypisch für diese Phase waren etwa Programme wie BASEBALL (Green 1963) oder SAD-SAM (Lindsay 1963), die einfache Fragen als Eingabe akzeptierten und in diesen Fragen nach Schlüsselwörtern oder bestimmten Mustern such-ten. BASEBALL konnte beispielsweise Fragen über Baseball-Spiele beantworten, indem es Eingabesätze mit Hilfe von Schlüsselwörtern in eine bestimmte Form brachte und eine Antwort durch Mustervergleich fand.

Projekte zur maschinellen Sprachübersetzung wurden in Millionenhöhe von der amerikanischen Regierung gefördert. Sätze wurden Wort für Wort übersetzt, zu-sammengestellt und an die jeweilige Zielsprache ange-passt. Die Probleme reduzierten sich darauf, umfangrei-che Wörterbücher anzulegen und effizient abzusuchen.

Man verkannte in dieser Phase der KI-Forschung, dass Sprache vage und mehrdeutig ist und für automatisches Übersetzen vor allen Dingen umfangreiches Weltwis-sen erforderlich ist.

KünstlicheIntelligenzimElfenbeinturm:1965bis1975

Die zweite Ära der KI lässt sich etwa zwischen 1965 und 1975 ansiedeln und mit dem Schlagwort KI-Winter und Forschung im Elfenbeinturm umschreiben. Weil nicht genügend Fortschritte erkennbar waren, wurde die Fi-nanzierung der US-Regierung für KI-Projekte gekürzt. KI-Forscher zogen sich daraufhin in den Elfenbeinturm zurück und agierten in Spielzeugwelten ohne prakti-schen Nutzen.

Frustriert von der Komplexität der natürlichen Welt bauten die Forscher in dieser Phase Systeme, die auf künstliche Mikrowelten beschränkt waren. Die Wis-senschaftler hofften damit, sich auf das Wesentliche konzentrieren zu können und durch Erweiterung der Mikrowelt-Systeme nach und nach natürliche Um-gebungen in den Griff zu bekommen. In dieser Phase erkannten die KI-Forscher die Bedeutung von Wissen für intelligente Systeme.

Ein typisches Programm dieser Periode mit einigem Aufmerksamkeitswert ist SHRDLU von Terry Wino-grad (1972). Das natürlichsprachliche System agiert in einer überschaubaren Klötzchenwelt, beantwortet Fra-gen nach der Lage von Klötzchen und stellt Klötzchen auf Anfrage symbolisch um. SHRDLU gilt als das erste Programm, das Sprachverständnis und die Simulation planvoller Tätigkeiten miteinander verbindet.

Ebenfalls in einer überdimensionalen Klötzchenwelt lebte der Ende der sechziger Jahre in Stanford ent-wickelte erste autonome Roboter - aufgrund seiner ruckartigen Bewegungen SHAKEY genannt. Der Kopf ist eine drehbare Kamera, der Körper ein riesiger Com-puter. Man konnte ihm Anweisungen geben, wie etwa einen Block von einem Zimmer in ein anderes Zim-mer zu bringen. Das dauerte allerdings ziemlich lange. SHAKEY funktionierte leider nur in dieser Laufstall-

AllenNewell(rechts)undHerbertSimonvonderCarnegieMellonUniversityentwickeltenmitdemLOGICTHEORISTdasersteKI-ProgrammunddenGENERALPROBLEMSOLVER.Foto:Computerhistory.org

Page 20: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

20

Umwelt, in der realen Welt war er zum Scheitern verurteilt.

Ende der 1960er Jahre war die Geburtsstunde des ers-ten Chatbots: Der KI-Pionier und spätere KI-Kritiker Joseph Weizenbaum (1923-2008) vom MIT entwickelte mit einem relativ simplen Verfahren das „sprachverste-hende“ Programm ELIZA. Simuliert wird dabei der Di-alog eines Psychotherapeuten mit einem Klienten. Das Programm übernahm den Part des Therapeuten, der Nutzer konnte sich mit ihm per Tastatur unterhalten. Weizenbaum selbst war überrascht, auf welch einfache Weise man Menschen die Illusion eines Partners aus Fleisch und Blut vermitteln kann. Er berichtete, seine

Sekretärin hätte sich nur in seiner Abwesenheit mit ELIZA unterhalten, was er so interpretierte, dass sie mit dem Computer über ganz persönliche Dinge sprach.

DenkendeKI-Maschinen?-StarkeundschwacheKI

In den siebziger Jahren begann ein heftig ausgefochte-ner Streit um den ontologischen Status von KI-Maschi-nen. Bezugnehmend auf die Arbeiten von Alan Turing formulierten Allen Newell und Herbert Simon von der Carnegie Mellon University die „Physical Symbol Sys-tem Hypothesis“. Ihr zufolge ist Denken nicht anderes als Informationsverarbeitung, und Informationsverar-beitung ein Rechenvorgang, bei dem Symbole manipu-liert werden. Auf das Gehirn als solches komme es beim Denken nicht an.

SHRDLUisteinnatürlichsprachlichesSystem,dasineinerüber-schaubarenKlötzchenweltagiert,FragennachderLagevonKlötzchenbeantwortetundKlötzchenaufAnfragesymbolischumstellt.Foto:http://hci.stanford.edu/winograd/shrdlu/

DasProgrammELIZAvonJosephWeizenbaumahmteinenPsycho-therapeutennach.HiereinausdemEnglischenübersetztesBei-spieleinerSitzung,dievonWeizenbaumaufgezeichnetwurde.DiemenschlichenInputssindmit„M>“gekennzeichnet,dieAntwortdesComputersistmit„C>“angegeben.Foto:Weizenbaum

Page 21: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

21

Diese Auffassung griff der Philosoph John Searle vehement an. Als Ergebnis dieser Auseinandersetzung stehen sich bis heute mit der schwachen und starken KI zwei konträre Positionen gegenüber. Die schwache KI im Sinne von John Searle behauptet, dass KI-Maschi-nen menschliche kognitive Funktionen zwar simulieren und nachahmen können. KI-Maschinen erscheinen aber nur intelligent, sie sind es nicht wirklich.

Ein zentrales Argument der schwachen KI lautet: Menschliches Denken ist gebunden an den menschli-chen Körper und insbesondere das Gehirn. Kognitive Prozesse haben sich historisch im Zuge der evolutio-nären Entwicklung von Körper und Gehirn entwickelt. Damit ist Denken notwendigerweise eng verknüpft mit der Biologie des Menschen und kann nicht von dieser getrennt werden. Computer können zwar diese Denk-prozesse imitieren, aber das ist etwas ganz anderes als das, wie Menschen denken. Sowenig, wie ein simulier-tes Unwetter nass macht, sowenig ist ein simulierter Denkprozess dasselbe wie menschliches Denken.

Im Gegensatz dazu sagen die Anhänger der von Newell und Simon inspirierten starken KI, dass KI-Maschinen in demselben Sinn intelligent sind und denken können wie Menschen. Das ist nicht metaphorisch, sondern wörtlich gemeint. Für die starke KI spricht: So wie Computer aus Hardware bestehen, so bestehen auch Menschen aus Hardware. Im ersten Fall ist es Hardware auf Silizium-Basis, im zweiten Fall biologische „Wetwa-re“. Es spricht grundsätzlich nichts dagegen, dass sich Denken nur auf einer spezifischen Form von Hardware realisieren lässt. Nach allem was man bislang aus der Gehirn- und Bewusstseinsforschung weiß ist eine ge-wisse Komplexität der Trägersubstanz eine notwendige (und vielleicht auch hinreichende) Bedingung für Denk-prozesse. Sind KI-Maschinen also hinreichend kom-plex, denken sie in der gleichen Weise wie Sie und ich.

Expertensysteme-dieKIwirdpraktisch:1975bis1985

In der dritten Ära ab Mitte der 70er Jahre löste man sich von den Spielzeugwelten und versuchte praktisch einsetzbare Systeme zu bauen, wobei Methoden der

Wissensrepräsentation im Vordergrund standen. Die KI verließ ihren Elfenbeinturm und KI-Forschung wurde auch einer breiteren Öffentlichkeit bekannt.

Die von dem US-Informatiker Edward Feigenbaum initiierte Expertensystem-Technologie beschränkt sich zunächst auf den universitären Bereich. Nach und nach entwickelten sich Expertensysteme jedoch zu einem kleinen kommerziellen Erfolg und waren für viele iden-tisch mit der ganzen KI-Forschung - so wie heute für viele Machine Learning identisch mit KI ist.

In einem Expertensystem wird das Wissen eines be-stimmten Fachgebiets in Form von Regeln und großen Wissensbasen repräsentiert. Das bekannteste Exper-tensystem war das von T. Shortliffe an der Stanford University entwickelten MYCIN. Es diente zur Unter-stützung von Diagnose- und Therapieentscheidungen bei Blutinfektionskrankheiten und Meningitis. Ihm wurde durch eine Evaluation attestiert, dass seine Ent-scheidungen so gut sind wie die eines Experten in dem betreffenden Bereich und besser als die eines Nicht-Experten.

ExpertensystemewieMYCINkonntenmitHilfevonRegelnundWis-sensbasenDiagnoseerstellenundTherapienempfehlen.Foto:UniversityofScienceandCulture

Page 22: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

22

Ausgehend von MYCIN wurden eine Vielzahl weiterer Expertensysteme mit komplexerer Architektur und umfangreichen Regeln entwickelt und in verschiedens-ten Bereichen eingesetzt. In der Medizin etwa PUFF (Dateninterpretation von Lungentests), CADUCEUS (Diagnostik in der inneren Medizin), in der Chemie DENDRAL (Analyse der Molekularstruktur), in der Geologie PROSPECTOR (Analyse von Gesteinsfor-mationen) oder im Bereich der Informatik das System R1 zur Konfigurierung von Computern, das der Digital Equipment Corporation (DEC) 40 Millionen Dollar pro Jahr einsparte.

Auch das im Schatten der Expertensystem-Euphorie stehende Gebiet der Sprachverarbeitung orientierte sich an praktischen Problemstellungen. Ein typisches Beispiel ist das Dialogsystem HAM-ANS, mit dem ein Dialog in verschiedenen Anwendungsbereichen geführt werden kann. Natürlichsprachliche Schnittstellen zu Datenbanken und Betriebssystemen drangen in den kommerziellen Markt vor wie INTELLECT, F&A oder DOS-MAN.

DieRenaissanceneuronalerNetze:1985bis1990

Anfang der 80er Jahre kündigte Japan das ehrgeizige „Fifth Generation Project“ an, mit dem unter anderem geplant war, praktisch anwendbare KI-Spitzenfor-schung zu betreiben. Für die KI-Entwicklung favori-sierten die Japaner die Programmiersprache PROLOG, die in den siebziger Jahren als europäisches Gegenstück zum US-dominierten LISP vorgestellt worden war. In PROLOG lässt sich eine bestimmte Form der Prädika-tenlogik direkt als Programmiersprache verwenden. Japan und Europa waren in der Folge weitgehend PROLOG-dominiert, in den USA setzte man weiterhin auf LISP.

Mitte der 80er bekam die symbolische KI Konkurrenz durch die wieder auferstandenen neuronalen Netze. Basierend auf Ergebnissen der Hirnforschung wurden schon in den vierziger Jahren durch McCulloch, Pitts und Hebb erste mathematische Modelle für künstliche neuronale Netze entworfen. Doch damals fehlten leis-tungsfähige Computer. Nun in den Achtzigern erlebte

das McCulloch-Pitts-Neuron eine Renaissance in Form des sogenannten Konnektionismus.

Der Konnektionismus orientiert sich anders als die symbolverarbeitende KI stärker am biologischen Vorbild des Gehirns. Seine Grundidee ist, dass Infor-mationsverarbeitung auf der Interaktion vieler einfa-cher, uniformer Verarbeitungselemente basiert und in hohem Maße parallel erfolgt. Neuronale Netze boten beeindruckende Leistungen vor allem auf dem Gebiet des Lernens. Das Programm Netttalk konnte anhand von Beispielsätzen das Sprechen lernen: Durch Eingabe einer begrenzten Menge von geschriebenen Wörtern mit der entsprechenden Aussprache als Phonemketten konnte ein solches Netz zum Beispiel lernen, wie man englische Wörter richtig ausspricht und das gelernte auf unbekannte Wörter richtig anwendet.

Doch selbst dieser zweite Anlauf kam zu früh für neu-ronale Netze. Zwar boomten die Fördermittel, aber es wurden auch die Grenzen deutlich. Es gab nicht genü-gend Trainingsdaten, es fehlten Lösungen zur Struktu-rierung und Modularisierung der Netze und auch die Computer vor der Jahrtausendwende waren immer noch zu langsam.

VerteilteKIundRobotik:KünstlicheIntelligenzzwischen1990und2010

Ab etwa 1990 entstand mit der Verteilten KI ein weite-rer, neuer Ansatz, der auf Marvin Minsky zurückgeht. In seinem Buch „Society of Mind“ beschreibt er den menschlichen Geist als eine Art Gesellschaft: Intel-ligenz, so Minsky, setzt sich zusammen aus kleinen Einheiten, die primitive Aufgaben erledigen und deren Zusammenwirken erst intelligentes Verhalten erzeugt. Minsky forderte die KI-Gemeinde auf, die individualis-tische Sackgasse zu überwinden und ganz andere, sozial inspirierte Algorithmen für Parallelrechner zu entwer-fen.

Sein Schüler Carl Hewitt setzte ein erstes handfestes Modell um, in dem primitive Einheiten - er nannte sie Actoren - miteinander Botschaften austauschten und parallel arbeiteten. Der Gedanke des sozial interagie-

Page 23: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

23

renden KI-Systems war damit konkret geboren - und Carl Hewitt zum Vater des neuen Ansatzes der Verteil-ten KI bzw. Distributed AI geworden. Im Rückblick er-weisen sich Minsky‘s und Hewitt‘s Ideen als der Beginn der Agententechnologie, bei der die Zusammenarbeit vieler verschiedener Agenten - sogenannte Multi-Agen-ten-Systeme -ein enormes Potenzial entfaltet.

Ein KI-Meilenstein in den 90er Jahren war der erste Sieg einer KI-Schachmaschine über den Schachwelt-meister. 1997 bezwang der IBM-Rechner Deep Blue in einem offiziellen Turnier den damals amtierenden Schachweltmeister Garry Kasparov. Dieses Ereignis galt als historischer Sieg der Maschine über den Men-schen in einem Bereich, in dem der Mensch bislang die Oberhand hatte. Das Event sorgte weltweit für Furore und brachte IBM viel Aufmerksamkeit und Renommee. Heute gelten Computer im Schach als unschlagbar. Dennoch fiel auf den Sieg des Computers auch ein Schatten, weil Deep Blue seinen Erfolg weniger seiner künstlichen, kognitiven Intelligenz verdankte, sondern mit roher Gewalt („Brute Force“) alle nur denkbaren Züge soweit wie möglich durchrechnete.

In dieser Zeit bekam auch die bis dahin eher dahindüm-pelnde Robotik neuen Auftrieb. Der ab 1997 jährlich ausgetragene RoboCup demonstrierte eindrucksvoll, was KI und Robotik leisten können. Wissenschaftler

und Studenten aus der ganzen Welt treffen sich seitdem regelmässig, um ihre Roboter-Teams gegeneinander im Fußball antreten zu lassen. Inzwischen fechten die mobilen Roboter auch andere Wettkämpfe aus als Fußball. Ab etwa 2005 entwickeln sich Serviceroboter zu einem dominanten Forschungsgebiet der KI und um 2010 beginnen autonome Roboter, ihr Verhalten durch maschinelles Lernen zu verbessern.

DiekommerzielleWende:KIab2010

Die aktuelle KI-Phase startete etwa um 2010 mit der beginnenden Kommerzialisierung. KI-Anwendungen verließen die Forschungslabors und machten sich in Alltagsanwendungen breit. Insbesondere die KI-Gebie-te maschinelles Lernen und Natural Language Proces-sing boomen. Hinzu kommen neuronale Netze, die ihre zweite, diesmal sehr erfolgreiche Wiedergeburt erleben.

Die Hauptursachen für die kommerzielle Wende waren verbesserte KI-Verfahren und leistungsfähigere Soft-ware und Hardware: Softwareseitig erwiesen sich die weiter entwickelten neuronalen Netze und vor allem eine Variante - Deep Learning - als sehr robust und vielseitig einsetzbar. Weitere Trends wie Multi-Core-Architekturen, verbesserte Algorithmen und super-schnelle In-Memory-Datenbanken machten KI-An-

MarvinMinskygiltalsVaterderVerteiltenKI.Foto:CreativeCommons 1997bezwangerstmalseinComputer–IBMsDeepBlue–denamtie-

rendenSchachweltmeister.Foto:IBM

Page 24: Künstliche Intelligenz - CIO · 2018-05-04 · Predictive Analytics, Ausfallrisiken oder Kundenver-halten zu entwickeln. Andere AI-Anwendungen wie Natural Language Processing sind

Künstliche Intelligenz

24

wendungen gerade auch für den Unternehmensbereich attraktiv. Ein zusätzlicher Faktor ist auch die zuneh-mende Verfügbarkeit großer Mengen strukturierter und unstrukturierter Daten aus einer Vielzahl von Quellen wie Sensoren oder digitalisierten Dokumenten und Bil-dern, mit denen sich die Lernalgorithmen „trainieren“ lassen.

Im Zuge dieser verbesserten technischen und ökono-mischen Möglichkeiten entdeckten auch die großen IT-Konzerne die KI: Den Grundstein legte 2011 IBM mit Watson. Watson kann natürliche Sprache verstehen und schwierige Fragen sehr schnell beantworten. 2011 konnte Watson in einem US-amerikanischen TV-Quiz zwei menschliche Kandidaten beeindruckend schlagen. In der Folge baute IBM Watson zu einem kognitiven System aus, das Algorithmen der natürlichen Sprach-verarbeitung und des Information Retrieval, Methoden des maschinellen Lernens, der Wissensrepräsentation und der automatischen Inferenz vereinte. Inzwischen wurde Watson in verschiedenen Gebieten wie Medizin und Finanzwesen erfolgreich angewendet und IBM hat einen Großteil seines Business auf Watson ausgerichtet.

Andere Big Player zogen nach. Google, Microsoft, Face-book, Amazon und Apple investieren viele Millionen in KI und stellen KI-Anwendungen und -Services bereit. Das vorläufig letzte große Event der KI-Geschichte ereignete sich im letzten Jahr. Im Januar 2016 schlägt Google‘s AlphaGo den vermutlich weltbesten Go-Spieler mit 4 zu 1. Wegen der größeren Komplexität von Go im Vergleich zu Schach ist das japanische Brettspiel mit traditionellen Brute-Force-Algorithmen, wie sie noch Deep Blue verwendete, praktisch nicht bezwing-bar. Deep Learning und andere aktuelle KI-Verfahren führten hier zum Erfolg.

IBMWatsonwar2011SiegerineinemWissensquizmitmenschlichenKandidaten.IBMvermarktetWatsonnunalskognitivesSystemfürverschiedeneEinsatzbereiche.Foto:IBM

Impressum: IDG Business Media GmbH, Lyonel-Feininger-Straße 26, 80807 München

Telefon: +49-89-360-0, Telefax: +49-89-36086-118, E-Mail.: [email protected] für den redaktionellen Teil: Heinrich Vaske, Chefredakteur COMPUTERWOCHE

24