Marketing Technologie

Künstliche Intelligenz: Ein Gespräch über Mythen, Definitionen und die Zukunft

Julian Kramer, Adobe, Chief Experience Ambassador, Künstliche Intelligenz, KI, Artificial Intelligence, AI
Julian Kramer ist bei Adobe als Chief Experience Ambassador tätig. (Foto: Unternehmen)
geschrieben von Christian Erxleben

Beinahe auf jeder Konferenz wird inzwischen über Künstliche Intelligenz (KI) gesprochen. Doch was versteckt sich eigentlich dahinter? Und wie unterscheiden sich die einzelnen Formen voneinander? Julian Kramer liefert im Interview Antworten.

Bei Künstlicher Intelligenz verhält es sich, wie auch bei vielen anderen Buzzwords: Jeder spricht darüber, doch nur die wenigsten Diskussions-Teilnehmer wissen, worum es geht.

Deswegen haben wir uns mit Julian Kramer getroffen. Der Chief Experience Ambassador von Adobe klärt im Interview mit uns viele bestehende Mythen rund um Künstliche Intelligenz auf, liefert wichtige Definitionen und erklärt, wie sich unsere Zukunft dadurch verändert.

BASIC thinking: Julian, was ist eigentlich Künstliche Intelligenz?

Julian Kramer: Künstliche Intelligenz sind nach der aktuellen Definition Algorithmen, die automatisch Aufgaben erledigen können und sich mit Maschinellem Lernen selbst trainiert haben, und dann mit Datenströmen automatisierte spezifische Aufgaben erledigen. Das kann beispielsweise das automatische Bilden von Zielgruppensegmenten oder Objekterkennung sein.

Dabei sprechen wir von einer sogenannten Narrow Purpose Intelligence (NPI). Das sind klar definierte, oft fachspezifische Anwendungen für Prozesse in unterschiedlicher Komplexität.

Und was ist mit den Vorstellungen aus der Science Fiction?

Das, wovon in den Science-Fiction-Filmen gesprochen wird – die Singularität – ist eine sogenannte Super Intelligence. Also eine Intelligenz, die unserer überlegen ist. Davon sind wir noch ein ganzes Stück weg. Als Stufe dazwischen gibt es die General Purpose Intelligence (GPI).

Hier könnte man sich vorstellen, dass Alexa die Aussage „Räume zu Hause auf!“ in all ihrer Komplexität versteht und daraufhin alle nötigen Aktionen auslöst. Dafür müsste Alexa allerdings wissen, was „sauber“ und was „dreckig“ ist, wo Objekte hingehören und wie diese mithilfe von Robotik dann aufgeräumt werden können.

Die gleiche KI könnte dann aber auch verstehen, was zu tun ist, wenn ich ihr sage „Besorg ein Geburtstagsgeschenk für meine Tochter!“ oder „Verschiebe meine Termine, damit ich noch einen Friseur-Termin unterbekomme!“

Alles Dinge, die heute im Einzelnen höchstens im Prototypen-Stadium sind, aber in der Summe einfach noch zu komplex und teuer sind. Bis wir dort sind, dauert es noch ein bisschen.

Die Künstliche Intelligenz, die wir derzeit erleben, fällt also in die erste Kategorie?

Ja. Wir sehen insbesondere im digitalen Marketing viele Anwendungen, da es dort viele Datenströme gibt, die eine KI analysieren und im Anschluss auf bestimmte Kennzahlen hin optimieren kann.

Alles, was sich virtuell oder digital abbilden lässt, ist aktuell gut geeignet für Künstliche Intelligenz. In der Zwischenzeit gibt es einige Anbieter, die für genau diese Anwendungen vortrainierte Algorithmen anbieten.

Deswegen sehen wir eine stetig steigende Adoptionsrate. Dies ist jedoch nicht der Fall, weil die Unternehmen ihre eigenen KIs programmieren, sondern weil sie am Markt verfügbare Tools effizient nutzen und an ihre Bedürfnisse anpassen können.

Wie lernt eine Künstliche Intelligenz?

Grundsätzlich muss man zwischen Künstlicher Intelligenz und Machine Learning unterscheiden. Das erste ist die „fertige KI“ – also Algorithmen, mit denen sich Daten verarbeiten lassen. Machine Learning ist der Prozess, in dem eine KI angelernt wird, ohne jede Programmier-Logik händisch coden zu müssen.

Dabei gibt es stark vereinfacht drei große Trainingsmethoden: Unsupervised Learning, Supervised Learning und Reinforcement Learning.

Unsupervised Learning nutzt man vor allem dann, wenn man viele unstrukturierte Daten hat und sich von der KI eine Mustererkennung, ein Clustering oder Ähnliches erhofft. Dabei werden alle Daten zusammengekehrt und in die Maschine geschmissen. Im Anschluss erkennt der Algorithmus vielleicht bestimmte Muster – oder eben auch nicht.

Und wie unterscheidet sich davon das Supervised Learning?

Das Supervised Learning benötigt sogenannte Labled Data Sets – also vorstrukturierte Daten. Das können beispielsweise Tausende Bilder von verschiedenen Bienen sein. Diese Bilder sind mit dem Stichwort „Biene“ gekennzeichnet.

Der Algorithmus entwickelt dann zwar kein konzeptionelles Verständnis einer Biene als fliegendes Insekt. Aber mit genügend Bildern von Bienen erkennt er irgendwann aus Pixelhaufen das Objekt „Biene“ mit einer bestimmten Wahrscheinlichkeit.

In diesem Lernprozess sind Feedback-Schleifen, bei denen ich das Ergebnis durch zusätzliche Informationen verfeinern kann, möglich. Wenn der Algorithmus beispielsweise gesagt bekommt, dass die erkannte Katze im Bild keine Katze, sondern ein Waschbär ist – beziehungsweise eben „keine Katze“ –, verfeinert sich das Lernschema.

Dabei kann es doch zu Problemen kommen, oder?

Richtig! In diesem Fall haben wir stark mit dem sogenannten Data Debiasing in unseren Trainings-Datensets zu kämpfen.

Wenn wir alle berühmten Wissenschaftler in eine Datenbank schmeißen, ist Marie Curie als Frau, unabhängig von ihrem Beitrag zur Wissenschaft, eine statistische Anomalie, da die Disziplin über Jahrhunderte doch eher männlich besetzt war.

Ein solcher Algorithmus würde bei der Berufsberatung verheerende, voreingenommene Empfehlungen treffen, die unsere Realität gar nicht abbilden. An dieser Stelle müssen also historisch jüngere Informationen zu Beschäftigungsmöglichkeiten stärker gewichtet werden, damit die Algorithmen über den Tellerrand blicken können.

Und selbst dann wäre das Trainings-Datenset für diese Aufgabe vermutlich eine völlig blödsinnige Datengrundlage, der man seine eigenen Kinder nicht aussetzen wollte.

Und dann hast du noch das Reinforcement Learning angesprochen.

Exakt. In dem Fall hat der Algorithmus kein Verständnis der Welt, sondern bekommt Parameter, die er kontrollieren und variieren kann. Ich gebe dem Algorithmus dann ein Ziel, einen Highscore oder ähnliches vor – und er optimiert auf dieses Ziel hin selbstständig durch tausende Simulationen.

Richtig spannend wird es, wenn man die verschiedenen Lernmethoden miteinander kombiniert und sich Algorithmen gegenseitig trainieren. Das nennt man dann Adversary Learning.

Beispielhaft könnte man einen Algorithmus nehmen, der lernen soll, Katzen zu malen, und einen, der schon gelernt hat, wie man Katzen erkennt. Erst wenn es der eine Algorithmus schafft, dem anderen ein plausibles Ergebnis vorzusetzen, das als Katze erkannt wird, ist der Lernprozess abgeschlossen.

Einer der bekanntesten Algorithmen ist der Facebook-Algorithmus. Auf welche Learning-Methode setzt dieser?

Ich kann natürlich nicht für Facebook sprechen – und viele dieser Algorithmen setzen sich aus unzähligen Systemen zusammen. Grundsätzlich kann man aber sagen, dass die meisten Social Networks vermutlich eine Content-Erkennung und eine Optimierung auf Engagement und Retention haben.

Das Geschäftsmodell beruht ja darauf, den Nutzern in strukturell begrenzten Möglichkeiten Anzeigen ausspielen zu können. Folglich muss die Verweildauer auf einer Plattform lang genug sein, da nur X Anzeigen in einem Zeitraum vom Nutzer toleriert werden, bevor sie sich abwenden.

Jeder Europäer kennt das Sättigungsgefühl, wenn er das erste Mal den Superbowl live im Fernsehen sieht. Da gibt es so etwas wie „ungewohnt zu viel des Guten.“

Zurück zu den Algorithmen der Plattformen.

Je mehr relevanten Inhalt ich sehe, desto länger bleibe ich auf der Plattform. Von daher fließen alle möglichen Engagement- und Relevanz-Signale – Likes, Klicks, Subscribes, Kommentare und Co. in die Optimierungslogik der Content-Ausspielung mit ein.  In der Regel ist es eine Kombination aus verschiedenen optimierten Zielen, die die Nutzungsdauer erhöhen sollen.

Hinzu kommen dann häufig noch die sogenannten Ripple-Effekte: Wenn viele Menschen einer bestimmten Gruppe mit Inhalten interagieren, spielt der Algorithmus den Inhalt auch der nächst größeren Gruppe aus, weil die Relevanz in der Zielgruppe scheinbar sehr hoch ist. Phänomene und Begriffe wie Filterblase oder extremer der „Echo Chambers“ zeigen hier aber auch schnell die Grenzen der Möglichkeiten auf.

Für Genaueres müsstet ihr aber wirklich Facebook fragen – der Algorithmus liegt im gleichen Schrank wie die Coca Cola-Rezeptur.

Fast jedes Unternehmen wirbt derzeit mit Künstlicher Intelligenz. Vieles davon ist lediglich Automatisierung. Wo liegen die Unterschiede?

Wir erleben gerade einen Hype um KI, meinen oft jedoch völlig unterschiedliche Dinge. Schließlich ist KI ein schickes Buzzword, das jeder gerne auf seiner Fahne stehen hat, doch aus all den vorher genannten Herausforderungen gar nicht so unkompliziert umzusetzen ist.

Für den Laien sind die Erwartungshaltungen irgendwo bei Sci-Fi-Supercomputern und die Ernüchterung in der eigenen Siri-Interkation schnell groß. Da stoßen wir bei vielen Produkten schnell an eine Glaswand an Erwartungen.

Ein Algorithmus, der im Hintergrund arbeitet und riesige Datenmengen analysiert, erledigt komplizierte Arbeiten in Millisekunden schneller als du es selbst je können wirst.

Automatisierung klingt unsexy, obwohl es zum Beispiel unsere Kreditkartentransaktionen und Dokumente auf Anomalien untersucht, bessere Content-Empfehlungen ausspricht und effizienter Media einkauft.

Rund 55 Prozent der Marketer sind aktuell nicht in der Lage, ihre Datenströme in Echtzeit zu managen, Insights aus Daten zu generieren oder damit die Customer Experience anzupassen. Das kann nur mit guter KI gelingen. Zu diesem Ergebnis kommt unser aktueller Report „Context is everything“.

Operativ sind das enorme Produktivitäts-Gewinne, die dann eben unter Automatisierung laufen, während man seinen virtuellen Assistenten verflucht, weil er statt eine Kurznachricht zu versenden das Wetter in Norwegen vorliest.

Eben hast du indirekt schon eine große Angst der Deutschen angesprochen. Die Angst davor, dass ihr Job durch eine Künstliche Intelligenz überflüssig wird. Wie stehst du dazu?

Wir Menschen sind ja, wenn wir ganz ehrlich sind, kognitiv limitiert. Die meisten tun sich im Kopf schon mit Dreisatz rechnen schwer. Für einen Computer ist das kein Problem. Weit komplexere Aufgaben natürlich auch nicht – und das 24/7.

Wir könnten unsere Zeit und kreative Energie für viel interessantere, wichtige Arbeit nutzen, wenn wir den öden, langweiligen, repetitiven Teil unsere Arbeit automatisieren lassen.

Wir sind es gewohnt, die richtigen Antworten zu lernen. Ich glaube aber, dass es mittelfristig unser Job sein wird, die richtigen Fragen zu stellen und den Algorithmus nach der Lösung suchen zu lassen.

Woran machst du das fest?

In der oben zitierten Studie sieht man auch, dass 75 Prozent der befragten Unternehmen im Zuge der KI-Revolution neue Menschen einstellen. Selbstverständlich IT- und Analytics-Spezialisten, aber auch und sogar zu 40 Prozent in Stellen mit Schwerpunkt auf Soft Skills wie Change Management.

Es braucht Menschen, um diese Veränderungen verständlich zu erklären und zu implementieren. In beiden Fällen handelt es sich aber um kognitiv komplexere Jobs.

Und natürlich werden ein paar Berufsbilder obsolet – so wie wir seit der Erfindung des Kühlschranks heute auch keine Eismänner mehr haben, die uns Eisblöcke in den Keller tragen.

Was meinst du, woher der Platz für die ganzen Partykeller aus den 60ern herkommt. Von der großen Karriere als Lohnsteuerberater würde ich aber in Zeiten von digitalisierten Zahlungsströmen absehen.

Es ist also schlicht der Lauf der Zeit.

Ich habe deutlich mehr Technologie in meinem Leben als mein Großvater. Trotzdem arbeite ich immer noch mehr als acht Stunden am Tag. Wenn ich an meine Reisebuchungen, Spesenabrechnungen und Reportings denke, verbringe ich viel Zeit mit administrativen Aufgaben, in denen ich Nötiges, aber wenig Wertstiftendes leiste.

Deswegen bin ich bei Jack Ma, wenn er sagt, dass wir in naher Zukunft nur noch vier Tage die Woche vier Stunden lang arbeiten werden. Bisher haben wir aber durch mehr Technologie nicht weniger Arbeit.

Aber es ist selbstverständlich eine Herausforderung für die Bildung. Wenn wir jetzt die Weichen stellen, haben wir frühestens in 20 Jahren die Erträge. Je nach Fach-Orakel ist das der Zeitraum, bis wir vielleicht schon eine General Purpose Intelligence oder gar eine Singularity haben.

Darauf müssen zukünftige Generationen vorbereitet sein.

Sind also die Fähigkeit, Dinge zu hinterfragen und unsere Emotionen die großen Vorteile der Menschheit?

Eine nüchterne Antwort auf deine Frage liefert der Blick in die Medizin. Algorithmen werden dort eine so gute medizinische Grundversorgung ermöglichen, wie wir sie noch nie für die Mehrheit der Bevölkerung auf der Welt hatten – und zwar für alle Menschen. Gleichzeitig kann ich mir vorstellen, dass es in Zukunft mehr Psychologen als klassische Mediziner gibt.

Abstrakter beantwortet ist die häufig gestellte Frage, ob Kreativität überhaupt menschlich sei, da es doch Algorithmen gibt, die Gedichte schreiben, malen und Musik komponieren können.

Ich antworte darauf immer, dass es gerade in der Kunst doch der Mensch ist, der Dingen den Status der Kunst verleiht. Zwölftonmusik und Beuys sind doch die besten Beispiele. Deswegen kann ein algorithmisches Bild auch Kunst sein – muss es aber nicht.

Ein Gedicht räsoniert mit uns, weil es Dinge ausdrückt, die wir empfinden können, oder weil es eine Zeitkapsel in einem Zeitgeist – also die emotionale Grundstimmung, die die Menschen dieser Zeit beschäftigt hat – ist.

Die Frage ist doch: Was macht uns menschlich? Kann ein Computer, der über weit mehr Sensorik verfügt, unsere eigenen Gefühlszustände besser analysieren und dann simulieren? Ich weiß es nicht. Wenn wir aber in der Lage sind, interessante Fragen zu stellen, kommen wir schnell auf neue Fragen.

Letztendlich geht es also um die Frage, was menschlich ist.

Wir lernen in der Erforschung der Künstlichen Intelligenz mehr über uns selbst und die Prozesse im menschlichen Hirn, als uns das bewusst ist.

Weder ist es spannend, wenn zwei Computer gegeneinander Schach spielen. Noch ist es seit 1995 spannend, wenn zwei Menschen gegeneinander spielen. Die Kombination aus beidem macht es interessant. Ich bin mir sicher: Wir finden unseren Mehrwert in diesem System.

Apropos Mehrwert: Häufig hören wir die Frage, ob es einen Unterschied zwischen Künstlicher Intelligenz und Artificial Intelligence gibt. Was sagst du dazu?

Es ist schlichtweg die englische Übersetzung. Wichtig ist aber, dass sich der Begriff der Künstlichen Intelligenz stets weiterentwickelt.

Letztendlich gibt es KI schon seit den 1950er Jahren und sie wird sich mit Blick in die Zukunft verändern. Deswegen ist es ganz schwer, einen Haken hinter die Frage zu setzen, was nun Künstliche Intelligenz ist.

Das Wichtigste, wenn wir aktuell über Künstliche Intelligenz sprechen, ist, dass wir richtig zwischen Machine Learning und KI- Anwendung unterscheiden.

Algorithmen werden trainiert, danach verarbeiten sie Daten nach Mustern, die sie gelernt haben. Dafür benötigen wir zwei Dinge: Deine Trainingsdaten-Sets müssen sauber, vorurteilsfrei und ausbalanciert sein. Zusätzlich musst du die richtigen KPIs setzen, weil dein Algorithmus sonst auf Schrott optimiert.

Du lässt durchklingen, dass du nicht mit allen Punkten in der aktuellen Diskussion zufrieden bist. Was stört dich am meisten?

Ich finde es schwierig, KI als Buzzword für fast jedes Thema zu verwenden. Jeder, der sich ein wenig mit dem Thema beschäftigt, müsste nachfragen: Basierend auf welchen Daten hast du deine KI trainiert? Wie sieht eure Qualitätskontrolle aus? Was sind deine ethischen KI- Richtlinien?

Gefühlt kann jeder Algorithmen trainieren. Da besteht bei all dem Hype ein Risiko in der Qualität. Aber ich bin mir sicher, dass wir da schnell zu Lösungen ähnlich einer DIN-Norm, Standards und anderen Best Practices kommen werden.

Und das war es?

Was mich mindestens genauso wie die fehlende Kontrolle nervt, sind die dystopischen Ängste. Alle denken immer gleich an den Worst Case. Den muss man im Hinterkopf behalten, um die ethischen und rechtlichen Fragen hinter KI zu klären.

Aber am Ende des Tages gibt es viel zu wenig Bewusstsein dafür, wie KI funktioniert. Trotzdem führen viele eine öffentliche Diskussion aus Ängsten mit Halbwissen. Und das ist in keiner Diskussion förderlich.

Da würde ich mir wünschen, dass es eine bessere Allgemeinbildung gibt. Du musst keine Algorithmen selber programmieren können, aber du brauchst ein Verständnis für Grenzen und Risiken.

Wie kann ich denn als Marketer herausfinden, ob und wie eine KI trainiert ist?

Der einfachste Weg ist die Frage: Welcher Anbieter hat in welchem Bereich schon eine erwiesene Kompetenz und gegebenenfalls historisch schon eine relevante Datengrundlage? Da finden sich sehr schnell solide Partner, die dazu Antwort stehen können.

Der zweite Schritt in dieser Evaluation betrifft das Training von Algorithmen. Dort lohnt es sich, nach den Vorgaben und Ethik-Richtlinien zu fragen. Die meisten Unternehmen haben das. Wenn jemand an dieser Stelle zögert, sollte man genauer nachfragen.

Hinzu kommt, dass viele Unternehmen sehr viele Daten besitzen, die sehr einfach nutzbar gemacht werden können. Es ist jedoch ein entscheidender Kostenfaktor, ob man selbst eine KI entwickelt oder ob man jemandem seine Daten zur Verarbeitung mit vortrainierten oder angepassten Algorithmen anvertraut.

Wer seine Daten nur verarbeiten lassen möchte, braucht auch nicht so viele Daten wie für das Training einer eigenen KI. Das macht es auch leichter gegenüber den Kunden, deren Daten erhoben werden müssen.

In der Frage, welchem Dienstleister man hier vertraut, selektieren sich in verschiedenen Industrien schnell die möglichen Partner, wenn man auf konkurrierende Geschäftsmodelle blickt.

Und was ist mit KI-Start-ups?

Für die gelten die gleichen Fragen wie oben, nur, dass sie es oft schwerer haben, eine historische Kompetenz oder vertrauensvolle Daten-Pools nachweisen zu können. Das ist jetzt nicht als Start-up-Bashing zu verstehen.

Der klassische Marketer hat ja ein sehr komplexes Themenspektrum, muss immer agiler handeln und hat oft nicht nur ein singuläres Problem, weshalb er tendenziell integrierte Dienstleister bevorzugt.

KI-Start-ups bieten sich aus meiner Sicht viel häufiger als Akquise-Kandidaten für Busines Model Extensions und Acqui-Hiring an, weil es für sie oft leichter ist, sich mit überschaubaren Ressourcen fachspezifisch zu positionieren und dort gute Arbeit zu leisten.

Wie schließe ich das Gespräch?

Die finale Frage lautet: Wer bildet meine Komplexität ab? Du willst schließlich ein Analytics-Tool, das nicht nur deine Media misst, sondern auch deine App, die eingehenden Voice Commands in deiner Alexa Extension und deine Website. Nur wenn alle Anforderungen abgedeckt werden, kommt es auch zu einer maximalen Effizienz-Steigerung.

Heißt das, dass sich die deutschen Unternehmen darauf konzentrieren sollen, die richtigen Daten zu erheben und von anderen Unternehmen verarbeiten zu lassen?

Nein. Es kommt vielleicht etwas auf den Bereich an: Im Marketing- und Tech-Bereich sehe ich zwar eine Kompetenzballung. Die ist aber auch nur so stabil wie der nächste große Trend, der irgendwoher kommt.

Wenn wir aber in die deutsche Industrie und den Mittelstand blicken, sehe ich großes ungenutztes Potenzial. Wir blicken zum Beispiel im Maschinenbau durch künftige 5G-Netzwerke in eine Welt des Internet of Things mit extrem hochwertigen Industrieanwendungen und Service Models.

Es lohnt sich also, jetzt mit dem Aufbau der Kompetenzen zu beginnen und KI in viele Anwendungen einfließen zu lassen und seine eigenen Datenschätze zu heben. Hier wird es kaum Out-of-the-Box-Anwendungen geben, die das erledigen.

Ich bin zuversichtlich, dass in vielen Industrien die hier geltenden Regularien und gesellschaftlichen Standards mittelfristig sogar ein USP sein können. „KI made in Germany“ klingt doch irgendwie gut.

Vielen Dank für das Gespräch, Julian!

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.