Künstliche Intelligenz, Daten und Co. – wenige Themen haben Medienunternehmen in den letzten Jahren stärker inspiriert, gefordert und verunsichert.

Das Kernproblem: jeder redet darüber, aber wenige wissen, um was es geht. Die Begriffe klingen cool und was bei Google, Facebook und Netflix angesagt ist, muss wichtig und zukunftsfähig sein. Dass sich jedes Medienunternehmen damit beschäftigen muss: keine Frage. Aber es kann nur gelingen, wenn über alle Ebenen hinweg ein Verständnis besteht – doch davon sind die meisten weit entfernt.

Ein weiteres Problem: KI und Co. sind aus der Technik heraus in die Manager-Ebene gewachsen, nicht andersherum. Dadurch sind die Begriffe geprägt von Technik und meist wenig verständlich. Lesen Sie diesen Artikel zu Ende und Sie werden mehr Verständnis über KI und Co. haben als 99% der Menschen um Sie herum.

KI – die wichtigsten Grundbegriffe einfach erklärt

Künstliche Intelligenz: Künstliche Intelligenz/Artificial Intelligence beschreibt recht abstrakt einen großen Themenbereich. Die Grundidee: mit Algorithmen Entscheidungen treffen, die denen eines Menschen ähneln, jedoch beschränkt auf spezifische einzelne Aufgaben. KI ist alles und nichts. Auch einfache regelbasierte Algorithmen (“wenn dies gilt, dann tue das”) können KI-Algorithmen sein. Wichtig zu verstehen: die meisten KI-Systeme sind sehr fokussiert auf eine einzelne Aufgabe.

Machine Learning: Wer heute KI sagt, meint meist Machine Learning. Klassische Algorithmen arbeiten regelbasiert: die Regel wird programmiert, Daten gehen in den Algorithmus rein, Ergebnisse kommen heraus. Beim Machine Learning wird das ganze umgedreht: der Algorithmus „lernt“ auf Basis von Beispielen. Ein klassisches Szenario ist die Bilderkennung: Ein Algorithmus kriegt eine Menge an Bildern von Katzen und Hunden gezeigt, jeweils mit der Information, ob es sich um eine Katze oder einen Hund handelt. Mit diesen Beispieldaten (Daten mit „Labels“) wird der Algorithmus trainiert. Nach dem Training kann er neue, unbekannte Bilder einordnen: ist das eine Katze oder ein Hund. Jetzt sind Katzen und Hunden nicht sehr hilfreich für den Medienbereich. Daher ein anderes Beispiel: Welcher Nutzer wird bald kündigen? Welcher Nutzer wird bald ein Abo abschließen? Die Logik ist immer gleich: Beispieldaten von früheren Kündigern und früheren Abonnenten werden verwendet, um Algorithmen zu trainieren. Warum das „Learning“ in Machine Learning? Weil keine Regeln definiert werden sondern Beispiele gezeigt werden. Was heißt Learning? Der Algorithmus besteht aus mehreren Tausend, Millionen oder Milliarden von Parametern. Der Lernprozess findet die besten Parameter. Trial und Error gepaart mit schlauen Ansätzen.

Predictive Analytics: Ein spezieller Bereich des Machine Learnings. Hier geht es um Machine-Learning-Ansätze, die in die Zukunft schauen. Katzen auf Bildern zu erkennen ist nicht „Predictive“. Einen zukünftigen Kündiger zu erkennen schon. Ebenso die Vorhersage, dass bald ein Maschinenteil ausfallen wird. Alle Anwendungsfälle von Machine Learning, die die Zukunft vorhersagen, fallen unter den Begriff Predictive Analytics.

Natural Language Processing (NLP): Die meisten Algorithmen im Bereich Machine Learning arbeiten auf Zahlenbasis, am einfachsten über eine Tabelle mit Zahlen vorstellbar. Doch was ist mit Texten? Hier greift der große Bereich Natural Language Processing ein. NLP-Modelle sind trainierte Sprachmodelle auf großen Textmengen. Häufig wird dabei auf der kompletten Wikipedia trainiert oder auf großen Web-Crawlings – also Datensätzen, die große Mengen an Webseiten-Texten beinhalten. Doch was heißt in diesem Fall trainieren? NLP Modelle sind im Kern Ähnlichkeitsmodelle zwischen Wörtern. Die Logik: Wörter, die häufig „nah“ in Artikeln beisammen stehen, sind ähnlich. Zum Beispiel haben alle Wörter in einem Artikel über Tesla sicherlich mit dem Geschäftsmodell und Produkt von Tesla zu tun. Jedes Wort/jeder Begriff wird bei NLP als ein Vektor von Zahlen betrachtet – wie eine Linie die im Raum schwebt. Wörter, die zusammen gehören, sind nahe Linien. Die Konstellation der Linien zueinander sagt etwas über gemeinsame Richtung („König“ und „Prinz“) oder unterschiedliche Richtungen („König“ und „Königin“) aus. Statt über Linien im 3-dimensionalen Raum (also mit drei Parametern/Zahlen) sprechen wir hier statt über drei über Milliarden von Parametern. Jeder Begriff wird also über Milliarden von Zahlen abgebildet. Das „Training“ ist das Finden dieser Zahlen für jeden Begriff. Was kann man damit tun? Relevante Wörter und Begriffe erkennen, Zusammenhänge verstehen, automatisch Texte generieren.

Cloud Plattformen: Statt Rechner im Keller zu haben, gehen immer mehr Services in die Cloud. Auch für KI sind Cloud Services wie Amazon Web Services (AWS) und Google Cloud Platform (GCP) wichtig. Das hat zwei Gründe: häufig ist kurzzeitig sehr viel Rechenpower notwendig. In Cloud Plattformen können hunderte an Rechnern für einen kurzen Zeitraum gemietet werden, zum Beispiel für das Training eines großen Machine Learning Modells. Man bezahlt nur für das, was man an Rechenpower braucht. Das hat sehr große Vorteile. Ebenso benötigt man häufig spezielle Prozessoren oder Rechner mit sehr viel Arbeitsspeicher. Statt diese zu kaufen, werden sie sekundengenau in der Cloud gemietet.

Daten Pipeline: In KI Prozessen „fließen“ Daten durch verschiedene Systeme. Sie werden erfasst, bereinigt, angereichert etc.: eine Daten Pipeline. Der Begriff ist abstrakt und beschreibt das Verarbeiten von Daten in verschiedenen hintereinander geschalteten Prozessen. Häufig laufen diese Prozesse über verschiedene Systeme in Cloud Plattformen.

ETL: Daten für KI Systeme kommen aus verschiedenen Quellsystemen, werden verarbeitet und am Ende wieder in ein Zielsystem transportiert. Da ist er schon, der „Extract“-, „Transform“- und „Load“-Prozess. Auch hier gilt: ETL ist eher ein abstraktes Konzept und kein konkretes System. Für alle drei Stufen gibt es spezialisierte Systeme. Wie kriege ich Daten aus den Quellsystemen (z.B. SAP) heraus? Wie kann ich sie verarbeiten? Wie kriege ich die Ergebnisse wieder in ein Zielsystem herein?

BigQuery: Die Verarbeitung von sehr großen Datenmengen benötigt spezielle Systeme. Wir sprechen hier über Milliarden von Datensätzen (= Zeilen in einer Tabelle) – und häufig wird die Milliarde von Datensätzen je Woche oder je Tag gesammelt. Solche große Datenmengen kann man nicht mehr mit dem Rechner im eigenen Haus sinnvoll verarbeiten. Stattdessen bieten Cloud-Plattformen Lösungen an: Redshift bei AWS und BigQuery bei Google Cloud Platform. Vor allem BigQuery hat sich bei Medienunternehmen stark etabliert – zum Beispiel bei der New York Times (und in vielen Data Projekten von SCHICKLER). Auch hier gilt die gleiche Logik: sekundengenau mieten statt kaufen. Und starke Skalierbarkeit: bei Analysen werden im Hintergrund Dutzende oder Hunderte von Rechnern genutzt.

Dashboards: Jeder kennt Dashboards. Ihre wirkliche Kraft können sie im Zusammenspiel mit Cloud Plattformen entfalten. Dashboard-Systeme wie Tableau, PowerBI oder Superset verbinden sich zu Datenquellen in Cloud-Plattformen und können Daten in unterschiedlichsten Varianten visualisieren. Dashboards zu entwickeln ist einfach, wenn die vorgeschalteten Datenprozesse und Strukturen gut durchdacht sind.

Die verschiedenen Rollen im KI-Bereich

Neben den Technologien sind die verschiedenen Rollen im KI-Bereich nicht einfach zu verstehen. Im Kern gibt es drei Rollen. Große Unternehmen teilen diese weiter auf und arbeiten mit fünf bis sechs Rollen. Die wichtigsten Rollen sind:

Data Analyst: Ein Data Analyst führt vor allem Analysen aus. Vieles davon mündet am Ende in Dashboards und in Erkenntnissen. Stichworte sind hier: Python, Numpy, Pandas oder R.

Data Scientist: Ein Data Scientist entwickelt KI-Modelle, meist im Bereich von Machine Learning oder Natural Language Processing. Ziel des Modelle ist meist die Vorhersage von Ereignissen (Predictive Analytics). Stichworte sind hier: Machine Learning, Keras, Tensorflow. Gute Data Scientists sind im Kern auch exzellente Data Analysts.

Data Engineer: Der Aufbau von Cloud- und ETL-Prozessen liegt beim Data Engineer. Sie oder er kann Prozesse zur Verarbeitung großer Datenmengen entwickeln. Stichworte sind hier: AWS, GCP, ETL, BigQuery, Daten Pipelines.

Welche Rolle brauchen Sie? In 90% der Fälle benötigen Sie Data Analysts und Data Engineers. Denn es geht im ersten Schritt um das Verständnis der Daten und den Aufbau der Dateninfrastruktur. Data Scientists benötigen Sie meist in der nächsten Stufe, wenn Grunderkenntnisse und Dateninfrastruktur vorhanden sind.

Und nun? Jetzt wissen Sie mehr über KI und Co. als vermutlich 99% Ihrer Mitmenschen. Noch ein Tipp: KI und Co. sind keine Magie, sondern harte Arbeit. Es gibt nicht den Supercomputer, der alle Probleme magisch löst, sondern hart arbeitende Experten. Die eigentlichen Erkenntnisse liegen auf der Detailebene. Kein Algorithmus entwickelt z.B. eine Verkaufsstrategie. Mit Daten können Sie Erkenntnisse gewinnen, die eher zwei bis drei Detailebenen tiefer liegen. Das macht es mühsamer als viele denken, aber Mehrwert und Wettbewerbsvorteil sind deutlich größer, als die meisten auch nur ahnen.

Dr. Christoph Mayer (Partner SCHICKLER)

Sie möchten mehr zu dem Thema erfahren oder mit uns ins Gespräch kommen? Schreiben Sie uns gerne eine kurze E-Mail an c.mayer@schickler.de