Analytics in einer 360-Grad-Betrachtung: Blick zurück/in die Zukunft

Technologie   |   Taylor Porter   |   21. Jan. 2020 LESEZEIT: 20 MIN
LESEZEIT: 20 MIN

Es ist Januar 2010. Die große Rezession in den Vereinigten Staaten lässt langsam nach und die Weltwirtschaft ist dabei, sich zu erholen (wie auch das Ausgabeverhalten Ihres Partners). In der Tech-Welt kursieren Gerüche über ein bahnbrechendes Tablet von Apple namens „iPad” oder „iPal” – Sie können sich gerade nicht an den genauen Namen erinnern – doch Sie wundern sich darüber, dass jemand 500 $ für eine größere Version Ihres iPhone 3 ausgibt.

Sie wissen es noch nicht, doch es findet ein historischer Wandel in der Data-Science- und Analytics-Branche statt. Dank technologischer und kultureller Veränderungen werden Daten wichtiger denn je zuvor, und mit ihnen der wachsende Bedarf, ihnen irgendeinen Sinn zu entnehmen – und auf die Lösung wirtschaftlicher, geschäftlicher und sozialer Probleme anzuwenden.

Dean Stoecker, CEO von Alteryx, beschreibt die Revolution so: „Das Agrarzeitalter bot den Menschen Nahrung und führte zu Daten, die uns Erkenntnisse darüber liefern, wie abhängig der Mensch von der Erde ist. Das Industriezeitalter bot uns die Möglichkeit, Produkte herzustellen, die Daten darüber generierten, wie die Menschen mit Objekten interagieren, die nicht von dieser Erde stammen. Das Informationszeitalter führte dazu, dass die Menschen zunehmend physische und virtuelle Datenmengen erzeugten. Und das 4. Zeitalter ist nun das Analytics-Zeitalter, in dem der Mensch vor der Aufgabe steht, beliebigen Daten einen Sinn zu entnehmen, um jedes Problem zu lösen, mit dem wir je konfrontiert waren. Das wird ein Spaß.”

Analytics-Vergangenheit

Daten werden zum Rohstoff

Niemand hätte Daten in den frühen 2010ern als „rar" bezeichnet. Laut IDC wurden im Jahr 2010 weltweit 1 Zettabyte (ZB) an Daten generiert. Im Vergleich zu den 33 ZB, die in 2018 erzeugt wurden, sowie den 175 ZB, die für 2025 prognostiziert werden, ist dieses eine ZB lediglich ein Tropfen im Ozean.

Um das Ganze ins richtige Verhältnis zu setzen: Ein Zettabyte entspricht einer Billion Gigabyte oder einer Sextillion Byte – und somit mehr als der Summe der 2019 von der gesamten Menschheit getätigten Atemzüge (77 Billarden). Und, wie Sie vielleicht bereits im Kopf überschlagen haben, bedeuten 175 ZB eine Zunahme von 17.400 %. Selbst für Raumschiff Enterprise würde die Erforschung einer solchen Datenmenge ein kühnes Unterfangen einer neuen Dimension darstellen.

Was aber hat dieses außergewöhnliche Wachtum verursacht?

Am Anfang stand die Verbreitung von Daten. Hierzu trugen mehrere Faktoren bei, der größte jedoch war die Einführung des Internet der Dinge (Internet of Things, IoT). Plötzlich erzeugten alle unsere IoT-Geräte – Geräte, die über WLAN oder andere Funknetzwerke wie Bluetooth oder Mobilfunknetze verbunden waren – Daten. Von unseren Smartphones bis hin zu unseren Smart-Kühlschränken generierten diese Geräte Daten über buchstäblich alles – von unseren Gewohnheiten bis hin zur Menge fettfreier Milch, die wir noch im Schrank hatten. Die Unternehmen waren, verständlicherweise, bemüht, mehr Daten über Menschen, Produkte und Transaktionen zu erfassen und zu nutzen als je zuvor.

Als die Datenerzeugung exponentiell zunahm, mussten wir Wege finden, all diese Daten zu speichern. Andrew Brust, CEO/Gründer von Blue Badge Insights, erklärt: „Mit Technologien wie zunächst Hadoop und anschließend der Cloud-Objektspeicherung wurde eine knappe Ressource [Daten] zu einem Rohstoff, und die analytische Ausrichtung veränderte sich von der Frage, welche wenigen Dinge es wert waren, analysiert zu werden, hin zur Frage, warum wir diese Daten nicht speichern und untersuchen sollten.”

„Eine knappe Ressource [Daten] wurde zu einem Rohstoff, und die analytische Ausrichtung veränderte sich von der Frage, welche wenigen Dinge es wert waren, analysiert zu werden, hin zur Frage, warum wir diese Daten nicht speichern und untersuchen sollten.”

– Andrew Brust, CEO/Gründer, Blue Badge Insights

Wenngleich lokale Hardware und Server Sicherheit boten, konnte eine Datenspeicherung vor Ort kostspielig und schwer skalierbar sein. Cloud-Speicher boten eine kostengünstigere Lösung, bei der die Speicherung durch Drittanbieter überwacht werden konnte. Und schließlich ermöglichte die Cloud-Objektspeicherung dank der Speicherung von Daten als Objekte anstelle von Dateien oder Blöcken eine bessere Handhabung umfangreicher Datenbestände.

Eine massive Datenerzeugung in Verbindung mit scheinbar unbegrenztem Datenspeicher. Das Big-Data-Zeitalter hatte offiziell begonnen.

Umdenken auf Führungsebene

Die letzte Hürde bestand darin, die Führungsebene davon zu überzeugen, in Daten und Analysen zu investieren. Für viele Unternehmen waren Daten lediglich ein Souvenir, etwas, das gesammelt wurde. Doch ihr praktischer Nutzen musste noch unter Beweis gestellt werden. Selbst, wenn Unternehmen die von ihnen benötigten Daten im von ihnen benötigten Format erlangen könnten: Wären sie auch in der Lage, sie effizient und schnell genug zu analysieren, um die Entscheidungsfindung positiv zu beeinflussen?

Für viele Unternehmen waren Daten lediglich ein Souvenir, etwas, das gesammelt wurde. Doch ihr praktischer Nutzen musste noch unter Beweis gestellt werden.

Führungskräfte, die sich dem Wachstum ihres Unternehmens verschrieben haben, treten dann in Erscheinung, wenn es wichtig ist. In den 1980ern gewann die Funktion des CFO aufgrund von Bemühungen zur besseren Verwaltung von Vermögenswerten und Investitionsbeziehungen zunehmend an Bedeutung. In ähnlicher Weise wurde der CMO durch die wachsende Komplexität von Marketingkanälen zu einer unverzichtbaren Führungskraft. Als die Ergebnisse des digitalen Forschritts für sich zu sprechen begannen, wandte sich die Führungsebene an den Chief Data Officer, um die Herausforderungen dieser neuen Domäne der Daten und Analysen zu bewältigen.

Wenngleich die Führungsebene den Wert von Analytics erkannte, war die Ausübung dieser neuen Funktion noch ein nicht dokumentierter Prozess. Data Scientists und Analyse-Teams waren kostspielig sowie häufig schwer zusammenzustellen, und die Suche nach geeigneten Fachkräften gestaltete sich wie die Suche nach Gold. Es schien, als würde noch immer eine entscheidende Komponente fehlen. Das war der Zeitpunkt, an dem das Jahrzehnt einen neuen Weg beschritt, von dem es nie zurückkehren sollte. Ziel: Demokratisierung der Daten.

Kompetente Analysten übernehmen das Steuer

Zu Beginn des Jahrzehnts gewann Daten- und Analyse-Software ernsthaft an Bedeutung – sämtliche Funktionen von der Aufbereitung und Zusammenführung bis hin zu BI- und Visualisierungs-Technologien. Zur selben Zeit benannte sich das Unternehmen SRC in Alteryx um. Die von diesem Unternehmen angebotenen Software-Technologien stellten Lösungen für zunehmend komplexe Analyseprozesse dar.

Ashley Kramer, SVP of Product Management bei Alteryx, erinnert sich: „Es war üblich, separate Produkte oder Tools für Enterprise ETL, Datenaufbereitung, Berichtswesen, Datenkatalogisierung, Visualisierung und Modellerstellung einzusetzen. All diese Produkte begannen nun, in einzelne Plattformen zusammen zu laufen."

Umständliche Analyseprozesse und veraltete, für Big Data nicht geeignete Tools machten die Analyse zu einer Herausforderung. Die Entwicklung von Self-Service-Plattformen war eine regelrechte Gnade. Komplexität wurde aus der Gleichung gestrichen, und da die Software Codierungs- und Backend-Funktionen übernahm, wurden Analysen zu einem „Drag&Drop"-Prozess. Die Zugangshürden für Datenprofis sowie die Kosten für den Aufbau eines Daten-Teams wurden praktisch eliminiert, insbesondere unter Berücksichtigung der überraschenden Rentabilität.

Paige Bartley, Senior Analyst bei 451 Research, erklärt: „Die Schleusen zu Self-Service-Daten und -Analysen innerhalb von Unternehmen waren geöffnet. Als zuvor ausschließlich den technisch Versiertesten vorbehaltener Bereich wurde die Datennutzung nun auf eine Weise demokratisiert, die auch weniger technisch orientierten Menschen ermöglichte, aussagekräftige Erkenntnisse aus Informationen abzuleiten, die in der Vergangenheit häufig abgeschottet und nur wenigen Ausgwählten zugänglich waren."

„Die Schleusen zu Self-Service-Daten und -Analysen innerhalb von Unternehmen waren geöffnet."

– Paige Bartley, Senior Analyst, 451 Research

Kosten und technisches Know-how stellten keine Hindernisse mehr auf dem Weg ins analytische Zeitalter dar. Self-Service-Analytics machte die IT zu einem echten Partner. Analyst:innen konnten nicht nur schneller an eigene Daten gelangen und Projekte schneller starten, sondern die IT-Abteilung wurde nun von den mühseligen Datenanfragen befreit, die ihre Ressourcen permanent beanspruchten.
„Die Rolle der IT-Abteilung veränderte sich von Anbietern von Analysen, Daten und Berichten innerhalb des Unternehmens hin zu Moderatoren“, so Chris Love, Account Manager bei The Information Lab. „Dies bot Analyst:innen und Branchen-Nutzer:innen die Möglichkeit, ihre Daten selbst aufzubereiten und zu visualisieren.“
Angesichts geringerer Kosten und schnellerer Ergebnisse war die Unternehmensleitung schnell überzeugt. Die digitale Transformation, angeführt von Daten und Analysen, fegte durch die Unternehmen. Der Befreiungskampf der Datenfachkraft war dank einfacher Self-Service-Plattformen abgeschlossen. Zweifellos war die Entwicklung von Self-Service-Analytics das entscheidende Ereignis innerhalb des letzten Jahrzents der Daten und Analysen.

Die 2010er: Demokratisierte Daten

„Vereinfacht ausgedrückt: Die größte Veränderung des vergangenen Jahrzehnts war die Demokratisierung von Analytics.

– Mark Frisch, CEO, Marquee Crew

Gleiche Bedingungen waren geschaffen: Die Barrierefreiheit im Hinblick auf Analyse-Tools und -Plattformen bot den Menschen die Möglichkeit, ihr nicht technisches Know-how mit den technischen Errungenschaften des letzten Jahrzehnts zu kombinieren, um erheblich bedeutungsvollere Ergebnisse für ihr Unternehmen und ihre Community zu erzielen.“

– Nicole Johnson, Senior Business Solutions Consultant, T-Mobile

„Die Daten lagen verborgen im Schatten eines zentralisierten, konventionellen BI-Teams, doch nun waren auch andere Personen in der Lage, auf diese zuzugreifen und sie zu nutzen. Heute stellen sie einen allgemein zugänglichen, demokratisierten Unternehmenswert dar, der mühelos nutzbar ist.

– Heather Harris, Practice Director, Intelligence & Analytics, ProKarma

Nick

„Dank ausgereifter, getesteter und kontinuierlich verbesserter Self-Service-Tools, die Datenfachkräften heute zur Verfügung stehen, befinden wir uns im Goldenen Zeitalter der Datendemokratisierung.”

– Nick Haylund, Director, Tessellation EMEA

Die Demokratisierung von BI und Analytics ist die größte Veränderung des vergangenen Jahrzehnts, an die ich mich erinnere. Die Verfügbarkeit für Endbenutzer stellt einen bahnbrechenden Wandel dar.“

– AJ Guisande, Director, Decision Science

Der Abschluss des Jahrzehnts

Zum Ende des Jahrzehnts erreichte der Wert von Analytics einen historischen Höchststand. Laut IDC gab es jetzt 54 Millionen Datenfachkräfte weltweit und der Umsatz mit Big-Data- und Analyseplattformen erreichte fast 200 Milliarden US-Dollar.

Daten waren unbestritten wertvoll, und diejenigen, die ihnen einen Sinn entnehmen konnten, erfuhren einen Karriereschub und wurden zu Experten im Bereich der Geschäftserkenntnisse. All dies bereitete den Boden für das kommende Jahrzehnt.

Die Analytics-Zukunft

Wir schreiben Januar 2020.Innerhalb von zehn Jahren hat sich viel verändert. Wirtschaft erlebte ihren längsten Wachstumstrend seit 1854 und in der Technikwelt gelangte der iMac Pro von Apple soeben in den Verkauf. Fast wie 10 Jahre zuvor fragen Sie sich, wer 52.400 $ für einen Desktop-Computer mit Rädern ausgeben würde, wenn das iPhone 11 Pro Ihrem Bedarf längst gerecht wird.

Während des vergangenen Jahrzehnts haben Sie eine erhebliche Verschiebung des Wertes von Daten erlebt und sind auf der Welle von Self-Service-Analytics geritten. Nun thronen Sie hoch über der Welt, mit Ihren Self-Service-Fähigkeiten als Zepter und Ihren transformativen Erkenntnissen als Krone. Das Einzige, was Ihre Herrschaft noch versüßen könnte, ist das Wissen was als Nächstes kommt.

Um einen Ausblick auf die Zukunft von Daten und Analytics zu erhalten, haben wir uns an unsere zuverlässigsten Quellen – die Vordenker von Analytics – gewandt, zu denen Branchenanalysten, Führungskräfte von Alteryx und unsere innovativsten Kunden gehören. Dies sind ihre vier Top-Prognosen.

1. Es dreht sich alles um Datenkompetenz

DER BIG-DATA- UND KI-FÜHRUNGSKRÄFTE BEHANDELN DATEN NOCH NICHT ALS BETRIEBSVERMÖGEN.

– Big Data and AI Executive Survey, NewVantage Partners

Nachdem die BI-Welt von Self-Service-Analytics gefesselt war, erwarteten die Unternehmen unmittelbare oder doch zumindest erkennbare Geschäftsergebnisse. Laut Andrew Brust ist „Der Kampf (...) vorüber und die Bekehrung abgeschlossen. Nun, da die Unternehmensleitung überzeugt ist, stehen wir unter dem Druck, Leistung zu erbringen und Ergebnisse zu liefern.”

Nick Haylund, Direktor von Tessellation EMEA, erklärt, „Wenn es einfacher wird, die Technologie zu nutzen, warum verzeichnen die Unternehmen dann nicht die erwartete Rendite? Wenngleich die Verfügbarkeit und Nutzung der besten Daten- und Analysetechnologien stets von großer Bedeutung ist, übersehen viele Abteilungen und Unternehmen die Notwendigkeit, Zeit in Menschen und Prozesse zu investieren.„

„Wenngleich die Verfügbarkeit und Nutzung der besten Daten- und Analysetechnologien stets von großer Bedeutung ist, übersehen viele Abteilungen und Unternehmen die Notwendigkeit, Zeit in Menschen und Prozesse zu investieren.”

– Nick Haylund, Director, Tessellation EMEA

Die technische Ausstattung zu perfektionieren, wird niemals so wichtig sein, wie die Menschen hinter der Technologie zu befähigen. Obwohl dies kein Geheimnis ist, wird häufig unterschätzt, dass die Wertschöpfung aus den Daten ausschließlich durch die Anwendung menschlicher Intelligenz erfolgt. Bis Analysten und Data Scientists dies propagieren, bleiben Daten lediglich eine Ansammlung stummer Fakten und Beobachtungen.

Obwohl dies kein Geheimnis ist, wird häufig unterschätzt, dass die Wertschöpfung aus den Daten ausschließlich durch die Anwendung menschlicher Intelligenz erfolgt.

Die wahre Leistung von Self-Service-Plattformen liegt nicht lediglich darin, dass sie die Schwelle dafür senken, wer zu Analyst:innen oder Citizen Data Scientists werden kann, sondern, dass sie Fachkräften aus allen Unternehmensbereichen die Möglichkeit bieten, ihre tägliche Arbeit durch Erkenntnisse zu unterstützen. Von der Personal- bis hin zur Finanzabteilung liegt die größte Stärke der Self-Service-Technologie darin, dass sie eine Analysekultur ermöglicht.

Paige Bartley von 451 Research sagt: „Mitarbeitende mit unterschiedlichem Hintergrund können nun ihre einzigartige Perspektive in die Interpretation von Daten einbringen und so ein bedeutend ganzheitlicheres Verständnis der Performance sowie des Potenzials des Unternehmens ermöglichen.”

Durch die breit gefächerte Verfügbarkeit von Daten und Analysen werden während des nächsten Jahrzehnts diejenigen Unternehmen im Vorteil sein, die über Mitarbeiter:innen mit der besten Datenkompetenz verfügen. Alan Jacobson, Chief Data and Analytics Officer bei Alteryx, erklärt: „Ein neuer, auf die Ausbildung innerhalb der Unternehmen gerichteter Fokus, um eine bessere Transformation zu ermöglichen, wird sich 2020 weiter verstärken, da Unternehmen mit einem CDO oder einer vergleichbaren Funktion zur Steuerung der Veränderungen am Arbeitsplatz schneller wachsen. Unternehmen mit hoher Digitalkompetenz sind dem nicht digitalen Wettbewerb voraus und 2020 wird sich dieser Trend festigen, da noch mehr Unternehmen ihre digitalen Betriebsvermögen zur Lösung von Geschäftsproblemen nutzen.”

Ashley Kramer fügt hinzu: „Es wird einen Impuls für die Führungsebene geben, Self-Service-Data-Science und -Analysen auf allen Ebenen der Unternehmensstruktur zu fördern. Die Unternehmensleitung muss sich überzeugt für eine Weiterentwicklung über das antiquierte Analysekonzept hinaus engagieren, um einen kulturellen Wandel innerhalb des Unternehmens herbeizuführen."

Ähnlich wie bei der Einführung von Analytics durch die Führungsebene werden Initiativen zur Stärkung der Datenkompetenz innerhalb der Organisation von oben nach unten sowie demokratisiert erfolgen, um ihre Effektivität zu gewährleisten.

Andy Uttley, Consulting Manager bei der Javelin Group, erklärt: „Datenkompetenz ist keine Fähigkeit mehr, die von einigen wenigen erwartet wird, sondern von den meisten, und die Fähigkeit, Daten auf allen Ebenen zu verstehen und zu nutzen, ist entscheidend für den Erfolg des Unternehmens.

Allerdings gibt es einen Einwand Uttley erläutert, dass die Demokratisierung der Daten sowie die Einführung von Self-Service neue Herausforderungen mit sich bringen, da „die Verfügbarkeit der Daten für alle Interessenvertreter das Risiko erhöhen kann: Data Governance, übertriebene oder 'inkorrekte' Modelle durch unqualifizierte Datenexperten oder Fehler, die aufgrund mangelnder Schulung oder Fähigkeiten in Datenquellen eingebettet werden, die im gesamten Unternehmen verwendet werden."

Die Möglichkeit der Handhabung von Daten durch ein breites Spektrum von Anwender:innen birgt das Risiko, dass die Daten inkorrekt, unangemessen oder sogar auf unethische Weise genutzt werden. Mit der zunehmenden Verbreitung von Daten werden Richtlinien für Unternehmen und den Schutz der Verbraucher:innen aufgestellt. Der Datenkompetenz muss aus zwei Gründen eine Priorität auf der Agenda der Unternehmensleitungen eingeräumt werden: Unternehmenstransformation und Governance
.

Der Datenkompetenz muss aus zwei Gründen eine Priorität auf der Agenda der Unternehmensleitungen eingeräumt werden: Unternehmenstransformation und Governance
.

Paige Bartley fügt hinzu: „Die Ethik angemessener Datennutzung wird Teil des gesellschaftlichen Zeigeists. Viele behaupten, Daten seien das neue Öl. Diese Metapher geht über den oberflächlichen monetären Wert der betreffenden Ressourcen hinaus. Wie Umweltbewusstsein und -aktivismus letztlich eine Reaktion auf die Ausbeutung natürlicher Ressourcen während der Industriellen Revolution waren, so werden Datenschutz- und Datenethik-Aktivismus eine Reaktion auf die Ausbeutung personenbezogener Informationsquellen darstellen, die mit der gegenwärtigen digitalen Revolution einhergehen.”

2. Die Geburt des „Data Native"

Zusammen mit der Datenkompetenz und dem selbstverständlichen Umgang mit Daten wird eine neue Generation von Menschen entstehen, die mit Daten aufwachsen, die Generation der „Data Natives”. Ähnlich wie die „Digital Natives" mit Smartphones und digitaler Technologie aufwuchsen, werden die Data Natives sich nicht an eine Zeit vor Fitbit, Nest-Thermostat und Propeller erinnern.

„Die jüngeren Generationen, die aus anpassungsfähigen und schnell lernenden Menschen bestehen, werden sich durch gefragte neue Sprachen und Fähigkeiten zur Datenanalyse auszeichnen", sagt Andy Uttley. „Ich glaube, wir werden einen Wandel von der Basis aus beobachten, und ich erwarte und befürworte Veränderungen in den Bildungssystemen, um die Kinder besser auf die Welt vorzubereiten, die sie erwartet. Hierzu sollten mehr Problemlösungsfähigkeiten gehören sowie selbstverständlich die unverzichtbaren Fähigkeiten in Sprachen wie Python!”

Neue Generationen werden weiterhin in eine Welt der Daten und Analytik integriert. Laut Ashley Kramer, SVP Product Solutions, sind „neue Unternehmen entstanden, die sich ausschließlich auf Datenkompetenz konzentrieren, und wir beobachten eine zunehmende Fokussierung auf Analytics an Universitäten in der gesamten Welt.“ Ein Beispiel ist die Arizona State University, mit der sich Alteryx gerade zusammengetan hat, um Smart-City-Initiativen in der Metropolregion Phoenix zu ermöglichen.

Doch was ändert sich für diejenigen von uns, die keine „Natives“ sind und gelernt haben, Daten auf traditionelle Weise zu nutzen? Während Daten zu Beginn des vergangenen Jahrzehnts noch als Souvenir angesehen wurden – als Sammelobjekt –, werden die Daten in diesem Jahrzehnt zu einer eigenen Sprache. Der analytische Jargon wird sich zu einer primären Sprache entwickeln, die in die Geschäftssprache integriert wird.

3. Vorhersagen für Predictive Analytics

Wenn im vergangenen Jahrzehnt Datenaufbereitung und -zusammenführung die zentralen Themen waren, so wird dies in dem vor uns liegenden Jahrzehnt die prädiktive und präskriptive Analytik sein (mit der Hilfe unserer Freunde künstliche Intelligenz und Maschinenlernen, kurz KI und ML).

Die Suchdaten unserer Community bestätigen das wachsende Interesse an Predictive Analytics und Machine Learning:

Wie Jarrod Thuener, Chief Analytics Officer von Kristalytics, sagt: „Auf die Gefahr der Überstrapazierung eines weiteren Modewortes hin, beschreiten wir den Weg in das Zeitalter von Machine Learning. Das bedeutet, die Daten, die wir erfassen, auch tatsächlich zu nutzen. Die Fähigkeit, als Reaktion auf Analysen auch zu handeln, ist dabei entscheidend, und schon bald werden wir über selbstüberwachende Systeme verfügen, in denen eine kontinuierliche Feedback-Schleife nachgeordnete Entscheidungen bestimmt.”

Malen Sie sich kein dystopisches 2025 aus, in dem die Maschinen die Kontrolle übernommen haben. Dean Stoecker ist der Ansicht, wir alle sollten etwas mehr Vertrauen in uns selbst haben: „Wenn Sie denken, künstliche Intelligenz wird uns beherrschen, denken Sie noch mal. Wenn wir die menschliche Intelligenz erweitern, wird es niemals zu einer Singularität kommen! Der Mensch hat niemals ausgedient.“

Obwohl Daten in Machine Learning-Modelle einfließen, werden weiterhin Menschen die Auswahl der Daten sowie ihre Anwendungszwecke bestimmen. Künstliche Intelligenz – oder „künstliche Dummheit”, wie wir manchmal denken, wenn Alexa, Google Home oder Siri trotz einfacher Fragen nicht verstehen, was wir möchten – kann nur so intelligent sein wie die Menschen, die sie füttert. Wir können niemals Kunst durch Mathematik, Musik durch Code oder menschliche Beziehungen durch einen Algorithmus ersetzen. KI und ML stellen eher eine Erweiterung dar, denn einen Ersatz, so Jacobson.

„KI und ML stellen eine Erweiterung für den Menschen dar, keinen Ersatz.”

– Alan Jacobson, Chief Data and Analytics Officer, Alteryx

Was geschehen wird, wie Jacobson weiter ausführt, ist, dass wir unseren Fokus von den Sprachen und der Codierung hinter ML, KI und Predictive Analytics auf die Demokratisierung dieser Technologien verschieben, wie dies bereits bei der Demokratisierung der Datenverfügbarkeit im vergangenen Jahrzehnt geschehen ist. „Ab 2019 nutzen wir solide Modellierungs- und Sprachverarbeitungs-Technologien. Eine ausreichend integrierte Verfügbarkeit jedoch fehlt weiterhin. Wenn für alle Beteiligten, von Geschäftsanalyst:innen bis hin zu Data Scientists, eine vollständige Verfügbarkeit gewährleistet ist, werden echte Verbesserungen schnell zunehmen."

Wie die Ausweitung der Datenkompetenz neue Herausforderungen im Bereich Governance mit sich bringt, so ist dies auch bei der wachsenden Verfügbarkeit von Advanced Analytics der Fall. Paige Bartley, Senior Analyst bei 451 Research, fügt hinzu: „Es klingt vielleicht paradox, dass wir Data Science und Analysen anwenden müssen, um besser zu verstehen, wie die verstärkte Nutzung von Automatisierungs- und algorithmischen Systemen die Interaktionen und das Verhalten der Menschen in der Welt formen. Nun, da wir nahezu jeden Aspekt menschlichen Verhaltens quantifizieren und zur Gewinnung von Erkenntnissen nutzen können, müssen wir die potenziellen Auswirkungen unseres systematischen Technologie-Einsatzes besser verstehen, bevor er der Weiterentwicklung der Gesellschaft dienen kann."

Stoecker ist davon überzeugt, dass selbst komplexe Probleme wie diese mithilfe der magischen Kombination aus Daten und menschlicher Intelligenz gelöst werden können. „Wenn wir nur ein Problem mithilfe relevanter Daten lösenkönnen, können wir alle Probleme mithilfe relevanter Daten lösen”, sagt er. „Der einzige Taktfaktor für die Lösung der Herausforderungen wird die Verstärkung der menschlichen Intelligenz sein, damit wir wissen, welche Fragen wir stellen müssen.”

4. Analytics for Good

Zum Abschluss dieses Ausblicks auf das nächste Jahrzehnt haben wir unsere Thought Leader gefragt, welche drängenden Probleme der Welt sie gerne mithilfe von Daten und Analysen lösen würde. Dies sind einige ihrer Antworten:

„Ich würde gerne an Initiativen für den Weltfrieden arbeiten. Damit die Waffen aus dem Bild verschwinden und die Jugend sich stattdessen mit Analytics beschäftigt. Ganz nach dem Motto: Make Models, not War."

– Mark Frisch, CEO, Marquee Crew

„Umkehren des Klimawandels, Analyse und Optimierung der öffentlichen Bildung, Verminderung der Obdachlosigkeit und Beseitigung sozialer Isolation.”

– Heather Harris, Practice Director, Intelligence & Analytics, ProKarma

„Analyse von Mädchen ab dem Alter von 11 Jahren: Welche Statistiken oder Lebenswege führen dazu, dass sie sich als Frauen in der Tech-Industrie profilieren – in egal welcher Funktion. Darüber hinaus die Analyse von angeborenen vs. geförderten Fähigkeiten, aber von einem Standpunkt mit technischem Fokus aus.”

– Sharmila Mulligan, Chief Strategy Officer, Alteryx

Bildung. Wir haben noch immer das Problem, dass ein sehr großer Anteil der Weltbevölkerung nicht über ausreichend Bildung verfügt – und je mehr wir Technologie nutzen können, um Lernen zu verstehen und zu ermöglichen, desto mehr profitieren wir alle, denn ein Planet mit höherer Bildung ist wirtschaftlich stabiler und trifft bessere Entscheidungen."

– Sean Adams, Senior VP and Executive Director, Multinational Investment Bank

Medizinische Szenarien sind eine großartige Anwendungsmöglichkeit für Data Science und Analytics. Höher gesteckte Ziele und deren Anwendung auf Fragen des Klimawandels und internationale Angelegenheiten sollten ein anzustrebendes Ziel für uns sein, so kühn es auch sein mag. Wir müssen uns auch mit Ethik auseinandersetzen, da wir ansonsten mit dem Gegenteil konfrontiert werden: KI wird für die Kriegsführung eingesetzt, statt für den Frieden und konstruktives Engagement.“

– Andrew Brust, CEO/Gründer, Blue Badge Insights

„Die weltweite Armutsverteilung.”

– AJ Guisande, Director, Decision Science

„Wenn wir nur ein Problem auswählen dürften, Krebs im Kindesalter.”

– Michael Barone, Data Scientist, Paychex

 

Gesundheitsfürsorge und Nutzung von Machine Learning zur Verbesserung der Gesundheitsergebnisse, beispielsweise bei der Krebsforschung und vorausschauenden Gesundheitswarnungen.”

– Adrian Loong, Data Science Manager, Datacom

Ungleichheit innerhalb der Gesellschaft und Nutzung von Analytics zur Verbesserung der sozialen Mobilität.”

– Joseph Serpis, Consultant, Keyrus

Bis 2030 und darüber hinaus

Self-Service-Analytics hat das vergangene Jahrzehnt revolutioniert und ist im Begriff, dies für das nächste Jahrzehnt wieder zu tun, wenn auch aus komplett anderen Gründen. Werden die Entwicklungen den Prognosen folgen? Man darf gespannt sein. Es sei denn, sie haben Analytics bereits dazu genutzt, eine Zeitmaschine zu bauen. Das wäre wirklich cool.

BLEIBEN SIE DRAN.

Lesen

Ein Jahrzehnt der Inspiration“ beleuchtet Meilensteine in der Entwicklung der Alteryx Community in den vergangenen zehn Jahren.

HÖREN

Stecken Sie Ihre Kopfhörer ein und lauschen Sie Libby Duane Adams, Mitbegründerin und CCO von Alteryx, sowie zwei langjährigen Mitarbeitenden, die sich in der Folge „Alteryx-ing the Decade“ unseres Podcasts „Alter Everything“ über das letzte Jahrzehnt unterhalten – angefangen beim ersten Alteryx-Büro bis hin zur Zukunft von Analytics.

TEILEN

Chatten Sie mit uns unter @alteryx und teilen Sie Ihre unvergesslichsten Momente des letzten Analytics-Jahrzehnts.

Tags