E-Book, Deutsch, 312 Seiten
Münter Wie verändern Daten Unternehmen?
1. Auflage 2023
ISBN: 978-3-7398-0620-4
Verlag: UVK Verlag
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Strategie und Organisation für eine datengetriebene Welt
E-Book, Deutsch, 312 Seiten
ISBN: 978-3-7398-0620-4
Verlag: UVK Verlag
Format: EPUB
Kopierschutz: 6 - ePub Watermark
Die Chancen aus Big Data und künstlicher Intelligenz erkennen und jetzt die Digitalisierung vorantreiben!
Das globale Datenvolumen wächst Tag für Tag und künstliche Intelligenz optimiert Entscheidungen. Daten und Algorithmen können die Wettbewerbsfähigkeit von Unternehmen erhöhen und neue Geschäftsmodelle hervorbringen - aber nur, wenn Menschen, Organisationen und Prozesse mitwachsen. Rund 20 Expert:innen zeigen Strategien und Organisationsmodelle für Unternehmen in einer datengetriebenen Welt auf. Auf Chancen und Risiken gehen sie praxisnah ein. Ein Glossar erklärt Fachbegriffe.
Ein Buch für alle in Praxis und Wissenschaft, die Daten und künstliche Intelligenz als Wettbewerbsvorteile besser verstehen wollen, sowie für Studierende der Wirtschaftswissenschaften und -informatik.
Mit Beiträgen von Expert:innen der Unternehmen Consorsbank/BNP Paribas, Schweizerische Post, PricewaterhouseCoopers Luxembourg, Eindhoven University of Technology, HDBW München, Hochschule Flensburg, s2 data&algorithms, August-Wilhelm Scheer Institut, ValueWorks.ai, elaboratum, htw saar, HSBC Group, Horváth&Partners, avantum consult und 1&1 Telecommunication.
Markus Thomas Münter war 15 Jahre Unternehmensberater und im Management von Finanzdienstleistern tätig. Seit 2014 ist er Professor für Volkswirtschaftslehre, insbesondere Mikroökonomie, an der htw saar.
Autoren/Hrsg.
Weitere Infos & Material
1.2 Big Data, Entscheidungen in Unternehmen und Wettbewerbsvorteile
Wie viele Daten existieren gerade? Die Schätzungen für das Jahr 2020 liegt bei etwa 40 Zetabyte (siehe ? Kapitel 9 von Andreas Braun), für das Jahr 2025 bei 175 Zetabyte (IDC 2022) – ob die Zahlen stimmen, weiß niemand. Aber es besteht Konsens: Die Zahl wird größer und sie wird exponentiell wachsen. Bis vor kurzem, in den 1970er-?Jahren, waren Daten im Wesentlichen menschlichen Ursprungs (oft geschriebene Worte) oder haben Transaktionen beschrieben (Bilanzkennzahlen, Fußballergebnisse, Verträge etc.) und wurden meist analog auf Papier gespeichert. Mittlerweile entstehen Daten auch durch Datification. Jede Kommunikation, Transaktion oder Interaktion schafft Daten (für zahlreiche Beispiele siehe Mayer-?Schönberger und Cukier 2013 sowie Newell und Marabelli 2015): Sensoren (an Maschinen, autonomen Fahrzeugen, Kameras, Smart Devices etc.) oder Algorithmen in digitalen Systemen (in Social Media Feeds, auf Shoppingplattformen etc.) sowie durch Machine-?to-?Machine-?Kommunikation. Unabhängig davon sind die Daten jetzt weit überwiegend digital gespeichert, auf Festplatten und in Clouds, und können so schneller genutzt, übertragen oder transformiert werden. Zudem sind natürlich viele Menschen bereit, mit Daten für die kostenlose Nutzung von digitalen Dienstleistungen oder die Mitgliedschaft in Social-?Media-?Plattformen zu bezahlen – und damit wieder Daten durch das Herumdrücken und Wischen auf Smart Devices zu schaffen. Schätzungen von Cisco (2022) gehen davon aus, dass aktuell pro Tag beispielsweise 28 Petabyte aus Wearables, 4,5 Petabyte durch Google-Suchanfragen und etwa 2 Petabyte durch Uploads bei Instagram entstehen – in Summe etwa 460 Exabyte jeden Tag in 2022. Waren im Mittelalter die Daten noch in meist von Mönchen geführten Bibliotheken und Archiven nahezu umfassend zusammengefasst, so ist es mittlerweile unmöglich, alle Daten an einem Ort oder in einer Datenbank oder in einer Cloud zu speichern. Was bedeutet das? Bis vor kurzer Zeit konnte ein Unternehmen noch alle entscheidungsrelevanten Daten ‚im eigenen Haus‘ haben und abspeichern, in Ruhe und ausführlich analysieren und ggf. Monate oder Jahre später nochmals auf diese Daten zurückgreifen – künftig geht das nicht mehr. Unternehmen werden kleine Teile der Daten selbst erzeugen, besitzen und speichern. Der weit größere Teil wird in einem exponentiell anwachsenden Datenstrom nur im Moment der Entscheidung greifbar und/oder relevant sein, danach aber weder vollständig dokumentiert noch im eigenen Zugriff abgespeichert sein. Die Kombinationen von schnell anwachsenden Daten – oft sehr vielen und vielfältigen und unstrukturierten und unscharfen Daten im Rahmen von Big Data – und die zunehmende Verfügbarkeit von Methoden aus den Bereichen Data Analytics und künstlicher Intelligenz (KI) wird die Zusammenarbeit von Menschen, von Organisationen und Unternehmen, und das Zusammenspiel mit Maschinen und Technologien verändern (Mayer-?Schönberger und Cukier 2013). Wenn diese neuen Möglichkeiten richtig eingesetzt werden, können sie Kundenzufriedenheit und Kundenerlebnisse verbessern, Effizienz steigern und Kosten senken, und neue Erlösquellen und neue Geschäftsmodelle hervorbringen. Datengetriebene Unternehmen oder KI-getriebene Unternehmen? In einigen Studien wird das datengetriebene Unternehmen als Zwischenstufe auf der Entwicklung zum KI-?getriebenen Unternehmen beschrieben. Betrachtet man bei aller Unschärfe der Messung die Adaption von Big Data und KI in deutschen Unternehmen, stehen wir noch am Anfang: 2021 nutzen 11 % der Unternehmen in Deutschland gezielt Big Data, nur 9 % setzen künstliche Intelligenz ein – die Zuwächse fallen mit einem bzw. zwei Prozentpunkten seit 2020 vor dem Hintergrund der umfangreichen öffentlichen Diskussion zu beiden Themen eher gering aus (Bitkom Research 2021 und 2022). Allerdings gibt es eine mögliche, wenn auch nicht zwingende, Logik in der Reihenfolge des Einsatzes im Unternehmen: Künstliche Intelligenz ohne Daten ist wenig sinnvoll, verstärkte Datennutzung auch ohne weitentwickelte Data Analytics oder gar künstliche Intelligenz aber sehr wohl. Der erste Schritt ist damit häufig der Aufbau von Fähigkeiten rund um Daten und die Entwicklung einer Datenbasis, der zweite Schritt ist dann die Analyse der Daten mit ggf. zunächst einfachen Methoden, nachfolgend dann mit anspruchsvolleren KI-?Methoden. Zudem sind mittlerweile leistungsfähige KI-?Algorithmen für Deep Learning, Machine Learning oder Datenverarbeitung verfügbar (beispielsweise TensorFlow, Hadoop, Theano oder Spark) – der unternehmensspezifische Einsatz scheitert aber oft an der Datenbasis oder -verfügbarkeit. Insbesondere kleine und mittlere Unternehmen haben hier einen Wettbewerbsnachteil: Im eigenen Umfeld sind oft nicht hinreichende Trainingsdaten für die Algorithmen vorhanden, die Nutzung von unternehmensexternen Trainingsdaten ist die Ausnahme. In der Folge entsteht ein Wettbewerbsvorteil für große Unternehmen und diejenigen Unternehmen, die früh anfangen, mit Daten zu lernen. Allerdings lässt sich die beschriebene Logik auch umkehren: Durch zahlreiche generative KI- Tools – zumindest in 2023 mit dem Hype rund um Dall-?E, ChatGPT oder GitHub Copilot – können auch kleine und mittelständische Unternehmen ohne eigene Daten KI nutzen, natürlich auf Basis der Daten Dritter und damit in den meisten Fällen mit eingeschränktem unternehmensspezifischem Nutzen. Was ist Big Data? Was aber genau ist Big Data und wo liegen die möglichen Wettbewerbsvorteile? Unter Big Data werden große und komplexe Datensätze aus sehr unterschiedlichen Quellen innerhalb und außerhalb des Unternehmens, die schwach- oder unstrukturiert sind und schnell oder sogar exponentiell anwachsen, verstanden. Big Data wird in einer ersten Annäherung oft durch die vier (manchmal auch fünf oder sechs) großen Vs beschrieben (siehe auch Mayer-?Schönberger und Cukier 2013 sowie Newell et al. 2020): Volume (Umfang) beschreibt die riesigen Datenmengen, mit denen Unternehmen täglich umgehen müssen. Diese Daten entstehen teilweise im eigenen Unternehmen, aber zu weit größerem Teil außerhalb des Unternehmens. So liefern vernetzte Produktionsanlagen, Smart Devices oder Social-?Media-?Plattformen einen nahezu unendlichen Datenstrom. Zudem sind nahezu beliebige Daten im Markt verfügbar – alle digitalen Plattformen und Tech-?Dienstleister, die Produkte und Lösungen kostenlos anbieten, erzielen wesentliche Erlöse aus der Weitergabe von Daten. Velocity (Geschwindigkeit) beschreibt, dass Daten mit großer Dynamik entstehen – aber auch oft in Echtzeit verarbeitet werden müssen. Dies gilt einerseits natürlich für erwartete Daten aus unternehmensinternen Prozessen, aber insbesondere für unerwartete Daten aus der Interaktion mit Kunden. Die Erwartung der Kunden ist hier, dass unmittelbar reagiert wird und schnell eine Transaktion abgeschlossen wird. Die Geschwindigkeit der Datenentstehung und deren Nutzung in Echtzeit bedeutet dabei, dass viele Daten als unsicher klassifiziert werden müssen – zwar sind Plausibilitätschecks oftmals möglich, aber viele Daten weisen nicht die Präzision oder Nachvollziehbarkeit auf, die bei ‚langsamen‘ Daten gegeben ist. Variety (Vielfalt) bezieht sich auf die Verschiedenartigkeit einschließlich strukturierter, halbstrukturierter und unstrukturierter Daten, die Unternehmen verarbeiten und verstehen müssen. Unstrukturiertheit bedeutet hier, dass die Daten in verschiedenen Formaten – beispielsweise Bilder, Sprache, Gerüche, Signale, Bewegungen oder Social Media Sentiments – vorliegen, vielleicht aber auch gar nicht klassifiziert oder zuordenbar sind. Damit geht einher, dass die Analyse-?Tools auch mit sehr unterschiedlichen Datenstrukturen und -formaten umgehen müssen. Veracity (Unsicherheit, Qualität und Verlässlichkeit der Daten) beschreibt, dass Daten sich in Genauigkeit, Vertrauenswürdigkeit der Quelle oder Zuverlässigkeit der Daten unterscheiden. Zwar sind gut informierte Unternehmen per se weniger anfällig für Fake News oder Fake Data als schwach informierte Privatpersonen. Aber aufgrund der Vielfalt und des Umfangs vorhandener Daten müssen neue Analysemethoden insbesondere für unscharfe Daten entwickelt werden, insbesondere um wahre von unwahren Daten zu...