![](https://static.wixstatic.com/media/7aa1cf_4c6854d91b5544b6a8abfba077875286~mv2.jpg/v1/fill/w_605,h_302,al_c,q_80,enc_auto/7aa1cf_4c6854d91b5544b6a8abfba077875286~mv2.jpg)
Nachdem wir in den ersten beiden Beiträgen die primären Eigenschaften der Daten diskutiert haben, wenden wir uns nun den sekundären zu. Diese lassen sich teilweise aus den primären Charakteristika ableiten, vor allem sind es aber Eigenschaften, die sich aus der Analyse der Daten ergeben, also nicht in den Daten allein begründet sind. Alle sekundären Eigenschaften sind auch kostenwirksam, haben also einen direkten oder indirekten Einfluss auf Kosten der Plattform bei der Nutzung der Daten.
![](https://static.wixstatic.com/media/7aa1cf_6562a1ab164d413f8edeccee586c22db~mv2.png/v1/fill/w_605,h_470,al_c,q_85,enc_auto/7aa1cf_6562a1ab164d413f8edeccee586c22db~mv2.png)
Economies of Scale
Economies of Scale (auch: Skalenerträge) sind generell Kostenvorteile, die dadurch entstehen, dass Stückkosten mit steigenden Ausbringungsmengen abnehmen. Dies kann bei Unternehmen und insbesondere bei Plattformen in verschiedenster Weise der Fall sein. Gerade die hohen Fixkosten, die bei Internetplattformen z. B. durch große Serverparks oder andere technische Einrichtungen entstehen und zu stark sinkenden Stückkosten führen, sind dafür ein Beispiel. Skalenerträge können aber ebenso bezogen auf Daten in verschiedenster Weise entstehen. Die bereits erwähnten Fixkosten fallen auch hier besonders ins Gewicht. Ebenso wie der Aufbau einer generellen Infrastruktur, ist auch der Aufbau einer Dateninfrastruktur durch hohe Fixkosten gekennzeichnet. Die Kosten, die für die Erhebung, Speicherung und Auswertung der Daten anfallen, sind zu einem großen Teil fix und führen daher zu einer Abnahme der Stückkosten bei Ausweitung der Mengen.
Skalenerträge können aber ebenso aus der Nutzung der Daten selbst entstehen. So kann die absolute Menge an Daten einen Kostenvorteil erbringen, wenn dadurch qualitativ hochwertigere Analysen möglich sind. Zum Beispiel lassen sich mit einer größeren Datenmenge typischerweise bessere Prognosen über den Kauf bestimmter Produkte erzielen. Auch lassen sich mit einer größeren Datenmenge bessere Stauprognosen erstellen oder besser Suchergebnisse ermöglichen. Es wird also direkt die Qualität der Datenanalyse erhöht und damit werden indirekt auch die Kosten gesenkt. Generell sollte eine Mindestmenge an Informationen existieren, ab der eine Analyse gute Ergebnisse liefert. Gleichzeitig ist je nach Anwendung auch irgendwann ein Punkt erreicht, an dem ein größeres Datenvolumen keinen nennenswerten Nutzenzuwachs mehr bringt. Die Prognose über den Kauf eines einzelnen (homogenen) Produkts sollte z. B. mit 5 Mio. Datensätzen genauso möglich sein, wie mit 10 Mio. Vielmehr kann es dazu kommen, dass ein Mehr an Daten ab einem bestimmten Punkt zu Diseconomies of Scale führen und die Kosten mit steigender Datenmenge wieder ansteigen. Das ist zum Beispiel darin begründet, dass zwar keine zusätzlichen Informationen in den Daten enthalten sind, die größere Menge aber eine Bereinigung, Speicherung und Verarbeitung erschwert.
In ähnlicher Weise kann die Heterogenität der Daten zu der Existenz von Skalenerträge beitragen. Ist etwa das Produktangebot einer Plattform heterogen oder weist eine werbefinanzierte Plattform viele unterschiedliche Zielgruppen auf, dann ist eine größere Menge an Daten möglicherweise nicht ausreichend, um qualitativ hochwertigere Analysen durchzuführen. In diesem Fall kommt es stark auf die Zusammensetzung der Daten an: Es müssen dann Informationen über die Käufe der unterschiedlichen Produkte vorliegen und Informationen über die einzelnen Zielgruppen vorhanden sein. Ein Zuwachs an Daten ist dann sinnvoll, wenn dadurch die Heterogenität der Daten abgebildet werden kann. Zwar stiften dann auch noch größere Datenmengen einen positiven Nutzen, aber auch hier gilt, dass ab einem bestimmten Punkt vermutlich kein Nutzenzuwachs mehr zu erwarten ist oder sogar Diseconomies of Scale vorliegen.
Generell ist also davon auszugehen, dass größere Datenmengen einen größeren Nutzen verursachen bzw. geringere Kosten zur Folge haben. Gleichzeitig ist anzunehmen, dass diese Effekte begrenzt sind und dass abnehmende Grenzerträge vorliegen, der Nutzenzuwachs der Daten also mit Ausweitung der Datenmenge abnimmt. Ebenso ist aber wahrscheinlich, dass eine mindesteffiziente Datenmenge existiert, also eine Mindestdatenmenge benötigt wird, um Analysen effizient oder in einer für das Produkt oder den Dienst ausreichenden Qualität durchzuführen. Diese mindesteffiziente Datenmenge ist aber sehr stark von der Art des Dienstes aber auch von anderen Parametern wie zum Beispiel der Größe eines Marktes abhängig. Um Stauprognosen für Kleinstädte zu erstellen, sind vermutlich deutlich weniger Informationen notwendig als für eine Großstadt oder eine Metropole.
Die Wirkung von Skalenerträgen ist nicht zuletzt davon abhängig, wie stark diese ausgeprägt sind und ist letztendlich eine empirische Frage, die von verschiedensten Faktoren abhängt. Dadurch, das größere Datenmengen aber zu geringeren Kosten bzw. höheren Qualitäten führen, kann das im Zweifel zu Marktzutrittsbarrieren für kleinere Anbieter führen. Gerade große Plattformen und Ökosysteme könnten hier einen deutlichen Vorteil haben. Dennoch zeigt die Vielzahl an Start-ups gerade auch in Plattformmärkten, dass Marktzutritt in vielen Fällen durchaus möglich ist und auch stattfindet.
Economies of Scope
Economies of Scope oder auch Verbundvorteile stellen einen Kostenvorteil dar, der bei der gemeinsamen Produktion verschiedener Produkte oder Dienste aus Daten erwachsen kann. Die gemeinsame Produktion ist dann also kostengünstiger als die Produktion einzelner Dienste. Bereits bei der Erhebung der Daten können solche Verbundvorteile entstehen, wenn Informationen, die für unterschiedliche Zwecke genutzt werden, abgefragt werden. Standortdaten können zum Beispiel sowohl für Navigationsdienste eingesetzt werden wie für Stauprognosen und Suchdienste. Daten über das Konsumverhalten kann für Kaufprognosen aber auch für Werbung eingesetzt werden. Gerade große Plattform-Ökosysteme haben hier einen großen Vorteil, da sie eine Vielzahl an Daten erheben und auf diese Weise bestehende Dienste und Produkte verbessern aber auch neue entwickeln können.
Ähnlich wie bei den Skalenerträgen sind Verbundvorteile nicht auf Plattformen und Daten beschränkt. Auch lineare Geschäftsmodelle und die Produktion herkömmlicher Produkte können Verbundvorteile aufweisen. Wie stark Verbundvorteile also tatsächlich bei Plattformen wirken, ist demnach unklar und ist ebenso wie bei den Skalenerträgen eine empirische Frage.
Lernkurveneffekte
Ein weiterer und ebenfalls relevanter Kostenvorteil, der aus Daten erwachsen kann, sind die sogenannten Lernkurveneffekte. Im Gegensatz zu Economies of Scale entsteht hierbei der Kostenvorteil nicht durch die in einer bestimmten Zeit produzierten Menge, sondern durch die gesamte Zahl produzierter Produkte oder Dienste. Da im Produktionsprozess erst erlernt werden muss, wie Kosteneinsparungen oder auch Qualitätsverbesserungen realisiert werden können, ist dabei entsprechend der kumulierte Output relevant. Typischerweise fallen solche Lerneffekte bei der Produktion komplexer Produkte und Systeme an. Ähnlich verhält es sich mit der Datenauswertung. Um anhand von Daten zu lernen, benötigt man wie bereits erwähnt eine gewisse Menge aber ebenso je nach Anwendung auch heterogenen Daten. Darüber hinaus benötigt man aber aufgrund der Komplexität der Methoden mitunter eine gewisse Zeit, um optimale Lösungen zu finden.
Es ist naheliegend, dass gerade bei Verwendung von Methoden der Künstlichen Intelligenz wie etwa dem maschinellen Lernen, Lerneffekte bei Daten eine Rolle spielen. Künstliche Intelligenz ist stark davon abhängig, welche Daten zur Verfügung stehen. Anhand neuer Informationen lassen sich unter Umständen auch bessere Ergebnisse erzielen. Die Optimierung der Algorithmen benötigen aber ebenso Zeit. Dies gilt insbesondere dann, wenn eine Plattform mit neuen Diensten oder Regeln experimentiert. Aber nicht nur das maschinelle Lernen an sich, sondern ebenso die Personen, die diese Algorithmen anwenden, können durch Ausprobieren unterschiedlicher Methoden zum Lernen beitragen. So ist es durchaus üblich, verschiedene Algorithmen und Methoden zu testen, um ein optimiertes System zu installieren. Netflix zum Beispiel hatte 2009 einen Preis von 1 Mio. Dollar für einen um 10 % verbesserten Algorithmus für ihr Empfehlungssystem ausgelobt. Der Besitz großer Datenmengen allein ist also nicht ausreichend, um bessere Ergebnisse zu erzielen.
Insgesamt sollten die Lerneffekte bei datenbasierten Plattformen eine wichtige Rolle spielen, wenn die Datenauswertung im Fokus steht. Wie auch bei den Skalenerträgen und den Verbundvorteilen ist es aber eine empirische Frage, wie stark diese Effekte sind und auch wie sich ein gleichzeitiges Auftreten der Kostenvorteile auswirkt.
Netzeffekte
Zweiseitige Plattformen basieren, wie bereits oben diskutiert, auf indirekten Netzeffekten, die zwischen den einzelnen Gruppen vorliegen. Die wichtigste sekundäre Eigenschaft von Daten, besteht darin, diese Netzeffekte zu ermöglichen. Die Datenanalyse kann vor allem auf drei Arten eingesetzt werden: Zum einen können dadurch positive Netzeffekte gehoben werden. Daten können also helfen, bereits bestehende Netzeffekte zu realisieren. Die zweite Möglichkeit ist es, bestehende positive Netzeffekte zu verstärken. Und die dritte Möglichkeit besteht darin, bestehende negative Netzeffekte zu dämpfen oder sogar in positive umzuwandeln.
Der Vorteil der meisten digitalen Geschäftsmodelle gegenüber den herkömmlichen besteht darin, dass Kunden bzw. Nutzer in der Regel bei der Nutzung der Inhalte und Dienste beobachtet werden können. So können Internetplattformen Informationen wie den Standort, die genutzten Endgeräte und ähnliches direkt beim Kontakt mit einem Nutzer abrufen. Darüber hinaus können aber auch weitere Daten abgefragt oder auch direkt beobachtet werden. Herkömmliche Anbieter haben diese Informationen in der Regel nicht oder müssen sie erst aufwändig – zum Beispiel durch Befragung der Kunden – ermitteln. Plattformen können oftmals auch die Interaktionen der Marktseiten beobachten. Werbefinanzierte Plattformen können oftmals beobachten, wie erfolgreich Werbung ist und ob es zum Kauf oder zumindest zum Klick auf die Werbung kommt. Werbung kann so viel zielgerichteter eingesetzt werden und wird dadurch deutlich effizienter. Der Netzeffekt, der auf die Werbekunden wirkt, wird dadurch verstärkt, ein möglicher negativer Netzeffekt, den die Nutzer erfahren, kann zumindest abgemildert werden, wenn durch die Nutzung der Daten relevantere Werbung gezeigt wird. Matching Plattformen können in aller Regel beobachten, ob zwei Nutzer Kontakt miteinander aufnehmen und in einige Fällen auch, ob ein Match realisiert wird. Immobilienplattformen sehen zumindest, ob ein potenzieller Käufer Kontakt zu einem Makler aufgenommen hat. Dating-Plattformen können beobachten, welche Präferenzen die Nutzer in ihrem Verhalten oder auch bei einer Onlinebefragung offenbaren und anhand der Daten den Matching-Prozess verbessern. Streaming-Dienste können die beobachtete Auswahl der Nutzer zu effizienteren Empfehlungssystemen nutzen. Daten und ebenso die Künstliche Intelligenz können damit generell zur Effizienzsteigerung eingesetzt werden, um Vorteile gegenüber Konkurrenzplattformen zu erlangen.
Wie sehr Daten und Datenanalyse die Netzeffekte verstärken können, bzw. wie stark ein Vorteil aus einem dateninduzierten Netzeffekt sein kann, hängt vor allem von den primären und sekundären Eigenschaften der Daten ab: Welcher Wert kann durch die Daten zusätzlich generiert werden? Ab welchem Punkt bringen Daten keinen zusätzlichen Nutzen mehr? Wie schnell verlieren Daten an Wert? Sind die proprietär? Wie schnell kann ein Angebot ohne die Daten imitiert werden? Wie groß ist der Nutzen, der auf andere Nutzer übertragen werden kann? Und wie schnell sind die Daten einzusetzen?
Fazit
Die Frage also, wie stark Daten Netzeffekte beeinflussen können, ist nicht generell zu beantworten und hängt davon ab, welche Eigenschaften die Daten im Einzelnen aufweisen. Es sollte jedoch klargeworden sein, dass alle Dateneigenschaften eine bedeutende Rolle spielen können, den Netzeffekten aber wohl in den meisten Fällen die bedeutendste Rolle zukommt. Darüber hinaus kann die Kombination vor allem der sekundären Eigenschaften mit den Netzeffekten zu Wettbewerbsproblemen führen. Besonders Lernkurveneffekt in Kombination mit Netzeffekten können hierbei eine starke Wirkung entfalten. Die Relevanz der Daten findet sich dementsprechend auch im Gesetz gegen Wettbewerbsbeschränkungen und im Entwurf zum Digital Markets Act wieder. Letztendlich kommt es aber auch eine Einzelfallbetrachtung an, wie sehr Daten zu einer möglichen Wettbewerbsbeschränkung beitragen oder auch Marktzutrittsbeschränkungen darstellen.
Literatur
Dewenter, R. & Bernhardt, L. (2022), III. Ökonomische Grundlagen, erscheint in: Louven, S., Künstner, K.M. & Otto, C. (Hrsg.): Rechtshandbuch KI und Plattform-Governance, Erich Schmidt Verlag, Berlin.
Comments