Datenanalyse und -interpretation sind mit dem Aufkommen des digitalen Zeitalters in den Mittelpunkt gerückt... und die schiere Menge an Daten kann erschreckend sein. Laut einer Studie von Digital Universe belief sich das gesamte Datenaufkommen im Jahr 2012 auf 2,8 Billionen Gigabyte! Allein aufgrund dieser Datenmenge ist klar, dass die Fähigkeit, komplexe Daten zu analysieren, verwertbare Erkenntnisse zu gewinnen und sich an neue Marktanforderungen anzupassen, die Visitenkarte eines jeden erfolgreichen Unternehmens in der heutigen globalen Welt sein wird - und das alles in Gedankenschnelle.
Business Dashboards sind die Werkzeuge des digitalen Zeitalters für Big Data. Sie sind in der Lage, wichtige Leistungsindikatoren (Key Performance Indicators, KPIs) sowohl für quantitative als auch für qualitative Datenanalysen darzustellen und eignen sich ideal für die schnellen und datengesteuerten Marktentscheidungen, die die Branchenführer von heute zu nachhaltigem Erfolg führen. Durch die Kunst der gestrafften visuellen Kommunikation ermöglichen Daten-Dashboards den Unternehmen eine fundierte Entscheidungsfindung in Echtzeit und sind wichtige Instrumente für die Dateninterpretation. Lassen Sie uns zunächst eine Definition finden, um zu verstehen, was sich hinter der Bedeutung der Datenauswertung verbirgt.
Was ist Datenauswertung?
Unter Dateninterpretation versteht man den Prozess, bei dem verschiedene Analysemethoden eingesetzt werden, um Daten zu überprüfen und zu relevanten Schlussfolgerungen zu gelangen. Die Interpretation von Daten hilft Forschern, die Informationen zu kategorisieren, zu bearbeiten und zusammenzufassen, um kritische Fragen zu beantworten.
Die Bedeutung der Dateninterpretation liegt auf der Hand, und deshalb muss sie auch richtig durchgeführt werden. Es ist sehr wahrscheinlich, dass die Daten aus verschiedenen Quellen stammen und in den Analyseprozess mit einer willkürlichen Anordnung eingehen. Die Datenanalyse neigt dazu, äusserst subjektiv zu sein. Das heisst, dass die Art und das Ziel der Interpretation von Unternehmen zu Unternehmen unterschiedlich sind, was wahrscheinlich mit der Art der zu analysierenden Daten zusammenhängt. Es gibt zwar verschiedene Arten von Verfahren, die je nach Art der Daten eingesetzt werden, aber die beiden am weitesten verbreiteten Kategorien sind "quantitative Analyse" und "qualitative Analyse".
Bevor jedoch eine ernsthafte Untersuchung der Datenauswertung beginnen kann, sollte man sich darüber im Klaren sein, dass die visuelle Darstellung der Datenergebnisse irrelevant ist, solange keine fundierte Entscheidung über die Messskalen getroffen wurde. Bevor mit einer ernsthaften Datenanalyse begonnen werden kann, muss die Messskala für die Daten festgelegt werden, da dies langfristige Auswirkungen auf die Rentabilität der Datenauswertung hat. Zu den verschiedenen Skalen gehören:
Nominalskala: nicht-numerische Kategorien, die nicht quantitativ eingeordnet oder verglichen werden können. Die Variablen sind exklusiv und erschöpfend.
Ordinalskala: Ausschliessliche Kategorien, die ausschliesslich und erschöpfend sind, aber eine logische Reihenfolge aufweisen. Qualitätsbewertungen und Zustimmungsbewertungen sind Beispiele für Ordinalskalen (d. h. gut, sehr gut, mittelmässig usw. ODER zustimmen, stark zustimmen, nicht zustimmen usw.).
Intervall: eine Messskala, bei der die Daten in Kategorien mit geordneten und gleichen Abständen zwischen den Kategorien gruppiert werden. Es gibt immer einen willkürlichen Nullpunkt.
Verhältnis: Enthält Merkmale aller drei Kategorien.
Wie kann man Daten auswerten?
Bei der Interpretation von Daten muss ein Analytiker versuchen, die Unterschiede zwischen Korrelation, Kausalität und Zufällen sowie viele andere Verzerrungen zu erkennen - aber er muss auch alle beteiligten Faktoren berücksichtigen, die zu einem Ergebnis geführt haben könnten. Es gibt verschiedene Methoden der Dateninterpretation, die man anwenden kann.
Die Interpretation von Daten soll den Menschen helfen, numerische Daten, die gesammelt, analysiert und präsentiert wurden, zu verstehen. Eine grundlegende Methode (oder Methoden) zur Dateninterpretation bietet Ihren Analyseteams eine Struktur und eine einheitliche Grundlage. Wenn nämlich mehrere Abteilungen unterschiedliche Ansätze zur Interpretation derselben Daten verfolgen, obwohl sie dieselben Ziele verfolgen, kann es zu einer Diskrepanz zwischen den Zielen kommen. Unterschiedliche Methoden führen zu Doppelarbeit, inkonsistenten Lösungen, verschwendeter Energie und unweigerlich zu Zeit- und Geldverschwendung. In diesem Teil werden wir uns die beiden wichtigsten Methoden der Datenauswertung ansehen: die qualitative und die quantitative Analyse.
Qualitative Datenauswertung
Die qualitative Datenanalyse lässt sich mit einem Wort zusammenfassen: kategorisch. Bei der qualitativen Analyse werden die Daten nicht durch numerische Werte oder Muster beschrieben, sondern durch die Verwendung von beschreibendem Kontext (d. h. Text). Typischerweise werden narrative Daten durch den Einsatz einer Vielzahl von Techniken von Mensch zu Mensch erhoben. Zu diesen Techniken gehören:
Beobachtungen: Aufzeichnung von Verhaltensmustern, die innerhalb einer Beobachtungsgruppe auftreten. Diese Muster können die Zeit sein, die mit einer Aktivität verbracht wird, die Art der Aktivität und die Art der Kommunikation.
Fokusgruppen: Gruppieren Sie Personen und stellen Sie ihnen relevante Fragen, um eine gemeinsame Diskussion über ein Forschungsthema anzuregen.
Sekundärforschung: Ähnlich wie Verhaltensmuster beobachtet werden können, lassen sich verschiedene Arten von Dokumentationsressourcen kodieren und nach der Art des darin enthaltenen Materials unterteilen.
Interviews: eine der besten Erhebungsmethoden für narrative Daten. Die Antworten der Befragten können nach Themen, Themen oder Kategorien gruppiert werden. Der Interview-Ansatz ermöglicht eine hochgradig fokussierte Datensegmentierung.
Ein wesentlicher Unterschied zwischen qualitativer und quantitativer Analyse ist in der Interpretationsphase deutlich zu erkennen. Qualitative Daten sind in hohem Masse interpretationsfähig und müssen "kodiert" werden, um die Gruppierung und Kennzeichnung der Daten in identifizierbare Themen zu erleichtern. Da die Techniken der Datenerhebung von Person zu Person oft zu Streitigkeiten über die richtige Analyse führen können, wird die qualitative Datenanalyse häufig in drei Grundprinzipien zusammengefasst: Dinge wahrnehmen, Dinge sammeln, über Dinge nachdenken.
Quantitative Datenauswertung
Wenn man die Interpretation quantitativer Daten in einem Wort zusammenfassen könnte (und das kann man wirklich nicht), würde dieses Wort "numerisch" lauten. Es gibt nur wenige Gewissheiten, wenn es um Datenanalyse geht, aber Sie können sicher sein, dass es sich nicht um quantitative Forschung handelt, wenn die Forschung, an der Sie beteiligt sind, keine Zahlen enthält. Quantitative Analyse bezieht sich auf eine Reihe von Verfahren, mit denen numerische Daten analysiert werden. Meistens geht es dabei um die Verwendung statistischer Modelle wie Standardabweichung, Mittelwert und Median. Lassen Sie uns kurz die gängigsten statistischen Begriffe durchgehen:
Mittelwert: Der Mittelwert stellt einen numerischen Durchschnitt für eine Reihe von Antworten dar. Wenn es sich um einen Datensatz (oder mehrere Datensätze) handelt, stellt der Mittelwert einen zentralen Wert einer bestimmten Gruppe von Zahlen dar. Er ist die Summe der Werte geteilt durch die Anzahl der Werte innerhalb des Datensatzes. Andere Begriffe, die zur Beschreibung dieses Konzepts verwendet werden können, sind arithmetisches Mittel, Durchschnitt und mathematische Erwartung.
Standardabweichung: Dies ist ein weiterer statistischer Begriff, der in der quantitativen Analyse häufig vorkommt. Die Standardabweichung gibt Aufschluss über die Verteilung der Antworten um den Mittelwert. Sie beschreibt den Grad der Konsistenz innerhalb der Antworten; zusammen mit dem Mittelwert gibt sie Aufschluss über die Datensätze.
Häufigkeitsverteilung: Dies ist ein Mass für die Häufigkeit des Auftretens einer Antwort in einem Datensatz. Bei einer Umfrage kann die Häufigkeitsverteilung beispielsweise die Häufigkeit des Auftretens einer bestimmten Antwort auf einer Ordinalskala bestimmen (z. B. zustimmen, voll und ganz zustimmen, nicht zustimmen usw.). Die Häufigkeitsverteilung ist äusserst hilfreich bei der Bestimmung des Grades der Übereinstimmung zwischen den Datenpunkten.
Die Messung quantitativer Daten erfolgt in der Regel durch visuelle Darstellung von Korrelationstests zwischen zwei oder mehreren signifikanten Variablen. Verschiedene Verfahren können zusammen oder getrennt verwendet werden, und es können Vergleiche angestellt werden, um letztendlich zu einer Schlussfolgerung zu gelangen. Weitere charakteristische Interpretationsverfahren für quantitative Daten sind:
Regressionsanalyse: Im Wesentlichen verwendet die Regressionsanalyse historische Daten, um die Beziehung zwischen einer abhängigen Variable und einer oder mehreren unabhängigen Variablen zu verstehen. Wenn Sie wissen, welche Variablen miteinander in Beziehung stehen und wie sie sich in der Vergangenheit entwickelt haben, können Sie mögliche Ergebnisse vorhersehen und bessere Entscheidungen für die Zukunft treffen. Wenn Sie beispielsweise Ihre Umsätze für den nächsten Monat vorhersagen möchten, können Sie die Regressionsanalyse nutzen, um zu verstehen, welche Faktoren sich auf die Umsätze auswirken werden, wie z. B. der Verkauf von Produkten, der Start einer neuen Kampagne und vieles mehr.
Kohortenanalyse: Mit dieser Methode werden Gruppen von Nutzern identifiziert, die während eines bestimmten Zeitraums gemeinsame Merkmale aufweisen. In einem Geschäftsszenario wird die Kohortenanalyse üblicherweise verwendet, um verschiedene Kundenverhaltensweisen zu verstehen. Eine Kohorte könnte zum Beispiel alle Benutzer sein, die sich an einem bestimmten Tag für eine kostenlose Testversion angemeldet haben. Es wird analysiert, wie sich diese Nutzer verhalten, welche Aktionen sie durchführen und wie sich ihr Verhalten von dem anderer Nutzergruppen unterscheidet.
Prädiktive Analyse: Wie der Name schon sagt, zielt die prädiktive Analysemethode darauf ab, zukünftige Entwicklungen durch die Analyse historischer und aktueller Daten vorherzusagen. Mit Hilfe von Technologien wie künstlicher Intelligenz und maschinellem Lernen können Unternehmen mit Hilfe der prädiktiven Analyse Trends oder potenzielle Probleme erkennen und fundierte Strategien im Voraus planen.
Präskriptive Analyse: Bei der präskriptiven Analyse, die ebenfalls auf Vorhersagen beruht, werden Techniken wie die Graphenanalyse, die Verarbeitung komplexer Ereignisse und neuronale Netze eingesetzt, um die Auswirkungen künftiger Entscheidungen zu ermitteln und sie anzupassen, bevor sie tatsächlich getroffen werden. Dies hilft Unternehmen bei der Entwicklung von reaktionsfähigen, praktischen Geschäftsstrategien.
Conjoint-Analyse: Der Conjoint-Ansatz wird in der Regel bei der Analyse von Umfragen angewandt, um zu analysieren, wie Einzelpersonen verschiedene Attribute eines Produkts oder einer Dienstleistung bewerten. Dies hilft Forschern und Unternehmen bei der Festlegung von Preisen, Produktmerkmalen, Verpackungen und vielen anderen Eigenschaften. Eine häufige Anwendung ist die menübasierte Conjoint-Analyse, bei der Personen ein "Menü" von Optionen erhalten, aus denen sie ihr ideales Konzept oder Produkt zusammenstellen können. Auf diese Weise können Analysten verstehen, welche Attribute sie anderen vorziehen würden, und daraus Schlussfolgerungen ziehen.
Cluster-Analyse: Zu guter Letzt ist die Clusteranalyse eine Methode, um Objekte in Kategorien zu gruppieren. Da es bei der Clusteranalyse keine Zielvariable gibt, ist sie eine nützliche Methode, um versteckte Trends und Muster in den Daten zu finden. Im geschäftlichen Kontext wird das Clustering für die Segmentierung von Zielgruppen verwendet, um gezielte Erlebnisse zu schaffen, und in der Marktforschung wird es häufig eingesetzt, um Altersgruppen, geografische Informationen, Einkommen usw. zu ermitteln.
Nachdem wir nun gesehen haben, wie man Daten interpretiert, wollen wir uns nun einige Fragen stellen: Welche Vorteile bietet die Dateninterpretation? Warum beschäftigen sich alle Branchen mit Datenforschung und -analyse? Dies sind grundlegende Fragen, die jedoch oft nicht ausreichend beachtet werden.
Warum ist Daten Auswertung so wichtig?
Der Zweck der Datenerhebung und -auswertung besteht darin, nützliche und verwertbare Informationen zu gewinnen und möglichst fundierte Entscheidungen zu treffen. Von Unternehmen bis hin zu frisch verheirateten Paaren, die ihr erstes Haus erkunden, bietet die Datenerhebung und -interpretation grenzenlosen Nutzen für eine Vielzahl von Institutionen und Personen.
Unabhängig von der Methode und dem qualitativen/quantitativen Status kann die Datenanalyse und -interpretation die folgenden Merkmale aufweisen:
- Identifizierung und Erklärung von Daten
- Vergleich und Gegenüberstellung von Daten
- Identifizierung von Datenausreissern
- Vorhersagen für die Zukunft
Datenanalyse und -interpretation helfen letztlich, Prozesse zu verbessern und Probleme zu erkennen. Ohne ein Mindestmass an Datenerfassung und -auswertung ist es schwierig, zu wachsen und verlässliche Verbesserungen zu erzielen. Was ist das Schlüsselwort? Zuverlässig. In allen Institutionen und Branchen gibt es vage Vorstellungen von Leistungsverbesserung. Doch ohne angemessene Forschung und Analyse wird eine Idee wahrscheinlich für immer in einem stagnierenden Zustand bleiben (d. h. minimales Wachstum). Was sind also einige der geschäftlichen Vorteile der Datenanalyse und -interpretation im digitalen Zeitalter? Werfen wir einen Blick darauf!
1) Fundierte Entscheidungsfindung: Eine Entscheidung ist nur so gut wie das Wissen, das ihr zugrunde liegt. Eine fundierte Entscheidungsfindung auf der Grundlage von Daten hat das Potenzial, Branchenführer vom Rest des Marktes zu unterscheiden. Studien haben gezeigt, dass Unternehmen im oberen Drittel ihrer Branche im Durchschnitt 5 % produktiver und 6 % rentabler sind, wenn sie fundierte Datenentscheidungsprozesse einsetzen. Die meisten entscheidenden Massnahmen ergeben sich erst, nachdem ein Problem erkannt oder ein Ziel definiert wurde. Die Datenanalyse sollte die Identifizierung, die Entwicklung von Thesen und die Datenerhebung umfassen, gefolgt von der Datenkommunikation.
Wenn Institutionen nur diese einfache Reihenfolge befolgen, die uns allen von den Wissenschaftsmessen in der Grundschule vertraut sein sollte, dann werden sie in der Lage sein, Probleme zu lösen, wenn sie in Echtzeit auftauchen. Informierte Entscheidungsfindung hat die Tendenz, zyklisch zu sein. Das bedeutet, dass es eigentlich kein Ende gibt und dass sich im Laufe des Prozesses neue Fragen und Bedingungen ergeben, die weiter untersucht werden müssen. Die Überwachung der Datenergebnisse wird unweigerlich dazu führen, dass der Prozess mit neuen Daten und Sichtweisen an den Anfang zurückkehrt.
2) Vorausschauende Bedarfsermittlung mit der Identifizierung von Trends: Dateneinsichten liefern Wissen, und Wissen ist Macht. Die aus der Analyse von Markt- und Verbraucherdaten gewonnenen Erkenntnisse haben die Fähigkeit, Trends für andere Unternehmen in ähnlichen Marktsegmenten zu setzen. Ein perfektes Beispiel dafür, wie sich die Datenanalyse auf die Trendvorhersage auswirken kann, ist die Musikerkennungsanwendung Shazam. Die Anwendung ermöglicht es Benutzern, einen Audioclip eines Songs hochzuladen, der ihnen gefällt, den sie aber nicht zu identifizieren scheinen. Täglich werden von den Nutzern 15 Millionen Titel identifiziert. Mit diesen Daten hat Shazam dazu beigetragen, künftige populäre Künstler vorherzusagen.
Wenn Branchentrends erkannt werden, können sie einem grösseren Zweck der Branche dienen. Die Erkenntnisse aus der Shazam-Überwachung helfen nicht nur Shazam dabei, die Bedürfnisse der Verbraucher zu erfüllen, sondern geben auch Musikmanagern und Plattenfirmen einen Einblick in die aktuelle Popkultur-Szene. Datenerfassungs- und Interpretationsprozesse können eine branchenweite Klimavorhersage ermöglichen und zu grösseren Einnahmequellen auf dem gesamten Markt führen. Aus diesem Grund sollten alle Institutionen den grundlegenden Datenzyklus der Sammlung, Interpretation, Entscheidungsfindung und Überwachung befolgen.
3) Kosteneffizienz: Die ordnungsgemässe Implementierung von Datenanalyseverfahren kann Unternehmen in ihrer Branche tiefgreifende Kostenvorteile verschaffen. Eine kürzlich von Deloitte durchgeführte Datenstudie belegt dies anschaulich, indem sie feststellt, dass der ROI der Datenanalyse durch effiziente Kostensenkungen bestimmt wird. Oft wird dieser Vorteil übersehen, weil Geldverdienen in der Regel als "attraktiver" angesehen wird als Geld sparen. Solide Datenanalysen sind jedoch in der Lage, das Management auf Möglichkeiten zur Kostenreduzierung aufmerksam zu machen, ohne dass ein nennenswerter Aufwand für das Humankapital erforderlich ist.
Ein hervorragendes Beispiel für das Potenzial zur Kosteneffizienz durch Datenanalyse ist Intel. Vor 2012 führte Intel mehr als 19.000 Funktionstests für seine Chips durch, bevor diese für die Freigabe freigegeben werden konnten. Um die Kosten zu senken und die Testzeit zu verkürzen, führte Intel prädiktive Datenanalysen ein. Durch die Verwendung historischer und aktueller Daten vermeidet Intel nun, jeden Chip 19.000 Mal zu testen, indem es sich auf spezifische und individuelle Chiptests konzentriert. Nach der Einführung im Jahr 2012 sparte Intel über 3 Millionen Dollar an Herstellungskosten. Kostensenkungen sind vielleicht nicht so "sexy" wie Datengewinne, aber wie Intel beweist, ist dies ein Vorteil der Datenanalyse, der nicht vernachlässigt werden sollte.
4) Klarer Blick in die Zukunft: Unternehmen, die ihre Daten sammeln und analysieren, gewinnen bessere Erkenntnisse über sich selbst, ihre Prozesse und ihre Leistung. Sie können Leistungsherausforderungen erkennen, wenn sie entstehen, und Massnahmen ergreifen, um sie zu überwinden. Die Dateninterpretation durch visuelle Darstellungen ermöglicht es ihnen, ihre Erkenntnisse schneller zu verarbeiten und fundiertere Entscheidungen für die Zukunft des Unternehmens zu treffen.
Häufige Probleme bei der Datenanalyse und -interpretation
Das oft wiederholte Mantra derjenigen, die sich vor den Datenfortschritten im digitalen Zeitalter fürchten, lautet: "Grosse Daten sind gleich grosse Probleme". Auch wenn diese Aussage nicht zutrifft, so kann man doch mit Sicherheit sagen, dass bestimmte Probleme bei der Dateninterpretation oder "Fallstricke" existieren und bei der Analyse von Daten auftreten können, insbesondere bei der Geschwindigkeit des Denkens. Im Folgenden werden einige der häufigsten Risiken bei der Fehlinterpretation von Daten aufgezeigt und es wird erläutert, wie sie vermieden werden können:
1) Verwechslung von Korrelation mit Kausalität: Unsere erste Fehlinterpretation von Daten bezieht sich auf die Tendenz von Datenanalysten, die Ursache eines Phänomens mit Korrelation zu verwechseln. Es ist die Annahme, dass zwei Handlungen zusammen auftraten und die eine die andere verursacht hat. Dies ist nicht korrekt, da Aktionen zusammen auftreten können, ohne dass eine Beziehung zwischen Ursache und Wirkung besteht.
Ein Beispiel aus dem digitalen Zeitalter: Wenn man davon ausgeht, dass ein höherer Umsatz das Ergebnis einer grösseren Zahl von Anhängern in den sozialen Medien ist, könnte es eine eindeutige Korrelation zwischen beiden geben, insbesondere bei den heutigen Multi-Channel-Kauferfahrungen. Das bedeutet aber nicht, dass eine Zunahme der Follower die direkte Ursache für höhere Einnahmen ist. Es könnte sowohl eine gemeinsame Ursache als auch eine indirekte Kausalität vorliegen.
Abhilfe: Versuchen Sie, die Variable zu eliminieren, von der Sie glauben, dass sie das Phänomen verursacht.
2) Confirmation bias: Unser zweites Problem bei der Dateninterpretation tritt auf, wenn Sie eine Theorie oder Hypothese im Kopf haben, aber nur Datenmuster entdecken wollen, die diese Theorie oder Hypothese unterstützen, während Sie diejenigen verwerfen, die dies nicht tun.
Beispiel aus dem digitalen Zeitalter: Ihr Chef bittet Sie, den Erfolg einer kürzlich durchgeführten plattformübergreifenden Social-Media-Marketingkampagne zu analysieren. Bei der Analyse der potenziellen Datenvariablen aus der Kampagne (die Sie durchgeführt haben und von der Sie glauben, dass sie gut gelaufen ist) stellen Sie fest, dass die Share-Rate für Facebook-Posts gross war, die Share-Rate für Twitter-Tweets hingegen nicht. Wenn Sie nur die Facebook-Posts als Beweis für Ihre Hypothese heranziehen, dass die Kampagne erfolgreich war, wäre dies eine perfekte Manifestation der Bestätigungsfehlschlüsse.
Abhilfe: Da dieser Fallstrick oft auf subjektiven Wünschen beruht, wäre eine Abhilfe, die Daten mit einem Team objektiver Personen zu analysieren. Wenn dies nicht möglich ist, besteht eine andere Lösung darin, dem Drang zu widerstehen, eine Schlussfolgerung zu ziehen, bevor die Datenuntersuchung abgeschlossen ist. Denken Sie daran, dass Sie immer versuchen sollten, eine Hypothese zu widerlegen, nicht sie zu beweisen.
3) Irrelevante Daten: Die dritte Falle der Fehlinterpretation von Daten ist im digitalen Zeitalter besonders wichtig. Da grosse Datenmengen nicht mehr zentral gespeichert werden und sie weiterhin in Gedankenschnelle analysiert werden, ist es unvermeidlich, dass sich Analysten auf Daten konzentrieren, die für das Problem, das sie zu lösen versuchen, irrelevant sind.
Beispiel aus dem digitalen Zeitalter: Bei dem Versuch, den Erfolg einer E-Mail-Kampagne zur Lead-Generierung zu messen, stellen Sie fest, dass die Anzahl der Homepage-Aufrufe, die direkt auf die Kampagne zurückzuführen sind, gestiegen ist, nicht aber die Anzahl der monatlichen Newsletter-Abonnenten. Anhand der Anzahl der Homepage-Aufrufe entscheiden Sie, dass die Kampagne ein Erfolg war, obwohl sie in Wirklichkeit keine Leads generiert hat.
Abhilfe: Legen Sie proaktiv und klar alle Datenanalysevariablen und KPIs fest, bevor Sie eine Datenüberprüfung durchführen. Wenn Sie den Erfolg einer Kampagne zur Lead-Generierung an der Zahl der Newsletter-Abonnenten messen, ist es nicht notwendig, die Anzahl der Homepage-Besuche zu überprüfen. Achten Sie darauf, dass Sie sich auf die Datenvariable konzentrieren, die Ihre Frage beantwortet oder Ihr Problem löst, und nicht auf irrelevante Daten.
4) Abschneiden der Achsen: Wenn Sie ein Diagramm erstellen, um mit der Interpretation der Ergebnisse Ihrer Analyse zu beginnen, ist es wichtig, die Achsen wahrheitsgetreu zu halten und irreführende Visualisierungen zu vermeiden. Wenn Sie die Achsen mit einem Wert beginnen, der nicht die tatsächliche Wahrheit über die Daten wiedergibt, kann dies zu falschen Schlussfolgerungen führen.
Beispiel für das digitale Zeitalter: In der folgenden Abbildung sehen wir ein Diagramm von Fox News, bei dem die Y-Achsen bei 34 % beginnen, was den Anschein erweckt, dass die Differenz zwischen 35 % und 39,6 % viel grösser ist als sie tatsächlich ist. Dies könnte zu einer Fehlinterpretation der Steuersatzänderungen führen.
5) (Kleiner) Stichprobenumfang: Ein weiteres häufiges Problem bei der Datenanalyse und -interpretation ist die Verwendung eines kleinen Stichprobenumfangs. Logischerweise sind die Ergebnisse umso genauer und zuverlässiger, je grösser die Stichprobengrösse ist. Dies hängt jedoch auch von der Grösse des Effekts der Studie ab. Zum Beispiel wird die Stichprobengrösse bei einer Umfrage über die Qualität der Bildung nicht dieselbe sein wie bei einer Umfrage über Menschen, die in einem bestimmten Gebiet Sport im Freien treiben.
Beispiel digitales Zeitalter: Stellen Sie sich vor, Sie stellen 30 Personen eine Frage und 29 antworten mit "Ja", was 95 % der Gesamtzahl entspricht. Stellen Sie sich nun vor, Sie stellen dieselbe Frage an 1000 Personen und 950 von ihnen antworten mit "Ja", was wiederum 95 % entspricht. Diese Prozentsätze sehen zwar gleich aus, haben aber nicht die gleiche Bedeutung, denn eine Stichprobe von 30 Personen ist nicht aussagekräftig genug, um eine wahrheitsgemässe Schlussfolgerung zu ziehen.
Abhilfe: Um die richtige Stichprobengrösse für wahrheitsgetreue und aussagekräftige Ergebnisse zu ermitteln, muss eine Fehlermarge festgelegt werden, die die maximale Abweichung der Ergebnisse vom statistischen Mittelwert angibt, so die Forscher. Parallel dazu muss ein Konfidenzniveau festgelegt werden, das zwischen 90 und 99 % liegen sollte. Mit diesen beiden Werten in der Hand können die Forscher eine genaue Stichprobengrösse für ihre Studien berechnen.
6) Verlässlichkeit, Subjektivität und Verallgemeinerbarkeit: Bei der Durchführung einer qualitativen Analyse müssen die Forscher bei der Interpretation der Daten praktische und theoretische Einschränkungen berücksichtigen. In einigen Fällen kann qualitative Forschung aufgrund unkontrollierter Faktoren, die die Ergebnisse beeinflussen können oder auch nicht, als unzuverlässig angesehen werden. Hinzu kommt, dass der Forscher die Hauptrolle im Interpretationsprozess spielt, d. h. er oder sie entscheidet, was relevant ist und was nicht, und wie wir wissen, können Interpretationen sehr subjektiv sein.
Auch die Verallgemeinerbarkeit ist ein Problem, mit dem Forscher bei der qualitativen Analyse konfrontiert werden. Wie bereits in dem Punkt über die geringe Stichprobengrösse erwähnt, ist es schwierig, Schlussfolgerungen zu ziehen, die zu 100 % repräsentativ sind, da die Ergebnisse möglicherweise verzerrt oder nicht repräsentativ für eine grössere Population sind.
Diese Faktoren treten vor allem in der qualitativen Forschung auf, können sich aber auch auf die quantitative Analyse auswirken. Bei der Auswahl der darzustellenden KPIs und der Art ihrer Darstellung können Analysten beispielsweise auch voreingenommen sein und sie auf eine Weise darstellen, die ihrer Analyse zugute kommt.
Beispiel digitales Zeitalter: Verzerrte Fragen in einer Umfrage sind ein gutes Beispiel für Probleme mit der Zuverlässigkeit und Subjektivität. Stellen Sie sich vor, Sie verschicken eine Umfrage an Ihre Kunden, um herauszufinden, wie zufrieden sie mit Ihrem Kundenservice sind, und stellen folgende Frage: "Wie grossartig war Ihre Erfahrung mit unserem Kundendienstteam?". Hier können wir sehen, dass diese Frage die Antwort des Einzelnen eindeutig beeinflusst, indem sie mit dem Wort "erstaunlich" versehen wird.
Abhilfe: Eine Lösung, um diese Probleme zu vermeiden, besteht darin, Ihre Untersuchungen ehrlich und neutral zu halten. Halten Sie die Formulierung der Fragen so objektiv wie möglich. Zum Beispiel: "Wie zufrieden waren Sie auf einer Skala von 1-10 mit unserem Kundendienst". Dadurch wird der Befragte nicht zu einer bestimmten Antwort verleitet, so dass die Ergebnisse Ihrer Umfrage zuverlässig sind.
Techniken und Methoden der Datenauswertung
Datenanalyse und -interpretation sind von entscheidender Bedeutung, wenn es darum geht, fundierte Schlussfolgerungen zu ziehen und besser informierte Entscheidungen zu treffen. Wie wir in diesem Artikel gesehen haben, ist die Interpretation von Daten sowohl eine Kunst als auch eine Wissenschaft. Um Ihnen dabei zu helfen, werden wir hier einige relevante Techniken, Methoden und Tricks zur Dateninterpretation auflisten, die Sie für einen erfolgreichen Datenmanagementprozess einsetzen können.
Wie zu Beginn dieses Beitrags erwähnt, besteht der erste Schritt zur erfolgreichen Dateninterpretation darin, die Art der Analyse zu bestimmen, die Sie durchführen wollen, und die entsprechenden Methoden anzuwenden. Unterscheiden Sie klar zwischen qualitativer Analyse (beobachten, dokumentieren und interviewen Sie, sammeln Sie und denken Sie über Dinge nach) und quantitativer Analyse (Sie führen eine Forschung mit vielen numerischen Daten durch, die mit verschiedenen statistischen Methoden analysiert werden sollen).
1) Stellen Sie die richtigen Fragen zur Datenauswertung
Die erste Technik der Datenauswertung besteht darin, eine klare Ausgangsbasis für Ihre Arbeit zu definieren. Dies kann durch die Beantwortung einiger kritischer Fragen geschehen, die als nützlicher Leitfaden für den Anfang dienen. Dazu gehören unter anderem: Welche Ziele verfolge ich mit meiner Analyse? Welche Art von Datenauswertungsmethode werde ich verwenden? Wer wird diese Daten in Zukunft nutzen? Und vor allem: Welche allgemeine Frage will ich beantworten?
Sobald all diese Informationen festgelegt sind, können Sie mit der Datenerhebung beginnen. Wie zu Beginn des Beitrags erwähnt, hängen die Methoden der Datenerhebung davon ab, welche Art von Analyse Sie verwenden (qualitativ oder quantitativ). Wenn Sie alle erforderlichen Informationen haben, können Sie mit der Auswertung beginnen, aber zunächst müssen Sie Ihre Daten visualisieren.
2) Verwenden Sie die richtige Art der Datenvisualisierung
Datenvisualisierungen wie Geschäftsgrafiken, Diagramme und Tabellen sind für eine erfolgreiche Dateninterpretation von grundlegender Bedeutung. Denn die Visualisierung von Daten durch interaktive Diagramme und Grafiken macht die Informationen verständlicher und zugänglicher. Wie Sie vielleicht wissen, gibt es verschiedene Arten von Visualisierungen, die Sie verwenden können, aber nicht alle sind für jeden Analysezweck geeignet. Die Verwendung des falschen Diagramms kann zu einer Fehlinterpretation Ihrer Daten führen, weshalb es sehr wichtig ist, die richtige Visualisierung dafür auszuwählen. Schauen wir uns einige Anwendungsfälle für gängige Datenvisualisierungen an.
Balkendiagramm: Das Balkendiagramm ist eines der am häufigsten verwendeten Diagrammtypen und verwendet rechteckige Balken, um die Beziehung zwischen 2 oder mehr Variablen darzustellen. Es gibt verschiedene Arten von Balkendiagrammen für unterschiedliche Interpretationen, darunter das horizontale Balkendiagramm, das Säulendiagramm und das gestapelte Balkendiagramm.
Liniendiagramm: Das Liniendiagramm wird am häufigsten zur Darstellung von Trends, Beschleunigung oder Verlangsamung und Volatilität verwendet und soll zeigen, wie sich die Daten über einen bestimmten Zeitraum hinweg verändern, z. B. die Verkaufszahlen über ein Jahr. Ein paar Tipps, um dieses Diagramm interpretationsfähig zu halten, sind, nicht zu viele Variablen zu verwenden, die das Diagramm überladen könnten, und die Achsenskala nahe am höchsten Datenpunkt zu halten, damit die Informationen nicht schwer zu lesen sind.
Kreisdiagramm: Obwohl dieses Diagramm aufgrund seiner Unkompliziertheit nicht viel zur Analyse beiträgt, werden Tortendiagramme häufig verwendet, um die proportionale Zusammensetzung einer Variablen darzustellen. Visuell gesehen ist die Darstellung eines Prozentsatzes in einem Balkendiagramm viel komplizierter als in einem Kreisdiagramm. Dies hängt jedoch auch von der Anzahl der Variablen ab, die Sie vergleichen. Wenn Ihr Kreisdiagramm in 10 Teile geteilt werden muss, ist es besser, ein Balkendiagramm zu verwenden.
Tabellen: Sie sind zwar keine spezielle Art von Diagramm, aber Tabellen werden bei der Interpretation von Daten häufig verwendet. Tabellen sind besonders nützlich, wenn Sie Daten in ihrem Rohformat darstellen wollen. Sie geben Ihnen die Freiheit, einzelne Werte einfach nachzuschlagen oder zu vergleichen und gleichzeitig Gesamtsummen anzuzeigen.
Da die Verwendung von Datenvisualisierungen für den analytischen Erfolg von Unternehmen immer wichtiger wird, sind viele Tools entstanden, die den Benutzern helfen, ihre Daten auf schlüssige und interaktive Weise zu visualisieren. Eines der beliebtesten Tools ist die Verwendung von BI-Dashboards. Diese visuellen Tools bieten eine zentrale Ansicht verschiedener Grafiken und Diagramme, die ein grösseres Bild über ein Thema zeichnen. Im nächsten Teil dieses Beitrags werden wir mehr über die Leistungsfähigkeit von Dashboards für eine effiziente Datenauswertungspraxis erfahren. Wenn Sie mehr über verschiedene Arten von Datenvisualisierungen erfahren möchten, werfen Sie einen Blick auf unseren vollständigen Leitfaden zu diesem Thema.
3) Bleiben Sie bei der Interpretation objektiv
Wie bereits erwähnt, ist es von grundlegender Bedeutung, dass Sie bei Ihrer Interpretation objektiv bleiben. Als die Person, die am nächsten an der Untersuchung dran ist, kann man bei der Suche nach Antworten in den Daten leicht subjektiv werden. Eine gute Möglichkeit, objektiv zu bleiben, besteht darin, die Informationen anderen Personen zu zeigen, die mit der Studie zu tun haben, z. B. den Forschungspartnern oder sogar den Personen, die Ihre Ergebnisse verwenden werden, sobald sie fertig sind. Dies kann helfen, Bestätigungsfehler und Probleme mit der Zuverlässigkeit Ihrer Interpretation zu vermeiden.
4) Markieren Sie Ihre Ergebnisse und ziehen Sie Schlussfolgerungen
Befunde sind die Beobachtungen, die Sie aus Ihren Daten gewonnen haben. Sie sind die Fakten, die Ihnen helfen werden, tiefere Schlussfolgerungen über Ihre Forschung zu ziehen. Bei den Erkenntnissen kann es sich beispielsweise um Trends und Muster handeln, die Sie während des Interpretationsprozesses entdeckt haben. Um Ihre Ergebnisse in die richtige Perspektive zu rücken, können Sie sie mit anderen Quellen vergleichen, die ähnliche Methoden verwendet haben, und sie als Benchmarks verwenden.
Reflektieren Sie Ihr eigenes Denken und Ihre Argumentation und seien Sie sich der vielen Fallstricke bewusst, die die Datenanalyse und -interpretation mit sich bringt. Korrelation versus Kausalität, subjektive Voreingenommenheit, falsche Informationen und ungenaue Daten, usw. Sobald Sie mit Ihrer Interpretation der Daten zufrieden sind, können Sie Schlussfolgerungen ziehen, prüfen, ob Ihre ursprüngliche Frage beantwortet wurde, und darauf basierend Empfehlungen aussprechen.
Interpretation von Daten: Der Einsatz von Dashboards zur Überbrückung der Lücke
Wie wir gesehen haben, handelt es sich bei quantitativen und qualitativen Methoden um unterschiedliche Arten der Datenanalyse. Beide bieten ein unterschiedliches Mass an Return on Investment (ROI) bei der Untersuchung, Prüfung und Entscheidungsfindung von Daten. Aufgrund dieser Unterschiede ist es wichtig zu verstehen, wie Dashboards eingesetzt werden können, um die Kluft zwischen quantitativen und qualitativen Informationen zu überbrücken. Wie spielen digitale Daten-Dashboard-Lösungen eine Schlüsselrolle bei der Überbrückung der Datenlücke? Hier sind einige der Möglichkeiten:
1) Verknüpfung und Zusammenführung von Daten. Bei dem heutigen Innovationstempo ist es nicht mehr möglich (und auch nicht wünschenswert), Massendaten zentral zu speichern. Mit der fortschreitenden Globalisierung von Unternehmen und der Auflösung von Grenzen wird es für Unternehmen immer wichtiger, die Möglichkeit zu haben, verschiedene Datenanalysen unabhängig von ihrem Standort durchzuführen. Daten-Dashboards dezentralisieren Daten, ohne die notwendige Denkgeschwindigkeit zu beeinträchtigen, und vereinen sowohl quantitative als auch qualitative Daten. Ganz gleich, ob Sie Kundentrends oder die Unternehmensleistung messen wollen, Sie haben jetzt die Möglichkeit, beides zu tun, ohne sich auf eine einzige Auswahl beschränken zu müssen.
2) Mobile Daten. Mit dem Begriff "verknüpfte und gemischte Daten" ist der Begriff der mobilen Daten verbunden. In der digitalen Welt von heute verbringen die Mitarbeiter weniger Zeit am Schreibtisch und steigern gleichzeitig die Produktion. Ermöglicht wird dies durch die Tatsache, dass mobile Lösungen für Analysewerkzeuge nicht mehr eigenständig sind. Heute fügen sich mobile Analyseanwendungen nahtlos in die alltäglichen Geschäftstools ein. Im Gegenzug sind quantitative und qualitative Daten über interaktive Online-Dashboards auf Abruf verfügbar, wo, wann und wie sie benötigt werden.
3) Visualisierung. Daten-Dashboards schliessen die Datenlücke zwischen qualitativen und quantitativen Methoden der Dateninterpretation durch die Wissenschaft der Visualisierung. Dashboard-Lösungen sind "out of the box" gut ausgestattet, um leicht verständliche Datendemonstrationen zu erstellen. Moderne Online-Datenvisualisierungstools bieten eine Vielzahl von Farb- und Filtermustern, fördern die Benutzerinteraktion und sind so konzipiert, dass sie die Vorhersagbarkeit zukünftiger Trends verbessern. All diese visuellen Merkmale ermöglichen einen einfachen Wechsel zwischen den Datenmethoden - Sie müssen nur die richtigen Arten der Datenvisualisierung finden, um Ihre Datengeschichte bestmöglich zu erzählen.
Um Ihnen eine Vorstellung davon zu vermitteln, wie ein Marktforschungs-Dashboard die Notwendigkeit erfüllt, quantitative und qualitative Analysen miteinander zu verbinden und zu verstehen, wie Daten in der Forschung dank Visualisierung zu interpretieren sind, werfen Sie einen Blick auf das folgende Beispiel. Es vereint sowohl qualitative als auch quantitative Daten, die sachkundig analysiert wurden, und visualisiert sie auf eine aussagekräftige und für jeden verständliche Weise, so dass jeder Betrachter in der Lage ist, sie zu interpretieren:
Tags:
BIMärz 01, 2024