Gute Datenqualität – ein globales Problem
Neulich haben wir uns damit auseinandergesetzt, wie ein Overflow an Daten zum Problem werden kann. Zahlreiche Marktforscher sind darüber besorgt, dass ihre Bemühungen auf dem Weg zu besseren Customer Insights durch schlechte Datenqualität ausgebremst werden. Wie soll man die Konsumenten besser verstehen, wenn ‘Dirty Data’ unnötige Mehrkosten und Zeitaufwand verursacht und am Ende den Blick für die richtige Strategie verstellt?
Studien bestätigen: Datenqualität ist Mangelware
Eine von StreamSets in Auftrag gegebene Studie, durchgeführt von dimensional research, hat 314 Datenanalyse-Experten dazu befragt, wie sie das Datenmanagement in ihrem Unternehmen bewerten. Das Ergebnis ist ernüchternd und bestätigt erneut die Befürchtungen: 87% der Befragten geben an, dass sie mit teilweise unbrauchbaren Daten zu tun haben. Diese müssen zunächst bereinigt werden, was viel Zeit kostet. Statt sinnvolle Analysen durchzuführen, um Entscheidungsprozesse zu unterstützen, beschäftigt man sich mit lästigen Fehlern, doppelten Datensätzen etc. Von überallher ist der Ruf zu vernehmen, aus Big Data müsse ‘Smart Data’ werden.
Per Filter die Spreu vom Weizen trennen
Wer regelmäßg Kundenbefragungen durchführt, wird früher oder später mit Spam konfrontiert. Teilweise mit erschreckend großen Mengen. Beim Sammeln von Feedback sollte man Tools verwenden, die unbrauchbare Antworten herausfiltern. Eine hervorragende Umfragesoftware zeichnet sich durch ebenso hervorragende Filterfunktionen aus. So lassen sich auch große Datensätze “sauber halten”, was der Marktforschung zugutekommt. Wir von Honestly versuchen daher, unsere Software regelmäßig zu erweitern und zu verbessern. Auf unserem Blog informieren wir Sie über neue Features und Updates.