In unserer laufenden Arbeit mit Kundendaten schleppen wir einen ständig wachsenden Datenberg aus der Vergangenheit mit uns rum. Weil wir lernende Verfahren einsetzen, wächst damit auch die Menge an Daten, aus denen wir lernen können. Weil wir es können, tun wir es auch, denn wir gehen davon aus, dass mehr Information mehr Wissen bedeutet. Und führt nicht ‚mehr Wissen‘ zu besseren Handlungen?

Neuerdings lernen unsere Algorithmen nicht mehr so gut. Das Problem ist nicht so sehr ihre Leistungsfähigkeit, aber die Geschwindigkeit der Anpassung nimmt ab. Alarm! Irgendetwas stimmt nicht. Bei näherer Betrachtung stellen wir fest, die wachsende Datenmenge macht uns nicht nur technisch langsamer, sondern auch logisch. Wir werden immer konservativer. Vergangenheitsdaten erhalten ein wachsendes Übergewicht und beeinflussen die Logik in ihrer Weise. Erst wenn aktuelle Entwicklungen unter unseren Kunden zu nachhaltigen Veränderungen führen, halten das auch unsere Algorithmen für bemerkenswert.

Wollen wir das? Nein. Was ist der Grund? Ausprobieren. Siehe da, wenn wir 80% der Historie aus dem Lernen ausschließen, dann führen unsere Algorithmen einen spritzigen Tanz auf. Jede kleine Welle führt zu einer neuen Wasserstandsmeldung. Ist es das, was wir wollen? Auch nicht. Das Ergebnis ist Diskussion und Detailarbeit. Wir merken, dass wir uns entscheiden müssen, welche Daten für unser Geschäftsmodell wichtig sind. Wir können uns aber auch entscheiden, welches Geschäftsmodell am besten durch unsere Daten unterstützt wird. Wie auch immer, viel Wissen hilft nur bis zu einem bestimmten Punkt. Was darüber hinaus weiter hilft, ist vor allem das richtige Vergessen.