Business Intelligence

Zum Begriff

Wer liest, der lernt. Es fragt sich, was sie/er dabei lernt. So kann man z.B. über Business Intelligence (BI) aus einem 2004 erschienen Buch der Autoren Kemper, Mehanna und Unger lernen, dass es sich um eine „IT-basierte Managementunterstützung“ handele. Wirft man einen Blick auf das Inhaltsverzeichnis, lernt man hinzu, dass es um eine neue Begrifflichkeit geht. Denn so fängt das Buch an, mit der Definition der neuen Begrifflichkeit. (Anm.: Kemper gibt an anderer Stelle an, BI sei im Jahre 1996 entstanden.) Spätestens bei diesem Schritt müsste man stutzig werden, denn hinter Anglizismen verstecken sich oft alte Banalitäten, die man als neu annehmen soll. Können Leute bis zum 21. Jahrhundert gewartet haben, um IT als Managementunterstützung zu entdecken?

 

Natürlich nicht, denn bereits der erste in einer Verwaltung eingesetzte Computer (1953) wurde als eine Art Kreativitätsverstärker gefeiert. Er sollte der Papierflut ein Ende bereiten. Von da bis zur Erfindung des Begriffes „business intelligence“ durch H. P. Luhn vergingen nur fünf Jahre. Da wir den Begriff einem Deutschen verdanken, lässt sich aus heutiger Sicht nicht genau ergründen, was das Wort „intelligence“ in dem Begriff bedeutet. Denn das englische Wort mit fast gleicher Schreibweise bedeutet etwas völlig anderes als im Deutschen, nämlich Erkenntnisse, die man aus gesammelten und sinnvoll aufbereiteten Daten gewinnt. Mit deren Hilfe sollen bessere operative oder strategische Entscheidungen im Hinblick auf die Unternehmensziele ermöglicht werden.

 

Auch das erste Wort in dem Begriff, „business“, bedeutet für den deutschen Benutzer eine Falle. Denn platt übersetzt bedeutet es Geschäft. Gemeint ist aber „die Aufgabe, der man nachgeht“. Daher gehören auch Wissenschaftler, Militärs oder gar Künstler zu den Kandidaten für die Nutzung von BI. Denn es ist unerheblich, wofür man eine Datenerhebung benötigt. Sie soll dazu dienen, künftige Entscheidungen auf einer nachvollziehbaren Basis zu treffen, welche auch immer. Natürlich gehört es hierzu, dass entsprechende Werkzeuge bereitgestellt werden.

 

Nüchtern gesehen, kann man BI als Geschäftsanalytik oder Unternehmensdatenanalyse bezeichnen. Wenn man den Begriff sehr weit fasst, gehört die Gesamtheit von Managementgrundlagen dazu. Allerdings sollte man sich davor hüten, weil allein eine Komponente hiervon, Wissensmanagement, eine Wissenschaft für sich ist.

 

Wer sich auf die Suche nach einer festen Definition des Begriffs BI aufmacht, benötigt mehrere Fremdsprachenwörterbücher, zwar alle in Englisch, aber von verschiedenen Disziplinen wie Informatik, EDV, IT, Betriebswirtschaft u.v.a.m. Dass er fündig wird, darauf sollte er besser nicht wetten.

Zur Geschichte und Gegenwart

Die ersten Schritte

„Wer keine Geschicht´ hat, der kein Gesicht hat“ lautet eine nette Weisheit, der folgend man zum Verständnis von einem Sachverhalt stets dessen Vorgeschichte betrachten sollte. Der Vater des Begriffes BI, Luhn, war erst in fünfter Berufung ein Computerwissenschaftler. Er hatte zunächst das Druckerhandwerk gelernt, später im Krieg als Kommunikationsoffizier gedient, danach in der Textilbranche gearbeitet, um später noch als Versuchsingenieur zu fungieren. Erst danach wurde er Leiter der Informationsbeschaffungs-Abteilung der IBM. Seinen Erfindergeist (80 Patente) widmete er also nicht zufällig der Analyse von Information. Ein Erfinder muss wissen, was es (noch) nicht gibt.

 

Ein Großteil der heute üblichen Methoden der Informationsspeicherung bzw. -beschaffung, trägt die Handschrift von Luhn. Beispielsweise KWIC, keyword in context-Indexierung (Schlüsselwort im Kontext), sowie SDI, selective dissemination of information (Konzept der selektiven Verbreitung von Information), gehören zu seinen Errungenschaften. Mit solchen Methoden wurden die Grundlagen dafür geschaffen, dass man mit Daten vernünftig umgehen konnte. Freilich waren diese damals auf Lochkarten gespeichert, später auch auf Magnetbändern. Keine allzu benutzerfreundlichen Medien!

 

Wie großartig Luhn´s Errungenschaften waren, kann man z.B. an KWIC erkennen. Dort wird nicht ein Suchwort für sich indiziert, sondern in seinem Kontext, d.h., wer nach „Katze“ sucht, findet auch, dass im gleichen Absatz auch „Maus“ vorkommt. 40 Jahre danach formierten sich Suchmaschinen im Internet, wobei auch deren besten nach „strings“ suchten, also nach Zeichenfolgen nach typischer EDV-Manier. So konnte man „r uns“ eingeben, wenn man nach „ausgemachter Unsinn“ suchen wollte. Zu jedem vernünftigen Wort bekam man einige Millionen Fundstellen nachgewiesen, und wusste dann, was er bereits vorher gewusst hat: Das Wort kommt häufig vor. Alle diese Suchmaschinen wurden durch die „Finde-Maschine“, Google, zur Geschichte. Seit Jahren werden in Deutschland 90% der Suchanfragen in Google eingegeben. Dieser Wert wurde etwa im Jahr 2010 erreicht, 2023 war er nicht viel anders.

MIS – Management Informationssysteme

Mitte der 1970er Jahre wurde es möglich, Daten über Entfernungen zu transportieren. Die Datenfernübertragung war geboren. Gleichzeitig wurde die elektronische Speicherung von Daten auf Festplatten realisiert, die einen besseren Zugriff erlaubten als die Bänder. Obwohl die Technik aus heutiger Sicht eher lächerlich erscheint, die größten Platten konnten gerade mal 1 MB (!) speichern, setzte die Entwicklung ungeahnte kreative Energien frei. Dem Computer, bis dahin eher als elektrifizierte Buchhaltung betrieben, wurde zugetraut, Entscheidungen des Management effektiv und nachhaltig zu verbessern.

 

So entstand etwa gegen 1980 der Begriff „MIS“, management information system, der auch heute noch existiert. Man kann das Wort „information“ in diesem Begriff auf zweierlei Art verstehen. Für nüchterne Betrachter ist ein MIS ein geordnetes System, das vom Management benötigten Daten sammelt, verarbeitet, speichert und verteilt. Für andere ist das, was das Management bekommen soll, Information. Dieser Vorstellung liegt die insbesondere von einem Großunternehmen über Jahrzehnte geförderte Unfähigkeit zugrunde, zwischen Daten und Information zu unterscheiden.

DSS – Decision Support Systeme

Wer nüchterner gedacht hat, sprach hingegen von DSS (decision support system), d.h. von einer Technik, die menschliche Entscheidungen unterstützt. Eine solche Vorstellung von Computern, und heute insgesamt von IKT bzw. IT, hat Ewigkeitswert, weil sie davon ausgeht, dass eine Bewertung komplexer Zusammenhänge nur vom Menschen getroffen werden kann. Zwischenzeitlich wurden solche Systeme auch EIS (executive information system) genannt. Allerdings sollten diese dem Top-Management vorbehalten bleiben.

Warehouse – Information oder Data?

Zeitgleich mit MIS bzw. DSS wurde der Begriff „Information Warehouse“ von IBM eingeführt. Ihm lag wieder die euphorische Vorstellung zugrunde, dass das, was in den Computern verarbeitet und gespeichert wurde, Information wäre. Der Begriff erwies sich wegen dieses Mangels als kurzlebig und wurde von der zutreffenden Vorstellung „data-warehouse“ ersetzt. Zu Deutsch „Datenlager“. Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meistens eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher Quellen zusammensetzt. Wer sich heute Grundlagen für eine Entscheidung sammelt, wird einer einzigen Datenbank nie trauen.

 

Die Vorstellung von einem Datenlager ist zutreffend, deswegen kann man heute, also zwei Jahrzehnte nach ihrer Entstehung, davon ausgehen, dass man sie auch in zwei Jahrzehnten unverändert antreffen wird. Deswegen lohnt es sich, sich mit diesem Begriff auseinanderzusetzen, der eine der Basiskomponenten von BI kennzeichnet. Freilich wird das Datenlager nicht mehr eine einzelne Datenbank sein.

Datenschürferei – Data Mining

Da ein Datenlager an sich noch keinen Wert für ein Unternehmen bedeutet, muss man seinen Inhalt methodisch auswerten. Die Gesamtheit der Methoden wird „data-mining“ genannt, eine symbolische Bezeichnung, das so viel wie „Schürfen nach Daten“ bedeutet. Es geht also darum, aus viel Schutt das ersehnte „Gold“ zu finden und zu fördern.

 

Das ist leichter gesagt als getan. Denn, anders als bei einer statistischen Datenanalyse, z.B. im Rahmen einer Erprobung eines Medikamentes, geht es bei BI nicht um eine Analyse von Daten bekannter Qualität, sondern um eine Verwertung von Quellen auch unsicherer Natur, die man zum Teil auch noch finden und prüfen muss. Der Data-Mining-Prozess umfasst somit, ausgehend von der Datenselektion, alle Aktivitäten, die man zum Erkennen bestimmter Muster benötigt, so auch Aufgabendefinition, Selektion und Extraktion, Vorbereitung und Transformation, Mustererkennung, Evaluation und Präsentation.

 

Der Begriff „data-mining“ hat sich auch im Deutschen durchgesetzt. Ob man die damit bezeichneten Aktivitäten so nennen sollte oder anders, ist letztlich gleichgültig. Es kommt lediglich auf das Ziel an: Erfassen und Deuten von Daten, die für Entscheidungen von Bedeutung sein könnten, und Ableiten benötigter Information daraus.

 

Unter diesem Lichte betrachtet, bezeichnet Data-Mining nichts anderes als die zielgerichtete und richtige Wahrnehmung der Umwelt. Und unterscheidet sich im Prinzip nicht von dem, was jedes Lebewesen zum Leben und Überleben tut. Daher kann man erwarten, dass das Data-Mining seine Bedeutung immer beibehalten wird, auch wenn sich seine Methoden radikal ändern sollten.

 

Man muss aber stets im Gedächtnis behalten, dass eine methodische Vorgehensweise eine äußerst tückische Eigenschaft aufweist: Ist die Methode nicht hinreichend oder die Datenbasis auch nur teilweise unzuverlässig, kann eine mühsam erarbeitete Information eher zum Verderben führen als Unwissenheit, weil der Unwissende vorsichtiger agiert als der vermeintlich Wohl-Informierte.

 

Wie schlimm diese Gefahr aussehen kann, lässt sich an dem „Black Monday“, dem 19. Oktober 1987 ablesen. An diesem Tag erlebte die amerikanische Börse den bis dahin größten Crash ihrer Geschichte, und die Kurse purzelten um 22% in nur vier Stunden. Die größte Wirtschaft der Welt hatte mehr als ein Fünftel seines Wertes verloren! Interessant ist, dass der Grund lange vorher bekannt und öffentlich diskutiert worden war. Ergonomen und bestimmte Sozialwissenschaftler hatten darauf hingewiesen, dass die Börsenhandelssysteme im Prinzip auf Instabilität ausgelegt waren. Die Betreiber und Nutzer waren durch die Komplexität ihres Systems derart verblendet, dass sie die Kritik beiseite schoben. Erst ein weiterer Crash belehrte sie eines besseren.

 Künstliche Intelligenz – Schwach oder stark?

Wie dieser Vorgang zeigt, gehört zu jedem BI-System eigentlich ein Prüf- und Lernmodul. Dies war (und ist) bei einer „Sonderversion“ von BI-Systemen vorgesehen, die man wieder in platter Übersetzung aus dem Englischen „künstliche Intelligenz“ (KI) genannt hat. Das Konzept von KI entstand etwa gleichzeitig mit den DSS, aber anders als DSS sollten KI-Systeme auch selber Entscheidungen treffen können. Der Begriff KI ist sogar zwei Jahre älter!

 

Eine stark umstrittene Ausrichtung von KI wurde als „starke“ KI bezeichnet und hatte das Ziel, eine Intelligenz zu erschaffen, die wie der Mensch kreativ nachdenken und Probleme lösen kann und die sich durch eine Form von Bewusstsein beziehungsweise Selbstbewusstsein sowie Emotionen auszeichnet. Forschungen zum „emotionalen Computer“ stoßen auch heute noch auf großes Interesse. Beispielsweise konnte man vor einigen Monaten in den Medien sinngemäß Folgendes lesen: „Entwickler des Softwarekonzerns Microsoft haben ein System entwickelt, das bei Computernutzern Daten wie Puls, Hautwiderstand, Blutdruck und Gesichtsausdruck erfasst und daraus Rückschlüsse auf Stressniveau und Leistungsfähigkeit zieht. Mit diesen über drahtlose Messsysteme gesammelten Informationen kann die Software beispielsweise Verstärkung anfordern, wenn Mitarbeiter mit einer Aufgabe überfordert sind.“ Theoretisch könnte ein KI-System in einem solchen Fall auch von sich aus entscheiden, wenn Verstärkung nicht in Sicht ist. Dazu sollten die Systeme befähigt werden, weil deren Entwurf die Vorstellung von einer selbständig agierenden Kampfmaschine zugrunde gelegen hatte, die die USA aus dem Sumpf in Vietnam befreien helfen sollte. Dumm, dass niemand weiß, wie Lernen funktioniert. Und was geschieht, wenn eine Maschine plötzlich etwas anderes „weiß“ als das, was man ihr eingetrichtert hatte.

 KI-Light oder Expertensysteme

Da solche weit reichenden Vorstellungen bei vielen auf Skepsis gestoßen waren, wurde auch eine „light“-Version von KI verfolgt, die „schwache“ KI. Sie beschäftigt sich damit, konkrete Anwendungsprobleme zu lösen, so z.B. die Frage einer sauberen, kontextbezogenen Hilfe. Wenn ein Benutzer bei einem Schritt auf Probleme stößt, soll sein System das echte oder vermeintliche Problem in dem jeweils herrschenden Zustand analysieren und eine Lösung herbeiführen, mal selbsttätig, mal beratend.

 

Damit wären wir beim letzten namentlich benannten und hinreichend genau beschriebenen BI-System angelangt, dem Expertensystem. In der Theorie ist ein Expertensystem ein Programmsystem, das „Wissen“ über ein spezielles Gebiet speichert und ansammelt, aus dem Wissen Schlussfolgerungen zieht und zu konkreten Problemen des Gebietes Lösungen anbietet. Solche Systeme sollen große Mengen Wissen repräsentieren, aus dem Wissen auf logischem Wege Schlussfolgerungen ziehen und neues Wissen gewinnen, im Benutzerdialog zu gegebenen Problemen Lösungen finden und den Lösungsweg erläutern.

 

Um diesen Aufgaben genügen zu können, muss ein Expertensystem eine Wissensbasis besitzen, die es selbst verändern kann, d.h. lernen. Es muss daher eine Problemlösungskomponente aufweisen, und natürlich mit dem Benutzer kommunizieren. Ob ein solches System selbständig data-mining betreiben darf, ist nicht klar beschrieben. Aber immerhin wird von ihm ziemlich Großartiges verlangt. So heißt es: Sie (Expertensysteme, Anm.) verarbeiten nicht Daten, sondern ziehen unter Ausnutzung von Regeln und Fakten Schlüsse über einer Wissensbasis. Außerdem sind Expertensysteme lernfähig, d. h. sie können Wissen gewinnen und ihre Basis erweitern. Darüber hinaus erklären die Systeme ihre gefundenen Ergebnisse und geben die Lösungswege bekannt, sie sind also selbsterklärend. (nach Tino Hempel).

Wunsch oder Realität?

Wie weit man solche Systeme nutzbringend einsetzen kann, lässt sich anhand realisierter Systeme nicht dokumentieren. Auffallend ist aber, dass man auch in den neuesten Abhandlungen auf den „Urvater“, MYCIN, stößt. Und dass manch genanntes System so gar nicht sein darf, so z.B. REACTOR zur Überwachung eines Kernreaktors. Computer gelten nämlich in der Kerntechnik aus manchen Gründen als nicht verlässlich, so dass man sie zwar beim Betrieb einsetzt, aber zur Überwachung des Reaktors Menschen benötigt werden, deren „letzte“ Werkzeuge, also die zur Verhinderung von Katastrophen, rein elektromechanisch funktionieren. Die Computer gehören abgeschaltet oder schlicht ignoriert.

 

Bei dem Thema kann man die Gefahren einer solchen Technik deutlich erkennen. Kerntechnische Anlagen gehören zu den komplexesten Systemen, die je geschaffen worden sind. Dort gelten selbst triviale Verknüpfungen von Daten von mehreren Sensoren als potenziell unzuverlässig, weil ein denkbarer Unfall das Leben in Mitteleuropa auslöschen kann. Kann man sich bei einer solchen Anwendung auf selbst-lernende Maschinen verlassen? Wenn man sich auf Systeme verlassen soll, die wie folgt definiert sind, könnte man gleich einen Bunjee-Sprung wagen, ohne Seil: „Sie benutzen neben Fakten- und Regelwissen auch Heuristiken und vages Wissen und können aus vorgegebenen Daten selbstständig Schlüsse ziehen.“ (Stuart E. Savory, Grundlagen von Expertensystemen). Gemeint ist nicht ein Sprung alleine, sondern kollektiv, und wie gesagt, ohne Bunjeeseil.

 

Expertensysteme werkeln heute überall und leisten gute Dienste. Wo sie nutzbringend eingesetzt werden, existiert eine wirksame menschliche Kontrolle. Daher kann man sie eben als DSS bezeichnen, Hilfe für Entscheidungen. Wird die menschliche Kontrolle faktisch außer Kraft gesetzt, werden sie unberechenbar. Ein Highlight: Am 4. Mai 1982 sah der Ausguck auf der Sheffield, einem britischen Zerstörer, eine Rakete anfliegen. Das „Expertensystem“ des Schiffes identifizierte ein „freundliches“ Geschoss der Marke Exocet, was jedes Nato-Schiff getan hätte. Die Sheffield sank, weil ihr System nicht gelernt hatte, dass die Rakete einer nicht (mehr) freundlichen Macht gehörte. Hätte man auf den Ausguck gehört, wäre die Rakete abgeschossen worden. Wie nachhaltig ein solcher Fehler wirken kann, lässt sich daran erkennen, dass fünf Jahre später eine US-amerikanische Fregatte von Exocets fast versenkt wurde. Der Angriff kostete 37 Marines das Leben. Das „System“ hatte es in fünf Jahren nicht geschafft, zu lernen, dass in der Politik der Weg von Freundschaft zu Feindschaft zuweilen sehr kurz sein kann.

 

Das Problem wurde übrigens ganz ohne „Expertensystem“ gelöst: Man hat Frankreich diplomatisch davon überzeugt, dass es keine Raketen mehr exportieren sollte. Wer weiß denn heute, wie lange eine Freundschaft hält?

Von Daten und Informationen

Um die heute benutzten Systeme zu verstehen, muss man sich mit dem Begriff Information beschäftigen. Der Spruch „Wir werden mit Informationen „überschüttet“ ist ja genauso bekannt wie das mehr oder weniger hilflose Suchen nach Informationen. Das Gefühl von zu viel und zu wenig Information befällt nicht etwa unterschiedliche Leute, sondern häufig dieselben Personen.

 

Den Schlüssel zum Verständnis liefert die Definition von „Information“, die im Jahre 1974 von der ISO veröffentlicht wurde: „Die Bedeutung, die ein Mensch Daten zuordnet „ (ISO 2382:1974). Das bedeutet, dass sämtliche Daten, und auch das, was wir unserer Umwelt entnehmen, zunächst neutral und bedeutungslos sind. So etwa die Länge eines Straßenabschnitts (1 km) oder die Farbe eines Autos (rot).

 

Je nach Qualität der Fahrbahn und herrschender Rechtslage kann der Straßenabschnitt von einem Kilometer Länge entweder etwa 20 Sekunden (deutsche Autobahn) oder eine Ewigkeit (auch deutsche Autobahn, Stau) bedeuten. Für einen Straßenbauer besitzt die Länge des Straßenstücks noch mehrere weitere Bedeutungen. Und die Farbe rot bedeutet bei einem Feuerwehrauto etwas anderes als bei einem Privatfahrzeug.

 

Während zuverlässig und sauber erfasste Daten stets gleich bleiben, hängt deren Information von der Situation des Nutzers oder des Betroffenen ab und kann sich schlagartig ändern. Daher ist ein Überfluss an „Informationen“ kein Gegenstück zu einem Mangel daran. Der Überfluss besteht aus Daten, die man zu einem bestimmten Zeitpunkt nicht benötigt oder nicht verwerten kann, während man zur gleichen Zeit die benötigten Daten nicht bekommt. Noch schlimmer ist es, wenn man durch den Überfluss an Daten daran gehindert wird, die relevanten zu erkennen.

 

BI lässt sich nach dieser Erläuterung als eine methodische Veredelung von Daten verstehen, aus denen man über diesen Weg „Information“ beziehen möchte. Sofern die angewandten Methoden hinreichend verlässlich und ausreichend für die Aufgabe sind, kann man zu dem Zweck ein Expertensystem einsetzen, das auch selbsttätig Entscheidungen treffen darf (z.B. Steuerung eines Marsroboters). Die Aufgabe des Menschen bleibt auf eine Überwachung beschränkt, die u.U. sogar entfallen kann. Muss man hingegen die Datenbasis oder die Methoden der Erhebung und Bewertung der Daten in Zweifel ziehen (z.B. Überwachung eines Kernkraftwerkes), müssen menschliche Eingriffe möglich und auch wirksam sein. Daher können technische Systeme dort problemlos für den Normalbetrieb eingesetzt werden, aber nicht zur Unfallbeherrschung. Dennoch erhöhen sie die Sicherheit, weil die beste Absicherung eines Kernkraftwerkes die Aufrechterhaltung des Normalbetriebs ist.

 

So ähnlich geschah es auch mit der Lösung des o.a. Problems mit den Börsenhandelssystemen, die den (neuerdings zweitgrößten) Crash verursacht hatten. Sie wurden an die Kette gelegt und durften seitdem nur tätig werden, wenn es sich um kleine Kursschwankungen handelt. Im Jahre 2010 schlugen sie noch einmal zu. Die größte Volkswirtschaft der Erde verlor binnen Stunden einen erheblichen Teil seines Wertes. Grund: Ein Börsenhändler soll anstelle von „Million“ „Milliarde“ geschrieben haben, er gab Anweisung. Milliarden von Anteilen zu verkaufen. Eigentlich kann der Mann gar nicht falsch geschrieben haben, die Amerikaner kennen den Unterschied zwischen Million und Milliarde nämlich nicht. Bei denen heißt es „billion“, mal mit sechs Nullen, mal mit neun hinter der eins.

 

Gegen Ende des ersten Jahrzehnts des 21. Jahrhunderts hatte man es mit dem größten Crash aller Zeiten zu tun. Was man daraus alles lernen wird, steht noch in den Sternen. Eines freilich hat man bereits gelernt: Auch die raffiniertesten und aufwändigsten technischen Systeme können auch die größten Probleme nicht aufdecken, wenn sie nicht darauf angesetzt worden sind. Und sie alle haben nicht einmal gemerkt, dass ein einziger Mensch eine größere Menge Geld geraubt hat, als alle Räuber der Erdgeschichte zusammen – das auf einem Gebiet, wo die mächtigsten Systeme für „business intelligence“ tätig waren. Und der Computer, der den Schachweltmeister besiegt hat, würde bei Halma wohl jedem Kleinkind unterlegen sein.

Business Intelligence heute

Landschaftsaufnahme

Das Bild der geordneten Welt von Daten, die man methodisch, meist statistisch, zur Information veredeln kann, entspricht leider nicht der Realität. Während viele Leute von „Standards“ sprechen, diskutieren andere von Anwendungslandschaften. Ein nicht zu vernachlässigendes Thema. Im Dezemberheft 2008 von Informatik Spektrum, dem Organ der Gesellschaft für Informatik, lautete der Titel des Hauptartikels „Softwarekartographie – Anwendungslandschaften verstehen und gestalten“. „Anwendungslandschaften in Unternehmen sind langlebige hochkomplexe Strukturen, bestehend aus hunderten bis tausenden von miteinander vernetzten betrieblichen Informationssystemen, die von Personen mit sehr unterschiedlichen Interessen und Erfahrungshintergrund konzipiert, erstellt, modifiziert, betrieben, genutzt und finanziert werden.“, so das Fazit einer Studie, an der 35 DAX-notierte Unternehmen bzw. global operierende Mittelständler teilgenommen haben. Und: Mit den Worten „Nebel liegt über der Anwendungslandschaft“ charakterisiert der Autor die damalige Situation in großen Unternehmen. Ob sich heute was daran geändert hat? Ich las Mitte Dezember 2023, dass eine Tochter der größten deutschen Bank ein derartiges Chaos in ihren IT-Systemen hat, dass auf lange Sicht keine Besserung zu erwarten ist.

 

Wer die oben angeführten Feststellungen für übertrieben hält, wird allenfalls einen Fehler darin entdecken können: Die Strukturen sind wahrscheinlich nicht komplex, sondern lediglich kompliziert. Und solche Strukturen sind nicht durchschaubar, komplexe schon.

 

Wo liegt der Bezug zu BI? Die Daten, nach denen man mit BI schürft, liegen nicht sauber geordnet und etikettiert in einer Datenbank, selbst wenn man nur im eigenen Betrieb sucht. Man findet sie hinter einer Nebelwand. Und die Daten von außerhalb liegen hinter Wolken versteckt.

 

Von dem Beschriebenen darf man nicht etwa ableiten, dass man auf BI besser verzichten sollte. Ohne sie lägen die Daten nicht hinter möglicherweise durchschaubaren Wolken verborgen, sondern hinter Bergen in fremden Ländern. So wie es früher der Fall war. Der Zweck der Darstellung in diesem Artikel ist eine nüchterne Betrachtung der technischen Möglichkeiten, die nicht durch die Natur der Technik begrenzt sind, sondern in der Natur der Information liegen.

Verfügbare Systeme und Produkte

In der Praxis findet man unter dem Begriff BI oft verbesserte Berichtswesen, „reporting“, die ihre Daten aus einem ERP-System (Enterprise Resource Planning) des Unternehmens beziehen. Das o.a. Datenlager wird eingerichtet, um die verfügbaren Daten ggf. in die gewünschte Form zu bringen, ohne das ERP-System zusätzlich zu belasten. Ein weiterer Grund für die Einrichtung eines getrennten Systems kann sein, dass man Dritten nicht einmal erkennbar machen möchte, welche Daten wie ausgewertet werden. Denn allein dies kann verräterisch sein bzw. zur Manipulation einladen.

 

Weiter reichende Systeme berücksichtigen neben eigenen zusätzlich Daten aus fremden Quellen, z.B. von Forschungsinstituten oder gar Wettbewerbern. Ein Teil des „Systeme“ sind „tools, wozu z.B. Software wie Excel, Reporting-Werkzeuge wie die der Firma Actuate Corp. oder der bis Kurzem größten Anbieters der Welt, SAS Institute, gehören. Aus dem Namen des größten Anbieters, SAS = Statistical Analysis Systems, kann man die wahre Natur der angebotenen Werkzeuge ableiten.

 

Ob man den Namen eines anderen Großanbieters, Oracle, in diesem Sinne deuten darf, sei dahingestellt. Dieser hat ihr mittlerweile berühmtes Datenbanksystem einst im Auftrag eines Kunden erstellt, der Data-Mining im wahrsten Sinne des Wortes betreibt, CIA. Wer ungern orakelt, sondern hinter die Kulissen schaut, wird feststellen, dass hinter einem der bekanntesten Softwaresysteme der letzten Jahrzehnte, SAP R/3, eine Oracle-Datenbank gestanden hat.

 

Mittlerweile ist die einstige SAP R/3 zu SAP Business Suite mutiert, in dem es als SAP ERP (Enterprise Resource Planning) weiter lebt. In der Business Suite finden sich weitere Pakete, deren Namen man bei vielen Anbietern antreffen kann, so auch CRM = Customer Relationship Management, SCM = Supply Chain Management, SRM = Supplier Relationship Management. Was die Kürzel in Wahrheit bedeuten, muss man sich anhand des jeweiligen Anbieters erarbeiten.

 

Besonders zu betonen ist OLAP = Online Analytical Processing, eine Analysemethode, aber keine einfache. So gibt es ROLAP, MOLAP und wenn man beide anwenden will, HOLAP. Dabei steht R für relational, weil man hierzu auf eine relationale Datenbank zugreift, M für multidimensional, und H für hybrid. OLAP Werkzeuge zeichnen sich durch Multidimensionalität aus, relevante betriebswirtschaftliche Kennzahlen (z.B. Umsatz- oder Kostengrößen) anhand unterschiedlicher Dimensionen (z.B. Kunden, Regionen, Zeit) mehrdimensional betrachtet und bewertet werden können. Zur bildlichen Darstellung werden Würfel (Cubes) verwendet. Nicht überraschend die Liste der Anbieter, die von Microsoft, Oracle, SAP und IBM angeführt wird.

 

Die Sparte Business Intelligence, in der laut Computerwoche im Jahr 2007 136 Anbieter tätig waren, machte seinerzeit 689 Mio Euro Umsatz. Damit hatte sie sich auf der Leitseite von BITKOM, Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V., keinen Platz unter den angeführten etwa 70 Begriffen erringen können. Im Jahre 2013, also sechs Jahre später, wurde das Marktvolumen auf 1,2 Milliarden € geschätzt. Gegenüber dem Gesamtumsatz der IT-Branche, 153 Milliarden, sah das Marktvolumen eher mickrig aus. Globale Zahlen sprechen eine ähnliche Sprache. Laut Statista gilt: „Im Jahr 2023 wird der Umsatz im Business-Intelligence-Software-Markt weltweit voraussichtlich etwa 23,64 Mrd. € betragen. Es wird erwartet, dass dieser Umsatz von 2023 bis 2028 eine jährliche Wachstumsrate (CAGR) von 5,78% aufweisen wird, was zu einem prognostizierten Marktvolumen von 31,31 Mrd. € im Jahr 2028 führt.“ (https://shorturl.at/uyITZ)

 

Die Wahrheit dürfte aber wesentlich besser aussehen, denn niemand weiß, wie viel Technik und vor allem Organisation aufgewendet wird, um auf methodische Art Daten für die Führung von Unternehmen zu sammeln und aufzubereiten. Der o.g. Umsatz dürfte gegen den wahren Aufwand nur eine Kleinigkeit darstellen.

Und wieder KI

Das Jahr 2023 erlebte einen Hype ungewohnten Ausmaßes. ChatGPT war in aller Munde. Angeblich hat diese KI selbst Examensarbeiten geschrieben. Warum nicht Data Mining betreiben? Oder schlicht Geschäftsanalytik, wie BI von nüchterneren Leuten genannt wird? Dazu gibt es sogar ein Whitepaper der Lufthansa, das so anfängt: „Künstliche Intelligenz (KI) oder Artificial Intelligence (AI) ist längst kein Zukunftsthema mehr. Die Technologie ist ausgereift, verfügbar, erschwinglich – und bereits im Einsatz. So lassen sich Aufgaben automatisieren und Prozesse optimieren. Das wissen auch Unternehmen und fokussieren sich zunehmend auf den Einsatz von KI-Tools. …“ (https://shorturl.at/cmRZ2)

 

Man kann ähnliche Abhandlungen von allen Platzhirschen der IT-Branche lesen. Ob man sich darauf einlassen sollte? Zu empfehlen ist vorher, die Fähigkeiten der KI mal mit einfachen Daten zu testen, die man genau kennt. Bislang kennen wir nur Abhandlungen, bei denen die KI Vieles erfunden hat, und auch noch plausibel und stilistisch überzeugend formuliert. Wer es dennoch wagen möchte, sollte sich warm anziehen.

 

Was bei ChatGPT , Bard (Google) u.ä. KI, also künstliche Intelligenz genannt wird, ist ein Sprachmodell, LLM = large language model, bei dem ein Computersystem mit vielen Texten gefüttert wird, aus denen es „lernen“ soll, was einem bestimmten Wort oder einer Phrase folgen kann. Wie es dabei lernt, ist ein Geheimnis des jeweiligen Anbieters. Kein Geheimnis ist allerdings, das KI real existierende Daten mit „erfundenen“ mischt und ein stilistisch und grammatikalisch nahezu perfektes Ergebnis produziert. Diese Gefahr der Täuschung einer Perfektion wird gesteigert durch das Verhalten der „Autoren“ realer Texte, den Anbietern ihre Texte zu verweigern, während das Internet voller freier Texte ist, die von Maschinen erzeugt werden. D.h., von Maschinen generierte fehlerhafte Texte werden analysiert und zum Lernen benutzt, um später neue Texte zu produzieren.

 

Dieses Verhalten lässt sich mit dem Verhalten der Börsenhandelssysteme vergleichen, das 1987 zum bis dahin größten Börsencrash aller Zeiten geführt hatte. Es nennt sich in der Technik Mitkopplung. Dabei wird das von einem System bearbeitete Eingangssignal auf den Eingang zurückgeführt und verstärkt somit dessen Änderung. So stiegen damals die Börsenkurse, die die Systeme als eine Steigerung des Wertes der Aktien bewerteten und Kaufempfehlungen aussprachen. Dies wiederum bewerteten die Systeme als „Trend“ und steigerten ihre Empfehlungen. Usw … In der Technik werden solche Systeme benutzt, um ein instabiles Verhalten zu erzeugen. Will man ein System erstellen, dass sich selbst stabilisiert, wählt man die Gegenkopplung – eine Erhöhung des Ausgangssignals führt zu einer Minderung des Eingangssignals.

 

Solche Vorgänge gab es auch vor der Einführung der Computer. Allerdings waren die Informationssysteme primitiv (Telefon, Telex) und langsam. Zudem war der Mensch häufig als Bremse tätig. Und es gab einen Börsenschluss am Ort. In Jahre 1987 konnten aber Computer bereits weltweit zeitlos kommunizieren und irgendwo auf der Welt war immer eine Börse offen. Daher konnte sich die Krise schnell aufschaukeln, nachdem zuvor stetig ansteigende Kurse festgestellt worden waren. Bei der Ursache handelte es sich also um einen grundsätzlichen Denkfehler und nicht um einen Softwaremangel, wie damals behauptet wurde.

 

Derselbe Effekt wohnt der KI inne. Sie lernt aus potentiell fehlerbehafteten Texten, um wieder solche zu produzieren. Wenn Maschinen hierfür eingesetzt werden, wie man z.B. aus Produktbewertungen u.ä. kennt, können sie die Fehler umgehend in neue Texte einbauen.

 

Das allerdings ist bei manchen Texten, die viel wertvoller sind als übliche Texte, nicht die allergrößte Gefahr, bei wissenschaftlichen Produkten. Erstens ist es heute eine Kleinigkeit, vorhandene Texte mit Bildern zu versehen, die das Gegenteil der Originale Aussagen. Somit lassen sich wissenschaftliche Artikel missbrauchen. Viel schlimmer aber sind komplett gefälschte Quellen, die aus nicht vorhandenen Verlagen, Journalen oder Autoren stammen. Es gibt zahlreiche wissenschaftliche Journale, die „gekapert“ worden sind (s. Beall’s List of Potential Predatory Journals and Publishers, https://beallslist.net/). Wenn deren Produkte zum „Lernen“ von KI benutzt werden, verbreitet diese komplett verfälschte Informationen, die die KI in einem guten Stil kleidet.

 

Nicht nur Texte werden von der KI „gelernt“, sondern insbesondere Bilder. Wenn diese bei der Generierung neuer Bilder benutzt werden, steht der Klischeebildung nichts im Wege. Während sich die Kritiker der KI z.B. mit der Vertiefung von Vorurteilen durch diesen Vorgang beschäftigen, ergibt sich eine besondere Gefahr für Business Intelligence, weil eine wichtige Quelle, die Wirtschaftspresse, traditionell mit absichtlich veränderten Abbildungen arbeitet, um nicht zu sagen, mit verzerrten Grafiken, Statistiken und Bildern. Dies lässt sich zurück datieren auf das Jahr 1776, als sich England wegen des Krieg in der Kolonie Amerika hoch verschulden musste. (mehr: Edward Tufte, z.B. The Visual Display of Quantitative Information, 2002, The Cognitive Style of Power Point 2004, Beautiful Evidence 2006). Der Autor ist insbesondere bekannt durch seine Kritik an Power Point, dem „Standard“ für Visualisierung, der im Geschäftsleben Fließtexte weitgehend abgelöst hat. Power Point Visualisierungen funktionieren aber insbesondere als Teaser, zu denen der Vortragende einen erheblichen Teil der Gesamtinformation verbal addiert. Nicht selten wird dabei die mögliche Aussage der Charts in Gegenteil umgedreht. Tufte hatte ausgesagt „Powerpoint is evil!“. Wie mag Data Mining mit Power Point Präsentationen funktionieren und was macht eine KI daraus?

 

zurück zu: Anfang

Cookie Consent mit Real Cookie Banner