Sie sind hier: Startseite Glossar

Glossar

  • 24 Ways
    Konzept, um multidimensionale Analysen (-> OLAP) in einem Unternehmen einzuführen. Die 24 Ways (24 Wege)  zeigen dabei Beispiele, wie man in allen Bereichen des Unternehmens (u.a. Marketing, Ein­kauf, Produktion, Vertrieb,...) OLAP-Lösungen zur Erreichung von Unternehmenszielen (Kostensenkung, Umsatzsteigerung, ...) einsetzen kann.
  • Ad-hoc Reporting
    Berichterstellung "auf Anforderung". Im Gegensatz zum -> Standard-Reporting werden Berichte über Reporting-Tools oder OLAP-Analysen dann erstellt, wenn der Informationsbedarf dazu gegeben ist. Werden diese Informationen öfter benötigt, kann aus einem Ad-hoc ein Standard-Bericht erzeugt werden (z.B. nach entsprechender inhaltlicher und optischer Aufwertung des Berichts).
  • ABAP
    Advanced Business Application Programming ist die Entwicklungssprache für SAP R/3. Es wurde speziell entwickelt, um große und komplexe Anwendungssysteme zu programmieren. ABAP ist Teil einer umfassenden Entwicklungsumgebung (Development Workbench) zur Planung und Implementierung umfassender Softwareanwendungen. ABAP-Programme sind portierbar auf verschiedene Betriebs- und Datenbanksysteme.
  • Administration (Tools)
    Viele Programme (Tools) unterteilen sich in eine Administrator- und eine Endanwenderversion.
    Dem Administrator stehen alle Funktionen des Programms zur Verfügung, dem Endanwender nur Funktionen, die er zur Erfüllung seiner Anforderungen benötigt.
  • Agenten (intelligent)
    Programmpakete, die in automatisierter Weise Informationen für einzelne Benutzergruppen des Web Portals aufspüren und verteilen sowie dyna­misch (beispielsweise auf der Basis der bisher getä­tigten Informationszugriffe) die Informationsprofile der einzelnen Anwender und Anwendergrup­pen auf den neuesten Stand bringen.
  • Ampelfunktion
    Optische Kennzeichnung von Werten und lnter­vallen anhand von Farben einer Ampel. Dabei stehen die Farben Rot, Gelb und Grün für schlecht, mittel und gut.
  • Analyze then query (decision flow)
    von Cognos entwickelter Ansatz, mit dem bei inter­aktiver Analyse und unterschiedlichsten Formen der grafischen Darstellung der Bezug zu den Detaildaten nie verlorengeht. Die in der Cognos ­Lösung implementierte Funktion -> Drill Through ermöglicht den Anwendern, per Knopfdruck aus ei­ner Analyse oder einer hochverdichteten Sicht gezielt auf die entsprechenden Detaildaten durch­zugreifen
    ("Erst analysieren, dann abfragen“).
  • BAPI (Business Application Programming Interface)
    Schnittstellen-Konvention der SAP AG, an die sich externe Programme halten müssen, um komfortabel mit R/3-Modulen kommunizieren zu können.
  • Balanced Scorecard Concept
    Managementmethode, wonach in einer Analyse und Bewertung eines Unternehmens ein Gleichgewicht der strategischen Zielrichtung mit den Leistungs­daten erzielt werden soll.
  • BI-Portal
    Ein Business Intelligence Portal stellt den Anwen­dern unternehmensweites Know how auf einer ein­heitlichen Oberfläche zur Verfügung. Über das BI Portal können Anwender von einem einzigen Punkt aus auf sämtliche Informationen zugreifen und durch Berichte navigieren, die für ihre Aufgaben relevant sind.
    Das BI Portal von Cognos ist ein integraler Be­standteil der Cognos BI Produktplattform.
    Es ist vorkonfiguriert und kann beliebig an den Informa­tionsbedarf der Anwender angepaßt werden. Neben den gängigen "Push"- und "Pull"-Mechanismen ver­fügt das Cognos BI Portal auch über Funktionen, die den Anwender benachrichtigen, wenn beispiels­weise ein Report Inhalte mit signifikanten Planabweichungen  aufweist.
  • Business Intelligence (BI)
    Mit Business Intelligence können alle informations­technischen lnstrumente zusammengefaßt werden, die das Auswerten von unternehmensweit verfüg­barem Wissen unterstützen. Der Begriff und das Konzept Business Intelligence wurden 1993 von der Gartner Group geprägt. BI beschreibt die
    Zugriffs­und Analysemöglichkeiten von Endanwendern auf im Unternehmen gespeicherte Daten
    und Informa­tionen. BI Softwarelösungen umfassen Führungs­informationssysteme
    (->Executive Information System, EIS) (-> Decision Support System, DSS), Lösungen für Abfrage und Reporting, multidimensionale Analyse  (->OLAP) sowie für -> Data Mining. (-> Management Informationsystem, MIS)
  • BI Applications
    Unter BI Applications versteht man vorgefertigte Lösungen für die Extraktion, Transformation und Überführung von Daten in Data Warehouses und Data Marts auf Basis von SAP-Daten oder anderen ERP-Systemen (-> Enterprise Resource Planning ; ETL-Tools). Ziel ist die drastische Reduzierung des Entwicklungsaufwandes beim Aufbau von Data Marts oder Data Warehouses. Bestandteil der BI Applications sind auch Tools zur Auswertung dieser gebildeten Data Warehouses oder Data Marts
    (-> Business Intelligence (BI).
  • Business Intelligence Plattform
    Die klassische Business lntelligence Plattform besteht typischerweise aus fünf integrierten
    Kom­ponenten. Hierzu zählen eine Lösung für die Infor­mationsversorgung (Extrahieren, Transformieren und Laden von Daten -> ETL-Tools), die einen Zugriff auf alle verfügbaren Datenquellen (->ERP,  -> Legacy und  -> OLTP) ermöglicht, sowie eine komfortable Oberfläche für das Verwalten der
    -> Metadaten  von Data Warehouses oder Data Marts. Die darüberliegenden BI Services bestehen
    aus einer unternehmensweit skalierbaren, server­basierten Architektur, deren Kernmodule für Ad­hoc-Reporting, OLAP-Analyse, Visualisierung sowie DataMining das gesamte Spektrum an Business Intelligence Funktionen umfassen. Ein vorkonfiguriertes BI Portal stellt den Endanwendern eine Benutzeroberfläche zur Verfügung, die beliebig auf den jeweiligen Informationsbedarf angepasst werden kann. Darüber hinaus umfasst die BI Plattform mit BI Security eine über alle Komponenten hinweg durchgehende Lösung für die Informationssicherheit.
  • Business Intelligence Software
    Softwarelösungen, die zur Entscheidungsfindung in Unternehmen beitragen. Sie werden in Anwendungen wie -> Data Warehouses, Management Informationssystemen (MIS) oder
    -> Executive Information Systems (EIS) eingesetzt. BI Software soll Anwender dabei unterstützen,
    „Just-in-Time"-Informationen zur Steuerung von Geschäftsprozessen zu erhalten.
  • Business Intelligence Tools
    Mit Business Intelligence Tools können die in den multidimensionalen Datenwürfeln (->PowerCubes) enthaltenen Informationen analysiert und grafisch aufbereitet werden. Im Vordergrund steht dabei die Akzeptanz der BI Lösung bei den Anwendern. Die Erwartungen der Anwender unterscheiden sich da­bei sehr stark je nach den individuellen Fähigkeiten (Erfahrung im Umgang mit Computern) und den Aufgaben (vom Top Management bis hin zum ope­rativen Controlling) , die mit Hilfe des BI Tools
    be­arbeitet werden sollen. (siehe auch ->BI Nutzerprofil).
  • CAS (Computer Aided Selling)
    ->Sales Force Automation
    Der traditionelle und gängige Begriff im deutsch­sprachigen Raum für das computerunterstützte Abbilden des Verkaufsprozesses. Hier geht es haupt­sächlich um den Informationsaustausch. Oft noch als Insellösung eingesetzt, erfolgt hier der Austausch meist schon in beide Richtungen. Die Bezeichnung resultiert aus der CAx-Welt in Deutschland, wie z.B. CAD (Design), CAM (Manufacturing).
  • Changed-data Capture
    Prozeß der Identifizierung und des Zugriffs auf relationale Datenbanken, bei dem nur hinzuge­kommene, modifizierte oder gelöschte Daten (seit der letzten Datenaktualisierung) erfaßt werden. Changed-data Capture ist eine Schlüsseltechnik beim Verwalten eines Data Warehouse.
  • Customer Relationship Management (CRM)
    Nur wer seine Kunden richtig kennt, kann sie richtig bedienen so kann das CR\Q-Konzept auf den Punkt gebracht werden. Immer mehr Unter­nehmen setzen Customer Relationship Manage­ment mit dem Ziel ein, ihre Marketingaktivitäten gezielt zu planen und sie möglichst ohne Streuver­luste mit günstiger Kosten-Nutzen-Relation an ihre Zielgruppe zu bringen. Mit einer wirkungsvollen EDV Unterstützung lassen sich die Kunden durch qualifizierte, maßgeschneiderte Maßnahmen ansprechen, halten und optimal bedienen. Hierbei liefert CRM den Entscheidern im Unternehmen die erforderlichen Informationen, die durch fundierte Analysen mit -> Data Warehouse  - und -> Data Mining ­Verfahren gewonnen wurden.
  • Datenbank Design
    Datenbank Design beschreibt die Organisation der Daten in einer Datenbank auf einem von der Datenbank geforderten Level. Es beschreibt die Auf­teilung der Daten in Tabellen, Spalten und Daten­typen. Das Design der Datenbank ist abhängig von den Anwendungen, die auf die Daten zugreifen.
    Ein Datenbank Design für ein Data Warehouse be­rücksichtigt z.B. Forderungen nach hoher Perfor­mance (Tabellen werden denormalisiert) und vor­berechneten Feldern (z.B. Jahresumsatz pro Ver­käufer). Datenbank Design für operative Datenbe­stände (z.B. die Datenbank eines Buchungssystems) unterscheidet sich grundlegend vom Design für Data Warehouses oder Data Marts.
  • Data Mart
    Im Gegensatz zu einem -> Data Warehouse ist der Data Mart keine unternehmensweite Datenbasis. Die Datenbasis beschränkt sich auf Unternehmens­teile, z.B. auf Abteilungen, Bereiche, Produktspar­ten. Data Marts sind eine gute Möglichkeit, BI Lö­sungen (Business Intelligence) anhand einer ausgewählten Datenbasis in kurzer Zeit zu implementieren.
  • Data Migration
    Prozeß des physischen Übertragens von Daten aus einer Datenumgebung in eine andere. Migration ist z.B. das Übertragen von Daten aus verschiedenen Datenquellen (z.B. Textdateien, Daten aus ERP­Systemen, Daten aus relationalen Datenbanken) in eine zentrale Datenbasis (z.B. mit Hilfe eines
    -> ETL­ Tools). Migration ist aber auch das Übertragen von Daten von einer Plattform auf eine andere (z.B. von UNIX nach NT)
  • Data Mining
    "Data Mining" ist der Prozeß des Entdeckens be­deutsamer neuer Zusammenhänge, Muster und Trends durch die Analyse großer Datensätze mittels Mustererkennung sowie statistischer und mathe­matischer Verfahren" (Erick Brethenoux, Gartner Group). Data Mining-Verfahren führen zu besseren Prognosen, differenzierteren Segmentierungen, Klassifizierungen und Bewertungen von Kunden­gruppen oder Märkten
  • Datenmodell
    Eine Beschreibung des Inhalts einer Datenbank. Zu dem Datenmodell gehört z.B. die Beschreibung der Tabellen und der Relationen der Tabellen untereinander. Eine der bekanntesten Datenmodellierungstechniken ist "Entity Relationship Modelling. Diese Technik identifiziert die Tabellen auf dem jeweiligen Business Level und ihre Verbindung untereinander.
  • Datenqualität
    Die "Tauglichkeit" von Daten für verschiedene Anforderungen. Abhängig von den Anforderungen kann eine Datenbasis für eine Anwendung genü­gen, für eine andere jedoch nicht. Während des Aufbaus und Füllens eines Data Warehouses muß die Datenqualität überprüft und gegebenenfalls verbessert werden ( z.B. durch das Füllen von leeren Datenfeldern oder das Korrigieren von Mehrfachschreibungen des gleicher Gegenstandes ).
  • DataScrubbing
    Der Prozeß der Verbesserung der Datenqualität mit Hilfe von Software-Tools. Data Scrubbing
    kann in operationalen Datenbanken ( ->Operational Datastore ) oder während des Füllens der
    Data Warehouses erfolgen.
  • Data Transformation
    Prozeß der Datenmodifizierung während des Füllens des -> Data Warehouse  oder der Data Migration. EineTransformation findet z.B. statt, um die Datenstruktur zu ändern, zu verbessern, Daten zu aggregieren ( z.B. Summenbildung ) oder Daten von verschiedenen Plattformen anzupassen.
  • Data Warehouse
    Von W.H. Inmon entwickeltes Konzept für die themenorientierte, integrierte, zeitbezogene und dauerhafte Sammlung von Informationen zur Entscheidungsunterstützung des Managements. Ein Data Warehouse ist eine von den operationalen DV-Syste­men isolierte Datenbank, die als unternehmensweite Datenbasis für alle Ausprägungen von Systemen dient, um das Management zu unterstützen. Die Speicherung in einem Data Warehouse erfolgt dabei in zwei grundsätzlichen Ausprägungen: relational und multidimensional (ggf. auch nur in einer der beiden Formen). Die bestehenden Schwächen zum Aufbau eines Data Warehouse bei den dazu verfügbaren Datenbanksystemen mündeten in dem von E.F. Codd entwickelten Ansatz des Online Analytical Processing (-> OLAP) und der Forderung, Informationen in multidimensionalen Datenbanksystemen zu speichern, um die notwendige Perfor­mance sicherzustellen. Mittlerweile hat sich eine "Koexistenz" von relationalen und multidimensionalen OLAP-Anwendungen gebildet. (-> ROLAP  und -> MOLAP), die in einem Data Warehouse auch parallel eingesetzt werden können.
  • Data Warehouse Management
    Prozeß des ständigen Überwachens des Data Warehouse. Dazu gehört das Füllen und Aktualisieren der Daten und das Datenbank Management.
  • Datenbanksystem (DBMS)
    Database Management System (DBMS) ist die Software, die die Speicherung, den Zugriff und das Management von Daten gewährleistet. Über das DBMS sind Anwendungen in der Lage, Daten zu lesen, zu schreiben oder zu verändern.
  • Decision Support System (DSS)
    Ein Entscheidungsunterstützungssystem, welches Lösungen für Abfrage und Reporting, multidimensionale Analyse
    (-> OLAP) sowie für ->Data Mining zur Verfügung stellt.
  • Dimension
    Dimensionen sind die Unterteilung von Geschäftsdaten nach verschiedenen "Blickwinkeln".
    Wenn z.B. ein Anwender monatliche Umsatzsummen in den verschiedenen Verkaufsregionen und über die  verschiedenen Produkte sehen will, können sich folgende Dimensionen ergeben:
    • ·Dimension Zeit: unterteilt nach Jahren (ggf. auch Quartalen) und Monaten
    • ·Dimension Verkaufsregion: unterteilt nach Land, Vertretergebiet und Ort
    • ·Dimension Produkte: unterteilt nach Produkttyp, -reihe und Produkt.
  • Dimension Table
    Eine Dimension Table ist eine Tabelle in einer Datenbank (-> Data Warehouse). Sie enthält Informationen über aufgegliederte Geschäftsinformationen innerhalb einer -> Dimension. So kann z.B. die Tabelle Produkte die Informationen über Produkttyp, Produktreihe, Produkt und eindeutiger Produktnummer in jedem Datensatz enthalten. Dimension Tables und Fact Tables bilden die Informationstabellen eines Star Schemas (-> Star Schema).
  • DOLAP
    Beim Desktop Online Analytical Processing befinden sich Daten sowie Auswertungs- und Präsentationssoftware im Arbeitsplatzrechner des Anwenders. Die Menge der analysierbaren Daten ist daher begrenzt, da sie über ein Netz aus dem Datenbestand des Unternehmens übertragen werden müssen. Der Vorteil besteht darin, daß das Netz weniger beansprucht wird und der Anwender mobiler ist, da er nicht bei jeder Anfrage auf einen OLAP-Server zugreifen muß. DOLAP eignet sich daher für wenig umfangreiche Analysen mit klar abgegrenzter Aufgabenstellung.
  • Drill Down (Detaillieren)
    Mit der OLAP-Funktion Drill Down kann der Anwender während einer interaktiven Datenanalyse auf detailliertere Daten der gerade betrachteten Dimension zugreifen. Man erzielt schnelle Antworten auf erfolgsentscheidende Fragen im Unternehmen durch einfaches Navigieren auf verschiedenen Detaillierungsebenen.
    (-> Funktionsumfang von Business Intelligence Tools)
  • Drill Up (Verdichten)
    Gegenteil von -> Drill Down. Mit der Drill-Up- oder auch Roll-Up-Funktion greift man bei der interaktiven Datenanalyse von der gerade betrachteten Dimension auf stärker verdichtete Daten.
  • Drill Through
    Drill Through ist die Technik, von einer Datenquelle auf eine andere (meist detailliertere) zu verzweigen unter Mitgabe von verschiedenen Filtern.
  • E-Commerce
    Mit Electronic Commerce wird der Handel mit gewerblichen oder privaten Kunden im Internet
    bezeichnet. Vertriebskanäle, die das Online-Shopping ermöglichen, sind z.B. Shopping Malls.
  • End-to-End
    End-to-End bezieht sich auf die vollständige Ab­bildung von Projekten, die einem Anwender eine einheitliche Lösung bieten. Im Bereich Data Warehouse ist eine End-to-End-Lösung ein Prozeß mit folgenden Inhalten:
    • ·Konzipierung des Data Warehouses
    • ·Bildung des Data Warehouses (inkl. Transformationsprozeß)
    • ·BI Lösungen zur Auswertung des Data Warehouses
    • ·Web-Portal zur Präsentation
  • Entität (Entity)
    Subjekt, auf das sich die Daten beziehen, die in Dateien oder Datenbanken gespeichert sind.
  • Enterprise Analysis
    Analysieren der Unternehmensdaten mit Hilfe von -> Business Intelligence. Damit werden Faktoren und Entwicklungen erkannt, die den Unternehmenserfolg bestimmen.
  • Enterprise Reporting
    Unternehmensweites Erstellen und Verteilen von Standardberichten und Ad-hoc-Abfragen. Enterprise Reporting macht die Berichte einer großen Anzahl von Benutzern kostengünstig zugänglich. Die An­wender können einfach und schnell auf Detail­informationen zugreifen und durch Standard­berichte navigieren.
  • ERP-Systeme (Enterprise Resource Planning)
    Dieser Begriff bezeichnet Softwarelösungen mit dem Schwerpunkt zur Abwicklung des internen betrieb­lichen Ablaufs (Warenwirtschaft, Lagerhaltung, Produktionsplanung, Finanzbuchhaltung und Personal), beispielsweise betriebswirtschaftliche Standard-Softwarepakete wie SAP R/3, Oracle Applications, BaaN oder Peoplesoft.
  • ETL-Tools (Extraction Transformation Loading)
    Werkzeuge, die den Prozeß des Bildens eines Data Warehouses (-> Data Warehouse) unterstützen. "Extraction" ist das Entladen von Daten aus verschiedenen Datenquellen.
    "Transformation" ist das Umwandeln entsprechend der Forderungen des Data Warehouse Modells und der zugrundeliegenden Datenbank (-> Data Transformation).
    "Loading" ist das Laden der Daten in die entsprechende Datenbank.
  • Executive Information System (EIS)
    Ein Informationssystem für den Zugriff auf und die Analyse von Unternehmensdaten auf einem relativ hohen Level (Management-Ebene).
  • Fact Table
    Fact Tables sind der Kern eines Star Schemas (-> Star Schema). Die Fact Table enthält pro Zeile Informa­tionen zu den Geschäftsereignissen (z.B. verkaufte Menge, Umsatz in €). Jede Zeile enthält zudem Felder, die eine Verbindung zu den Dimension Ta­bles (->Dimension Table) gestatten (z.B. Produkt­nummer zur Tabelle "Produkte"; Kundennummer zur Tabelle "Kunden"; Verkaufsdatum zu Tabelle "Zeit"). Fact Tables enthalten Informationen auf der feinsten Detaillierungsebene.
  • Fat Client
    Client/Server-Konzept, bei dem der Client Verarbeitungsaufgaben in seinem Hauptspeicher und auf seinem Massenspeicher (Festplatte) vornimmt und die Ergebnisse darstellt (z.B. auf Bildschirm, Drucker). Der Server übernimmt nur Teilaufgaben (z.B. die Bereitstellung der Daten in einer Datenbank) Damit sind Verarbeitungsgeschwindigkeit und -kapazität in starkem Maße von der Client-Konfiguration abhängig. Gegensatz dazu ist der -> Thin Client.
  • Front-End (Benutzeroberfläche von Softwareprogrammen)
    Front End bezeichnet das letzte Glied in der Kette der Informationsgewinnung und -bereitstellung.
    Front-End-Tools sind Programme für den Einsatz am Arbeitsplatz und dienen der Bearbeitung und Darstellung von Informationen.
  • Funktionsumfang von Business Intelligence Tools
    Neben dem einfachen Selektieren von Informationen aus Datenbeständen in Tabellen und grafischen Abbildungen ermöglichen Business Intelligence Tools zahlreiche analytische Funktionen. Dazu gehört das Navigieren entlang der Hierarchieebenen des Datenbestandes (-> Drill Down, bzw. -> Drill Up)
    oder die -> Drill Through - Funktion. Per -> Traffic Lighting lassen sich Abweichungen zwischen den verschiedenen Datenobjekten automatisch kennzeichnen. Per Mausklick kann der zu betrachtende Ausschnitt des Datenwürfels verändert werden (-> Slice and Dice). Darüber hinaus können die selektierten Informationen auch mit anspruchsvolleren betriebswirtschaftlichen Methoden wie der ABC- oder der Portfolio-Analyse gekoppelt werden.
  • HOLAP (Hybrides OLAP)
    Das Hybrid Online Analytical Processing ist eine Kombination aus -> ROLAP und -> MOLAP.
    Bei HOLAP befinden sich die gesamten Daten in einer -> relationalen Datenbank, und mit den häufig gebrauchten Informationen werden zusätzlich multidimensionale Datenwürfel gebildet. Auf diese Weise arbeiten häufig vorgenommene Analysen mit MOLAP und kurzen Antwortzeiten; für seltenere Analysen wird auf das langsamere ROLAP-Verfahren zurückgegriffen.
  • HTML (Hypertext Markup Language)
    Seitenbeschreibungssprache zur Definition von Web-Seiten. In HTML werden Datenpakete definiert,
    die von HTML-Browsern angezeigt werden können. Die heute gängigen Browser sind der 
    „Netscape Navigator" ("Mozilla") und der "Microsoft Internet Explorer". HTML wird vielfach durch JavaScript funktional ergänzt.
  • Hub and Spoke (Nabe und Speiche)
    Hub and Spoke steht für eine Data Warehouse Architektur, "bei der die zur Verfügung stehenden Datenquellen im Data Warehouse aus einzelnen Datenquellen zusammengeführt, bereinigt und historisiert werden, um einen konsistenten Datenbestand des Unternehmens zur Verfügung zu stellen
    (Single Source of Truth). Aus dem konsistenten Datenbestand (Hub) werden in der Regel abteilungsbezogene Data Marts erzeugt.
  • Information Model
    Das Information Model ist ein Datenmodell, welches die geschäftsorientierte Sicht auf die Daten
    wider­spiegelt. Es unterscheidet sich vom -> Database Design, da dieses z.B. aus Performancegründen von der geschäftsorientierten Sicht abweicht.
  • Information Supply Chain
    Abfolge des Prozesses der Informationsgewinnung, -verarbeitung und -darstellung.
  • Information Sweet Spot
    Der nach Kosten-Nutzen-Abwägung optimale Punkt bzw. Informationsstand, bei dem die Menge an entscheidungsrelevanten Informationen ausreicht, um eine "gesicherte" Entscheidung zu treffen.
  • Inmon, William H.
    William H. Inmon wird auch als "Vater des Data Warehouse" bezeichnet. William H. Inmon hat eine Reihe grundlegender Bücher zum Thema Data Warehouse geschrieben und ist bekannt für die Definition der Data Warehouse Regeln.
  • Integrated
    Entsprechend den Regeln für ein Data Warehouse (-> Inmon, William H.) sollen die Daten in einer integrierten Form vorliegen. Das heißt, Daten aus verschiedenen Datenquellen sollen im gleichen Format und gleicher Notation gespeichert sein.
  • Join (Verbindung)
    Definiert die relationalen Verknüpfungen zwischen Tabellen in der physischen Datenbank. Durch diese Verknüpfungen können Daten aus einer Tabelle mit den Daten aus einer anderen Tabelle in Beziehung gesetzt werden. Verknüpfungen ver­binden Tabellen mit Hilfe von Spalten in Tabellen.
  • Kategorie
    Beschreibt oder klassifiziert die Details eines Unter­nehmens. Kategorien können beispielsweise das Datum einer geschäftlichen Transaktion, ein be­stimmtes Produkt, einen bestimmten Kunden oder ein bestimmtes Absatzgebiet darstellen. Kategorien können häufig zu allgemeineren Kategorien zu­sammengefaßt werden. Verschiedene Daten kön­nen beispielsweise zu einem Monat und Monate zu Jahren zusammengefaßt werden.
  • Knowledge Management
    "Wenn wir wüßten, was wir alles wissen!" - dieser Ausspruch gilt heute wohl für viele Unternehmen. Aufgrund der Informationsflut kommt es heute dar­auf an, die Informationen in einem Unternehmen zu lokalisieren, zu bewerten, an den richtigen Stellen abzuspeichern und den entsprechenden Mitarbei­tern zur Verfügung zu stellen.
  • Komprimierung von Daten in Cubes
    Beim Erzeugen der Cubes (-> PowerCube) werden die Informationen nicht auf Transaktionsebene im Cube gespeichert, sondern auf der untersten benötigten Ebene der später durchzuführenden Analysen. Werden beispielsweise nur Analysen auf Monatsebene durchgeführt, so werden die Daten­sätze auf Monatsbasis zusammengefaßt und im Cube gehalten.
  • LDAP
    LDAP (Lightweight Directory Access Protocol) ist ein Standardprotokoll für Verzeichnisdienste im Internet. Er implementiert einen Standard für Inter­net-Clients, -Anwendungen und -Server für den Zu­griff auf Verzeichnisdienste. Wenn sich die Verbrei­tung von LDAP noch verbessert, erhalten Benutzer einen Standard für einen einheitlichen, interopera­blen Zugriff auf Verzeichnisdienste in heterogenen Systemumgebungen. LDAP kann so die Kommuni­kation vereinfachen und Intranets können leichter auf das Internet ausgeweitet werden.
  • Legacy
    Unter Legacy-Systemen versteht man traditionelle IT-Systeme, die nicht mehr dem gängigen Standard entsprechen.
  • Link
    Auch Hyperlink oder Hypertextlink genannt. Bilder oder Worte verweisen zu einem weiterführenden Text, Bild, Ton oder einer weiterführenden Web­seite, die per Mausklick zu erreichen sind. Markier­ter Schlüsselbegriff in einem HTML Dokument (-> HTML), von dem aus sich der Internet-Surfer mit einer anderen Stelle im selben Dokument oder einem beliebigen Dokument im Internet verbinden lassen kann.
  • Management Informationssystem (MIS)
    "Management Informationssystem" (MIS) ist ein In­formationssystem für den Zugriff und die Analyse von Unternehmensdaten auf einem relativ hohen Level (Management-Ebene). (-> EIS)
  • Mapping
    Mapping ist der Prozeß der Spezifizierung, die besagt, welche Datentransformationen (->Data Transformation) während des Füllens des Data Warehouse stattfinden sollen. Diese Spezifizierun­gen sind in den -> Meta-Daten des Data Warehouse gespeichert.
  • Meta-Daten
    Meta-Daten sind Daten (Informationen) über Daten. Sie beschreiben z.B. den Aufbau einer Datenbank oder Data Warehouses oder auch bestimmte Geschäftsregeln. Gespeichert werden diese Daten oftmals in einem -> Repository  in Form von Daten­banktabellen.
  • MOLAP (Multidimensionales OLAP)
    Multidimensionales OLAP basiert nicht auf -> SQL , sondern bedient sich eigener Programmierschnitt­stellen. Dadurch können die Grenzen von Standard SQL überschritten werden und zahlreiche analyti­sche Funktionen am Server selbst durchgeführt werden.
    Die Integration von MOLAP-Techniken und MOLAP-Zugriffsmethoden mit der relationalen Technologie erfolgt über Drill Through. Die Daten werden aus dem -> Data Warehouse in das multidi­mensionale Format kopiert. Ein wesentlicher Vor­teil: MOLAP-Lösungen bringen in der Leistung (->Performance) beeindruckende Resultate. Denn die Transaktionsdaten werden konsolidiert, bevor sie in eine mehrdimensionale Struktur gebracht werden.
  • Multidimensionale Daten
    Multidimensionale Daten sind nach mehrfachen Kriterien auswertbare Daten, zum Beispiel Umsatz je Produkttyp und -reihe, je Verkaufsregion, je Kun­dentyp in einem bestimmten Zeitraum.
  • Non-volatile
    Entsprechend der Regeln für ein Data Warehouse sollen dessen Daten nicht-veränderlich sein. Das heißt, die Daten werden nicht im laufenden Betrieb verändert (wie bei Produktionsdatenbanken),
    son­dern nur durch den Prozeß des Füllens oder Upda­tens des Data Warehouse.
  • ODBC (Open Database Connectivity)
    Datenzugriffsstandard von Microsoft, um herstel­lerunabhängig auf Daten mit einer gemeinsamen Schnittstelle zugreifen zu können. So gibt es ODBC-­Treiber für MS-Access, MS-Excel, IBM-DB2 Dialekte, Sybase, Oracle und zahlreiche andere Datenbanken.
    Der Vorteil von ODBC ist, daß die Anwendungs­software eine einzige Datenbankschnittstelle
    unter­stützen muß, nämlich ODBC, egal, welche physische Datenbank hinter dem ODBC-Treiber existiert. ODBC verarbeitet Zugriffsbefehle in SQL.
  • OLAP
    Mit Online Analytical Processing (OLAP) bezeichnet man die Analyse und Auswertung von
    multidimen­sional aufbereiteten Daten (-> Multidimensionale Daten), um Informationen für Unternehmensent­scheidungen zu gewinnen. OLAP strukturiert Daten auf hierarchische Weise und erlaubt in der Regel sowohl Einzel- als auch Trendanalysen sowie die Zusammenfassung und
    Rotation (-> Pivoting) von Daten für Vergleichsberechnungen.
    OLAP beschreibt auch eine Kategorie von Werk­zeugen (->OLAP-Werkzeuge), die aus dem
    Datenbe­stand eines Unternehmens geschäftsrelevante mehr­dimensionale Datenverknüpfungen extrahieren und deren Analyse aus verschiedenen Blickwinkeln  (-> Dimensionen) ermöglichen.
    Dazu wird zunächst ein Extrakt aus der relationalen (-> Datenbank) entnommen, in eine denormalisierte Form gebracht und in einem multidimensionalen Datenwürfel (-> PowerCube) abgelegt. Auf diesen
    las­sen sich mit den entsprechenden Werkzeugen die oben beschriebenen Analysen ausführen
    (-> Funk­tionsweise von Business Intelligente Tools).
  • OLAP, relationales
    ->ROLAP
  • OLAP-Werkzeuge
    Unter OLAP-Werkzeugen (OLAP = Online Analyti­cal Processing) versteht man nutzerseitige
    Pro­grammpakete (-> Front-End-Tools), die den Abfrage ­und Analyseprozeß vorstrukturieren und automati­sieren.
  • OLE (Object Linking and Embedding)
    Methode von Microsoft, um auf Funktionen von Anwendungssoftware zuzugreifen. Durch OLE ist es möglich, aus einer Anwendung heraus Funktionen einer anderen Anwendung zu benutzen, ohne diese Funktionen in der "benutzenden" Anwendung zu implementieren.
  • Operative Systeme (OLTP)
    Operative Datenbanksysteme unterstützen in Form des Online Transaction Processing (OLTP)
    die Ab­wicklung von Interaktionen (z.B. Akquisition) und Transaktionen (z.B. Verkauf von Produkten
    und Dienstleistungen) mit Marktpartnern. Sie eignen sich häufig nicht dazu, entscheidungsrelevante In­formationen zu liefern, um Management-orientierte Fragestellungen zu beantworten. Insbesondere die Anforderungen der analytischen und planerischen Aufgabenstellung können OLTP-Systeme nur schwer erfüllen, da sie für derartige Fragestellungen nicht konzipiert wurden. Dies äußert sich z.B. da­durch, dass sie für einen schnellen Schreib-, nicht aber für einen schnellen Lesezugriff optimiert sind.
  • OODBMS (Object-oriented database management System)
    Datenbanksystem mit objektorientiertem Ansatz. OODBMS sind flexibler als Relationale Datenbank Management Systeme
    (-> RDBMS) und bieten bessere Schnittstellen zu objektorientierten Pro­grammiersprachen.
  • Operational Datastore
    Unter diesem Begriff versteht man einfache Kopien operationaler Datenbanken mit oder ohne Zeit­stempel (in den Datensätzen). Diese sind im Gegen­satz zu Data Warehouses oder Data Marts noch nicht -> subjektorientiert , sondern wie das operatio­nale Quellsystem noch transaktionsorientiert.
    Data Warehouses werden oftmals aus diesen Operational Datastores unter Verwendung von
    -> Data Transformation  gefüllt.
  • Parametrisierter Report
    Standard-Bericht (->Standard-Reporting), der beim Aufruf die Eingabe von Parametern zum individuel­len Filtern der Daten verlangt. Dies hat den Vorteil, daß verschiedene Auswertungsaspekte mit einem einzigen Berichtsdokument abgedeckt werden kön­nen, anstatt für jeden ein eigenes zu erstellen.
    Im Gegensatz zu -> Ad-hoc Reporting bietet ein para­metrisierter Report eine engere Benutzerführung, sodass vom Endanwender keine Kenntnisse zum Erstellen von Ad-hoc Reports erforderlich sind.
  • PDF (Portable Document Format)
    Ein Dokumentenformat von Adobe, das mit dem weitverbreiteten "Adobe Acrobat Reader" gelesen, angezeigt und gedruckt werden kann. Vorteil von PDF-Dokumenten ist, daß sie nicht mehr verändert und mit dem vom Berichtersteller beabsichtigten Erscheinungsbild (Seitenformatierung, Kopf / Fuß­zeilen, Hintergrundbilder) auf jedem Drucker aus­gegeben werden können. PDF-Dateien können leicht über Netzwerke oder Intranets verteilt werden, Anzeige- und Druckmodule stehen auch für die gängigen Web-Browser zur Verfügung, so daß PDF als "Verteilungsformat für das World Wide Web" gelten kann.
  • Performance
    Die Leistungsfähigkeit (Performance) von Business Intelligence Lösungen wird durch die Schnelligkeit bzw. die Durchsatzrate der zu verarbeitenden Daten beschrieben. Die Performance einer
    OLAP-Anwen­dung ( -> OLAP ) bezieht sich z.B. auf:
    · Dauer der Erstellung der OLAP-Daten ( -> PowerCube )
    · Dauer der OLAP-Abfragen

    Die Performance einer Lösung ist von verschiedenen Faktoren abhängig, z.B.:
    · Hardwarevoraussetzung ( Hauptspeicher, Prozessor )
    · Datenmodellierung ( Anzahl und Gestaltung der Dimensionen und Kennzahlen )
    · Datenumfang
    · Datenbankauslastung

  • Pivoting
    ->Rotation
  • PowerCube
    Ein PowerCube ist eine Datei mit einem hersteller­spezifischen Format, in der für OLAP-Abfragen
    not­wendige Informationen gespeichert sind (-> OLAP).
  • Query
    Query (Abfrage) bezeichnet den Prozeß der Kom­munikation mit einer Datenbank. Eine Query besteht aus Kommandos, die von der jeweiligen Datenbank interpretiert und ausgeführt werden können.
    Das Ergebnis einer Query können Daten­bankinhalte oder auch Änderungen in der Daten­bankstruktur sein.
  • Reach Through
    Reach Through ist die Fähigkeit eines OLAP-Systems, auf operationale Datenbanken zuzugreifen,
    falls bestimmte Detaildaten nicht aus dem Datawarehouse abrufbar sind.
  • Relationale Datenbank
    Datenbank, bei der die Speicherung der Information in Tabellen und Spalten vorgenommen wird.
    Die Verbindung zwischen den Tabellen (und damit die Möglichkeit der Datenauswertung über mehrere Tabellen hinweg) erfolgt über Schlüsselfelder.
  • Replikation
    Prozeß des physikalischen Kopierens von Daten aus einer Datenquelle in eine andere.
    Dabei werden oftmals auch Data Transformation-Funktionen genutzt (-> Data Transformation).
    Es ist auch möglich, daß die Datenquelle und das Datenziel verschiedene Datenbanken sind
    (heterogene Replikation). Replikationen können auch bi-direktional sein. Das heißt, die Datenquellen werden untereinander abgeglichen.
  • Reporting
    Unter Reporting versteht man die Gesamtheit der Methoden und Techniken für eine Berichterstellung.
  • Repository
    Mit Repository bezeichnet man eine (unternehmensweite) Informationsquelle (z.B. eine Datenbank), welche die Informationen enthält, die die Nutzdaten in den einzelnen Datenhaltungssystemen beschreiben (Metadatenbanken). Das Repository kann auch Informationen über verschiedene
    Versionen und Konfigurationen enthalten. Ziel ist eine einheitliche Entwicklungsumgebung.
    Das bedeutet, verschiedene Softwareentwicklungstools greifen über das Repository auf eine
    einheitliche Informationsbasis zu.
  • Request Server
    Ein Request Server ist ein Server innerhalb einer Client/Server-Konfiguration, der die komplette Verarbeitung einer Abfrage (z.B. die Erstellung eines Berichtes) übernimmt und nur das Ergebnis dem Client zur Verfügung stellt. Die Verarbeitung erfolgt dabei abgekoppelt vom Client, so daß dieser bis zum Abruf der Ergebnisse andere Aufgaben übernehmen kann oder auch abgeschaltet sein kann.
  • RDBMS (Relationales Datenbank Management System)
    Ein RDBMS ist ein System (Administrations- und End-User-Tools) zur Verwaltung einer relationalen Datenbank (-> relationale Datenbank).
  • ROLAP (Relationales OLAP)
    Bei ROLAP - Abfragen wird direkt auf die -> relationale Datenbank  - und damit auf den gesamten Datenbestand – zugegriffen. Über  eine graphische Oberfläche werden normale SQL-Abfragen generiert. Durch den direkten Zugriff auf große Datenmengen ist unter Umständen mit Performance – Einbußen zu rechnen. Bei den beiden Varianten ROLAP und MOLAP ist Schnelligkeit eine zentrale Frage (siehe -> MOLAP).
  • Roll Up
    Mit dem Roll Up wird festgelegt, wie Daten in einem Cube (-> Power Cube) bei einem -> Drill Up von einer unteren Detaillierungsebene zu einer höheren zusammengefaßt werden. Am häufigsten ist die Methode „Summierung“  in der Praxis anzutreffen. Denkbar sind aber auch Durchschnitts-, Minimums-, oder Maximumsbildung etc.
  • Rotation
    Unter Rotation bzw. Pivoting versteht man das „Drehen“ von Daten. Diese Drehung verändert den Blickwinkel auf die Daten (-> Slice and Dice).
  • Sales Force Automation (SFA)
    Sales Force Automation ist im US-Sprachgebrauch das Pendant für -> CAS  (Computer Aided Selling)
  • Schema
    Als Schema bezeichnet man das Datenbankdesign eines Teils eines Database Management Systems
    (-> Datenbanksystem, DBMS).
  • Slice and Dice
    Slice and Dice ist eine wichtige Funktionalität von OLAP, um aus einer multidimensionalen Datenmenge (-> Multidimensionale Daten) eine Schicht gesondert zu betrachten, d.h. „herauszuschneiden“
    (Slice) und sie zur Betrachtung aus verschiedenen Blickwinkeln „rotieren“ zu lassen (Dice).
  • Snowflake
    Ein Snowflake-Schema ist ein erweitertes -> Star Schema , bei dem Dimensionstabellen noch mit weiteren (Dimensions-) Tabellen verbunden sind. Grund für dieses Design ist, die Dimensionstabelle entsprechend ihrer hierarchischen Struktur zu normalisieren (z.B. je eine Tabelle für Produkttyp, Produktreihe und für Produkt). Stellt man ein solches Design grafisch dar, ergibt sich ein Diagramm, das an eine Schneeflocke („Snowflake“) erinnert.
  • SQL
    Structured Query Language, standardisierte Abfragesprache für -> relationale Datenbanken.
  • Standard-Reporting
    Unter Standard-Reporting versteht man das Auswerten von Daten mittels vorgefertigter Berichte.
    Der Vorteil dieser Berichte ist eine einheitliche Datenberechnung, ein einheitliches Berichtsdesign
    und die Zeitersparnis, da nicht jeder Nutzer diese Berichte erneut zusammenstellen muß.
    Standard-Berichte sind z.B. monatliche Umsatzberichte oder auch Berichte für Adreßetiketten.
    Der Gegensatz zum Standard-Reporting ist das -> Ad-Hoc-Reporting.
  • Star Schema
    Datenbankstruktur, die Fakten- und Dimensionstabellen (-> Fact Table ; -> Dimension Table) enthält. Dabei steht die Tabelle mit den Fakten (auch Transaktionsdaten genannt) im Mittelpunkt, und alle Dimensionstabellen sind über Primary Keys (Primärschlüssel) mit der Faktentabelle verbunden.
    Stellt man ein solches Design grafisch dar, ergibt sich ein Diagramm, das an einen Stern („Star“)
    erinnert.
  • Subjektorientiert (Subject-oriented)
    Entsprechend den Regeln von William H. Inmon (-> Inmon, William H.) sollen Daten in einem
    Data Warehouse subjektorientiert gespeichert werden. Dass bedeuted, die Daten werden entsprechend der Geschäftsregeln organisiert (z.B. nach Kunden, Produkten, Regionen in verschiedenen Tabellen).
  • Sub Query
    Eine Sub Query ist eine Unterabfrage, ausgehend von einer übergeordneten Abfrage. Wenn z.B. eine Abfrage (per SQL in einer Datenbank) Kunden selektiert, kann die Unterabfrage selektieren, dass nur
    Kunden gesucht werden, die ein bestimmtes Produkt mehrfach gekauft haben.
    In einem Reporting-Tool (-> Business Intelligence Software) kann eine Sub Query die Möglichkeit bieten, innerhalb eines Reports Daten nach verschiedenen Gesichtspunkten zu filtern.
  • Summary Table
    Eine Summary Table enthält aggregierte (aufsummierte) Daten, die in den -> Fact Tables gespeichert werden. Enthält die Fact Table Daten auf Tagesbasis, so kann z.B. der monatliche Umsatz pro Verkäufer schon während der Bildung des Data Warehouses berechnet und in einer Summary Table gespeichert werden. Summary Tables können aber auch Durchschnittswerte oder Anzahlberechnungen enthalten. Summary Tables werden genutzt, um Speicherplatz zu sparen (es müssen nicht alle Transaktionsdaten vorgehalten werden) und um Auswertungen performanter zu gestalten (Aggregationen müssen nicht erst zur Laufzeit vorgenommen werden).
  • Supply Chain Management
    Alle Unternehmensbereiche sowie die dort eingesetzten Systeme im Verlaufe eines Kundenkontakts. Hierzu zählen sowohl die klassischen ERP-Bereiche (Warenwirtschaft, Finanzbuchhaltung, etc.) als auch Funktionsbereiche wie Marketing, Marktforschung, Vertrieb und Service. Zielsetzung sind integrierte  Lösungen – intern und vor allem extern (E-Commerce, Internet) – mit dem umfassenden
    und aktuellen Abbild des Kunden für alle Unternehmensbereiche.
  • Thin Client
    Client/Server-Konzept, bei dem der Client Verarbeitungsaufgaben definiert und an den Server sendet. Die Abarbeitung erfolgt dann auf dem Server. Die Ergebnisse werden an den Thin Client zurückgeschickt und auf diesem dargestellt. Damit sind Verarbeitungsgeschwindigkeit und –kapazität nur wenig von der Client-Konfiguration abhängig.
    Mit Hilfe des Thin Client  lassen sich die TCO (-> Total Cost of Ownership) senken.
  • Time-variant
    Entsprechend den Regeln von William H. Inmon (-> Inmon, William H.) sollen Daten in einem
    Data Warehouse zeitunabhängig sein. Das bedeutet, dass in einem Data Warehouse auch historische Daten über mehrere Zeiträume gehalten werden. Im Gegensatz dazu reflektieren Daten in operationalen Datenbanken oftmals nur einen bestimmten (z.B. den jeweils gegenwärtigen) Zeitpunkt.
    In einem time-varianten Data Warehouse müssen die Daten demzufolge einen „Zeitstempel“ haben, um eine Auswertung über Zeiträume zu gewährleisten.
  • Total Cost of Ownership (TCO)
    Die Gartner Group fordert, dass beim Feststellen der wirklichen Kosten des verteilten Computing
    alle Faktoren berücksichtigt werden müssen: Dafür hat die Gartner Group den Begriff Total Cost
    of Ownership (TCO) geprägt, der in etwa den „Gesamtbetriebskosten“ entspricht. Dazu zählen die Beschaffungskosten, der technische Support, die Administration und die Operationen im
    Endbenutzer-Bereich. Hintergrund zu TCO: Das IT-Management steht vor der gleichen Aufgabe
    wie schon vor Jahren, als es darum ging, herkömmliche Rechenzentren so weit wie möglich zu automatisieren. Diese Aufgabe steht wieder an – diese Mal jedoch für Desktops, Client/Server-Netzwerke und verteilte Applikationen, Datenbanken und Benutzerverwaltung. Basierend auf den Informationen der Gartner Group sind die Kosten, die beim Betrieb eines Rechenzentrums entstehen, 20:80 aufgeteilt – nämlich 20% Personalkosten und 80% Beschaffungskosten. Diese Kostenaufteilung von 1:4 ist auch wünschenswert für die Client/Server-Netzwerke und verteilte Systeme. Aber in diesem Betriebsumfeld ist in der Tat üblicherweise ein Verhältnis von 7:3 anzutreffen, ein höchst bedenkliches Verhältnis von Personalkosten zu Beschaffungskosten. Bei reinen Desktop-Systemen ist die Kostenverteilung noch beängstigender, denn hier entfallen auf die Personalkostenschon 85%,
    und nur 15% sind reine Investitionskosten.
  • Traffic Lighting
    Business Intelligence Funktion, um Abweichungen zwischen den verschiedenen Datenobjekten automatisch und auf „einen Blick“ (beispielsweise anhand einer Ampel (-> Ampelfunktion) zu kennzeichnen.
  • VIS (Vertriebsinformationssystem)
    Bezeichnung für EDV-Systeme im Vertrieb
  • Visualisierung von Daten
    Darstellung von Informationen in einem Format, das eine einfache Auswertung „auf einen Blick“ gestattet. Zur Visualisierung von Daten werden z.B. verschiedenen 2D-, 3D-Grafiken und Geographische Daten verwendet und ggf. miteinander kombiniert. Die Visualisierung der Daten dient u.a. der schnellen Sichtbarmachung von Abweichungen, Trends, Einhaltungen von Intervallen etc.
  • Volatile
    Gegenteil von -> non-volatile . Bezeichnet das Ändern der Daten ( in Transaktionssystemen ) zur Laufzeit.
  • Warehouse Population
    Prozeß der Extraktion von Daten aus einer Datenquelle, der Transformation und Verbesserung
    der Datenqualität, des Transportes über physikalische Netzwerke, des Kombinierens von Daten aus verschiedenen Datenquellen und letztendlich des Ladens der Daten in ein -> Data Warehouse
    (siehe auch -> ETL-Tools).
  • Web-Browser
    Durch die Anlehnung der Funktionalität von Business Intelligence Lösungen an die gängigen Web-Browser ist das Arbeiten mit mit minimalem Schulungsaufwand möglich. Auf diese Weise erweitert eine Web-basierte Business Intelligence Lösung sowohl den Umfang als auch die Wirkung
    von Entscheidungen im gesamten Unternehmen – und dies in quantitativer wie qualitativer Hinsicht.
  • Web-Portal
    „Eingangstür“ zu einem Informationssystem, das Techniken des World Wide Web benutzt.
    Ein Web-Portal ist eine Internet-Adresse, die als zentrale  Einstiegsadresse für das ganze System
    dient und benutzer- oder gruppenspezifisch angepaßt werden kann. Von dem Web-Portal ausgehend, werden den Benutzern für deren Bereich oder Interessen spezifische Informationen präsentiert.
  • Wizard
    Engl. „Zauberer“. Bestandteil vieler Programme, der eine vereinfachte Benutzerführung gestattet.
    Ein Wizard assistiert dem Benutzer anhand von verschiedenen Eingaben bis zum fertigen Bericht.
  • XML (eXtensible Markup Language)
    Weiterentwicklung der Seitenbeschreibungssprache -> HTML  für das Darstellen von Seiten im Internet. Im Gegensatz zu HTML-Objekten „weiß“ ein XML Objekt weitgehend, was es inhaltlich darstellt. Inhalt und Formatierung werden getrennt. Der Vorteil ist, dass kein externes Programm benötigt wird, um es zu dechiffrieren.
  • Zero Footprint Client
    Bis vor kurzem haben nur wenige Unternehmen das volle Potenzial von Business Intelligence ausgeschöpft – nämlich jedem Anwender im Unternehmen die notwendigen Informationen zur Verfügung zu stellen, um effizienter seine Aufgaben zu erfüllen. Das Web hat diese Situation entscheidend verändert. Aufgrund seiner einfach zugänglichen und kostengünstigen Architektur erschließt es den Nutzen von BI einem breiten Anwenderkreis. Es wurden vor allem zwei Hürden aus dem Weg geräumt: Mit dem Einsatz von -> Web-Browser  - Funktionen wurde der Schulungsaufwand reduziert, und mit Zero Footprint Clients entfällt der Verteilungsaufwand für Software. Dadurch ist die BI Lösung mit der Installation am Server theoretisch weltweit nutzbar.
    „Zero Footprint“ ist ein Browser-basierter Zugriff auf den Cognos PowerPlay Enterprise Server, um eine reibungslose, optimale Interaktion in einer puren ->HTML  ->OLAP  – Lösung zu erzielen.
Artikelaktionen