Operating Pentaho at Scale: Das 5. Pentaho User Meeting

Inhalt
Pentaho User Meeting 2018
Pentaho User Meeting 2018

Usecases für Data Analytics, Datenintegration, Data Warehousing: das ist das Pentaho User Meeting. Das wichtigste Treffen der Pentaho-Anwender im deutschsprachigen Raum fand heute zum fünften Mal statt. 12 Referenten aus verschiedenen Branchen teilten ihre Erfahrungen beim Einsatz von Pentaho und die neuesten technischen Entwicklungen bei der BI-Plattform mit den 100 Teilnehmern.

Matt Casters: Best Architecture Practices for Kettle
Matt Casters, der mit Kettle den wichtigsten Teil der Pentaho-Plattform entwickelt hat und vor kurzem Pentaho/Hitachi Vantara verlassen hat, beschäftigte sich in seinem Vortrag „Best Architecture Practices für Pentaho Data Integration (aka Kettle)“ mit der Frage, warum Projekte im Daten(integrations)bereich schief laufen können.

Matt empfahl, eine Data Integration-Architektur aufzubauen, wenn die Lösung sehr komplex wird, die Entwicklerteams eine gewisse Größe erreicht haben, bewusst Entscheidungen für bestimmte Lösungskomponenten getroffen werden, ein holistischer Blick auf Sicherheit, Qualität, Transparenz, Leistung erwünscht ist oder eine Validierung von High-Level-Anforderungen nötig ist.

Matt Casters gab Tipps zu Best Practices für Data Integration Architectures
Matt Casters gab Tipps zu Best Practices für Data Integration Architectures

Whiteboarding ist eine gute Methode, die man mit beteiligten Stakeholdern machen kann. Dadurch, dass sie versucht, Wissen von verschiedenen Parteien zu vereinen, ermöglicht sie den schnellen Aufbau eines High-level Designs. Man sollte sich aber darüber im Klaren sein, dass sie nur der Anfang ist.

Auch Skalierbarkeit sollte bei Datenintegrationsprojekten unbedingt beachtet werden, genauso wie Transparenz: je stärker die Komplexität von Daten und Prozessen wächst, umso wichtiger wird Transparenz. Als Regel gab Matt vor, stets die Daten nachzuverfolgen zu können, die sich zwischen den einzelnen Teilen einer Architektur bewegen. Im Zweifel sollte man lieber mehr Logging, Tracking und Tracing verwenden als zu wenig. Zudem sei es empfehlenswert, in der Architektur Komponenten zu verwenden, die ein Monitoring ermöglichen (z.B. Server einsetzen, die einem erlauben zu sehen, was gerade vor sich geht).

Best Practices für IoT

Für die Verarbeitung und Analyse von IoT-Daten hatte Matt die folgenden Tipps bereit:

  • Hadoop:
    Man sollte die Software innerhalb des Hadoop-Ökosystems auswählen, die am besten zu der jeweiligen Architektur passt. Dabei sollten nur wirklich unterstützte Komponenten zum Zuge kommen. Durch ein durchgehendes Logging kann man Transparenzproblemen entgegenwirken. Das richtige Sizing bei der Architektur ist wichtig, denn die Balance muss stimmen. Hadoop sollte zudem nicht nur als Datenbank genutzt werden, sondern als skalierbarer Teil der Architektur.
  • „IoT is messy“:
    Wer IoT-Analyseanwendungen umsetzen will, muss sich darüber im Klaren sein, was das bedeutet: schwankende Datenqualität, Datenverbindungsprobleme, spät ankommende Daten, unregelmäßig ankommende Daten (geringe Vorhersagbarkeit), hohe Komplexität, unterschiedliche Datenformate und -versionen sowie eine stark variierende Anzahl von Geräten.
  • Tipps:
    Um keine bösen Überraschungen zu erleben, sollten man schon im Voraus Pläne für Fehler und Ausfälle erstellen, moderne Technologien wie Metadata Injections nutzen, Queues so stark wie mögliches in jeglicher Form einsetzen und immer damit rechnen, dass in jedem Szenario Dinge falsch laufen können.

Als Fazit teilte Matt mit den Teilnehmern, dass

  • die Architektur der Kern des Ganzen sein muss, nicht nur Teil der Dokumentation
  • ein kritischer Blick essentiell ist
  • Details ausschlaggebend sind
  • man seine Vorstellungen jederzeit über den Haufen werfen können sollte
  • Stakeholder involviert werden müssen
  • der Einsatz von Pentaho Data Integration erwogen werden sollte

Pedro Alves, Community Manager Pentaho bei Hitachi Vantara, stellte die Produktverbesserungen bei Pentaho vor, insbesondere bei der Integration mit Lumada und anderen Hitachi-Technologien. Weitere Details gibt es in seiner Präsentation.

Jens Bleuel: Operating Pentaho at Scale

Worker Nodes standen im Mittelpunkt von Jens Bleuels Vortrag
Worker Nodes standen im Mittelpunkt von Jens Bleuels Vortrag

Jens Bleuel, Senior Product Manager für Pentaho Data Integration, berichtete über die neuesten Entwicklungen bei Pentaho 8.0, insbesondere bei der Skalierbarkeit und den Worker Nodes. Die Idee von Worker Nodes gibt es schon lange; dabei sollen über eine elastische Architektur Work Items über mehrere Nodes hinweg automatisch laufen. Das ist On-Premise möglich, aber auch in der Cloud oder Hybrid. Im Unterschied zu Hadoop werden über Worker Nodes viele Transformationen und Jobs verteilt ausgeführt. Der Vorteil für den Anwender besteht darin, dass er selbst fast nichts machen muss – die Lösung wird ausgerollt und läuft.

Als Beispiel nannte Jens ein Unternehmen, in dem täglich 800 Batches aus verschiedenen Abteilungen über einen Server mit 120 GB und vielen CPUs liefen. Das System stieß irgendwann an seine Grenzen. Worker Nodes stellten wieder eine gute Performance und Skalierbarkeit her. Für die Zukunft ist geplant, die Technologie auch auf weitere Pentaho-Module wie das Reporting auszuweiten und noch stärker in die Hitachi-Produkte zu integrieren.

Am Ende seines Vortrags wies Jens auf eine spannende Technologie hin, die auch auf dem letzten Pentaho Community Meeting vorgestellt worden war: Versionskontrolle mit Pentaho und Git Spoon, entwickelt von Hiromu Hota, Researcher bei Hitachi Vantara. Das Plugin ist im Pentaho Marketplace verfügbar.

CERN: Migration von Business Objects zu Pentaho

Gabriele Thiede stellte das Reporting-Migrationsprojekt beim CERN vor
Gabriele Thiede stellte das Reporting-Migrationsprojekt beim CERN vor

Gabriele Thiede präsentierte einen sehr spannenden Usecase: der Wechsel von Business Objects zu Pentaho beim CERN, eine der größten Forschungsorganisation der Welt. Gleich zu Anfang ihres Vortrags stellte sie klar: „Sie bekommen von mir keine technischen Informationen, ich bin Fachanwenderin!“ Das CERN ist eine Organisation der Superlative, nicht nur im Forschungsbereich. So ist auch die Verwaltung sehr groß, da bis zu 22.000 Mitarbeiter und Gastforscher versorgt werden müssen. Das reicht vom hauseigenen Sozialversicherungssystem mit Pensionskasse und Arbeitslosenversicherung bis zu selbst betriebenen Hotels. Zusätzlich übernimmt das CERN Formalitäten für die Gastländer wie die Bearbeitung von Aufenthaltsgenehmigungen, KFZ-Zulassungen etc.

Auf Infrastrukturebene setzt die Organisation kommerzielle Software zusammen mit selbst gestrickten Lösungen ein. Für den Datenaustausch wurde vor Jahren ein Datapool eingeführt, später kamen Reportinglösungen dazu, die Berichte mit Hilfe von diversen selbst entwickelten Lösungen auf dem Datenpool aufsetzend erstellen konnten. Diese Lösungen waren jedoch irgendwann veraltet, sodass sich das CERN entschied, auf Pentaho zu migrieren. Pentaho setzt die Organisation für viele Bereiche ein. Die Entscheidung fiel zugunsten des Pentaho Analyzers, weil hier vorgefertigte Reports möglich waren, Auswertungs-Dashboards und Ad-Hoc-Analysen basierend auf Cubes. Außerdem verfügt Pentaho über einen Report Designer und Ctools für die Erstellung von Dashboards.

Das Migrationsprojekt startete 2016 und dauert noch bis Mitte/Ende diesen Jahres. Dazu mussten 380 bestehende Business Objects-Reports aus allen Verwaltungsbereichen migriert werden. Von kleinen, übersichtlichen Reports bis zu hochkomplexen Berichten waren alle Arten von Berichten dabei. Deshalb erstellte das Projektteam zunächst eine Übersicht über die bestehenden Reports, deren Merkmale, Benutzungshäufigkeit und Datenquellen und setzte danach Prioritäten bei der Migrierung.

Bis heute wurden 280 Reports migriert und 17 Dashboards entwickelt. Dabei konnten viele wichtige Erfahrungen gesammelt werden:

  • Pentaho Analyzer ist ein gutes Werkzeug für die Erstellung von Adhoc Datenanalysen und weithin bei den Anwendern akzeptiert.
  • Der Analyzer ist aber kein intuitiv zu bedienendes Tool, weshalb Schulungen organisiert werden mussten. Es zeigte sich, dass diejenigen, die die Schulungen absolviert haben, danach gut mit dem Tool zurecht kamen, während die anderen Anwender mehr Probleme hatten.
  • Das Rechtemanagement des Analyzer ist gut strukturiert, da getrennte Zugänge zu Berichtsordnern und Cubes eingerichtet werden können.
  • Es ist aber nicht möglich, Benutzern, die keinen Zugang zum Cube haben, Zugang zu einzelnen Berichten einzurichten.
  • Generell sind die Möglichkeiten der Report-Erstellung bei Pentaho sehr gut und die Berichte sehr ansprechend. Auch deshalb ist die Benutzerakzeptanz sehr hoch.
  • Verbesserungswürdig ist die Bedienung des Report Designers und die fehlende Integration der einzelnen Komponenten. Auch die Scheduling- und Suchfunktionen von Pentaho waren nicht ausreichend, sodass das CERN eigene entwickeln musste.
  • Das parallele Arbeiten mit der Infrastruktur und an den Reports hat sich als sehr praktikabel erwiesen. Der Nachteil ist, dass dadurch die Erstellung der Reports sehr lange dauert. Deshalb wird für die nächsten Projekte zuerst die notwendige Infrastruktur aufgebaut, die sämtliche Daten aus dem jeweiligen Bereich umfasst.

Als Fazit stellte Gabriele Thiede fest, dass die Migration vor allem ein großer Lernprozess war: Nicht nur musste technisches Wissen über Pentaho aufgebaut werden, sondern die Mitarbeiter mussten sich auch neue Techniken der Report-Erstellung und nicht zuletzt des Projektmanagements aneignen. Das Projekt stellte sich aber auch als große Chance für das CERN heraus, weil im Vorfeld massiv „ausgemistet“, standardisiert und harmonisiert werden musste. Dabei konnten große Synergieeffekte genutzt werden. Der größte Gewinn bei Projekt insgesamt war die starke Verbesserung der Qualität der Daten und des Reportings.

Ein IoT-Usecase: Smart Rail

3,6 Millionen Datenpunkte pro Sekunde: Smart Rail
3,6 Millionen Datenpunkte pro Sekunde: Smart Rail

Einen Usecase aus dem IoT-Segment stellte Jonathan Doering, Data Scientist bei Hitachi Vantara, vor. „Smart Rail““ ist ein von der britischen Regierung initiiertes Projekt, bei dem Lösungen von Hitachi und Pentaho zum Einsatz kommen. Das Projekt fasst Millionen von Sensorendaten zusammen und integriert sie, um die Infrastruktur und öffentliche Leistungen zu verbessern. Hintergrund sind die hohen Pendelzeiten im Großraum London, wo hunderttausende Briten täglich mehr als zwei Stunden zum Arbeitsplatz anreisen müssen. Ziele des Projekts sind:

  • Einsparungen im Bereich von 20 Millionen Pfund plus langfristige Ersparnisse bei den Instandhaltungskosten
  • Zuverlässigerer und kosteneffizienterer Transport
  • Bessere Kundenerfahrung
  • Senkung des Kohlenstoffdioxidausstoßes um 12%

Die Herausforderungen bei dem Projekt sind:

  • Über 3,6 Millionen Datenpunkte pro Sekunde, das bedeutet Petabytes an Daten
  • Komplexe Auswertungen zu ermöglichen, sowohl in Echtzeit als auch als Batch-Verarbeitung
  • Anpassbare Visualisierungen den Anwendern zur Verfügung zu stellen

Zum Einsatz kommt eine Vielzahl von Lösungen, Mechanismen und Programmen, wobei Pentaho die Schnittstelle zwischen ihnen bildet, weil es die Datenintegrationsprozesse, Analyseanwendungen und Datenvisualisierungen abbildet. Damit stellt Pentaho das Backend für eines der größten momentan laufenden Infrastrukturprojekte in Großbritannien. Die Stärken von Pentaho liegen dabei in der schnellen Entwicklung, Skalierung und Verlässlichkeit, der Fähigkeit, große Volumina von Daten zu integrieren und wichtige Einblicke mittels Analysefunktionen zu ermöglichen. Deshalb gehört das hierbei angewandte Konzept „Train-as-service“ zu den Pionierprojekten im IoT-Bereich.

Predictive Analytics mit PDI und R

Dr. David James erklärte Predictive Analytics mit PDI und R
Dr. David James erklärte Predictive Analytics mit PDI und R

Dass sich Pentaho Data Integration (PDI) und R im Bereich Predictive Analytics sehr gut ergänzen, zeigte mein Kollege Dr. David James. Usecases für Predictive Analytics umfassen typischerweise Predictive Maintenance (vorausschauende Wartung), Betrugserkennung, Ressourcenplanung oder Bilderkennung.

Der Einsatz von R und PDI stellt eine leistungsfähige und flexible Kombination dar, wenn es um die Umsetzung von Predictive Analytics geht. Die Programmiersprache R liefert sehr gute statistische Analysen und Visualisierungen, besitzt aber im Bereich Datenintegration Schwächen. Es ist deshalb von Vorteil, für die Datenaufbereitung und -integration PDI zu verwenden. Die Bereiche Machine Learning und Statistik werden in R abgebildet, die Modelle werden dann in PDI deployt.

Netfonds: Pentaho in einer Kubernetes-Umgebung

Nis Carstensen von Netfonds setzt auf Pentaho Data Integration
Nis Carstensen von Netfonds

Netfonds ist ein Maklerpool für Investmentmakler, Finanzierungsspezialisten und Versicherungsmakler. Mit 160 Mitarbeitern betreut das Unternehmen 4.600 Makler/Vermittler, 11.000 externe User und 400.000 Endkunden. Angebunden sind 25 Banken und 120 Versicherungen. Wie Nis Christian Carstensen, Leiter EDV bei Netfonds, berichtete, wurden in den Nuller Jahren Kernsysteme outgesourct. 2016 traf Netfonds dann die Entscheidung, dass Daten zur Kernkompetenz des Unternehmens gehören und daher die IT im eigenen Haus betrieben werden sollte. Da man nicht wieder ein Rechenzentrum einrichten wollte, wurde eine Microservice-Architektur mit Google Cloud und Kubernetes basierend auf Docker eingeführt. Netfonds setzt MongoDB und MySQL als Datenbanken ein und Pentaho Data Integration für die Datenintegrationsprozesse.

Mit dieser Architektur verarbeitet und integriert Netfonds im Versicherungsbereich:

  • Versicherungsverträge (XML, CSV, GDV)
  • Provisionsbuchungen (CSV, XLS, PDF, Papier)

im Investmentbereich:

  • Bestandsinformationen
  • Transaktionsinformationen
  • Provisionsbuchungen
  • Wertpapierstammdaten
  • Wertpapierkurse

Für das Unternehmen bedeutete der Einsatz von Pentaho zusammen mit Microservices zunächst eine Herausforderung: die Kommunikation muss über den Service erfolgen, nicht direkt über die Datenbank. Das macht den Einsatz von REST nötig. Da der Standard für REST JSON darstellt, müssen die Daten strukturiert vorliegen. Die Container müssen möglichst klein gehalten werden, d.h. wenig RAM besitzen. Da Container stateless sind, ist alles, was lokal gespeichert wird, nach Beenden des Containers weg (Log, Dateien etc.). Zur Skalierung kann man mehrere Container desselben Typs hochfahren.

Für die Lösung dieser Probleme setzt Netfonds eine selbstgeschriebene Software ein, den Pentaho Scheduler. In der Architektur ist der Kubernetes-Pentaho-Cluster dafür verantwortlich, die Daten aus den verschiedenen Systemen der angebundenen Banken und Versicherungen zu holen, zu verarbeiten und zu archivieren. Der Pentaho Scheduler übernimmt dabei die komplette Planung, Ausführung und Logging von Pentaho Jobs, angefangen vom Hochfahren der Kubernetes Container über die Auführung der Jobs bis zum Aufräumen der Container nach erfolgreichem Beenden der Jobs.

Das Fazit von Nis Carstensen: Mit den richtigen Tweaks, Kniffen und selbst geschriebenen Plugins und Schedulern arbeitet Pentaho extrem gut, performant und leistungsfähig mit einer Kubernetes-Umgebung zusammen. Microservices durch Pentaho zu befüllen ist effizient möglich, wenn man im Entwurf der Microservices eng mit Datenmanager und Softwareentwicklern zusammenarbeitet. Achtung: Der Bottleneck bei der Microservce-Architektur ist nicht die Datenbank oder die CPU, sondern das Netzwerk! Zusammengefasst läuft Pentaho bei Netfonds als performante, skalierbare, schnelle und günstige Lösung.

Data Handling mit Pentaho Integration bei Hansainvest

Data Handling mit Pentaho bei Hansainvest
Data Handling mit Pentaho bei Hansainvest

Hansainvest ist eine Service-Kapitalverwaltungsgesellschaft und gehört zur SIGNAL-IDUNA Gruppe. Das Unternehmen verwaltet 240 eigene und externe Fonds mit einem Volumen von 30 Milliarden Euro. Von den 150 Mitarbeitern kümmern sich acht um die IT. Hansainvest agiert auf einem stark regulierten Markt, der unter der Aufsicht zahlreicher Ämter und Behörden steht.

Wie Marco Menzel schilderte, begann das Pentaho-Projekt damit, dass das Fondsbuchhaltungssystem täglich zur Fondspreisveröffentlichung mehr und mehr Reportdateien zu produzieren anfing. Die Anzahl an Fonds, unterschiedlichen Reports und Stellen stieg sowohl im Haus als auch extern stark an. Die Verteilung wurde in den Anfängen von Hand erledigt und als dies aufgrund des Wachstums nicht mehr möglich war, durch ein Shellscript übernommen. Der zeitliche Aufwand für die Pflege und Fehlersuche überschritt schnell den Nutzen der Lösung. Die heutige Kopierrate von 22.000 Dateien/Tag und bis zu 2.000 Dateien in wenigen Minuten wäre mit der alten Lösung nicht mehr zu handeln gewesen.

Hansainvest setzte die Prozesse daher mit Pentaho Data Integration um. Zum Einsatz kommen:

  • PDI Spoon für Jobs und Transformationen
  • Oracle DB für Reposiitory-, Logging- und Work-Shema
  • Oracle SQL-Developer für die Tabellenverwaltung
  • Oracle APEX für Eingabemasken
  • NAGIOS zur Überwachung

Als Beispiel übernimmt der Prozess GlobalCopy folgende Funktionen:

  • Prüfen der Quellverzeichnisse nach neuen Dateien alle zwei Minuten
  • anhand der Parametertabelle Kopieraufträge (inkl. Änderungen am Dateinamen) erstellen
  • mit Erweiterung *.tmp kopieren
  • aus erfolgreich kopierten Dateien die Endung „tmp“ entfernen (per move)
  • alle Dateien an der Quelle in ein Archivverzeichnis verschieben (…/archiv/YYYYMMDD)

Die Verzeichnisse werden in einem Nachtjob gezippt. Sollte es bei der Übertragung einer Datei zu einem Fehler kommen (z.B. Mountpoint nicht vorhanden), wird die Übertragung in einer Fehlertabelle protokolliert und in einem der nächsten Läufe nachgeholt. Alle Übertragungen werden in einer Loggingtabelle protokolliert. Angeschlossen an den Prozess sind auch externe Systeme und Unternehmen. In der nächsten Version des Prozess GlobalCopy werden alle anfallenden Dateien im ersten Schritt eingesammelt und „verblobbt“, d.h. binär in ein Archivsystem geschrieben. Die zu erstellenden Aufträge enthalten einzig die Datensatz-ID des Archivsystems als Hinweis auf die spätere Verwendung. In die Auftragstabelle werden alle zu einer Datei gehörenden Übertragungen nach Vorgabe einer Parameter-Tabelle (wann, wohin und mit welchem Namen) geschrieben. Nach Erledigung bekommt der Auftrag einen Zeitstempel. Mit Hilfe der Auftragstabelle kann überwacht werden, wann Dateien zur Verfügung standen, übertragen wurden oder seit wann offen sind. Wann ein Auftrag ausgeführt wird, soll an Bedingungen (z.B. Zeit, Anzahl, Readydatei) geknüpft werden, die bei positiver Erfüllung zur Ausführung des Auftrages führen. Alle zur Konfiguration notwendigen Tabellen sollen via APEX-Eingabemasken von den Fachbereichen geflegt werden und sind mit Berechtigungen versehen.

 

Pentaho Dashboards in Angular-Anwendungen

Pentaho, Angular und Francesco jr.
Pentaho, Angular und Francesco jr.

Was hat Pentaho mit Babywindeln zu tun? Eine ganze Menge, wie Francesco Corti in seinem kurzweiligen Vortrag zeigte. Angular ist ein weit verbreitetes Entwicklungsframework, weist aber eher dürftige Funktionen für die Erstellung von Diagrammen, Berichten und Dashboards auf. Francesco begann daher darüber nachzusinnen, ob es möglich sei, Pentaho bzw. Ctools als Framework für Business Intelligence Dashboarding in Angular als Frontend-Framework zu nutzen, um Pentaho-Dashboards auch in Angular-Anwendungen einsetzen zu können.

Das von Francesco entwickelte Pentaho-Dashboard-Projekt auf Github ermöglicht es, moderne Applikationen mit Funktionen zur Datenanalyse und -visualisierung mit Angular zu bauen. Auf diese Weise können Entwickler auf Pentaho Ctools zurückgreifen, um eigene Dashboards zu bauen, das heißt, ihnen steht eine mächtige Library für alle Arten von Diagrammen, Reports und Analysen zur Verfügung. Das Pentaho-Dashboard-Paket ist als öffentliches NPM Repository erhältlich, eine umfassende Dokumentation findet sich auf GitBook.

Das Arbeiten mit SAP-Daten ist…

Visualisierung von SAP-Vertriebsdaten über Pentaho Data Integration
Visualisierung von SAP-Vertriebsdaten über Pentaho Data Integration

…nicht einfach. Das dürfte allen SAP-Anwendern weitläufig bekannt sein, vor allem denjenigen, die sie auswerten oder gar mit anderen Daten kombinieren müssen. Häufig schaffen Unternehmen dann eine Einzellösung nach dem Motto „Wie lösen wir das? Wir bauen das nächste Silo!“ oder führen einen manuellen, auf Excel basierenden Prozess ein. Diese Lösungen bleiben von ihrer Wirkung her beschränkt und stoßen spätestens nach einigen Jahren an ihre Grenzen.

Leider ist die Verarbeitung von SAP-Daten innerhalb von Pentaho Data Integration nur zum Teil möglich. Deshalb haben wir einen Connector für SAP entwickelt, der Daten aus SAP in Pentaho lädt. Durch die Kombination mit der Pentaho-Plattform können Unternehmen erstmals an ihre Informationen herankommen, wichtiges Wissen aus ihnen gewinnen und echte Business-Mehrwerte gewinnen. Der Pentaho/SAP Connector stellt ein breites Spektrum an Verarbeitungsmöglichkeiten von Informationen aus SAP zur Verfügung. Über ein einfach zu bedienendes User Interface können SAP-Daten mit Pentaho Data Integration verarbeitet werden. Unterstützt werden die SAP Steps SAP ERP Table Input, SAP BW/ERP RFC Executor, SAP BW DSO Input und SAP BW Infocube Input.

Mit dem Pentaho/SAP Connector können Anwendungsszenarien und Use Cases wie beispielsweise das Onboarding, Blending oder Offloading von SAP-Daten problemlos realisiert werden. Aktive Steuerung der IT: ITSM Analytics mit Pentaho.

 

Pentaho bietet die optimale Plattform, um Daten aus dem IT Service Management auszuwerten
Pentaho bietet die optimale Plattform, um Daten aus dem IT Service Management auszuwerten

Auch in der IT wird das aktive Steuern des Ist-Zustands durch zielgrößenorientierte Kennzahlen immer wichtiger. Technische Kennzahlen allein reichen aber nicht aus, um eine IT-Organisation zu steuern. Unternehmen stehen daher vor der Herausforderung, vom operativen Reporting zur Analyse zu kommen, am besten in Echtzeit. Wenn Daten miteinander verknüpft werden können, lassen sich ganz neue Erkenntnisse gewinnen, um die IT zukunftssicher aufstellen zu können.

Für das IT Service Management sind in den meisten Unternehmen viele verschiedene Tools im Einsatz (Monitoring, Ticketsysteme oder Discovery). Sie alle bieten aber keine oder nur unzureichende Auswertungsmöglichkeiten. Die Pentaho-basierte ITSM Analytics- und Reportingsoftware openLIGHTHOUSE bietet Unternehmensleitung und Fachabteilungen als Stakeholdern der IT einen umfassenden Überblick der bezogenen Leistungen. Das Tool umfasst Best Practices für Dashboards und Analysen für die Themen IT-Dokumentation, HelpDesk und Monitoring. Mit Schnittstellen zu verschiedenen Quellsystemen und Dashboards können User direkt mit ihren Daten arbeiten. Durch den Self-Service-Ansatz lassen sich Auswertungen auch ohne die Hilfe der IT erstellen. Darüber hinaus bietet openLIGHTHOUSE auch Predictive Analytics-Funktionen, um besser vorhersagen zu können, wann Engpässe oder Probleme auftreten.

Das Pentaho User Meeting machte einmal mehr die breiten Einsatzmöglichkeiten von Pentaho sichtbar: vom Management von Datenprozessen über die Integration interner und externer Datenquellen bis zur Erstellung von Berichten für verschiedene Zielgruppen. Mich hat es sehr gefreut, die 100 Teilnehmer aus Österreich, der Schweiz und Deutschland zu begrüßen und mich mit ihnen auszutauschen.

Diese Artikel könnten Sie auch interessieren: