Mediathek

Medium

Thema

Artikel

Geodaten mit vorhandenen Daten zu kombinieren und echten Mehrwert aus den Daten zu erzielen, bringt erhebliche Vorteile für Unternehmen und Behörden. So können Polizeibehörden diese Daten für ihre Einsatzplanung nutzen oder Speditionen Fahrzeugflotten verfolgen oder Infrastruktureinrichtungen Wartungsarbeiten überwachen.
Damit Sie Geodaten datenschutzkonform für die Analyse nutzen können, ist Pseudonymisierung nötig.
Unser Artikel beschreibt, wie Sie vorhandene Daten aus Pentaho mit Geodaten datenschutzkonform kombinieren, um wertvolle Informationen mit Mehrwert für Ihre Behörde oder Ihr Unternehmen zu erhalten.

Artikel

Daten sind das Epizentrum der Industrie 4.0. Im Smart Manufactoring Zeitalter ist es das Hauptanliegen, vorhandene Daten aus unterschiedlichen Quellen gebündelt zu sammeln und auszuwerten. Unstrukturierte Daten werden nur in weniger als einem Prozent von den Unternehmen zu Analysezwecken genutzt. Da jedoch unstrukturierte Daten mit knapp 80 Prozent den Großteil der Daten eines Unternehmens ausmachen, geht hier riesiges wertvolles Daten-Knowhow verloren. Damit du diese Daten sammelst, analysierst und anschließend gewinnbringend einsetzen kannst, benötigst du leistungsstarke, mächtige und dennoch flexible Datenintegrationswerkzeuge, die wir in dir in diesem Artikel vorstellen.

Artikel

Im Zuge der technologischen Entwicklungen der letzten Jahre spielt Big Data eine tragende Rolle. Doch die Herausforderungen für Unternehmen und Behörden sind immens. Zum einen stellt Big Data bestehende IT-Systeme vor Probleme und zum anderen sind bestehende Ansätze für den Datenschutz häufig veraltet.
Zu diesen veralteten Ansätzen zählt die Anonymisierung personenbezogener Daten, da diese entwickelt wurde, bevor die Verarbeitung von „Big Data“ populär wurde. Heutzutage sind Daten, die von einem Auftragsverarbeiter gespeichert werden, häufig leicht mit Daten zu verknüpfen, die sich der Kontrolle des Auftragsverarbeiters entziehen, wodurch eine erneute Identifizierung ermöglicht wird und der Auftragsverarbeiter der Haftung für die Verletzung des Datenschutzes ausgesetzt wird. Das führt zu einer unkontrollierten Haftung beim Anonymisierungs-Verfahren.
DSGVO-konforme Pseudonymisierung ist der Weg aus diesem Datenschutz-Dilemma.
In unserem Artikel erfahren Sie, wie Sie mit Pseudonymisierung datenschutzrechtlich auf der sicheren Seite sind und Big Data unbesorgt einsetzen können.

Artikel

Im Zeitalter der Industrie 4.0 liegen in vielen Unternehmen die Informationen aus unstrukturierten Daten nicht vor. Nur 1 Prozent der unstrukturierten Daten nutzen Unternehmen zur weiteren Analyse. Dabei liegt der Anteil brachliegenden Daten (Dark Data) bei bis zu 80 Prozent. Damit gehen dem Unternehmen kostbare Insights verloren.
Um die digitale Produktion im Industrie 4.0-Zeitalter auf ein neues Level zu heben, sind für Sie als Unternehmen besonders 3 Bestandteile wichtig: Daten, Datenintegration und Datenanalyse. Datenintegration hat zum Ziel, Ihre Industrie 4.0-Daten in einen Kontext zu bringen, sodass Sie die Zusammenhänge zwischen den verschiedenen Komponenten und Prozessen wesentlich besser erkennen und optimieren können.
Steigern Sie durch Datenintegration die Auslastung Ihrer Produktionsanlagen, die Qualität Ihrer Produkte und das operative Geschehen Ihres Unternehmens. In unserem Artikel erfahren Sie, wie Ihnen das gelingt.

Artikel

Fiese Hürden versperren oftmals Unternehmen den Weg zum Ziel, Daten gewinnbringend zu nutzen, um Kunden- und Lieferantenbeziehungen sowie Datenqualität deutlich zu verbessern.

Zu diesen Hürden gehören unstrukturierte Daten, lange Ladezeiten mit hohem Ressourcenverbrauch, schlechte Datenqualität, für Stream-Anwendungen ungeeignete Datenarchitekturen und Compliance-Probleme. In unserem Artikel erfahren Sie die 5 hilfreichsten Tipps, mit denen Sie diese Hürden beseitigen. Transformieren Sie Ihre unstrukturierten Daten mit der richtigen Datenintegrations-Strategie in hochwertige Daten und verschaffen Sie sich einen klaren Wettbewerbsvorteil.

Artikel

Integrieren Sie bereits Ihre Daten aus unterschiedlichen Quellen und sind trotzdem noch so schlau wie vorher? Häufig integrieren Unternehmen zwar Daten aus den verschiedensten Quellen, jedoch ohne Kontext, sodass tiefe Einblicke und neue Erkenntnisse ausbleiben. Genau hier lässt Pentaho seine Muskeln spielen. Mit Pentaho integrieren Sie Ihre Daten nicht nur aus unterschiedlichen Quellen, sondern bringen diese auch in Zusammenhänge. Dadurch ergeben sich aus Prozess-, Kunden- und Unternehmensdaten neue Erkenntnisse. In unserem Beitrag lesen Sie von Unternehmen, die Pentaho erfolgreich einsetzen. Hierzu gehören ganz unterschiedliche Use Cases: sie reichen von Machine Learning mit Pentaho über Auswertung von SAP-Daten mit externen Daten bis zu Video-Analytics.

Artikel

Der Digitalisierungszug fährt unermüdlich Richtung smarte Zukunft. Schon jetzt sind Projekte wie Smart Cities, Smart Manufacturing oder Smart Retail keine Seltenheit.

Doch damit Unternehmen und Behörden die richtigen Entscheidungen auf Basis intelligenter IoT-Anwendungen treffen können, müssen sie die Daten aus verschiedenen Systemen miteinander kombinieren. Häufig liegen die Daten in Datensilos verstreut, wodurch wertvolles Daten Know-how brach liegt. Die Folge: Die Konkurrenz eilt davon, smarte Projekte können nicht umgesetzt werden und wertvolle Daten-Potenziale bleiben ungenutzt.
Unser Artikel beschreibt anhand der drei oben genannten Beispiele, wie Sie aus einem unübersichtlichen Datendschungel von SAP- und Drittanbieterdaten mithilfe von Hitachi Vantara Ihre Daten perfekt kombinieren und auswerten.

Artikel

Die meisten Deep-Learning-Anwendungen basieren auf Google populärem TensorFlow-Framework. Mit Hadoop steht Ihnen eine Anwendung mit riesigen Rechen- und Speicherkapazitäten zur Verfügung.

Die Vorteile beider Welten sind in der von LinkedIn entwickelten Open Source-Lösung TonY (TensorFlow on YARN) realisiert worden. TonY ist eine hochskalierbare Plattform, die das Beste aus beiden Anwendungen miteinander kombiniert.

TonY führt verteilte TensorFlow-Trainings als Hadoop-Applikation aus. In unserem Artikel erklären wir Ihnen die genaue Arbeitsweise von TonY und wie TonY ein asynchrones Training mit vielfacher Beschleunigung gegenüber dem CPU-Training erreicht hat.

Artikel

Es gibt verschiedene Machine Learning Frameworks, aus denen ein Unternehmen auswählen kann. Doch nicht jedes Framework ist für jedes Projekt geeignet.

Dr. David James, Data Scientist bei it-novum, hat eine Matrix entwickelt, die Ihnen bei der Auswahl des passenden Frameworks für Machine Learning Use Cases hilft.

Dank der Matrix können Sie in visuell attraktiver Form schnell und einfach herausfinden, welches Machine Learning Framework für Sie am besten geeignet ist.

Artikel

Bevor Sie in Ihrem Unternehmen eine Predictive Analytics-Lösung einführen, gibt es einige wichtige Fragen zu klären. Zu diesen Fragen zählen, was Sie bei der Einführung beachten sollten, welche Vorgehensweise die Sinnvollste ist und wie Sie die neu gewonnenen Erkenntnisse in die Geschäftspraxis umsetzen.

Noch vor der eigentlichen Implementierung müssen Sie beispielsweise im ersten Schritt klären, welche Predictive Analytics-Lösung Sie zukünftig einsetzen möchten. Im nächsten Schritt wird geklärt, wie Sie alle Beteiligten in den Implementierungsprozess einbeziehen. Im letzten Schritt gilt es, wie Sie die Predictive Analytics-Erkenntnisse erfolgreich für Ihr Unternehmen umsetzen.

Erfahren Sie in unserem Artikel, wie genau Ihnen diese 3 Schritte gelingen.