Artikel

So analysiert man Geodaten datenschutzkonform
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Damit Sie Geodaten datenschutzkonform für die Analyse nutzen können, ist Pseudonymisierung nötig.
Unser Artikel beschreibt, wie Sie vorhandene Daten aus Pentaho mit Geodaten datenschutzkonform kombinieren, um wertvolle Informationen mit Mehrwert für Ihre Behörde oder Ihr Unternehmen zu erhalten.
Artikel

Daten: ein besonderer Rohstoff in der Produktion
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Artikel

Die Anonymisierung funktioniert nicht für Big Data
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Zu diesen veralteten Ansätzen zählt die Anonymisierung personenbezogener Daten, da diese entwickelt wurde, bevor die Verarbeitung von „Big Data“ populär wurde. Heutzutage sind Daten, die von einem Auftragsverarbeiter gespeichert werden, häufig leicht mit Daten zu verknüpfen, die sich der Kontrolle des Auftragsverarbeiters entziehen, wodurch eine erneute Identifizierung ermöglicht wird und der Auftragsverarbeiter der Haftung für die Verletzung des Datenschutzes ausgesetzt wird. Das führt zu einer unkontrollierten Haftung beim Anonymisierungs-Verfahren.
DSGVO-konforme Pseudonymisierung ist der Weg aus diesem Datenschutz-Dilemma.
In unserem Artikel erfahren Sie, wie Sie mit Pseudonymisierung datenschutzrechtlich auf der sicheren Seite sind und Big Data unbesorgt einsetzen können.
Artikel

Datenintegration als Grundlage für Industrie 4.0
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Um die digitale Produktion im Industrie 4.0-Zeitalter auf ein neues Level zu heben, sind für Sie als Unternehmen besonders 3 Bestandteile wichtig: Daten, Datenintegration und Datenanalyse. Datenintegration hat zum Ziel, Ihre Industrie 4.0-Daten in einen Kontext zu bringen, sodass Sie die Zusammenhänge zwischen den verschiedenen Komponenten und Prozessen wesentlich besser erkennen und optimieren können.
Steigern Sie durch Datenintegration die Auslastung Ihrer Produktionsanlagen, die Qualität Ihrer Produkte und das operative Geschehen Ihres Unternehmens. In unserem Artikel erfahren Sie, wie Ihnen das gelingt.
Artikel

Die 5 besten Tipps für Datenintegrationsprobleme
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Zu diesen Hürden gehören unstrukturierte Daten, lange Ladezeiten mit hohem Ressourcenverbrauch, schlechte Datenqualität, für Stream-Anwendungen ungeeignete Datenarchitekturen und Compliance-Probleme. In unserem Artikel erfahren Sie die 5 hilfreichsten Tipps, mit denen Sie diese Hürden beseitigen. Transformieren Sie Ihre unstrukturierten Daten mit der richtigen Datenintegrations-Strategie in hochwertige Daten und verschaffen Sie sich einen klaren Wettbewerbsvorteil.
Artikel

Use Cases mit Pentaho
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Artikel

Smarte Lösungen nur im Team
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Doch damit Unternehmen und Behörden die richtigen Entscheidungen auf Basis intelligenter IoT-Anwendungen treffen können, müssen sie die Daten aus verschiedenen Systemen miteinander kombinieren. Häufig liegen die Daten in Datensilos verstreut, wodurch wertvolles Daten Know-how brach liegt. Die Folge: Die Konkurrenz eilt davon, smarte Projekte können nicht umgesetzt werden und wertvolle Daten-Potenziale bleiben ungenutzt.
Unser Artikel beschreibt anhand der drei oben genannten Beispiele, wie Sie aus einem unübersichtlichen Datendschungel von SAP- und Drittanbieterdaten mithilfe von Hitachi Vantara Ihre Daten perfekt kombinieren und auswerten.
Artikel

TonY: verteilte TensorFlow-Trainings als Hadoop-Applikation
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Die Vorteile beider Welten sind in der von LinkedIn entwickelten Open Source-Lösung TonY (TensorFlow on YARN) realisiert worden. TonY ist eine hochskalierbare Plattform, die das Beste aus beiden Anwendungen miteinander kombiniert.
TonY führt verteilte TensorFlow-Trainings als Hadoop-Applikation aus. In unserem Artikel erklären wir Ihnen die genaue Arbeitsweise von TonY und wie TonY ein asynchrones Training mit vielfacher Beschleunigung gegenüber dem CPU-Training erreicht hat.
Artikel

Machine Learning Framework richtig ausgewählt
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Dr. David James, Data Scientist bei it-novum, hat eine Matrix entwickelt, die Ihnen bei der Auswahl des passenden Frameworks für Machine Learning Use Cases hilft.
Dank der Matrix können Sie in visuell attraktiver Form schnell und einfach herausfinden, welches Machine Learning Framework für Sie am besten geeignet ist.
Artikel

Die 3 wichtigsten Antworten zu Predictive Analytics
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Noch vor der eigentlichen Implementierung müssen Sie beispielsweise im ersten Schritt klären, welche Predictive Analytics-Lösung Sie zukünftig einsetzen möchten. Im nächsten Schritt wird geklärt, wie Sie alle Beteiligten in den Implementierungsprozess einbeziehen. Im letzten Schritt gilt es, wie Sie die Predictive Analytics-Erkenntnisse erfolgreich für Ihr Unternehmen umsetzen.
Erfahren Sie in unserem Artikel, wie genau Ihnen diese 3 Schritte gelingen.