Artikel
Datenintegration: die Verschmelzung von Daten
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Häufig verfügen Unternehmen über eine große Anzahl an Systemen, die aus kaufmännischen und betrieblichen Daten bestehen. Verschiedene Tools kommen zum Einsatz, um diese Daten zu verwalten. Doch mit zunehmender Komplexität geht auch der Überblick über die Zusammenhänge verloren.
Datenintegration hilft Ihnen, einen ganzheitlichen Adlerblick auf Ihre Daten zu bekommen und die Zusammenhänge zwischen Ihren einzelnen Daten zu verstehen. Die richtigen Technologien für Ihre Data Lakes, Data Warehouses und datengestützte Verfahren verbessern Ihre Beziehung zu Ihren Geschäftspartnern und Kunden entscheidend und geben Ihnen ein ganzheitliches Marktverständnis.
Unser Artikel zeigt Ihnen auf, warum Datenintegration Ihrem Unternehmen die entscheidenden Erkenntnisse für ein besseres Kunden- und Prozessverständnis liefert.
Artikel
So analysiert man Geodaten datenschutzkonform
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Damit Sie Geodaten datenschutzkonform für die Analyse nutzen können, ist Pseudonymisierung nötig.
Unser Artikel beschreibt, wie Sie vorhandene Daten aus Pentaho mit Geodaten datenschutzkonform kombinieren, um wertvolle Informationen mit Mehrwert für Ihre Behörde oder Ihr Unternehmen zu erhalten.
Artikel
Daten: ein besonderer Rohstoff in der Produktion
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Artikel
Die Anonymisierung funktioniert nicht für Big Data
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Zu diesen veralteten Ansätzen zählt die Anonymisierung personenbezogener Daten, da diese entwickelt wurde, bevor die Verarbeitung von „Big Data“ populär wurde. Heutzutage sind Daten, die von einem Auftragsverarbeiter gespeichert werden, häufig leicht mit Daten zu verknüpfen, die sich der Kontrolle des Auftragsverarbeiters entziehen, wodurch eine erneute Identifizierung ermöglicht wird und der Auftragsverarbeiter der Haftung für die Verletzung des Datenschutzes ausgesetzt wird. Das führt zu einer unkontrollierten Haftung beim Anonymisierungs-Verfahren.
DSGVO-konforme Pseudonymisierung ist der Weg aus diesem Datenschutz-Dilemma.
In unserem Artikel erfahren Sie, wie Sie mit Pseudonymisierung datenschutzrechtlich auf der sicheren Seite sind und Big Data unbesorgt einsetzen können.
Artikel
Datenintegration als Grundlage für Industrie 4.0
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Um die digitale Produktion im Industrie 4.0-Zeitalter auf ein neues Level zu heben, sind für Sie als Unternehmen besonders 3 Bestandteile wichtig: Daten, Datenintegration und Datenanalyse. Datenintegration hat zum Ziel, Ihre Industrie 4.0-Daten in einen Kontext zu bringen, sodass Sie die Zusammenhänge zwischen den verschiedenen Komponenten und Prozessen wesentlich besser erkennen und optimieren können.
Steigern Sie durch Datenintegration die Auslastung Ihrer Produktionsanlagen, die Qualität Ihrer Produkte und das operative Geschehen Ihres Unternehmens. In unserem Artikel erfahren Sie, wie Ihnen das gelingt.
Artikel
Die 5 besten Tipps für Datenintegrationsprobleme
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Zu diesen Hürden gehören unstrukturierte Daten, lange Ladezeiten mit hohem Ressourcenverbrauch, schlechte Datenqualität, für Stream-Anwendungen ungeeignete Datenarchitekturen und Compliance-Probleme. In unserem Artikel erfahren Sie die 5 hilfreichsten Tipps, mit denen Sie diese Hürden beseitigen. Transformieren Sie Ihre unstrukturierten Daten mit der richtigen Datenintegrations-Strategie in hochwertige Daten und verschaffen Sie sich einen klaren Wettbewerbsvorteil.
Artikel
Use Cases mit Pentaho
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Artikel
Smarte Lösungen nur im Team
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Doch damit Unternehmen und Behörden die richtigen Entscheidungen auf Basis intelligenter IoT-Anwendungen treffen können, müssen sie die Daten aus verschiedenen Systemen miteinander kombinieren. Häufig liegen die Daten in Datensilos verstreut, wodurch wertvolles Daten Know-how brach liegt. Die Folge: Die Konkurrenz eilt davon, smarte Projekte können nicht umgesetzt werden und wertvolle Daten-Potenziale bleiben ungenutzt.
Unser Artikel beschreibt anhand der drei oben genannten Beispiele, wie Sie aus einem unübersichtlichen Datendschungel von SAP- und Drittanbieterdaten mithilfe von Hitachi Vantara Ihre Daten perfekt kombinieren und auswerten.
Artikel
TonY: verteilte TensorFlow-Trainings als Hadoop-Applikation
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Die Vorteile beider Welten sind in der von LinkedIn entwickelten Open Source-Lösung TonY (TensorFlow on YARN) realisiert worden. TonY ist eine hochskalierbare Plattform, die das Beste aus beiden Anwendungen miteinander kombiniert.
TonY führt verteilte TensorFlow-Trainings als Hadoop-Applikation aus. In unserem Artikel erklären wir Ihnen die genaue Arbeitsweise von TonY und wie TonY ein asynchrones Training mit vielfacher Beschleunigung gegenüber dem CPU-Training erreicht hat.
Artikel
Machine Learning Framework richtig ausgewählt
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Dr. David James, Data Scientist bei it-novum, hat eine Matrix entwickelt, die Ihnen bei der Auswahl des passenden Frameworks für Machine Learning Use Cases hilft.
Dank der Matrix können Sie in visuell attraktiver Form schnell und einfach herausfinden, welches Machine Learning Framework für Sie am besten geeignet ist.