Über unsMediaKontaktImpressum
29. September 2020

Confluent Platform 6.0: Event-Daten einfach verbinden – auch in hybriden und Multi-Cloud-Umgebungen

Confluent, Anbieter der auf Apache Kafka® basierenden Confluent Event Streaming-Plattform, kündigte die neueste Version seiner Plattform an: Confluent Platform 6.0. Darüber hinaus gab der Experte für Daten-Streaming das neueste Thema seiner Event-Streaming-Initiative Project Metamorphosis bekannt: Global.

Sowohl die neueste Version von Confluent Platform als auch Confluent Cloud besitzen im kommenden Release die Funktion "Cluster Linking". Diese macht Eventdaten, d. h. jegliche Art von Ereignissen im Geschäftskontext für Unternehmen weltweit in Echtzeit verfügbar, unabhängig davon, ob diese sich auf verschiedene Kontinente oder unterschiedliche Cloud-Anbieter verteilen oder über hybride Umgebungen erstrecken. Eine der wichtigsten Entwicklungen im Rahmen des "Global"-Launchs von Project Metamorphosis ist die Möglichkeit, Eventdaten genau dorthin zu streamen, wo sie benötigt werden. Das beschleunigt nicht nur erheblich die Migration in die Cloud, sondern gestaltet die Entwicklung und Bereitstellung eventgetriebener Anwendungen schneller und einfacher als je zuvor. Confluent Platform 6.0 bezieht auch frühere Bestandteile von Project Metamorphosis mit ein, was Apache Kafka® größere Elastizität verschafft sowie ein effizientes Kostenmanagement und unbegrenzte Datenspeicherung ermöglicht.

Die Schwierigkeiten verteilter Daten

Heutzutage stehen Unternehmen unter dem enormen Druck, Echtzeit-Anwendungen zu entwickeln, um den steigenden Kundenerwartungen gerecht zu werden. Folglich müssen sie ihren IT-Stack einer Modernisierung unterziehen, was den Einsatz von Hybrid- und Multi-Cloud-Infrastrukturen unumgänglich macht. Jüngsten Untersuchungen vonGartner zufolge wird Datenmanagement in fast der Hälfte aller Fälle sowohl in On-Prem-, hybriden, als auch Cloud-Umgebungen durchgeführt. Dabei werden Daten auch aktiv über beide Umgebungen hinweg verwaltet. Mehr als 80 Prozent der befragten Public-Cloud-Nutzer geben an, dass ihr Unternehmen mehr als einen Cloud Service Provider beansprucht und auch Daten zwischen den unterschiedlichen Anbietern austauscht. Die Folge: Einzelne Datensilos hindern Unternehmen oftmals daran, Innovationen voranzutreiben. Um langfristig wettbewerbsfähig zu bleiben, müssen Unternehmen diese Silostruktur aufbrechen und eine globale, umfassende Datenarchitektur aufbauen, die mehrere Public Cloud Provider und On-Prem-Umgebungen miteinander verbindet.

Aus diesem Grund setzen viele Unternehmen auf Apache Kafka: Der Mehrwert dieser Lösung liegt unter anderem in der Möglichkeit, Daten innerhalb einer Organisation in Echtzeit auszutauschen. Doch stellt die Verbindung von Kafka-Clustern über unterschiedlichen Umgebungen und größere Entfernungen hinweg Unternehmen vor eine komplexe Herausforderung. Hybrid- und Multi-Cloud-Umgebungen erscheinen dadurch unmöglich. Darüber hinaus kann Kafka erst sein volles Potenzial entfalten, wenn es unternehmensübergreifend als zentrales Nervensystem eingesetzt wird und alle Unternehmensdaten für sämtliche Anwendungen und Anwender gleichermaßen verfügbar sind. Die Open-Source-Lösung steht zwar jedem zur Verfügung, bleibt für die meisten dennoch zu komplex.

"Die Unmengen von Daten, auf denen moderne Unternehmen aufbauen, sind geographisch sowie über verschiedene Cloud-Umgebungen verstreut. Dies macht es umso schwieriger, sie auf sinnvolle Weise und effektiv miteinander zu verknüpfen", so Jay Kreps, Mitbegründer und CEO von Confluent. "Event-Streaming-Plattformen schaffen es nun, Daten aus jedem Winkel des Unternehmens in Echtzeit zu verbinden, so dass Unternehmen als eine Einheit agieren und erstklassige Anwendungen bereitstellen können."

Cluster Linking und vereinfachte Hybrid- und Multi-Cloud-Implementierung

Mithilfe von Cluster Linking ermöglicht es Confluent Platform 6.0, Daten schnell und effizient zwischen Cloud-Services und hybriden Architekturen miteinander zu verknüpfen. Dabei zeichnet sich die Lösung besonders durch eine einfache Handhabung und Skalierbarkeit aus. Mithilfe dieser Funktion können zwei oder mehr Kafka-Cluster Daten replizieren, ohne dass andere Komponenten erforderlich sind. Dadurch entfällt der Aufwand, zusätzliche verteilte Systeme zu erlernen, zu verwalten und zu überwachen. Aufgebaut auf dem hoch performanten Kafka-Broker-Protokoll stellt die Funktion sicher, dass die replizierten Daten ein exaktes Abbild der Quelldaten sind. Dadurch wird die Implementierung von Use Cases im Rahmen von Hybrid- und Multi-Cloud sowie Cloud-Migration erheblich vereinfacht. Folglich können Unternehmen Kafka-Cluster zwischen unterschiedlichen Umgebungen und über beliebige Entfernungen hinweg problemlos miteinander verbinden, um ein globales, zentrales Nervensystem aufzubauen.

Confluent Platform 6.0 und Project Metamorphosis

Mit Project Metamorphosis leutete Confluent die neue Generation des Event Streamings ein: Dies soll Unternehmen dabei unterstützen, Event Streaming als zentrales Nervensystem in ihr Geschäft einzubinden. Die Probleme, mit denen Unternehmen dadurch konfrontiert werden, adressiert Project Metamorphosis indem grundlegende Merkmale cloud-nativer Datensysteme in Kafka integriert werden. Im Rahmen der ersten Phase von Project Metamorphosis hat Confluent bereits größere Elastizität, effizienteres Kostenmanagement, unendliche Datenspeicherung und globale Verfügbarkeit vorgestellt.

Confluent Platform 6.0 deckt die erste Hälfte der Themen aus Project Metamorphosis in einer einzigen Self-Managed-Plattform ab. Diese beinhalten:

  • Elastizität – Self-Balancing Cluster automatisieren das Partition Rebalancing, um den Durchsatz von Kafka zu optimieren, die Broker-Skalierung zu beschleunigen und die operative Belastung aufgrund großer Cluster zu reduzieren. Ohne das komplexe, manuelle Rebalancing von Daten, können Unternehmen mehr Ressourcen auf den Aufbau von Echtzeit-Erfahrungen mit weniger Risiko und Aufwand verwenden.
  • KosteneffizienzksqlDBist in der neuen Version von Confluent Platform verfügbar, wodurch eine leistungsstarke Event-Streaming-Datenbank jene Subsysteme ersetzt, die normalerweise für die Erstellung von Event-Streaming-Anwendungen benötigt werden. Dadurch wird der Entwicklungsprozess von Event Streaming erheblich beschleunigt und vereinfacht, was das Potenzial für neue Use Cases auf Unternehmensebene schafft und die betriebsinterne Effizienz steigert.
  • Unendliche Speicherung – Tiered Storage ermöglicht es Unternehmen, unendlich viele Eventdaten in Kafka zu speichern und ein zentrales Nervensystem für sämtliche Events zu schaffen. Dank der unbegrenzten Speicherkapazitäten müssen sich Entwickler während der Erstellung von Event-Streaming-Anwendungen keine Sorgen mehr über Speicherbeschränkungen machen. Dies schließt Anwendungen ein, die sowohl Echtzeit- als auch historische Eventdaten nutzen, oder Anwendungen, die unter Verwendung eines historischen Datenstroms als Training für Machine-Learning-Modelle genutzt werden.

Verfügbarkeit

Confluent Platform 6.0 wird in Kürze verfügbar sein, einschließlich Self-Balancing-Cluster, ksqIDB und Tiered Storage. Cluster Linking wird als Preview über Confluent Platform 6.0 und als private Preview in der Confluent Cloud verfügbar sein

Weitere Informationen:

  • Erfahren Sie alles über Apache Kafka, Event Streaming und Cloud-Umgebungen im Recording unseres Vortrags im Rahmen des diesjährigen Kafka Summits.
  • Alles über Projekt Metamorphosis können Siehier nachlesen und den aktuellen Blogpost unseres Kollegen Ben Stopfords über den Launch von Project Metamorphosis Global finden Siehier.
  • Erfahren Siehier, wie Confluent seinen Kunden dabei hilft, ihr Unternehmen voranzutreiben.

Sie möchten zukünftig per Newsletter der Informatik Aktuell informiert werden? Hier können Sie sich anmelden.

Das könnte Sie auch interessieren