Tag: apache-kafka

Apache Kafka ist eine verteilte streaming-Plattform zum speichern und verarbeiten von high-throughput Daten-streams.

Dead letter-Warteschlange (DLQ) für Kafka mit Feder-kafka

Anzahl der Antworten 1 Antworten
Was ist der beste Weg zur Umsetzung Dead letter-Warteschlange (DLQ) Konzept in Spring-Boot-2.0-Anwendung mit spring-kafka 2.1.x alle Nachrichten konnte nicht verarbeitet werden @KafkaListener Methode von einigen bean geschickt, um einige vordefinierte Kafka DLQ Thema nicht zu verlieren

Unterschied zwischen Apache Samza und Apache Kafka-Streams (Fokus auf Parallelität und Kommunikation)

Anzahl der Antworten 1 Antworten
In Samza und Kafka-Streams, Daten-stream-Verarbeitung erfolgt in einer Sequenz/graph (genannt "dataflow graph" in Samza und "Topologie" im Kafka-Streams) der Verarbeitung der Schritte (genannt "job" in Samza" und "Prozessor" in der Kafka-Streams). Ich nenne diese beiden Begriffe als

Einfach Kafka-Consumer-Beispiel funktioniert nicht

Anzahl der Antworten 3 Antworten
Habe ich eine einfache Klasse zum konsumieren von Nachrichten aus einem kafka-server. Die Mehrheit der codes, die kopiert werden, aus den Kommentaren org.apache.kafka.clients.consumer.KafkaConsumer.java. public class Demo { public static void main(String args) { Properties props = new

Abfrage Kafka-Thema für einen bestimmten Datensatz

Anzahl der Antworten 2 Antworten
Gibt es eine elegante Möglichkeit zur Abfrage einer Kafka-Thema für einen bestimmten Datensatz? Die REST-API, die ich Baue, bekommt eine ID und muss sich bis zugeordneten Datensätze, die ID in einer Kafka-Thema. Ein Ansatz ist es, zu

Schlüssel ist erforderlich als Teil für das senden von Nachrichten an Kafka?

Anzahl der Antworten 1 Antworten
KeyedMessage<String, byte> keyedMessage = new KeyedMessage<String, byte>(request.getRequestTopicName(), SerializationUtils.serialize(message)); producer.send(keyedMessage); Derzeit, ich bin das senden von Nachrichten, ohne den Schlüssel als Teil des keyed-Nachrichten, wird es immer noch funktionieren mit delete.retention.ms? Brauche ich zum senden einer Taste als

Ist Tierpfleger ein muss für Kafka?

Anzahl der Antworten 7 Antworten
In Kafka, ich möchte nur eine einzige broker, einziges Thema und eine einzige partition mit einem Erzeuger und mehrere Verbraucher (jeder Verbraucher erhält seine eigene Kopie der Daten, die vom broker). Angesichts dieser, ich will nicht den

Senden KafkaProducer vom lokalen Rechner auf hortonworks sandbox auf virtualbox

Anzahl der Antworten 1 Antworten
Habe ich ein wirklich einfaches Produzent, der läuft bei mir über eclipse auf meinem lokalen windows-Rechner... Was ich wirklich will, ist eine Nachricht über einen auf kafka, so dass ich in der Lage, um die broker, durch

Was ist der Unterschied zwischen MQTT-broker und Apache Kafka

Anzahl der Antworten 2 Antworten
Ich bin der Entwicklung eines mobile messaging-app. Ich ging durch die erforderliche Technologie und fand zwei MQTT & Apache Kafta. Mir scheint, tun die gleiche Sache in der gleichen Weise (in Bezug auf abonnieren & publishing zu

Kafka auf Kubernetes multi-node

Anzahl der Antworten 4 Antworten
Also mein Ziel hier ist ein cluster von mehreren kafka-Broker in einem Mode verteilt. Aber ich kann nicht sehen den Weg, um den Broker zu wissen, jeder anderen. Soweit ich das verstanden habe, jeder broker muss mit

entfernen einer kafka-consumer-Gruppe in Tierpfleger

Anzahl der Antworten 5 Antworten
Ich bin mit kafka_2.9.2-0.8.1.1 mit Tierpfleger 3.4.6. Gibt es ein Dienstprogramm, das automatisch entfernen kann ein Verbraucher Gruppe von zookeeper? Oder kann ich einfach entfernen Sie alles unter /Verbraucher/[group_id] in Tierpfleger? Wenn letzteres, gibt es etwas, was

Ich bin Google-Bewertung PUB/SUB vs Kafka?

Anzahl der Antworten 2 Antworten
Habe ich nicht gearbeitet kafka viel, aber bauen wollten, die Daten-pipeline im GCE. Wir wollten also wissen, Kafka vs PUB/Sub. Im Grunde möchte ich wissen, wie die Konsistenz Nachricht, Nachricht, die Verfügbarkeit, Meldung Zuverlässigkeit ist gepflegt sowohl

Kafka zum Tierpfleger-Befehl erzeugt Fehler

Anzahl der Antworten 5 Antworten
bin/kafka-topics.sh --create --topic activityTopic --zookeeper localhost:2181/kafka --partitions 1 --replication-factor 1 Den oben genannten Befehl aus kafka einen Fehler produziert Error while executing topic command org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /brokers/ids org.I0Itec.zkclient.exception.ZkNoNodeException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /brokers/ids

Kafka und firewall-Regeln

Anzahl der Antworten 2 Antworten
Wir haben eine ziemlich strenge Netzwerk-Segmentierung-Politik. Ich bin mit einer cloud-foundry-Instanz bereitstellen, die ein app. Die firewall-Regeln, die eingerichtet wurden, um erreichen die kafka-cluster innerhalb der cloud foundry Instanz. Ich glaube, dass die firewall-Regeln wurden auch eingerichtet,

wie zu verwenden Kafka 0.8 Log4j appender

Anzahl der Antworten 3 Antworten
Ich versuche zu laufen Kafka-0.8 Log4j appender und ich bin nicht in der Lage, es zu machen. Ich möchte meine Bewerbung zu senden, melden Sie sich direkt auf kafka über Log4j appender. Hier ist meine log4j.Eigenschaften. Ich

testen kafka von Konsumenten und Produzenten Verbindung fehlgeschlagen

Anzahl der Antworten 6 Antworten
Habe ich versucht zu testen, ein kafka-installation und die Verwendung der erstellten guide Produzent und Verbraucher. Wenn Sie versuchen zum abrufen einer Nachricht bekomme ich folgende Fehlermeldung: WARN Session 0x0 for server null, unexpected error, closing socket

Verständnis Kafka Themen und Partitionen

Anzahl der Antworten 3 Antworten
Bin ich angefangen zu lernen, Kafka für enterprise-Lösung Zwecken. Während meiner Lesungen, einige Fragen, die mir in den Sinn kam: Wenn ein Hersteller produziert eine Nachricht - es wird angeben, das Thema es will, um die Nachricht

Ist Apache Kafka geeignet für den Einsatz als ungeordnete task queue?

Anzahl der Antworten 4 Antworten
Kafka teilt eingehende Nachrichten bis in Partitionen, nach der partition zugeordnet, die von den Produzenten. Nachrichten von Partitionen, dann Holen Sie sich verzehrt, indem Sie die Verbraucher in den verschiedenen Verbrauchergruppen. Diese Architektur macht mich vorsichtig bei

konnte nicht gesetzt werden 'max.poll.records " unter kafka Verbraucher -, wo Nachteile.Umfrage noch gibt alle Datensätze zurück, die unter partition

Anzahl der Antworten 1 Antworten
Habe ich erstellt multi-thread-Verbraucher app funktioniert auf verschiedenen Partitionen. Auf der Suche in verschiedenen blogs kam ich zu wissen über " max.poll.records' - Eigenschaft, um die Kontrolle über die Menge der Datensätze aus bestimmtes Thema, eine partition.(so

Kafka-client für PHP

Anzahl der Antworten 2 Antworten
Ich habe ein problem mit Kafka PHP-client auf Windows (mit xampp). Ich habe Apache installiert Kafka 0,8 und erfolgreich getestet. Dann, ich bin der Suche nach einem PHP-client zu integrieren Kafka zu PHP, ich halt nur PHP

Broker Replikations-Fehler “Keine Berechtigung Themen: [Thema Autorisierung fehlgeschlagen.] "

Anzahl der Antworten 3 Antworten
Habe ich drei Kafka-Broker (kafka_2.11-0.10.0.0)und jeder broker die Sicherheit konfiguriert ist, wie unten listeners=PLAINTEXT://xxxx:9093,SASL_PLAINTEXT://xxxx:10093 advertised.listeners=PLAINTEXT://xxxx:9093,SASL_PLAINTEXT://xxxx:10093 security.inter.broker.protocol=PLAINTEXT sasl.enabled.mechanisms=PLAIN sasl.mechanism.inter.broker.protocol=PLAIN authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer allow.everyone.if.no.acl.found=true super.users=User:admin kafka_server_jaas.conf auch so konfiguriert, mit der Benutzer admin. KafkaServer { org.apache.kafka.common.security.plain.PlainLoginModule required username="admin" password="welcome1" user_guest="welcome1"; };

Die Interaktion mit kafka docker-container von außerhalb der docker-host

Anzahl der Antworten 5 Antworten
Ich gebaut habe, ein kafka docker-container und orchestrieren Sie es mit docker-Komponieren. Aufrufen docker ps bekomme ich die folgende putput: CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 5bde6f76246e hieutrtr/docker-kafka:0.0.1 "/start.sh" About an hour ago Up About

Performance-Metriken für die Avro vs Protobuf

Anzahl der Antworten 1 Antworten
Wir sind mit kafka für die Speicherung von Nachrichten und schob eine extrem große Anzahl von Nachrichten(> 30k in einer minute). Ich bin nicht sicher, ob es relevant ist, sondern der code, der Produzent der kafka-Nachricht ist

Kafka wirft java.nio.- Kanäle.ClosedChannelException

Anzahl der Antworten 3 Antworten
Wenn ich versuche, Sie zu konsumieren Nachrichten aus der kafka-server, die gehostet wird in ec2 mit kafka-console (V 0.9.0.1 , ich denke, das nutzt alte Verbraucher-APIs) Ich bekomme folgende exception. Wie kann ich das umgehen? #./kafka-console-consumer.sh --Tierpfleger

Kafka producer zum Lesen von Daten-Dateien

Anzahl der Antworten 6 Antworten
Ich versuche, laden Sie eine Daten-Datei in der Schleife(to check stats) anstelle der standard-Eingabe bei Kafka. Nach dem Download Kafka, habe ich folgende Schritte ausgeführt: Begann Tierpfleger: bin/zookeeper-server-start.sh config/zookeeper.properties Gestartet Server: bin/kafka-server-start.sh config/server.properties Erstellt ein Thema mit

Spark Streaming + Kafka: SparkException: nicht finden Konnte, leader-offset Gesetzt

Anzahl der Antworten 5 Antworten
Ich versuche, setup-Spark-Streaming, um Nachrichten von Kafka Warteschlange. Ich bin immer der folgende Fehler: py4j.protocol.Py4JJavaError: An error occurred while calling o30.createDirectStream. : org.apache.spark.SparkException: java.nio.channels.ClosedChannelException org.apache.spark.SparkException: Couldn't find leader offsets for Set([test-topic,0]) at org.apache.spark.streaming.kafka.KafkaCluster$$anonfun$checkErrors$1.apply(KafkaCluster.scala:366) at org.apache.spark.streaming.kafka.KafkaCluster$$anonfun$checkErrors$1.apply(KafkaCluster.scala:366) at scala.util.Either.fold(Either.scala:97)

UnknownHostException kafka

Anzahl der Antworten 2 Antworten
Ich bin versucht, setup-eine Kafka-cluster (der erste Knoten im cluster eigentlich). Ich habe eine single-node-zookeeper-cluster-setup. Ich bin einrichten kafka auf einem separaten Knoten. Beiden läuft CentOS 6.4, läuft IPV6-das ist ein bisschen ein PITA. Ich habe überprüft,

Zählen die Anzahl der gespeicherten Nachrichten in einem kafka-Thema

Anzahl der Antworten 4 Antworten
Ich bin mit 0.9.0.0-version von Kafka, und ich möchte, um die Anzahl der Nachrichten in einem Thema, ohne mit dem admin-script kafka-console-consumer.sh. Habe ich versucht, alle Befehle in der Antwort Java, Wie man die Anzahl der Nachrichten

Kafka Konsole Verbraucher: Wie man nur die letzten N Nachrichten von einem Thema, anstatt alles von Anfang an?

Anzahl der Antworten 3 Antworten
Kann ich dies tun: ./bin/kafka-avro-console-consumer --zookeeper 10.0.0.225:2181/kafka --topic myTopic --property schema.registry.url=http://10.0.0.100:8081 --from-beginning Aber ich habe zu viele Nachrichten. Ich würde eher nur die letzten N Einsen. Wie kann ich das machen mit kafka Konsole Verbraucher? einfach zu

KeeperErrorCode = NoNode für /admin/preferred_replica_election

Anzahl der Antworten 2 Antworten
wenn ich ab kafka,zookeeper Fehler passiert. INFO Got user-level KeeperException when processing sessionid:0x156028651c00001 type:delete cxid:0x1b zxid:0x59 txntype:-1 reqpath:n/a Error Path:/admin/preferred_replica_election Error:KeeperErrorCode = NoNode for /admin/preferred_replica_election (org.apache.zookeeper.server.PrepRequestProcessor) Eine ähnliche Frage (tl;dr es ist kein Fehler, nur eine info

So ändern Sie die Anzahl der Replikate von einem Kafka-Thema?

Anzahl der Antworten 6 Antworten
Nach einer Kafka-Thema wurde von einem Hersteller oder von einem administrator, wie würden Sie ändern, die Anzahl der Replikate dieses Thema? InformationsquelleAutor GuruPo | 2016-06-22

Was ist der Sinn von Kafkas Schlüssel/Wert-paar-basierten messaging?

Anzahl der Antworten 1 Antworten
Alle Beispiele von Kafka | Hersteller zeigen die ProducerRecord's Schlüssel/Wert-paar, wie nicht nur der gleiche Typ (alle Beispiele zeigen <String,String>), aber die gleichen Wert. Zum Beispiel: producer.send(new ProducerRecord<String, String>("someTopic", Integer.toString(i), Integer.toString(i))); Aber in die Kafka-docs, ich kann

Wie implementiere ich Kafka Verbraucher in Scala

Anzahl der Antworten 2 Antworten
Ich versuche, die Implementierung eines kafka Verbraucher in scala. Ich habe gesehen, eine million tutorials für, wie es in Java, und sogar einige ( wie diese ), die sagen, dass es für scala, aber es ist in

Spark Streaming - Lesen und schreiben auf Thema Kafka

Anzahl der Antworten 7 Antworten
Bin ich mit Spark Streaming zum verarbeiten von Daten zwischen zwei Kafka Warteschlangen, aber ich kann nicht scheinen zu finden ein guter Weg, um zu schreiben, auf Kafka aus Funken. Ich habe dies ausprobiert: input.foreachRDD(rdd => rdd.foreachPartition(partition

Themen, Partitionen und Schlüsseln

Anzahl der Antworten 2 Antworten
Ich bin auf der Suche nach Aufklärung über das Thema. In Kafka-Dokumentationen habe ich Folgendes gefunden: Kafka stellt nur eine totale Ordnung über Nachrichten innerhalb einer partition, nicht zwischen verschiedenen Partitionen in ein Thema. Pro-partition Bestellung in

Was ist die Verwendung von __consumer_offsets und _schema Themen bei Kafka?

Anzahl der Antworten 2 Antworten
Nach dem einrichten der Kafka-Broker-Clusters und erstellen Sie einige Themen, die wir gefunden, dass die folgenden zwei Themen werden automatisch erstellt, indem Kafka: __consumer_offsets _schema Was ist die Bedeutung und Verwendung dieser Themen ? InformationsquelleAutor Anveshak |

Wie um zu überprüfen, Verbraucher-offsets, wenn die offset-Shop ist Kafka?

Anzahl der Antworten 1 Antworten
Vom release 0.8.1.1, Kafka stellt die Regelung für die Speicherung des offsets im Kafka, anstatt Tierpfleger (siehe diese). Ich bin nicht in der Lage, herauszufinden, wie Sie die details des offsets verbraucht, als die aktuelle tools bieten

Nach Linux-Neustart, Kafka werfen "keine Makler gefunden, wenn Sie versuchen, um ins Gleichgewicht bringen"

Anzahl der Antworten 6 Antworten
Folgte ich einer hervorragende Schritt-für-Schritt-Anleitung für die Installation von Kafka auf Linux. Alles funktionierte gut für mich, bis ich Linux neu gestartet. Nach dem Neustart bekomme ich die folgende Fehlermeldung, wenn ich versuche, Sie zu konsumieren, eine

Hat Kafka support-Anfrage-Antwort-messaging

Anzahl der Antworten 4 Antworten
Ich untersuche Kafka 9 als ein hobby-Projekt abgeschlossen und ein paar "Hello World" geben Sie Beispiele. Habe ich zu denken über die Reale Welt-Kafka-Anwendungen auf Basis von request-response messaging im Allgemeinen und speziell, wie die Verknüpfung eines

Kafka-Monitoring-Werkzeug in der Produktion

Anzahl der Antworten 5 Antworten
Überprüfen müssen-Tools zum überwachen von Kafka in der Produktion. Auch tool benötigt keine Lizenz oder schwere hardware. Insbesondere brauche ich ein tool zum bewerten von Verbraucher-offset auf Thema Gesundheit Thema. Ich persönlich verwendet haben, datadog datadoghq.com/blog/monitor-kafka-with-datadog Ich

Wie kann ich die NEUESTE offset von einem kafka-Thema?

Anzahl der Antworten 4 Antworten
Ich Schreibe ein kafka Verbraucher mit Java. Ich will, dass die Echtzeit von der Nachricht, also wenn es zu viele Nachrichten warten auf Sie konsumieren, wie 1000 oder mehr, sollte ich aufgeben, die nicht verbrauchten Nachrichten und

Wie setzen Sie eine headless service für eine StatefulSet extern in Kubernetes

Anzahl der Antworten 5 Antworten
Mit kubernetes-kafka als Ausgangspunkt mit minikube. Dieser verwendet eine StatefulSet und ein headless service für service-discovery innerhalb des Clusters. Das Ziel ist, setzen die individuellen Kafka-Broker extern, welche intern angesprochen: kafka-0.broker.kafka.svc.cluster.local:9092 kafka-1.broker.kafka.svc.cluster.local:9092 kafka-2.broker.kafka.svc.cluster.local:9092 Die Einschränkung ist, dass

Fehler in der Veröffentlichen Nachricht zum Thema Kafka

Anzahl der Antworten 6 Antworten
Ich bin neu auf Kafka und versuchen, setup-Umgebung für Sie . Ich versuche zu laufen, die einen einzelnen Knoten Kafka, aber ich bin immer Fehler in diesem. Folgenden folgenden Schritte auf mac 1. brew install zookeeper 2.

Kafka: Wie aktiviere ich die client-Anmeldung?

Anzahl der Antworten 1 Antworten
Wenn instanziiere ich ein Kafka Verbraucher KafkaConsumer<String,String> consumer = new KafkaConsumer<String,String>(props); Bekomme ich diese Meldung SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder". SLF4J: Defaulting to no-operation (NOP) logger implementation SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details. Wie aktiviere ich

Kafka, wie zu Lesen, von __consumer_offsets Thema

Anzahl der Antworten 5 Antworten
Ich versuche, herauszufinden, welche offsets meine aktuellen High-Level-Verbraucher sind arbeiten aus. Ich benutze Kafka 0.8.2.1, mit keine "versetzt.Speicher" in der server.Eigenschaften des Kafka - die, wie ich denke, bedeutet, dass die offsets gespeichert sind, in Kafka. (Ich

Kafka10.1 Herzschlag.Intervall.ms, Sitzung.timeout.ms und max.poll.Intervall.ms

Anzahl der Antworten 2 Antworten
Ich bin mit kafka 0.10.1.1 und verwirrt mit den folgenden 3 Eigenschaften. heartbeat.interval.ms session.timeout.ms max.poll.interval.ms Herzschlag.Intervall.ms - Dies wurde Hinzugefügt, in 0.10.1 und es sendet ein heartbeat zwischen Umfragen. Sitzung.timeout.ms - Diese ist zu Beginn ein rebalancing,

Probleme mit der Aufbewahrungszeitraum für die offset-Thema kafka

Anzahl der Antworten 3 Antworten
Sind wir mit einem problem konfrontiert, mit Kafka. Wir haben ein Thema mit nur einer partition und nur ein Verbraucher in einer Verbraucher-Gruppe. Der Verbraucher angehalten worden ist, für einen Monat. In der Zwischenzeit, Produzenten senden von

Unterschied zwischen Redis und kafka

Anzahl der Antworten 1 Antworten
Ich bin ein Anfänger zu Redis und Kafka. Redis kann verwendet werden, als Echtzeit-pub-sub. Aber Kafka ist auch Echtzeit-pub-sub. Ich bin verwirrt, die man zu nutzen, wenn. Jeder Anwendungsfall wäre eine große Hilfe! Danke! InformationsquelleAutor Sweta Sharma

Wie kann ich die Instanzierung eines Mock-Kafka-Thema für junit-tests?

Anzahl der Antworten 2 Antworten
Habe ich einige JUnit-tests auf code, der verwendet kafka Thema. Die mock-kafka-Themen, die ich probiert habe funktionieren nicht, und die Beispiele, die online zu finden sind, sehr alt, so dass Sie sich auch nicht, die Arbeit mit

Spring Boot Kafka: kann Nicht starten Verbraucher durch NoSuchBeanDefinitionException

Anzahl der Antworten 2 Antworten
Mit in meine Feder-boot-service beim starten einer kafka-Verbraucher sehen NoSuchBeanDefinitionException und konnte nicht starten Sie den Dienst selbst. Unten ist mein bean-Klasse, das über alle erforderlichen beans erstellt für Kafka Konfiguration Spring Boot-Version: 1.5.2.RELEASE import java.util.HashMap; import

Fehler beim Lesen des Feldes 'topic_metadata': Fehler beim Lesen der array der Größe 1139567, nur 45 bytes verfügbar

Anzahl der Antworten 3 Antworten
--Verbraucher Properties props = new Properties(); String groupId = "consumer-tutorial-group"; List<String> topics = Arrays.asList("consumer-tutorial"); props.put("bootstrap.servers", "192.168.1.75:9092"); props.put("group.id", groupId); props.put("enable.auto.commit", "true"); props.put("key.deserializer", StringDeserializer.class.getName()); props.put("value.deserializer", StringDeserializer.class.getName()); KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props); try { consumer.subscribe(topics); while (true) {