Tag: apache-kafka
Apache Kafka ist eine verteilte streaming-Plattform zum speichern und verarbeiten von high-throughput Daten-streams.
1
Antworten
Was ist der beste Weg zur Umsetzung Dead letter-Warteschlange (DLQ) Konzept in Spring-Boot-2.0-Anwendung mit spring-kafka 2.1.x alle Nachrichten konnte nicht verarbeitet werden @KafkaListener Methode von einigen bean geschickt, um einige vordefinierte Kafka DLQ Thema nicht zu verlieren
1
Antworten
In Samza und Kafka-Streams, Daten-stream-Verarbeitung erfolgt in einer Sequenz/graph (genannt "dataflow graph" in Samza und "Topologie" im Kafka-Streams) der Verarbeitung der Schritte (genannt "job" in Samza" und "Prozessor" in der Kafka-Streams). Ich nenne diese beiden Begriffe als
3
Antworten
Habe ich eine einfache Klasse zum konsumieren von Nachrichten aus einem kafka-server. Die Mehrheit der codes, die kopiert werden, aus den Kommentaren org.apache.kafka.clients.consumer.KafkaConsumer.java. public class Demo { public static void main(String args) { Properties props = new
2
Antworten
Gibt es eine elegante Möglichkeit zur Abfrage einer Kafka-Thema für einen bestimmten Datensatz? Die REST-API, die ich Baue, bekommt eine ID und muss sich bis zugeordneten Datensätze, die ID in einer Kafka-Thema. Ein Ansatz ist es, zu
1
Antworten
KeyedMessage<String, byte> keyedMessage = new KeyedMessage<String, byte>(request.getRequestTopicName(), SerializationUtils.serialize(message)); producer.send(keyedMessage); Derzeit, ich bin das senden von Nachrichten, ohne den Schlüssel als Teil des keyed-Nachrichten, wird es immer noch funktionieren mit delete.retention.ms? Brauche ich zum senden einer Taste als
7
Antworten
In Kafka, ich möchte nur eine einzige broker, einziges Thema und eine einzige partition mit einem Erzeuger und mehrere Verbraucher (jeder Verbraucher erhält seine eigene Kopie der Daten, die vom broker). Angesichts dieser, ich will nicht den
1
Antworten
Habe ich ein wirklich einfaches Produzent, der läuft bei mir über eclipse auf meinem lokalen windows-Rechner... Was ich wirklich will, ist eine Nachricht über einen auf kafka, so dass ich in der Lage, um die broker, durch
2
Antworten
Ich bin der Entwicklung eines mobile messaging-app. Ich ging durch die erforderliche Technologie und fand zwei MQTT & Apache Kafta. Mir scheint, tun die gleiche Sache in der gleichen Weise (in Bezug auf abonnieren & publishing zu
4
Antworten
Also mein Ziel hier ist ein cluster von mehreren kafka-Broker in einem Mode verteilt. Aber ich kann nicht sehen den Weg, um den Broker zu wissen, jeder anderen. Soweit ich das verstanden habe, jeder broker muss mit
5
Antworten
Ich bin mit kafka_2.9.2-0.8.1.1 mit Tierpfleger 3.4.6. Gibt es ein Dienstprogramm, das automatisch entfernen kann ein Verbraucher Gruppe von zookeeper? Oder kann ich einfach entfernen Sie alles unter /Verbraucher/[group_id] in Tierpfleger? Wenn letzteres, gibt es etwas, was
2
Antworten
Habe ich nicht gearbeitet kafka viel, aber bauen wollten, die Daten-pipeline im GCE. Wir wollten also wissen, Kafka vs PUB/Sub. Im Grunde möchte ich wissen, wie die Konsistenz Nachricht, Nachricht, die Verfügbarkeit, Meldung Zuverlässigkeit ist gepflegt sowohl
5
Antworten
bin/kafka-topics.sh --create --topic activityTopic --zookeeper localhost:2181/kafka --partitions 1 --replication-factor 1 Den oben genannten Befehl aus kafka einen Fehler produziert Error while executing topic command org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /brokers/ids org.I0Itec.zkclient.exception.ZkNoNodeException: org.apache.zookeeper.KeeperException$NoNodeException: KeeperErrorCode = NoNode for /brokers/ids
2
Antworten
Wir haben eine ziemlich strenge Netzwerk-Segmentierung-Politik. Ich bin mit einer cloud-foundry-Instanz bereitstellen, die ein app. Die firewall-Regeln, die eingerichtet wurden, um erreichen die kafka-cluster innerhalb der cloud foundry Instanz. Ich glaube, dass die firewall-Regeln wurden auch eingerichtet,
3
Antworten
Ich versuche zu laufen Kafka-0.8 Log4j appender und ich bin nicht in der Lage, es zu machen. Ich möchte meine Bewerbung zu senden, melden Sie sich direkt auf kafka über Log4j appender. Hier ist meine log4j.Eigenschaften. Ich
6
Antworten
Habe ich versucht zu testen, ein kafka-installation und die Verwendung der erstellten guide Produzent und Verbraucher. Wenn Sie versuchen zum abrufen einer Nachricht bekomme ich folgende Fehlermeldung: WARN Session 0x0 for server null, unexpected error, closing socket
3
Antworten
Bin ich angefangen zu lernen, Kafka für enterprise-Lösung Zwecken. Während meiner Lesungen, einige Fragen, die mir in den Sinn kam: Wenn ein Hersteller produziert eine Nachricht - es wird angeben, das Thema es will, um die Nachricht
4
Antworten
Kafka teilt eingehende Nachrichten bis in Partitionen, nach der partition zugeordnet, die von den Produzenten. Nachrichten von Partitionen, dann Holen Sie sich verzehrt, indem Sie die Verbraucher in den verschiedenen Verbrauchergruppen. Diese Architektur macht mich vorsichtig bei
1
Antworten
Habe ich erstellt multi-thread-Verbraucher app funktioniert auf verschiedenen Partitionen. Auf der Suche in verschiedenen blogs kam ich zu wissen über " max.poll.records' - Eigenschaft, um die Kontrolle über die Menge der Datensätze aus bestimmtes Thema, eine partition.(so
2
Antworten
Ich habe ein problem mit Kafka PHP-client auf Windows (mit xampp). Ich habe Apache installiert Kafka 0,8 und erfolgreich getestet. Dann, ich bin der Suche nach einem PHP-client zu integrieren Kafka zu PHP, ich halt nur PHP
3
Antworten
Habe ich drei Kafka-Broker (kafka_2.11-0.10.0.0)und jeder broker die Sicherheit konfiguriert ist, wie unten listeners=PLAINTEXT://xxxx:9093,SASL_PLAINTEXT://xxxx:10093 advertised.listeners=PLAINTEXT://xxxx:9093,SASL_PLAINTEXT://xxxx:10093 security.inter.broker.protocol=PLAINTEXT sasl.enabled.mechanisms=PLAIN sasl.mechanism.inter.broker.protocol=PLAIN authorizer.class.name=kafka.security.auth.SimpleAclAuthorizer allow.everyone.if.no.acl.found=true super.users=User:admin kafka_server_jaas.conf auch so konfiguriert, mit der Benutzer admin. KafkaServer { org.apache.kafka.common.security.plain.PlainLoginModule required username="admin" password="welcome1" user_guest="welcome1"; };
5
Antworten
Ich gebaut habe, ein kafka docker-container und orchestrieren Sie es mit docker-Komponieren. Aufrufen docker ps bekomme ich die folgende putput: CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 5bde6f76246e hieutrtr/docker-kafka:0.0.1 "/start.sh" About an hour ago Up About
1
Antworten
Wir sind mit kafka für die Speicherung von Nachrichten und schob eine extrem große Anzahl von Nachrichten(> 30k in einer minute). Ich bin nicht sicher, ob es relevant ist, sondern der code, der Produzent der kafka-Nachricht ist
3
Antworten
Wenn ich versuche, Sie zu konsumieren Nachrichten aus der kafka-server, die gehostet wird in ec2 mit kafka-console (V 0.9.0.1 , ich denke, das nutzt alte Verbraucher-APIs) Ich bekomme folgende exception. Wie kann ich das umgehen? #./kafka-console-consumer.sh --Tierpfleger
6
Antworten
Ich versuche, laden Sie eine Daten-Datei in der Schleife(to check stats) anstelle der standard-Eingabe bei Kafka. Nach dem Download Kafka, habe ich folgende Schritte ausgeführt: Begann Tierpfleger: bin/zookeeper-server-start.sh config/zookeeper.properties Gestartet Server: bin/kafka-server-start.sh config/server.properties Erstellt ein Thema mit
5
Antworten
Ich versuche, setup-Spark-Streaming, um Nachrichten von Kafka Warteschlange. Ich bin immer der folgende Fehler: py4j.protocol.Py4JJavaError: An error occurred while calling o30.createDirectStream. : org.apache.spark.SparkException: java.nio.channels.ClosedChannelException org.apache.spark.SparkException: Couldn't find leader offsets for Set([test-topic,0]) at org.apache.spark.streaming.kafka.KafkaCluster$$anonfun$checkErrors$1.apply(KafkaCluster.scala:366) at org.apache.spark.streaming.kafka.KafkaCluster$$anonfun$checkErrors$1.apply(KafkaCluster.scala:366) at scala.util.Either.fold(Either.scala:97)
2
Antworten
Ich bin versucht, setup-eine Kafka-cluster (der erste Knoten im cluster eigentlich). Ich habe eine single-node-zookeeper-cluster-setup. Ich bin einrichten kafka auf einem separaten Knoten. Beiden läuft CentOS 6.4, läuft IPV6-das ist ein bisschen ein PITA. Ich habe überprüft,
4
Antworten
Ich bin mit 0.9.0.0-version von Kafka, und ich möchte, um die Anzahl der Nachrichten in einem Thema, ohne mit dem admin-script kafka-console-consumer.sh. Habe ich versucht, alle Befehle in der Antwort Java, Wie man die Anzahl der Nachrichten
3
Antworten
Kann ich dies tun: ./bin/kafka-avro-console-consumer --zookeeper 10.0.0.225:2181/kafka --topic myTopic --property schema.registry.url=http://10.0.0.100:8081 --from-beginning Aber ich habe zu viele Nachrichten. Ich würde eher nur die letzten N Einsen. Wie kann ich das machen mit kafka Konsole Verbraucher? einfach zu
2
Antworten
wenn ich ab kafka,zookeeper Fehler passiert. INFO Got user-level KeeperException when processing sessionid:0x156028651c00001 type:delete cxid:0x1b zxid:0x59 txntype:-1 reqpath:n/a Error Path:/admin/preferred_replica_election Error:KeeperErrorCode = NoNode for /admin/preferred_replica_election (org.apache.zookeeper.server.PrepRequestProcessor) Eine ähnliche Frage (tl;dr es ist kein Fehler, nur eine info
6
Antworten
Nach einer Kafka-Thema wurde von einem Hersteller oder von einem administrator, wie würden Sie ändern, die Anzahl der Replikate dieses Thema? InformationsquelleAutor GuruPo | 2016-06-22
1
Antworten
Alle Beispiele von Kafka | Hersteller zeigen die ProducerRecord's Schlüssel/Wert-paar, wie nicht nur der gleiche Typ (alle Beispiele zeigen <String,String>), aber die gleichen Wert. Zum Beispiel: producer.send(new ProducerRecord<String, String>("someTopic", Integer.toString(i), Integer.toString(i))); Aber in die Kafka-docs, ich kann
2
Antworten
Ich versuche, die Implementierung eines kafka Verbraucher in scala. Ich habe gesehen, eine million tutorials für, wie es in Java, und sogar einige ( wie diese ), die sagen, dass es für scala, aber es ist in
7
Antworten
Bin ich mit Spark Streaming zum verarbeiten von Daten zwischen zwei Kafka Warteschlangen, aber ich kann nicht scheinen zu finden ein guter Weg, um zu schreiben, auf Kafka aus Funken. Ich habe dies ausprobiert: input.foreachRDD(rdd => rdd.foreachPartition(partition
2
Antworten
Ich bin auf der Suche nach Aufklärung über das Thema. In Kafka-Dokumentationen habe ich Folgendes gefunden: Kafka stellt nur eine totale Ordnung über Nachrichten innerhalb einer partition, nicht zwischen verschiedenen Partitionen in ein Thema. Pro-partition Bestellung in
2
Antworten
Nach dem einrichten der Kafka-Broker-Clusters und erstellen Sie einige Themen, die wir gefunden, dass die folgenden zwei Themen werden automatisch erstellt, indem Kafka: __consumer_offsets _schema Was ist die Bedeutung und Verwendung dieser Themen ? InformationsquelleAutor Anveshak |
1
Antworten
Vom release 0.8.1.1, Kafka stellt die Regelung für die Speicherung des offsets im Kafka, anstatt Tierpfleger (siehe diese). Ich bin nicht in der Lage, herauszufinden, wie Sie die details des offsets verbraucht, als die aktuelle tools bieten
6
Antworten
Folgte ich einer hervorragende Schritt-für-Schritt-Anleitung für die Installation von Kafka auf Linux. Alles funktionierte gut für mich, bis ich Linux neu gestartet. Nach dem Neustart bekomme ich die folgende Fehlermeldung, wenn ich versuche, Sie zu konsumieren, eine
4
Antworten
Ich untersuche Kafka 9 als ein hobby-Projekt abgeschlossen und ein paar "Hello World" geben Sie Beispiele. Habe ich zu denken über die Reale Welt-Kafka-Anwendungen auf Basis von request-response messaging im Allgemeinen und speziell, wie die Verknüpfung eines
5
Antworten
Überprüfen müssen-Tools zum überwachen von Kafka in der Produktion. Auch tool benötigt keine Lizenz oder schwere hardware. Insbesondere brauche ich ein tool zum bewerten von Verbraucher-offset auf Thema Gesundheit Thema. Ich persönlich verwendet haben, datadog datadoghq.com/blog/monitor-kafka-with-datadog Ich
4
Antworten
Ich Schreibe ein kafka Verbraucher mit Java. Ich will, dass die Echtzeit von der Nachricht, also wenn es zu viele Nachrichten warten auf Sie konsumieren, wie 1000 oder mehr, sollte ich aufgeben, die nicht verbrauchten Nachrichten und
5
Antworten
Mit kubernetes-kafka als Ausgangspunkt mit minikube. Dieser verwendet eine StatefulSet und ein headless service für service-discovery innerhalb des Clusters. Das Ziel ist, setzen die individuellen Kafka-Broker extern, welche intern angesprochen: kafka-0.broker.kafka.svc.cluster.local:9092 kafka-1.broker.kafka.svc.cluster.local:9092 kafka-2.broker.kafka.svc.cluster.local:9092 Die Einschränkung ist, dass
6
Antworten
Ich bin neu auf Kafka und versuchen, setup-Umgebung für Sie . Ich versuche zu laufen, die einen einzelnen Knoten Kafka, aber ich bin immer Fehler in diesem. Folgenden folgenden Schritte auf mac 1. brew install zookeeper 2.
1
Antworten
Wenn instanziiere ich ein Kafka Verbraucher KafkaConsumer<String,String> consumer = new KafkaConsumer<String,String>(props); Bekomme ich diese Meldung SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder". SLF4J: Defaulting to no-operation (NOP) logger implementation SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details. Wie aktiviere ich
5
Antworten
Ich versuche, herauszufinden, welche offsets meine aktuellen High-Level-Verbraucher sind arbeiten aus. Ich benutze Kafka 0.8.2.1, mit keine "versetzt.Speicher" in der server.Eigenschaften des Kafka - die, wie ich denke, bedeutet, dass die offsets gespeichert sind, in Kafka. (Ich
2
Antworten
Ich bin mit kafka 0.10.1.1 und verwirrt mit den folgenden 3 Eigenschaften. heartbeat.interval.ms session.timeout.ms max.poll.interval.ms Herzschlag.Intervall.ms - Dies wurde Hinzugefügt, in 0.10.1 und es sendet ein heartbeat zwischen Umfragen. Sitzung.timeout.ms - Diese ist zu Beginn ein rebalancing,
3
Antworten
Sind wir mit einem problem konfrontiert, mit Kafka. Wir haben ein Thema mit nur einer partition und nur ein Verbraucher in einer Verbraucher-Gruppe. Der Verbraucher angehalten worden ist, für einen Monat. In der Zwischenzeit, Produzenten senden von
1
Antworten
Ich bin ein Anfänger zu Redis und Kafka. Redis kann verwendet werden, als Echtzeit-pub-sub. Aber Kafka ist auch Echtzeit-pub-sub. Ich bin verwirrt, die man zu nutzen, wenn. Jeder Anwendungsfall wäre eine große Hilfe! Danke! InformationsquelleAutor Sweta Sharma
2
Antworten
Habe ich einige JUnit-tests auf code, der verwendet kafka Thema. Die mock-kafka-Themen, die ich probiert habe funktionieren nicht, und die Beispiele, die online zu finden sind, sehr alt, so dass Sie sich auch nicht, die Arbeit mit
2
Antworten
Mit in meine Feder-boot-service beim starten einer kafka-Verbraucher sehen NoSuchBeanDefinitionException und konnte nicht starten Sie den Dienst selbst. Unten ist mein bean-Klasse, das über alle erforderlichen beans erstellt für Kafka Konfiguration Spring Boot-Version: 1.5.2.RELEASE import java.util.HashMap; import
3
Antworten
--Verbraucher Properties props = new Properties(); String groupId = "consumer-tutorial-group"; List<String> topics = Arrays.asList("consumer-tutorial"); props.put("bootstrap.servers", "192.168.1.75:9092"); props.put("group.id", groupId); props.put("enable.auto.commit", "true"); props.put("key.deserializer", StringDeserializer.class.getName()); props.put("value.deserializer", StringDeserializer.class.getName()); KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props); try { consumer.subscribe(topics); while (true) {