Tag: kafka-consumer-api
Verwenden Sie für Fragen im Zusammenhang mit dem Apache Kafka Verbraucher-API
2
Antworten
Ich bin dabei, eine streaming-Datenbank für die stream-Analyse. Kann jemand mir das Schritt Weise code aktualisieren, den Kafka Nachricht in Datenbank wie mySQL oder Stock verwenden Sie es für die Analyse? Richte ich meine Tierpfleger und Kafka,
1
Antworten
Ich bin mit kafka 0.9.0.1 broker und 0.9.0.1 consumer client. Meine consumer-Instanzen verbrauchen Datensätze mit einer Bearbeitungszeit von weniger als 1 Sekunde. Und anderen wichtigen configs sind enable.auto.commit=false session.timeout.ms=30000 heartbeat.interval.ms=25000 Ich mich verpflichtet offset nach der Verarbeitung.
3
Antworten
Wie lange dauert kafka speichern der offset der Verbraucher nach alle Verbraucher in dieser Gruppe scheitern? Gibt es eine Konfigurations-variable? InformationsquelleAutor masih | 2016-05-02
1
Antworten
Es gibt durchaus ein paar Antworten zu diesem Thema aber nichts funktionierte. Ich versuche, führen Sie die folgenden streams-Prozessor. object simplestream extends App { val builder: KStreamBuilder = new KStreamBuilder val streamingConfig = { //ToDo - Move
1
Antworten
Ich frisch installiert, Tierpfleger & kafka beiden. Ich begann Sie beide. Dann, wenn ich will, um zu sehen, die Liste der Themen, die mit diesem Befehl: bin/kafka-topics.sh --list --zookeeper localhost 2181 Es gibt mir die socket-Verbindung geschlossen.
4
Antworten
Weiß ich, es gibt einen Weg, um dies zu tun, aber ich bin nicht in der Lage, um dies herauszufinden. Muss ich halt die kafka-Verbraucher, wenn ich Lesen Sie alle Nachrichten aus der Warteschlange. Kann jemand irgendwelche
2
Antworten
wenn ich den folgenden Befehl mit kafka 0.9.0.1 bekomme ich diese Warnungen[1]. Können Sie mir bitte sagen, was ist falsch mit meinen Themen? (Ich spreche auf die kafka-broker, die in ec2) #./kafka-console-consumer.sh --new-consumer --bootstrap-server kafka.xx.com:9092 --topic MY_TOPIC?
3
Antworten
Arbeite ich mit Kafka 0.9.1 neue Verbraucher-API. Der Verbraucher wird manuell eine partition zugewiesen. Für diese Verbraucher ich würde gerne sehen, seine Fortschritte (im Sinne der lag). Da ich Hinzugefügt die Gruppen-id, Verbraucher-tutorial als Eigenschaft, die ich
1
Antworten
Begann ich mit spring-integration-kafka in mein Projekt, und ich kann das produzieren und konsumieren von Nachrichten von Kafka. Aber jetzt, ich wollen, um zu produzieren-Nachricht an bestimmte partition und verbrauchen auch Nachricht von der entsprechenden partition. Beispiel,
2
Antworten
Kann mir bitte jemand sagen, was das rebalancing-Algorithmus ist für Kafka die Verbraucher? Ich würde gerne verstehen, wie-partition zu zählen-und consumer-threads beeinflussen. Danke, mögliche Duplikate von Kafka Verbraucher Rebalancing Danke für den input, aber, dass doesn '
1
Antworten
9.0-client zu verbrauchen, Nachrichten von zwei Maklern, die auf einem remote-system.Mein Produzent ist in Ordnung, und ist in der Lage, zum senden von Nachrichten an den broker, aber meine Verbraucher ist nicht in der Lage zu konsumieren,
1
Antworten
Ich bin mit dem Playframework zusammen mit Scala. Ich bin versucht zu verarbeiten von Daten von Kafka, die Daten zu verarbeiten, und drücken Sie dann die Daten per websockets an den client. Leider bin ich noch relativ
1
Antworten
KeyedMessage<String, byte> keyedMessage = new KeyedMessage<String, byte>(request.getRequestTopicName(), SerializationUtils.serialize(message)); producer.send(keyedMessage); Derzeit, ich bin das senden von Nachrichten, ohne den Schlüssel als Teil des keyed-Nachrichten, wird es immer noch funktionieren mit delete.retention.ms? Brauche ich zum senden einer Taste als
2
Antworten
Wir haben eine ziemlich strenge Netzwerk-Segmentierung-Politik. Ich bin mit einer cloud-foundry-Instanz bereitstellen, die ein app. Die firewall-Regeln, die eingerichtet wurden, um erreichen die kafka-cluster innerhalb der cloud foundry Instanz. Ich glaube, dass die firewall-Regeln wurden auch eingerichtet,
3
Antworten
Bin ich angefangen zu lernen, Kafka für enterprise-Lösung Zwecken. Während meiner Lesungen, einige Fragen, die mir in den Sinn kam: Wenn ein Hersteller produziert eine Nachricht - es wird angeben, das Thema es will, um die Nachricht
1
Antworten
Habe ich erstellt multi-thread-Verbraucher app funktioniert auf verschiedenen Partitionen. Auf der Suche in verschiedenen blogs kam ich zu wissen über " max.poll.records' - Eigenschaft, um die Kontrolle über die Menge der Datensätze aus bestimmtes Thema, eine partition.(so
1
Antworten
Dokument https://www.safaribooksonline.com/library/view/kafka-the-definitive/9781491936153/ch04.html sagt, dass "Beachten Sie, dass mit auto-commit aktiviert, wird ein Anruf zum poll wird immer Begehen der letzten offset zurückgegeben, die von der vorherigen Umfrage. Sie wissen nicht, welche Ereignisse tatsächlich waren verarbeitet, so ist
3
Antworten
Wenn ich versuche, Sie zu konsumieren Nachrichten aus der kafka-server, die gehostet wird in ec2 mit kafka-console (V 0.9.0.1 , ich denke, das nutzt alte Verbraucher-APIs) Ich bekomme folgende exception. Wie kann ich das umgehen? #./kafka-console-consumer.sh --Tierpfleger
4
Antworten
Ich bin mit 0.9.0.0-version von Kafka, und ich möchte, um die Anzahl der Nachrichten in einem Thema, ohne mit dem admin-script kafka-console-consumer.sh. Habe ich versucht, alle Befehle in der Antwort Java, Wie man die Anzahl der Nachrichten
2
Antworten
Ich bin auf der Suche nach Aufklärung über das Thema. In Kafka-Dokumentationen habe ich Folgendes gefunden: Kafka stellt nur eine totale Ordnung über Nachrichten innerhalb einer partition, nicht zwischen verschiedenen Partitionen in ein Thema. Pro-partition Bestellung in
4
Antworten
Ich untersuche Kafka 9 als ein hobby-Projekt abgeschlossen und ein paar "Hello World" geben Sie Beispiele. Habe ich zu denken über die Reale Welt-Kafka-Anwendungen auf Basis von request-response messaging im Allgemeinen und speziell, wie die Verknüpfung eines
4
Antworten
Ich Schreibe ein kafka Verbraucher mit Java. Ich will, dass die Echtzeit von der Nachricht, also wenn es zu viele Nachrichten warten auf Sie konsumieren, wie 1000 oder mehr, sollte ich aufgeben, die nicht verbrauchten Nachrichten und
5
Antworten
Ich versuche, herauszufinden, welche offsets meine aktuellen High-Level-Verbraucher sind arbeiten aus. Ich benutze Kafka 0.8.2.1, mit keine "versetzt.Speicher" in der server.Eigenschaften des Kafka - die, wie ich denke, bedeutet, dass die offsets gespeichert sind, in Kafka. (Ich
2
Antworten
Ich bin mit kafka 0.10.1.1 und verwirrt mit den folgenden 3 Eigenschaften. heartbeat.interval.ms session.timeout.ms max.poll.interval.ms Herzschlag.Intervall.ms - Dies wurde Hinzugefügt, in 0.10.1 und es sendet ein heartbeat zwischen Umfragen. Sitzung.timeout.ms - Diese ist zu Beginn ein rebalancing,
3
Antworten
Sind wir mit einem problem konfrontiert, mit Kafka. Wir haben ein Thema mit nur einer partition und nur ein Verbraucher in einer Verbraucher-Gruppe. Der Verbraucher angehalten worden ist, für einen Monat. In der Zwischenzeit, Produzenten senden von
2
Antworten
Mit in meine Feder-boot-service beim starten einer kafka-Verbraucher sehen NoSuchBeanDefinitionException und konnte nicht starten Sie den Dienst selbst. Unten ist mein bean-Klasse, das über alle erforderlichen beans erstellt für Kafka Konfiguration Spring Boot-Version: 1.5.2.RELEASE import java.util.HashMap; import
3
Antworten
--Verbraucher Properties props = new Properties(); String groupId = "consumer-tutorial-group"; List<String> topics = Arrays.asList("consumer-tutorial"); props.put("bootstrap.servers", "192.168.1.75:9092"); props.put("group.id", groupId); props.put("enable.auto.commit", "true"); props.put("key.deserializer", StringDeserializer.class.getName()); props.put("value.deserializer", StringDeserializer.class.getName()); KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props); try { consumer.subscribe(topics); while (true) {
2
Antworten
Ich bin derzeit mit Kafka 0.9.0.1. Nach einigen Quellen, die ich gefunden habe, ist der Weg, um die Größe von Nachrichten ist, ändern Sie die folgenden Schlüssel-Werte in server.properties. Nachricht.max.bytes Replik.Holen.max.bytes Holen.Nachricht.max.bytes Meine server.properties Datei hat eigentlich
1
Antworten
producer sendet die Nachrichten 1, 2, 3, 4 consumer empfängt die Nachrichten 1, 2, 3, 4 consumer crashes/disconnects producer sendet Nachrichten 5, 6, 7 consumer zurück kommt und den Empfang von Nachrichten ab 5 statt 7 Für
1
Antworten
Ich Baue Nachrichten mit folgenden code... Producer<String, String> producer = new kafka.javaapi.producer.Producer<String, String>(producerConfig); KeyedMessage<String, String> keyedMsg = new KeyedMessage<String, String>(topic, "device-420", "{message:'hello world'}"); producer.send(keyedMsg); Und Konsum mit dem folgenden code-block... //Key = topic name, Value = No.
3
Antworten
habe ich bereits angefangen zu lernen, Kafka. Versuchen grundlegende Operationen auf. Ich habe hier auf einem Punkt, über den 'Vermittler'. Mein kafka läuft, aber wenn ich möchte, um eine partition zu erstellen. from kafka import TopicPartition (ERROR
2
Antworten
Ich bin neu auf Kafka,und ich weiß nicht wirklich verstehen, die Bedeutung der Kafka-Konfiguration, kann mir jemand erklären, besser verständlich für mich ! Hier ist mein code: val kafkaParams = Map[String, Object]( "bootstrap.servers" -> "master:9092,slave1:9092", "key.deserializer" ->
1
Antworten
wenn ich kafka0.8.x,ich kann alle Gruppen-Prozess mit dem Tierpfleger durch den Pfad /consumers/group_id, da die offsets zu Begehen, zu Tierpflegerin in 0.8.x. Aber in der version 0.10.x-offsets verpflichtet kafka broker wie ein Pfad /brokers/topics/__consumer_offsets und Weg /consumers
4
Antworten
Ich würde gerne alle Nachrichten, die Sie von Anfang in ein Thema aus dem server. Ex: bin/kafka-console-consumer.sh --Tierpfleger localhost:2181 --Thema testTopic-von-Anfang Bei der Verwendung der oben genannten Konsole mit dem Befehl, ich möchte in der Lage, alle
2
Antworten
Ich bin manuell starten, Tierpfleger, dann Kafka-server und schließlich die Kafka-Rest-server mit Ihren jeweiligen Eigenschaften-Datei. Weiter bin ich der Nutzung meiner Spring-Boot-Anwendung, die auf tomcat In das Tomcat-log trace, erhalte ich den Fehler org.springframework.context.ApplicationContextException: Failed to start
5
Antworten
Habe ich die Schaffung einer einfachen, Kafka Producer & Consumer.Ich bin mit kafka_2.11-0.9.0.0. Hier ist mein Erzeuger-code, public class KafkaProducerTest { public static String topicName = "test-topic-2"; public static void main(String args) { //TODO Auto-generated method stub
1
Antworten
Einer meiner Dienste aufgehört zu arbeiten ein paar Stunden. Ich habe neu gestartet, der server aber dieses Verbraucher-Prozess ist nicht nur die Registrierung bei Kafka. Dies ist, was zeigt sich, wenn der Verbraucher gestartet : 2017-04-21 10:22:54.887
2
Antworten
Kafka ist verwirrend mich. Bei mir läuft es lokal mit standard-Werten. nur auto-Thema erstellen aktiviert. 1 partition, 1 Knoten, alles lokal und einfach. Wenn Sie schreiben consumer.subscribe("test_topic"); consumer.poll(10); Es funktioniert einfach nicht und nie findet keine Daten.
3
Antworten
Ich würde gerne einige Antwort vom Makler, wenn ich eine Meldung erzeugen. Ich habe versucht CallBack-Mechanismus (durch implementieren CallBack) verwendet, in KafkaProducer.send aber es hat nicht funktioniert, und nicht, rufen Sie onCompletion Methode. Wenn ich shutdown-Kafka-server und
4
Antworten
Ich habe setup eine kafka Tierpfleger und 3 Broker auf einer Maschine, die auf ec2 mit ports 9092..9094 und versuche zu verbrauchen, das Thema von einer anderen Maschine. Die ports 2181 (zk), 9092, 9093 und 9094 (Server)
2
Antworten
Ich werde von Anfang an. Ich habe openSuse 13.2 habe ich auch jdk_1.7.0_51, scala-2.11.4-und gradle-2.2.1. Ich heruntergeladen haben Quelle des kafka-0.8.2-Wette-src und führen Sie ./gradlew Befehle so, wie Sie wo geschrieben in der readme-Datei. Alle Befehle wo
3
Antworten
Ich versuche zu testen, führen Sie eine einzelne Kafka-Knoten mit 3 Broker & Tierpfleger. Ich wünschte, um zu testen, mit Hilfe der console-tools. Ich betreibe die Produzenten als solche: kafka-console-producer --broker-list localhost:9092,localhost:9093,localhost:9094 --topic testTopic Dann Lauf ich
3
Antworten
wir haben problem mit Kafka. manchmal Plötzlich, ohne Warnung, wir gehen aus der Synchronisation und beginnen, um Ausnahmen, wenn emitting Veranstaltungen. Ausnahme, die wir bekommen java.io.IOException: Too many open files es scheint, dies ist eine Allgemeine Ausnahme,
1
Antworten
Was ist der Unterschied zwischen den unter zwei Abhängigkeiten? Brauche ich wirklich die erste, die ein Verbraucher oder Produzent app? <dependencies> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka_2.9.2</artifactId> <version>0.8.2.1</version> </dependency> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>0.8.2.1</version> </dependency> </dependencies> Mein Produzent funktioniert nur mit
5
Antworten
Habe ich frischen installation von Apache Kafka 0.10.1.0. War ich in der Lage zu senden /empfangen von Nachrichten auf Eingabeaufforderung. Während der Verwendung Producer /Consumer-Java-Beispiel, ich bin nicht in der Lage zu wissen, Gruppe.id parameter auf Verbraucher-Beispiel.
2
Antworten
Ich bin mit Kafka mit Spring-boot: Kafka-Producer-Klasse: @Service public class MyKafkaProducer { @Autowired private KafkaTemplate<String, String> kafkaTemplate; private static Logger LOGGER = LoggerFactory.getLogger(NotificationDispatcherSender.class); //Send Message public void sendMessage(String topicName, String message) throws Exception { LOGGER.debug("========topic Name===== "
2
Antworten
Ich erhalte Ausnahme beim start Kafka Verbraucher. org.apache.kafka.Kunden.Verbraucher.OffsetOutOfRangeException: Offsets aus der Reihe mit keiner der konfigurierten reset-Politik für die Partitionen{test-0=29898318} Ich bin mit Kafka version 9.0.0 mit Java 7. hast du eine Lösung dafür ? InformationsquelleAutor basit
4
Antworten
Ich bin vor einigen ernsten Problemen zu versuchen, eine Lösung für meine Bedürfnisse, in Bezug auf KafkaConsumer (>=0.9). Let ' s vorstellen, ich habe eine Funktion, die zu Lesen einfach n Nachrichten aus einem kafka-Thema. Beispiel: getMsgs(5)
3
Antworten
Bekommen wir alle Nachrichten von Kafka by doing: bin/kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning Gibt es einen Weg, um nur die Letzte Nachricht ? EDIT: Wenn Sie wollen einfach nur zum überwachen von Meldungen (--max-messages 10) in
3
Antworten
Ich bin neu auf kafka und versuchen zu verstehen, ob es eine Möglichkeit gibt Nachrichten zu Lesen aus dem letzten verbrauchten offset, aber nicht von Anfang an. Schreibe ich ein Beispiel-Fall, so dass meine Absicht nicht bekommen