Tag: sbt-assembly
sbt-Montage ist ein sbt-plugin für den Bau einer einzigen JAR-Datei des Projekts.
8
Antworten
Baue ich ein Apache-Spark-Applikation in Scala und ich bin mit SBT, um es zu bauen. Hier ist die Sache: wenn ich die Entwicklung unter IntelliJ IDEA, ich will Funken Abhängigkeiten in den classpath (ich bin der Einführung
1
Antworten
Ich habe versucht, eine Menge von Lösungen, die ich finden konnte zu diesem Thema. Vor allem von Ihnen, sbt Baugruppe Befehl nicht gefunden sah das am meisten verwandt, aber nicht es zu lösen. Ich bin mit sbt
3
Antworten
Ich versuche installieren sbt-Baugruppe, indem Sie die folgenden Anweisungen um eine stand-alone-Glas, dass auf einem Rechner laufen können, ohne scala installiert. So weit dies sind die Schritte, die ich gemacht habe. Erstellte ich ein plugins.sbt-Datei: $ cat
4
Antworten
Während der Ausführung sbt Befehl in ein leeres Verzeichnis, es hält fehlschlägt, mit der folgenden Ausnahme: $ sbt [info] Loading global plugins from /Users/jacek/.sbt/0.13/plugins Error wrapping InputStream in GZIPInputStream: java.io.EOFException at sbt.ErrorHandling$.translate(ErrorHandling.scala:11) at sbt.WrapUsing.open(Using.scala:36) at sbt.Using.apply(Using.scala:24) at
4
Antworten
Hier ist ein Beispiel build.sbt: import AssemblyKeys._ assemblySettings buildInfoSettings net.virtualvoid.sbt.graph.Plugin.graphSettings name := "scala-app-template" version := "0.1" scalaVersion := "2.9.3" val FunnyRuntime = config("funnyruntime") extend(Compile) libraryDependencies += "org.spark-project" %% "spark-core" % "0.7.3" % "provided" sourceGenerators in Compile <+=
2
Antworten
hey Leute, ich bin versuchen zu bauen ein JAR mit den Abhängigkeiten unter Verwendung sbt-Montage. Aber ich bin mit in diese Fehlermeldung wieder und wieder. Ich habe versucht mehrere verschiedene Dinge, aber ich Ende hier. Ich bin
2
Antworten
Lief ich Funke Anwendung und will, pack die test-Klassen in das Fett jar. Was ist komisch ist, dass ich ran "sbt Baugruppe" erfolgreich, aber nicht, wenn ich ran "sbt-test:Montage". Versuchte ich sbt-Montage : inklusive test-Klassen, es funktionierte
6
Antworten
Ich versuche, eine Probe wie https://github.com/apache/spark/blob/master/examples/src/main/scala/org/apache/spark/examples/sql/streaming/StructuredKafkaWordCount.scala. Angefangen habe ich mit der Funke Strukturierte Streaming Programming guide bei http://spark.apache.org/docs/latest/structured-streaming-programming-guide.html. Mein code ist package io.boontadata.spark.job1 import org.apache.spark.sql.SparkSession object DirectKafkaAggregateEvents { val FIELD_MESSAGE_ID = 0 val FIELD_DEVICE_ID = 1 val
2
Antworten
Ist es möglich, zu laufen sbt-Montage innerhalb von IntelliJ IDEA? Außerdem lese ich in der doc, man könnte hinzufügen Aufgabe innerhalb der SBT-Tool-Fenster. Aber was ich sehe, ist, dass es nur hilft Ihnen sehen Sie Ihr Projekt
1
Antworten
Bisher habe ich schon das kompilieren meiner Scala Projekt mit SBT (über Typesafe-stack). Ich möchte den code ausführen über mehrere Maschinen über sbt-Montage. Folgende Richtungen, die einzige änderung, die ich gemacht hatte, war in meinem project/Build.scala -
3
Antworten
Mein Projekt hat Abhängigkeiten auf eine JAR-Datei, die sich nicht in Ivy, wie kann ich Sie direkt in den final JAR Ausgabe von sbt-Montage? InformationsquelleAutor der Frage Garrett Hall | 2013-09-11
5
Antworten
Ich versuche, zu konvertieren, ein scala-Projekt in eine bereitstellbare fat jar mit sbt-Montage. Wenn ich meine Montage Aufgabe im sbt und ich erhalte die folgende Fehlermeldung: Merging 'org/apache/commons/logging/impl/SimpleLog.class' with strategy 'deduplicate' :assembly: deduplicate: different file contents found
1
Antworten
Ich habe gerade stolperte über die sbt-pack plugin. Die Entwicklung der stream scheint stetige. Es ist für mich überraschend, da ich glaubte, dass das plugin nur für (Zitat sbt-pack die headline) "erstellen von verteilbaren Scala-Pakete." ist sbt-Montage
5
Antworten
Ich versuche zu laufen sbt Baugruppe. Nach https://github.com/sbt/sbt-assembly , für sbt 0.13.6+ (ich bin auf 0.13.7) diese aufgenommen werden sollten, automatisch für alles, was mit dem JvmPlugin. Nach sbt plugins ich habe die JvmPlugin aktiviert in root.
3
Antworten
Hier ist ein Beispiel build.sbt: import AssemblyKeys._ assemblySettings buildInfoSettings net.virtualvoid.sbt.graph.Plugin.graphSettings name := "scala-app-template" version := "0.1" scalaVersion := "2.9.3" val FunnyRuntime = config("funnyruntime") extend(Compile) libraryDependencies += "org.spark-project" %% "spark-core" % "0.7.3" % "provided" sourceGenerators in Compile <+=
3
Antworten
Ich bin mir nicht sicher, ob mergestrategy oder ausschließen Gläser ist die beste option hier. Jede Hilfe, wie mache ich nun weiter mit diesem Fehler wird groß sein! [sameert@pzxdcc0151 approxstrmatch]$ sbt assembly [info] Loading project definition from