Tag: scala

Scala ist eine Allzweck-Programmiersprache, die grundsätzlich Ausrichtung der Java Virtual Machine. Entwickelt, um express-common programming patterns in einer prägnant, elegant und typsicher Weise, es verschmilzt die beiden imperative und funktionale Programmierung-Stile. Seine Hauptmerkmale sind:
erweiterte statische Typ-system mit Typ-Inferenz ist;
Funktion Typen; pattern-matching; implizite Parameter und Umbauten; operator überladen; die volle Interoperabilität mit Java; Parallelität

Überspringen der ersten N Elemente in scala durchsuchbar

Anzahl der Antworten 1 Antworten
Ich würde gerne wissen, ob scala enthält eine Möglichkeit zum überspringen der ersten N Elemente eines durchsuchbar, so dass z.B. (1 to 5).WHATIWANT(3).foreach(println(_)) drucken würde nur 4 und 5. Verstehe ich es schneiden, aber wenn die Länge

die Vermeidung werfen, um Nichts in der generischen Methode

Anzahl der Antworten 4 Antworten
scala> def foo[U](t: Any) = t.asInstanceOf[U] foo: [U](t: Any)U scala> val s: String = foo("hi") scala> val n = foo("hi") java.lang.ClassCastException: java.lang.String cannot be cast to scala.runtime.Nothing$ at .<init>(<console>:6) at .<clinit>(<console>) at RequestResult$.<init>(<console>:9) at RequestResult$.<clinit>(<console>) at RequestResult$scala_repl_result(<console>)

Konvertieren leeren string in eine None in Scala

Anzahl der Antworten 5 Antworten
Habe ich eine Anforderung zum verbinden von zwei potentiell leere Zeilen Adresse in ein (mit einem Leerzeichen zwischen die zwei Linien), aber ich brauche es, um wieder eine None wenn beide Zeilen Adresse sind None (dieses Feld

Wie kann ich eine for-Schleife zu parallelisieren, in der Funke mit scala?

Anzahl der Antworten 2 Antworten
Zum Beispiel haben wir eine Parkett-Datei mit 2000 Lager-Symbole " Schlusskurs in den letzten 3 Jahren, und wir wollen berechnen, die 5-Tage gleitenden Durchschnitt für jedes symbol. Damit ich einen Funken zu erzeugen SQLContext und dann val

Umbenennen und Überschreiben Sie equals-Methode in Fall Klasse

Anzahl der Antworten 3 Antworten
Möchte ich definieren, eine Eigenschaft namens Ext benennt, dass die bestehenden equals Methode equalsByAttributes und definiert eine neue equals Methode zur gleichen Zeit. Das Merkmal verwendet wird erweitern Fall Klassen. Meine aktuelle Lösung sieht irgendwie hacky: case

Url für das HDFS-Dateisystem

Anzahl der Antworten 2 Antworten
Habe ich einige Daten in HDFS /user/Cloudera/Test/*. Ich bin sehr gut in der Lage, um zu sehen, die Datensätze durch ausführen hdfs -dfs -cat Test/*. Nun die gleiche Datei, die ich brauche, es zu Lesen, als der

Subtyp in Scala: was ist "Typ-X - <: Y"?

Anzahl der Antworten 2 Antworten
Kann mir jemand erklären, subtype(<:) im folgenden code? Warum es verwendet werden könnte, wie das? Wenn wir nutzen? Danke. trait SwingApi { type ValueChanged <: Event val ValueChanged: { def unapply(x: Event): Option[TextField] } type ButtonClicked <:

UnsatisfiedLinkError: no snappyjava in java.Bibliothek.Pfad beim ausführen von Spark MLLib Unit test innerhalb von Intellij

Anzahl der Antworten 4 Antworten
Folgende Ausnahme aufgetreten ist, wenn ein spark unit-test, der erfordert, snappy compression: java.lang.reflect.InvocationTargetException at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.xerial.snappy.SnappyLoader.loadNativeLibrary(SnappyLoader.java:317) at org.xerial.snappy.SnappyLoader.load(SnappyLoader.java:219) at org.xerial.snappy.Snappy.<clinit>(Snappy.java:44) at org.apache.spark.io.SnappyCompressionCodec.<init>(CompressionCodec.scala:150) at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)

Wie de-escape-string in scala?

Anzahl der Antworten 3 Antworten
Fand ich viele Beiträge über Flucht-string aber nicht über de-Flucht ein. Mit Scala Spielen, mein controller akzeptieren JSON als eine Anfrage. Ich extrahieren eines string aus es über: val text: play.api.libs.json.JsValue = request.body.\("source") Wenn ich drucken text.toString

Fehler beim ausführen Tornetz.alchim31.maven:scala-maven-plugin:3.2.2

Anzahl der Antworten 3 Antworten
Beim kompilieren des Maven-Projekt der folgende Fehler aufgetreten ist: [INFO] --- scala-maven-plugin:3.2.2:compile (scala-compile-first) @ spark-streaming-flume-sink_2.10 --- [WARNING] Zinc server is not available at port 3030 - reverting to normal incremental compile [INFO] Using incremental compilation [INFO] Compiling

SparkSQL Fehler bei der Verwendung von SQL-DATE-Funktion

Anzahl der Antworten 2 Antworten
Spark ich versuche zum ausführen von SQL-Abfragen über eine temporäre Tabelle, abgeleitet von einem Daten-frame, die ich manuell gebaut, durch das Lesen einer csv-Datei und die Umwandlung der Spalten in den richtigen Datentyp. Insbesondere die Tabelle, die

Matching mehrerer exception-Typen der gleiche Fall

Anzahl der Antworten 1 Antworten
Beim pattern-matching wird eine Ausnahme mit einer case-Anweisung, gibt es eine einfachere Methode für das matching der gleichen Ausnahme von eine Reihe von exception-Typen? Stattdessen: } catch { case e if e.isInstanceOf[MappingException] || e.isInstanceOf[ParseException] => Sowas wäre

Warten Sie, bis alle Zukunft.onComplete Rückrufe werden ausgeführt

Anzahl der Antworten 2 Antworten
Ich bin mit der Future API von Scala 2.10.X. Hier ist mein use-case: object Class1 { def apply(f: (Int) => Future[String])(i: Int): Future[String] = { val start = DateTime.now val result = f(i) result.onComplete{ case _ =>

Unterschied zwischen und Falten reduzieren

Anzahl der Antworten 4 Antworten
Lesen dieses Artikels zu reduzieren, vs Falten in Scala http://josephmoniz.github.io/blog/2013/04/04/scala-reduce-vs-fold/ es heißt "Sie nehmen einen gewissen Wert von N und die Durchführung aggregation-Operationen, so dass das Endergebnis ist in der Regel einen Wert von <= N." Aber

Qualität Verlust mit ImageIO.schreiben

Anzahl der Antworten 4 Antworten
Habe ich noticied erheblichen Qualitätsverlust mit ImageIO.schreiben, wie kann ich die automatische Komprimierung deaktivieren ? val baos: ByteArrayOutputStream = new ByteArrayOutputStream val newBi = new BufferedImage(img.getWidth, img.getHeight, BufferedImage.TYPE_INT_RGB) val gr = newBi.createGraphics() gr.drawImage(img, 0, 0, img.getWidth(), img.getHeight(),

apache-spark-regex extrahieren Wörter aus rdd

Anzahl der Antworten 2 Antworten
Ich versuche, zu extrahieren Wörter aus einer Textdatei. Textdatei: "Line1 with words to extract" "Line2 with words to extract" "Line3 with words to extract" Folgendes gut funktioniert: val data = sc.textFile(file_in).map(_.toLowerCase).cache() val all = data.flatMap(a => "[a-zA-Z]+".r

Martin Odersky ist ScalaDay 2011 Beispiel: was eine Karte?

Anzahl der Antworten 3 Antworten
Ich war arbeiten durch Odersky ist ScalaDays 2011 keynote sprechen, wo er baut eine Telefonnummer synonym generator in erstaunlich wenigen Zeilen code, wenn ich diese bestimmte Zeile (Zuordnung charCode): val mnem: Map[Char, String] = //phone digits to

FEHLER Vollzieher: Ausnahme, die im task-0.0 Bühne 6.0 Funke scala?

Anzahl der Antworten 1 Antworten
Habe ich eine json-Datei wie unten. {"name":"method2","name1":"test","parameter1":"C:/Users/test/Desktop/Online.csv","parameter2": 1.0} Ich bin laden meine json-Datei. val sqlContext = new org.apache.spark.sql.SQLContext(sc) val df = sqlContext.read.json("C:/Users/test/Desktop/data.json") val df1=df.select($"name",$"parameter1",$"parameter2").toDF() df1.show() Ich habe 3 Funktion, wie unten: def method1(P1:String, P2:Double) { val data

Zugriff auf Variablen aus einer anderen Klasse in Scala

Anzahl der Antworten 2 Antworten
Wie würde ich den Zugriff auf vorhandene variable Daten in Scala. Ich gebe Ihnen ein Beispiel: Klasse Lagerung: Hat eine Karte (und andere Daten, die ich benutze) In der Klasse A: val storageManager = new storage(); storageManager.putValue("key","value");

Wie rein und faul kann Scala sein?

Anzahl der Antworten 3 Antworten
Dies ist nur eine von diesen "ich Frage mich..." - Fragen. Scala hat unveränderliche Datenstrukturen und (optional) lazy vals etc. Wie nah kann ein Scala-Programm an, das voll rein (in die funktionale Programmierung Sinn) und voll faul

Bekomme ich einen compile-time-Liste aller der Fall Objekte, die sich aus einem verschlossenen Elternteil in Scala?

Anzahl der Antworten 2 Antworten
Als diskutiert wurde, viele Male auf SO eine Scala-Spiel wird Sie warnen, wenn Sie nicht abschließend aufgeführt sind alle Typen, die sich aus einer versiegelten Klasse. Was ich will, ist eine compile-Zeit generiert Iterierbar der Fall Objekte,

Wie zu verwenden mapPartitions Zündkerzen Scala?

Anzahl der Antworten 1 Antworten
Habe ich DocsRDD : RDD[String, String] val DocsRDD = sc.wholeTextFiles("myDirectory/*" , 2) DocsRDD: Doc1.txt , bla bla bla .....\n bla bla bla \n bla ... bla Doc2.txt , bla bla bla .....bla \n bla bla \n bla

Was ist der deal mit allen Entweder Reste?

Anzahl der Antworten 4 Antworten
Jeder Klasse sinnvoll erscheint und die Möglichkeiten der Verwendung es sind ziemlich offensichtlich. Aber dann schaue ich auf die API-Dokumentation, und ich bin verblüfft: def joinLeft [A1 >: A, B1 >: B, C] (implicit ev: <:<[A1, Either[C,

Wie deklarieren Sie einen Typ-alias in eine scala-Konstruktor?

Anzahl der Antworten 1 Antworten
Wenn ich eine Klasse nimmt, dass ein Tupel in seinem Konstruktor unter anderem Werte wie: class Foo(a: Int, b: String, c: (Int, String)) Wie benutze ich einen abstrakten Typ zu geben, die Tupel einer mehr beschreibenden Namen

Jackson Scala-Modul geschachtelte Listen und Maps

Anzahl der Antworten 4 Antworten
Möchte ich Listen konvertieren von json-Objekten, die in sich selbst enthalten können Json-Objekte oder Listen von Json-Objekten und möchte die Ergebnisse zu Scala-Karten oder-Listen als angemessen, jedoch kann ich nur die top-level-Objekt zu konvertieren, um eine Karte

Prüfen Sie, ob ein Objekt ein Feld in json4s/lift-json

Anzahl der Antworten 2 Antworten
Habe ich eine json mit einige Felder und ich möchte, um zu überprüfen, ob einige von Ihnen anwesend ist. Ich bin extrahieren Sie den Wert und testen Sie es gegen JNothing, aber es ist viel zu ausführlich:

Apache Spark: Wie konvertiere ich eine Funke DataFrame zu einer RDD mit Typ RDD - [(Type1,Type2, ...)]?

Anzahl der Antworten 1 Antworten
Angenommen, ich habe den DataFrame: var myDF = sc.parallelize(Seq(("one",1),("two",2),("three",3))).toDF("a", "b") Kann ich konvertieren, um ein RDD[(String, Int)] mit einer Karte: var myRDD = myDF.map(r => (r(0).asInstanceOf[String], r(1).asInstanceOf[Int])) Gibt es einen besseren Weg, dies zu tun, vielleicht mit

erstellen Sie eine neue Instanz eines Typs in scala

Anzahl der Antworten 3 Antworten
Wenn ich eine C-Klasse-definiert als class C[A] gibt es eine Möglichkeit zum erstellen einer neuen Instanz von A in C? So etwas wie class C[A] { def f(): A = new A() } Ich verstehe, dass, wenn

Scala: Filterung nach Typ

Anzahl der Antworten 5 Antworten
Ich bin zu lernen, Scala, wie es passt meine Bedürfnisse gut, aber ich finde es schwer zu Struktur-code aus. Ich bin in einer situation, wo ich einen List x und möchten, erstellen Sie zwei Lists: eine mit

Scala. Kann Fall Klasse mit einem Feld ein Wert der Klasse?

Anzahl der Antworten 4 Antworten
Scala 2.10 eingeführt Wert-Klassen. Sie sind sehr nützlich für das schreiben von typesafe-code. Zudem gibt es einige Einschränkungen, einige von Ihnen werden erkannt, durch die compiler, und einige erfordern Zuordnung in der runtime. Ich will Wert-Klassen mit

Wie Sie Lesen und schreiben Map<String, Object> von/für Parkett-Datei in Java oder Scala?

Anzahl der Antworten 3 Antworten
Suche nach einem prägnanten Beispiel, wie man Lesen und schreiben Map<String, Object> ab/bis Parkett-Datei in Java oder Scala? Hier wird erwartet, Struktur, mit com.fasterxml.jackson.databind.ObjectMapper als Serialisierung in Java (d.h. Suche für gleichwertig mit Parkett): public static Map<String,

IntelliJ Fehler mit Scala-Funktion: "cannot resolve Referenz-format mit einer solchen Signatur"

Anzahl der Antworten 1 Antworten
IntelliJ beschwert sich über diesen code: val document: Node //(initialized further up in the code) val s: String = (new scala.xml.PrettyPrinter(80, 4)).format(document)) Mit der Fehlermeldung: Cannot resolve Referenz-format mit einer solchen Signatur Jedoch - eine solche Funktion

Scala-Option und flatMap

Anzahl der Antworten 3 Antworten
Ich versuche, den Dreh-arbeiten "der Scala Weg" also ich Frage mich, ob der folgende code ist, wie Dinge getan werden sollte, in diesem Fall. Also ich habe die Entitäten User und Unternehmen (abgebildet mit LiftWeb mapper). Benutzer

spark - scala - Wie kann ich prüfen, ob eine Tabelle existiert in den Bienenstock

Anzahl der Antworten 2 Antworten
Habe ich, um zu überprüfen, ob eine Tabelle existiert in den Bienenstock, mit Funken(1.6.2) scala Wenn es nicht ich habe zum erstellen einer leeren dataframe und speichern, die als eine hive-Tabelle. Wenn er vorhanden ist, überschreiben Sie

Filter rdd Linien, indem Sie Werte in die Felder Scala

Anzahl der Antworten 3 Antworten
Ich habe eine csv, die die folgende Struktur hat: header,header,header,header,header val1, val2, val3, val4, val5 Wert1, Wert2, null, val4, val5 val1, val2, val3, null, val5 Was ich tun müssen, ist filtern die Kopfzeile und die Zeilen von

Scala-Liste.enthält(x) false zurück, aber exists(_.== x) gibt true zurück,

Anzahl der Antworten 3 Antworten
Arbeite ich mit einigen einfachen Daten-Strukturen und-Sammlungen im Scala und ich habe gemerkt, was ich denke ist merkwürdig Verhalten. Hier ist das Objekt: class State (protected val trackmap: Map[Int, List[String]]) { override def clone : State =

brauche Hilfe für den Vergleich von zwei Spalten in spark scala

Anzahl der Antworten 2 Antworten
Habe ich spark dataframe wie diese id1 id2 attrname attr_value attr_valuelist 1 2 test Yes Yes, No 2 1 test1 No Yes, No 3 2 test2 value1 val1, Value1,value2 4 1 test3 3 0, 1, 2 5

Mit scala 2.9.2 mit Spielen?

Anzahl der Antworten 3 Antworten
Habe ich ein Spiel-Projekt. Leider bin ich zu Deserialisieren einige Klassen, die serialisiert wurden mit scala 2.9.2. Da spielen verwendet 2.9.1 es ist eine InvalidClassException. Caused by: java.io.InvalidClassException: scala.Option; local class incompatible: stream classdesc serialVersionUID = 2832403187243187948,

Scala - How für die Rückgabe einer Karte mit dem Wert von der Funktion?

Anzahl der Antworten 4 Antworten
Warum unter-Funktion wird nicht funktionieren in scala? def getUpdatedMap(keywords: String, m: Map[String, String]) : Map[String, String] = { m += (keywords -> "abcde") } Kompilierungsfehler: Wert += ist kein Mitglied der Map[String, String] Ich bin ganz neu

Andockfenster.io - Docker Verknüpfung zwischen der Anwendung & Datenbank-Container

Anzahl der Antworten 1 Antworten
Ich versuche, mit meinem Scala-Akka-Anwendung mit meiner MySQL-Datenbank auf zwei separaten Docker-Containern. Ich fand heraus, dass Docker ermöglicht es Entwicklern, um die Verbindung Ihrer Anwendung auf Ihre Datenbanken mit der Flagge namens-link. In meinem Dockerfiles, in denen

Gatling-proxy-Konfiguration

Anzahl der Antworten 2 Antworten
Dies ist ein Nachtrag zu diese Frage. Ich bin mit der gleichen Konfiguration. Aber ich versuche, verwenden Sie eine interne website, die über einen proxy-server. Ich bin mir nicht sicher, ob das folgende die richtige Art und

Mit dem "sollte NICHT produzieren [Ausnahme]" die syntax in ScalaTest

Anzahl der Antworten 2 Antworten
Ich bin liebäugelt mit Specs2 und ScalaTest für BDD in Scala. Ich habe geschrieben, die Erwartungen Specs2, wenn ich zu behaupten, dass eine bestimmte Ausnahme sollte nicht geworfen werden. "do something" in { { .... } must

(Funke) - Objekt {name} ist nicht Mitglied in-Paket org.apache.spark.ml

Anzahl der Antworten 2 Antworten
Ich versuche zu laufen, eigenständige Anwendung mit scala auf der Basis von apache spark, basierend auf Beispiel hier: http://spark.apache.org/docs/latest/ml-pipeline.html Hier ist mein vollständiger code: import org.apache.spark.ml.classification.LogisticRegression import org.apache.spark.ml.linalg.{Vector, Vectors} import org.apache.spark.ml.param.ParamMap import org.apache.spark.sql.Row object mllibexample1 { def

Wie man der letzten Zeile des DataFrame?

Anzahl der Antworten 6 Antworten
Ich hava ein DataFrame,das DataFrame hava zwei Spalte 'value' und 'timestamp', die 'timestmp' ist bestellt,ich möchte die Letzte Zeile des DataFrame,was soll ich tun? dies ist mein input: +-----+---------+ |value|timestamp| +-----+---------+ | 1| 1| | 4| 2|

Warum mit @Singleton über Scala-Objekt im Play Framework?

Anzahl der Antworten 3 Antworten
Ich habe mit Spielen! Rahmen für Scala seit fast einem Jahr jetzt. Ich bin derzeit mit version 2.5.x. Ich bin mir bewusst, die evolution des controllers in Spielen und wie die Entwickler waren gezwungen, Weg von statischen

Wird der var-Mitglieder bei der Klasse beeinflussen Fall Klasse Gleichberechtigung?

Anzahl der Antworten 2 Antworten
Ich habe schwer gemacht Einsatz von case-Klassen in meinem code, Antworten auf die zugrunde liegenden Definitionen von Gleichheit Fall Klasse, richtig zu Verhalten. Dann jetzt fand ich, dass ich hinzufügen müssen, um ein weiteres Feld, Mitglied zu

Versenden von post mit json mit spray?

Anzahl der Antworten 3 Antworten
Sorry, ich kann nicht verwalten, um diese Arbeit zu machen: ich muss hinzufügen, dass einige json zu einem post, also nach der Dokumentation: http://spray.io/documentation/1.1-M8/spray-httpx/request-building/ : import scala.util.{Success, Failure} import akka.actor.{Props, ActorSystem} import spray.can.client.DefaultHttpClient import spray.client.HttpConduit import spray.httpx.SprayJsonSupport

java-try-mit-Ressourcen-nicht die Arbeit mit scala

Anzahl der Antworten 3 Antworten
In der Scala-Anwendung, versuche zu Lesen von Zeilen aus einer Datei, die mit java nio try-with-resource-Konstrukt. Scala-version 2.11.8 Java version 1.8 try(Stream<String> stream = Files.lines(Paths.get("somefile.txt"))){ stream.forEach(System.out::println); //will do business process here }catch (IOException e) { e.printStackTrace(); //will

Erstellen Sie eine HashMap in Scala aus einer Liste von Objekten ohne looping

Anzahl der Antworten 3 Antworten
Habe ich eine Liste von Objekten, jedes Objekt mit zwei Feldern von Interesse, die ich nenne Sie mal "Schlüssel" und "Wert". Aus, dass ich brauchen, um zu bauen eine HashMap aus Einträgen, bei denen "Schlüssel" maps "Wert".

Mit R von der Scala aus aufrufen und Scala von R?

Anzahl der Antworten 7 Antworten
Wissen Sie etwas über Möglichkeiten der aufrufen der Scala von R und mit R (Bibliotheken) in Scala? Beste Grüße Raffael Hallo, Alle Zusammen. Ein Weg, vielleicht nicht speziell für diese situation wäre die Verwendung eines Restful-service. Aber