Tag: scala

Scala ist eine Allzweck-Programmiersprache, die grundsätzlich Ausrichtung der Java Virtual Machine. Entwickelt, um express-common programming patterns in einer prägnant, elegant und typsicher Weise, es verschmilzt die beiden imperative und funktionale Programmierung-Stile. Seine Hauptmerkmale sind:
erweiterte statische Typ-system mit Typ-Inferenz ist;
Funktion Typen; pattern-matching; implizite Parameter und Umbauten; operator überladen; die volle Interoperabilität mit Java; Parallelität

Das Parsen der Json-String wird in Scala mit Play framework

Anzahl der Antworten 1 Antworten
Ich den Versuch gestartet, Scala und Spielen zu durchsuchen, Json-Daten, und wurde nach dem tutorial auf https://www.playframework.com/documentation/2.3.9/ScalaJson. Nun, wenn ich versuche, führen Sie die Beispiel-code, der dort angegeben ist: val json: JsValue = Json.parse("""{ "name" : "Watership

Warum diese explizite Aufruf eines Scala-Methode erlauben es, implizit gelöst?

Anzahl der Antworten 3 Antworten
Warum funktioniert dieser code nicht kompilieren, aber erfolgreich kompiliert, wenn ich die Auskommentierung des angegebenen Zeile? (Ich bin mit Scala 2.8 nachts). Es scheint, dass explizit aufrufen string2Wrapper erlaubt, dass es implizit von diesem Punkt an. class

Fehler: nicht gefunden: Wert, lit/Wann - spark-scala

Anzahl der Antworten 1 Antworten
Ich bin mit scala, spark, IntelliJ und maven. Habe ich folgenden code : val joinCondition = when($"exp.fnal_expr_dt" >= $"exp.nonfnal_expr_dt", $"exp.manr_cd"===$"score.MANR_CD") val score = exprDF.as("exp").join(scoreDF.as("score"),joinCondition,"inner") und val score= list.withColumn("scr", lit(0)) Aber wenn Sie versuchen zu bauen mit maven,

Konvertieren RDD vom Typ " org.apache.spark.rdd.RDD[((String, String), Double)]` to `org.apache.spark.rdd.RDD[((String) List[Double])]`

Anzahl der Antworten 2 Antworten
Habe ich ein RDD : val rdd: org.apache.spark.rdd.RDD[((String, String), Double)] = sc.parallelize(List( (("a", "b"), 1.0), (("a", "c"), 3.0), (("a", "d"), 2.0) )) Ich bin versucht zu konvertieren, das RDD vom Typ org.apache.spark.rdd.RDD[((String, String), Double)] zu org.apache.spark.rdd.RDD[((String), List[Double])]

Holen Sie sich die Größe/Länge eines array-Spalte

Anzahl der Antworten 1 Antworten
Ich bin neu in der Scala-Programmierung und hier ist meine Frage: Wie zählen Sie die Anzahl der string für jede Zeile? Mein Dataframe besteht aus einer einzelnen Spalte des Array[String] Typ. friendsDF: org.apache.spark.sql.DataFrame = [friends: array<string>] InformationsquelleAutor

Scala 2.11 LinkedList ist veraltet, was sollte ich verwenden?

Anzahl der Antworten 2 Antworten
Laut die docs, scala.collection.mutable.LinkedList ist veraltet seit der version 2.11. Leider habe ich nichts gefunden, um es zu ersetzen mit. Ich brauche eine geordnete Sammlung, entfernen ein Element aus alle index in konstanter Zeit. Was sollte ich

Scala Call-By-Name-Verwirrung

Anzahl der Antworten 3 Antworten
Arbeite ich auf einige call-by-name Beispiele für die Verwendung der REPL und die gleichen Beispiele in Eclipse. Hier ist, was in Eclipse: Szenario 1: val funct = {println("Calling funct")} takesFunct(funct) def takesFunct(f: => Unit) { val b

Scala for-Schleife und Iteratoren

Anzahl der Antworten 2 Antworten
Nehmen wir an ich habe eine sehr große iterierbar Sammlung von Werten (in der Größenordnung von 100.000 String-Einträge Lesen von der Festplatte eins nach dem anderen), und ich mache etwas auf seine kartesischen Produkt (und Schreibe das

Gleichzeitige Java-und Scala-Entwicklung innerhalb des Projektes

Anzahl der Antworten 7 Antworten
Möchte ich dazu nutzen, die Scala das Actor-Framework, während ich die Entwicklung der Benutzeroberfläche in der gewohnten Schwung Weg. Ist es möglich, ein gemischtes Java - Scala-Projekt in Eclipse, NetBeans oder jedes andere IDE? InformationsquelleAutor akarnokd |

Scala Liste Match Regex

Anzahl der Antworten 4 Antworten
So wie es momentan steht, diese Frage ist nicht eine gute Passform für unsere Q&A-format. Wir erwarten Antworten auf Tatsachen gestützt, Referenzen und know-how, aber diese Frage wird wahrscheinlich werben Debatte, Argumente, polling, oder erweiterte Diskussion. Wenn

Wie Clojure-Agenten vergleichen zu Scala ' s actors?

Anzahl der Antworten 1 Antworten
Schrieb ich eine simulation der Ring-Netzwerk-Topologie in Scala (Quelle hier) (Scala 2.8 RC7) und Clojure (Quelle hier) (Clojure 1.1) für einen Vergleich der Akteure und Agenten. Während die Scala-version zeigt nahezu Konstante message exchange rate wie erhöhe

Definition einer Map von String-Funktion in Scala

Anzahl der Antworten 5 Antworten
Ich versuche zu definieren, eine Karte literal mit Schlüssel: String, Wert: (Any)=>String. Ich habe Folgendes versucht, bekomme aber immer einen syntax error: def foo(x: Int): String = /... def bar(x: Boolean): String = /... val m =

Wie zu verwenden Rückkehr eines gatling-Anfrage in einer weiteren Anfrage - Scala

Anzahl der Antworten 1 Antworten
In den folgenden code, ich erhalte ein token in der ersten Gatling-Anfrage, speichern es in einer Variablen namens " auth. Jedoch, wenn ich versuche, es in die zweite Anforderung ist das senden leerer string statt der variable

Einfachste Weg, um die Summe von zwei Listen in Scala?

Anzahl der Antworten 4 Antworten
Ich habe zwei Listen, die ich will, um die Summe jedes element in der Liste A mit dem element in der Liste B, die Herstellung einer neuen Liste. Kann ich es machen mit: List(1,2).zip(List(5,5)).map(t => t._1 +

Scala ungebundenen Platzhalter-parameter

Anzahl der Antworten 1 Antworten
Ich bin mit dem folgenden code zu meinen Anforderungen entsprechen: (1 to 5)..map(i => s"\\x${i}") //Produces List("\\x1", "\\x2", "\\x3", "\\x4", "\\x5") Aber ich möchte einen Platzhalter. Nach die string-interpolator Dokumentation : (1 to 5).map(s"\\x${_}") erweitert werden soll:

Top Werte aus einer spark-dataframe Spalte in Scala

Anzahl der Antworten 3 Antworten
val df = sc.parallelize(Seq((201601, a), (201602, b), (201603, c), (201604, c), (201607, c), (201604, c), (201608, c), (201609, c), (201605, b))).toDF("col1", "col2") Ich will top-3-Werte col1. Kann jeder bitte lassen Sie mich wissen, die bessere Möglichkeit, dies

Wie definieren Sie eine @ - Schnittstelle in Scala?

Anzahl der Antworten 2 Antworten
Wie erzeugt man eine @interface in Scala? Ich habe ehrlich gesagt das Gefühl, dumm zu Fragen, dass die Frage, aber ich kann nicht finden, die syntax für diese überall. Ich weiß, dass Sie konsumieren, sondern wie Sie

Wie COUNT(*) in Slick 2.0?

Anzahl der Antworten 3 Antworten
Entsprechend der Slick 2.0-Dokumentation, um die Anzahl von Zeilen in einer Tabelle: val q1 = coffees.length //compiles to SQL (simplified): // select count(1) from "COFFEES" Jedoch, es stellt sich heraus, dass coffees.length ist der Typ Column[Int]. Wie

Immer ein struktureller Art mit einer anonymen Klasse, die Methoden aus einem makro

Anzahl der Antworten 1 Antworten
Nehmen wir an, wir möchten ein makro schreiben, das definiert eine anonyme Klasse mit einem Mitglieder oder Methoden, und erstellt dann eine Instanz der Klasse, die ist statisch typisiert als struktureller Art, die mit diesen Methoden etc.

Scala automatische getter und setter überschreiben mit benutzerdefinierten _=

Anzahl der Antworten 1 Antworten
In scala gibt es keinen Unterschied für den Benutzer einer Klasse zwischen dem Aufruf einer Methode oder den Zugriff auf einige Feld/Mitglied direkt mit val x = myclass.myproperty. Um kontrollieren zu können, z.B. setzen oder sich ein

So Lesen Sie eine Datei mit fester Länge in Spark mit DataFrame API und SCALA

Anzahl der Antworten 2 Antworten
Ich habe eine Datei mit fester Länge ( siehe nachstehendes Beispiel) und ich möchte diese Datei zu Lesen, mithilfe von DataFrames API-Zündkerzen mit SCALA(nicht python oder java). Mit DataFrames-API, es gibt Möglichkeiten zum Lesen von Text -,

Definieren Sie eine scala-Funktion in ein Spiel-Vorlage

Anzahl der Antworten 1 Antworten
Ich versuche, eine Funktion in einem Spiel view-template @active(path: String):String = @{ var active:String = "" if (request.path.startsWith(path)) { active = "class=\"active\"" } return active } <div class="container-fluid"> .... <li @active("/page") ...> Den spielen compiler sagt, dass

Mischen von scala und java in Play Framework

Anzahl der Antworten 4 Antworten
Ich habe eine Java-Datei, die wie folgt aussieht: package AuthorizeNetFingerprint; class Fingerprint { private static Log logger = LogFactory.getLog(Fingerprint.class); private long sequence; private long timeStamp; private String fingerprintHash; private Fingerprint() { } /** * Creates a fingerprint

Holen Sie sich alle Tasten spielen.api.libs.json.JsValue

Anzahl der Antworten 1 Antworten
Habe ich zum speichern play.api.libs.json.JsValue Schlüssel zu einer Liste. Wie kann ich dies tun? var str = ??? //json String val json: JsValue = Json.parse(str) val data=json.\("data") println(data) //[{"3":"4"},{"5":"2"},{"4":"5"},{"2":"3"}] val newIndexes=List[Long]() erwartet newIndexes=List(3,5,4,2) Meinst du alle Schlüssel

Scala-compiler-Fehler : nur Klassen deklariert haben, aber undefiniert Mitglieder

Anzahl der Antworten 2 Antworten
Unten Klasse wirft einen compiler-Fehler in dieser Zeile val userList : List[User] : Multiple markers at this line - only classes can have declared but undefined members - only classes can have declared but undefined members Hier

json4s: Umwandeln von Text in JValue

Anzahl der Antworten 1 Antworten
Habe ich einige source-Objekt src erhalten und möchte ein JValue aus. Alle Beispiele und Dokumentation für json4s scheinen drehen sich um immer einen JSON-kodierten string, etwa so: def encodeJson(src: AnyRef): String = { import org.json4s.NoTypeHints import org.json4s.JsonDSL.WithDouble._

Filter-Stopp-Wörter in Spark

Anzahl der Antworten 2 Antworten
Ich bin versucht heraus zu filtern, die stop-Wörter aus einem RDD von Wörtern aus einer .txt Datei. //Creating the RDDs val input = sc.textFile("../book.txt") val stopWordsInput = sc.textFile("../stopwords.csv") val stopWords = stopWordsInput.map(x => x.split(",")) //Create a tuple

Wie man eine variable in z ZeppelinContext in javascript in Zeppelin?

Anzahl der Antworten 2 Antworten
In Scala und Python ist es: z.put("varname", variable) Aber in javascript habe ich bekommen (in der Konsole) Uncaught ReferenceError: z is not defined Was ich wirklich tun wollen ist, den Zugriff auf eine javascript-variable von Scala-code mit

Nützlichkeit (wie in praktischen Anwendungen) des Currying v. s. Partielle Anwendung in Scala

Anzahl der Antworten 2 Antworten
Ich versuche zu verstehen, die Vorteile von currying teilweise über Anwendungen in Scala. Bitte betrachten Sie den folgenden code: def sum(f: Int => Int) = (a: Int, b: Int) => f(a) + f(b) def sum2(f: Int =>

Scala ~> (tilde größer als) - operator

Anzahl der Antworten 2 Antworten
Habe ich die folgende scala class definition (gefunden in einem Papier), Modellierung Kategorien: trait Category[~>[_, _]] { def compose[A, B, C] (f: B ~> C) (g: A ~> B) : A ~> C def id[A]: A ~>

(Scala) Konvertieren von Zeichenfolgen in Datumsangaben in Apache Spark

Anzahl der Antworten 2 Antworten
Ich würde gerne eine Lesen .csv-Datei mit Spark und ordnen Sie die Spalten mit passenden Typen. val conf = new SparkConf() .setMaster("local[8]") .setAppName("Name") val sc = new SparkContext(conf) val sqlContext = new SQLContext(sc) val customSchema = StructType(Array(

Scala io.Quelle.fromfile nicht finden, meine Datei, sogar mit absolutem Pfad angegeben

Anzahl der Antworten 2 Antworten
Ich versuche, eine Datei zugreifen, in der Scala mit io.Source.fromfile. Ich habe angegeben, der vollständige Pfad, aber ich bin noch immer ein no such directory or file Fehler. Dies ist eine Allgemeine version von dem, was mein

Vorbei an Scala-Map als argument an eine Funktion zu viel Zeit kostet

Anzahl der Antworten 2 Antworten
Ich habe ein scala-companion-Objekt mit einer Methode, die annimmt, eine Karte als parameter. Dann geht diese Karte an eine andere Funktion in einem anderen companion-Objekt ohne Veränderungen. Und die eigentliche Methode aufrufen dauert zu viel Zeit, wenn

Wie betreibst du nur eine einzige Spec2 Spezifikation mit SBT?

Anzahl der Antworten 1 Antworten
Wenn du 2 tests, die in Ihrem SBT-Projekt: class Spec1 extends Specification { def is = "Tests for specification 1" ^ p ^ "Test case 1" ! todo ^ end } und class Spec2 extends Specification {

Was ist die motivation für die Scala Zuordnung der Bewertung auf Einheit und nicht als Wert zugewiesen?

Anzahl der Antworten 8 Antworten
Was ist die motivation für die Scala Zuordnung der Bewertung auf Einheit und nicht als Wert zugewiesen? Gemeinsame Muster der I/O-Programmierung ist, zu tun Sachen wie diese: while ((bytesRead = in.read(buffer)) != -1) { ... Aber dies

Scala regex Benannte Capturing Groups

Anzahl der Antworten 2 Antworten
In scala.util.das matching.Regex-Eigenschaft MatchData ich sehe, dass es Unterstützung für Gruppennamen bis , ich dachte, das bezog sich auf die (Regex Benannte Capturing Groups) Aber da Java unterstützt keine Gruppennamen bis bis version 7 wie ich es

So definieren Sie eine Funktion keine return-oder return-void in scala

Anzahl der Antworten 3 Antworten
Mit mehr und mehr verwirrt, hob ich noch feststellen, dass ich nicht verstehen kann einfache Funktionsdefinition in Scala: Wenn ich will einfach nur eine Funktion definieren, die aber nichts zu tun, einige unuseful außerdem, wie kann ich

Reader-Monade für Dependency Injection: mehrere Abhängigkeiten, geschachtelte Aufrufe

Anzahl der Antworten 2 Antworten
Wenn Sie gefragt werden über Dependency Injection in Scala eine ganze Menge von Antworten zeigen auf die mit der Reader-Monade, sei es der von Scalaz oder einfach nur Ihre eigenen Rollen. Es gibt eine Reihe von sehr

Schreiben HBase über Spark: Aufgabe nicht serialisierbar

Anzahl der Antworten 1 Antworten
Bin ich zu schreiben versucht, einige einfache Daten in HBase (0.96.0-hadoop2) mit Spark 1.0 aber ich bekomme immer die Serialisierung Probleme. Hier ist der relevante code: import org.apache.hadoop.hbase.client._ import org.apache.hadoop.hbase.io.ImmutableBytesWritable import org.apache.hadoop.hbase.util.Bytes import org.apache.spark.rdd.NewHadoopRDD import org.apache.hadoop.hbase.HBaseConfiguration import

Wie zu tun, die string-Verkettung in Scala

Anzahl der Antworten 1 Antworten
Ich habe den folgenden code, der basierend auf der Eingabe (args) erstellen Sie ein string, aber die Antwort ist falsch. Ich habe args(0)) ist ein Pfad, args(1) ist ein operand, wie "+", und args(2) eine Zahl ist

Entlarvung der Scala-Mythen

Anzahl der Antworten 13 Antworten
Was sind die häufigsten Missverständnisse über die Sprache Scala und was counter-Beispiele existieren, um diese? UPDATE Ich dachte mehr über die verschiedenen Ansprüche, die ich gesehen habe, wie die "Scala" ist dynamisch typisierte" und "Scala" ist eine

Wie man Schlüssel und Werte aus MapType Spalte in SparkSQL DataFrame

Anzahl der Antworten 2 Antworten
Ich habe Daten in einer Parkett-Datei, die hat 2 Felder: object_id: String und alpha: Map<>. Einlesen in einen Daten-frame in sparkSQL und das schema sieht wie folgt aus: scala> alphaDF.printSchema() root |-- object_id: string (nullable = true)

Wie der Zugriff auf Annotation definiert auf Fall-class-Feld zur Laufzeit

Anzahl der Antworten 3 Antworten
Habe ich den folgenden java-Annotation definiert @Target({ElementType.METHOD, ElementType.PARAMETER, ElementType.CONSTRUCTOR, ElementType.FIELD}) @Retention(RetentionPolicy.RUNTIME) public @interface MyAnnotation { String value() default ""; } Und ich habe die folgende scala Fall Klasse definiert: @Prefer("xyz") case class TestAnno(arg1 : String, @Prefer("abc") agr2

So Lesen Sie Datensätze aus Kafka-Thema von Anfang an in der Spark-Streaming?

Anzahl der Antworten 2 Antworten
Ich versuche zu Lesen, Datensätze aus einer Kafka-Thema der Verwendung von Spark-Streaming. Dies ist mein code: object KafkaConsumer { import ApplicationContext._ def main(args: Array[String]) = { val kafkaParams = Map[String, Object]( "bootstrap.servers" -> "localhost:9092", "key.deserializer" -> classOf[StringDeserializer],

Zählen Sie auf Spark Dataframe ist extrem langsam

Anzahl der Antworten 2 Antworten
Ich bin erstellen Sie ein neues DataFrame mit einer Handvoll von Datensätzen aus einer Beitreten. val joined_df = first_df.join(second_df, first_df.col("key") === second_df.col("key") && second_df.col("key").isNull, "left_outer") joined_df.repartition(1) joined_df.cache() joined_df.count() Alles ist schnell (unter einer Sekunde), außer die count-Methode.

Warum ist Clojure viel schneller als die Scala auf einem rekursiven Funktion hinzufügen?

Anzahl der Antworten 4 Antworten
Gab mir ein Freund diesen code-Schnipsel in Clojure (defn sum [coll acc] (if (empty? coll) acc (recur (rest coll) (+ (first coll) acc)))) (time (sum (range 1 9999999) 0)) mich zu und fragte, wie geht es tarif

Wie verwenden von Scala singleton-Objekt-Typen?

Anzahl der Antworten 4 Antworten
Ich Schreibe eine Klasse dient als Basisklasse für eine Reihe von singleton-Objekten. In jeder singleton-Objekte, es wird vals repräsentieren bestimmte Eigenschaften, und ich will schreiben Sie eine Methode, die für jede singleton-Objekt, akzeptiert nur Objekte, die von

Scala Warnung match kann nicht erschöpfend sein

Anzahl der Antworten 3 Antworten
Ich bin etwas neu auf Scala. Folgendes ist mein code. Option(Session.get().getAttribute("player")) match { case None => { val player = new Player(user.getEmail, user.getNickname).createOrGet Session.get().setAttribute("player", player) } } Bekomme ich die folgende Warnung beim kompilieren Warning:(35, 11) match

Scala collectFirst mit der Funktion zurückgeben Option[U]

Anzahl der Antworten 3 Antworten
Ich habe diese situation auftreten, eine Anzahl von Zeiten in der Bibliothek, die ich Schreibe, und ich bin nicht besonders zufrieden mit den Lösungen, die ich mir ausgedacht habe, so weit. Lassen Sie uns sagen, dass ich

Kunden-Typ-Mapper für SQL-Slick

Anzahl der Antworten 2 Antworten
Ich habe festgestellt, das Beispiel von slick-Tests: https://github.com/slick/slick/blob/master/slick-testkit/src/main/scala/com/typesafe/slick/testkit/tests/MapperTest.scala sealed trait Bool case object True extends Bool case object False extends Bool implicit val boolTypeMapper = MappedColumnType.base[Bool, String]( { b => assertNotNull(b) if(b == True) "y" else "n"