Tag: entropy
Entropie ist ein Maß für die Unsicherheit einer Zufallsvariable.
2
Antworten
Ich habe eine matrix in excel. Ich brauche zu normalisieren Reihen und berechnen Sie dann die Entropie jeder Zeile (wenn man es als eine Wahrscheinlichkeitsverteilung). Z.B. angenommen, meine matrix ist: 2 0 3 5 0 1 0
3
Antworten
Ich bin hauptsächlich interessiert an der Umsetzung von SecRandomCopyBytes auf iOS, wenn es unterscheidet sich von der OS-X-Umsetzung. (Ich würde davon ausgehen, dass es funktioniert, da ein mobiles Gerät mehr und mehr leicht verfügbaren Quellen von Entropie
3
Antworten
Ich gerne produzieren möchte, einen zufälligen kryptografischen Schlüssel auf Windows. Wo erhalte ich die Entropie? Ich würde gerne meine Entropie-Funktion zu arbeiten, ohne eine Netzwerkverbindung und zuverlässig auf Windows 2000 und aufwärts. Sogar Quellen, die können oder
2
Antworten
Möchte ich berechnen Sie die Entropie dieser Beispiel-Schema http://nlp.stanford.edu/IR-book/html/htmledition/evaluation-of-clustering-1.html Kann jemand bitte Schritt für Schritt erklären, mit echten Werten? Ich weiß, es gibt unliminted viele Formeln, aber ich bin wirklich schlecht im Verständnis der Formeln 🙂 Beispielsweise
14
Antworten
Setup : Ubuntu-Server auf der Virtuellen Maschine mit 6 Kernen und 3 GB RAM. wenn ich versuche zu generieren, die eine asymmetric key pair über GPG wie diese gpg --gen-key . Ich bekomme die folgende Fehlermeldung :
3
Antworten
Ich habe die Kodierung für ein paar Jahre, aber ich noch nicht dazu gekommen die hängen von pseudo-Code oder tatsächlich mit dem Gedanken, die Sachen im code noch. Wegen diesem problem, ich habe Schwierigkeiten, herauszufinden, genau, was
3
Antworten
Ich bin ein bisschen verwirrt durch die cross Entropie-Verlust in PyTorch. Angesichts dieses Beispiel: import torch import torch.nn as nn from torch.autograd import Variable output = Variable(torch.FloatTensor([0,0,0,1])).view(1, -1) target = Variable(torch.LongTensor([3])) criterion = nn.CrossEntropyLoss() loss = criterion(output,
1
Antworten
Ich war auf der Suche nach der Entropie einer bestimmten Wahrscheinlichkeit-Verteilung in MATLAB. Für p, ich habe versucht zu tun, E = -sum(p .* log2(p)) sowie Echeck = entropy(p) Sollte nicht E und Echeck gleich sein? Die
2
Antworten
Ich habe ein array in der Größe MxN und ich mag zu berechnen ist die Entropie-Wert in jeder Zeile. Was wäre der Schnellste Weg, dies zu tun ? Entropie: -np.Summe(probs * np.log2(probs)) Die Schnellste, meinst du, dass
2
Antworten
Ich habe versucht, für mehrere Stunden zum berechnen der Entropie, und ich weiß, ich bin etwas fehlt. Ich hoffe, jemand hier kann mir eine Idee! EDIT: ich glaube, meine Formel ist falsch! CODE: info <- function(CLASS.FREQ){ freq.class
3
Antworten
Ich bin mit /dev/urandom zufällige Daten erzeugt, die für meine Programme. Ich habe gelernt, dass /dev/random kann leer sein, weil, im Gegensatz zu /dev/urandom es nicht verwenden SHA, wenn gibt es nicht genügend bytes generiert. /dev/random verwendet
3
Antworten
Ich bin mit dieser Anlage erzeugen Sie ein sha1-Hash-id für node.js: crypto.createHash('sha1').digest('hex'); Das problem ist, dass es ' s Rückkehr am selben id, wie jedes mal. Ist es möglich, es generiert eine zufällige id, so kann ich
11
Antworten
Wie die Berechnung der Entropie einer Datei? (Oder sagen wir nur ein Haufen bytes) Ich habe eine Idee, aber ich bin nicht sicher, dass es mathematisch korrekt ist. Meine Idee ist folgende: Erstellen Sie ein array von
18
Antworten
Wenn Sie möchten, eine kryptographisch starke Zufallszahlen in Java verwenden Sie SecureRandom. Leider SecureRandom kann sehr langsam sein. Wenn es verwendet /dev/random auf Linux, es kann blockieren, warten auf ausreichende Entropie, um aufzubauen. Wie vermeiden Sie die
16
Antworten
Ich habe vor kurzem einen Kurs auf Daten-Komprimierung an meiner Universität. Allerdings finde ich die Verwendung des Begriffs "Entropie", wie es gilt für die informatik eher zweideutig. Soweit ich sagen kann, es übersetzt in etwa die "Zufälligkeit"
8
Antworten
Ist es ein standard-Weg, dies zu tun? Googeln -- "approximate Entropie" bits -- deckt mehrere wissenschaftliche arbeiten, aber ich möchte einfach ein Stück pseudocode definieren die Ungefähre Entropie für ein bestimmtes bit-Strings beliebiger Länge. (In Fall das
1
Antworten
Habe ich zwei schwarze und weiße Bilder, und ich brauche, um die Berechnung der gegenseitigen information. Image 1 = X Image 2 = Y Weiß ich, dass die gegenseitige information kann definiert werden als: MI = entropy(X)
9
Antworten
In meinem Projekt brauche ich zur Berechnung der Entropie von 0-1-Vektoren viele Male. Hier ist mein code: def entropy(labels): """ Computes entropy of 0-1 vector. """ n_labels = len(labels) if n_labels <= 1: return 0 counts =
14
Antworten
Setup : Ubuntu-Server auf der Virtuellen Maschine mit 6 Kernen und 3 GB RAM. wenn ich versuche zu generieren, die eine asymmetric key pair über GPG wie diese gpg --gen-key . Ich bekomme die folgende Fehlermeldung :