Tag: information-theory

Die Informationstheorie ist ein Zweig der angewandten Mathematik, Elektrotechnik und informatik mit der Quantifizierung von Informationen.

Die Berechnung der Gegenseitigen Information Für die Auswahl der trainingsmenge in Java

Anzahl der Antworten 2 Antworten
Szenario Ich bin versucht zu implementieren, das betreute lernen über ein Daten-set in einem Java-GUI-Anwendung. Dem Benutzer wird eine Liste von Elementen oder 'Berichte' zu untersuchen und Kennzeichnen Sie basiert auf einer Reihe von Etiketten zur Verfügung.

Die gegenseitige Information von MATLAB Matrix

Anzahl der Antworten 1 Antworten
Ich habe eine quadratische matrix, repräsentiert die Häufigkeit zählt der co-occurrences in einem Daten-set. In anderen Worten, die Zeilen repräsentieren alle möglichen Beobachtungen des Merkmals 1, und die Spalten sind die möglichen Beobachtungen von feature-2. Die Zahl

Entropie für ein graues Bild in opencv

Anzahl der Antworten 2 Antworten
Brauche ich code zu finden, der Entropie eines Bildes. for(int i=0;i<grey_image.rows;i++) { for(int j=1;j<grey_image.cols;j++) { //cout<<i<<" "<<j<<" "<<(int)grey_image.at<uchar>(i,j)<<endl; int a=(int)grey_image.at<uchar>(i,j); int b=(int)grey_image.at<uchar>(i,j-1); int x=a-b; if(x<0) x=0-x; probability_array[x]++; //grey_image.at<uchar>(i,j) = 255; } } //calculating probability int n=rows*cols; for(int

Schnellste Weg, um berechnen Sie die Entropie der einzelnen numpy-array Zeile?

Anzahl der Antworten 2 Antworten
Ich habe ein array in der Größe MxN und ich mag zu berechnen ist die Entropie-Wert in jeder Zeile. Was wäre der Schnellste Weg, dies zu tun ? Entropie: -np.Summe(probs * np.log2(probs)) Die Schnellste, meinst du, dass

Die Shannon-Entropie-Berechnung

Anzahl der Antworten 1 Antworten
Habe ich eine Wahrscheinlichkeitsverteilung definiert, dass die Wahrscheinlichkeit des Auftretens von n möglichen Zustände. Ich würde wie berechnen Sie den Wert der Shannon-Entropie in bits, der gegebenen Wahrscheinlichkeitsverteilung. Kann ich wentropy(x,'shannon') zu erhalten die Wert-und wenn ja,

Jede theoretische Grenze der Komprimierung?

Anzahl der Antworten 3 Antworten
Vorstellen, dass Sie hatte alle Supercomputer der Welt zu Ihrer Verfügung für die nächsten 10 Jahre. Ihre Aufgabe war es, zu komprimieren 10 in voller Länge Filme verlustfrei, so viel wie möglich. Ein weiteres Kriterium war, dass

Was ist die Informatik-Definition der Entropie?

Anzahl der Antworten 16 Antworten
Ich habe vor kurzem einen Kurs auf Daten-Komprimierung an meiner Universität. Allerdings finde ich die Verwendung des Begriffs "Entropie", wie es gilt für die informatik eher zweideutig. Soweit ich sagen kann, es übersetzt in etwa die "Zufälligkeit"

Wie berechne ich die ungefähre Entropie einer Bitfolge?

Anzahl der Antworten 8 Antworten
Ist es ein standard-Weg, dies zu tun? Googeln -- "approximate Entropie" bits -- deckt mehrere wissenschaftliche arbeiten, aber ich möchte einfach ein Stück pseudocode definieren die Ungefähre Entropie für ein bestimmtes bit-Strings beliebiger Länge. (In Fall das

Gegenseitige Information und gemeinsame Entropie zweier Bilder - MATLAB

Anzahl der Antworten 1 Antworten
Habe ich zwei schwarze und weiße Bilder, und ich brauche, um die Berechnung der gegenseitigen information. Image 1 = X Image 2 = Y Weiß ich, dass die gegenseitige information kann definiert werden als: MI = entropy(X)

Optimaler Weg, paarweise gegenseitige Informationen mit numpy zu berechnen

Anzahl der Antworten 1 Antworten
Für eine m x n matrix, was ist die optimale (Schnellste) Weg zur Berechnung der gegenseitigen information für alle Paare von Spalten (n x n)? Durch gegenseitige Informationen, ich meine: I(X, Y) = H(X) + H(Y) -