Tag: deep-learning
Deep Learning ist ein Bereich des maschinellen Lernens, dessen Ziel es ist, zu lernen komplexe Funktionen über spezielle neuronale Netzwerk-Architekturen, die „in die Tiefe“ (aus mehreren Schichten). Dieser tag sollte genutzt werden, um Fragen über die Implementierung von deep-learning-Architekturen. General machine-learning-Fragen sollten mit dem Stichwort „machine learning“. Darunter ein tag für die relevanten software-Bibliothek (z.B. „keras“ oder „tensorflow“) ist hilfreich.
2
Antworten
Weiß wer, ob gibt es ein nettes LSTM-Modul für Caffe? Ich fand eine aus einem github-account von russel91 aber offenbar die Seite mit Beispielen und Erklärungen verschwunden (Ehemals http://apollo.deepmatter.io/ --> jetzt leitet nur die github-Seitedie keine Beispiele
2
Antworten
Ich versuche zu bauen, LSTM autoencoder mit dem Ziel, immer eine Feste Größe-Vektor aus einer Reihenfolge, welche die Reihenfolge darstellt, so gut wie möglich. Diese autoencoder besteht aus zwei teilen: LSTM Encoder: Dauert eine Folge und liefert
2
Antworten
Kann ich nicht verstehen, warum die dropout-wie das funktioniert in der tensorflow. Der blog von CS231n sagt, dass "dropout is implemented by only keeping a neuron active with some probability p (a hyperparameter), or setting it to
3
Antworten
Spiele ich mit ANN, die ist ein Teil von Udacity DeepLearning natürlich. Habe ich eine Belegung, die die Einführung Verallgemeinerung auf das Netzwerk mit einer versteckten aufgrund der Kr-Ebene mit L2-Verlust. Ich Frage mich, wie man richtig
2
Antworten
Ich bin mit Lasagne zu erstellen, ein CNN für die MNIST Datensatz. Bin ich nach genau diesem Beispiel: Convolutional Neural Networks und Feature-Extraktion mit Python. Die CNN-Architektur habe ich im moment, das sind keine Aussteiger Schichten: NeuralNet(
6
Antworten
Ich bin versucht, zu replizieren VGG16 Modell in keras, Folgendes ist mein code: model = Sequential() model.add(ZeroPadding2D((1,1),input_shape=(3,224,224))) model.add(Convolution2D(64, 3, 3, activation='relu')) model.add(ZeroPadding2D((1,1))) model.add(Convolution2D(64, 3, 3, activation='relu')) model.add(MaxPooling2D((2,2), strides=(2,2))) model.add(ZeroPadding2D((1,1))) model.add(Convolution2D(128, 3, 3, activation='relu')) model.add(ZeroPadding2D((1,1))) model.add(Convolution2D(128, 3, 3,
2
Antworten
Ich bin mit Caffe, die drucken jede Menge Ausgabe auf der shell beim laden des neuronalen Netzes. Ich möchte zu unterdrücken, die Ausgabe, die angeblich gemacht werden, durch die Einstellung GLOG_minloglevel=1 bei der Ausführung des Python-Skripts. Ich
6
Antworten
Ich versuche eine Op, die nicht verhält wie erwartet. graph = tf.Graph() with graph.as_default(): train_dataset = tf.placeholder(tf.int32, shape=[128, 2]) embeddings = tf.Variable( tf.random_uniform([50000, 64], -1.0, 1.0)) embed = tf.nn.embedding_lookup(embeddings, train_dataset) embed = tf.reduce_sum(embed, reduction_indices=0) Also muss ich
3
Antworten
Ich habe irgendwie ein Problem, herauszufinden, wie die Optimierung der Parameter für meine perceptron-Algorithmus, so führt, dass es relativ gut auf ungesehenen Daten. Ich habe implementiert eine überprüfte arbeiten perceptron-Algorithmus, und ich möchte, um herauszufinden, eine Methode,
2
Antworten
Für alle Keras layer (Layer Klasse), kann mir jemand erklären, wie zu verstehen, den Unterschied zwischen input_shapeunitsdim usw.? Beispielsweise der doc sagt units geben Sie den Ausgabe-Form einer Ebene. In das Bild des neuronalen Netzes unter hidden
4
Antworten
Habe ich vor kurzem geprüft eine interessante Umsetzung für convolutional text Klassifikation. Aber alle TensorFlow code, den ich ' ve verwendet eine zufällige (nicht pre-geschult) die Einbettung von Vektoren wie folgt: with tf.device('/cpu:0'), tf.name_scope("embedding"): W = tf.Variable(
1
Antworten
Ich versuche zu verstehen, LSTMs und wie Sie zu bauen mit Keras. Ich fand heraus, dass es hauptsächlich um die 4 Modi zum ausführen einer RNN (die 4 richtigen im Bild) Bild-Quelle: Andrej Karpathy Nun Frage ich
1
Antworten
Ich versuche zu verstehen, die Rolle der Flatten Funktion in Keras. Unten ist mein code, es ist eine einfache zwei-Schicht-Netzwerk. Es dauert in der 2-dimensionalen Daten der Form (3, 2) und der Ausgänge 1-dimensionale Daten der Form
2
Antworten
Ich versuche, die Implementierung eines neuronalen Netzwerks, das Stuft die Bilder in einer der zwei diskreten Kategorien. Das problem ist jedoch, dass es derzeit immer prophezeit 0 für jeden input und ich bin mir nicht wirklich sicher,
2
Antworten
Ich bin neu TensorFlow und machine learning. Ich bin versucht, zu klassifizieren, zwei Objekte, eine Tasse und einen USB-Stick (jpeg-Bilder). Ich habe trainiert und exportiert ein Modell.ckpt erfolgreich. Nun ich bin versucht, wiederherstellen der gespeicherten Modells.ckpt für
2
Antworten
Ich bin neu Tensorflow Ich bin mit einem Tiefen lernen Zuordnung von Udacity auf iPython notebook. link Und es hat einen Fehler. AttributeError Traceback (most recent call last) `<ipython-input-18-3446420b5935>` in `<module>`() 2 3 with tf.Session(graph=graph) as session:
1
Antworten
Kann bitte jemand klar erklären, den Unterschied zwischen 1D -, 2D-und 3D-Wellen in der CNN (Deep learning) mit Beispielen? InformationsquelleAutor der Frage xlax | 2017-03-19
2
Antworten
Angenommen, Sie benötigen, um eine Aktivierung der Funktion ist nicht möglich, nur mithilfe von vordefinierten tensorflow Bausteine, was können Sie tun? So, in Tensorflow es ist möglich, um Ihren eigenen Aktivierungs-Funktion. Aber es ist ziemlich kompliziert, Sie
4
Antworten
Ich bin neu TensorFlow. Während ich mich der Lektüre der vorhandenen Dokumentation, ich fand den Begriff tensor wirklich verwirrend. Weil es, ich muss folgende Fragen klären: Was ist die Beziehung zwischen tensor und Variabletensor vs. tf.constant, 'tensor'
8
Antworten
Habe ich gelesen, einige Dinge, die auf neuronale Netze und ich verstehe das Allgemeine Prinzip eines single-layer neural network. Ich verstehe die Notwendigkeit für zusätzliche Schichten, aber warum sind nichtlineare Aktivierung von Funktionen verwendet? Diese Frage ist,
8
Antworten
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Ich kann nicht verstehen, die Pflicht, diese Funktion. Es ist wie eine lookup-Tabelle? Was bedeutet die Rückkehr der Parameter für jeden entsprechenden id (ids)? Beispielsweise in der skip-gram Modell, wenn wir die tf.nn.embedding_lookup(embeddings,
1
Antworten
Meine Frage ist in zwei miteinander verbundene Teile: Wie berechne ich die max entlang einer bestimmten Achse von tensor? Zum Beispiel, wenn ich x = tf.constant([[1,220,55],[4,3,-1]]) Ich möchte etwas wie x_max = tf.max(x, axis=1) print sess.run(x_max) output:
2
Antworten
Ich habe eine pkl-Datei aus dem MNIST Datensatz, der aus der handgeschriebenen Ziffer Bilder. Möchte ich einen Blick auf jede dieser Ziffer Bilder, so brauche ich zum entpacken der pkl-Datei, es sei denn, ich kann nicht herausfinden,
1
Antworten
Ich studiere TensorFlow und wie es zu benutzen, auch wenn ich bin kein Experte in neuronalen Netzen und deep learning (nur die Grundlagen). Folgenden tutorials, ich verstehe nicht, die Reale und praktische Unterschiede zwischen den drei Optimierer
2
Antworten
Habe ich nach den tutorials auf DeepLearning.net um zu lernen, wie zu implementieren ist ein convolutional neural network, extrahiert features von Bildern. Die Tutorials sind gut erklärt, einfach zu verstehen und zu befolgen. Möchte ich erweitern, die
3
Antworten
Ich bin auf der Suche nach einer Methode wie die Berechnung der Anzahl der Ebenen und die Anzahl der Neuronen pro Schicht. Als Eingang habe ich nur die Größe des input-Vektors, die Größe der output-Vektor und der
3
Antworten
Ich habe einen Datensatz von Bildern, die mehrere Bezeichnungen haben; Es sind 100 Klassen im dataset, und jedes Bild mit 1 bis 5 Etiketten mit Ihnen verbunden. Ich bin nach der Anweisung in der folgenden URL: https://github.com/BVLC/caffe/issues/550
3
Antworten
War ich auf der Suche nach alternativen Möglichkeiten, um speichern Sie eine trainierte Modell in PyTorch. Bisher habe ich zwei alternativen gefunden. Fackel.save() zum speichern einer Modell-und Fackel.load() ein Modell laden. Modell.state_dict() speichern Sie eine trainierte Modell
9
Antworten
Was ist der Unterschied zwischen Epoche und iteration beim training ein multi-layer perceptron? InformationsquelleAutor der Frage mohammad | 2011-01-20
3
Antworten
Ich bin versucht zu versöhnen, mein Verständnis von LSTMs und wies darauf hin, hier: http://colah.github.io/posts/2015-08-Understanding-LSTMs/ mit dem LSTM umgesetzt in Keras. Ich bin nach dem blog geschrieben http://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/ für die Keras tutorial. Was ich bin vor allem
3
Antworten
Bin ich derzeit spielen mit ANN, die ist ein Teil von Udactity DeepLearning natürlich. Ich erfolgreich gebaut und Zug-Netz eingeführt und die L2-Regularisierung auf allen gewichten und biases. Jetzt bin ich versucht, die dropout-für hidden-layer, um zu
2
Antworten
Ich versuche nur, um herauszufinden, wie ich verwenden können,Caffe. So zu tun, ich habe nur einen Blick auf die verschiedenen .prototxt Dateien im Ordner Beispiele. Es ist eine option, die ich nicht verstehe: # The learning rate
2
Antworten
Versuche ich trainiere mein Modell klassifiziert die Bilder. Das problem, das ich habe, ist, Sie haben verschiedene Größen. Gibt es eine Möglichkeit zu trainieren, diese Bilder ohne Größenänderung. InformationsquelleAutor der Frage Asif Mohammed | 2017-01-28
4
Antworten
Ich bin nach diese tutorial für das erlernen der TensorFlow Schlank, aber bei der Ausführung des folgenden code für die Gründung: import numpy as np import os import tensorflow as tf import urllib2 from datasets import imagenet
2
Antworten
Blick auf ein Beispiel 'solver.prototxt'geschrieben am BVLC/caffe git, es ist ein training meta-parameter weight_decay: 0.04 Was bedeutet dieser meta-parameter bedeuten? Und welchen Wert soll ich zuweisen? InformationsquelleAutor der Frage Shai | 2015-08-24
6
Antworten
Angesichts der Beispielcode. Ich würde gerne wissen, Wie sich zu bewerben gradient clipping auf dieses Netzwerk auf der RNN, wo es eine Möglichkeit von explodierenden Verläufe. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) Dies ist ein Beispiel, das verwendet werden
3
Antworten
Wenn wir 10 Eigenvektoren, dann können wir die 10 neuronalen Knoten im input-layer.Wenn wir 5 Leistungsklassen dann können wir 5 Knoten im output-layer.Aber was sind die Kriterien für die Auswahl der Anzahl der hidden layer in einem
3
Antworten
Wenn ich trainierte mein neuronales Netz mit Theano oder Tensorflow, Sie werden berichten, eine variable namens "Verlust" pro Epoche. Wie deute ich diese variable? Höheren Verlust besser oder schlechter ist, oder was bedeutet es für die endgültige
6
Antworten
Fand ich in vielen neural network code umgesetzt, TensorFlow, die Regularisierung Begriffe werden oft umgesetzt, indem Sie manuell hinzufügen einer zusätzlichen Begriff, der Verlust an Wert. Meine Fragen sind: Gibt es eine elegantere oder empfohlene Art der
2
Antworten
Drop-Out ist die Regularisierung der Techniken. Und ich will es anwenden, um notMNIST Daten zu reduzieren, over-fitting bis zum Ende meiner Udacity Deep-Learning-Kurs Zuordnung.Ich habe gelesen das docs tensorflow auf wie nennen die tf.nn.dropout. Und hier ist
5
Antworten
Ich versuche, einen neuen Wert zuweisen, um eine tensorflow variable in python. import tensorflow as tf import numpy as np x = tf.Variable(0) init = tf.initialize_all_variables() sess = tf.InteractiveSession() sess.run(init) print(x.eval()) x.assign(1) print(x.eval()) Aber die Ausgabe die
6
Antworten
Ich trainiert eine binäre Klassifikation Modell mit CNN, und hier ist mein code model = Sequential() model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1], border_mode='valid', input_shape=input_shape)) model.add(Activation('relu')) model.add(Convolution2D(nb_filters, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(MaxPooling2D(pool_size=pool_size)) # (16, 16, 32) model.add(Convolution2D(nb_filters*2, kernel_size[0], kernel_size[1])) model.add(Activation('relu')) model.add(Convolution2D(nb_filters*2, kernel_size[0],
4
Antworten
Ich Spiele mit dem reuters-Beispiel-dataset, und es läuft wunderbar (mein Modell trainiert wird). Ich lese über so speichern Sie ein Modell, damit ich laden konnte es später wieder zu nutzen. Aber wie kann ich diese gespeicherten Modells
7
Antworten
Verwendung Von Anaconda Python 2.7 In Windows 10. Ich trainiere eine Sprache Modells mit dem Keras Beispiel: print('Build model...') model = Sequential() model.add(GRU(512, return_sequences=True, input_shape=(maxlen, len(chars)))) model.add(Dropout(0.2)) model.add(GRU(512, return_sequences=False)) model.add(Dropout(0.2)) model.add(Dense(len(chars))) model.add(Activation('softmax')) model.compile(loss='categorical_crossentropy', optimizer='rmsprop') def sample(a, temperature=1.0):
5
Antworten
Frage ich mich, ob es eine Möglichkeit gibt, dass ich verwenden können, unterschiedliche lernraten für verschiedene Ebenen wie die, was im Caffe. Ich bin versucht zu ändern, eine pre-geschult-Modell und verwenden Sie es für andere Aufgaben. Was
8
Antworten
Beim "googl ' Ing" und mache ein paar Untersuchungen, die ich nicht in der Lage waren zu finden, alle ernst/beliebte framework/sdk für den wissenschaftlichen GPGPU-Computing und OpenCL auf AMD hardware. Gibt es eine Literatur-und/oder software, die ich
3
Antworten
In diesem ist tutorial-code von TensorFlow website, könnte jemand helfen zu erklären, was bedeutet global_step bedeuten? Fand ich auf der Tensorflow website geschrieben, dass globalen Schritt wird verwendet, zählen die Ausbildung Schritte, aber ich weiß nicht so
3
Antworten
Ich begann zu spielen mit TensorFlow vor zwei Tagen, und ich Frage mich, ob es ist der Triplett-und der kontrastiven Verluste umgesetzt. Habe ich die Dokumentation, aber ich habe nicht gefunden, irgendein Beispiel, oder eine Beschreibung über
1
Antworten
Deep Learning wurde erfolgreich auf mehreren großen Daten-sets für die Einstufung einer Handvoll Klassen (Katzen, Hunde, Autos, Flugzeuge, etc), mit Auftritten schlagen einfacher Deskriptoren wie Taschen von Funktionen über SIFT, Farbe Histogramme, etc. Dennoch Ausbildung ein solches