Akustik-training mit SAPI Speech API 5.3

Microsoft SAPI 5.3 Speech API auf Vista, wie Sie programmgesteuert tun akustisches Modell der Ausbildung eines RecoProfile? Mehr konkret, wenn Sie eine text-Datei und eine audio-Datei von einem user zu sprechen, dass Texte, welche Reihenfolge von SAPI Anrufe würden Sie machen, zu trainieren, das Profil des Benutzers, mit text-und audio -?

Update:

Weitere Informationen zu diesem problem habe ich noch nicht gelöst:
Rufen Sie ISpRecognizer2.SetTrainingState( TRUE, TRUE ) auf "Anfang" und ISpRecognizer2.SetTrainingState( FALSE, TRUE ) in "das Ende." Aber es ist noch unklar, nur, wenn solche Aktionen passieren im Verhältnis zu anderen Aktionen.

Zum Beispiel, haben Sie, um die verschiedenen Aufrufe zur Einrichtung einer Grammatik, mit der text, der passt Ihre audio-und andere Anrufe, um hook up das audio-und andere Anrufe, um verschiedene Objekte zu sagen: "du bist gut zu gehen." Aber was sind die Interdependenzen -- was muss passieren, bevor was anderes? Und wenn Sie eine audio-Datei statt in der system-Mikrofon-Eingang, macht das das relative timing weniger vergeben, weil die Erkennung ist nicht zu halten, dort zu sitzen, zuzuhören, bis die Lautsprecher richtig?

  • Verknüpft ist eine gute Quelle des Wissens für alles, was SAPI Ausbildung im Zusammenhang, sobald Sie beginnen, schmutzig zu werden in den code: Siehe auch die Frage verknüpft. Und die Ausbildung muss in C++ geschrieben. Der C# - interfaces nicht alles, was Sie brauchen, um diese Aufgabe zu erfüllen: stackoverflow.com/questions/9760262/...
InformationsquelleAutor markab | 2008-11-18
Schreibe einen Kommentar