Senden WebRTC MediaStream über Websocket (RTP über HTTP/Websocket)
WebRTC ist unter anderem gedacht für die Echtzeit-browser-zu-browser-media-Kommunikation, aber in meinem Fall wird es verwendet werden, für die browser-zu-server-audio-Kommunikation.
Aus Informationen, die ich gesammelt habe, die MediaStream werden mittels RTP über UDP.
Dies erfordert mindestens zwei weitere ports neben dem verwendeten Protokoll für die Signalisierung, etwas, was ich gerne vermeiden möchte.
Innerhalb von WebRTC, gibt es eine Möglichkeit der Verwendung von RTP über Websocket anstelle von RTP über UDP, so dass ich nur auf port 80 oder 443 verwenden?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Nein, das wird nicht möglich sein, mittels WebRTC.
WebRTC wurde gebaut, um den Browser geben drei Haupt-Funktionen:
Diese Funktionen sind zugänglich, um web-Anwendungen über ein Javascript-API definiert hier.
Für den Zugriff auf Medien-Geräten, die Sie verwenden können, getUserMedia() und erhalten Sie ein MediaStream zu befestigen, um HTML5-audio-und-video-tags.
Zum erstellen einer SRTP-session, müssen Sie erstellen eines peer-Verbindung und Verwaltung der streams zu verwenden.
Haben Sie auf Wunsch die browser, ein media-SDP-Angebot und senden Sie es an die andere Partei mit einem beliebigen Protokoll (z.B. websockets). Wenn die andere Partei erhält die Ihr SDP-Angebot, es kann Spritzen es in die browser-Anfrage eine SDP-Antwort, und senden Sie es zurück. Sobald beide Browser haben die Angebote, Sie beginnen den SRTP-negotiation, mit EIS.
So, werden Sie nicht haben Zugriff auf RTP-Pakete zu senden, die Sie über websockets.
Tatsächlich, der plan ist die Unterstützung von RTCP-mux RFC 5761 und irgendeine form von BUNDLES (noch in Diskussion) zu fusionieren alle - streams auf einem einzigen port. Jedoch wird der port gewählt werden, mit dem ICE/STUN. Wenn nötig, würde es auch verwenden, DREHEN Sie, und schließlich Unterstützung der TURN-TCP, das könnte laufen über den port 80 glaube ich. Die Qualität leiden wird, aber.