Je construis une application de visioconférence sous OS X.Diffusion en continu de la webcam sur OS X - quelle technologie utiliser?
Quelle technologie serait la meilleure à utiliser pour le streaming vidéo/audio en temps réel capturé à partir de webcam/microphone sous OS X?
Jusqu'à présent, j'a échoué avec ces méthodes:
- utilisant QTKit Je mis les médias, mais il n'y a pas un moyen de le diffuser (sans utiliser le QTSS qui est trop bloaty et difficile à contrôler par programme).
- en utilisant QT Java J'ai tout (presque) fonctionné, mais la bibliothèque est obsolète, elle plante de temps en temps, signale une fuite de mémoire et il n'y a pas moyen d'enregistrer les préférences depuis une boîte de dialogue
- GStreamer utilisant MacPorts, mais il n'y a pas osxvideosrc de travail (ou audio pour cette matière)
Ma prochaine cible est VLC, car il peut accéder à la webcam dans OS X, mais je ne suis pas sûr que ça va me donner ce dont j'ai besoin - puis-je le contrôler entièrement sur une API et puis-je afficher le flux dans une application Cocoa (en utilisant le lecteur QTKit)?
merci pour le conseil. Je vais envisager d'utiliser Flex/Flash à l'avenir. Une mise à jour est que VLCkit peut être utilisé pour la lecture de flux dans OS X et il est plus rapide que QTKit, mais le son n'a pas fonctionné. Quoi qu'il en soit, si quelqu'un veut l'essayer, je mets un guide d'installation [ici] (http://kermit.epska.org/node/13). – metakermit
@ Dražen Lučanin: Le son ne fonctionnait pas ... hmmm ... peut-être que le codec audio est en train de regarder? QT est très particulier sur les codecs qu'il supporte. –
Non, le son ne fonctionnait pas dans ** VLCKit **. La chose amusante est que quand j'ai joué le même flux dans le lecteur VLC cela a fonctionné, ce qui est drôle puisque je leur ai donné à la fois la même URL et qu'ils partagent du code (ou du moins devrait le faire). Cela a aussi fonctionné dans QTKit, mais la latence y est codée en dur par les développeurs d'Apple à 5 secondes donc c'est inutilisable pour RTS. – metakermit