Je dois écrire un filtre de capture DirectShow qui enveloppe le "vrai" périphérique vidéo (fitler) et désentrelace la vidéo capturée. De la perspective d'interface , cela doit être un périphérique vidéo séparé disponible dans l'énumérateur et lorsqu'il est choisi, il se connecte à un périphérique vidéo réelle et insère un filtre de transformation (désentrelacement) entre la vidéo broche de sortie de l'appareil et la propre broche de sortie . Ma question est la suivante: est-ce que mon approche est correcte? Je veux simplement développer un filtre vidéo de capture DShow , instancier un filtre de transformation à l'intérieur et connecter les broches de mon filtre automatiquement. Existe-t-il un meilleur moyen d '"injecter" un filtre transfrontière entre un appareil vidéo réel et l'application qui l'utilise? CordialementFiltre d'encapsulation du filtre de capture directe Show
Dominik Tomczak
Merci pour la réponse. Est-ce que le mérite élevé provoque l'injection automatique de filtre dans n'importe quel graphique? Comment puis-je contrôler dans quels graphiques mon filtre de transformation sera-t-il injecté? – cubesoft
Pour la 2ème réponse, ai-je vraiment besoin d'un deuxième graphique? Je ne peux pas simplement injecter des fillters dans le graphe d'application? – cubesoft
Si vous voulez injecter des filtres dans le graphique, regardez comment matrixmixer fonctionne. Installez-le sur votre ordinateur, utilisez graphedit, ajoutez un filtre de capture audio, choisissez render ou connectez-vous manuellement à un moteur de rendu. Vous pouvez vous contrôler lorsque vous ajoutez un filtre à un graphique. Par exemple, vous devez veiller à ce qu'il ne soit pas ajouté deux fois au même graphique. – wimh