Je pense que c'est faisable aussi longtemps que l'appareil photo du téléphone est pointé sur la tête de l'utilisateur. Cela nécessiterait probablement une assez bonne lumière pour que l'image soit assez nette pour qu'elle puisse reconnaître correctement le visage et les yeux.
Lorsque l'utilisateur ne regarde pas directement la caméra, vous devrez probablement faire une sorte de «reconnaissance de la tête» et déterminer l'orientation de la tête de l'utilisateur. Cela vous donnerait une direction approximative sur où ils regardent.
Je ne connais pas de projets de reconnaissance de visages pour iOS, mais vous pouvez probablement google et trouver un projet existant dans une autre langue et le porter sur iOS avec un peu d'effort.
En note, il y a un projet de bricolage pour la partie head orientation tracking pour PC. Il utilise des lumières infrarouges placées par exemple sur vos écouteurs et une caméra qui détermine l'orientation de votre tête en fonction de cela. Peut-être que cela vous donnera quelques idées.
Parlez-vous du «eye-tracking» comme dans «savoir où l'utilisateur regarde»? Ou parlez-vous de la reconnaissance de l'iris? – Jochem
Je parle de savoir où l'utilisateur regarde sur l'écran (ou hors de l'écran, d'ailleurs). –
Ensuite, je ne reçois pas la balise de reconnaissance de visage, et je ne pense pas que la vie privée est un problème. J'ai peu de connaissances en eye-tracking mais je penserais que ce serait une douleur: petite taille d'écran et variabilité de tout (distances et angles des yeux, écran et tête). – Jochem