packz wrote:
> dico la prima cazzata che mi passa per la mente: vedendo il video si nota
> che quando la testa si gira il filtro non funge e per questo, come dici tu,
> servirebbero "più facce", però se si parte dal presupposto che la faccia
> c'è ancora, si potrebbe dire al filtro di offuscare ancora dov'era l'ultima
> volta finché non ne riconosce di nuovo una e così via... non so se è
> implementabile facilmente però potrebbe avere senso... almeno nell'ipotesi
> di una ripresa fissa ad un oratore che rimane sempre nel campo...
Si, si chiama motion tracking ed e' una funzione di opnecv anche quella
(tu gli dici l'oggetto da seguire e lui lo segue).
Per fare quello che dici tu bisognerebbe usare entrambi i filtri
insieme, nell'esempio il riconoscimento e' davvero marginale perche' ho
usato solo un file haar, quello per il riconoscimento frontale, se
avessi usato (e si puo' usarne diversi inseme) anche il profilo e i tre
quarti il riconoscimento sarebbe stato decisamente migliore.
Rimane il fatto che anche usando piu' file haar non tutti i frame del
video sono "coperti" dal riconoscimento, ogni tanto la maschera salta,
il motion tracking potrebbe essere una soluzione plausibile per un web
tool a patto che si indichi in precedenza l'oggetto da seguire (cosa che
credo possa essere fatta sulla parte "blurrata" del frame precedente),
oppure indicando durante uno streaming realtime del video dove applicare
i vettori di movimento, come si fa con cinelerra.
Sbatta
Pero' e' l'unica implementazione che renderebbe pensabile un'anonimita'
approssimativamente definitiva, considerando che opencv agisce sul
singolo frame e qui parliamo di video quindi di immagini in movimento.
ciao
jilt