Saturday 16 December 2017

Mover média fundo subtração


Estou tentando implementar um método de subtração de fundo simples para a detecção de objetos em movimento em uma cena particular. O objetivo é segmentar um movimento específico de um vídeo para usá-lo em outro vídeo. O algoritmo que estou seguindo é: 1. Pegue os primeiros 25 quadros do vídeo e medie-os para obter um modelo de fundo. 2. Encontre o desvio padrão desses 25 quadros e armazene os valores em outra imagem. 3. Agora estou calculando a diferença absoluta entre cada frame e pixel médio do pixel do modelo do fundo médio. A saída que eu estou recebendo é um tipo de movimento transparente sendo destacado em branco (a diferença absoluta está resultando na transparência, eu acho). Eu quero saber se a minha abordagem é certa ou não considerando que eu vou estar fazendo uma segmentação sobre esta saída como próximo passo E também estou recebendo nenhuma idéia de como usar a imagem de desvio padrão. Qualquer ajuda será apreciada. Deixe-me por favor saber se este não é o tipo de pergunta que eu devo afixar no estouro da pilha. Nesse caso, qualquer referência ou links para outros sites será útil. Perguntado Jun 26 13 at 9: 12Introdução Identificar objetos em movimento a partir de uma seqüência de vídeo é uma tarefa fundamental e crítica em muitas aplicações de visão computacional. Uma abordagem comum é executar subtração de fundo, que identifica objetos em movimento da parte de um quadro de vídeo que difere significativamente de um modelo de plano de fundo. Há muitos desafios no desenvolvimento de um bom algoritmo de subtração de fundo. Primeiro, ele deve ser robusto contra mudanças na iluminação. Em segundo lugar, ele deve evitar a detecção de objetos não-estacionários de fundo, como mover folhas, chuva, neve e sombras lançadas por objetos em movimento. Finalmente, seu modelo de fundo interno deve reagir rapidamente a mudanças no plano de fundo, tais como partida e parada de veículos. Nossa pesquisa começou com uma comparação de vários algoritmos de subtração de fundo para detectar veículos em movimento e pedestres em seqüências de vídeo de trânsito urbano (Cheung e Kamath 2004). Foram consideradas abordagens que variam desde técnicas simples, como a diferenciação de quadros e a filtragem mediana adaptativa, até técnicas de modelagem probabilística mais sofisticadas. Enquanto as técnicas complicadas muitas vezes produzem desempenho superior, nossas experiências mostram que técnicas simples, como filtragem mediana adaptativa, podem produzir bons resultados com uma complexidade computacional muito menor. Além disso, descobrimos que o pré e pós-processamento do vídeo pode ser necessário para melhorar a detecção de objetos em movimento. Por exemplo, por alisamento espacial e temporal, podemos remover a neve de um vídeo como mostrado na Figura 1. Pequenos objetos em movimento, como mover folhas em uma árvore, podem ser removidos pelo processamento morfológico dos quadros após a identificação dos objetos em movimento , Como mostrado na Figura 2. Figura 1. Quadro de vídeo à esquerda mostrando uma cena de trânsito enquanto neva. Observe as faixas na imagem devido aos flocos de neve. A mesma moldura de vídeo após a suavização espacial e temporal está à direita, sem as faixas de neve. Figura 2. A moldura de vídeo à esquerda destaca, em rosa, os objetos detectados como móveis. Observe o movimento das folhas nas árvores em primeiro plano. Processamento morfológico limpa o quadro de vídeo como mostrado à direita. A taxa eo peso das atualizações do modelo afetam grandemente os resultados de primeiro plano. Os modelos de fundo de adaptação lenta não conseguem superar rapidamente grandes alterações no plano de fundo da imagem (como uma nuvem que passa por uma cena). Isso resulta em um período de tempo em que muitos pixels de plano de fundo são classificados incorretamente como pixels de primeiro plano. Uma taxa de atualização lenta também tende a criar uma máscara de fantasma que rastreia o objeto real. Os modelos de plano de fundo de adaptação rápida podem lidar rapidamente com as alterações de plano de fundo, mas falham em taxas de quadros baixas. Eles também são muito suscetíveis ao ruído e ao problema de abertura. Estas observações indicam que uma abordagem híbrida pode ajudar a atenuar as desvantagens de cada um. Criamos uma nova técnica de validação de primeiro plano que pode ser aplicada a qualquer algoritmo de subtração de fundo de adaptação lenta (Cheung e Kamath 2005). Os métodos de adaptação lenta produzem máscaras relativamente estáveis ​​e tendem a ser mais inclusivos do que os métodos de adaptação rápida. Como resultado, eles também podem ter alta taxa de falso-positivo. A validação do primeiro plano examina mais os pixels de primeiro plano individuais numa tentativa de eliminar falsos positivos. Nosso algoritmo primeiro obtém uma máscara de primeiro plano de um algoritmo de adaptação lenta e, em seguida, valida os pixels de primeiro plano por um modelo de objeto em movimento simples construído usando estatísticas de primeiro plano e de segundo plano, bem como um algoritmo de adaptação rápida (Figura 3). Figura 3. As misturas de Gaussianos abordagem (a) não é muito robusto para mudanças na iluminação em comparação com o nosso método proposto (b). Experiências de terreno-verdade com seqüências de tráfego urbano mostraram que nosso algoritmo proposto produz desempenho que é comparável ou melhor do que outras técnicas de subtração de fundo (Figura 4). Figura 4: Comparação de diferentes algoritmos. (A) Imagem original mostrando um carro que começa a se mover depois de ficar parado por um tempo. (C) mediana aproximada, (d) mediana, (e) filtro de Kalman, (f) misturas de Gaussianos, e (g) nosso novo método com validação de primeiro plano. Agradecimentos Os vídeos utilizados em nosso trabalho são do site da KOGS-IAKS Universitaet Karlsruhe. Agradecemos sua disponibilidade para disponibilizar seus dados publicamente. Referências Cheung, S.-C. E C. Kamath, Subtracção Robusta de Fundo com Validação de Primeiro Plano para Vídeo de Tráfego Urbano, Jornal EURASIP sobre Processamento de Sinal Aplicado, Volume 14, pp 1-11, 2005. UCRL-JRNL-201916. Cheung, S.-C. E C. Kamath, técnicas robustas para a subtração do fundo no vídeo do tráfego urbano, comunicações video e processamento da imagem, imagens eletrônicas de SPIE, San Jose, janeiro 2004, UCRL-JC-153846-ABS, UCRL-CONF-200706 PDF. Implementar um método simples de subtracção de fundo para a detecção de objectos em movimento numa determinada cena. O objetivo é segmentar um movimento específico de um vídeo para usá-lo em outro vídeo. O algoritmo que estou seguindo é: 1. Pegue os primeiros 25 quadros do vídeo e medie-os para obter um modelo de fundo. 2. Encontre o desvio padrão desses 25 quadros e armazene os valores em outra imagem. 3. Agora estou calculando a diferença absoluta entre cada frame e pixel médio do pixel do modelo do fundo médio. A saída que eu estou recebendo é um tipo de movimento transparente sendo destacado em branco (a diferença absoluta está resultando na transparência, eu acho). Eu quero saber se a minha abordagem é certa ou não considerando que eu vou estar fazendo uma segmentação sobre esta saída como próximo passo E também estou recebendo nenhuma idéia de como usar a imagem de desvio padrão. Qualquer ajuda será apreciada. Deixe-me por favor saber se este não é o tipo de pergunta que eu devo afixar no estouro da pilha. Nesse caso, qualquer referência ou links para outros sites será útil. Perguntou Jun 26 13 às 9: 12Hi, este vai ser um artigo muito simples, mas você vai encontrá-lo muito útil. Trata-se de extração de fundo de um vídeo. Suponha que você é dado vídeo de filmagens de tráfego, pode ser alguma coisa como esta. Tráfego na Índia. E você é solicitado a encontrar um plano de fundo aproximado. Ou qualquer coisa assim. A extração de backgrounds é importante no rastreamento de objetos. Se você já tem uma imagem do fundo nua, então é simples. Mas em muitos casos, você não vai ter uma imagem e assim, você terá que criar um. Isso é onde Running Average vem a calhar. (Eu pensei sobre isso quando um cara fez uma pergunta no SOF. Link) A função que usamos aqui para encontrar Running Average é cv2.accumulateWeighted (). Por exemplo, se estamos assistindo a um vídeo, continuamos alimentando cada quadro para esta função ea função continua encontrando as médias de todos os quadros alimentados conforme a relação abaixo: src não é nada além de nossa imagem de origem. Pode ser em escala de cinza ou imagem colorida e ponto flutuante de 8 ou 32 bits. Dst é a imagem de saída ou acumulador com os mesmos canais que a da imagem de origem, e é de 32 bits ou de 64 bits ponto flutuante. Além disso, devemos declará-lo primeiro a um valor que será tomado como valor inicial. Alfa é o peso da imagem de entrada. De acordo com o Docs, alpha regula a velocidade de atualização (o quão rápido o acumulador 8220forgets8221 sobre imagens anteriores). Em palavras simples, se o alfa é um valor mais alto, a imagem média tenta pegar mesmo mudanças muito rápidas e curtas nos dados. Se for valor mais baixo, a média torna-se lenta e não considerará mudanças rápidas nas imagens de entrada. Vou explicar um pouco com a ajuda de imagens no final do artigo. No código acima, eu estabeleci duas médias, uma com maior valor alfa e outra com menor valor alfa para que você possa entender o efeito de alfa. No início, ambos são definidos para o quadro inicial da captura. E no laço eles são atualizados. Você pode ver alguns resultados no link SOF que já forneci. (Eu forneço os resultados aqui, você pode verificar o código e valor alfa lá): Eu usei minha webcam e salva frame original e média em execução em um determinado instante. Este é um quadro de um vídeo de tráfego típico tomado por uma câmera estacionária. Como você pode ver, um carro está indo na estrada, ea pessoa está tentando atravessar a estrada em um determinado instante de tempo. Mas veja a média corrente naquele tempo. Não há nenhuma pessoa e carro nessa imagem (Na verdade ele está lá, tem um olhar mais atento, então você vai vê-lo, ea pessoa é mais clara do que carro, já que o carro está se movendo muito rápido e através da imagem, não tem muito Efeito, em média, mas a pessoa está lá por um longo tempo, uma vez que ele é lento e em movimento em toda a estrada.) Agora precisamos ver o efeito de alfa sobre essas imagens.

No comments:

Post a Comment