nítida na Figura 3D, e, portanto, mais visível do que no quadro original da Figura 3A. O
objeto também possui maior contraste, o que geralmente significa tornar as cores escutas
mais escuras e as cores claras ainda mais claras.
A inclusão do aprimoramento de objeto no sistema da Figura 1 oferece vantagens
5consideráveis. Problemas associados ao rastreamento imperfeito e aprimoramentos
distorcidos são superados. O rastreamento imperfeito pode tornar difícil a localização de um
objeto. De quadro em quadro, a localização do objeto pode estar ligeiramente desviada e
cada quadro pode ser ligeiramente desviado de forma diferente. Isso pode resultar em
cintilação devido, por exemplo, as partes do fundo serem aprimoradas em vários quadros
10e/ou diferentes partes do objeto serem aprimoradas em diversos quadros. Além disso, as
técnicas comuns de aprimoramento, sob certas circunstâncias, podem introduzir distorções.
Como indicado acima, o refinamento das informações de localização de objeto,
antes do aprimoramento, pode se fazer necessário quando as informações de localização
de objeto somente se aproximam da natureza do objeto e da localização do objeto em cada
15quadro para evitar que sejam aprimorados aspectos fora dos limites da região na qual está
localizado o objeto.
O desenvolvimento das informações de localização de objeto pelo módulo de
localização de objeto 14 e a distribuição das informações de localização de objeto ao
módulo de aprimoramento de objeto 16 podem ser totalmente automáticos, conforme
20descrito acima. À medida que os quadros do vídeo de entrada são recebidos pelo módulo de
localização de objeto 14, as informações de localização de objeto são atualizadas pelo
módulo de localização de objeto e as informações de localização de objeto atualizadas são
distribuídas ao módulo de aprimoramento de objeto 16.
O desenvolvimento das informações de localização de objeto pelo módulo de
25localização de objeto 14 e a distribuição das informações de localização de objeto ao
módulo de aprimoramento de objeto 16 também podem ser semi-automáticos. Em vez de
distribuir as informações de localização de objeto diretamente a partir do módulo de
localização de objeto 14 ao módulo de aprimoramento de objeto 16, um usuário após ter
disponível as informações de localização de objeto, pode adicionar manualmente, à imagem
30digital do vídeo de entrada, marcações, como linhas delimitadoras, que definem a região de
tamanho predefinido na qual está localizado o objeto.
O desenvolvimento das informações de localização de objeto e a distribuição das
informações de localização de objeto ao módulo de aprimoramento de objeto 16 também
podem ser totalmente manuais. Em tal operação, o usuário visualiza a imagem digital do
35vídeo de entrada e adiciona manualmente marcações à imagem digital do vídeo de entrada,
tais como linhas delimitadoras, que definem a região de tamanho predefinido na qual se
localiza o objeto. Por uma questão prática, a operação totalmente manual não é
recomendada para a cobertura de eventos ao vivo.
7
em que imin = mref - sref - 0,5, imax = mref + sref + 0,5 e I = (imax – imin) / N, em que N
20é um valor predefinido (por exemplo, 10). Note que . indica uma operação de
arredondamento para baixo de número inteiro .
Para uma curva de conjunto de níveis específica Cj, sejam mj, sj, aj e xj = (xj, yj) os
valores medidos da intensidade média, desvio padrão das intensidades, área e o centro,
respectivamente, da região de imagem contida por Cj. Também são calculados os gradientes
25de intensidade média, Gavg(Cj), ao longo de Cj. Em outras palavras, Gavg(Cj) é a média das
grandezas de gradiente em cada pixel em Cj. Para cada Cj, uma pontuação é então
calculada como se segue:
Após estimar o limite do objeto, os valores de referência mref, sref, aref, e xref podem
ser atualizados com um fator de aprendizado [0, 1] (por exemplo, mrefnew = mj + (1 -
)mref). No caso de uma sequência de vídeo, o fator poderia ser em função do tempo (por
exemplo, índice de quadro) t, iniciando em um valor alto e então diminuindo com cada
5quadro, finalmente saturando em um valor baixo fixo, min.
No aprimoramento do objeto, a visibilidade do objeto é aprimorada mediante a
aplicação de operações de processamento de imagem nas adjacências do objeto. Essas
operações podem ser aplicadas ao longo dos limites do objeto (por exemplo, aguçamento
de borda), dentro do objeto (por exemplo, aprimoramento de textura) e possivelmente até
10mesmo fora do objeto (por exemplo, aumento de contraste). Nas implementações descritas
aqui, são propostos diversos métodos para aprimoramento do objeto. O primeiro consiste
em aguçar as bordas dentro do objeto e ao longo de seu contorno. O segundo consiste em
aumentar o objeto mediante a aplicação iterativa de operações de suavização, aguçamento
e estimação de limite, não necessariamente nessa ordem. Outros métodos possíveis
15incluem o uso de filtros morfológicos e substituição de objeto.
Uma forma de chamar mais atenção para um objeto consiste em aguçar a bordas
dentro do objeto e ao longo do contorno do objeto. Isso torna os detalhes no objeto mais
visíveis, além de fazer o objeto se sobressair do fundo. Além disso, bordas mais aguçadas
tendem a ser conservadas durante a compactação. O algoritmo para aprimoramento de
20objeto por aguçamento opera em um objeto um quadro por vez e toma como sua entrada a
imagem de intensidade I(x, y), e os parâmetros de objeto (isto é, localização, tamanho etc.)
fornecidos pelo módulo de localização de objeto 14. O algoritmo compreende três etapas
como se segue:
• Estimar o limite do objeto, O.
25 • Aplicar o filtro de aguçamento F a todos os pixels na imagem I, dentro e no limite
do objeto. Isso nos dá novos valores aguçados, Isharp(x, y) para todos os pixels contidos por
O,
em que Isharp(x, y) = (I F)(x, y) e (I F) indica a convolução da imagem I com o
filtro de aguçamento F.
30 • Substituir os pixels I(x, y) por Isharp(x, y) para todo (x, y) dentro de ou em O.
O filtro de aguçamento F é definido como a diferença da função delta de Kronecker
e do operador Laplaciano discreto 2
a objeto 17 explora a melhor visibilidade do objeto para codificar o objeto com alta
fidelidade.
Para otimizar o aprimoramento do vídeo de entrada, o codificador com suporte a
objeto 18 recebe as informações de localização de objeto do módulo de localização de
5objeto 14, com isso preservando melhor o aprimoramento da região na qual está localizado
o objeto e, consequentemente, o objeto. Quer o aprimoramento seja preservado ou não, a
região na qual o objeto está localizado é melhor preservada do que sem a codificação pelo
codificador com suporte a objeto 18. No entanto, o aprimoramento também minimiza a
degradação do objeto durante a compactação. Esse aprimoramento otimizado é realizado
10mediante o gerenciamento apropriado das decisões de codificação e da alocação de
recursos, tais como bits.
O codificador com suporte a objeto 18 pode ser configurado para tomar decisões no
modo de macrobloco (MB) “amigáveis ao objeto”, a saber, as que apresentam menos
probabilidade de degradar o objeto. Tal configuração, por exemplo, pode incluir um
15particionamento amigável ao objeto do MB para fins de predição, tal como ilustrado pelas
Figuras 7A a 7C. Outra abordagem consiste em forçar uma quantização mais fina, a saber,
mais bits, aos MBs contendo objetos. O resultado disso é que o objeto recebe mais bits.
Ainda outra abordagem visa o próprio objeto para bits adicionais. Ainda outra abordagem
usa uma métrica de distorção ponderada durante o processo de otimização de distorção de
20taxa, em que os pixels pertencentes às regiões de interesse teriam maior peso do que os
pixels fora das regiões de interesse.
Referindo-se às Figuras 7A a 7C, são apresentadas três subdivisões possíveis de
um macrobloco 16x16. Tais subdivisões são parte da decisão de modo realizada por um
codificador para determinar como codificar o MB. Uma métrica essencial é que, se o objeto
25ocupar uma porcentagem maior da área da subdivisão, então o objeto tem menos tendência
a ser degradado durante a codificação. Isso se dá porque a degradação do objeto
degradaria a qualidade de uma parte maior da subdivisão. Portanto, na Figura 7C, o objeto
constitui apenas uma pequena parte de cada subdivisão 16x8, e, por consequência, isto não
é considerado uma subdivisão satisfatória. Um codificador com suporte a objeto em várias
30implementações sabe onde o objeto está localizado e fatora essa informação de localização
em sua decisão de modo. Tal codificador com suporte a objeto favorece as subdivisões que
resultam no objeto ocupando uma parte maior da subdivisão. Em geral, o objetivo do
codificador com suporte a objeto 18 é o de ajudar o objeto a sofrer o mínimo de degradação
possível durante o processo de codificação.
35 Como indicado na Figura 1, o módulo de localização de objeto 14, o módulo de
aprimoramento de objeto 16 e o módulo codificador com suporte a objeto 18 são
componentes do transmissor 20 que recebem vídeo de entrada de uma imagem digital
contendo um objeto de interesse e transmitem um fluxo de vídeo compactado com a
13
REIVINDICAÇÕES
1. Sistema para melhorar a visibilidade de um objeto em uma imagem digital,
CARACTERIZADO por compreender:
meios para fornecer um vídeo de entrada contendo um objeto; meios para:
5 (a) armazenar informações que representam a natureza e as características do
objeto, e
(b) desenvolver, em resposta ao vídeo de entrada e às informações que
representam a natureza e as características do objeto, informações de localização de objeto
que identificam e localizam o objeto;
10 meios, responsivos à entrada de vídeo e às informações de localização de objeto,
para desenvolver um vídeo aprimorado da parte do vídeo de entrada que contém o objeto e
a região da imagem digital na qual está localizado o objeto; e
meios para codificar o vídeo aprimorado.
2. Sistema para melhorar a visibilidade de um objeto em uma imagem digital, de
15acordo com a reivindicação 1, CARACTERIZADO por adicionalmente incluir:
(a) meios para transmitir o vídeo aprimorado codificado.
(b) meios para decodificar o vídeo aprimorado codificado, e
(c) meios para exibir o vídeo aprimorado.
3. Sistema para melhorar a visibilidade de um objeto em uma imagem digital, de
20acordo com a reivindicação 1, CARACTERIZADO pelo fato de que os referidos meios para
desenvolver as informações de localização de objeto incluem:
(a) meios para varrer setores do vídeo de entrada, e
(b) meios para comparar os setores varridos do vídeo de entrada com as
informações armazenadas que representam a natureza e as características do objeto para
25identificar e localizar o objeto na imagem que possui natureza e características similares às
informações armazenadas que representam a natureza e as características do objeto.
4. Sistema para melhorar a visibilidade de um objeto em uma imagem digital, de
acordo com a reivindicação 2, CARACTERIZADO pelo fato de que:
(a) as informações de localização de objeto somente aproximam-se da identidade e
30localização do objeto, e
(b) os referidos meios para codificação do vídeo de entrada aprimorado:
(1) recebem as informações de localização de objeto, e
(2) incluem meios para refinar as informações de localização de objeto.
5. Sistema para melhorar a visibilidade de um objeto em uma imagem digital, de
35acordo com a reivindicação 4, CARACTERIZADO pelo fato de que os referidos meios para
refinar as informações de localização de objeto incluem meios para:
(a) estimar o limite do objeto, e
(b) aprimorar o objeto.
16
RESUMO
“SISTEMA E MÉTODO PARA MELHORAR A VISIBILIDADE DE UM OBJETO EM
UMA IMAGEM DIGITAL”
A visibilidade de um objeto em uma imagem digital é aprimorada comparando-se
5um vídeo de entrada da imagem digital com informações armazenadas que representam a
natureza e as características do objeto para desenvolver informações de localização de
objeto que identificam e localizam o objeto. A visibilidade do objeto e da região na qual o
objeto está localizado é aprimorada pelo processamento de imagem e o vídeo de entrada
aprimorado é codificado.
10
19
22 – DECODIFICADOR
15 DECODED VIDEO = VÍDEO DECODIFICADO
24 – PÓS-PROCESSAMENTO COM SUPORTE A OBJETO
PROCESSED VIDEO = VÍDEO PROCESSADO
26 – MEIO DE EXIBIÇÃO
20 FIG. 2
OBJECT = OBJETO
ELLIPSE = ELIPSE
FIG. 3B
25 Localização do objeto
FIG. 3C
Refinamento da área alvo
30 FIG. 3D
Aprimoramento do objeto
FIG. 4
BOUNDING ELLIPSE = ELIPSE DELIMITADORA
35 IMAGE INTENSITY, FRAME = INTENSIDADE DA IMAGEM, QUADRO
20
20 FIG. 6
PARÂMETROS DO OBJETO (LOCALIZAÇÃO APROX., TAMANHO, ETC.)
INTENSIDADE DA IMAGEM
QUADRO, I
25
CONSIDER... = CONSIDERE UMA SUBIMAGEM J(x, y) DA IMAGEM I, QUE
CONTÉM INTEIRAMENTE O OBJETO
10
15