Anda di halaman 1dari 3

Colégio Técnico - UFMG [10pt]

Domótica e Robótica

Nathan Xavier

1 Aula 01

1.1 Introdução

• A robótica moderna é apresenta erros inerentes e imprevisı́veis;


• Sensores e atuadores com limitações e incertos;
• Softwares com incertezas
A probabilidade aplicada em robótica apresenta as seguintes fontes de erros:
Cinco fontes de incertezas
• Dinâmica do ambiente
• Efeitos aleatôrios
• Modelos imprecisos
• Limitações dos sensores
• Aproximações computacionais
Robótica probabilı́stica busca um nivelamento entre o sensoreamento e modelagem dos robôs, sendo
consideradas incertezas tanto nos sensores quanto nos modelos.

1.1.1 Sensores Proprioceptivos

Sensores que indicam grandezas próprias do robô.

1.1.2 Sensores Externo Ceptı́vel

Sensores que indicam grandezas ou localizações espaciais

1.2 Exemplo - Robô Hololômico

Roda Unidirecional (Omnidirecional) O robô anda nas direções Vx e Vy; O robô é equiapdo com sensores
globais do tipo GPS Perı́odo de amostragem de 1s Erros aleatórios

1
2 Aula 02

2.1 PMF e PDF

PMF (P r) é a Função Massa de Probabilidade → Valor local da probabilidade de um valor X num


Formato Discreto.
PDF (p(x)) é a Função Densidade Probabilidade → Probabilidade determinada em um intervalo de
valores num Formato Contı́nuo.
Z xf
Pr = p(x)dx
xo

A PDF Gaussiana em <2 é num formato elipsoide.

X
P (x) = 1
Z
p(x)dx = 1

2.1.1 Probabilidades Condicionais

Se X e Y são independentes:
P (x, y) = P (x) · P (y)

A Probabilidade Conjunta (P (x|y)) de X dado Y é:

P (x|y) = P (x, y)/P (y)

P (x, y) = P (x|y) · P (y)

Obs:
P (x|y) = P (x, y)/P (y) → P (x|y) = P (x) · P (y)/P (y) → P (x|y) = P (x)

2.1.2 Teorema da Probabilidade Total

Caso Discreto: X
P (x) = P (x|y) · P (y)

Caso Contı́nuo: Z
p(x) = p(x|y) · p(y)dy

2.1.3 Teorema de Bayes

A probabilidade de P (x, y) é igual à probabilidade de P (y, x)

P (x, y) = P (x|y)P (y) = P (y|x)P (x)

P (y|x)P (x)
P (x|y) =
P (y)

A dependência de P(y), na prática, é única por geralmente representar um sensor. No cálculo, P(y) é
identificado como um valor de Ganho constante ou uma Norma.

2
É possı́vel fazer o Condicionamento de variávels de modo a retirar a dependência de outras variáveis.
Exemplo 1: Considerando uma relação dependente entre X e Z, é possı́vel fazer o condicionamento de X
em Y, na qual Y não é dependente de Z. (Teorema de Markov)
Exemplo 2: A posição atual de um robô (conhecimento de estar dentro de uma sala) pode desconsiderar
todos os movimentos anteriores sobre localização ou movimentos salvos.

2.2 Exemplo - Probabilidade de Porta Aberta

Calcular a probabilidade de verificar a porta aberta dado um sensor Z (P (open|Z)).


P (open|z) é um sinal de Diagnóstico. P (z|open) é Causal.
Supondo: P (z|open) = 0.6 e P (z|open)
¯ = 0.3, além de que P (open) = P (open)
¯ = 0.5
P (z|open)P (open)
P (open|z) = P (z) , onde P (z) = P (z|open)P (open) + P (z|open)P
¯ (open)
¯

P (z|open)P (open) 0.6 · 0.5


P (open|z) = = = 0.67
P (z|open)p(open) + P (z|open)p(
¯ open)
¯ 0.6 · 0.5 + 0.3 · 0.5

Caso os valores de sensores (zx ) estejam corretos, por pior que estes sejam (Valores de V—F e F—V
baixo), a probabilidade sempre será maior do que a probabilidade da não utilização deste sensor.

2.3 Exemplo - Armadilha

Considerando duas possı́veis localizações X1 e X2 , sendo P (x1 ) = 0.99. O sensor indica as probabilidades
P (z|x2 ) = 0.09 e P (z|x1 ) = 0.07.

P (z|x1 )P (x1 ) 0.07 · 0.99


P (x1 |z) = = = 0.987
P (z|x1 )P (x1 ) + P (z|x2 )p(x2 ) 0.07 · 0.99 + 0.09 · 0.01

A probabilidade diminuiu de 0,99 para 0,987, ou seja, após contı́nuas interações, a localização muda a
certeza de x1 para x2 .