Anda di halaman 1dari 95

IME 04-06319 - ALGORITMOS

Paulo Eustáquio Duarte Pinto

Universidade Estadual do Rio de Janeiro


Instituto de Matemática
Departamento de Informática e Ciência da Computação

Rio de Janeiro, agosto de 2008

1
CONTEÚDO

0. INTRODUÇÃO

1. RECURSÃO
1.1 Conceitos básicos
1.2 Problemas clássicos
1.3 Análise da Recursão
1.4 Exercícios Propostos

2. BACKTRACKING
2.1 Conceitos básicos
2.2 Problemas clássicos
2.3 Jogos
2.4 Exercícios Propostos

3. PROGRAMAÇÃO DINÂMICA
3.1 Conceitos básicos
3.2 Problemas clássicos
3.3 Exercícios Propostos

4. MÉTODO GULOSO
4.1 Conceitos básicos
4.2 Problemas clássicos
4.3 Exercícios Propostos

5. PROBLEMAS NP-COMPLETOS

2
0. INTRODUÇÃO

A ênfase deste curso é no estudo de uma ampla variedade de


Algoritmos: métodos de solução de problemas adequados para implementação
em computadores. Serão mostrados os problemas clássicos de cada método
estudado, bem como uma visão simplificada da complexidade desses algoritmos.
Sempre que possível serão também abordados problemas propostos nas
diversas maratonas de programação da ACM.

0.1 Introdução à complexidade de Algoritmos - Notações O e Ω

Duas características muito importantes dos algoritmos são o seu tempo


de execução e a memória requerida. Quando se faz um algoritmo para resolver
determinado problema, não basta que o algoritmo esteja correto. É importante
que ele possa ser executado em um tempo razoável e dentro das restrições de
memória existentes. Além disso, ele deve permanecer viável, à medida que o
tempo passa, quando a quantidade de dados envolvida normalmente cresce. O
estudo do comportamento dos algoritmos em termos do tempo de execução e
memória, em função do crescimento dos dados envolvidos, denomina-se
Complexidade de Algoritmos. Os parâmetros estudados normalmente são os
seguintes:
a) Complexidade de pior caso - caracterização do tempo de
execuçãomáximo, para determinado tamanho da entrada, bem como
das características da entrada que levam a esse tempo máximo. Este
é o principal parâmetro para se avaliar um algoritmo.
b) Complexidade de caso médio - caracterização do tempo de execução
médio do algoritmo, para determinado tamanho da entrada,
considerando a média de todas as possibilidades. Em muitas situações
este parâmetro é útil.
c) Complexidade de melhor caso - caracterização do tempo de
execução mínimo, para determinado tamanho da entrada, bem como
das características da entrada que levam a esse tempo mínimo.
d) Memória requerida para se executar o algoritmo para determinado
tamanho de entrada.

A determinação da complexidade de pior caso teria que ser feita


contando-se todas as instruções executadas e o tempo de execução de cada
uma delas, considerando-se a pior entrada possível. Normalmente isso não é
viável. O que se faz é determinar um limite superior para esse tempo, o mais
próximo possível da realidade. Para tanto, fixa-se o estudo na instrução mais

3
executada do algoritmo e determina-se uma função t(n), que dá a variação do
tempo de execução em função de n, o tamanho da entrada.

O limite superior descrito anteriormente é definido pela conceituação


O(t(n)), definida da seguinte forma:
Sejam f, h duas funções reais positivas de variável inteira n. Diz-se que
f é O(h), escrevendo-se f = O(h), quando existir uma constante c > 0 e um valor
inteiro n0, tal que
n > n0 => f(n) ≤ c.g(n) .

Exs:

f = n3 – 1 => f = O (n3) = O (n4)


f = 5 + 10 log n + 3 log2 n => f = O (log2 n )

Por convenção, os algoritmos que tenham complexidade de pior caso


iguais ou inferiores a O(nk) são considerados eficientes. Algoritmos cuja
complexidade sejam, por exemplo, O(2n) são considerados ineficientes.

Outro ponto importante é o seguinte: dado um problema, pode-se ter


encontrado um algoritmo para resolvê-lo. Surge a pergunta se esse é o melhor
algoritmo possível. Algumas vezes essa resposta pode ser obtida com a ajuda
cos conceitos dados a seguir.

Def: Dadas as funções sobre variáveis inteiras f e g. Dizemos que


f é Ω (g) , se existirem uma constante c e um número n0 tal que

f(n) ≥ c.g(n) , para todo n > n0.

Se P é um problema, então dizemos que o limite inferior para P é dado


por uma função h tal que a complexidade de pior caso de qualquer algoritmo
que resolva P é Ω (h).

Desta forma, quando conseguimos determinar o limite inferior para um


problema e, ao mesmo tempo, conseguimos um algoritmo cuja complexidade de
pior caso seja igual a esse limite, então estamos diante de um algoritmo ótimo,
pois não se pode conseguir algoritmo com complexidade mais baixa que o
mesmo.

4
0.2 Bibliografia recomendada

Esta apostila está fortemente baseada no primeiro livro indicado abaixo


e não pretende substituir um livro texto, necessário para se complementar a
compreensão de cada tema abordado. Os seguintes livros são indicados:

Algorithms R. Sedgewick;Addison-Wesley, 1988


Introduction To Algorithms T. H. Cormen et all; McGraw Hill, 1998
Estrut. de Dados e Seus Algoritmos J.L.Szwarcfiter, LTC 1994

Recomenda-se, também, o acesso aos seguintes sites que abordam


problemas das maratonas de programação ACM e da Olimpíada de Informática:
http://icpc.baylor.edu
http://acm.uva.es
http://olympiads.win.tue.nl/ioi
http://olimpiada.ic.unicamp.br

5
1. RECURSÃO

1.1 Conceitos básicos


Esta técnica de construção de algoritmos consiste basicamente em se
subdividir um problema em problemas menores de mesma natureza que o
problema original e obter a solução como uma composição das soluções dos
problemas menores. Para a solução dos problemas menores adota-se a mesma
estratégia de subdivisão, até o nível em que o subproblema seja muito simples,
quando então sua solução é exibida, geralmente com poucos passos.
A maneira de subdividir e de compor a solução pode ser diferente para
cada caso. A seguir são mostrados dois exemplos clássicos de algoritmos
recursivos: Fatorial e Fibonacci.
O cálculo de fatorial tem a seguinte recursão:

Fatorial (p): (A1.1)


Início:
Se (p = 0) Então
Retornar 1
Senão
Retornar p.Fatorial(p-1);
Fim;

Nesta recursão o único problema resolvido diretamente é o de 0! . Os


demais são resolvidos a partir da solução de cada problema imediatamente
menor.
Para a da série de Fibonacci, temos:

Fibonacci(p): (A1.2)
Início:
Se (p ≤ 1) Então
Retornar p
Senão
Retornar Fibonacci(p-1) + Fibonacci(p-2);
Fim;

6
Há quatro outras visões sobre a técnica de recursão, que certamente
complementam essa visão inicial:
a) A técnica pode ser vista como uma maneira de se resolver problemas
de "trás para frente", isto é: a solução enfatiza os passos finais para a
solução do problema, supondo problemas menores resolvidos. No caso Fatorial,
para se obter Fatorial(n), a idéia é multiplicar Fatorial (n-1) por n .

b) A técnica pode ser ainda imaginada como o equivalente matemático da


indução finita, onde, para se demonstrar fatos matemáticos usam-se duas
etapas:
b.1.1) Mostra-se que a hipótese vale para valores particulares e pequenos
de n (0, 1, etc).
b.1.2) Supondo-se a hipótese verdadeira para todos os valores inferiores
a n, demonstra-se que ela continua valendo para n.
Na recursão, temos que:
b.2.1) Exibe-se um algoritmo para resolver casos particulares e pequenos
(0, 1, etc). Os problemas pequenos são chamados “problemas infantís”.
b.2.2) Exibe-se um algoritmo para achar a solução do problema “grande”
a partir da composição de problemas menores.

c) A técnica é o equivalente procedural da formulação de recorrências


(funções recursivas), onde, de forma análoga ao ítem b), uma função é definida
em duas partes. Na primeira, é dada uma fórmula fechada para um ou mais
valores de n. Na segunda, a definição da função para n é feita a partir da
mesma função aplicada a valores menores que n, para valores superiores aos da
primeira parte. Outra relação de recursão com recorrência é que muitas
propriedades de soluções recursivas são obtidas com o uso de recorrências.

d) Os procedimentos recursivos são aqueles que "chamam a sí mesmo".


É claro, então, que a chamada a sí mesmo sempre se dá no contexto de buscar
a solução de problemas menores, para compor a solução do maior. Além disso
todo procedimento recursivo tem que ter também uma chamada externa.

Note que todo algoritmo recursivo tem uma solução não recursiva
equivalente. Muitas vezes, entretanto, a expressão recursiva é mais natural e
mais clara, como para os exemplos mostrados a seguir.

7
1.2 Problemas clássicos

Neste tópico são apresentados os seguintes algoritmos clássicos com


solução recursiva:
a) Torre de Hanói
b) Quicksort
c) Mínimo e Máximo
d) Cálculo de Combinação
e) Torneio

1.2.1 Torre de Hanói


O problema baseia-se em um jogo infantil, onde há n pratos de tamanhos
diferentes, com um furo no meio e três varetas A, B e C, que possibilitam que
esses pratos possam ser empilhados em cada uma delas. O empilhamento só
pode ser feito colocando-se pratos menores em cima de maiores. Inicialmente
todos os pratos estão na vareta A. O problema é levar esses pratos para a
vareta C, podendo usar as três varetas como empilhamento temporário.

A B C

Esse problema tem a seguinte solução recursiva:

Hanoi(n, A, B, C); (A1.3)


Início:
Se (n > 0) Então
Hanoi (n-1, A, C, B);
Mover topo de A para C;
Hanoi (n-1, B, A, C);
Fim;

Qualquer solução não recursiva para este problema é muito mais


complicada que a mostrada acima. A complexidade desse algoritmo é O(2n), não
sendo, portanto, um algoritmo eficiente. Entretanto isso é o melhor que pode
ser feito, pois o problema é, em sí, exponencial (!).

No exemplo, com os pratos numerados de 3 a 1, de baixo para cima, a


solução seria:

8
Mover 1 de A p/ C; → Mover 2 de A p/ B; → Mover 1 de C para B;
(Resolvido o problema para 2 pratos em B);
Mover 3 de A para C;
(Resolver novamente o problema de 2 pratos, só que p/ C):
Mover 1 de B p/ A; → Mover 2 de B p/ C; → Mover 1 de A p/ C;

1.2.2 Quicksort
É considerado o melhor algoritmo de ordenação e foi um dos primeiros
algoritmos recursivos propostos. A idéia é fazer, sucessivamente, partições em
subvetores, de forma que a parte esquerda contenha sempre elementos
menores ou iguais aos da direita. O problema simples é quando o tamanho de
uma partição é 1. A partição baseia-se em escolher um elemento como um pivô,
fazendo-se trocas para colocar maiores ou iguais de um lado e menores ou
iguais do outro.

Sort(E, D); (A1.4)


Início:
Se (D > E) Então
Particao(E, D, I, J);
Sort(E, J);
Sort(I, D);
Fim;

Procedimento Particao (E, D, I, J) /* Baseada no elem. do meio */


Início:
I ← E; J ← D; t ← A[ (E+D)/2 ];
Enquanto (I ≤ J):
Enquanto (A[I] < t): I ← I + 1; Fe;
Enquanto (t < A[J]): J ← J - 1; Fe;
Se (I ≤ J) Então
Troca_Elem(I, J); I ← I + 1; J ← J - 1;
Fe;
Fim;

A seguir é dado um exemplo, mostrando os elementos envolvidos em


comparações e trocas(estas indicadas em vermelho).

Passo 1 2 3 4 5 6 7 8 9 10 11 12

9
E X E M P L O F A C I L
E X E M P L O F A C I L Partição (1,12)
1 E L E I C A F O L P M X (1,7) (8,12)
E L E I C A F Partição (1, 7)
2 E F E A C I L (1,5) (6,7)
E F E A C Partição(1,5)
3 C A E F E (1,2) (3,3) (4,5)
C A Partição (1,2)
4 A C (1,1) (2,2)
F E Partição(4,5)
5 E F (4,4) (5,5)
I L Partição(6,7)
6 I L (6,6) (7,7)
O L P M X Partição(8,12)
7 O L M P X (8,10) (11,12)
O L M Partição(8,10)
8 L O M (8,8) (9,10)
O M Partição(9,10)
9 M O (9,9) (10,10)
P X Partição(11,12)
10 P X (11,11) (12,12)
A C E E F I L L M O P X Situação Final

a) Análise do Algoritmo

a.1) Complexidade:
Melhor caso = Vetor Ordenado; NC =~nlog2n = O(n log2n)
Pior caso = Há várias possibilidades. Vetor em “Zig Zag”, p.
Ex. NC =~ n2/2 = O(n2)
Caso Médio: NC =~ nlog2n = O(n log2n)
a.2) Estabilidade: Algoritmo não estável
a.3) Situações Especiais: Algoritmo de uso amplo, extremamente
rápido.
a.4) Memória necessária: pilha de recursão (log2n).

b) Observações:

b.1) Número de comparações: 42

10
Número de trocas: 16
b.2) Este é um dos mais antigos e estudados algoritmos na
Informática, tendo sido desenvolvido inicialmente por Hoare, em 1962.
b.3) Notar o mecanismo de partição (1,5), (1,2) e (11,12). No
primeiro caso, o subvetor é dividido em 3 partes (ao final J = 2, I = 4); no
segundo caso, o vetor é subdividido em 2 partes (ao final J = 1, I = 2); no
terceiro caso, o vetor também é subdvidido em 2 partes (mas ao final J = 10
(!?) e I = 12).

O algoritmo tem complexidade O(n2), pior que de alguns outros


algoritmos de ordenação. Entretanto sua grande importância deriva do fato de
o pior caso é algo raro de acontecer. A complexidade de caso médio é O(nlogn),
e o algoritmo é muito rápido para o caso médio.

1.2.3 Mínimo e Máximo


O problema é determinar os valores mínimo e máximo de um conjunto de
números S. Esse problema tem uma solução trivial que é se fazer dois “loops”
para encontrar separadamente os valores mínimo e máximo, executando
exatamente 2n-2 comparações. O seguinte algoritmo recursivo permite uma
melhora desse resultado:

MinMax (S); (A1.5)


Início:
Seja S = [a1,..., an]
Se (|S| = 1) Então Retornar (a1, a1);
Senão Se (|S| = 2) Então
Se (a1 > a2) Então Retornar (a2 , a1);
Senão Retornar (a1, a2 );
Senão
m ← Int(|S| /2);
(b1, c1 ) ← MinMax(S1 = [a1,..., am]);
(b2, c2 ) ← MinMax(S2 = [am+1 ,... an]);
Retornar (min{ b1, b2}, max{c1, c2 });
Fim;

Esta solução recursiva necessita apenas de (3n/2 - 2) comparações, mas


a prova desse resultado fica como exercício. Esse resultado permite, então
formular um algoritmo não recursivo com igual número de comparações, que é o
seguinte: criam-se dois vetores, um de mínimos e outro de máximos. Esses
vetores são preenchidos a partir da comparação, dois a dois, dos elementos

11
iniciais. O elemento perdedor vai para o vetor de mínimos e o vencedos, para o
de máximos. Verifica-se, então, o menor dos mínimos e o maior dos máximos. O
total de comparações, é então:
n/2 + n/2 -1 + n/2 - 1 ≅ 3n/2 - 2.

1.2.4 Cálculo de Combinação


O cálculo de número de combinações é simples, mas envolve um grande
número de operações de multiplicação e divisão. Dependendo da ordem em que
as operações são realizadas e da linguagem de implementação, pode-se
facilmente "estourar" a capacidade numérica do ambiente e obter resultados
errados. Isso acontece, por exemplo, no cálculo de Comb(50,2), se for
implementada diretamente a fórmula clássica.
A recursão fornece uma alternativa para algumas situações, bastando-se
observar que

Comb(n,p) = Comb(n,p-1)*(n-p+1)/p,

o que sugere imediatamente a implementação a seguir:

Comb(n, p); (A1.6)


Início:
Se (p = 1) Então
Retornar n;
Senão
Retornar Comb(n, p-1)*(n-p+1)/p;
Fim;

Com essa implementação, muitas situações que dariam erro usando-se a


fórmula clássica, passam a funcionar corretamente, como no caso do exemplo
mencionado. A complexidade do algoritmo é O(p).
Outra possibilidade é considerar Comb(n,p) = Comb(n-1,p)*n/(n-p), o que
sugere a seguinte versão alternativa, com complexidade O(n):

Comb(n, p); (A1.7)


Início:
Se (n = p) Então
Retornar 1;
Senão
Retornar Comb(n-1, p)*n/(n-p);

12
Fim;

1.2.5 Torneio
Um problema de organização de torneios com n competidores, onde
todos competidores jogam entre sí, é planejar as rodadas de forma que haja o
menor número delas. Quando n é par, queremos que haja (n - 1) rodadas, e em
cada rodada todos os times jogam. Quando n é impar então há n rodadas, sendo
que em cada rodada jogam (n - 1) times e um deles fica "bye". Neste último
caso, pode-se considerar que exista mais um time no grupo, que será
considerado o emparelhamento "bye", de forma que admitiremos que haja
sempre um número n par de competidores.
Uma solução para o problema pode ser construir uma matriz R, n x n,
onde a primeira coluna da matriz contenha os times e as colunas 2 a n, indiquem
as rodadas de 1 a (n - 1). Cada elemento R(i, j) da matriz indica que R(i, j) é o
adversário do time i na rodada j - 1. Vejamos um exemplo para n = 4.

r1 r2 r3 r4
1 2 3 4
2 1 4 3
3 4 1 2
4 3 2 1

Uma matriz R desse tipo tem as seguintes propriedades:

a) R[i,1] ← i
b) Todas as linhas são permutações dos elementos 1,2...n
c) Todas as colunas são permutações dos elementos 1, 2...n
d) Se j > 1, R[i,j] = t ⇒ R[t,j] = i

A essência do emparelhamento é expressa pela propriedade d).

Este problema tem uma solução interessante recursiva quando n é


potência de 2. O quadro abaixo ilustra a solução para n = 8:

r1 r2 r3 r4 r5 r6 r7 r8
1 2 3 4 5 6 7 8

13
2 1 4 3 6 5 8 7
3 4 1 2 7 8 5 6
4 3 2 1 8 7 6 5
5 6 7 8 1 2 3 4
6 5 8 7 2 1 4 3
7 8 5 6 3 4 1 2
8 7 6 5 4 3 2 1

Pode-se observar a seguinte simetria nessa tabela: dividindo-a em 4


seções iguais, vê-se que a seção esquerda superior é igual à direita inferior e
que a esquerda inferior é igual à direita superior. Além disso, a seção esquerda
inferior corresponde à esquerda superior, somando-se n/2 aos números
respectivos. Pode-se verificar que essa simetria é recursiva, quando se
substitui um quadro pela seção esquerda superior, agora com número de
elementos dividido por 2. O Esquema abaixo ilustra a composição recursiva:

I III

II IV

A recursão é a seguinte:
A matriz é dividida em 4 quadrantes iguais. O quadrantes I é preendhido
recursivamente. Os demais quadrantes são assim obtidos:
a) O quadrante II é copiado do quadrante I, com o acréscimo de n/2 a
cada elemento.
b) O quadrante III é uma cópia do II.
c) O quadrante IV é uma cópia do I.
A recursão se encerra quando se chega ao tamanho 1. Então é preenchido com
o número 1.
Notar que essa solução preserva as propriedades necessárias à matriz.

Isso sugere o algoritmo a seguir, que usa uma matriz R n x n. m indica o


tamanho da submatriz, Evidentemente, a chamada externa é: Torneio (n).

Torneio (m): (A1.8)


Início:

14
Se (m = 1) Então
R[1,1] ← 1;
Senão
p ← m/2;
Torneio(p);
Para i de 1 até p:
Para j de 1 até p:
R[i + p, j] ← R[i, j] + p;
R[i, j + p] ← R[i + p, j];
R[i + p, j + p] ← R[i, j];
Fp;
Fp;
Fim;

O algoritmo tem, evidentemente, complexidade O(n2).


O argumento a seguir mostra que a recursão está correta,
considerando-se que o problema esteja resolvido para o quadrante I.
Realmente, a composição das soluções gera um conjunto de rodadas como o
desejado, pois:
a) nas n/2 rodadas finais, cada competidor da metade 1 compete com
todos os competidores da metade 2 e vice-versa.
b) em cada uma dessas rodadas participam todos os competidores, por
construção da tabela.
c) as atribuições dos jogos são coerentes, considerando-se as duas
metades, também por construção simétrica da tabela.

Para n potência de 2, este problema tem outra solução recursiva,


levemente diferente da apresentada, que consiste do seguinte:
a) preenche-se recursivamente o quadrante I. O problema elementar é
como no caso anterior.
b) O quadrante II é preenchido como no caso anterior.
c) O quadrante III é preenchido com permutações circulares dos
elementos do quadrante II.
d) O quadrante IV é preenchido de forma forçada pelo preenchimento
do quadranto III (ver a propriedade d necessária à matriz). A figura abaixo
exemplifica a idéia.

r1 r2 r3 r4 r5 r6 r7 r8
1 2 3 4 5 6 7 8

15
2 1 4 3 6 7 8 5
3 4 1 2 7 8 5 6
4 3 2 1 8 5 6 7
5 6 7 8 1 4 3 2
6 5 8 7 2 1 4 3
7 8 5 6 3 2 1 4
8 7 6 5 4 3 2 1

Finalmente, uma solução recursiva pode ser estabelecida para qualquer


número de elementos, a partir da idéia deste último algoritmo. O número de
rodadas será (n - 1) quando n for par ou n quando ímpar. Neste último caso
pode-se imaginar que há um competidor adicional "bye", que participa dos
emparelhamentos, de forma que podemos considerar o número de
competidores um número par. Não há maiores dificuldades na recursão quando
n é da forma n = 4k, para algum inteiro k, pois a solução acima aplica-se
diretamente. A situação problemática é para números da forma: n = 4k + 2,
porque, neste caso, a primeira metade da tabela tem tamanho n/2 x (n/2+1), o
que geraria uma solução contendo n rodadas, que não é o objetivo perseguido.
Vamos verificar, entretanto, que há uma forma de contornar esse
incoveniente, eliminando uma das colunas dos quadrantes III e IV.

16
Torneio (m): (A1.8)
Início:
Se (m = 1) Então R[1, 1] ← 1
Senão Se (m ímpar) Então
Torneio (m+1);
Se (m = n) Então
Considera o emparelhamento com (m+1) como “bye”;
Senão
p ← m/2;
Torneio (p);
Se (p ímpar) Então q ← p + 1
Senão q ← p;
Para i de 1 a p
Para j de 1 a q:
R[i + p, j] ← R[i, j] + p;
Se (R[i + p, j] = m) Então R[i + p, 0] ← j;
Fp;
Para j de 1 até p:
R[i, j + q] ← p + 1 + (i + j – 2) mod p;
R[p + 1 + (i + j – 2) mod p, j + q] ← i;
Fp;
Fp;
Se (p ímpar) Então
Para i de 1 a ma:
R[i, R[i, 0] ] ← R[i, q + 1];
Para j de (q + 1) a (q + p):
R[i, j] ← R[i, j+1];
Fp;
Fp;
Fim;

A recursão pode ser assim explicada:

a) Se n for ímpar, resolve-se o problema para n+1 e, no final, abandona-


se a última linha e substitui-se o emparelhamento com o último
número pelo emparelhamento “bye”.
b) Resolve-se, recursivamente o problema para n/2.

17
c) Preenche-se os quadrantes II, III e IV conforme a segunda solução
mostrada anteriormente para potências de 2, ou seja: o quadrante II
é uma cópia do quadrante I, adicionando-se n/2 a todos os elementos.
Caso o elemento seja “bye”, o correspondente também é tornado
“bye”. O quadrante III é preenchido com permutações circulares dos
números n/2+1 a n. O quadrante IV é preenchido de maneira forçada.
d) Quando n é da forma n = 4k+2, temos alguns emparelhamentos “bye”
indesejados nos quadrantes I e II, conforme descrito. Além disso a
solução contém n rodadas. Mas podemos eliminar a primeira coluna
dos quadrantes III e IV. Podemos observar que esta coluna contém
os números com a seguinte ordenação: n/2+1, n/2+2...n, 1, 2, ...n/2.
Cada par (n/2+i, i), contendo um elemento do quadrante III e outro
do quadrante IV, pode ser movido para a coluna do “bye” pois, pela
simetria envolvida, essa coluna é a mesma para o par. Assim,
consegue-se eliminar uma coluna e temos uma solução em n-1 rodadas,
que era o objetivo inicial.

Vejamos como se resolveria o problema para n = 5.


Como 5 é ímpar, resolvemos o problema para n1 = 6. Para tanto, começa-
se fazendo a chamada recursiva para resolver o problema para n2 = 3. Como 3 é
ímpar, resolve-se o problema para n3 = 4, que faz a chamada recursiva para
n4 = 2, com chamada para n5 = 1 e depois obtendo:

r1 r2
1 2
2 1

A partir dessa solução, obtem-se sem dificuldade a solução para


n3 = 4:
r1 r2 r3 r4
1 2 3 4
2 1 4 3
3 4 1 2
4 3 2 1

Como o bojetivo era a solução para n2 = 3, elimina-se a última linha e


transforma-se o emparelhamento com 4 em emparelhamento “bye”, obtendo:

r1 r2 r3 r4
18
1 2 3 -
2 1 - 3
3 - 1 2

Agora volta-se ao problema para n1 = 6. Aplicando-se o procedimento


mencionado, obtemos:

r1 r2 r3 r4 r5 r6 r7
1 2 3 - 4 5 6
2 1 - 3 5 6 4
3 - 1 2 6 4 5
4 5 6 - 1 3 2
5 4 - 6 2 1 3
6 - 4 5 3 2 1

Como 6 é um número da forma 4k+2, temos uma solução indesejada em 6


rodadas. A seguir, move-se os pares (4, 1), (5, 2), (6, 3), da coluna r5
para as colunas respectivas de “bye” e depois elimina-se essa coluna,
redefinindo as colunas r6 e r7, finalizando a solução para n1 = 6.

r1 r2 r3 r4 r5 r6 r7
1 2 3 4 5 6
2 1 5 3 6 4
3 6 1 2 4 5
4 5 6 1 3 2
5 4 2 6 1 3
6 3 4 5 2 1

r1 r2 r3 r4 r5 r6
1 2 3 4 5 6
2 1 5 3 6 4
3 6 1 2 4 5
4 5 6 1 3 2
5 4 2 6 1 3
6 3 4 5 2 1

19
Para obter a solução final (n = 5), elimina-se a linha 6 e transforma-se os
emparelhamentos com 6 para emparelhamentos “bye”, obtendo, então:

r1 r2 r3 r4 r5 r6
1 2 3 4 5 -
2 1 5 3 - 4
3 - 1 2 4 5
4 5 - 1 3 2
5 4 2 - 1 3

Um esboço do algoritmo é mostrado a seguir:


Torneio (m);
Início:
Se (m = 1) Então R[1,1] ← 1;
Senão Se (m ímpar) Então
Torneio(m+1);
Transforma emparelhamento com (m+1) em “bye”;
Senão
Torneio (m/2);
Copia Quadrante I p/ Quadrante II, acrescentando m/2;
Gera permutação circular no quadrante III, para os elementos
(m/2 + 1) a m;
Preenche de maneira forçada o Quadrante IV;
Se (m/2 ímpar) Então
Move os elementos da coluna m/2+2 para a coluna de “bye”;
Move uma posição para a esquerda as colunas m/2+3 a m+1;
Fim;

1.3 Análise da Recursão


Serão apresentados três aspectos importantes para a análise do método
de Recursão. O primeiro é o critério de balanceamento, que serve como
orientação para se gerar bons programas recursivos, em geral. O segundo é
uma ferramenta para análise da complexidade da recursão. O terceiro é uma
ferramenta para evitar recursões ineficientes.

20
1.3.1 Balanceamento

Um critério importante na sudivisão de um problema em problemas


menores é o do Balanceamento: os problemas devem ter tamanhos iguais ou
bem próximos, sob pena de se obter soluções ineficientes. Vejamos dois
algoritmos distintos de ordenação: Mergesort e Bubblesort.

O algoritmo Mergesort pode ser expresso pela recursão a seguir:

Mergesort(E, D); (A1.9)


Início:
Se D > E Então
m ← (E+D)/2;
Mergesort(E, m);
Mergesort(m+1, D);
Merge (E, m, D);
Fim;
Chamada externa: Merge(1,n);

No algoritmo Mergesort, cada problema de tamanho n foi dividido em


dois subproblemas de tamanho aproximado n/2. A subdivisão é, pois,
balanceada e a complexidade do algoritmo é O(nlogn).

Já o algoritmo Bubblesort, pode ser expresso por:

Bubblesort(m); (A1.10)
Início:
Se (m > 1) Então
Para j de 1 a (m -1):
Se (Vet[j] > Vet[j+1]) Então
Troca(Vet[j], Vet[j+1]);
Fp;
Bubblesort(m -1);
Fim;
Chamada externa: Bubblesort(n);

Neste caso, cada problema de tamanho n foi subdividido em dois


problemas: um de tamanho 1 e outro de tamanho n-1. Para este algoritmo temos
a complexidade O(n2), ilustrando o fato de que o critério de balanceamento é
algo positivo na recursão.

21
Quando um procedimento recursivo divide um problema grande em mais
de um subproblema menor, a técnica costuma ser denominada Divisão e
Conquista.

1.3.2 Árvore de recursão

A análise da complexidade de algoritmos recursivos fica em geral


facilitada quando se constrói a árvore de recursão das chamadas. No caso do
algoritmo Fatorial, a árvore de recursão tem o seguinte aspecto:
n
n-1

...
1

Como, em cada etapa da árvore é executada apenas uma instrução, a


complexidade do algoritmo é equivalente ao número de nós da árvore
(chamadas recursivas) que é O(n).
Já no caso de Fibonacci, a árvore tem o seguinte aspecto:

n-1 n-2

n-2 n-3 n-3 n -4


.....................................................................
0 1 ......................................... 0 1

Como, em cada etapa da árvore é executada apenas uma instrução, a


complexidade do algoritmo é igual ao número de nós da árvore que é O(2n), o
que já torna este algoritmo inviável para valores de n bastante baixos (algo em
torno de n = 30), qualquer que seja o computador utilizado! Para este algoritmo
existe uma solução não recursiva trivial eficiente cuja complexidade é O(n).
Basicamente o que está errado nessa solução é que o mesmo subproblema pode
estar sendo resolvido milhares de vezes, à medida que se desce na árvore.

A recorrência associada à série de Fibonacci é a seguinte:

T(0) = 0
T(1) = 1

22
T(n) = T(n-1) + T(n-2)

Podemos também criar uma recorrência que indica o número de


chamadas recursivas da versão recursiva do algoritmo para Fibonacci:

T(0) = 1
T(1) = 1
T(n) = 1 + T(n-1) + T(n-2) = 2*Fib(n+1) - 1.

A solução dessa recorrência mostra que a complexidade do algoritmo é


exponencial.

1.3.3 Memoization

Para problemas como o anterior, cuja recorrência leve a uma


complexidade exponencial, pode-se muitas vezes evitar essa complexidade
através de uma técnica que tabele os resultados de chamadas intermediárias ,
de tal forma que a recursão para essas chamadas só ocorrerá uma vez. Nas
demais, será utilizado um resultado encontrado em uma tabela apropriada.
Consideremos o problema Moedas, cujo objetivo é o de determinar o
número de possibilidades diferentes de gerar um troco no Brasil, utilizando
apenas os 6 tipos de moedas de centavos existentes: 1 (R$ 0,01), 5 (R$0,05),
10 (R$0,10), 25 (R$0,25), 50 (R$0,50) e 100 (R$ 1).
Expressaremos todos os valores em centavos, daquí por diante. Por
exemplo, para dar um troco de 11 temos 4 possibilidades diferentes:
10 + 1 ; 2 x 5 + 1; 5 + 6 x 1; 11 x 1.
Esse problema tem uma formulação recursiva, que pode ser estabelecida
da seguinte maneira:

Seja T(m,n) o número de possibilidades distintas de se gerar um troco


de valor n, usando os m tipos iniciais de moedas. Inicialmente, supondo n > 100,
podemos escrever:

T(m,n) = T(1, n - 1) + T(2, n - 5) + T(3, n - 10) + ...T(6, n - 100).

O que pode ser assim entendido: A primeira parcela corresponde a se


tomar as T(1, n - 1) maneiras distintas dar um troco para (n - 1) usando apenas
a moeda de 1 centavo (neste caso T(1, n - 1) = 1, evidentemente). A segunda,
T(2, n - 5) corresponde a se considerar os trocos possíveis para (n - 5)

23
centavos fixando-se sempre a primeira moeda como uma moeda de 5 e
utilizando a solução para (n-5) com moedas de 1 e 5. De forma análoga para os
demais. A parcela T(6, n - 100) corresponde aos tipos de troco que sempre tem
uma moeda de 100, agregada às diversas possibilidades para trocos de
(n - 100) centavos usando todos os tipos de moedas possíveis. Para
completarmos a idéia recursiva, temos que estabelecer:

T(m, 0) = 1 (pois só há uma maneira de dar troco 0).


T(m, n) = 0, quando n < 0, pois não há troco negativo.

A recursão, então, pode ser assim apresentada, considerando-se um


vetor V[1..m], contendo os valores dos m (=6) tipos de moedas, em ordem
crescente:
V[1] ← 1; V[2] ← 5; V[3] ← 10; V[4] ← 25; V[5] ← 50; V[6] ← 100;
T(m,n) ← 0, se n < 0;
T(m,n) ← 1, se n = 0;
T(m,n) ← Σ T(i, n - V[i]), n > 0, 1 ≤ i ≤ m.

Não é preciso analisar muito para se perceber que essa formulação leva
a um algoritmo exponencial. Entretanto, se criarmos uma matriz T, m x n, onde
elemento da matriz tem o significado da recursão acima, podemos estabelecer
o algoritmo abaixo, que tabela os resultados necessários na matriz, de forma
que a recursão para cada par de valores só será chamada uma vez. O algoritmo
é o seguinte:

24
Moedas (q, p); (A 1.11)
Início:
Se (p < 0) Então k ← 0;
Senão Se (p = 0) Então k ← 1;
Senão Se (T[q, p] = 0) Então
k ← 0;
Para i de 1 a q:
k ← k + Moedas(i, p - V[i]);
Fp;
T[q, p] ← k;
Senão k ← T[q, p];
Retornar (k);
Fim;

A tabela abaixo mostra quais subproblemas teriam que ser tabelados


para n = 15;

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
2 1 2 3
3 2
4
5
6 6

A tabela mostra que os seguintes subproblemas seriam tabelados:


Todos os subproblemas T[1, i] para i < 15;
Os subproblemas T[2, 0], T[2, 5], T[2, 10]
O subproblema T[3, 5];

Desta forma, o algoritmo não é mais exponencial e passa a ser O(n2).

25
1.4 Exercícios Propostos
Escrever algoritmos recursivos para os problemas descritos a seguir.

1.1 - (ALGOC)
Quer-se fazer a geração de constantes numéricas usando apenas as
seguintes operações:
ONE - gera o número 1
MONE - gera o número -1
DUP - duplica o valor
ADD - soma 1 ao valor
(Maratona ACM - 1998 - América do Sul)

1.2 - (Nós mais distantes em uma árvore binária)


Encontrar os dois nós mais distantes em uma árvore binária. (Se houver
mais de um par listar todos os pares).

1.3 - (Algoritmo de Euclides)


Encontrar o máximo divisor comum de dois números inteiros, usando a
idéia do algoritmo de Euclides.

1.4 - (Seleção 2 menores)


Selecionar os dois menores elementos de um conjunto de n números.

1.5 - (Busca por Faixa em Árvores Binárias de Busca)


Mostrar todas as chaves de uma ABB, cujos valores situem-se dentro de
uma faixa [c, f] dada.

1.6 - (Desenho de árvore binária)


Desenhar uma árvore binária, tal que a raiz apareça no centro da página,
a raiz da subárvore esquerda no centro da metade esquerda da página, etc;

1.7 - (Caminho externo de AB)


Calcular o tamanho do caminho externo de uma árvore binária.

1.8 - (Radix Sort)


Ordenar um conjunto de elementos, de forma análoga ao Quicksort,
usando como critério de partição o valor do bit de dada posição.

1.9 - (Cálculo de Potências)


Calcular pn , onde n é um número inteiro.

26
1.10 - (Desenho de aproximação de segmento)
Desenhar uma aproximação do segmento de linha que une dois pontos de
coordenadas (x1, x2) e (y1, y2) usando subsegmentos apenas de coordenadas
inteiras.

1.11 - (Pesquisa binária)


Buscar um elemento em um vetor ordenado usando o critério de pesquisa
binária.

1.12 - (Problema de Josephus)


Quer-se selecionar um elemento dentre n, numerados de 1 a n, que estão
numa lista circular. A seleção é feita recebendo-se um inteiro p e fazendo-se a
contagem circular de 1 a p eliminando-se, sucessivamente, da lista o elemento
que recebeu a contagem p. Sempre que se elimina um elemento, a próxima
contagem começa no elemento seguinte da lista. O selecionado é o último a sair.

1.13 - (Fractais)
Pesquisar algoritmos para desenhos de fractais. (Ver "Algorithms +
Data Structures = Programs", de N. Wirth, Prentice_Hall, 1976.

1.14 - (Torneio)
Fazer um algoritmo alternativo para Torneio, quando n é um quadrado
perfeito.

27
2. BACKTRACKING

2.1 Conceitos básicos


É um método organizado de se testar exaustivamente as possibilidades
de configuração de objetos ou situações, em geral com o objetivo de escolher
configurações com propriedades dadas. Um exemplo clássico é o algoritmo para
se gerar todas as combinações p a p de n elementos.
Este método é também usado para a implementação de jogos por
computador, onde, em cada situação, este tem que escolher a melhor jogada
dentre as normalmente inúmeras possíveis, sendo que essa escolha deve
resultar do aprofundamento do exame das possíveis respostas do oponente,
combinadas a novas jogadas etc.
Diz-se que essa técnica é um método organizado de teste exaustivo,
porque ela deve ser tal que descubra, o mais cedo possível, configurações
inviáveis, o que pode levar ao abandono do exame de inúmeras situações
inviáveis derivadas. Isso quer dizer que o método nem sempre examina
exaustivamente as possibilidades, mas o abandono de certas possibilidades
inviáveis só aumenta a eficiência do processo.
Pode-se apresentar um algoritmo recursivo geral para esta idéia, que
será denominado Config, expresso da seguinte forma:

Config(); (A2.1)
Início:
Para cada elemento envolvido, efetuar:
Se o elemento pode entrar na configuração, Então
Colocar o elemento na configuração;
Se a configuração tem a propriedade desejada Então
Imprimir a configuração;
Senão
Config();
Retirar o elemento da configuração;
Fim;

Algumas observações sobre este modelo:

1) Evidentemente há uma chamada externa ao procedimento, normalmente


precedida do esvaziamento da configuração.

2) O teste para descobrir se o elemento participa da configuração pode variar


bastante de natureza, dependendo da situação. Quanto mais cedo se descobrir

28
elementos inviáveis na configuração, melhor, pois menor aprofundamento é
necessário.

3) Grande parte das variáveis envolvidas pode ser de escopo global.

4) Muitas vezes pode ser necessário o uso de parâmetros na chamada


recursiva.

Inicialmente apresentamos um algoritmo para gerar permutações dos


números 1 a n. O algoritmo usa um vetor P, inicialmente vazio, acrescentando,
sucessivamente e de todas as maneiras, os números 1 a n em P, sem repetir.

Perm; (A2.2)
Início:
Para i de 1 a n
Se (i ∉ P) Então:
P ← P + i;
Se (|P| = n) Então
Imprimir P;
Senão
Perm();
P ← P - i;
Fp;
Fim;

Externamente deve ser feito:


P ← ∅;
Perm;

Uma forma mais diretamente implementável para o algoritmo acima


utiliza uma variável externa para controlar o tamanho do vetor P (np) e um
vetor booleano auxiliar para controlar testar se i ∉ P. Obtemos:

Externamente deve ser feito:


Para j de 1 a n: S[j] ← False; Fp;
np ← 0;
Perm;

29
Perm; (A2.2)
Início:
Para i de 1 a n
Se (not S[i] ) Então:
np ← np + 1;
P[np] ← i;
S[I] ← True;
Se (np = n) Então
Imprimir P;
Senão
Perm;
np ← np - 1;
S[I] ← False;
Fp;
Fim;

Note a semelhança entre o algoritmo de Permutação e o modelo inicial


apresentado para a técnica de Backtracking. Na verdade, o problema de gerar
permutações é efetivamente um dos modelos básicos desta técnica, inclusive
em termos de complexidade. Vê-se claramente que a complexidade deste
algoritmo é O(n.n!), que não pode, entretanto, ser melhorada, já que o
problema é, em sí, exponencial.
Como esta técnica lança mão basicamente da recursão, temos também
aquí a árvore de recursão de cada algoritmo. No caso do algoritmo de
Permutação, se supusermos n = 5, ela tem a seguinte estrutura:
Perm

1 2 3 4 5
.....................................................
2 3 4 5
.................................................
3 4 5
...............................
4 5
5
O número de folhas da árvore é 5! e cada caminho da raiz até uma das
folhas obtem uma permutação diferente.
De uma maneira geral, a árvore de recursão de backtracking tende a ser
uma árvore do mesmo tipo da árvore de recursão de Permutação, onde o

30
número de possibilidades é exponencial. Isto esclarece a observação feita
inicialmente de que é importante evitar possibilidades inviáveis, o mais cedo
possível. Em termos da árvore de recursão, isso significa "podar" todo um ramo
da árvore, sempre que se descobre uma inviabilidade em uma configuração
parcial, o que leva a uma maior eficiência do algoritmo. No ítem relativo aos
Jogos, algumas técnicas de "poda" serão explicadas.

2.2 Problemas clássicos


Neste tópico são apresentados os seguintes algoritmos clássicos com
solução por backtracking:
a) Geração de combinações
b) Damas pacíficas
c) Torneio
d) Geração de subconjuntos
e) Soma de subconjuntos
f) Partição aproximada

31
2.2.1 Geração de combinações
As combinações t a t dos n elementos de um conjunto podem ser
apresentadas em ordem lexicográfica. Uma forma de fazer isso é modificar a
solução dada para a geração de permutações, colocando-se a restrição de que
cada novo elemento só entra na configuração, se for maior que o último que
entrou. Outra forma é utilizar um parâmetro que indica o valor mínimo dos
elementos que podem entrar na configuração. Esse algoritmo é o seguinte:

Comb(j); (A2.3)
Início:
Para i de j a n:
nc ← nc + 1; P[nc] ← i;
Se (nc = t) Então
Imprimir P;
Senão
Comb(i+1);
nc ← nc - 1;
Fp;
Fim;

Externamente deve ser feito:


nc ← 0; Comb(1);

A complexidade do algoritmo acima, para valores baixos de p, é


polinomial. Este algoritmo também ilustra o mecanismo de "poda" mencionado
anteriormente. Se desenharmos a nova árvore de recursão e a compararmos
com a anterior, para o caso de n = 5, temos várias podas a cada nível da árvore.

32
2.2.2 Damas pacíficas
Este é um quebra-cabeças que utiliza os conceitos e o tabuleiro do jogo
de xadrez. O objetivo é colocar 8 damas no tabuleiro, de forma que elas não se
"ataquem", segundo as regras desse jogo. O exemplo abaixo ilustra uma das 92
possíveis soluções (das quais apenas 12 são soluções não simétricas):

1 ℜ
2 ℜ
3 ℜ
4 ℜ
5 ℜ
6 ℜ
7 ℜ
8 ℜ
1 2 3 4 5 6 7 8

O seguinte algoritmo resolve esse problema:


Damas_pacificas; (A2.4)
Início:
Para c de 1 até 8:
Se (Permite(l+1, c)) Então
l ← l + 1;
TAB[l] ← c;
Se (l = 8) Então
Imprimir TAB;
Senão
Damas_pacificas;
TAB[l] ← 0;
l ← l -1 ;
Fp;
Fim;

Externamente:
Zerar TAB;
l ← 0;
Damas_pacificas();

Foi usada a função Permite(l, c) que verifica se é possível se colocar mais


uma dama na posição (l, c), linha l, coluna c, sem atacar as demais (l -1). Notar
que tanto o vetor quanto a variável l são globais. O algoritmo obtem todas as
33
92 soluções possíveis, mas poderia ser modificado para exibir apenas a
primeira solução encontrada (!). Embora não seja dada a complexidade do
algoritmo, ele também ilustra a explicação anterior sobre “poda” na árvore de
recursão.

2.2.3 Torneio
Podemos retornar ao problema de organização de torneios com n
competidores, discutido no ítem 1.2.5. O seguinte algoritmo resolve o
problema:

Torneio: (A2.5)
Início:
jog ← menor jogador não emparelhado na rodada;
rod ← (NE+1)/n
Para i de (jog+1) até n:
Se (Pode_emparelhar(jog, i, rod)) Então
NE ← NE+2;
R[jog, rod] ← i; R[i, rod] ← jog;
Se (NE = n2) Então
Imprime R;
Senão
Torneio;
R[jog, rod] ← 0; R[i, rod] ← 0;
NE ← NE - 2;
Fp;
Fim;

Externamente:
R[*,*] ← 0;
Para j de 1 até n: R[j,1] ← j; Fp;
NE ← n; Torneio();

Neste algoritmo R tem o mesmo significado que anteriormente, tanto


que inicialmente faz-se com que a coluna 1 contenha os números 1 a n.
Pode_emparelhar verifica se os parâmetros são diferentes e se já não foram
emparelhados anteriormente (pode ser usada outra matriz para essa função).
NE indica o número de emparelhamentos já realizados.
A figura seguinte mostra um dos milhares de emparelhamentos obtido
para n = 8:

34
c r1 r2 r3 r4 r5 r6 r7
1 2 3 4 5 6 8 7
2 1 4 3 8 7 5 6
3 4 1 2 6 5 7 8
4 3 2 1 7 8 6 5
5 6 7 8 1 3 2 4
6 5 8 7 3 1 4 2
7 8 5 6 4 2 3 1
8 7 6 5 2 4 1 3

O algoritmo gera todas as configurações possíveis mas pode ser


modificado para gerar apenas uma delas, ou configurações com determinadas
propriedades.

2.2.4 Geração de subconjuntos


Muitos problemas envolvem a geração de alguns subconjuntos de dado
conjunto. Vejamos inicialmente um modelo geral para a geração de
subconjuntos de dado conjunto, mesmo sabendo que tal algoritmo tem
complexidade exponencial, pois um conjunto com n elementos tem 2n
subconjuntos distintos.
A idéia é se colocar os elementos do conjunto em uma lista C e se tomar,
a cada passo um desses elementos, combinando com o mesmo todos os demais
elementos à sua direita na lista.
Isso fornece o algoritmo a seguir, que usa uma variável global ns e um
vetor S que guarda o índice dos elementos do subconjunto:

35
Gera_subconjuntos (pi): (A2.6)
Início:
Para i de pi a n:
ns ← ns + 1; S[ ns] ← i;
Imprimir SubConj;
Se (i < n) Então
Gera_subconjuntos (i + 1);
ns ← ns - 1;
Fp;
Fim;

Externamente:
ns ← 0; Gera_subconjuntos(1);

Notar que no Backtracking acima simplificou-se, ligeiramente, o modelo


geral, pois cada solução parcial é uma solução final e, além disso, também pode
ser uma subsolução de uma outra. A sequência de subconjuntos gerada para o
conjunto {a, b, c, d} seria:
{a}, {a, b}, {a, b, c}, {a, b, c, d}, {a, b, d}, {a, c}, {a, c, d}, {a, d}, {b}, {b, c},
{b, c, d}, {b, d}, {c}, {c, d}, {d}.

2.2.5 Soma de subconjuntos


Um problema interessante e que tem muitas variantes com aplicações
práticas é o de, dado um conjunto C com n números inteiros, determinar se
existe e quais combinações desses elementos têm soma igual a um valor s dado.
Este problema é um caso particular de outro, muito famoso, denominado
problema da Partição, que consiste em, dado um conjunto, determinar formas
de particioná-lo em dois outros, tais que a soma dos elementos de cada
partição seja a mesma. Ou seja, Soma de Subconjuntos é uma particularização
de Partição, quando s não é a metade da soma dos elementos desse conjunto.
Uma das possíveis soluções para soma de Subconjuntos é obtida da
seguinte forma: ordenam-se os números e agrupam-se os mesmos de forma
organizada, procurando obter o alvo s dado. Se, num dado ponto, a soma fica
maior que s, o último elemento é abandonado, bem como todos aqueles maiores
que o mesmo. O seguinte algoritmo resolve o problema:

36
Soma_subconjuntos(j): (A2.7)
Início:
i ← j;
Enquanto (i ≤ n) e ((soma + C[i]) ≤ s):
nr ← nr + 1; soma ← soma + C[i]; subConj[nr] ← i;
Se (soma = s) Então
Imprimir subConj;
Senão
Soma_subconjuntos(i+1);
subConj[nr] ← 0; soma ← soma - C[i]; nr ← nr - 1;
i ← i+1;
Fe;
Fim;

Externamente:
soma ← 0; nr ← 0;
Ordena C;
Soma_subconjuntos(1);

O vetor subConj guarda os índices dos elementos que participam da soma


desejada. Notar que foi utilizado um parâmetro na recursão. Notar, também a
"poda" colocada no "loop" que pode fazer o algoritmo funcionar bem para
valores pequenos de s. No caso não são gerados todos os subconjuntos, mas
apenas aqueles que possam levar à solução do problema. Muitas possibilidades
podem ser abandonadas o mais cedo possível.

2.2.6 Partição aproximada

O problema mencionado anteriormente, Partição, nem sempre tem


solução. Uma variante do mesmo, denominada Partição Aproximada, faz o
particionamento do conjunto de forma a minimizar a diferença da soma entre
as duas partições. Isso pode ser o melhor a se fazer em determinadas
situações.
O algoritmo a ser mostrado constitui-se um interessante paradigma de
Backtracking onde a solução passa a ser buscada cada vez mais em
subconjuntos restritos. O algoritmo a seguir é baseado no anterior, mas não se
geram todos os subconjuntos. Apenas se examinam subconjuntos que tenham
chance de melhorar uma solução prévia, caracterizada por dois parâmetros: dif
= menor diferença entre partições já encontrada e msmp = maior soma da
melhor partição já encontrada. A primeira solução considerada é uma partição

37
contendo um dos conjuntos nulos e o outro todos os elementos. Gradualmente
vai-se obtendo soluções cada vez melhores e cada melhoria é armazenada, em
substituição à melhor solução anteriormente. A melhor partição guardada é a
solução e ela é exibida. O algoritmo é mostrado a seguir.

Part_aproximada(pi): (A2.8)
Início:
i ← pi;
Enquanto (i ≤ n) e ((soma + C[i] ) < msmp):
nr ← nr + 1; soma ← soma + C[i]; Part[nr] ← i;
Se (abs(tot – 2*soma) < dif) Então
Guarda; dif ← abs(tot – 2*soma);
msmp ← max(soma, tot - soma);
Part_aproximada(i + 1);
Part[nr] ← 0; soma ← soma - C[i]; nr ← nr - 1;
i ← i+1;
Fe;
Fim;

Externamente:
soma ← 0; nr ← 0; tot ← ΣC[i]; dif ← tot; msmp ← tot;
Ordena C; Part_aproximada(1);
Imprime solução guardada;

Neste algoritmo é chamado o procedimento Guarda, que armazena a


melhor solução encontrada até o momento e atualiza o valor de dif. Se houver
interesse em apenas uma solução, um mecanismo que pode parar a recursão é,
quando a diferença (dif) atingir 0.

Como exemplo, se tomarmos o conjunto {3, 4, 5, 7}, teremos a seguinte


sequência de subconjuntos examinados e guardados:

Guardados msmp dif


{} 19 19
{3} {3} 16 13
{3, 4} {3, 4} 12 5
{3, 5} {3, 5} 11 3
{3, 7} {3, 7} 10 1

38
2.3 Jogos
Uma das aplicações típicas da técnica de Backtracking é a programação
de jogos, cujo desenvolvimento permitiu a utilização do método em vários
outros tipos de problema. Considere jogos tais como xadrez, damas, jogo-da-
velha, onde há 2 jogadores. Os jogadores fazem jogadas alternadas e o estado
do jogo pode ser representado pela posição do tabuleiro.

2.3.1 Árvore de jogo


Suponha que há um número finito de configurações de tabuleiro e que o
jogo tem uma regra de parada. A esse tipo de jogo pode-se associar uma
árvore chamada "árvore do jogo". Cada nó representa uma posição do tabuleiro.
A raiz é a situação inicial e cada nível da árvore contém as possíveis jogadas de
um dos jogadores, de forma alternada.
A árvore a seguir representa uma situação de decisão no jogo-da-velha,
onde o computador tem que jogar. Suas jogadas são marcadas com "x", e as do
oponente com "o":

o o
x o (1) O computador joga
x x

A (1) B (-1) C (0)

D (0) E(-1) F (0) G (1)

H (0) I (0) J (1)

As possibilidades de continuação do jogo são as seguintes:


A e J - o computador joga na linha 3 e ganha;
B - o computador joga na linha do meio e o jogo continua
C - o computador joga na linha 1 e o jogo continua
D - o oponente joga na linha 3 e o jogo continua
E - o oponente joga na linha 1 e ganha
F - o oponente joga na linha 3 e o jogo continua
G - o oponente joga na linha do meio e o jogo continua
H - o computador joga na última linha e é empate
I - o computador joga na linha do meio e é empate

39
Uma técnica para analisar o jogo consiste em atribuir às folhas 1 quando
o computador ganha, 0 quando há empate ou -1 quando o oponente ganha. Esses
valores podem ser propagados árvore acima, através do critério denominado
MiniMax, que é o seguinte: cada nó pai recebe o valor máximo dos filhos quando
é uma posição de jogada do computador, e o valor mínimo quando é uma posição
de jogada do oponente.
Esses números refletem a melhor estratégia para cada competidor.
Quando for a vez do computador e o nó tiver valor 1, então há uma estratégia
vencedora, dada por um caminho de valor 1 em todos os nós .
Para jogos mais complicados, como o xadrez, por exemplo, a valoração
dos nós assume uma gama mais ampla, podendo ir de –999 a 999, por exemplo,
como será visto adiante.
O algoritmo para o jogo consiste, portanto, em se construir a árvore,
usando a ténica MiniMax e depois escolher a jogada usando a mesma.
O cálculo dos valores dos nós pode ser feito pelo algoritmo seguinte, que
basicamente é um percurso em pós-ordem na árvore de jogo, onde F
representa um nó da árvore e Modo tem valor Min, quando o nó é de jogada do
oponente ou Max, quando é de jogada do computador:

Avalia_no (F, Modo); (A2.9)


Início:
Se (F é folha) Então
Retornar (Calcula_valor(F));
Senão
Se (Modo = Max) Então Valor ← -∞;
Senão Valor ← ∞;
Para cada filho w de F:
Se (Modo = Max) Então
Valor ← Max (Valor, Avalia_no(w, Min));
Senão
Valor ← Min (Valor, Avalia_no(w, Max));
Retornar Valor
Fim;

A função Calcula_valor avalia o valor da posição final do jogo. A


constante Infinito representa o maior valor inteiro que pode ser representado.

40
2.3.2 Poda Heurística
Alguns jogos, entretanto, têm um número de alternativas absurdamente
grande, o que inviabiliza a construção e exame de toda a árvore. As folhas
muitas vezes representarão apenas configurações parciais do jogo.
No caso do xadrez a ordem de grandeza do número de folhas é 35100. O
que se faz, então é a introdução de Heurísticas para avaliação de posições do
tabuleiro, somente aprofundando a análise de situações mais críticas e
aplicando o método MiniMax para a árvore "podada" obtida e considerando,
agora, que a valoração poderá variar numa gama mais ampla do que a vista para
o jogo da velha, já que não se pode mais aplicar o critério absoluto de posição
perdida/ganha/empatada, uma vez que a avaliação não parte dos nós finais.
A perícia de um jogo para xadrez reside, portanto, na qualidade das
heurísticas utilizadas. A avaliação heurística de uma configuração do tabuleiro
é empírica, levando em conta o balanço ponderado das peças presentes e o
valor de elementos estratégicos e táticos. O sucesso desse tipo de programa
evidencia que existem boas heurísticas para a situação. Entretanto fica
também evidente que nenhum programa é imbatível por um ser humano, visto
que o programa não joga de forma exata.
Quando se usa poda heurística, a cada jogada é construída uma nova
árvore, que só é usada para a decisão do próximo lance.

2.3.3 Poda alfa_beta


Uma das melhorias que podem ser introduzidas no método MiniMax é
denominada poda Alfa_beta, que permite abandonar o exame de trechos da
árvore. Seja a situação abaixo da árvore de jogo:

Max x

Min f1 (120) f2(≤ 32) f3

h1 (32)

Suponha que se acabou de determinar o valor do nó f1, depois de


percorrer a sub-árvore correspondente. Quando se começa a examinar a sub-
árvore do nó irmão f2 e se descobre que o valor do primeiro filho é 32, pode-se
abandonar todo o exame de f2, atribuindo a esse nó o valor aproximado 32, já
que o mesmo não vai influenciar no cálculo de x, pois f2 tem o valor limitante
32.

41
De forma análoga à descrita, o exame de muitos trechos da árvore pode
ser abandonado, tornando sua avaliação mais rápida. Na realidade, a construção
da árvore pode ser simultânea à avaliação, o que significa que pode não ser
necessária a construção de toda a árvore do jogo.
Dessa forma a poda Alfa-beta pode tornar o jogo mais eficiente.

42
2.4 Exercícios Propostos
Escrever algoritmos para os problemas descritos a seguir, usando
backtracking:

2.1 – (Soma de Subconjuntos)


Dado um conjunto com n números, onde há repetições, e um valor s,
listar, ordenadamente, as somas de elementos do conjunto cujo valor seja s,
sem repetir configurações de soma.

2.2 - (Percurso do cavalo)


Quer-se fazer um cavalo percorrer todas as casas de um tabuleiro de
xadrez de forma a não repetir nenhuma posição pela qual já passou. Dica:
tentar uma heurística para dar preferência para casas com menos
possibilidades de saídas.

2.3 - (Soma de Quadrados)


Escrever um algoritmo para, dado um inteiro positivo n, listar todas as
combinações de somas de quadrados de inteiros menores que n, iguais ao
quadrado de n. Observar que pode repetir quadrado. Exemplo: para n = 3,
temos: 32 = 12+12+12+12+12+12+12+12+12 = 12+12+12+12+12+12 = 12 + 22 + 22.

2.4 - (Vasos)
Dados 3 vasos contendo água, com capacidades (c1, c2, c3), situação
inicial (s1, s2, s3), quer-se determinar qual o número mínimo de operações de
transferência, para se atingir o objetivo (o1, o2, o3) dado. Cada transferência
ou enche o vaso de destino ou esvazia o de origem e a quantidade de água é
mantida no processo. Observar que pode não haver solução. (Maratona ACM -
2000 - América do Sul)

2.5 – (Expressão)
Fazer um algoritmo para, dados n+1 números inteiros positivos, verificar
se é possível escrever o primeiro como uma combinação linear dos n restantes
(usando somas e subtrações, apenas).
Ex: para {13, 9, 5, 11, 20} é possível, pois 13 = 9 – 5 – 11 + 20; já para {3, 200,
150, 8, 15} não é possível.

43
2.6 - (Quadrado Mágico)
Apresentar um quadrado mágico para dado n. Um quadrado mágico é um
quadrado de lado n, divido em n2 células, preenchido com os números 1 a n2, tal
que a soma das linhas = soma das colunas = soma das diagonais principais.

2.7 - (Quadrados latinos ortogonais)


Apresentar dois quadrados latinos ortogonais de lado n. Um quadrado
latino de lado n é uma matriz (n x n) tal que, cada linha e cada coluna, são
preenchidas com uma permutação dos números 1 a n. Dois quadrados latinos A
e B são ortogonais se, para todo i e j, A[i,j] ≠ B[i, j].

2.8 - (Chumbo Ou Ouro)


A empresa ACM descobriu que pode-se transformar Chumbo em Ouro,
submetendo o primeiro a uma mistura dos elementos A, B, C, que estejam numa
proporção de p, q e r nessa mistura. Dadas n misturas dos elementos químicos
A, B, C, em proporções dadas, determinar se pode ser criada uma nova mistura
na proporção desejada. (Maratona ACM - 1998 - Final)

2.9 - (Palavras cruzadas)


Dados dois números l e c, que indicam a quantidade de linhas e de colunas
em um diagrama de palavras cruzadas e l "strings" de tamanho c cada um,
sendo que cada "string" contém palavras e '*' . Cada "string" se encaixe
exatamente em uma das linhas do retângulo, e o * corresponde a uma posição
não usada do diagrama. Quer-se saber se esses "strings" podem ser
encaixados no diagrama tal que se formem palavras válidas, contidas em um
vetor.

2.10 - (Retângulo de dominós)


O conjunto das peças do jogo de dominó é formado por 28 retângulos
cada um com dois quadrados contendo números 0 a 6. Cada peça é uma
combinação diferente das 7 possibilidades. Podemos dispor todas as peças de
um jogo de dominó em um retângulo de 7x8, podendo algumas peças serem
colocadas horizontalmente e outras verticalmente. Verificar se uma
configuração dada em um retângulo 7 x 8 corresponde às 28 peças do jogo.
(Maratona ACM - 1991 - Final).

2.11 - (Jogo da velha)


Implementar um programa para o Jogo da velha.

44
2.12 - (Jogo da Último palito)
Implementar um programa para o Jogo do Último palito, onde dois
jogadores iniciam com uma pilha de 24 palitos e, alternadamente, cada um pode
retirar 1 a 3 palitos, vencendo o último a retirar palitos.

2.13 - (Resta 1)
Implementar um programa para o jogo do Resta 1.

2.14 - (Quebra-cabeças)
Descrever um algoritmo para solucionar o quebra-cabeças que consiste
de um tabuleiro de 4 x 4, com 15 peças contendo os números 1 a 15 e um uma
posição nula. É dada uma configuração inicial e quer-se a chegar à configuração
padrão onde os números estão ordenados no tabuleiro.

2.15 - (Árvores de Jogo)


Desenhar árvores de Jogo para os seguintes jogos:
a) Jogo de Palitos, semelhante a 2.12, só que iniciando com 5 palitos.
b) Jogo da Multiplicação, onde é sorteado um número menor que 100. Começa-
se com o número 1 e, alternadamente, cada adversário multiplica esse número
por outro que pode variar entre 2 e 5. Aquele que atingir ou superar o número
escolhido é o vencedor.

2.16 – (Permutações com repetições)


Dados n números, onde há repetições, listar as Permutações, sem
repetir nenhuma configuração.

2.17 - (Arranjos e Combinações com repetições)


Dados n números, onde há repetições, listar arranjos (A(n,p)) e
combinações (Comb(n,p)), sem repetir nenhuma configuração.

2.18 - (Contração de Inteiros)


Dada uma sequência de n números inteiros (n < 101), quer-se determinar
a ordem de contrações a serem feitas, tal que o resultado final seja um
número p dado. Cada contração toma dois elementos vizinhos da sequência,
substitui o primeiro pela diferença entre ele e seguinte, e elimina o elemento
seguinte. (Maratona ACM - 1998 - América do Sul)

2.19 – (Permutações de Knuth)

45
Fazer um algoritmo para gerar permutações, obtendo as permutações
para n elementos a partir daquelas para (n –1), colocando o n-ésimo elemento
em todas as n posições possíveis de cada permutação gerada com (n -1)
elementos.
Ex. No caso de n = 3 a ordem de geração seria: 321, 231, 213, 312, 132, 123.

2.20 – (Problemas em Grafos)


Fazer algoritmos para a solução dos seguintes problemas em grafos:
a) Determinar um ciclo Hamiltoniano.
b) Determinar a maior clique.
c) Determinar o maior conjunto independente.
d) Determinar uma coloração mínima de vértices.
e) Determinar uma coloração mínima de arestas.

46
3. PROGRAMAÇÃO DINÂMICA

3.1 Conceitos básicos

A aplicação da Divisão e Conquista na solução de problemas pode algumas


vezes levar a algoritmos ineficientes, tal como os exemplos mostrados para o
cálculo da sequência de Fibonacci e para o problema Moedas. Basicamente, o
que pode dar errado é o mesmo subproblema estar sendo resolvido mais de
uma vez, devido à formulação recursiva. Em alguns casos, milhares de vezes.
A técnica de Programação Dinâmica pode ser compreendida como uma
forma de evitar esse inconveniente, colocando resultados intermediários em
"tabelas", para fugir à repetição da solução de um mesmo subproblema.
Ela é usada tipicamente para problemas de otimização, onde se procura
o mínimo ou o máximo de alguma propriedade para certas configurações.
A solução de um problema usando esta técnica pode ser compreendida
como tendo uma formulação recursiva, complementada pelo enfoque "bottom-
up" para a composição dos subproblemas em problemas maiores. No caso da
sequência de Fibonacci, o problema é resolvido com um "loop" ascendente,
guardando cada elemento da sequência calculado em uma posição de um vetor.
Para ilustrar a técnica, consideraremos, inicialmente, o problema do
cálculo de probabilidades de vitória em "matches" onde dois competidores, C1 e
C2 disputam uma série de jogos em regime de "melhor de n". Isso que quer
dizer que aquele que atingir primeiro n pontos vence o "match". Adotaremos as
regras adicionais de que cada vitória vale 2 pontos, cada empate 1 e, se no final
houver empate em n a n, tem que ser adotado um critério adicional tal como o
sorteio do vencedor. Esta é a fórmula usada em muitos campeonatos de
futebol, onde se usa n = 3 ou 5. Nos "matches" finais dos campeonatos
mundiais de xadrez a fórmula é semelhante, só que cada vitória vale 1 ponto e
os empates são descartados.

Supondo que C1 e C2 tenham igual força, o problema será colocado como:

"qual a chance do competidor C1 se sagrar campeão, dado que


faltam i pontos para C1 alcançar a meta e j pontos para C2?"

O problema pode ser formulado recursivamente, usando-se a seguinte


recorrência:

47
P(i, j) = 1, se (i = 0 e j > 0) (a)
= 0, se (i > 0 e j = 0) (b)
= (P(i-1, j-1) + P(i-2, j) + P(i, j-2))/3, se (i > 1 e j > 1) (c)
= 1/2, se (i = 1 e j = 1) (d)
= 2/3 + P(1,j-2), se (i = 1 e j > 1) (e)
= P(i, j-2)/3, se (j = 1 e i > 1) (f)

As diversas condições dessa recorrência refletem as seguintes


situações:

(a) - o competidor 1 já venceu.


(b) - o competidor 2 já venceu.
(c) - a idéia central da recorrência: se houver empate, cai-se na situação
de chances de P(i-1, j-1); se vitória, de P(i-2, j); se derrota, P(i, j-2). A chance
de cada possibilidade é 1/3.
(d) - situação particular, P(1,1), obviamente = 1/2
(e) - situação particular, com i = 1, onde a vitória e empate bastam para
o competidor 1.
(f) - situação particular onde apenas a vitória serve para o competidor 1.

Usando-se essa recorrência, constrói-se a tabela a seguir (n = 5), com


complexidade O(2n).

5 0 1/18 4/27 14/54 31/81 1/2


4 0 1/9 2/9 10/27 1/2 50/81
i 3 0 1/6 1/3 1/2 17/27 20/27
2 0 1/3 1/2 2/3 7/9 23/27
1 0 1/2 2/3 5/6 8/9 17/18
0 - 1 1 1 1 1
0 1 2 3 4 5
j
Podemos simplificar a recorrência anterior, introduzindo algumas
condições artificiais, equivalentes a uma nova coluna e uma nova linha na tabela,
correspondendo aos índices i = -1 e j = -1, além do valor P(0,0) = 1/2. Obtemos
a seguinte recorrência, que engloba a anterior:

48
P(i, j) = 1, se i ∈ {-1,0} e j > 0 (a)
= 0, se i > 0 e j ∈ {-1,0} (b)
= 1/2, se i = 0, j = 0 (c)
= (P(i-1, j-1) + P(i-2, j) + P(i, j-2))/3, se i ≥ 1 e j ≥ 1 (d)

Se os valores P(i,j) forem calculados em ordem não decrescente da soma


(i+j), então pode ser feita uma implementação não recursiva do cálculo,
segundo o esquema delineado abaixo:

i+j = 2

i i+j = 3
j

Usando essa idéia, chega-se ao seguinte algoritmo, cuja complexidade é


2
O(n ):
Chance_em_Match(k) (A3.1)
Início:
P(0,0) ← 1/2;
Para r de 1 até k:
P[-1,r] ← 1; P[0,r] ← 1;
P[r, -1] ← 0; P[r,0] ← 0;
Para s de 1 até (r-1):
P[s, r-s] ← (P[s, r-s-2] + P[s-1,r-s-1] + P[s-2, r-s])/3;
Fp;
Fp;
Fim;

Externamente deve ser feita a chamada Chance_em_Match(i+j), para os


valores i e j desejados.
Note-se que o algoritmo preenche um triângulo de valores, podendo
gerar mais valores que os necessários para determinada situação. Entretanto,
basta fazer uma pequena alteração no algoritmo para que seja calculado apenas
o "retângulo" desejado. Essa alteração fica como exercício.
Esse algoritmo ilustra bem todos os pontos ditos acima sobre a técnica
de programação dinâmica, pois a formulação recursiva permitiu chegar a um
algoritmo não recursivo eficiente.

49
Podemos, também, retomar o problema Moedas, do Capítulo 1, que
consiste em se determinar o número de possibilidades de dar troco em moedas
para um valor n, expresso em centavos. Para esse problema, formulamos a
seguinte recursão:

T(m, n) = número de possibilidades distintas de dar um troco de n


centavos, usando os m tipos iniciais de moedas (no exemplo, foram usadas
moedas de 1, 5, 10, 25, 50 e 100 centavos). E:
T(m, n) = 0, se n < 0;
T(m, n) = 1, se n = 0;
T(m, n) = Σ T(i, m - MO[i]), se n > 0, 1 ≤ i ≤ m

Se observarmos a ordem do cálculo dos valores T(m, n) na recursão,


podemos verificar que uma matriz T, m x n, pode ser preenchida por linha, de
forma crescente tal que sempre que se necessite calcular T(m, n) todos os
valores necessários já estejam calculados e tabelados. Isto, então sugere um
algoritmo simples, de complexidade O(m2.n), que preenche a matriz desejada.

O algoritmo é o seguinte:
Moedas(m, n); (A 3.2)
Início:
Para i de 1 até m: T[i, 0] ← 1; Fp;
Para i de 1 até m:
Para j de 1 até n:
tot ← 0;
Para k de 1 até i:
Se ((j - MO[k]) ≥ 0) Então tot ← tot + T[k, j - MO[k]];
Fp;
T[i, j] ← tot;
Fp;
Fp;
Fim;

50
Esse algoritmo preenche a tabela abaixo, por coluna, da esquerda para a
direita:

m\n 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
2 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5
3 1 1 1 1 1 2 2 2 2 2 4 4 4 4 4 6 6 6 6 6 9
4 1 1 1 1 1 2 2 2 2 2 4 4 4 4 4 6 6 6 6 6 9
5 1 1 1 1 1 2 2 2 2 2 4 4 4 4 4 6 6 6 6 6 9
6 1 1 1 1 1 2 2 2 2 2 4 4 4 4 4 6 6 6 6 6 9

3.2 Problemas clássicos

Neste tópico são apresentados os seguintes algoritmos clássicos com


solução por Programação Dinâmica:
a) Mochila (0/1)
b) Produto de Matrizes
c) Triangularização de Polígonos
d)Árvore de Busca Ótima
e) Distância de Edição

3.2.1 Mochila (Versão 0/1 - básica)


Este problema se apresenta em várias versões, a partir de uma idéia
básica (não muito elogiável): um ladrão tem à sua disposição um conjuntos de t
ítens que quer roubar. Sua mochila pode carregar um peso M e cada ítem i tem
peso pi. A questão é saber se existe uma combinação de ítens que encham
exatamente o peso da mochila e, neste caso, quais são esses ítens. Seja:
K(q, n) = (x, y) = Solução quando se consideram apenas os q ítens iniciais
e um volume n;
x = V ou F, indicando se existe a combinação desejada
y =V ou F, indicando se o elemento m pertence ou não solução.
Este problema pode ser formulado recursivamente da seguinte forma:

K(q, n) = (V, F), se n = 0


K(q, n) = (V, F), se K(q -1, n) = (V, ?), 0 ≤ n ≤ M, 1 ≤ q ≤ t;
K(q, n) = (V, V), se K(q -1, n - pq) = (V, ?) , 0 ≤ n ≤ M, 1 ≤ q ≤ t;
K(q, n) = (F, F), nos demais casos

Um possível algoritmo para implementar essa solução seria:

51
Mochila(q, n): (A3.3)
Início:
Se (n = 0) Então
Retornar (V, F)
Senão Se (q = 0) Então
Retornar (F, F)
Senão:
(x, y) ← Mochila (q - 1, n);
Se (x) Então
Retornar (V, F)
Senão:
(x, y) ← Mochila (q -1, n - pq );
Se (x) Então
Retornar (V, V)
Senão
Retornar (F, F);
Fim;

Externamente:
Mochila(t, M);

Evidentemente, tal recursão leva a um algoritmo ineficiente. Mas aquí,


também, uma solução pode ser obtida por Programação Dinâmica, através da
composição bottom-up dos subproblemas, conforme o exemplo a seguir:

Seja M = 20 e os seguintes ítens:

A B C D E
vol= 7 vol=3 vol=5 vol=9 vol=15

Podemos construir uma solução considerando, sucessivamente, as


combinações possíveis, quando se adiciona, passo a passo, um dos ítens como um
possível ítem a ser usado:

52
Ítem/ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
vol
0 VF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF FF
A (7) VF FF FF FF FF FF FF V FF FF FF FF FF FF FF FF FF FF FF FF FF
V
B (3) VF FF FF V FF FF FF VF FF FF V FF FF FF FF FF FF FF FF FF FF
V V
C (5) VF FF FF VF FF V FF VF V FF VF FF V FF FF V FF FF FF FF FF
V V V V
D (9) VF FF FF VF FF VF FF VF VF V VF FF VF FF V VF V V FF V FF
V V V V V
E (15) VF FF FF VF FF VF FF VF VF VF VF FF VF FF VF VF VF VF V VF V
V V

Nesta tabela, foram colocadas, artificialmente, a linha para o ítem


0 e a coluna para o volume 0. Isto facilita a escrita do algoritmo de
Programação Dinâmica a seguir. Note que a célula K[E, 20] = (V, V),
indica que o problema tem solucão e que o ítem E faz parte da mesma. O
peso dos itens é guardado no vetor P.

Algoritmo:
Mochila: (A3.4)
Início:
K[0, 0].x ← V; K[0, 0].y ← F
Para j de 1 a M:
K[0, j].x ← F; K[0, j].y ← F;
Fp;
Para i de 1 a t:
Para j de 0 a M:
Se (K[i - 1, j].x) Então
K[i, j].x ← V; K[i, j].y ← F;
Senão
Se (j ≥ V[i]) e (K[i - 1, j - P[i]].x) Então
K[i, j].x ← V; K[i, j].y ← V;
Senão
K[i, j].x ← F; K[i, j].y ← F;
Fp;
Fp;
Fim;

53
Pode-se verificar que o preenchimento dessa tabelas obedece
exatamente à idéia da recursão mostrada anteriormente. E esta nova
solução para o problema tem complexidade O(t.M).
Uma variante imediata do problema é encontrar a solução mais
próxima do objetivo procurado, que também é resolvida com a mesma
tabela e verificando, na última linha, o valor mais próximo do procurado.

Para apresentar os itens que fazem parte da solução, pode-se usar o


seguinte algoritmo:

Solução:
Início:
j ← M; i ← t;
Enquanto (j ≠ 0):
Enquanto (K[i, j].y ≠ ‘V’):
i ← i - 1;
Fe;
Escrever V[i]; j ← j – V[i]; i ← i - 1;
Fe;
Fim;

A apresentação de todas as soluções possíveis requer um algoritmo de


Backtracking, cuja elaboração fica como exercício.

3.2.1.1 Mochila (Matriz com apenas um valor)

Uma primeira mudança que pode ser feito no algoritmo anterior é


guardar apenas um valor em cada célula da matriz. Esse valor pode ser o índice
do item. No exemplo mostrado, a matriz poderia ser a seguinte, onde as células
não preenchidas podem ter o valor -1:

Ítem/ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
vol
0 0
A (7) 0 1
B (3) 0 2 1 2
C (5) 0 2 3 1 3 2 3 3
D (9) 0 2 3 1 3 4 2 3 4 3 4 4 4
E (15) 0 2 3 1 3 4 2 3 4 3 4 4 5 4 5

3.2.1.2 Mochila em vetor

54
Na verdade basta usar um vetor, ao invés de uma matriz, para a busca
da solução para a Mochila. Esse vetor equivale à última linha da matriz. Seu
preenchimento tem uma sutileza, que é a de percorrer o vetor da direita para
a esquerda. Inicialmente o vetor é preenchido com -1. O algoritmo é o seguinte:

MochilaVetor;
Início
K[0] ← 0;
Para j de 1 a M: K[j] ← -1; Fp;
Para i de 1 a t:
Para j de M-P[i] descendo a 0:
Se (K[j+P[i]] = -1) e (K[j] ≥ 0) Então K[j+P[i]] ← i;
Fp;
Fp;
Fim;

Outra alternativa, ainda, é, na versão que usa matriz, fazer com que
cada linha da matriz indique a quantidade de itens na solução. Assim, a primeira
linha apresentaria as soluções com 1 elemento; a segunda, com dois elementos e
assim sucessivamente.

3.2.1.3 Mochila com peso e valor

Outra versão ainda do problema Mochila consiste em atribuir a cada


item não apenas um peso, mas também um valor. Neste caso, o objetivo passa a
ser o preenchimento da mochila para obter o valor máximo. O algoritmo pode
ser o seguinte, onde, em cada posição do vetor guardamos dois dados: o índice
do item (me) e o valor máximo obtido (vm). Usa-se a mesma inicialização do
algoritmo anterior e temos a mesma sutileza a considerar.

MochilaPesoValor;
Início:
K[0].me ← 0; K[0].vm ← 0;
Para j de 1 a M: K[j].me ← -1; K[j].vm ← 0; Fp;
Para i de 1 a t:
Para j de M-P[i] descendo a 0:
Se (K[j].me ≥ 0) e (K[j+P[i]].vm < (K[j].vm+V[i]) Então
K[j+P[i]].me ← i; K[j+P[i]].vm ← K[j].vm+V[i];
Fp;
Fp;

55
Fim;

Voltando ao exemplo inicial, consideremos a seguinte conjunto de pares


de valores, onde o primeiro valor do par é o peso do item e o segundo, seu
valor: S = {(7, 10) , (3, 6), (5, 11), (9, 12), (15, 15)}. Obteríamos o seguinte
vetor:

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
0 -1 -1 2 -1 3 -1 1 3 4 2 -1 3 -1 4 3 4 4 5 4 5
0 0 0 6 0 11 0 10 17 12 16 0 21 0 23 27 22 29 21 28 26

3.2.1.4 Mochila (Versão múltiplos ítens)

A última variante para o problema de itens com peso e valor é imaginar


que o número de ítens de cada tipo é ilimitado. Neste caso, a variante torna-se
um problema de maximização: maximizar o valor total de ítens de t tipos
colocados numa mochila, cada tipo com peso pi e valor vi, associados, de forma
que não seja ultrapassado o peso máximo M. A quantidade disponível de ítens
de cada tipo é suposta ilimitada.

Uma solução recursiva para o problema seria:

Mochila(k): (A3.5)
Início:
Se (k = 0) Então Retornar 0
Senão
MaxVal ← 0; Maxi ← 0
Para i de 1 a n:
MaxAux ← vi + Mochila(k - pi)
Se (MaxVal < MaxAux) Então
MaxVal ← MaxAux;
Maxi ← i;
Marca Maxi;
Mochila(k - pMaxi);
Fim;
Externamente:
Mochila(M);

Esta solução tem complexidade O(2n). Entretanto, quando todas as


variáveis envolvidas são inteiros positivos, há uma solução eficiente por
programação dinâmica, que consiste em se determinar qual o ítem final que

56
otimiza o problema, para cada peso ≤ M, iniciando com um tipo de ítem e
considerando, gradativamente, cada novo tipo. No exemplo abaixo,
consideramos 3 tipos:
A B C
peso = 5 peso = 8 peso = 11

valor = 6 valor = 7 valor = 13

Considerando apenas o tipo A, a melhor solução para todo peso acima de


5 usar somente esse tipo:

Peso 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 2 21 2 2 2
0 2 3 4
TMel A A A A A A A A A A A A A A A A A A A A
VMax 6 6 6 6 6 12 12 12 12 12 18 18 18 18 18 2 2 2 2 2
4 4 4 4 4

Considerando os tipos A e B, a melhor solução para os diversos pesos é:

Peso 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
TMel A A A B B A A A A A A A A A A A A A A A
VMax 6 6 6 7 7 12 12 12 13 13 18 18 18 19 19 24 24 24 25 25

Considerando finalmente A, B e C, a melhor solução muda para:

Peso 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
TMel A A A B B A C C A A A A A A B A A C C A
VMax 6 6 6 7 7 12 13 13 13 13 18 19 19 19 20 24 25 26 26 26

Para o preenchimento da tabela, considerando os tipos de ítens 1 a k, o


que se faz é, para cada peso, verificar qual dos k ítens gera o máximo VMax,
através da computação (vi + Vmax[Peso- pi], esta última parcela obtida
anteriormente, para (k -1) ítens.
Usam-se, portanto, 2 vetores: TMel que indica o último melhor tipo para
um peso e VMax, que indica o valor máximo total, considerando a escolha de
TMel.
Pode-se verificar que o preenchimento dessas tabelas obedece
exatamente à idéia da recursão mostrada anteriormente. E esta nova solução
para o problema tem complexidade O(nM).

57
O seguinte algoritmo implementa esse processo :

Mochila(t, M); (A3.6)


Início:
Para j de 0 até M:
VMax[j] ← 0;
Para i de 1 até n:
Se ((j - pi) ≥ 0) e (VMax[j] < (vi +Vmax[j- pi] ) Então
TMel[j] ← i;
VMax[j] ← vi +Vmax[j- pi];
Fp;
Fp;
Fim;

58
3.2.3 Produto de Matrizes
Este é um problema que surge em processamentos matriciais pesados,
tais como na área de avaliação de reservas petrolíferas, onde são necessários
até mesmo processadores matriciais, tal a intensidade de cálculos. O problema
está ligado à minimização do número de operações a serem realizadas, quando
se fazem multiplicações sequenciais de várias matrizes. Suponhamos, por
exemplo, que tenhamos que multiplicar as seguintes matrizes:

M1 (5 x 20), M2 (20 x 50), M3 (50 x 5), M4 (5 x 100), na ordem dada.

Como a operação é associativa, podemos efetuar o cálculo de várias


formas, dentre as quais:
a) (M1 x M2) x (M3 x M4 ), com um total de operações de:
5 x 20 x 50 (M1 x M2)
+ 50 x 5 x 100 (M3 x M4)
+ 5 x 50 x 100 (produto dos produtos)
= 55.000
b) (M1 x ((M2 x M3) x M4)), com um total de operações de:
= 20 x 50 x 5 (M2 x M3)
+ 20 x 5 x 100 (produto anterior x M4)
+ 5 x 20 x 100 (M1 x produto anteior)
= 25.000

Esses números ilustram que pode haver uma variação significativa no


número de operações, dependendo da ordem da multiplicação usada. O
problema é encontrar a ordem de multiplicação que leve ao número mínimo de
operações.
Há, evidentemente, a solução ineficiente de backtracking que tenta
todas as ordens possíveis e escolhe aquela com menos operações.

Para chegarmos à formulação mais eficiente para a multiplicação das


matrizes M1, M2, .... Mn, onde cada matriz Mi tem ri-1 linhas e ri colunas,
devemos perceber que as dimensões das matrizes podem ser representadas
pela sequência: r0 r1 ...ri ...rn, onde o número de colunas de uma matriz é o
número de linhas da seguinte.
Dada uma sequência de matrizes, Mi....Mj, se conhecermos a maneira
otimizada (quantidade de operações minimizada) de nultiplicar cada partição
dessa sequência, podemos descobri a maneira otimizada para toda a sequência,
co mostrado a seguir.

59
Seja mi,j o total de operações mínimo para o produto Mi....Mj.
Considerando k o índice que identifica a última operação que minimizou mi,j,
devemos ter:

mi,j = mi,k + mk+1.j + ri-1 x rk x rj


mi,i = 0

E, portanto, mi,j deve ser tal que


mi,j = Min (mi,k + mk+1.j + ri-1 x rk x rj ), para i ≤ k < j
mi,i = 0, para i = j.

Para se conseguir uma solução eficiente para o problema, basta que os


subproblemas sejam calculados e tabelados em ordem não decrescente de
tamanhos de subsequências.

O seguinte algoritmo faz isso. Ele utiliza duas matrizes m e mk. Na


matriz m guarda-se o valor minimizado das operações de i a j e na matriz mk
guarda-se o valor de k relativo à última operação.

Produto_Matrizes(); (A3.7)
Início:
Para k de 1 a n: m[k,k] ← 0; Fp;
Para d de 1 a (n - 1):
Para i de 1 a (n - d):
j ← i + d;
m[i, j] ← ∞;
Para k de i até (j - 1):
Se ((m[i, k]+m[k+1, j] + r[i -1].r[k].r[j] ) < m[i, j]) Então
m[i, j] ← m[i, k] + m[k+1, j] + r[i-1].r[k].r[j];
mk[i, j] ← k;
Fp;
Fp;
Fp;
Fim;

Para o exemplo anterior, as matrizes obtidas são as seguintes:

60
m[i, j] mk[i, j]
1 2 3 4 1 2 3 4
1 0 5.000 5.500 8.000 0 1 1 3
2 0 0 5.000 15.000 0 0 2 3
3 0 0 0 25.000 0 0 0 3
4 0 0 0 0 0 0 0 0

A solução ótima, cujo valor é 8.000, corresponde à seguinte ordem de


multiplicação:
((M1) x(M2 x M3))x (M4)

A determinação da sequência de multiplicação é obtida através de uma


árvore que pode ser gerada, de forma recursiva, examinando-se a tabela mk. A
recursão é dada por:

Raiz(i, j); (A3.6)


Início:
Se i > j, Então
raiz da árvore ← mk[i, j];
raiz da subárvore esquerda ← Raiz(i, mk[i, j]);
raiz da subárvore direita ← Raiz (mk[i, j] +1, j)
Fim

O algoritmo Produto_Matrizes tem complexidade O(n3), enquanto o


algoritmo Raizes tem complexidade O(n.logn).

3.2.4 Triangularização de Polígonos


Um problema que tem bastante analogia com o anterior é o de
triangularização de polígonos convexos. Embora haja elementos geométricos
envolvidos, que serão fundamentalmente tratados no Capítulo 6, é suficiente
utilizar, por enquanto, algumas noções intuitivas como a de um polígono ser
representado no plano pelas coordenadas (xi, yi) de seus vértices.
Normalmente o polígono de n lados é representado pela sequência de vértices
<v0, v1, v2, ... vn>, onde vn = v0.
O problema é determinar uma divisão completa do polígono em triângulos
sem superposição, cujos vértices sejam vértices do polígono, de forma que se
maximize ou minimize alguma propriedade p dos triângulos (o perímetro, por
exemplo). Este tipo de operação tem inúmeras aplicações em computação
gráfica, no tratamento de imagens.

61
Veja-se no exemplo abaixo, duas possíveis triangularizações:

v1 v2

v0

v3

v5 v4

Há uma notável semelhança entre a triangularização de um polígono de n


lados e a multiplicação de (n - 1) matrizes, ou de uma maneira mais geral, a
colocação de parêntesis em uma expressão com (n - 1) operandos.
A solução recursiva que resolve o problema fixa um lado (vn v0, por
exemplo) e varia o vértice a formar um triângulo com esse lado. Cada vértice
escolhido divide o polígono em dois outros, caracterizando, assim, dois
subproblemas menores. Quando se forma um triângulo com o vértice vi, os dois
polígonos formados são dados por <v0, v1, ... vi, v0> e <vi, vi+1, ...vn, vi>. A solução é
obtida encontrando-se o melhor resultado da soma dos subproblemas com cada
triângulo. Essa solução, evidentemente, é ineficiente.
A solução por programação dinâmica é obtida de forma análoga à que foi
obtida para o produto de matrizes. A recorrência básica é dada por:
Considerando minimização, seja ti,j o total mínimo para a propriedade
desejada no polígono <vi, vi+1, ... vj, vi>. Considerando k o índice que identifica a
última triangularização que minimizou ti,j, devemos ter:

ti,j = ti,k + tk+1.j + p(i, k, j)


ti,i = 0

E, portanto, mi,j deve ser tal que

ti,j = Min (ti,k + tk+1.j + p(i, k, j)), para i ≤ k < j


ti,i = 0

O algoritmo é totalmente análogo ao A3.4, de 3.2.2.

3.2.5 Árvores de Busca Ótimas


Quando se quer fazer buscas na memória, em um conjunto fixo de n
chaves, tal que as probabilidades de acesso às chave sejam iguais, pode-se

62
utilizar pesquisa binária ou uma árvore de busca cheia, sendo o tempo médio de
busca ≅ log2n. Entretanto, quando as chaves têm probabilidades de acesso
distintas, pode-se construir uma árvore de busca ótima, cujo tempo médio de
acesso varia entre 1 e log2n, dependendo dessas probabilidades.
A situação mencionada ocorre em inúmeras aplicações de processamento
de textos. Uma delas, por exemplo, é a indexação de "sites" na Internet,
baseada em palavras significativas. O trabalho a ser feito é o de obter a
descrição do site e identificar palavras interessantes para indexação. As
palavras são consideradas tão mais interessantes, quanto menor for sua
frequência de acesso em textos da língua. Este trabalho fica mais eficiente se
for mantida uma lista de palavras comuns, que devem ser descartadas na
indexação. Normalmente constrói-se uma árvore binária de busca ótima com
essas palavras comuns.

O exemplo a seguir é para as 5 chaves com respectivas frequências:

Chave (ki) Prob. acesso


(pi)
DE .2
E .4
NO .1
POR .1
QUE .2

Uma árvore de busca cheia, que também corresponde à pesquisa binária,


para essas chaves, é a seguinte:

NO

DE POR

E QUE

Nessa árvore, o número médio de comparações é:


NC = (.2 * 2) + (.4 * 3) + (.1 * 1) + (.1 * 2) + (.2 * 3) = 2.7

Essa não é a melhor possibilidade, pois a árvore abaixo é melhor:


POR

E QUE

63
DE NO

NC = (.2 * 3) + (.4 * 2) + (.1 * 3) + (.1 * 1) + (.2 * 2) = 2.2

A solução de backtracking para a construção da melhor árvore toma as


chaves k1, k2,... kn ordenadas e verifica, recursivamente, qual árvore tem
menor NC, supondo, sucessivamente, que a raiz é cada uma das chaves ki da
ordenação, tendo à direita e à esquerda, subárvores de busca ótimas para as
chaves k1, k2,... ki-1 e ki+1, ki+2,... kn, respectivamente.

Ou seja, os subproblemas para determinar a subárvore ótima para a


sequência de chaves ki, ki+1,... kj baseiam-se na seguinte recorrência:

NC[i,j] = Min ((NC[i, k-1] + ∑ (pq ), q de i a k-1) + (NC[k+1, j] + ∑(pq ), q de


k+1 a j) + pk ), para k de i a j
NC[i,i] = pi

Ou,

NC[i,j] = Min (NC[i, k-1] + NC[k+1,j] ) + ∑ (pq ), q de i a j, para k de i a j


NC[i,i] = pi

O desenho a seguir ilustra a recorrência:


kk

Subárvore p/ Subárvore p/
T1 T2
chaves ki,... kk-1 chaves kk+1,... kj

Na nova árvore, as chaves de T1 ganharam um nível a mais. Daí a parcela


∑ (pq ), q de i a k-1. Fato análogo ocorre com T2. Como a chave kk está no nível
1, temos a parcela pk.

O algoritmo de backtracking é, evidentemente exponencial e, portanto,


ineficiente. A recorrência acima justifica um algoritmo não recursivo, desde
que NC[i,j] seja calculado e guardado em ordem não decrescente da diferença
de tamanhos das subárvores.
O algoritmo tem estrutura bastante parecida com o de 3.2.2. São usadas
duas matrizes: NC, que guarda os valores mínimos da busca média para as

64
diversas subárvores e Raiz, que guarda os diversos k indicadores da
minimização de cada subárvore, que são as raizes da subárvore ótima de cada
uma das sequências de chaves.

Árvore_Ótima; (A3.7)
Início:
Para k de 1 a n:
NC[k,k] ← p[k]; NC[k,k-1] ← 0; Raiz[k,k] ← k;
Fp;
Para d de 1 a (n –1):
Para i de 1 a (n- d):
j ← i + d;
NC[i,j] ← Infinito;
s ← 0;
Para k de i até j: s ← s + p[k]; Fp;
Para k de i até j:
Se (NC[i,k-1] + NC[k+1,j] + s ) < NC[i,j] Então
NC[i,j] ← NC[i,k-1] + NC[k+1,j] + s;
Raiz[i,j] ← k;
Fp;
Fp;
Fp;
Fim;

No caso do exemplo anterior, as matrizes obtidas são as seguintes:


NC[i,j] Raiz[i,j]
1 2 3 4 5 1 2 3 4 5
1 .2 .8 1 1.3 1.9 1 2 2 2 2
2 0 .4 .6 .9 1.5 0 2 2 2 2
3 0 0 .1 .3 .7 0 0 3 3 4
4 0 0 0 .1 .4 0 0 0 4 5
5 0 0 0 0 .2 0 0 0 0 5

65
A árvore ótima obtida é:
E

DE POR

NO QUE

NC = (.2 * 2) + (.4 * 1) + (.1 * 3) + (.1 * 2) + (.2 * 3) = 1.9

O algoritmo Árvore-Ótima tem complexidade O(n3). A construção da


árvore ótima é feita com um algoritmo igual ao do algoritmo Raizes de 3.2.2 e
tem complexidade O(n.logn).

3.2.6. Distância de Edição

Um problema com muitas aplicações práticas na edição de textos,


incluindo programas, é o de se verificar as diferenças entre duas versões de
um texto. O mesmo problema, no contexto da Biologia, aparece na
identificação de modificações em cadeias de DNA.
As modificaçõe que podem ocorrer entre duas versões de um texto, isto é, de
uma cadeia de caracteres para outra, são de três tipos: inserção de um novo
caracter; exclusão de um caracter antigo ou troca de um caracter por outro.
O problema é então o de, dadas duas cadeias A e B, determinar qual o número
mínimo de modificações que transformou A em B. Esse número é chamado a
distância de edição entre as cadeias.
A solução do problema, dada em termos de Programação Dinâmica, é formulada
considerando o seguinte princípio:
Sejam dois Strings A e B, Ai o substring formado pelos primeiros i
caracteres de A e Bj aquele formado pelos j primeiros caracteres de B. Seja
ainda D[i, j], o número mínimo procurado para transformar Ai em Bj.
Considerando os problemas menores resolvidos, a transformação mínima de Ai
em Bj, pode ter se dado, nas etapas finais, de uma das seguintes formas:
a) Partir de Ai-1 e Bj e abandonar o caracter i de A; (deleção
em A)
b) Partir de Ai e Bj-1 e inserir um caracter em Bj-1; (inserção em B)
c) Partir de Ai-1 e Bj-1 e copiar o caracter i de A; (manutenção)
d) Partir de Ai-1 e Bj-1 , copiar o caracter i de A e modificá-lo;
(alteração)

66
Essas considerações permitem formular o problema recursivamente, de
forma que possa ser tratado como um problema de Programação Dinâmica, da
maneira a seguir, onde D é a matriz de distâncias de edição mínimas:

D(i,0) = i 0 ≤ i ≤ n;
D(0,j) = j 0 ≤ j ≤ m;
D(i, j) = Min { D(i-1, j) + 1, D(i, j-1) + 1, D(i-1, j-1) + ind(i, j) } ,
onde
ind(i,j) = 0, se o caracter Ai = Bj, 1, caso contrário

Como exemplo, vejamos o cálculo da distância da edição mínima de ATAAGC em


AAAAACG.

A A A A A C G
0 1 2 3 4 5 6 7
0 0 1 2 3 4 5 6 7
A 1 1 0 1 2 3 4 5 6
T 2 2 1 1 2 3 4 5 6
A 3 3 2 1 1 2 3 4 5
A 4 4 3 2 1 1 2 3 4
G 5 5 4 3 2 2 2 3 3
C 6 6 5 4 3 4 3 2 3

No exemplo a distância de edição é 3. A sequência de transformações pode ser


mostrada pela tabela a seguir:
Passo A B Operação
1 A A Manteve o A
2 AT AA Trocou T por A
3 ATA AAA Manteve o A
4 ATAA AAAA Manteve o A
5 ATAAG AAAAA Trocou G por A
6 ATAAGC AAAAAC Manteve o C
7 ATAAGC AAAAACG Inseriu o G

A formulação anterior leva ao seguinte algoritmo:


DistanciaEdicao(A, n, B, m); ( A 8.5)
Entrada: A e B = strings de tamanho n e m, respectivamente;
Saída: D, a matriz de distâncias de edição mínimas.
Inicio

67
Para i de 0 a n: D[i, 0] ← i; Fp;
Para j de 1 a m: D[0, j] ← j; Fp;
Para i de 1 a n:
Para j de 1 a m:
x ← D[i -1, j] + 1;
y ← D[i, j -1] + 1;
Se (Ai = Bj) Então
z ← D[i -1, j -1]
Senão
z ← D[I -1, j -1] + 1;
D[i,j] ← Min{ x, y, z } ;
Fp;
Fp;
Fim;

68
3.4 Exercícios Propostos
Escrever algoritmos, com solução por Programação Dinâmica, para os
problemas descritos a seguir.

3.1 - (Cabo de guerra)


Dados os pesos de n pessoas, quer-se particionar essas pessoas em 2
grupos, para realizar um "cabo de guerra". A divisão deve ser tal que o número
de participantes de cada grupo difere no máximo em 1 e a diferença de pesos
é a mínima possível. Escrever um algoritmo que determina a menor
diferença de peso possível, dados n e os pesos.

3.2 – (Partição aproximada)


Dado um conjunto de números inteiros, determinar um particionamento
desse conjunto tal que se tenha a diferença mínima entre a soma das duas
partições.

3.3 - (Comboio)
Dada uma ponte com um limite de carga lc , quer-se organizar a travessia
de um comboio com n carros cada um de peso pi e com um tempo ti de
travessia, mantendo a ordem dos carros no comboio, em grupos que respeitem
a carga máxima da ponte, de forma a minimizar o tempo total de travessia.
(Maratona ACM - 1999 - Índia)

3.4 – (Jogo de Euler)


O jogo de Euler se desenvolve em uma matriz 4x4 contendo 16 palitos, e
é entre dois competidores que, alternadamente, retiram 1 a 3 palitos em
posições consecutivas na matriz. Aquele que retirar o último palito perde.
Determinar se dada configuração intermediária é uma posição vencedora ou
perdedora.

3.5 – (Cortes)
Dado um tronco de madeira de tamanho n, que deve ser cortado em k
tamanhos, t1, t2, t3...tk, em uma máquina onde o custo de cada corte é
proporcional ao tamanho da peça cortada, determinar o custo mínimo do
processo de corte para se obter os pedaços desejados.

3.6 - (Chance_Em_Matches II)


Criar tabelas para determinar chances em "matches", onde cada vitória
vale 1 ponto e os empates são descartados.

69
3.7 - (Formatação de textos)
Quer-se formatar um texto contendo n palavras para impressão, com
comprimentos c1,... cn. Cada linha tem capacidade máxima M. Entre duas
palavras é colocado um espaço e cada palavra fica inteiramente numa linha.
Distribuir as palavras no menor número de linhas, de forma a minimizar a soma
dos cubos dos tamanhos dos espaços em branco no final das linhas (exceto a
última).

3.8 - (Maior subsequência comum)


Dados dois strings s1 e s2, determinar o maior substring st comum a
ambos.

3.9 - (Troco) - (A3.11)


Dadas as moedas de centavo de um país de valor c1, c2,... cn, qual o
número mínimo de moedas para dar um troco t?

3.10 - (Mochila recursiva)


Escrever um algoritmo recursivo equivalente a A3.3.

3.11 - (Subsequência monotônica crescente)


Dados n inteiros distintos, determinar a maior subsequência monotônica
crescente.

3.12 - (Partição)
Dados n inteiros, particionar o conjunto em dois outros cuja soma dos
elementos seja igual.

3.13 - (Distância de Edição)


Dado um texto original T1 e um novo texto T2, modificado a partir de T1,
determinar a Distância de Edição entre T1 e T2 (Distância de edição é o menor
número de modificações possível que transforma T1 em T2, onde a contagem de
modificações é feita caracter a caracter).

3.14 Preencher a Tabela do problema Moedas, com m = 4 (moedas de 1, 2, 5 e


10) e n = 15.

3.15 Preencher a Tabela do problema Mochila, com t = 5 (4, 5, 6, 7 e 8) e M =


12.

3.16 - (Triângulo de Pascal)

70
Construir o triângulo de Pascal para um inteiro n.

3.17 – (Barcaça)
Tem-se uma barcaça de comprimento cb para transportar veículos entre as
margens de um rio e uma fila com n veículos. Cada veículo i tem o comprimento
ci. Os carros são arrumados na barcaça, por ordem de entrada na fila e há dois
compartimentos na barcaça, onde os carros ficam enfilados em um desses
compartimentos. Explicar a idéia de um algoritmo para determinar o número
máximo de veículos que podem ser transportados.
Ex: cb = 50 Fila: 10, 20, 30, 35, 10. Neste caso pode-se transportar os 4
primeiros veículos.
cb = 50 Fila: 30, 30, 35, 10, 20. Neste caso pode-se transportar os 2
primeiros veículos.

71
4. MÉTODO GULOSO

4.1 Conceitos básicos

Em algumas situações um enfoque ingênuo é suficiente para resolver


certos problemas. Por exemplo, tomemos o problema Troco Mínimo, proposto
como exercício no capítulo anterior.
Suponha que as moedas de centavos de determinado país tenham valores
20, 10, 5, 1 e se queira dar um troco de 37 centavos, usando-se o número
mínimo de moedas. Uma solução é usar uma moeda de 20, uma de 10, uma de
cinco e duas de 1. Essa solução foi obtida tentando-se usar prioritariamente as
moedas de maior valor. Será que essa estratégia sempre resolve esse
problema, qualquer que sejam os valores das moedas? A resposta é que não! Ela
depende do valor das moedas!
Se, por exemplo, as moedas tiverem valores 12, 5 e 1 e o troco for de 20
centavos, a estratégia anterior escolheria uma moeda de 12, uma de cinco e
três de 1, usando 5 moedas. Entretanto o troco poderia ser feito com 4
moedas de 5.
Em problemas de maximização ou minimização, onde a solução
geralmente é encontrar um conjunto que maximize ou minimize determinada
propriedade, o enfoque ingênuo mencionado é denominado Método Guloso e
consiste em, a cada passo da solução, acrescentar à solução parcial um novo
elemento que otimize momentâneamente a propriedade desejada.
O Método Guloso tem a característica de gerar soluções muito simples,
nas situações em que pode ser utilizado. Essas situações são aquelas onde a
otimização global pode ser obtida a partir de otimizações locais.
Matematicamente é possível caracterizar essas situações, através de uma
estrutura denominada Matróide, mas que não será aquí apresentada. Muitos
problemas importantes em Grafos são resolvidos com esse enfoque, como será
visto no Capítulo 7.
Finalmente vale ressaltar que o nome do método deriva da característica
de o método sempre tentar "pegar" o pedaço maior disponível e nunca se
arrepender da escolha feita.

4.2 Problemas clássicos

Neste tópico são apresentados os seguintes algoritmos clássicos com


solução pelo Método Guloso:
a) Códigos de Huffman

72
b) Merge ótimo
c) Seleção/Sequenciamento de Tarefas
d) Mochila fracionária

4.2.1 Códigos de Huffman


Este é um importante método de compressão de dados sem perda,
largamente utilizado, que pode conseguir compactação de dados de até mais de
90%. Basicamente, a compressão é obtida através da codificação de
caracteres com número variável de bits, de forma que os caracteres mais
usados sejam representados em poucos bits.
O problema de compressão de dados é, então, o de, dado um conjuntos
de caracteres c1, c2... cn, , cujas frequências de acesso respectivas são
f1,f2,...fn, definir uma codificação para cada caracter ci , de forma que um
conjunto de dados codificados tenha o comprimento médio mínimo em bits.
A codificação de Huffman cria uma código de comprimentos variáveis
para os diversos caracteres, a partir das frequências dos mesmos. Este código
é um código de prefixo, o que quer dizer que nenhuma codificação é prefixo
para uma outra, o que elimina ambiguidades na decodificação. É utilizada uma
árvore binária para se definir a codificação, que é também a mesma árvore
usada na decodificação de dados compactados.
Vejamos um exemplo. Se tivermos a seguinte codificação de prefixos:

Letra E L M O P X
Código 00 010 011 10 110 111

A codificação da palavra EXEMPLO, usando esse código, seria:


001110001111001010
Essa codificação é, realmente, uma codificação de prefixos, o que pode
ser verificado na seguinte árvore, que incorpora essa codificação:

0 1

0 1 0 1

E 0 1 O 0 1
L M P X

Nesta árvore, estritamente binária, as folhas são os caracteres e a


codificação de cada caracter é dada pelo caminho desde a raiz até essa folha,

73
sendo que cada aresta esquerda recebe o valor 0 e cada direita recebe 1.
Numa árvore ótima não há links nulos.
A construção da árvore ótima tem que ser de tal forma que se minimize
o caminho externo ponderado da árvore, que é dado por
CM(T) = ∑ fi.li , onde
fi = frequência de acesso do caracter ci
li = tamanho da codificação em bits para o caracter ci
= nível do caracter na árvore - 1
Este problema pode ser resolvido pelo Método Guloso, de forma
"bottom-up", criando a árvore partindo das folhas para a raiz.
Inicialmente todas as folhas (os caracteres) estão isolados e, a cada
passo, faz-se a união das subárvores com caminho externo ponderado mínimo.
Voltando ao exemplo anterior e considerando as seguintes frequências de
acesso:

Letra E L M O P X
Freq. .20 .08 .12 .29 .14 .17

No primeiro passo, faz-se a união dos caracteres L e M:

0 1

L M
Subárvo E L+M O P X
re
Freq. .20 .20 .29 .14 .17

Agora as duas menores frequências são P e X:

0 1

P X
Subárvo E L+M O P+ X
re
Freq. .20 .20 .29 .31

Agora, a união é entre E e L+M:

74
0 1

E 0 1

L M

Obtemos:
Subárv. E+(L+M) O P+ X
Freq. .40 .29 .31

A seguir a união é entre O e (P+X):

0 1

O 0 1

P X
Subárv. E+(L+M) O+(P+X)
Freq. .40 .60

Finalmente, obtemos a árvore mostrada inicialmente:

0 1

0 1 0 1

E 0 1 O 0 1
L M P X

Árvore (E+(L+M))+(O+(P+X))
Freq. 1

O seguinte algoritmo reflete esse processo. O algoritmo usa um Heap H


(para se ter a ordenação parcial dos nós) e uma árvore T, que guardará a
codificação, cujo nó tem a estrutura:

No = (ld, le : ↑No; tipo: (0..1); caracter: char; f: real;)


ld e le são ponteiros;

75
tipo indica o tipo de nó: 0 = nó interno; 1 = folha;
caracter contém o caracter relativo à codificação;
f = contém a frequência acumulada do nó;
O Heap conterá uma estrutura semelhante, a menos dos links.
Inicialmente cria-se o Heap H, a partir dos caracteres a serem
codificados. Todos os nós recebem tipo = 1. A árvore T vai sendo criada
conforme o processo mencionado, usando o Heap H para a ordenação dos nós
segundo a soma das frequências.

Huffman; (A4.1)
Início:
CriaFolhas; CriaHeap(H);
Para i de 1 até (n - 1):
p ← H[1]; Troca (1, n-i+1); DesceHeap (1, n-i);
q ← H[1];
Alocar(z); z↑.tipo ← 0; z↑.le ← p; z↑.ld ← H[1];
z↑.f ← p↑.f + q↑.f;
H[1] ← z;
DesceHeap (1, n-i);
Fp;
Retornar H[1];
Fim;
Externamente:
T ← Huffman;

O procedimento CriaFolhas cria as folhas, contendo cada uma o


símbolo e sua frequência. O procedimento CriaHeap cria um Heap
contendo ponteiros para as folhas. O procedimento Troca (i, j) troca os
elementos i e j do Heap; o procedimento DesceHeap (i, m) executa a
descida no Heap, até o elemento de ordem m.

Será ilustrado, a seguir, o processo de decodificação de dados com-


pactados, supondo os bits em um vetor de bits Bit de tamanho n, com resultado
no vetor de caracteres Sai. O processo usa a árvore de codificação T.

Decodifica; (A4.2)
Início:
i ← 1; j ← 1;
Enquanto (i ≤ n):
a ← T;

76
Enquanto (a↑.tipo ≠ 1):
Se (Bit[i] = 0) Então a ← a↑.le;
Senão a ← a↑.ld;
i ← i+1;
Fe;
Sai[j] ← a↑.caracter; j ← j+1;
Fe;
Fim;

Como foi dito inicialmente, a correção dos algoritmos gulosos tem que
ser demonstrada. Para tanto, considera-se que uma árvore ótima é a que tem o
custo mínimo, onde o custo da árvore T, é o caminho externo ponderado, dado
por c(T) = ∑fi.li, (frequência x profundidade de cada folha) considerando
apenas as folhas das árvores. A correção do método de Huffman baseia-se no
seguinte lema:

Lema: Para um conjunto de símbolos, existe uma árvore ótima onde os 2


símbolos de menor frequência são irmãos.

A demonstração deste lema é bem simples. Basta verificar que eles têm que
estar localizados no último nível da árvore, onde existem pelo menos duas
folhas, ou a árvore não seria ótima. Então podem ser colocados como irmãos.

Teorema: O algoritmo de Huffman é correto.

Prova: Indução em n (número de símbolos). Para n = 2, o resultado é trivial.


Seja T uma árvore de Huffman e T’ uma árvore ótima, para n > 2. Em T, os 2
símbolos de menor frequência, f1 + f2 são irmãos. Caso em T’ esses símbolos
não sejam irmãos, podemos remanejar para que sejam. Consideremos,
respectivamente, as árvores T1 e T1’ para n-1 símbolos onde os dois
símbolos de menor frequência foram fundidos. Pela hipótese de
indução, T1 e T1’ são ótimas e c(T1) = c(T1’). Como c(T) = c(T1) + f1 + f2 e
c(T’) = c(T1’) + f1 + f2, segue-se que c(T) = c(T’) e, portanto, T também é
ótima. Logo, o algoritmo é correto.

4.2.2 Merge ótimo

77
Um problema muito semelhante ao anterior é o de se fazer o merge de n
listas ordenadas, de tamanhos diferentes. Quer-se determinar a ordem do
merge, visando minimizar o número de operações.
Dadas duas listas l1 e l2, de tamanhos t1 e t2, respectivamente, o número
de operações para se fazer a intercalação (merge) das mesmas é igual a t1 + t2.
Daí, que o problema tem solução análoga ao anterior. A solução é criar uma
árvore estritamente binária que conterá nas folhas uma referência a cada
lista. A união gradativa das listas é feita escolhendo-se as duas de menor
tamanho, no momento. Vejamos um exemplo:

Lista A B C D E
Tamanho 300 500 150 400 200
Usando-se o enfoque anterior, no primeiro passo, faz-se o merge das
listas C e E:

C E
Lista A B C+E D
Tamanho 300 500 350 400
Agora os dois menores tamanhos são A e (C+E):

C E

Lista A+(C+E) B D
Tamanho 650 500 400

Em seguida, toma-se os dois menores tamanhos, D e B:

D B
Lista A+(C+E) B+D
Tamanho 650 900

78
Finalmente obtemos a árvore desejada:

A D B

C E

Lista (A+(C+E))+(D+B)
Tamanho 1550

O total de comparações, usando-se essa sequência de merges, será:


1o merge: F = C+E = 150 + 200 = 350
2o merge: G = A+ F = 300 + 350 = 650
3o merge: H = D+B = 900
4o merge I = G + H = 650 + 900 = 1550
Total = 350 + 650 + 900 + 1550 = 3350

Para se fazer o merge, a partir da árvore gerada, basta observar que o


percurso dessa árvore em pós-ordem indica a sequência de intercalações a
serem feitas. O algoritmo é mostrado a seguir, supondo que o nó da árvore tem
a seguinte estrutura:
No = (le, ld: ↑No; L: ↑Lista);

79
Merge(Arv); (A4.3)
Início:
Se (Arv não é folha) Então:
L1 ← Merge (Arv↑.le);
L2 ← Merge (Arv↑.ld);
Retornar (Intercala(L1, L2));
Senão
Retornar Arv↑.L;
Fim;

Externamente:
Merge(I);

Neste algoritmo o procedimento Intercala(L1, L2) faz o Merge das duas


listas L1 e L2 e devolve o endereço do início da lista resultado.

4.2.3 Seleção/Sequenciamento de Tarefas

Uma classe de problemas que têm solução gulosa é a de seleção e


sequenciamento de tarefas. Nessa classe de problemas tem-se 1 ou mais
processadores de tarefas e um conjunto de tarefas com durações dadas, que
têm que ser executadas por esses processadores. Algumas vezes são também
dados parâmetros complementares das tarefas tais como datas limite de início
e de fim, receitas auferidas pela realização das mesmas ou penalidades pela
não execução. Os problemas a serem resolvidos consistem da seleção de um
conjunto de tarefas viáveis, podendo-se ter objetivos complementares tais
como a maximização do tamanho do conjunto selecionado ou da receita ou
minimização dos prejuízos. Trataremos a seguir de algumas dessas variantes.

4.2.3.1 Seleção de Tarefas com datas de início e fim fixas

A primeira e mais simples variante do problema consiste em, dadas n


tarefas com datas de início e de fim fixas, di e df, respectivamente, 1
processador, selecionar o maior conjunto viável de tarefas. Vejamos um
exemplo:

tarefa T1 T2 T3 T4 T5 T6 T7 T8

80
di 1 10 2 2 9 12 5 7
df 14 13 3 6 11 15 8 8

A solução do problema é simples. Consiste em ordenar as tarefas, não


decrescentemente, por data de fim e, gulosamente, ir formando um conjunto
viável, selecionando as tarefas de acordo com a ordenação, tal que cada tarefa
é adicionada ao conjunto viável quando é compatível com a última tarefa
selecionada. No exemplo, a ordenação seria a seguinte:

tarefa T3 T4 T8 T7 T5 T2 T1 T6
di 2 2 7 5 9 10 1 12
df 3 6 8 8 11 13 14 15

E as tarefas selecionadas seriam:

tarefa T3 T8 T5 T6
di 2 7 9 12
df 3 8 11 15

Esse conjunto foi obtido da seguinte forma: T3 é selecionada por ser a


primeira da ordenação, T4 é descartada porque conflita com T3. T8 é
selecionada porque é compatível com T3. T7 é abandonada porque conflita com
T8. T5 é selecionada porque não conflita com T8; T2 e T1 são descartadas
porque conflitam com T5; T6 é selecionada porque é compatível com T5;
O algoritmo, que gera o conjunto de saída S seria o seguinte:

Seleção_Tarefa();
Início:
S ← ∅; r ← -∞;
OrdenaTarefas();
Para i de 1 a n:
Se (di[i] > r) Então
S ← S U {T[i]}; r ← df[i];
Fp;
Fim;

A complexidade do algoritmo é, obviamente, O(n.log n). Vejamos uma


prova que indica a correção do algoritmo.
Seja S a sequência gerada pelo algoritmo e So uma sequência ótima,
ambas ordenadas por df. O número de tarefas de S é menor ou igual ao de So,
81
pois este conjunto é ótimo. Vamos argumentar que esses números são iguais.
Seja j o menor índice tal que as tarefas de índice j sejam distintas nos dois
conjuntos. Temos: df[Tj] ≤ df[Toj], onde Tj é a tarefa j de S e Toj, a tarefa j
de So. Isso porque o algoritmo obriga a esse tipo de escolha. Podemos
substituir, em So, a tarefa Toj pela tarefa Tj. Então por argumento análogo,
podemos substituir todas as tarefas de So pelas de mesmo índice em S. Ao
final desse processo, todas as tarefas de S estão em So e não pode existir
mais nenhuma tarefa em So, pois isso significaria que o algoritmo deixou de
selecionar uma tarefa que seria viável, em relação ao conjunto escolhido. Logo,
o tamanho de S é o mesmo de So, ou seja, o algoritmo escolhe um número
ótimo de tarefas.

4.2.3.2 Seleção de Tarefas com receita máxima

Outra versão do problema de Seleção de Tarefas é o de determinar o


sequenciamento ótimo das tarefas T1, T2... Tn, onde todas elas são executadas
num tempo unitário e cada Ti tem associados um tempo limite li aceitável bem
como uma receita ri . Caso a tarefa não seja feita dentro do tempo limite, a
receita é 0. O sequenciamento ótimo é aquele que gera a maior receita.
Evidentemente, o problema tem uma solução de força bruta, que tem que
examinar 2n possibilidades (numero de subconjuntos), não sendo eficiente. O
Método Guloso fornece uma solução de complexidade O(n2), como será visto.
Problemas deste tipo têm grandes aplicações no planejamento de
trabalho, em qualquer contexto.
Como exemplo, suponhamos a situação abaixo, com 6 tarefas:

tarefa T1 T2 T3 T4 T5 T6
l 1 1 3 4 3 4
r 7 8 4 6 10 5

O sequenciamento ótimo nesse caso é {T2, T5, T4, T6}, com uma receita
de 29. As tarefas T1 e T3 seriam feitas fora do prazo, com receita 0.

Na solução pelo Método Guloso, as tarefas são ordenadas inicialmente


de forma não crescente pela receita. Vai sendo construído o conjunto solução
S examinando, em sequência, cada tarefa da ordenação, verificando se ela pode
ser incluída em S. Em cada passo, toma-se uma decisão definitiva para uma das
tarefas. Ou ela é incluída em S ou definitivamente descartada. No exemplo, o
passo inicial de ordenação geraria a sequência:

82
Tarefa T5 T2 T1 T4 T6 T3
l 3 1 1 4 4 3
r 10 8 7 6 5 4

A primeira inclusão em S seria a de T5 , seguida de T2. Quando se


examina a possibilidade de incluir T1 em S verifica-se que não é possível, pois
ela não poderá ser executada dentro do prazo. A seguir T4 e T6 são incluídas
em S. Finalmente, verifica-se que T3 também não pode ser incluída em S,
gerando o resultado apontado antes. Note-se que a ordem de seleção das
tarefas não é temporal, mas pelo valor das receitas.

Para que o algoritmo tenha a complexidade desejada, O(n2) a


implementação deve ser a seguinte: S deve ser mantido ordenado pelo tempo
limite. O teste de viabilidade de inserção de um nova tarefa Ti em S é
equivalente a se verificar se a inserção não inviabiliza a execução de qualquer
tarefa que já está em S (isso pode ser feito checando se, a partir da posição li
em S há alguma tarefa cuja posição seja igual ao próprio tempo limite).

No teste para a inserção de T3, por exemplo, S estaria assim:

S T2 T5 T4 T6
l 1 2 4 4

Não seria possível incluir T3 em S, pois T3 teria que ser incluída na


posição 3. Entretanto temos T6 na posição 4 e seu tempo limite é igual a 4.

O algoritmo é mostrado a seguir:

Sequenciamento_Tarefa();
Início:
OrdenaTarefas(); S ← ∅;
Para i de 1 a n:
Se (ViavelIncluir(S,T[i])) Então
Inclui (S, T[i]);
Fp;
Fim;

O procedimento OrdenaTarefas ordena as tarefas em ordem não


crescente de receitas e o procedimento ViavelIncluir(S,T[i]) executa o teste

83
mostrado acima. O procedimento Inclui (S, T[i]) inclui T[i] em S mantendo S
ordenado por tempo limite.

A seguir é dada uma explicação de que o algoritmo está correto.

Seja S a sequência gerada pelo algoritmo e So uma sequência ótima,


ambas ordenadas por l. A receita total de S é menor ou igual à de So, pois este
conjunto é ótimo. Vamos argumentar que esses números são iguais. Se S = So,
nada há a provar. Além disso, não podemos ter So ⊂ S, pois So não seria ótimo,
nem S ⊂ So, pois isso significaria que o algoritmo não funcionou direito,
deixando de selecionar tarefas compatíveis com o conjunto. Então existem pelo
menos duas tarefas distintas Ta e Tb, Ta ∈ S, e Ta ∉ So e Tb ∈ So, e Tb ∉ S.
Podemos rearrumar S e So, tal que todas as tarefas comuns estejam colocadas
no mesmo índice. Para tanto, tomamos cada tarefa Tc comum nos dois
conjuntos e mudamos de posição aquela que tem menor índice. Note que essa
transposição sempre pode ser feita, porque o maior índice garante isso. Seja
Ta a tarefa de maior receita de S que não esteja em So. Então r[Ta]
≥ r[Tb], para qualquer tarefa Tb de So que não esteja em S pois, caso
contrário, o algoritmo teria escolhido erradamente. Então podemos substituir
a tarefa Tb em So, de mesmo índice que Ta, por Ta, que necessariamente tem
que ter a mesma receita. ou So não seria ótimo. Isso mostra que podemos
trocar todas as tarefas de S em So e, como S não pode ser subconjunto de So,
os dois conjuntos ficam iguais e têm mesma receita.

4.2.3.3 Sequenciamento de Tarefas com penalidades fixas

Outra versão do problema de Seleção de Tarefas é o de determinar o


sequenciamento ótimo das tarefas T1, T2... Tn, onde todas elas são executadas
num tempo unitário e cada Ti tem associados um tempo limite li aceitável bem
como uma penalidade pi caso não seja concluída dentro desse prazo limite. O
sequenciamento ótimo é aquele que gera a menor penalidade.
Como exemplo, suponhamos a situação abaixo, com 6 tarefas:

tarefa T1 T2 T3 T4 T5 T6
l 1 1 3 4 3 4
p 7 8 4 6 10 5

O sequenciamento ótimo nesse caso é {T2, T5, T4, T6, T1, T3}, com uma
penalidade de 11, correspondendo às tarefas T1 e T3, que seriam feitas fora do
prazo.

84
A solução deste problema é exatamente a mesma solução anterior, a
menos do fato de ser necessário incluir no sequenciamento, as tarefas não
viáveis. O algoritmo é análogo e a complexidade também é O(n2).

Após a ordenação não crescente pela penalidade, teríamos:

Tarefa T5 T2 T1 T4 T6 T3
l 3 1 1 4 4 3
p 10 8 7 6 5 4

O conjunto viável seria composto das tarefas {T2, T5, T4, T6}, que podem
ser executadas dentro do prazo e as tarefas T1 e T3 seriam realizadas
atrasadamente, gerando o sequenciamento de penalidade 11 (7 + 4):

Tarefa T2 T5 T4 T6 T1 T3
l 1 3 4 4 1 3

4.2.3.4 Sequenciamento de Tarefas com durações e penalidades


variáveis

Uma última versão do problema de Seleção de Tarefas aquí apresentada


é uma variante do problema anterior, quando as durações são variáveis e as
penalidades são especificadas por dia de atraso, sendo que o início de todas as
tarefas deveria ser no dia 1.
Exemplificando, com 6 tarefas, onde a linha d significa duração e a linha
p penalidade diária, temos:

tarefa T1 T2 T3 T4 T5 T6
d 2 1 3 4 3 4
p 7 8 4 6 10 5

O sequenciamento ótimo nesse caso é {T2, T1, T5, T4, T3, T6}, com uma
penalidade total de 178, (penalidades de 0, 7, 30, 36, 40, 65,
respectivamente).

A solução deste problema é ordenar as tarefas em ordem crescente pela


razão d/p e tomar como sequenciamento essa ordenação. A prova de que essa
solução está correta é bastante simples e baseia-se no seguinte fato: tomando
85
duas tarefas seguidas em um sequenciamento ótimo, digamos Ti e Ti+1, o
intercambiamento de posições dessas tarefas modificaria a penalidade total
em (di+1.pi - di.pi+1), correspondendo a se aumentar a duração da primeira tarefa
em di+1 e reduzir o da seguinte em di. Então para todas as tarefas em sequência
na solução ótima devemos ter: di+1.pi - di.pi+1 ≥ 0, ou di+1.pi ≥ di.pi+1 ou
finalmente, di+1/pi+1 ≥ di/pi, que é a condição apontada.

Após a ordenação não decrescente pela razão d/p, teríamos:

Tarefa T2 T1 T5 T4 T3 T6
d 1 2 3 4 3 4
p 8 7 10 6 4 5

Isso fornece a penalidade referida acima de 178. O algoritmo consiste,


apenas em ordenar as tarefas segundo a razão d/p. Sua complexidade é
O(n.log n) e o cálculo das penalidades, trivial.

4.2.4 Mochila fracionária


Este problema é uma outra variante do problema da Mochila apresentado
em 3.2.1. Aquí consideraremos que há apenas 1 objeto de cada tipo e, além
disso, que pode-se também pegar partes fracionárias do objeto (uma barra de
chocolate, por exemplo).
O enfoque do Método Guloso resolve facilmente esse problema. Basta
ordenar os objetos em ordem não crescente pelo valor ponderado (valor/peso)
e escolher os objetos pela ordenação até se ultrapassar o limite M da mochila,
retirando a fração excedente do último objeto escolhido.

86
Mochila_Fracionaria(); A(4.5)
Início:
OrdenaObjetos();
i ← 0;
S ← ∅;
pesototal ← 0;
Enquanto (pesototal ≤ M) e (i < n):
S ← S U Objeto[i];
pesototal ← pesototal + peso[i];
i ← i+1;
Fe;
Se (pesototal > M) Então
S ← S - Objeto[i-1] + Fração(Objeto[i-1], pesototal-M,M);
Fim;

A demonstração de que este algoritmo está correto é simples: Se S' é


uma solução ótima melhor que S, então há dois objetos x ∈ S e y ∈ S', tais que
x ≠ y, com valores ponderados diferentes. Mas como x tem valor ponderado
maior que y, se substituirmos y ou parte de y por x ou parte de x, obteremos
uma solução S'' melhor que S', uma contradição.

É interessante comparar a solução deste problema com a versão 0-1 do


mesmo (versão não fracionária). Isso será feito retomando o exemplo 3.2.1:

A B C
peso = 5 peso = 8 peso = 11
valor = 6 valor = 7 valor = 13

Considerando M = 19, a solução do Guloso para o problema da mochila


fracionária seria:
tomar o objeto A (valor ponderado = 1,2),
mais o objeto C (valor ponderado 1,18)
e 3/8 do objeto B (valor ponderado 0,88),
gerando um valor total de 21,6.

Já para a versão 0-1, o mesmo enfoque Guloso levaria à solução:


tomar o objeto A (valor ponderado = 1,2),
mais o objeto C (valor ponderado 1,18)
perfazendo um peso total de 16 e valor total de 19,

87
o que é uma solução errada, pois a solução ótima seria tomar os objetos B e C,
com peso total de 19 e valor total de 20.

Este exemplo ilustra a sutileza da aplicação dos diversos métodos de


construção de algoritmos para problemas semelhantes. Cada caso tem que ser
considerado especialmente.

88
4.3 Exercícios Propostos
Escrever algoritmos, com solução pelo Método Guloso, para os problemas
descritos a seguir.

4.1 - (Abastecimento de combustível)


Dados n postos de gasolina, determinar o número mínimo de paradas
para abastecimento numa viagem que passa por todos os postos, conhecendo-se
as distâncias entre eles, o consumo e a capacidade do tanque do carro.

4.2 - (Cobertura de pontos)


Dado um conjunto {x1, x2.... xn} de pontos na reta real, determinar o
menor conjunto de intervalos fechados unitários que cobrem esses pontos.

4.3 - (Troco Mínimo)


Dadas k moedas de centavos de um país 1, c, c2, ...ck-1(todas são
potências de c), demonstrar que o problema Troco Mínimo funciona pelo
Método Guloso.

4.4 - (Execução de tarefas com penalidades)


Dadas n tarefas de duração unitária, que têm que ser executadas por um
único processador, seus tempos limites de execução e as multas a serem pagas
em caso de atraso na conclusão, determinar a sequência de execução das
tarefas tal que a multa total seja mínima.

4.5 - (Execução de tarefas com penalidades)


Dadas n tarefas que têm que ser executadas por um único processador,
suas durações e as multas diárias a serem pagas em caso de atraso no início da
execução, determinar a sequência de execução das tarefas cuja multa total
seja mínima.

4.6 - (Escolha de Tarefas)


Dadas n tarefas que competem por determinado recurso, especificadas
por seus tempos de início e de término, selecionar o maior conjunto viável de
tarefas a serem executadas.

4.7 - (Travessia).
Dadas n pessoas que devem atravessar uma ponte e que levam tempos de
travessia distintas, determinar as manobras necessárias para se levar o menor
tempo de travessia, considerando as seguintes restrições:
a) só podem atravessar 1 ou duas pessoas de cada vez.

89
b) está escuro e só há uma lanterna, de forma que sempre que alguém vai
para o outro lado, a lanterna tem que ser devolvida.

4.8 - Para o problema anterior, determinar o tempo mínimo de travessia, dados


os seguintes tempos individuais:
a) 1 2 5 10
b) 1 5 5 5
c) 1 3 4 5 9 10

4.9 - Criar a árvore de Huffman para os seguintes dados:


A B C D E F G H
.3 .15 .1 .1 .08 .05 .13 .09

4.10 - (Árvore de Busca Ótima)


Apresentar um contraexemplo para o fato do Método Guloso não
resolver o problema da árvore de busca ótima.

4.11 - Determinar a sequência ótima de Merge para os seguintes arquivos:

A B C D E F G H
200 500 300 600 100 200 300 250

4.12 - Determinar o sequenciamento ótimo de tarefas para os seguintes dados:


Taref T1 T2 T3 T4 T5 T6 T7
a
T.Lim 3 1 2 2 4 8 3
Rece. 9 5 9 10 3 15 8

90
5. PROBLEMAS NP-COMPLETOS

5.1 Complexidades de Algoritmos x Tempo de execução

Algoritmos 1 2 3 4 5
Complexidade 33n 46nlgn 13n2 3.4n3 2n
Tam: entrada
10 ,00033 ,0015 ,0013 ,0034 ,001
100 ,003 ,03 ,13 3,4 1016 anos
1.000 ,033 ,45 13 ,94 h -
10.000 ,33 6,1 22 min 39 dias -
100.000 3,3 1,3 min 1,5 dias 108 anos -

Tempo permitid Tam.


entrada
1 30000 2000 280 67 20
60 1800000 82000 2200 260 26

5.2 Problemas Polinomiais x Problemas

Problemas polinomiais são aqueles para os quais existem algoritmos cuja


complexidade é polinomial .

Exemplos:
-Ordenação de Dados
-Buscas e atualização em árvores
-Buscas em grafos
-Ciclos Eulerianos
-Problemas com solução gulosa, em geral
-Problemas com solução por Programação dinâmica em geral
-Programação linear

Problemas exponenciais são aqueles para os quais somente existem


algoritmos com complexidade exponencial ou superior

Exemplos:
-Torre de Hanoi
-Geração de Permutações

91
5.3 Problemas ainda não classificados

Existe uma grande classe de problemas para os quais não se sabe ainda
se existe algoritmo polinomial ou não .
Exemplos:
-Partição (Soma de subconjuntos)
-Mochila
-Empacotamento
-Programação inteira
-Caixeiro viajante
-Ciclo Hamiltoniano
-Coloração de vértices em grafos
-Satisfatibilidade
-Clique Máxima em grafos
-Conjunto independente máximo em grafos

5.4 Classe P x Classe NP

As classes P e NP são uma tentativa de lidar com os problemas ainda não


classificados. Nesta teoria os problemas são transformados em Problemas
de Decisão.
Um problema de decisão apenas responde SIM ou NÃO a determinada
pergunta:
Exemplo: Considerando-se o problema: Coloração de Vértices em Grafos.
Na versão tradicional do problema, quer-se saber qual é o valor mínimo de
k para o qual existe uma k-coloração própria em G.
Na versão Decisão deste problema, ele se transforma em:
Existe uma coloração própria de vértices com ≤ k cores no grafo G?

Problemas polinomiais são agrupados na classe P de problemas .

A classe NP é constituída de Problemas de Decisão para os quais, quando a


resposta do mesmo é SIM, existe um CERTIFICADO cujo tamanho é
polinomial em função da entrada e cuja correção pode ser verificada em
tempo polinomial.
Exemplo de certificado para o Problema Coloração de Vértices:

92
Uma atribuição de cores aos vértices do grafo.
Esse certificado tem tamanho equivalente ao tamanho do grafo (portanto
seu tamanho é polinomial em função da entrada). Além disso, pode-se
verificar, em tempo polinomial se o certificado é correto. (Basta fazer a
atribuição de cores dada pelo certificado e checar se não existem 2
vizinhos com a mesma cor. Além disso deve-se verificar se o número de
cores usada é ≤ k).
Notar que nada é exigido em relação à resposta NÃO.

5.5 Exemplos de problemas na classe NP

Os problemas não classificados listados anteriormente.


-Partição (Soma de subconjuntos)
-Mochila
-Empacotamento
-Programação inteira
-Caixeiro viajante
-Ciclo Hamiltoniano
-Coloração de vértices em grafos
-Satisfatibilidade
-Clique Máxima em grafos
-Conjunto independente máximo em grafos

É interessante o caso do problema PRIMO:


Dado k > 0, k é primo?
Até o início de 2002 sabia-se que PRIMO ∈ NP. A partir do algoritmo
KMS, criado nesse ano, passou-se a saber que PRIMO ∈ P.

5.6 Redução polinomial de problemas

Sejam dois problemas de decisão D1 e D2 e sabe-se que existe um


algoritmo A2 para solucionar D2. Suponhamos que se consiga transformar
D1 em D2 e também transformar a solução de D2 na solução de D1. Se
essas transformações forem polinomiais, então diz-se que D1 se reduz
polinomialmente a D2 e pode-se transformar polinomialmente o algoritmo
A2 para solucionar D1.

93
Ex: Ciclo Hamiltoniano reduz-se, polinomialmente, a Caixeiro Viajante.
CH: Dado G, existe ciclo Hamiltoniano em G?
CV: Dado G´, completo, com arestas ponderadas, existe ciclo Hamiltoniano
com peso total ≤ k?
Transformação de CH em CV:
A partir de G para CH, cria-se G´ completo para CV, com os seguintes
pesos: para cada aresta (v,w) de G´, se ela existir em G, seu peso = 1;
senão, seu peso = 2. k é feito = |V(G)|.

5.7 A Classe NP-Completo

Define-se a seguinte sub-classe de NP:


A classe NP-completo é constituída dos problemas D, tais que:
a) D ∈ NP
b) Se D1 ∈ NP então D1 reduz-se polinomialmente a D.
Em 1971, Cook demonstrou que SATISFATIBILIDADE ∈ NP-Completo.
Desde então foi demonstrado que mais de 2000 também pertencem `a
mesma classe, inclusive os listados anteriormente:
-Partição (Soma de subconjuntos) -Mochila
-Empacotamento -Programação inteira
-Caixeiro viajante -Ciclo Hamiltoniano
-Coloração de vértices em grafos -Clique Máxima em grafos
-Conjunto independente máximo em grafos

5.8 As Classes P, NP e NP-Completo

Problemas em aberto:
a) P = NP?

b) Se algum problema que pertença a NP-Completo tiver


um algoritmo polinomial Þ todos os problemas de NP
são polinomiais Þ P = NP

c) Não há muitas esperanças de que o ítem b ocorra,


mas ninguém ainda provou.

d) “Soluções” para problemas NP-Completos:


-Backtracking c/ heurísticas
-Algoritmos aproximativos específicos
-Algoritmos probabilísticos

94
FIM

95

Anda mungkin juga menyukai