03.02.2017 Views

UMA INTRODUÇÃO ÀTEORIA ECONÔMICA DOS JOGOS

8DpbQPEzt

8DpbQPEzt

SHOW MORE
SHOW LESS

You also want an ePaper? Increase the reach of your titles

YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.

<strong>UMA</strong> <strong>INTRODUÇÃO</strong> <strong>ÀTEORIA</strong><br />

<strong>ECONÔMICA</strong> <strong>DOS</strong> <strong>JOGOS</strong><br />

Humberto José Bortolossi<br />

Universidade Federal Fluminense<br />

Gilmar Garbugio<br />

Universidade Federal Fluminense<br />

Brígida Sartini<br />

Universidade Federal Rural do Rio de Janeiro<br />

VERSÃO 1.1.2<br />

2 de fevereiro de 2017<br />

Por favor, envie suas sugestões, correções e críticas para<br />

hjbortol@vm.uff.br, gilmarg@id.uff.br e brigida.sartini@gmail.com.


À minha esposa Joselí eà minha filha Hillary Winry.<br />

H. J. B.<br />

À minha mãe Rita e aos meus irmãos Humberto e Reginaldo.<br />

B. A. S.<br />

Aos meus pais Orlando e Iraci e aos meus irmãos Roseli, Rosinei,<br />

Rosana, Carla, Andréia e Reginaldo.<br />

G. G.


Sumário<br />

Prefácio 3<br />

1 Alguns marcos históricos 5<br />

2 Jogos na forma estratégica 10<br />

2.1 O que é um jogo? . . . . . . . . . . . . . . . . . . . . . 10<br />

2.2 Soluções de um jogo em estratégias puras . . . . . . . 13<br />

2.2.1 Dominância em estratégiaspuras........ 14<br />

2.2.2 Equilíbrio de Nash em estratégias puras . . . . 20<br />

2.2.3 Relações entre dominância e equilíbrio de Nash 24<br />

2.3 Estratégias mistas . . . . . . . . . . . . . . . . . . . . 27<br />

2.4 Soluções de um jogo em estratégias mistas . . . . . . . 31<br />

2.4.1 Dominância em estratégias mistas . . . . . . . 32<br />

2.4.2 Equilíbrio de Nash em estratégias mistas . . . . 35<br />

2.4.3 Relações entre dominância e equilíbrio de Nash 45<br />

2.4.4 Como interpretar estratégias mistas? . . . . . . 45<br />

2.5 Jogos infinitos . . . . . . . . . . . . . . . . . . . . . . . 48<br />

2.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />

3 O teorema de equilíbrio de Nash 60<br />

3.1 Usando o teorema de Brouwer . . . . . . . . . . . . . . 60<br />

3.2 Usando o teorema de Kakutani . . . . . . . . . . . . . 65<br />

3.3 Algumas propriedades dos equilíbrios de Nash . . . . . 69<br />

3.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />

1


2 Sumário<br />

4 Calculando equilíbrios de Nash 71<br />

4.1 Equilíbrio de Nash via um problema de otimização . . 71<br />

4.2 Equilíbrio de Nash via equações polinomiais . . . . . . 74<br />

4.3 Jogos de soma zero . . . . . . . . . . . . . . . . . . . . 82<br />

4.3.1 Jogos de soma constante com dois jogadores . . 82<br />

4.3.2 Equilíbrio de Nash em estratégias puras . . . . 86<br />

4.3.3 Equilíbrio de Nash em estratégias mistas . . . . 91<br />

4.3.4 O teorema minimax de von Neumann . . . . . 93<br />

4.4 Equilíbrio de Nash via um problema de complementaridade<br />

. . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />

4.4.1 Jogos bimatriciais . . . . . . . . . . . . . . . . 101<br />

4.4.2 O algoritmo de Lemke-Howson . . . . . . . . . 104<br />

4.5 Gambit . . . . . . . . . . . . . . . . . . . . . . . . . . 104<br />

4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />

5 Jogos na forma extensa 108<br />

5.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . 108<br />

5.2 Equilíbrio de Nash . . . . . . . . . . . . . . . . . . . . 110<br />

5.3 Indução retroativa e equilíbrio perfeito em subjogos . . 114<br />

5.4 O teorema de Kuhn-Zermelo . . . . . . . . . . . . . . 118<br />

5.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />

6 Exemplos 120<br />

6.1 O jogo Le Her simplificado . . . . . . . . . . . . . . . . 120<br />

6.2 O modelo de duopólio de Cournot . . . . . . . . . . . 126<br />

6.3 O modelo de duopólio de Bertrand . . . . . . . . . . . 129<br />

6.4 O modelo de duopólio de Stackelberg . . . . . . . . . . 131<br />

6.5 A tragédia dos comuns . . . . . . . . . . . . . . . . . . 133<br />

A Convexidade 137<br />

B Programação Linear 145<br />

C Respostas dos exercícios 155<br />

Bibliografia 173<br />

Índice 183


Prefácio<br />

A teoria dos jogos é uma teoria matemática criada para se modelar<br />

fenômenos que podem ser observados quando dois ou mais “agentes de<br />

decisão” interagem entre si. Ela fornece a linguagem para a descrição<br />

de processos de decisão conscientes e objetivos envolvendo mais de<br />

um indivíduo.<br />

Suas aplicações incluem eleições, leilões, balanço de poder, evolução<br />

genética, etc. Ela também é uma teoria matemática pura, que<br />

pode e tem sido estudada como tal, sem a necessidade de relacioná-la<br />

com problemas comportamentais ou jogos per se.<br />

Algumas pessoas acreditam que a teoria dos jogos formará, algum<br />

dia, o alicerce de um conhecimento técnico estrito de como decisões<br />

são feitas e de como a economia funciona. A teoria ainda não atingiu<br />

este patamar e, hoje, é mais estudada em seus aspectos matemáticos<br />

puros e, em aplicações, ela é usada como uma ferramenta ou alegoria<br />

que auxiliam no entendimento de sistemas mais complicados.<br />

Neste texto trataremos da teoria matemática dos jogos não-cooperativos<br />

estáticos de informação completa e dos jogos dinâmicos de<br />

informação perfeita.<br />

A Teoria Econômica dos Jogos não deve ser confundida com a<br />

Teoria Combinatória dos Jogos, iniciada por Sprague e Grundy na<br />

década de 30. Enquanto que a primeira tem motivações predominante<br />

econômicas e procura estabelecer métodos para se maximizar<br />

o ganho (payoff ), a segunda se concentra nos aspectos combinatórios<br />

de jogos de mesa (por exemplo, a estratégia do jogo de nim) enão<br />

permite “elementos imprevisíveis” como o lançamento de um dado<br />

ou o embaralhamento de cartas.<br />

Acreditamos que o assunto seja estimulante para o estudante de<br />

matemática: ele terá a oportunidade de ver como conceitos de análise,<br />

3


4 Prefácio<br />

topologia, otimização e probabilidade se integram em uma teoria aplicada.<br />

Agradecimentos 1<br />

Gostaríamos de agradecer a Hilmar Ilton Santana Ferreira, Polyane<br />

Alves Santos e Larissa Santana Barreto, que participaram ativamente<br />

dos seminários sobre teoria dos jogos realizados no período<br />

2003-2004, momento no qual uma versão preliminar deste texto foi<br />

escrita. Também gostaríamos de agradecer a Rita de Cássia Silva<br />

Costa, Bernardo K. Pagnoncelli e, em especial, a Carlos Tomei, que<br />

leram o texto e fizeram várias sugestões. Finalmente, gostaríamos de<br />

agradecer a Seção de Referência (SRE) da Divisão de Bibliotecas e<br />

Documentação da PUC-Rio pela agilidade e eficiência na aquisição<br />

de alguns artigos difíceis de se encontrar.<br />

Agradecimentos 2<br />

Gostaríamos de agradecer às várias pessoas que, após a divulgação<br />

da versão Creative Commons deste livro, colaboraram com sugestões:<br />

Doherty Andrade, Carlos Frederico Palmeira.<br />

Humberto José Bortolossi<br />

Brígida Alexandre Sartini<br />

Gilmar Garbugio<br />

1 de fevereiro de 2017


Capítulo 1<br />

Alguns marcos<br />

históricos<br />

Neste capítulo apresentaremos alguns marcos históricos da teoria<br />

dos jogos relacionados principalmente com os tópicos que iremos explorar<br />

no texto. Para uma cronologia mais completa, recomendamos<br />

as referências [46, 50, 65, 86, 95, 96].<br />

O conceito de solução de um jogo por estratégia mista 1 surgiu pela<br />

primeira vez no estudo do jogo Le Her, realizado por James Waldegrave<br />

e descrito por ele em uma carta a Pierre Rémond de Montmort,<br />

em 13 de novembro de 1713. Em seu estudo, ele procurou encontrar<br />

uma estratégia que maximizasse a probabilidade de vitória do jogador,<br />

independentemente da escolha de estratégia de seu oponente.<br />

Este jogo foi discutido por Montmort e por Nicholas Bernoulli em<br />

1713 e os resultados foram publicados nesse ano por Montmort, que<br />

incluiu a solução de Waldegrave em um apêndice.<br />

Em 1838, Augustin Cournot publicou sua obra Recherches sur<br />

les Principes Mathematiques de la Theorie des Richesses, na qual<br />

analisou um caso especial de duopólio. As empresas decidiam as<br />

quantidades a produzir e Cournot definiu o conceito de equilíbrio de<br />

1 Uma estratégia pura é uma das escolhas que o jogador pode fazer. Uma<br />

estratégia mista é uma distribuição de probabilidades sobre o conjunto de estratégias<br />

puras. Definições formais serão apresentadas no próximo capítulo.<br />

5


6 [CAP. 1: ALGUNS MARCOS HISTÓRICOS<br />

Figura 1.1: Antoine Augustin Cournot (1801–1877).<br />

mercado como sendo a situação em que ambas as empresas reagem<br />

de forma ótima à decisão da empresa concorrente. Este conceito<br />

de solução éumaversão do equilíbriodeNashaplicadoaocasodo<br />

duopólio.<br />

No início do século XX, apareceram vários artigos sobre teoria dos<br />

jogos. Ernst Zermelo, em 1913, publicou um teorema sobre o jogo<br />

de xadrez no artigo Uber eine Anwendung der Mengenlehre auf die<br />

Theorie des Schachspiels, afirmando que, em cada etapa do jogo, pelo<br />

menos um dos jogadores possui uma estratégia que o levará avitória<br />

ou ao empate. Contudo, Zermelo não demonstrou o teorema em seu<br />

artigo. A primeira demonstração foi dada por Laszlo Kalmar. Aparentemente,<br />

foi Zermelo quem primeiro destacou o uso da semântica<br />

de otimalidade em teoria dos jogos: “Whether one could calculate<br />

with mathematical objectivity, or even give a participant some idea<br />

of, the value of a possible position in the game, as well as of the best<br />

move in this position: information without which the player would<br />

have to eliminate both subjective and psychological guesses and the<br />

opinions of ‘the perfect player’, etc.?” ([95]).<br />

No período de 1921 a 1927, Émile Borel publicou uma série de<br />

notas sobre jogos simétricos de soma zero com dois jogadores com<br />

um número finito n de estratégias puras para cada jogador. Borel<br />

foi o primeiro a tentar formular matematicamente este jogo. Ele introduziu<br />

o conceito de “método de jogada” (o que hoje corresponde<br />

àestratégia pura) e procurou por uma solução em estratégias mistas<br />

(o que hoje é conhecido como solução minimax). Em 1921, ele<br />

provou a existência de tal solução para n = 3 ([07]) e, em 1924,


7<br />

Figura 1.2: Ernst Friedrich Ferdinand Zermelo (1871–1953).<br />

para n = 5 ([08]). Borel acreditava que o resultado de existência<br />

não seria válido para um n qualquer, mas como não encontrou um<br />

contra-exemplo, deixou o problema em aberto.<br />

Figura 1.3: Félix Edouard Justin Émile Borel (1871-1956).<br />

No artigo Zur Theorie der Gesellschaftsspiele de 1928, usando<br />

topologia e cálculo funcional ([50]), John von Neumann demonstrou<br />

aexistência de solução em estratégias mistas de um jogo finito de<br />

soma zero com dois jogadores e um número arbitrário de estratégias<br />

puras. Este artigo também introduziu a forma extensa de um jogo.<br />

Até adécada de 40, os artigos publicados sobre teoria dos jogos<br />

não tinham despertado muito o interesse dos cientistas sociais e de<br />

outras áreas que pesquisavam sobre conflitos de interesses. Talvez<br />

isto se deva ao fato de que os artigos eram escritos por matemáticos<br />

e publicados em revistas matemáticas. Este panorama foi alterado<br />

com a publicação em 1944 do livro Theory of Games and Economic


8 [CAP. 1: ALGUNS MARCOS HISTÓRICOS<br />

Behavior, escrito por John von Neumann e pelo economista Oskar<br />

Morgenstern, um marco na teoria dos jogos.<br />

Oskar Morgenstern John von Neumann<br />

(1902-1977) (1903-1957)<br />

Figura 1.4: Oskar Morgenstern e John von Neumann.<br />

Eles detalharam a formulação de problemas econômicos e mostraram<br />

várias possibilidades de aplicação da teoria dos jogos em economia,<br />

procurando apresentar as motivações, os raciocínios e as conclusões<br />

da teoria de forma acessível, atraindo assim a atenção de pesquisa-


9<br />

dores de diversas áreas. Na reedição de 1947, tomada como padrão,<br />

os autores estabeleceram os axiomas da teoria da utilidade. O livro<br />

foi republicado em 1953 e sua mais recente edição é de 1980.<br />

Na Universidade de Princeton, John Forbes Nash Jr. escreveu sua<br />

tese de doutorado em 1949, sob o título Non-Cooperative Games. Ele<br />

definiu o conceito de ponto de equilíbrio, atualmente conhecido como<br />

equilíbrio de Nash de um jogo e provou sua existência para jogos nãocooperativos.<br />

Os resultados mais importantes de sua tese estão no<br />

artigo Equilibrium Points in N-Person Games de 1950 ([66]) e, mais<br />

detalhadamente, no artigo Non-Cooperative Games de 1951 ([69]).<br />

Ainda em 1950, Nash escreveu sobre o problema da barganha em<br />

The Bargaining Problem ([68]) e, no ano de 1953, sobre jogos cooperativos<br />

em Two Person Cooperative Games ([70]). Nestes, Nash<br />

definiu o conceito de solução da barganha de Nash em um jogo cooperativo<br />

com dois jogadores, estabeleceu um sistema de axiomas que<br />

esta solução deveria satisfazer e provou a existência e unicidade desta<br />

solução.<br />

Em 1994, John Harsanyi, John Nash e Reinhard Selten receberam<br />

oPrêmio Nobel de Economia em reconhecimento ao trabalho pioneiro<br />

sobre análise de equilíbrio na teoria de jogos não-cooperativos.<br />

(a) (b) (c)<br />

Figura 1.5: Ganhadores do prêmio Nobel de Economia em 1994:<br />

(a) John Harsanyi (1920-2000), (b) John Forbes Nash Jr.<br />

(1928-2015) e (c) Reinhard Selten (1930-2016).


Capítulo 2<br />

Jogos na forma<br />

estratégica<br />

2.1 O que é um jogo?<br />

A teoria dos jogos pode ser definida como a teoria dos modelos<br />

matemáticos que estuda a escolha de decisões ótimas sob condições<br />

de conflito. O elemento básico em um jogo é o conjunto de jogadores<br />

que dele participam. Cada jogador tem um conjunto de estratégias.<br />

Quando cada jogador escolhe sua estratégia, temos então uma situação<br />

ou perfil no espaço de todas as situações (perfis) possíveis.<br />

Cada jogador tem interesse ou preferências para cada situação no<br />

jogo. Em termos matemáticos, cada jogador tem uma função utilidade<br />

que atribui um número real (o ganho ou payoff do jogador)<br />

a cada situação do jogo. Mais especificamente, um jogo tem os seguintes<br />

elementos básicos: existe um conjunto finito de jogadores,<br />

representado por<br />

G = {g 1 ,g 2 ,...,g n },<br />

e cada jogador g i ∈ G possui um conjunto finito<br />

S i = {s i1 ,s i2 ,...,s imi }<br />

10


[SEC. 2.1: O QUE É UM JOGO? 11<br />

de opções, denominadas estratégias puras do jogador g i (m i ≥ 2).<br />

Um vetor<br />

s =(s 1j1 ,s 2j2 ,...,s njn ),<br />

onde s iji éumaestratégia pura para o jogador g i ∈ G, édenominado<br />

um perfil de estratégias puras. O conjunto de todos os perfis de<br />

estratégias puras formam, portanto, o produto cartesiano<br />

S =<br />

n∏<br />

S i = S 1 × S 2 ×···×S n ,<br />

i=1<br />

Para cada joga-<br />

denominado espaço de estratégias puras do jogo.<br />

dor g i ∈ G, existeumafunção utilidade<br />

u i : S → R<br />

s ↦→ u i (s)<br />

que associa o ganho (payoff) u i (s) do jogador g i a cada perfil de<br />

estratégias puras s ∈ S. Esta função utilidade éumaformaderepresentar<br />

a preferência do jogador g i com relação aos vários perfis de<br />

estratégias do jogo ([13]).<br />

Jogos descritos nesta forma são denominados jogos estratégicos ou<br />

jogos na forma normal. Neles, cada jogador deve fazer a sua escolha<br />

de estratégia sem o conhecimento das escolhas dos demais jogadores.<br />

Admite-se, contudo, que cada jogador conhece toda a estrutura do<br />

jogo. Por este motivo, jogos deste tipo também são denominados<br />

jogos não-cooperativos de informação completa.<br />

Assume-se também que os jogadores sejam racionais, istoé, eles<br />

sempre escolherão ações que maximizem a sua função utilidade. Além<br />

de ser racional, cada jogador (1) sabe que seus adversários também<br />

são racionais, (2) sabe que eles sabem que o jogador sabe que eles são<br />

racionais, ad infinitum.<br />

Exemplo 2.1 (O dilema do prisioneiro) Possivelmente o exemplo<br />

mais conhecido na teoria dos jogos éodilema do prisioneiro. Ele<br />

foi formulado por Albert W. Tucker em 1950, em um seminário para<br />

psicólogos na Universidade de Stanford, para ilustrar a dificuldade de<br />

se analisar certos tipos de jogos.<br />

A situação é a seguinte: dois ladrões, Al e Bob, são capturados<br />

e acusados de um mesmo crime. Presos em selas separadas e sem


12 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

poderem se comunicar entre si, o delegado de plantão faz a seguinte<br />

proposta: cada um pode escolher entre confessar ou negar o crime.<br />

Se nenhum deles confessar, ambos serão submetidos a uma pena de<br />

1ano. Seosdoisconfessarem,então ambos terão pena de 5 anos. Mas<br />

se um confessar e o outro negar, então o que confessou será libertado<br />

eooutroserá condenado a 10 anos de prisão. Neste contexto, temos<br />

G = {Al, Bob},<br />

S Al = {confessar, negar}, S Bob = {confessar, negar},<br />

S = S Al × S Bob =<br />

{(confessar, confessar), (confessar, negar),<br />

(negar, confessar), (negar, negar)}.<br />

As duas funções utilidade<br />

u Al : S → R e u Bob : S → R<br />

são dadas por<br />

u Al (confessar, confessar) = −5, u Al (confessar, negar) = 0,<br />

u Al (negar, confessar) = −10, u Al (negar, negar) = −1,<br />

(que representam os ganhos de Al) e<br />

u Bob (confessar, confessar) = −5, u Bob (confessar, negar) = −10,<br />

u Bob (negar, confessar) = 0, u Bob (negar, negar) = −1<br />

(que representam os ganhos de Bob). Éumaprática representar os<br />

payoffs dos jogadores através de uma matriz, denominada matriz de<br />

payoffs.<br />

Bob<br />

confessar<br />

negar<br />

confessar (−5, −5) (0, −10)<br />

Al<br />

negar (−10, 0) (−1, −1)<br />

Nesta matriz, os números de cada célula representam, respectivamente,<br />

os payoffs de Al e Bob para as escolhas de Al e Bob correspondentes<br />

a célula.


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 13<br />

Exemplo 2.2 (A batalha dos sexos) Um homem e a sua mulher<br />

desejam sair para passear. O homem prefere assistir a um jogo de<br />

futebol enquanto que sua mulher prefere ir ao cinema. Se eles forem<br />

juntos para o futebol, então o homem tem satisfação maior do que a<br />

mulher. Por outro lado, se eles forem juntos ao cinema, entãoamulher<br />

tem satisfação maior do que o homem. Finalmente, se eles saírem<br />

sozinhos, então ambos ficam igualmente insatisfeitos. Esta situação<br />

também pode ser modelada como um jogo estratégico. Temos:<br />

G = {homem, mulher},<br />

S homem = {futebol, cinema}, S mulher = {futebol, cinema},<br />

S = S homem × S mulher =<br />

{(futebol, futebol), (futebol, cinema),<br />

(cinema, futebol), (cinema, cinema)}.<br />

As duas funções utilidade u homem : S → R e u mulher : S → R são<br />

descritas pela seguinte matriz de payoffs:<br />

futebol<br />

Mulher<br />

cinema<br />

Homem<br />

futebol (10, 5) (0, 0)<br />

cinema (0, 0) (5, 10)<br />

.<br />

2.2 Soluções de um jogo em estratégias<br />

puras<br />

Uma solução de um jogo é uma prescrição ou previsão sobre o resultado<br />

do jogo. Existem vários conceitos diferentes de solução. Nesta<br />

seção, investigaremos os dois conceitos mais comuns: dominância e<br />

equilíbrio de Nash.<br />

Considere o dilema do prisioneiro. Como encontrar uma solução<br />

para o dilema de Al e Bob, isto é, que estratégias são plausíveis


14 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

se os dois prisioneiros querem minimizar 1 o tempo de cadeia? Se<br />

analisarmos o jogo do ponto de vista de Al, ele pode raciocinar da<br />

seguinte maneira:<br />

“Duas coisas podem acontecer: Bob pode confessar ou<br />

Bob pode negar. Se Bob confessar, então émelhorpara<br />

mim confessar também. Se Bob não confessar, então eu<br />

fico livre se eu confessar. Em qualquer um dos casos, é<br />

melhor para mim confessar. Então, eu confessarei.”<br />

Se analisarmos agora o jogo do ponto de vista de Bob, podemos<br />

aplicar a mesma linha de raciocínio e concluir que Bob também irá<br />

confessar. Assim, ambos confessarão e ficarão presos por 5 anos.<br />

Em termos da teoria dos jogos, dizemos que (1) os dois jogadores<br />

possuem uma estratégia dominante, istoé, todas menos uma<br />

estratégia é estritamente dominada, (2) que o jogo éresolúvel por dominância<br />

estrita iterada e (3) que o jogo termina em uma solução que<br />

éumequilíbrio de estratégia dominante, conceitos que definiremos a<br />

seguir.<br />

2.2.1 Dominância em estratégias puras<br />

Freqüentemente, iremos discutir perfis de estratégia na qual apenas<br />

a estratégia de um único jogador g i ∈ G irá variar, enquanto que<br />

as estratégias de seus oponentes permanecerão fixas. Denote por<br />

s −i =(s 1j1 ,...,s (i−1)ji−1 ,s (i+1)ji+1 ,...,s njn ) ∈<br />

S −i = S 1 ×···×S i−1 × S i+1 ×···×S n<br />

uma escolha de estratégia para todos os jogadores, menos o jogador g i .<br />

Desta maneira, um perfil de estratégias pode ser convenientemente<br />

denotado por<br />

s =(s iji , s −i )=(s 1j1 ,...,s (i−1)ji−1 ,s iji ,s (i+1)ji+1 ,...,s njn ).<br />

1 No Exemplo 2.1, os payoffs foram definidos como números ≤ 0. Desta maneira,<br />

minimizar o tempo de cadeia é equivalente a maximizar o payoff.


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 15<br />

Definição 2.1 (Estratégia Pura Estritamente Dominada)<br />

Dizemos que uma estratégia pura s ik ∈ S i do jogador<br />

g i ∈ G é estritamente dominada pela estratégia s ik ′ ∈ S i se,<br />

independentemente das escolhas dos demais jogadores, o jogador<br />

g i ganhar mais escolhendo s ik ′ do que s ik ,istoé, se<br />

para todo s −i ∈ S −i .<br />

u i (s ik ′, s −i ) >u i (s ik , s −i ),<br />

Definição 2.2 (em estratégias puras)<br />

(a) (Dominância Estrita Iterada) Dominância estrita iterada<br />

é o processo no qual, seqüencialmente, se eliminam as<br />

estratégias que são estritamente dominadas.<br />

(b) (Equilíbrio de Estratégia Estritamente Dominante)<br />

Quando o processo de dominância estrita iterada reduz<br />

o jogo para um único perfil de estratégias puras s ∗ , dizemos<br />

que s ∗ éumequilíbrio de estratégia estritamente dominante.<br />

Exemplo 2.3 Considere o jogo determinado pela matriz de payoffs<br />

abaixo.<br />

g 2<br />

s 21 s 22 s 23 s 24<br />

g 1<br />

s 12 (0, 0) (3, 2) (2, 1) (1, 1)<br />

s 11 (5, 2) (2, 6) (1, 4) (0, 4)<br />

s 13 (7, 0) (2, 2) (1, 1) (5, 1)<br />

s 14 (9, 5) (1, 3) (0, 2) (4, 8)


16 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Neste jogo, para o jogador g 2 ,aestratégia s 21 éestritamentedominada<br />

pela estratégia s 24 e, assim, a primeira coluna da matriz pode<br />

ser eliminada.<br />

g 2<br />

s 22 s 23 s 24<br />

g 1<br />

s 12 (3, 2) (2, 1) (1, 1)<br />

s 11 (2, 6) (1, 4) (0, 4)<br />

s 13 (2, 2) (1, 1) (5, 1)<br />

s 14 (1, 3) (0, 2) (4, 8)<br />

Agora, nesta matriz reduzida, para o jogador g 1 ,asestratégias s 11<br />

e s 14 são estritamente dominadas pelas estratégias s 12 e s 13 , respectivamente.<br />

Portanto, as linhas 1 e 4 podem ser eliminadas. Além<br />

disso, a estratégia s 23 do jogador g 2 é estritamente dominada pela estratégia<br />

s 22 . Assim, a coluna 2 também pode ser eliminada. Obtemos<br />

então uma matriz reduzida 2 × 2.<br />

g 2<br />

s 22 s 24<br />

g 1<br />

s 12 (3, 2) (1, 1)<br />

s 13 (2, 2) (5, 1)<br />

Finalmente, a estratégia s 24 do jogador g 2 é estritamente dominada<br />

pela estratégia s 22 e, na matriz 2 × 1 resultante, a estratégia s 13 do<br />

jogador g 1 éestritamentedominadapelaestratégia s 12 . Vemos então<br />

que (s 12 ,s 22 )éoequilíbrio de estratégias estritamente dominantes do<br />

jogo: o jogador g 1 escolhe a estratégia s 12 (ganhando 3) e o jogador g 2<br />

escolhe a estratégia s 22 (ganhando 2).<br />

Note que, em cada passo do processo de eliminação das estratégias<br />

estritamente dominadas, o jogo é substituído por um outro jogo


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 17<br />

mais simples, no sentido de que o conjunto de estratégias puras<br />

de um jogador (aquele que tem uma estratégia estritamente dominada)<br />

é substituído por um subconjunto com menos elementos (obtido<br />

removendo-se justamente as estratégias que são estritamente dominadas).<br />

No exemplo acima, os conjuntos de estratégias puras iniciais<br />

dos dois jogadores são dados, respectivamente, por<br />

S 1 = {s 11 ,s 12 ,s 13 ,s 14 } e S 2 = {s 21 ,s 22 ,s 23 ,s 24 }.<br />

Como a estratégia pura s 21 é estritamente dominada por s 24 ,oconjunto<br />

S 2 é substituído por {s 22 ,s 23 ,s 24 } = S 2 −{s 21 }. O conjunto S 1<br />

permanece o mesmo. Sendo assim, podemos substituir o jogo original<br />

por um mais simples, onde os conjuntos de estratégias puras dos dois<br />

jogadores são dados por<br />

S (1)<br />

1 = {s 11 ,s 12 ,s 13 ,s 14 } e S (1)<br />

2 = {s 22 ,s 23 ,s 24 }.<br />

As funções utilidade do novo jogo são as restrições das funções utilidade<br />

do jogo original aos novos conjuntos de estratégias puras:<br />

u 1 | S<br />

(1)<br />

1<br />

e u 2 | S<br />

(1)<br />

2<br />

.<br />

Para o novo jogo, vemos que as estratégias s 11 e s 14 são estritamente<br />

dominadas pelas estratégias s 12 e s 13 , respectivamente. Logo, podemos<br />

simplificar o jogo mais uma vez, considerando os conjuntos de<br />

estratégias puras<br />

S (2)<br />

1 = {s 12 ,s 13 } e S (2)<br />

2 = {s 22 ,s 23 ,s 24 }.<br />

Seguindo com as outras eliminações, terminamos com um jogo muito<br />

simples, onde cada conjunto de estratégias puras é unitário:<br />

S (5)<br />

1 = {s 12 } e S (5)<br />

2 = {s 22 }.<br />

Este processo de eliminação gerou, portanto, uma cadeia de espaços<br />

de estratégias puras:<br />

S = S 1 × S 2 S (1) = S (1)<br />

1 × S (1)<br />

2 S (2) = S (2)<br />

1 × S (2)<br />

2 ···<br />

S (5) = S (5)<br />

1 × S (5)<br />

2 = {(s 12 ,s 22 )}.


18 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Neste exemplo, a técnica de dominância estrita iterada forneceu um<br />

único perfil de estratégias como solução do jogo, no caso, o perfil<br />

(s 12 ,s 22 ) ∈ S (5)<br />

1 × S (5)<br />

2 .<br />

Contudo, pode acontecer da técnica fornecer vários perfis ou, até<br />

mesmo, fornecer todo o espaço de estratégias, como é o caso da batalha<br />

dos sexos, onde não existem estratégias estritamente dominadas.<br />

Um outro conceito importante éodeestratégia pura fracamente<br />

dominada.<br />

Definição 2.3 (Estratégia Pura Fracamente Dominada)<br />

Dizemos que uma estratégia pura s ik ∈ S i do jogador<br />

g i ∈ G é fracamente dominada pela estratégia s ik ′ ∈ S i<br />

se<br />

u i (s ik ′, s −i ) ≥ u i (s ik , s −i ),<br />

para todo s −i ∈ S −i e, pelo menos para algum s • −i ∈ S −i,<br />

u i (s ik ′, s • −i) >u i (s ik , s • −i).<br />

Em outras palavras, s ik ∈ S i é fracamente dominada por<br />

s ik ′ ∈ S i se, independentemente das escolhas dos demais jogadores,<br />

o jogador g i nada perde se trocar a estratégia s ik ∈ S i<br />

pela estratégia s ik ′ ∈ S i e, pelo menos para uma escolha dos<br />

demais jogadores, esta troca dá ao jogador g i um ganho maior.<br />

Definição 2.4<br />

(a) (Dominância Fraca Iterada) Dominância fraca iterada<br />

é o processo no qual, seqüencialmente, se eliminam as estratégias<br />

que são fracamente dominadas.<br />

(b) (Equilíbrio de Estratégia Fracamente Dominante)<br />

Quando o processo de dominância fraca iterada reduz o jogo<br />

para um único perfil de estratégias puras s ∗ , dizemos que<br />

s ∗ éumequilíbrio de estratégia fracamente dominante.


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 19<br />

Exemplo 2.4 Considere o jogo cuja matriz de payoffs é dada por:<br />

g 2<br />

s 21 s 22<br />

g 1<br />

s 11 (1, 1) (1, 0)<br />

s 12 (1, 0) (0, 1)<br />

.<br />

Aestratégia s 12 do jogador g 1 éfracamentedominadapelaestratégia<br />

s 11 . Eliminando-a, obtemos a matriz reduzida:<br />

g 2<br />

s 21 s 22<br />

g 1 s 11 (1, 1) (1, 0)<br />

.<br />

Vemos agora que a estratégia s 22 do jogador 2 éestritamentedominada<br />

pela estratégia s 21 . Sendo assim, (s 11 ,s 21 )éoequilíbrio de<br />

estratégias fracamente dominadas do jogo.<br />

Uma pergunta natural é se o processo de eliminação das estratégias<br />

dominadas depende ou não da ordem em que são realizadas. Para<br />

ocasodeestratégias estritamente dominadas, pode-se mostrar que<br />

esta ordem é irrelevante, isto é, independentemente da ordem em<br />

que as estratégias (estritamente dominadas) são eliminadas, obtém-se<br />

sempre a mesma matriz reduzida no final do processo. Por outro lado,<br />

o processo de eliminação das estratégias fracamente dominadas pode<br />

conduzir a resultados diferentes, dependendo da ordem de eliminação.<br />

Considere, por exemplo, o jogo (conforme [32]):<br />

g 2<br />

s 21 s 22 s 23<br />

g 1<br />

s 11 (0, 2) (0, 0) (1, 0)<br />

s 12 (0, 3) (1, 0) (0, 0)<br />

.


20 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Eliminando-se, em sequência, as estratégias s 23 (que éestritamente<br />

dominada por s 21 ), s 11 (que é fracamente dominada por s 12 )es 22<br />

(que é estritamente dominada por s 21 ), obtemos (s 12 ,s 21 )comoresposta.<br />

Agora, eliminando-se, em sequência, as estratégias s 22 (que<br />

é estritamente dominada por s 21 ), s 12 (que é fracamente dominada<br />

por s 11 )es 23 (que é estritamente dominada por s 21 ), obtemos outra<br />

resposta: (s 11 ,s 21 ). Para detalhes sobre este assunto, recomendamos<br />

as referências [01, 15, 26, 32, 47, 55].<br />

Com relação à complexidade computacional, os resultados mostram<br />

que os problemas relacionados com estratégias estritamente dominadas<br />

tendem a ser mais fáceis (no sentido que eles podem ser<br />

resolvidos em tempo polinomial), enquanto que questões envolvendo<br />

estratégias fracamente dominadas são mais difíceis (no sentido que<br />

eles são NP-completos). Por exemplo, saber se uma dada submatriz<br />

de uma matriz de payoffs pode ser obtida através do processo de<br />

eliminação de estratégias dominadas é um problema polinomial para<br />

ocasodeestratégias estritamente dominadas e éumproblemaNP-<br />

Completoparaocasodeestratégias fracamente dominadas. Detalhes<br />

sobre o assunto podem ser encontrados nas referências [18, 33].<br />

2.2.2 Equilíbrio de Nash em estratégias puras<br />

Uma solução estratégica ou equilíbrio de Nash de um jogo éum<br />

perfil de estratégias onde cada jogador não tem incentivo de mudar<br />

sua estratégia se os demais jogadores não o fizerem.<br />

Definição 2.5 (Equilíbrio de Nash) Dizemos que um perfil<br />

de estratégias<br />

s ∗ =(s ∗ 1,...,s ∗ (i−1) ,s∗ i ,s ∗ (i+1) ,...,s∗ n) ∈ S<br />

éumequilíbrio de Nash se<br />

u i (s ∗ i , s ∗ −i) ≥ u i (s iji , s ∗ −i)<br />

para todo i =1,...,neparatodoj i =1,...,m i ,comm i ≥ 2.


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 21<br />

Exemplo 2.5<br />

(a) No dilema do prisioneiro (Exemplo 2.1), o perfil de estratégias<br />

(confessar, confessar) é um equilíbrio de Nash. De fato:<br />

e<br />

u Al (confessar, confessar) = −5 > −10 = u Al (negar, confessar)<br />

u Bob (confessar, confessar) = −5 > −10 = u Bob (confessar, negar).<br />

Estas desigualdades mostram que, para o perfil de estratégias<br />

(confessar, confessar), um prisioneiro não se sente motivado a<br />

mudar a sua estratégia se o outro nãoofizer(elenão vai ficar<br />

menos tempo na cadeia fazendo isto).<br />

Já o perfil (negar, confessar) não é um equilíbrio de Nash do<br />

jogo pois, neste caso, dado que Bob decide confessar, Al fica<br />

menos tempo na cadeia se mudar a sua estratégia de negar para<br />

confessar. Em outras palavras, para o perfil (negar, confessar),<br />

Al se sente motivado a mudar a sua estratégia se Bob nãoofizer.<br />

Os perfis (confessar, negar) e (negar, negar) também não são<br />

equilíbrios de Nash. Em (confessar, negar), Bob se sente motivado<br />

a mudar a sua estratégia se Al não o fizer e, em (negar,<br />

negar), cada um dos prisioneiros se sente motivado a mudar a<br />

sua estratégia se o outro não o fizer. Desta maneira, vemos que<br />

oúnico equilíbrio de Nash do jogo é (confessar, confessar).<br />

(b) Na batalha dos sexos (Exemplo 2.2), os perfis de estratégia (futebol,<br />

futebol) e (cinema, cinema) são os únicos equilíbrios de<br />

Nash do jogo.<br />

(c) No Exemplo 2.3, o único equilíbrio de Nash do jogo éoperfilde<br />

estratégias (s 12 ,s 22 ).<br />

Existem, contudo, jogos que não possuem equilíbrios de Nash em<br />

estratégias puras. Este é o caso, por exemplo, do jogo de comparar<br />

moedas (matching pennies).


22 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Exemplo 2.6 (Comparar moedas) Nesse jogo, dois jogadores exibem,<br />

ao mesmo tempo, a moeda que cada um esconde em sua mão.<br />

Se ambas as moedas apresentam cara ou coroa, o segundo jogador<br />

dá sua moeda para o primeiro. Se uma das moedas apresenta cara,<br />

enquanto a outra apresenta coroa, é a vez do primeiro jogador dar<br />

sua moeda para o segundo. Esse jogo se encontra representado por<br />

sua matriz de payoffs dada abaixo.<br />

g 2<br />

s 21 s 22<br />

g 1<br />

s 11 (+1, −1) (−1, +1)<br />

s 12 (−1, +1) (+1, −1)<br />

Observe que o perfil de estratégias (s 11 ,s 21 )não é um equilíbrio de<br />

Nash em estratégias puras, pois se o jogador g 1 mantiver a sua estratégia<br />

s 11 , o jogador g 2 terá um ganho maior se mudar sua estratégia<br />

de s 21 para s 22 ,istoé, ele se sente motivado a mudar a sua<br />

estratégia se o jogador g 1 não mudar a sua escolha. O mesmo comportamento<br />

ocorre para o perfil de estratégias (s 12 ,s 22 ). Já, para os<br />

perfis (s 11 ,s 22 )e(s 12 ,s 21 ), é o jogador g 1 que se sente motivado a<br />

mudar de estratégia para ganhar mais, se o jogador g 2 mantiver a sua<br />

estratégia. Isto mostra que o jogo de comparar moedas não possui<br />

equilíbrios de Nash em estratégias puras.<br />

Existe uma maneira conveniente de se caracterizar equilíbrios de<br />

Nash através das funções de melhor resposta. De maneira informal,<br />

a melhor resposta de um jogador para uma determinada escolha de<br />

estratégias dos demais jogadores é o conjunto de estratégias do jogador<br />

que maximizam o seu ganho quando os demais jogadores não<br />

mudam as suas escolhas. Mais precisamente, temos a seguinte<br />

Definição 2.6 (Funções de melhor resposta) A função de<br />

melhor resposta do jogador g i é a aplicação<br />

MR i : S −i → 2 Si


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 23<br />

definida por<br />

MR i (s −i ) = argmax si∈S i<br />

u i (s i , s −i )<br />

= {s ∗ i ∈ S i |∀s i ∈ S i ,u i (s ∗ i , s −i) ≥ u i (s i , s −i )},<br />

com s −i ∈ S −i (aqui 2 Si representa o conjunto das partes de S i ).<br />

A função de melhor resposta do jogo é a aplicação<br />

definida por<br />

MR: S → 2 S<br />

MR(s) =(MR 1 (s −1 ), MR 2 (s −2 ),...,MR n (s −n )),<br />

com s ∈ S. Observação: alguns autores usam as notações<br />

MR i : S −i ⇒ S i eMR i : S −i →→ S i para representar a função<br />

de melhor resposta MR i : S −i → 2 Si .<br />

Exemplo 2.7<br />

(a) No dilema do prisioneiro (Exemplo 2.1), temos<br />

MR Al : S Bob →→ S Al<br />

confessar ↦→ {confessar}<br />

negar ↦→ {confessar}<br />

MR Bob : S Al →→ S Bob<br />

confessar ↦→ {confessar}<br />

negar ↦→ {confessar}.<br />

(b) Na batalha dos sexos (Exemplo 2.2), temos<br />

MR Homem : S Mulher →→ S Homem<br />

futebol ↦→ {futebol}<br />

cinema ↦→ {cinema}<br />

MR Mulher : S Homem →→ S Mulher<br />

futebol ↦→ {futebol}<br />

cinema ↦→ {cinema}.


24 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

(c) No Exemplo 2.3, temos<br />

MR 1 (s 21 )={s 14 }, MR 1 (s 22 )={s 12 },<br />

MR 1 (s 23 )={s 12 }, MR 1 (s 24 )={s 13 },<br />

MR 2 (s 11 )={s 22 }, MR 2 (s 12 )={s 22 },<br />

MR 2 (s 13 )={s 22 }, MR 2 (s 14 )={s 24 }.<br />

(d) No jogo de comparar moedas (Exemplo 2.6), temos<br />

MR 1 (s 21 )={s 11 }, MR 1 (s 22 )={s 12 },<br />

MR 2 (s 11 )={s 22 }, MR 2 (s 12 )={s 21 }.<br />

Apróxima proposição é uma consequência direta das definições<br />

de equilíbrio de Nash e funções de melhor resposta.<br />

Proposição 2.1 s ∗ =(s ∗ 1 ,...,s∗ i ,...,s∗ n ) ∈ S é um equilíbrio<br />

de Nash em estratégias puras se, e somente se, s ∗ i ∈ MR i(s ∗ −i )<br />

para todo i =1,...,n.<br />

Observação. Como vimos, nem sempre um jogo possui um equilíbrio<br />

de Nash em estratégias puras. Contudo, épossível garantir<br />

esta existência para certos tipos de jogos com estruturas especiais.<br />

O leitor interessado pode consultar os jogos descritos nos artigos [28,<br />

61, 80, 94]. Para resultados quantitativos, veja [60].<br />

2.2.3 Relações entre dominância e equilíbrio de<br />

Nash<br />

Proposição 2.2 O processo de dominância estrita iterada não<br />

pode eliminar um equilíbrio de Nash ao simplificar um jogo.<br />

Demonstração: Lembramos que, em cada etapa do processo de eliminação<br />

de estratégias estritamente dominadas, o conjunto de estratégias<br />

puras de algum jogador é substituído por um subconjunto


[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 25<br />

com menos elementos, obtido removendo-se as estratégias do jogador<br />

que são estritamente dominadas. Cada eliminação gera um espaço de<br />

estratégias puras com menos elementos o que, sucessivamente, simplifica<br />

o jogo original:<br />

S = S 1 ×···×S n S (1) = S (1)<br />

1 ×···×S n<br />

(1) <br />

··· S (k) = S (k)<br />

1 ×···×S n (k) .<br />

Com esta notação, o enunciado da proposição pode ser colocado assim:<br />

se s ∗ ∈ S é um equilíbrio de Nash, então s ∗ ∈ S (k) .<br />

Ademonstração será feita por contradição: suponha, por absurdo,<br />

que exista s ∗ =(s ∗ 1 ,...,s∗ n ) ∈ S tal que s∗ é um equilíbrio de Nash,<br />

mas s ∗ ∉ S (k) . Isto significa que existe i tal que s ∗ i ∈ S (l)<br />

i mas<br />

s ∗ i ∉ S(l+1) i para algum l =0,...,k− 1(sel = 0, defina S (0)<br />

i = S i ).<br />

Sem perda de generalidade, vamos supor que esta propriedade ocorre<br />

pela primeira vez para o índice i, istoé, s ∗ i é a primeira estratégia do<br />

perfil de estratégias<br />

s ∗ =(s ∗ 1 ,...,s∗ (i−1) ,s∗ i ,s∗ (i+1) ,...,s∗ n )<br />

que é eliminada por uma estratégia estritamente dominante. Sendo<br />

assim, existe s • i ∈ S(l) i tal que<br />

u i (s ∗ i , s −i )


26 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Demonstração: Suponha que o processo de dominância estrita iterada<br />

gere uma cadeia de espaços de estratégias puras<br />

S = S 1 ×···×S n S (1) = S (1)<br />

1 ×···×S n<br />

(1) <br />

··· S (k) = S (k)<br />

1 ×···×S n (k) ,<br />

onde o último conjunto da cadeia é unitário:<br />

S (k) = S (k)<br />

1 ×···×S n<br />

(k) = {s ∗ } = {(s ∗ 1,...,s ∗ i ,...,s ∗ n)}.<br />

Note que, em particular, s ∗ 1 ∈ S(l) 1 , s∗ 2 ∈ S(l) 2 , ..., s∗ n ∈ S n (l) ,para<br />

todo l =0,...,k. Vamos mostrar que, nesta situação, s ∗ éoúnico<br />

equilíbrio de Nash do jogo. De fato, basta mostrar que s ∗ éum<br />

equilíbrio de Nash, pois a unicidade é uma consequência direta da<br />

Proposição 2.2. Suponha então, por absurdo, que s ∗ não seja um<br />

equilíbrio de Nash. Neste caso, devem existir índice i eestratégia<br />

pura s [1]<br />

i ∈ S i ,coms [1]<br />

i ≠ s ∗ i ,taisque<br />

u i (s ∗ i , s∗ −i )


[SEC. 2.3: ESTRATÉGIAS MISTAS 27<br />

Mas isto é um absurdo, pois S i é um conjunto finito.<br />

Arecíproca da Proposição 2.3 é falsa, isto é,mesmoqueojogo<br />

tenha um único equilíbriodeNash,elenão é necessariamente obtido a<br />

partir do processo de dominância estrita iterada. O jogo cuja matriz<br />

de payoffs é<br />

g 2<br />

s 21 s 22 s 23<br />

g 1 s 12 (+1, −1) (−1, +1) (+1, −1)<br />

s 11 (−1, +1) (+1, −1) (−1, +1)<br />

s 13 (−1, +1) (+1, −1) (+5, +5)<br />

fornece um contra-exemplo: s ∗ =(s 13 ,s 23 )éoúnico equilíbrio de<br />

Nash do jogo, mas não existem estratégias estritamente dominadas.<br />

AProposição 2.2 é falsa se trocarmos dominância estrita por dominância<br />

fraca, istoé, o processo de dominância fraca iterada pode<br />

eliminar um equilíbrio de Nash (veja o exercício [10] na página 58<br />

para um contra-exemplo). Se o processo de dominância fraca iterada<br />

reduz o jogo para apenas um único perfil de estratégias (como na<br />

Proposição 2.3), então este perfil é obrigatoriamente um equilíbrio de<br />

Nash, contudo, ele não é necessariamente o único equilíbrio de Nash<br />

do jogo.<br />

2.3 Estratégias mistas<br />

Como vimos no jogo de comparar moedas do Exemplo 2.6, existem<br />

jogos que não possuem equilíbrios de Nash em estratégias puras. Uma<br />

alternativa para estes casos é a de considerar o jogo do ponto de vista<br />

probabilístico, isto é, ao invés de escolher um perfil de estratégias<br />

puras, o jogador deve escolher uma distribuição de probabilidade sobre<br />

suas estratégias puras.<br />

Uma estratégia mista p i para o jogador g i ∈ G é uma distribuição<br />

de probabilidades sobre o conjunto S i de estratégias puras do jogador,


28 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

isto é, p i éumelementodoconjunto<br />

{<br />

Δ mi = (x 1 ,...,x mi ) ∈ R mi | x 1 ≥ 0,...,x mi ≥ 0e<br />

∑m i<br />

k=1<br />

x k =1<br />

}<br />

.<br />

Assim, se p i =(p i1 ,p i2 ,...,p imi ), então<br />

p i1 ≥ 0, p i2 ≥ 0, ..., p imi ≥ 0 e<br />

∑m i<br />

k=1<br />

p ik =1.<br />

Note que cada Δ mi é um conjunto compacto e convexo. Nas<br />

Figuras2.1e2.2temososdesenhosdeΔ 2 eΔ 3 , respectivamente. Os<br />

pontos extremos (vértices) de Δ mi ,istoé, os pontos da forma<br />

e 1 =(1, 0,...,0, 0), e 2 =(0, 1,...,0, 0), ..., e mi =(0, 0,...,0, 1)<br />

dão, respectivamente, probabilidade 1 às estratégias puras s i1 , s i2 ,<br />

..., s imi . Desta maneira, podemos considerar a distribuição de probabilidade<br />

e k comoaestratégia mista que representa a estratégia<br />

pura s ik do jogador g i .<br />

x 2<br />

1<br />

0<br />

1<br />

x 1<br />

Figura 2.1: Δ 2 = { (x 1 ,x 2 ) ∈ R 2 | x 1 ≥ 0,x 2 ≥ 0ex 1 + x 2 =1 } .


[SEC. 2.3: ESTRATÉGIAS MISTAS 29<br />

x 3<br />

1<br />

0<br />

1 x 2<br />

1<br />

x 1<br />

Figura 2.2: Δ 3 = { (x 1 ,x 2 ,x 3 ) ∈ R 3 | x 1 ≥ 0, x 2 ≥ 0, x 3 ≥ 0ex 1 +<br />

x 2 + x 3 =1}.<br />

Oespaço de todos os perfis de estratégia mista é o produto cartesiano<br />

Δ=Δ m1 × Δ m2 ×···×Δ mn ,<br />

denominado espaço de estratégias mistas. Como o produto cartesiano<br />

de conjuntos compactos e convexos é compacto e convexo, vemos que<br />

Δé compacto e convexo.<br />

Um vetor p ∈ Δé denominado um perfil de estratégias mistas.<br />

Como no caso de estratégias puras, usaremos a notação p −i para<br />

representar as estratégias mistas de todos os jogadores, excluindo-se<br />

a do jogador g i . Desta maneira, escreveremos<br />

(p i , p −i )<br />

para representar p =(p 1 ,...,p i ,...,p n ). Como a estratégia pura s ik<br />

pode ser identificada com a distribuição de probabilidades que dá<br />

peso1as ik epeso0às demais estratégias do jogador g i ,usaremos<br />

(s ik , p −i )


30 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

como uma notação alternativa para o perfil de estratégias mistas<br />

(e k , p −i ). Do mesmo modo, usaremos<br />

(p i , s −i )<br />

para indicar o perfil de estratégias mistas onde o jogador g i escolhe<br />

a distribuição de probabilidades p i e os demais jogadores escolhem<br />

distribuições que dãopeso1às estratégias puras em s −i .<br />

Cada perfil de estratégias mistas p =(p 1 ,...,p n ) ∈ Δ determina<br />

um payoff esperado (utilidade esperada), uma média dos payoffs ponderada<br />

pelas distribuições de probabilidades p 1 , ..., p n . Mais precisamente,<br />

se<br />

p = (p 1 , p 2 ,...,p n )<br />

= (p 11 ,p 12 ,...,p 1m1 ; p 21 ,p 22 ,...,p 2m2 ; ...; p n1 ,p n2 ,...,p nmn ),<br />

} {{ } } {{ } } {{ }<br />

p 1<br />

p 2<br />

p n<br />

então<br />

u i (p) =<br />

∑m 1<br />

∑m 2<br />

j 1=1 j 2=1<br />

···<br />

∑m n<br />

j n=1<br />

p 1j1 · p 2j2 ···p njn · u i (s 1j1 ,s 2j2 ,...,s njn ).<br />

(2.1)<br />

Cuidado com o abuso de notação: estamos usando u i para representar<br />

a função utilidade tanto em estratégias puras quanto em estratégias<br />

mistas.<br />

Como exemplo, considere o jogo de comparar moedas na página<br />

22. Se g 1 escolhe a distribuição de probabilidade p 1 =(1/4, 3/4)<br />

e g 2 escolhe a distribuição de probabilidade p 2 =(1/3, 2/3), então<br />

os payoffs esperados associados ao perfil de estratégias mistas p =<br />

(p 1 , p 2 )=(1/4, 3/4; 1/3, 2/3) são dados por<br />

u 1 (p) =<br />

2∑<br />

j 1=1 j 2=1<br />

2∑<br />

p 1j1 · p 2j2 · u 1 (s 1j1 ,s 2j2 )<br />

= p 11 · p 21 · u 1 (s 11 ,s 21 )+p 11 · p 22 · u 1 (s 11 ,s 22 )+<br />

p 12 · p 21 · u 1 (s 12 ,s 21 )+p 12 · p 22 · u 1 (s 12 ,s 22 )<br />

= 1 4 · 1<br />

3 · (+1) + 1 4 · 2<br />

3 · (−1) + 3 4 · 1<br />

3 · (−1) + 3 4 · 2<br />

3 · (+1)<br />

= + 1 6


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 31<br />

e, analogamente,<br />

u 2 (p) =<br />

2∑<br />

j 1=1 j 2=1<br />

2∑<br />

p 1j1 · p 2j2 · u 2 (s 1j1 ,s 2j2 )<br />

= p 11 · p 21 · u 2 (s 11 ,s 21 )+p 11 · p 22 · u 2 (s 11 ,s 22 )+<br />

p 12 · p 21 · u 2 (s 12 ,s 21 )+p 12 · p 22 · u 2 (s 12 ,s 22 )<br />

= 1 4 · 1<br />

3 · (−1) + 1 4 · 2<br />

3 · (+1) + 3 4 · 1<br />

3 · (+1) + 3 4 · 2<br />

3 · (−1)<br />

= − 1 6 .<br />

Observação. Se p ∗ =(p ∗ i , p∗ −i ) ∈ Δ, então a função x ↦→ u i(x, p ∗ −i )<br />

preserva combinações convexas. Mais precisamente, se x 1 ,...,x r ∈<br />

Δ mi e λ 1 ,...,λ r são escalares não-negativos com ∑ r<br />

k=1 λ k =1,então<br />

( r∑<br />

)<br />

r∑<br />

u i λ k · x k , p ∗ −i = λ k · u i (x k , p ∗ −i). (2.2)<br />

k=1<br />

Em particular, se<br />

∑m i<br />

p ∗ i =(p∗ i1 ,...,p∗ im i<br />

)= p ∗ ik · e k, (2.3)<br />

com e k o k-ésimo vetor da base canônica de R mi ,então<br />

(<br />

mi<br />

)<br />

u i (p ∗ )=u i (p ∗ i , p∗ −i )=u ∑<br />

i p ∗ ik · e ∑m i<br />

k, p ∗ −i = p ∗ ik · u i(e k , p ∗ −i ).<br />

k=1<br />

k=1<br />

k=1<br />

k=1<br />

(2.4)<br />

2.4 Soluções de um jogo em estratégias<br />

mistas<br />

Todososcritérios básicos para soluções de jogos em estratégias<br />

puras podem ser estendidos para estratégias mistas.


32 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

2.4.1 Dominância em estratégias mistas<br />

Definição 2.7 (Estratégia Mista Estritamente Dominada)<br />

Dizemos que uma estratégia mista p i ∈ Δ mi do jogador<br />

g i ∈ G é estritamente dominada pela estratégia p ′ i ∈ Δ m i<br />

se, independentemente das escolhas de distribuições de probabilidade<br />

dos demais jogadores, o jogador g i ganha mais escolhendo<br />

p ′ i do que p i,istoé, se<br />

u i (p ′ i, p −i ) >u i (p i , p −i ),<br />

para todo p −i ∈ Δ −i =Δ m1 ×···×Δ mi−1 ×Δ mi+1 ×···×Δ mn .<br />

Como os payoffs u i (p ′ i , p −i )eu i(p i , p −i )são, respectivamente,<br />

combinações convexas dos payoffs u i (p ′ i , s −i) e u i (p i , s −i ),<br />

segue-se que a condição acima é equivalente a<br />

u i (p ′ i , s −i) >u i (p i , s −i ),<br />

para todos perfis de estratégias puras s −i ∈ S −i .<br />

Exemplo 2.8 ([30], página 21) Considere o jogo com a seguinte<br />

matriz de payoffs:<br />

g 2<br />

s 21 s 22<br />

g 1 s 12 (0, 0) (5, 3)<br />

s 11 (5, 3) (0, 0)<br />

.<br />

s 13 (2, 1) (2, 1)<br />

Aestratégia mista p 1 =(0, 0, 1) ∈ Δ 3 do jogador g 1 éestritamente


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 33<br />

dominada pela estratégia mista p ′ 1 =(1/2, 1/2, 0) ∈ Δ 3,pois<br />

( 1<br />

u 1 (p ′ 1, p 2 )=u 1<br />

2 , 1 )<br />

2 , 0; p 21,p 22 = 5 2 · p 21 + 5 2 · p 22 = 5 2<br />

><br />

(<br />

)<br />

u 1 (p 1 , p 2 )=u 1 0 , 0, 1; p 21 ,p 22 =2· p 21 +2· p 22 =2<br />

para todo p 2 = (p 21 ,p 22 ) ∈ Δ 2 . Como p 1 = (0, 0, 1) representa<br />

aestratégia pura s 13 do jogador g 1 , este exemplo também mostra<br />

que uma estratégia pura pode não ser dominada por nenhuma outra<br />

estratégia puras mas, ainda sim, ser dominada por uma estratégia<br />

mista.<br />

Exemplo 2.9 ([31], página 7) Uma estratégia mista que atribui<br />

probabilidade positiva para uma estratégia pura estritamente dominada<br />

também é estritamente dominada (Exercício [13]). Contudo,<br />

uma estratégia mista pode ser estritamente dominada mesmo que ela<br />

atribua probabilidades positivas apenas para as estratégias puras que<br />

não são nem mesmo fracamente dominadas. Considere, por exemplo,<br />

o jogo com a seguinte matriz de payoffs:<br />

g 2<br />

s 21 s 22<br />

g 1 s 12 (2, 0) (5, 3)<br />

s 11 (5, 3) (2, 0)<br />

.<br />

s 13 (4, 1) (4, 1)<br />

As estratégias puras s 11 e s 12 não são fracamente dominadas, mas<br />

aestratégia mista p 1 =(1/2, 1/2, 0) é estritamente dominada pela<br />

estratégia mista p ′ 1 =(0, 0, 1) (que corresponde àestratégia pura s 13 ),


34 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

pois<br />

u 1 (p ′ 1, p 2 )=u 1<br />

(<br />

0 , 0, 1; p 21 ,p 22<br />

)<br />

=4· p 21 +4· p 22 =4<br />

><br />

( 1<br />

u 1 (p 1 , p 2 )=u 1<br />

2 , 1 )<br />

2 , 0; p 21,p 22 = 7 2 · p 21 + 7 2 · p 22 = 7 2<br />

para todo p 2 =(p 21 ,p 22 ) ∈ Δ 2 .<br />

A definição de dominância estrita iterada para estratégias mistas que<br />

daremos aqui segue a linha proposta pelas referências [26, 31, 74].<br />

Abordagens alternativas podem ser encontradas em [01, 15].<br />

Definição 2.8 (Dominância Estrita Iterada em Estratégias<br />

Mistas) Sejam S (0)<br />

i = S i eΔ (0)<br />

m i<br />

=Δ mi . Defina, recursivamente,<br />

e<br />

S (n)<br />

i<br />

= {s ∈ S (n−1)<br />

i<br />

| ∄p i ∈ Δ (n−1)<br />

m i<br />

tal que<br />

∀s −i ∈ S (n−1)<br />

−i ,u i (p i ,s −i ) >u i (s, s −i )}<br />

Δ (n)<br />

m i<br />

= {p i =(p i1 ,...,p imi ) ∈ Δ mi |<br />

∀k =1,...,m i ,p ik > 0somenteses ik ∈ S (n)<br />

i }.<br />

Ainterseção<br />

S ∞ i =<br />

∞⋂<br />

n=0<br />

S (n)<br />

i<br />

é o conjunto de estratégias puras que sobrevivem a remoção<br />

iterada de estratégias estritamente dominadas e


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 35<br />

Δ ∞ m i<br />

= {p i ∈ Δ mi | ∄p ′ i ∈ Δ mi<br />

tal que ∀s −i ∈ S (∞)<br />

−i ,u i (p ′ i,s −i ) >u i (p i ,s i )}<br />

é o conjunto de todas as estratégias mistas do jogador g i que<br />

sobreviveram a técnica de dominância estrita iterada.<br />

Note que S (n)<br />

i é o conjunto de estratégias puras em S (n−1)<br />

i que não são<br />

estritamente dominadas pelas estratégias mistas em Δ (n−1)<br />

m i<br />

equeΔ (n)<br />

m i<br />

é o conjunto de estratégias mistas que dá probabilidades positivas<br />

apenas para as estratégias puras em S (n)<br />

i .<br />

Definição 2.9 (Equilíbrio de Estratégia Estritamente<br />

Dominante) Se, no processo de dominância estrita iterada, o<br />

conjunto S ∞ = S1 ∞ ×···×S∞ n é unitário, isto é, se<br />

S ∞ = {s ∗ },<br />

então dizemos que s ∗ éumequilíbrio de estratégia estritamente<br />

dominante.<br />

Como no caso de estratégias puras, épossível mostrar que os conjuntos<br />

S ∞ = S1 ∞ ×···×Sn ∞ eΔ ∞ =Δ ∞ m 1<br />

×···×Δ ∞ m n<br />

não dependem<br />

da ordem em que as estratégias estritamente dominadas são<br />

removidas. Não apresentaremos a demonstração deste fato aqui.<br />

O leitor interessado poderá encontrá-la (bem como as definições e<br />

resultados sobre estratégias mistas fracamente dominadas) nasreferências<br />

[01, 15, 26, 55].<br />

2.4.2 Equilíbrio de Nash em estratégias mistas<br />

Definição 2.10 (Equilíbrio de Nash) Dizemos que um perfil<br />

de estratégias mistas


36 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

p ∗ =(p ∗ 1, p ∗ 2,...,p ∗ n) ∈ Δ=Δ m1 × Δ m2 ×···×Δ mn<br />

éumequilíbrio de Nash se<br />

u i (p ∗ i , p ∗ −i) ≥ u i (p, p ∗ −i)<br />

para todo p ∈ Δ mi ,istoé, nenhum jogador sente motivação<br />

de trocar a sua estratégia mista se os demais jogadores não o<br />

fizerem.<br />

Exemplo 2.10<br />

(a) No dilema do prisioneiro (Exemplo 2.1), o perfil de estratégias<br />

mistas<br />

p ∗ =(p ∗ 1 , p∗ 2 )=(1, 0; 1, 0)<br />

é um equilíbrio de Nash, pois<br />

u 1 (p 1 , p ∗ 2)=u 1 (p 11 ,p 12 ;1, 0) = 5 · p 11 − 10 ≤<br />

− 5=u 1 (1, 0; 1, 0) = u 1 (p ∗ 1 , p∗ 2 )<br />

para todo p 1 =(p 11 ,p 12 ) ∈ Δ 2 e<br />

u 2 (p ∗ 1 , p 2 )=u 2(1, 0; p 21 ,p 22 )=5· p 21 − 10 ≤<br />

− 5=u 2 (1, 0; 1, 0) = u 2 (p ∗ 1, p ∗ 2)<br />

para todo p 2 = (p 21 ,p 22 ) ∈ Δ 2 . Observe que este equilíbrio<br />

corresponde ao equilíbrio em estratégias puras<br />

s ∗ = (confessar, confessar).<br />

Mostraremos mais adiante que este éoúnico equilíbrio de Nash<br />

em estratégias mistas do jogo.<br />

(b) Na batalha dos sexos (Exemplo 2.2), os equilíbrios de Nash em<br />

estratégias mistas são<br />

(1, 0; 1, 0), (0, 1; 0, 1) e (2/3, 1/3; 1/3, 2/3).


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 37<br />

Os dois primeiros perfis de estratégias mistas correspondem às<br />

estratégias puras (futebol, futebol) e (cinema, cinema), respectivamente.<br />

Mostraremos mais adiante que estes são os únicos<br />

equilíbrios de Nash em estratégias mistas do jogo.<br />

(c) No Exemplo 2.3, o único equilíbrio de Nash em estratégia mista<br />

éoponto<br />

(0, 1, 0, 0; 0, 1, 0, 0)<br />

que corresponde ao equilíbrio de Nash (s 12 ,s 22 )emestratégias<br />

puras.<br />

(d) No jogo de comparar moedas do Exemplo 2.6, o único equilíbrio<br />

de Nash em estratégias mistas éoponto<br />

(1/2, 1/2; 1/2, 1/2).<br />

Como no caso de estratégias puras, podemos caracterizar equilíbrios<br />

de Nash em estratégias mistas através das funções de melhor<br />

resposta. Considere um jogo com espaço de estratégias mistas Δ =<br />

Δ m1 ×···×Δ mi ×···×Δ mn . No que se segue, usaremos as seguintes<br />

notações:<br />

Δ(S i )=Δ mi e Δ(S −i )=Δ m1 ×···×Δ mi−1 × Δ mi+1 ×···Δ mn .<br />

Definição 2.11 (Funções de melhor resposta em estratégias<br />

mistas) A função de melhor resposta do jogador g i éa<br />

aplicação<br />

MR i :Δ(S −i ) → 2 Δ(Si)<br />

definida por MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i ), isto é,<br />

MR i (p −i )<br />

=<br />

{p ∗ i ∈ Δ(S i) |∀p i ∈ Δ(S i ),u i (p ∗ i , p −i) ≥ u i (p i , p −i )},<br />

com p −i ∈ Δ(S −i ). A função de melhor resposta do jogo éa<br />

aplicação<br />

MR: Δ → 2 Δ


38 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

definida por<br />

com p ∈ Δ.<br />

MR(p) =(MR 1 (p −1 ), MR 2 (p −2 ),...,MR n (p −n )),<br />

Note que, como Δ(S i )é um conjunto compacto não-vazio e a<br />

função p i ↦→ u i (p i , p −i )écontínua, podemos usar o teorema de Weierstrass<br />

para garantir que MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i )é<br />

um conjunto não-vazio para todo p −i ∈ Δ(S −i ).<br />

Apróxima proposição é uma consequência direta das definições<br />

de equilíbrio de Nash e funções de melhor resposta em estratégias<br />

mistas.<br />

Proposição 2.4 p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n ) ∈ Δé um equilíbrio<br />

de Nash em estratégias mistas se, e somente se, p ∗ i ∈ MR i(p ∗ −i )<br />

para todo i =1,...,n,istoé, p ∗ ∈ MR(p ∗ ).<br />

Exemplo 2.11 Suponha que, na batalha dos sexos (Exemplo 2.2),<br />

a mulher escolha a estratégia mista p 2 =(1/2, 1/2). Qual éamelhor<br />

resposta do homem a esta estratégia da mulher? Para responder a<br />

esta pergunta, observe inicialmente que<br />

u Homem (p 1 , p 2 ) = u Homem (p 11 ,p 12 ; p 21 ,p 22 )<br />

= p 11 · p 21 · u Homem (futebol, futebol) +<br />

p 11 · p 22 · u Homem (futebol, cinema) +<br />

p 12 · p 21 · u Homem (cinema, futebol) +<br />

p 12 · p 22 · u Homem (cinema, cinema)<br />

= 10· p 11 · p 21 +5· p 12 · p 22<br />

e, portanto, u Homem (p 11 ,p 12 ;1/2, 1/2) = 5 · p 11 +(5/2) · p 12 . Desta<br />

maneira,<br />

MR Homem (1/2, 1/2) = argmax (p11,p 12)∈Δ 2<br />

(5 · p 11 +(5/2) · p 12 ).


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 39<br />

Segue-se que a melhor resposta do homem àestratégia mista p 2 =<br />

(1/2, 1/2) da mulher é obtida resolvendo-se o seguinte problema de<br />

otimização:<br />

maximizar 5 · p 11 +(5/2) · p 12<br />

sujeito a p 11 + p 12 =1,<br />

p 11 ≥ 0,<br />

p 12 ≥ 0,<br />

cuja solução é(p ∗ 11 ,p∗ 12 )=(1, 0). Sendo assim, MR Homem(1/2, 1/2) =<br />

{(1, 0)}.<br />

No caso de jogos com apenas dois jogadores, cada um com apenas<br />

duas estratégias puras, épossível escrever as estratégias mistas de<br />

uma maneira mais simplificada:<br />

Δ 2 = {(p, 1 − p) ∈ R 2 | 0 ≤ p ≤ 1},<br />

isto é, cada elemento de Δ 2 pode ser identificado com um número real<br />

no intervalo [0, 1]. Com isto, as funções de melhor resposta podem<br />

ser reescritas de forma a depender de apenas de um número real. Por<br />

exemplo, se o homem escolhe uma estratégia mista (p, 1 − p) ∈ Δ 2 ,<br />

qual é a melhor resposta da mulher a esta estratégia do homem?<br />

Escrevendo as estratégias mistas da mulher na forma (q, 1 − q) ∈ Δ 2 ,<br />

vemos que<br />

u Mulher (p, 1 − p; q, 1 − q) = 15pq +10− 10 q − 10 p<br />

= 5 (3p − 2) q +10(1− p).<br />

Sendo assim,<br />

MR Mulher (p) = argmax (q,1−q)∈Δ2 (5 (3 p − 2) q +10(1− p))<br />

= argmax q∈[0,1] (5 (3 p − 2) q +10(1− p)),<br />

onde, por simplicidade, estamos escrevendo MR Mulher (p) no lugar<br />

de MR Mulher (p, 1 − p). Assim, dada a escolha de p ∈ [0, 1] do homem,<br />

a mulher quer encontrar os valores de q ∈ [0, 1] que maximizam o valor<br />

de sua utilidade u Mulher =5(3p − 2) q +10(1− p). Se p ∈ [0, 2/3),<br />

então 3 p − 2 < 0 e, para maximizar a sua utilidade, a mulher deverá


40 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

escolher q =0. Sep =2/3, então 3 p − 2 = 0 e, portanto, a utilidade<br />

u Mulher =10(1− p) da mulher não dependerá deq. Neste caso, a<br />

mulher poderá escolher qualquer valor de q em [0, 1]. Se p ∈ (2/3, 1],<br />

então 3 p − 2 > 0 e, para maximizar a sua utilidade, a mulher deverá<br />

escolher q = 1. Mostramos então que<br />

⎧<br />

⎨ {0}, se p ∈ [0, 2/3),<br />

MR Mulher (p) = [0, 1], se p =2/3,<br />

⎩<br />

{1}, se p ∈ (2/3, 1].<br />

Esta função de melhor resposta pode ser representada graficamente,<br />

como mostra a Figura 2.3.<br />

(Mulher)<br />

q<br />

(Futebol)<br />

1<br />

(Cinema)<br />

0<br />

2/3<br />

1 p (Homem)<br />

(Cinema)<br />

(Futebol)<br />

Figura 2.3: Representação gráfica da função de melhor resposta da<br />

mulher no jogo da batalha dos sexos.<br />

Do mesmo modo, se a mulher escolhe uma estratégia mista (q, 1−q) ∈<br />

Δ 2 ,então<br />

u Homem (p, 1 − p; q, 1 − q) = 15pq +5− 5 q − 5 p<br />

= 5 (3q − 1) p +5(1− q),<br />

de modo que<br />

MR Homem (q) = argmax (p,1−p)∈Δ2 (5 (3 q − 1) p +5(1− q))<br />

= argmax p∈[0,1] (5 (3 q − 1) p +5(1− q)).


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 41<br />

Assim, dada a escolha de q ∈ [0, 1] da mulher, o homem quer encontrar<br />

os valores de p ∈ [0, 1] que maximizam o valor de sua utilidade<br />

u Homem =5(3q − 1) p +5(1− q). Se q ∈ [0, 1/3), então 3 q −<br />

1 < 0 e, para maximizar a sua utilidade, o homem deverá escolher<br />

p =0. Seq =1/3, então 3 q − 1=0e,portanto,autilidade<br />

u Homem =5(1− q) dohomemnão dependerá dep. Neste caso, o<br />

homem poderá escolher qualquer valor de p em [0, 1]. Se q ∈ (1/3, 1],<br />

então 3 q − 1 > 0 e, para maximizar a sua utilidade, o homem deverá<br />

escolher p = 1. Mostramos então que<br />

⎧<br />

⎨ {0}, se q ∈ [0, 1/3),<br />

MR Homem (q) = [0, 1], se q =1/3,<br />

⎩<br />

{1}, se q ∈ (1/3, 1].<br />

Esta função de melhor resposta pode ser representada graficamente,<br />

como mostra a Figura 2.4.<br />

(Homem)<br />

p<br />

(Futebol)<br />

1<br />

(Cinema)<br />

0<br />

1/3<br />

1 q (Mulher)<br />

(Cinema)<br />

(Futebol)<br />

Figura 2.4: Representação gráfica da função de melhor resposta do<br />

homem no jogo da batalha dos sexos.<br />

Agora, pela Proposição 2.4, segue-se que um perfil de estratégias<br />

mistas (p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )é um equilíbrio de Nash se, e somente se,<br />

q ∗ ∈ MR Mulher (p ∗ )ep ∗ ∈ MR Homem (q ∗ ). Desta maneira, os valores<br />

de p ∗ e q ∗ que geram equilíbrios de Nash correspondem aos pontos<br />

de interseção entre as representações gráficas das funções de melhor


42 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

resposta da mulher e do homem, quando representadas em um mesmo<br />

sistema de eixos, como ilustra a Figura 2.5.<br />

(Mulher)<br />

q<br />

(Futebol)<br />

1<br />

1/3<br />

(Cinema)<br />

0<br />

2/3<br />

1 p (Homem)<br />

(Cinema)<br />

(Futebol)<br />

Figura 2.5: Calculando os equilíbrios de Nash usando as representações<br />

gráficas das duas funções de melhor resposta.<br />

Vemos, portanto, que a batalha dos sexos possui apenas 3 equilíbrios<br />

de Nash em estratégias mistas:<br />

(0, 1; 0, 1), (2/3, 1/3; 1/3, 2/3) e (1, 0; 1, 0),<br />

que correspondem, respectivamente, aos três únicos pontos de interseção<br />

(p ∗ ,q ∗ )=(0, 0), (p ∗ ,q ∗ )=(2/3, 1/3) e (p ∗ ,q ∗ )=(1, 1) das<br />

duas representações gráficas.<br />

Exemplo 2.12 ([31], página 17) (O jogo da inspeção) Ochefe<br />

de uma empresa de computação desconfia que seu operador de<br />

computadores está usando o tempo de serviço para “bater papo”<br />

na internet. Se o operador trabalha corretamente, ele gasta g em<br />

esforço e produz um lucro bruto de v unidades para a empresa. O<br />

chefe, por sua vez, pode fiscalizar ou não o trabalho do operador.<br />

Fiscalizar custa h unidades para a empresa. Se o operador for pego<br />

“batendo papo” na internet, ele perde o seu salário de w unidades<br />

(o chefe não pode condicionar o valor do salário w ao valor do lucro<br />

bruto v). Para limitar o número de casos a considerar, vamos assumir


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 43<br />

que g > h > 0equew > g. Os dois jogadores escolhem suas<br />

estratégias simultaneamente (em particular, ao decidir se vai fiscalizar<br />

ou não, o chefe não sabe se o empregado decidiu trabalhar ou decidiu<br />

“bater papo” na internet). Neste contexto, o jogo da inspeção tem a<br />

matriz de payoffs indicada abaixo.<br />

empregado<br />

não trabalhar<br />

trabalhar<br />

chefe<br />

fiscalizar (−h, 0) (v − w − h, w − g)<br />

não fiscalizar (−w, w) (v − w, w − g)<br />

Observe que este jogo não possui equilíbrio de Nash em estratégias<br />

puras e, como ele deve se repetir em cada dia útil de trabalho, não é<br />

sensato escolher sempre a mesma estratégia pura para todos os dias.<br />

Asolução, neste caso, é escolher entre as estratégias puras a cada dia<br />

seguindo uma distribuição de probabilidades, isto é, através de estratégias<br />

mistas. Como as funções de melhor resposta do empregado<br />

edochefesão dadas, respectivamente, por<br />

MR Empregado (p) = argmax q∈[0,1] ((−wp + g) q + w − g)<br />

⎧<br />

⎨ {1}, se p ∈ [0,g/w),<br />

= [0, 1], se p = g/w,<br />

⎩<br />

{0}, se p ∈ (g/w, 1],<br />

MR Chefe (q) = argmax p∈[0,1] ((+wq − h) p + v (1 − q) − w)<br />

⎧<br />

⎨ {0}, se q ∈ [0,h/w),<br />

= [0, 1], se q = h/w,<br />

⎩<br />

{1}, se q ∈ (h/w, 1],<br />

segue-se que o (único) equilíbrio de Nash em estratégias mistas é<br />

obtido tomando-se p ∗ = g/w e q ∗ = h/w. Se, por exemplo, v =5,<br />

w =4,g =3eh =2,então<br />

(p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )=(3/4, 1/4; 1/2, 1/2).<br />

Isto significa que o chefe deve escolher sua estratégia de acordo com<br />

um gerador de números aleatórios com distribuição de probabilidade<br />

(3/4, 1/4) e o operador deve escolher sua estratégia de acordo


44 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

com um gerador de números aleatórios com distribuição de probabilidade<br />

(1/2, 1/2). Isto pode ser feito, por exemplo, com as duas “rodas<br />

da fortuna” da Figura 2.6.<br />

Fiscalizar<br />

Trabalhar<br />

Não fiscalizar<br />

Não trabalhar<br />

chefe<br />

empregado<br />

Figura 2.6: Distribuições de probabilidade que constituem um equilíbrio<br />

de Nash para o jogo do Exemplo 2.12.<br />

A partir deste resultado, podemos calcular o valor ótimo de contrato<br />

do empregado, isto é, o valor de w que maximiza o payoff esperado<br />

do chefe:<br />

(<br />

u Chefe (w) =(+wq ∗ − h) p ∗ + v (1 − q ∗ ) − w) =v 1 − h )<br />

− w.<br />

w<br />

Se, por exemplo, √ √ vh > g, então este valor ótimo é dado por w ∗ =<br />

vh (note que u<br />

′<br />

Chefe (w ∗ )=0eu ′′ Chefe (w) ≤ 0paraw>0).<br />

Jogos deste tipo têm sido usados para se estudar temas como controle<br />

de armas ([03, 10, 83]), prevenção de crimes ([04]) e incentivos no<br />

trabalho ([53]).<br />

Como vimos no jogo de comparar moedas no Exemplo 2.6, existem<br />

jogos que não possuem equilíbrios de Nash em estratégias puras e, até<br />

agora, todos os jogos apresentados em nossos exemplos possuem pelo<br />

menos um equilíbrio de Nash em estratégias mistas. Uma pergunta<br />

natural éseaexistência de equilíbrios de Nash em estratégias mistas<br />

é um resultado geral ou não. A resposta ésim!Nopróximo capítulo<br />

apresentaremos e demonstraremos o teorema de equilíbrio de Nash,


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 45<br />

que garante a existência de equilíbrios em estratégias mistas para<br />

jogos finitos.<br />

2.4.3 Relações entre dominância e equilíbrio de<br />

Nash<br />

As Proposições 2.2 e 2.3 para estratégias puras continuam válidas<br />

para estratégias mistas: (1) o processo de dominância estrita iterada<br />

em estratégias mistas não pode eliminar um equilíbrio de Nash<br />

e (2) se o processo de dominância estrita iterada em estratégias mistas<br />

deixa apenas um único perfil de estratégias, então este perfil éum<br />

equilíbrio de Nash do jogo. Não apresentaremos as demonstrações<br />

destes resultados aqui. O leitor interessado poderá encontrá-las nas<br />

referências [15, 26].<br />

2.4.4 Como interpretar estratégias mistas?<br />

Existe muita controvérsia sobre as interpretações e usos de estratégias<br />

mistas ([02, 12, 17, 57, 74, 77, 81, 73, 92, 93]). Aumann,<br />

por exemplo, em [02], afirma que<br />

“Mixed strategy equilibria have always been intuitively<br />

problematic because they are not ‘strict’: a player will not<br />

lose if he abandons the randomization and uses instead<br />

any arbitrary one of the pure strategy components of the<br />

randomization.”<br />

(veja as Equações 4.1 na página 81) e, segundo Rardner e Roshental<br />

([76]),<br />

“One of the reasons why game-theoretic ideas have not<br />

found more widespread application is that randomization,<br />

which plays a major role in game theory, seems to have<br />

limited appeal in many practical situations.”<br />

Ainda, segundo Rubinstein ([81]),<br />

“The reason for the criticism is that the naive interpretation<br />

of a mixed strategy as an action which is conditional<br />

on the outcome of a lottery executed by the player before


46 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

the game, goes against our intuition. We are reluctant to<br />

believe that our decisions are made at random. We prefer<br />

to be able to point to a reason for each action we take.<br />

Outside of Las Vegas we do not spin roulettes.”<br />

De fato, testes experimentais recentes mostraram que jogadores não<br />

seguem a estratégiamistaprevistapelateoria,mesmoquandoojogo<br />

possui um único equilíbrio de Nash em estratégias mistas ([57]).<br />

Existem também certas análises feitas com estratégias mistas que<br />

produzem resultados não-intuitivos. Considere, por exemplo, a seguinte<br />

situação. Um contribuinte C deve decidir se vai ou não sonegar<br />

imposto, sabendo que existe um fiscal F quepodeounão fiscalizá-lo.<br />

Na matriz de payoffs abaixo, vamos assumir que valem as seguintes<br />

desigualdades<br />

(1) c 21 >c 11 : o contribuinte C prefere não sonegar se souber que<br />

ofiscalF irá fiscalizar,<br />

(2) c 12 >c 22 : o contribuinte C prefere sonegar se souber que o fiscal<br />

F não irá fiscalizar,<br />

(3) f 11 >f 12 :ofiscalF prefere fiscalizar se souber que o contribuinte<br />

C irá sonegar e<br />

(4) f 22 >f 21 :ofiscalF prefere não fiscalizar se souber que o contribuinte<br />

C não irá sonegar.<br />

Vocêpodepensarqueosc ij são números negativos que representam<br />

oquantoserá debitado de C pelo pagamento de imposto e que os f ij<br />

são números positivos que representam bônus salariais de F .<br />

F<br />

fiscalizar não fiscalizar<br />

C<br />

sonegar (c 11 ,f 11 ) (c 12 ,f 12 )<br />

não sonegar (c 21 ,f 21 ) (c 22 ,f 22 )<br />

Usandoatécnica descrita no Exemplo 2.11, vemos que o único equilíbrio<br />

de Nash do jogo é dado por (p ∗ C , 1 − p∗ C ; p∗ F , 1 − p∗ F ), onde<br />

(<br />

)<br />

(p ∗ C ,p∗ F )= f 22 − f 21<br />

c 22 − c 12<br />

,<br />

.<br />

f 22 − f 21 − f 12 + f 11 c 22 − c 12 − c 21 + c 11<br />

.


[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 47<br />

Aqui, p ∗ C representa a probabilidade com que C decide sonegar e p∗ F<br />

representa a probabilidade com que F decide fiscalizar. Dois resultados<br />

não-intuitivos advêm destas expressões para p ∗ C e p∗ F :<br />

(a) Se a receita federal decide aumentar a multa de sonegação, isto<br />

é, se ela resolve diminuir o valor de c 11 ,entãoafreqüência p ∗ C de<br />

sonegações não muda e a freqüência de fiscalizações p ∗ F diminui.<br />

(b) Se a receita federal decide aumentar o bônus salarial para os fiscais<br />

que identificam contribuintes sonegadores, isto é, se ela resolveraumentarovalordef<br />

11 ,entãoafreqüência de fiscalizações p ∗ F<br />

não muda e a freqüência de sonegações p ∗ C diminui.<br />

Isto acontece porque alterações introduzidas nos payoffs de um jogador<br />

afeta apenas a expressão para o perfil de estratégias mistas<br />

do equilíbrio de Nash do outro jogador (Proposição da Irrelevância<br />

do Payoff [43]).<br />

Existem, contudo, interpretações que são mais robustas. Uma delas<br />

é imaginar o jogo como uma interação entre n populações numerosas:<br />

cada partida ocorre depois que n jogadores são selecionados<br />

de maneira aleatória nestas populações. As probabilidades p iji no<br />

perfil de estratégias mistas p i do jogador g i são interpretadas como<br />

as freqüências dos jogadores que escolheram a estratégia pura s iji na<br />

i-ésima população. Outra interpretação é devida a Harsanyi. Apresentamos<br />

aqui o abstract de seu artigo [39]:<br />

“Equilibrium points in mixed strategies seem to be unstable,<br />

because any player can deviate without penalty from<br />

his equilibrium strategy even if he expects all other players<br />

to stick to theirs. This paper proposes a model under<br />

which most mixed-strategy equilibrium points have full<br />

stability. It is argued that for any game Γ the players’<br />

uncertainty about the other players’ exact payoffs can be<br />

modeled as a disturbed game Γ ∗ , i.e., as a game with small<br />

random fluctuations in the payoffs. Any equilibrium point<br />

in Γ, whether it is in pure or in mixed strategies, can ‘almost<br />

always’ be obtained as a limit of a pure-strategy<br />

equilibrium point in the corresponding disturbed game<br />

Γ ∗ when all disturbances go to zero. Accordingly, mixedstrategy<br />

equilibrium points are stable – even though the


48 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

players may make no deliberate effort to use their pure<br />

strategies with the probability weights prescribed by their<br />

mixed equilibrium strategies – because the random fluctuations<br />

in their payoffs will make them use their pure<br />

strategies approximately with the prescribed probabilities.”<br />

Não nos aprofundaremos neste tema polêmico. O leitor interessado<br />

pode consultar as referências citadas no início desta subseção e, em<br />

especial, [81] e a Seção 3.2 de [74].<br />

2.5 Jogos infinitos<br />

Os jogos que estudamos até agora são finitos, istoé, eles possuem<br />

um número finito de jogadores, cada um com um número finito de estratégias<br />

puras. Contudo, existem situações que, para serem modeladas,<br />

necessitam de um número infinito de jogadores ou de um número<br />

infinito de estratégias ([06, 44, 62]). Jogos em estratégias mistas, por<br />

exemplo, podem ser pensados como jogos com um número finito de<br />

jogadores e com um número infinito de estratégias (as infinitas distribuições<br />

de probabilidade que cada jogador pode escolher). Vamos<br />

nos concentrar no caso de jogos com um número finito de jogadores e<br />

um número infinito de estratégias puras (o caso de estratégias mistas<br />

requer como pré-requisito teoria da medida e não será tratado aqui).<br />

As definições de estratégias estritamente dominadas, estratégias fracamente<br />

dominadas e equilíbrios de Nash são análogas ao caso finito,<br />

com a diferença de que, agora, os conjuntos S i podem ser infinitos.<br />

Definição 2.12 (Estratégia Pura Estritamente Dominada)<br />

Dizemos que uma estratégia pura s i ∈ S i do jogador g i ∈<br />

G é estritamente dominada pela estratégia s ′ i ∈ S i se<br />

para todo s −i ∈ S −i .<br />

u i (s ′ i , s −i) >u i (s i , s −i ),


[SEC. 2.5: <strong>JOGOS</strong> INFINITOS 49<br />

Definição 2.13 (Estratégia Pura Fracamente Dominada)<br />

Dizemos que uma estratégia pura s i ∈ S i do jogador<br />

g i ∈ G é fracamente dominada pela estratégia s ′ i ∈ S i se<br />

u i (s ′ i, s −i ) ≥ u i (s i , s −i ),<br />

para todo s −i ∈ S −i e, pelo menos para algum s • −i ∈ S −i,<br />

u i (s iκ ′, s • −i ) >u i(s iκ , s • −i ).<br />

Definição 2.14 (Equilíbrio de Nash)Dizemos que um perfil<br />

de estratégias<br />

s ∗ =(s ∗ 1 ,...,s∗ (i−1) ,s∗ i ,s∗ (i+1) ,...,s∗ n ) ∈ S<br />

éumequilíbrio de Nash se<br />

u i (s ∗ i , s∗ −i ) ≥ u i(s i , s ∗ −i )<br />

para todo i =1,...,n eparatodos i ∈ S i .<br />

Exemplo 2.13 ([26], página 2009) Considere o seguinte jogo infinito:<br />

G = {g 1 ,g 2 }, S 1 = S 2 =[0, 1] e u 1 ,u 2 : S = S 1 × S 2 → R<br />

definidas por<br />

⎧<br />

⎨<br />

u 1 (x, y) =<br />

⎩<br />

x, se x


50 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Do mesmo modo, toda estratégia pura y ∈ [0, 1) do jogador g 2 é<br />

estritamente dominada por (1 + y)/2 ∈ (y, 1). Como<br />

u 1 (1, 1) = 1 ≥ u 1 (x, 1) e u 2 (1, 1) = 1 ≥ u 2 (1,y), ∀x, y, ∈ [0, 1],<br />

segue-se que (x ∗ ,y ∗ )=(1, 1) éoúnico equilíbrio de Nash em estratégias<br />

puras do jogo. Eliminando-se todas as estratégias em S 1 −<br />

{1,t} e S 2 −{1,t}, paraalgumt


[SEC. 2.6: EXERCÍCIOS 51<br />

g 2<br />

s 21 s 22 s 23 s 24<br />

g 1<br />

s 11 (3, 0) (1, 1) (5, 4) (0, 2)<br />

s 12 (1, 1) (3, 2) (6, 0) (2, −1)<br />

s 13 (0, 2) (4, 4) (7, 2) (3, 0)<br />

[02] Considere a matriz de payoffs para os jogadores L (linhas) e C<br />

(colunas), a seguir:<br />

C<br />

c 1 c 2<br />

L<br />

l 1 (3, 3) (0, 1)<br />

l 2 (1, 1) (2, 3)<br />

Pede-se:<br />

(a) Determinar se existe alguma estratégia estritamente dominante<br />

para algum jogador.<br />

(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />

puras). Caso exista mais do que um equilíbrio, quantos<br />

equaissão.<br />

[03] A partir da matriz de payoffs a seguir para os jogadores L (linhas)<br />

e C colunas,<br />

C<br />

c 1 c 2<br />

L<br />

l 1 (3, 2) (4, 4)<br />

l 2 (1, 1) (9, 2)<br />

determine:


52 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

(a) Se algum jogador possui alguma estratégia dominante.<br />

(b) Quantos equilíbrios de Nash em estratégias puras existem.<br />

[04] (Jogo do covarde) Neste jogo, dois adolescentes pilotam<br />

carros roubados em direçãoaumabismoemumtestedecoragem:<br />

aquele que desviar o carro primeiro será chamado de<br />

covarde (chicken).<br />

Este tipo de jogo ficou popular depois do filme Juventude Transviada<br />

(Rebel Without a Cause) de 1955, estrelado por James<br />

Dean, que morreu em decorrência de um acidente de automóvel.<br />

Bertrand Russell, em [82], compara uma variação deste jogo<br />

com a tática de brinkmanship 2 na corrida nuclear:<br />

“Since the nuclear stalemate became apparent, the<br />

Governments of East and West have adopted the<br />

policy which Mr. Dulles calls ‘brinkmanship’. This<br />

is a policy adapted from a sport which, I am told, is<br />

practised by some youthful degenerates. This sport<br />

is called ‘Chicken!’. It is played by choosing a long<br />

straight road with a white line down the middle and<br />

starting two very fast cars towards each other from<br />

opposite ends. Each car is expected to keep the wheels<br />

of one side on the white line. As they approach each<br />

other, mutual destruction becomes more and more<br />

imminent. If one of them swerves from the white<br />

2 Arte ou prática de se levar uma situação perigosa ou confrontação além do<br />

limite do que pode ser considerado seguro, para conseguir determinado desfecho.


[SEC. 2.6: EXERCÍCIOS 53<br />

line before the other, the other, as he passes, shouts<br />

‘Chicken!’, and the one who has swerved becomes<br />

an object of contempt. As played by irresponsible<br />

boys, this game is considered decadent and immoral,<br />

though only the lives of the players are risked. But<br />

when the game is played by eminent statesmen, who<br />

risk not only their own lives but those of many hundreds<br />

of millions of human beings, it is thought on<br />

both sides that the statesmen on one side are displaying<br />

a high degree of wisdom and courage, and<br />

only the statesmen on the other side are reprehensible.<br />

This, of course, is absurd. Both are to blame<br />

for playing such an incredibly dangerous game. The<br />

game may be played without misfortune a few times,<br />

but sooner or later it will come to be felt that loss<br />

of face is more dreadful than nuclear annihilation.<br />

The moment will come when neither side can face<br />

the derisive cry of ‘Chicken!’ from the other side.<br />

When that moment is come, the statesmen of both<br />

sides will plunge the world into destruction.”<br />

O jogo do covarde pode ser modelado com a seguinte matriz<br />

de payoffs:<br />

desviar<br />

g 2<br />

não desviar<br />

g 1<br />

desviar (2, 2) (1, 3)<br />

não desviar (3, 1) (0, 0)<br />

.<br />

Pede-se:<br />

(a) Determinar se existe alguma estratégia estritamente dominante<br />

para algum jogador.<br />

(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />

puras). Caso exista mais do que um equilíbrio, quantos<br />

equaissão.


54 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

[05] (Jogo Hawk-Dove) Dois animais disputam um recurso (uma<br />

presa, por exemplo). Cada animal tem duas opções: (1) brigar<br />

pelo recurso (estratégia hawk) ou (2) ameaçar o seu oponente<br />

(estratégia dove). Se os dois animais resolverem brigar pelo<br />

recurso, o conflito continuará até que um deles fique ferido e<br />

o vencedor será o outro. Se somente um animal decide atacar,<br />

então ele vencerá o animal que decidiu apenas ameaçar.<br />

Se os dois escolherem fazer ameaças, então existe um empate<br />

e cada animal recebe um ganho menor do que ganharia na situação<br />

onde um escolhe brigar e o outro ameaçar. Este jogo<br />

foi apresentado pela primeira vez por John Maynard Smith e<br />

George Price no artigo The Logic of Animal Conflict na revista<br />

Nature [56]. A forma tradicional da matriz de payoffs éa<br />

seguinte:<br />

g 1<br />

brigar<br />

ameaçar<br />

brigar<br />

( V − C<br />

, V − C )<br />

2 2<br />

(0,V)<br />

g 2<br />

ameaçar<br />

(V,0)<br />

( V<br />

2 , V 2<br />

)<br />

.<br />

Aqui, V é o valor do recurso sendo disputado e C éocustoda<br />

briga. Em geral, assume-se que o valor do recurso émenordo<br />

que o custo da briga, isto é, C>V >0. Pede-se:<br />

(a) Determinar se existe alguma estratégia estritamente dominante<br />

para algum jogador.<br />

(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />

puras). Caso exista mais do que um equilíbrio, quantos<br />

equaissão.<br />

[06] No artigo “Nornmandy: Game and Reality”, deW.Drakerna<br />

revista “Moves”, no. 6 (1972), é feita uma análise da invasão da<br />

Europa na Normandia na Segunda Guerra Mundial. Seis configurações<br />

possíveis de ataque (1 a 6) pelos Aliados e seis possíveis


[SEC. 2.6: EXERCÍCIOS 55<br />

estratégias defensivas (A a F ) pelo Eixo foram simuladas e calculadas,<br />

num total de 36 simulações. A matriz da Tabela 2.1<br />

foi estimada pelos Aliados para cada batalha hipotética. Use o<br />

processo de dominância fraca iterada para reduzir ao máximo<br />

possível o tamanho da matriz.<br />

[07] Considere um jogo com três jogadores: A, B e C. Asestratégias<br />

do jogador A são {x 1 ,x 2 ,x 3 },asestratégias do jogador B são<br />

{y 1 ,y 2 } easestratégias do jogador C são {z 1 ,z 2 ,z 3 ,z 4 }. Se<br />

o jogador B escolhe a estratégia y 1 ,ospayoffs são dados pela<br />

matriz<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (5, 0, 2) (1, 0, 1) (3, 0, 6) (1, 2, 1)<br />

A<br />

x 2 (3, 2, 2) (9, 1, 8) (2, 0, 5) (2, 0, 2)<br />

x 3 (1, 0, 0) (1, 0, 9) (4, 0, 8) (3, 0, 3)<br />

Por outro lado, se o jogador B escolhe a estratégia y 2 ,então os<br />

payoffs são dados por<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (0, 1, 1) (0, 1, 2) (2, 1, 3) (0, 3, 9)<br />

A<br />

x 2 (0, 3, 2) (1, 2, 3) (2, 1, 8) (2, 1, 0)<br />

x 3 (1, 1, 0) (2, 1, 1) (3, 2, 2) (3, 1, 3)<br />

Use a técnica de dominância estrita iterada para reduzir a matriz<br />

deste jogo.


56 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Tabela 2.1: Análise da invasão da Europa na Normandia na Segunda Guerra Mundial.<br />

6 (+23, −23) (+22, −22) (+19, −19) (+23, −23) (+30, −30) (+34, −34)<br />

Aliados<br />

3 (+18, −18) (+22, −22) (+31, −31) (+31, −31) (+27, −27) (+37, −37)<br />

4 (+11, −11) (+22, −22) (+12, −12) (+21, −21) (+21, −21) (+26, −26)<br />

5 (+18, −18) (+16, −16) (+19, −19) (+14, −14) (+19, −19) (+28, −28)<br />

2 (+18, −18) (+22, −22) (+21, −21) (+22, −22) (+29, −29) (+31, −31)<br />

1 (+13, −13) (+29, −29) (+ 8, − 8) (+12, −12) (+16, −16) (+23, −23)<br />

Eixo<br />

A B C D E F


[SEC. 2.6: EXERCÍCIOS 57<br />

[08] Repita o exercício anterior com a matriz de payoffs<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (1, 2, 9) (2, 9, 9) (3, 7, 9) (2, 8, 9)<br />

A<br />

x 2 (3, 8, 3) (4, 5, 4) (4, 1, 3) (3, 9, 3)<br />

x 3 (2, 9, 9) (3, 9, 9) (3, 9, 9) (2, 9, 9)<br />

caso o jogador B escolha a estratégia y 1 eamatrizdepayoffs<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (2, 1, 9) (3, 9, 9) (2, 9, 9) (1, 9, 9)<br />

A<br />

x 2 (4, 9, 1) (4, 2, 2) (3, 2, 1) (2, 2, 1)<br />

x 3 (1, 9, 9) (2, 9, 9) (2, 9, 9) (1, 9, 9)<br />

caso ele escolha a estratégia y 2 .<br />

[09] Considere um jogo com três jogadores: A, B e C. Asestratégias<br />

do jogador A são {x 1 ,x 2 ,x 3 },asestratégias do jogador B são<br />

{y 1 ,y 2 } easestratégias do jogador C são {z 1 ,z 2 ,z 3 ,z 4 }. Se<br />

o jogador B escolhe a estratégia y 1 ,ospayoffs são dados pela<br />

matriz<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (1, 2, 1) (2, 3, 1) (1, 0, 2) (1, 4, 1)<br />

A<br />

x 2 (2, 0, 1) (1, 2, 1) (3, 1, 3) (3, 2, 1)<br />

x 3 (1, 0, 1) (1, 1, 1) (2, 5, 1) (1, 3, 1)


58 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />

Por outro lado, se o jogador B escolhe a estratégia y 2 ,então os<br />

payoffs são dados por<br />

C<br />

z 1 z 2 z 3 z 4<br />

x 1 (0, 0, 0) (1, 2, 3) (1, 3, 0) (1, 1, 1)<br />

A<br />

x 2 (2, 1, 0) (1, 5, 1) (2, 2, 3) (1, 5, 2)<br />

x 3 (2, 1, 1) (1, 0, 1) (1, 0, 4) (1, 5, 3)<br />

Calcule os equilíbrios de Nash em estratégias puras deste jogo.<br />

[10] Considere o jogo cuja matriz de payoffs é dada por:<br />

Jogador 2<br />

L C R<br />

Jogador 1<br />

T (1, 0) (3, 1) (1, 1)<br />

M (1, 1) (3, 0) (0, 1)<br />

B (2, 2) (3, 3) (0, 2)<br />

.<br />

(a) Identifique, para cada jogador, todos os pares de estratégias<br />

onde uma estratégia é fracamente dominada pela outra.<br />

(b) Usando o processo de eliminação das estratégias fracamente<br />

dominadas, encontre todas as possíveis de maneiras de reduzir<br />

o jogo para uma matriz 1 × 1.<br />

(c) Quais são os equilíbrios de Nash em estratégias puras do<br />

jogo?<br />

[11] Suponha que o processo de dominância fraca iterada em estratégias<br />

puras reduza um jogo finito para apenas um único<br />

perfil de estratégias s ∗ .Mostreques ∗ é um equilíbrio de Nash<br />

em estratégias puras do jogo.


[SEC. 2.6: EXERCÍCIOS 59<br />

[12] Demonstre a propriedade 2.2 da página 31 da função utilidade<br />

esperada definida em 2.1.<br />

[13] Mostre que uma estratégia mista que atribui probabilidade positiva<br />

para uma estratégia pura estritamente dominada também<br />

é estritamente dominada.<br />

[14] Use a técnica descrita no Exemplo 2.11 para calcular as funções<br />

de melhor resposta dos jogadores dos Exemplos 2.1 (o dilema<br />

dos prisioneiros) e 2.6 (comparar moedas). Em seguida, use as<br />

representações gráficas destas funções para calcular os equilíbrios<br />

de Nash em estratégias mistas de cada jogo.<br />

[15] Um equilíbrio de Nash em estratégias mista pode dar probabilidade<br />

positiva a uma estratégia pura que éestritamentedominada?<br />

E em uma estratégia pura que é fracamente dominada?<br />

[16] (Eficiência de Pareto) Um perfil de estratégias puras é Pareto<br />

eficiente (também denominado ponto ótimo de Pareto) se<br />

nenhum outro perfil de estratégias puras oferece a todos os jogadores<br />

um ganho maior, isto é, nenhum jogador pode aumentar o<br />

seu ganho sem que algum outro jogador tenha uma perda. Mais<br />

precisamente, s ∗ ∈ S é Pareto eficiente se, não existe s • ∈ S<br />

tal que<br />

u i (s • ) >u i (s ∗ ),<br />

para todo i =1,...,n.<br />

O equilíbrio de Nash s ∗ = (confessar, confessar) do jogo do<br />

dilema dos prisioneiros é Pareto eficiente?


Capítulo 3<br />

O teorema de equilíbrio<br />

de Nash<br />

O teorema de equilíbrio de Nash estabelece que todo jogo finito<br />

possui pelo menos um equilíbrio de Nash em estratégias mistas. Este<br />

resultado foi provado por John Forbes Nash Jr. em sua tese de doutorado<br />

em 1949 na Universidade de Princeton. Neste capítulo apresentaremos<br />

duas demonstrações do teorema, obtidas através de dois<br />

teoremas de ponto fixo: o de Brouwer e o de Kakutani.<br />

3.1 Usando o teorema de Brouwer<br />

Teorema 3.1 (do ponto fixo de Brouwer) Se Δ éum<br />

subconjunto compacto, convexo e não-vazio de um espaço euclidiano<br />

de dimensão finita e se F: Δ→ Δé uma função contínua,<br />

então F possui um ponto fixo em Δ, isto é, existe p ∗ ∈ Δtal<br />

que<br />

F(p ∗ )=p ∗ .<br />

Ademonstração deste teorema pode ser encontrada, por exemplo,<br />

em [63, 79]. A dissertação de mestrado [89] oferece um excelente<br />

60


[SEC. 3.1: USANDO O TEOREMA DE BROUWER 61<br />

survey sobre o assunto: ela inclui dados históricos, generalizações e<br />

aplicaçõesdoteoremadopontofixodeBrouwer.<br />

Com as notações dadas na Seção 2.3, estabeleceremos uma seqüência<br />

de teoremas que fornecem caracterizações alternativas para<br />

um equilíbrio de Nash.<br />

Teorema 3.2 Para cada i =1,...,n e j =1,...,m i , defina as<br />

funções<br />

z ij : Δ → R<br />

p ↦→ z ij (p) =u i (s ij , p −i ) − u i (p i , p −i )<br />

(isto é, z ij mede o ganho ou perda do jogador g i quando ele troca<br />

a distribuição de probabilidade p i pela estratégia pura s ij ). Temos<br />

que p ∗ é um equilíbrio de Nash se, e somente se,<br />

z ij (p ∗ ) ≤ 0<br />

para cada i =1,...,n e j =1,...,m i .<br />

Demonstração:<br />

(⇒) Sep ∗ =(p ∗ i , p∗ −i )é um equilíbrio de Nash, então u i(p ∗ i , p∗ −i )<br />

≥ u i (s ij , p ∗ −i ) para cada i =1,...,n e j =1,...,m i. Conseqüentemente,<br />

z ij (p ∗ )=u i (s ij , p ∗ −i) − u i (p ∗ i , p ∗ −i) ≤ 0<br />

para cada i =1,...,n e j =1,...,m i .<br />

(⇐) Se<br />

z ij (p ∗ )=u i (s ij , p ∗ −i ) − u i(p ∗ i , p∗ −i ) ≤ 0<br />

para cada i =1,...,n e j =1,...,m i ,então<br />

u i (s ij , p ∗ −i) =u i (e j , p ∗ −i) ≤ u i (p ∗ i , p ∗ −i)<br />

para cada i =1,...,n e j =1,...,m i , onde e j éovetoremR mi que<br />

tem 1 na j-ésima coordenada e zero nas demais. Devemos mostrar<br />

que para todo p i =(p i1 ,...,p imi ) ∈ Δ mi<br />

u i (p i , p ∗ −i) ≤ u i (p ∗ i , p ∗ −i).


62 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />

Mas, como x ↦→ u i (x, p ∗ i ) preserva combinações convexas, temos que<br />

(<br />

mi<br />

)<br />

∑<br />

∑m i<br />

u i (p i , p ∗ −i) =u i p ik · e k , p ∗ (<br />

−i = p ik · u i ek , p ∗ )<br />

−i<br />

∑m i<br />

k=1<br />

k=1<br />

≤<br />

k=1<br />

(<br />

p ik · u i p<br />

∗<br />

i , p ∗ ( ∑m i<br />

−i)<br />

= ui p<br />

∗<br />

i , p ∗ (<br />

−i)<br />

· p ik = u i p<br />

∗<br />

i , p ∗ −i)<br />

,<br />

onde, na última igualdade, usamos o fato de que ∑ m i<br />

k=1 p ik =1,dado<br />

que p i ∈ Δ mi .<br />

k=1<br />

Teorema 3.3 Para cada i =1,...,n e j =1,...,m i , defina as<br />

funções<br />

g ij : Δ → R<br />

p ↦→ g ij (p) =max{0,z ij (p)} .<br />

Temos que p é um equilíbrio de Nash se, e somente se,<br />

g ij (p) =0<br />

para cada i =1,...,n e j =1,...,m i .<br />

Demonstração: A prova segue imediatamente do teorema anterior.<br />

Teorema 3.4 Defina a aplicação<br />

F: Δ = Δ m1 ×···×Δ mn → Δ=Δ m1 ×···×Δ mn<br />

p =(p 1 ,...,p n ) ↦→ F(p) =(y 1 (p),...,y n (p)) ,<br />

onde<br />

e<br />

y i (p) =(y i1 (p),...,y imi (p)), p i =(p i1 ,...,p imi )


[SEC. 3.1: USANDO O TEOREMA DE BROUWER 63<br />

y ij (p) =<br />

p ij + g ij (p)<br />

m i<br />

.<br />

∑<br />

1+ g ik (p)<br />

k=1<br />

Temos que p ∗ é um equilíbrio de Nash se, e somente se,<br />

F(p ∗ )=p ∗ ,<br />

isto é, se, e somente se, p ∗ éumpontofixodaaplicação F.<br />

Demonstração: Observe que, de fato, F(Δ) ⊆ Δ, pois claramente<br />

y ij ≥ 0e<br />

∑m i<br />

k=1<br />

⎛<br />

⎞<br />

∑m i<br />

∑m i<br />

∑m i<br />

p ik + g ik (p)<br />

y ik (p) =<br />

p ik + g ik (p)<br />

⎜ m i<br />

k=1 ⎝ ∑ ⎟<br />

⎠ = k=1 k=1<br />

∑m i<br />

1+ g ik (p) 1+ g ik (p)<br />

k=1<br />

∑m i<br />

1+ g ik (p)<br />

k=1<br />

m i<br />

=<br />

=1,<br />

∑<br />

1+ g ik (p)<br />

k=1<br />

isto é, cada y i (p) ∈ Δ mi .<br />

(⇒) Sep ∗ é um equilíbrio de Nash, então g ij (p ∗ ) = 0 para cada<br />

i =1,...,n e j =1,...,m i .Destamaneira,y ij (p ∗ )=p ∗ ij para cada<br />

i =1,...,ne j =1,...,m i ,istoé, y i (p ∗ )=p ∗ i para cada i =1,...,n<br />

ou, ainda, F(p ∗ )=p ∗ .<br />

(⇐) Suponha que p ∗ =(p ∗ 1, p ∗ 2,...,p ∗ n) ∈ Δ=Δ m1 ×···×Δ mn<br />

seja um ponto fixo da aplicação F: Δ→ Δ, isto é, suponha que<br />

p ∗ ij = p∗ ij + g ij(p ∗ )<br />

∑m i<br />

1+ g ik (p ∗ )<br />

k=1<br />

k=1


64 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />

para todo j =1,...,m i e i =1,...,n.Segue-seentão que<br />

m i<br />

p ∗ ij ·<br />

∑<br />

g ik (p ∗ )=g ij (p ∗ ),<br />

k=1<br />

∑<br />

para todo j =1,...,m i e i =1,...,n. Afirmamos agora que α =<br />

mi<br />

k=1 g ik(p ∗ ) = 0, de modo que g ik (p ∗ )=0paratodok =1,...,m i<br />

e i =1,...,n. De fato: se, por absurdo, α>0, vemos a partir da<br />

relação acima que<br />

g ij (p ∗ ) > 0 se, e somente se, p ∗ ij > 0.<br />

Sem perda de generalidade, suponha que p ∗ i1 > 0, p∗ i2 > 0,...,p∗ il > 0<br />

e p ∗ i(l+1) = p∗ i(l+2) = ···= p∗ im i<br />

=0. Observeque<br />

∑m i<br />

p ∗ i = p ∗ ike k ,<br />

k=1<br />

onde e i é o i-ésimo vetor da base canônica de R mi . Dado que<br />

g ik (p ∗ ) > 0paratodok =1,...,l,temosque<br />

u i (e k , p ∗ −i) >u i (p ∗ i , p ∗ −i),<br />

para todo k =1,...,l.Destamaneira,<br />

(<br />

mi<br />

)<br />

∑<br />

∑m i<br />

u i (p ∗ i , p ∗ −i) =u i p ∗ ike k , p ∗ −i = p ∗ (<br />

ik · u i ek , p ∗ )<br />

−i<br />

k=1<br />

k=1<br />

=<br />

l∑<br />

k=1<br />

p ∗ ik · u (<br />

i ek , p ∗ )<br />

−i<br />

><br />

l∑<br />

p ∗ ik · u (<br />

i p<br />

∗<br />

i , p ∗ (<br />

−i)<br />

= ui p<br />

∗<br />

i , p ∗ −i)<br />

·<br />

k=1<br />

l∑<br />

p ∗ ik = u (<br />

i p<br />

∗<br />

i , p ∗ −i)<br />

,<br />

um absurdo. Isto demonstra que g ij (p ∗ )=0paratodoj =1,...,m i<br />

e j =1,...,m e, assim, p ∗ é um equilíbrio de Nash em estratégias<br />

mistas.<br />

k=1


[SEC. 3.2: USANDO O TEOREMA DE KAKUTANI 65<br />

Teorema 3.5 (do equilíbrio de Nash) Todo jogo definido<br />

por matrizes de payoffs possui um equilíbrio de Nash.<br />

Demonstração: A aplicação F: Δ→ Δ definida no teorema anterior<br />

écontínua e Δ é um conjunto compacto e convexo. Pelo teorema<br />

do ponto fixo de Brouwer, F possui um ponto fixo p ∗ . Pelo teorema<br />

anterior, p ∗ é um equilíbrio de Nash.<br />

3.2 Usando o teorema de Kakutani<br />

Seja X um subconjunto de R n . Dizemos que p ∗ ∈ X éumponto<br />

fixo de uma função φ: X → 2 X se p ∗ ∈ φ(p ∗ ). O teorema do ponto<br />

fixo de Kakutani estabelece condições suficientes para que φ possua<br />

pelo menos um ponto fixo.<br />

Teorema 3.6 (do ponto fixo de Kakutani) Seja X um<br />

subconjunto compacto, convexo e não-vazio de R n .Se<br />

φ: X → 2 X<br />

ésemicontínua superiormente e φ(x)énão-vazio e convexo para<br />

todo x ∈ X, então φ possui pelo menos um ponto fixo, isto é,<br />

existe p ∗ ∈ X tal que<br />

p ∗ ∈ φ(p ∗ ).<br />

Suponha que exista um subconjunto compacto K de R n tal que<br />

φ(x) ⊆ K para todo x ∈ X e suponha que φ(x) é um subconjunto<br />

fechado de R n para todo x ∈ X. Dizemos que φ: X → 2 X é contínua<br />

superiormente se, e somente se, y 0 ∈ φ(x 0 ) sempre que (a) x 0 ∈ X,<br />

(b) x k ∈ X para k =1, 2,..., (c) lim k→+∞ x k = x 0 ,(d)y k ∈ φ(x k )<br />

e (e) lim k→+∞ y k = y 0 . Neste contexto, φ écontínua superiormente<br />

se, e somente se, o gráfico de φ,<br />

Gr(φ) ={(x, y) ∈ X × X | y ∈ φ(x)},


66 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />

é um subconjunto fechado de X × X. Por exemplo, se X =[0, 1],<br />

então<br />

{ {1/2}, se 0 ≤ x


[SEC. 3.2: USANDO O TEOREMA DE KAKUTANI 67<br />

y<br />

1<br />

3/4<br />

1/2<br />

1/4<br />

0 1/2<br />

1<br />

x<br />

Figura 3.2: Gráfico de uma função que não é semicontínua superiormente.<br />

Teorema 3.7 (do equilíbrio de Nash) Todo jogo definido<br />

por matrizes de payoffs possui um equilíbrio de Nash.<br />

Demonstração: Basta verificarmos que a função de melhor resposta<br />

satisfaz as hipóteses do teorema do ponto fixo de Kakutani.<br />

(1) O conjunto X =Δ=Δ(S 1 ) × ···× Δ(S n )énão-vazio, compacto<br />

(como produto cartesiano de conjuntos compactos) e convexo<br />

(como produto cartesiano de conjuntos convexos).<br />

(2) Para todo p ∈ Δ, o conjunto MR(p) está contido no compacto<br />

K =Δ.<br />

(3) Para todo p ∈ Δ, o conjunto MR(p) é convexo. De fato: suponha,<br />

por absurdo, MR(p) não seja um conjunto convexo. Então<br />

existem q (•) , q (◦) ∈ MR(p) eλ ∈ (0, 1) tais que<br />

(1 − λ) · q (•) + λ · q (◦) ∉ MR(p).


68 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />

Mas, para todo índice i, valeque<br />

u i ((1 − λ) · q (•)<br />

i<br />

Agora,<br />

+ λ · q (◦)<br />

i , p −i )=<br />

(1 − λ) · u i (q (•)<br />

i<br />

, p −i )+λ · u i (q (◦)<br />

i , p −i ).<br />

u i (q (•)<br />

i , p −i )=u i (q (◦)<br />

i , p −i )=constante= max u i(p i , p −i ).<br />

p i ∈Δ(S i)<br />

Conseqüentemente, u i ((1 − λ) · q (•)<br />

i + λ · q (◦)<br />

i , p −i )=constante,<br />

isto é, (1 − λ) · q (•)<br />

i + λ · q (◦)<br />

i ∈ MR i (p −i ), para todo i =1,...,n,<br />

oqueéumacontradição.<br />

(4) Para todo p ∈ Δ,oconjuntoMR(p) é fechado. Para ver isto,<br />

basta mostrar que MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i )éfechado.<br />

Seja então p (k)<br />

i uma sequência de pontos em MR i (p −i )que<br />

converge para p (0)<br />

i . Desta maneira, u i (p (k)<br />

i , p −i )=constante=<br />

max pi ∈Δ(S i) u i (p i , p −i )e,comox ↦→ u i (x, p −i )é uma função<br />

contínua, concluímos que<br />

u i (p (0)<br />

i , p −i )=constante= max<br />

p i ∈Δ(S i) u i(p i , p −i ).<br />

Sendo assim, p (0)<br />

i ∈ MR i (p −i ).<br />

(5) MR: Δ → 2 Δ ésemicontínua superiormente. Com efeito, mostraremos<br />

que se (a) p (0) ∈ Δ, (b) p (k) éumasequência de pontos<br />

em Δ, (c) lim k→+∞ p (k) = p (0) ,(d)q (k) ∈ MR(p (k) )e(e)q (k)<br />

converge para q (0) , então q (0) ∈ MR(p (0) ). Se, por absurdo,<br />

q (0) ∉ MR(p (0) ), então existe índice i tal que q (0)<br />

i<br />

∉ MR(p (0)<br />

Portanto, existem ɛ>0eq (•)<br />

i<br />

∈ Δ(S i )taisque<br />

u i (q (•)<br />

i , p (0)<br />

−i ) >u i(q (0)<br />

i , p (0)<br />

−i )+3· ɛ.<br />

−i ).<br />

Mas, desde que u i é uma função contínua e (q (k)<br />

i , p (k)<br />

−i )converge<br />

para (q (0)<br />

i , p (0)<br />

−i ), então para todo k suficientemente grande,<br />

u i (q (•)<br />

i , p (k)<br />

−i ) >u i(q (•)<br />

i , p (0)<br />

−i ) − ɛ><br />

u i (q (0)<br />

i , p (0)<br />

−i )+2· ɛ>u i(q (k)<br />

i<br />

, p (k)<br />

−i )+ɛ.


[SEC. 3.3: ALG<strong>UMA</strong>S PROPRIEDADES <strong>DOS</strong> EQUILÍBRIOS DE NASH 69<br />

Sendo assim, q (k)<br />

i ∉ MR i (p (k)<br />

−i ), pois u i(q (•)<br />

i , p (k)<br />

−i ) >u i(q (k)<br />

i , p (k)<br />

−i ),<br />

o que contradiz (d).<br />

Shizuo Kakutani demonstrou o seu teorema no artigo [45]. Debreu<br />

lista mais de 300 aplicações do teorema do ponto fixo de Kakutani<br />

ao provar a existência de um equilíbrio econômico em [24].<br />

3.3 Algumas propriedades dos equilíbrios<br />

de Nash<br />

Wilson ([97]) mostrou que, a menos de um conjunto fechado e<br />

de medida zero, todo jogo finito possui um número finito e ímpar<br />

de equilíbrios de Nash em estratégias mistas. Pelo menos para jogos<br />

com dois jogadores, cada um com duas estratégias, este resultado<br />

pode ser antecipado através da análise das funções de melhor resposta<br />

que fizemos na Subseção 2.4.2 (veja, por exemplo, a Figura 2.5 na<br />

página 42). Harsanyi, em [40], apresentou uma prova alternativa para<br />

este resultado. Também tratam do assunto as referências [35, 36, 59].<br />

Por outro lado, os casos degenerados podem ter topologias diversificadas.<br />

De fato, Datta provou que toda variedade algébrica real<br />

(soluções reais de um sistema de equações polinomiais) éisomorfa<br />

ao conjunto de equilíbrios de Nash em estratégias totalmente mistas<br />

de algum jogo com 3 jogadores e, também, de algum jogo com n<br />

jogadores, cada um com apenas 2 estratégias puras ([20]). Um perfil<br />

de estratégias totalmente mistas éumperfilquedá probabilidade<br />

positiva a cada estratégia pura.<br />

Existem jogos cujos payoffs são todos números racionais, mas todos<br />

os equilíbrios de Nash em estratégias mistas possuem coordenadas<br />

irracionais ([69]). Contudo, Markakis mostrou que, neste contexto,<br />

existe sempre pelo menos um equilíbrio de Nash em estratégias mistas<br />

com coordenadas algébricas ([51, 54]).<br />

Torres-Martínez ([91]) e Zhao ([99]) demonstram que épossível<br />

deduzir os teoremas de ponto fixo de Brouwer e Kakutani a partir de<br />

um teorema de existência de equilíbrios de Nash.


70 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />

3.4 Exercícios<br />

[01] O objetivo deste exercício é mostrar que as hipóteses do teorema<br />

do ponto fixo de Brouwer não podem ser removidas.<br />

(a) Exiba uma função F: Δ→ Δ descontínua, definida em um<br />

subconjunto Δ compacto, convexo e não-vazio de R n ,que<br />

não possui ponto fixo.<br />

(b) Exiba uma função F: Δ→ Δcontínua, definida em um<br />

subconjunto Δ não-compacto, convexoenão-vazio de R n ,<br />

que não possui ponto fixo.<br />

(c) Exiba uma função F: Δ→ Δcontínua, definida em um<br />

subconjunto Δ compacto, não-convexo enão-vazio de R n ,<br />

que não possui ponto fixo.<br />

[02] Exiba um exemplo de função φ: X → 2 X definida em um<br />

subconjunto X compacto, convexo e não-vazio de R n , que é<br />

semicontínua superiormente, mas não possui ponto fixo. Isto<br />

mostra que a hipótese de φ(x) ser um conjunto convexo para<br />

todo x ∈ X não pode ser removida do enunciado do teorema<br />

do ponto fixo de Kakutani.<br />

[03] Dê um exemplo de jogo com um número par de equilíbrios de<br />

Nash em estratégias mistas.


Capítulo 4<br />

Calculando equilíbrios<br />

de Nash<br />

4.1 Equilíbrio de Nash via um problema<br />

de otimização<br />

O Teorema 3.3 sugere uma maneira de se calcular os equilíbrios<br />

de Nash de um jogo. Eles são soluções do seguinte problema de<br />

otimização não-linear:<br />

minimizar<br />

n∑ ∑m i<br />

(g ij (p)) 2<br />

i=1 j=1<br />

sujeito a p ∈ Δ.<br />

Com efeito: a soma de quadrados é zero se, e somente se, cada parcela<br />

é igual a zero. McKelvey demonstrou em [58] que a função objetivo<br />

p ↦→<br />

n∑ ∑m i<br />

(g ij (p)) 2<br />

i=1 j=1<br />

é uma função de classe C 1 . Assim, algoritmos numéricos de otimização<br />

que usam derivadas (Newton, Davidon-Fletcher-Powell) podem<br />

ser usados.<br />

71


72 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Exemplo 4.1 Para o dilema do prisioneiro (Exemplo 2.1, página 11),<br />

(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />

é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />

problema de otimização<br />

minimizar G(p, q) = (max{0, − (−1+p)(4q +1)}) 2 +<br />

(max {0, −p (4 q +1)}) 2 +<br />

(max {0, − (4 p +1)(−1+q)}) 2 +<br />

(max {0, −q (4 p +1)}) 2<br />

sujeito a 0 ≤ p ≤ 1,<br />

0 ≤ q ≤ 1.<br />

Como vemos pela Figura 4.1, que mostra o gráfico e o mapa de contorno<br />

de G, oponto<br />

(p ∗ , q ∗ )=(1, 0; 1, 0)<br />

éoúnico equilíbrio de Nash do jogo.<br />

Exemplo 4.2 Para a batalha dos sexos (Exemplo 2.2, página 13),<br />

(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />

é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />

problema de otimização<br />

minimizar G(p, q) = (max{0, −5 (−1+p)(3q − 1)}) 2 +<br />

(max {0, −5 p (3 q − 1)}) 2 +<br />

(max {0, −5 (3p − 2) (−1+q))) 2 +<br />

(max {0, −5 q (3 p − 2)}) 2<br />

sujeito a 0 ≤ p ≤ 1,<br />

0 ≤ q ≤ 1.<br />

Como vemos pela Figura 4.2, que mostra o gráfico e o mapa de contorno<br />

de G, ospontos<br />

(p ∗ , q ∗ )=(1, 0; 1, 0), (p ∗ , q ∗ )=(0, 1; 0, 1) e<br />

(p ∗ , q ∗ )=(2/3, 1/3; 1/3, 2/3)


[SEC. 4.1: EQUILÍBRIO DE NASH VIA UM PROBLEMA DE OTIMIZAÇÃO 73<br />

são os únicos equilíbrios de Nash do jogo.<br />

Exemplo 4.3 Para o jogo do Exemplo 2.6 da página 22,<br />

(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />

é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />

problema de otimização<br />

minimizar G(p, q) = (max{0, −2 (−1+p)(2q − 1)}) 2 +<br />

(max {0, −2 p (2 q − 1)}) 2 +<br />

(max {0, 2(2p − 1) (−1+q)}) 2 +<br />

(max {0, 2(2p − 1) q}) 2<br />

sujeito a 0 ≤ p ≤ 1,<br />

0 ≤ q ≤ 1.<br />

Como vemos pela Figura 4.3, que mostra o gráfico e o mapa de contorno<br />

de G, oponto<br />

(p ∗ , q ∗ )=(1/2, 1/2; 1/2, 1/2)<br />

éoúnico equilíbrio de Nash do jogo.<br />

Exemplo 4.4 Para o jogo do exemplo 2.12 da página 42,<br />

(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />

é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />

problema de otimização<br />

minimizar G(p, q) = (max{0, −2 (−1+p)(2q − 1)}) 2 +<br />

(max {0, −2 p (2 q − 1)}) 2 +<br />

(max {0, (−3+4p)(−1+q)}) 2 +<br />

(max {0,q(−3+4p)}) 2<br />

sujeito a 0 ≤ p ≤ 1,<br />

0 ≤ q ≤ 1.


74 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Como vemos pela Figura 4.4, que mostra o gráfico e o mapa de contorno<br />

de G, oponto<br />

(p ∗ , q ∗ )=(3/4, 1/4; 1/2, 1/2)<br />

éoúnico equilíbrio de Nash do jogo.<br />

4.2 Equilíbrio de Nash via equações polinomiais<br />

Apróxima proposição estabelece que a maior utilidade esperada<br />

que o jogador g i pode obter contra qualquer escolha de estratégias<br />

mistas dos demais jogadores não depende se o jogador g i está usando<br />

estratégias mistas ou somente estratégias puras. Mais ainda, as estratégias<br />

mistas ótimas para o jogador g i são justamente aquelas que<br />

atribuem probabilidade positiva somente para as estratégias puras<br />

ótimas.<br />

Proposição 4.1 Para todo i = 1,...,n e para todo p =<br />

(p 1 ,...,p i ,...,p n ) ∈ Δ=Δ(S 1 ) ×···×Δ(S i ) ×···Δ(S n ),<br />

Mais ainda,<br />

max u i (s iji , p −i )= max u i(˜p i , p −i ).<br />

s iji ∈S i ˜p i ∈Δ(S i)<br />

p ∗ i =(p ∗ i1,...,p ∗ ik,...,p ∗ im i<br />

) ∈ argmax˜pi ∈Δ(S i) u i (˜p i , p −i )<br />

⇕<br />

p ∗ ik = 0 para todo k tal que s ik ∉ argmax siji ∈S i<br />

u i (s iji , p −i ).<br />

Demonstração: Pela Propriedade 2.4, sabemos que<br />

u i (˜p i , p −i )=<br />

∑m i<br />

j i=1<br />

˜p iji · u i (s iji , p −i ).


[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 75<br />

25<br />

20<br />

15<br />

10<br />

5<br />

1<br />

0<br />

0 0.2 0.4 0.6 0.8 1<br />

p<br />

0<br />

0.5 q<br />

p<br />

0 0.2 0.4 0.6 0.8 1<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

Figura 4.1: Encontrando os equilíbrios de Nash para o dilema do prisioneiro<br />

via um problema de otimização.


76 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

3<br />

2.5<br />

2<br />

1.5<br />

1<br />

1<br />

0.5<br />

0.8<br />

0.6<br />

0.4 q<br />

0<br />

0.2<br />

0 0.2 0.4 0.6 0.8<br />

0<br />

1<br />

p<br />

p<br />

0 0.2 0.4 0.6 0.8 1<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

Figura 4.2: Encontrando os equilíbrios de Nash para a batalha dos<br />

sexos via um problema de otimização.


[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 77<br />

4<br />

3<br />

2<br />

1<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

0<br />

0.2<br />

0.4<br />

p<br />

0.6<br />

0.8<br />

1<br />

p<br />

0 0.2 0.4 0.6 0.8 1<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

Figura 4.3: Encontrando os equilíbrios de Nash do jogo de comparar<br />

moedas via um problema de otimização.


78 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

8<br />

6<br />

4<br />

2<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

0<br />

0.2<br />

0.4<br />

p<br />

0.6<br />

0.8<br />

1<br />

p<br />

0 0.2 0.4 0.6 0.8 1<br />

1<br />

0.8<br />

0.6<br />

q<br />

0.4<br />

0.2<br />

0<br />

Figura 4.4: Encontrando os equilíbrios de Nash do jogo do Exemplo<br />

2.12 via um problema de otimização.


[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 79<br />

Assim, u i (˜p i , p −i )éamédia ponderada dos valores u i (s iji , p −i ), onde<br />

os pesos ˜p iji são não-negativos e somam 1. Esta média ponderada<br />

não pode ser maior do que o maior dos valores que participam no<br />

cálculo da média. Assim,<br />

para todo ˜p i ∈ Δ(S i ) e, portanto,<br />

u i (˜p i , p −i ) ≤ max<br />

s iji ∈S i<br />

u i (s iji , p −i )<br />

max<br />

˜p i ∈Δ(S i) u i(˜p i , p −i ) ≤ max<br />

s iji ∈S i<br />

u i (s iji , p −i ).<br />

Por outro lado, u i (s iji , p −i )=u i (e ji , p −i ), onde e ji é a distribuição<br />

de probabilidades em Δ(S i ) que dá peso1àestratégia pura s iji .<br />

Assim,<br />

u i (s iji , p −i )=u i (e ji , p −i ) ≤<br />

para todo s iji ∈ S i e, portanto,<br />

max u i(˜p i , p −i )<br />

˜p i ∈Δ(S i)<br />

max u i (s iji , p −i ) ≤ max u i(˜p i , p −i ).<br />

s iji ∈S i ˜p i ∈Δ(S i)<br />

Para a segunda parte da proposição, suponha por absurdo que exista<br />

p ∗ i =(p ∗ i1,...,p ∗ ik,...,p ∗ im i<br />

) ∈ argmax˜pi ∈Δ(S i) u i (˜p i , p −i )<br />

onde, para algum índice k, ocorre que<br />

p ∗ ik > 0 e s ik ∉ argmax siji ∈S i<br />

u i (s iji , p −i ).<br />

Isto implica que u i (s ik , p −i ) < max siji ∈S i<br />

u i (s iji , p −i ). Uma vez que<br />

u i (s iji , p −i ) ≤ max siji ∈S i<br />

u i (s iji , p −i )paratodoj i ≠ k, segue-se que<br />

u i (p ∗ i , p −i ) =<br />

<<br />

∑m i<br />

j i=1<br />

∑m i<br />

j i=1<br />

p ∗ ij i · u i (s iji , p −i )<br />

p ∗ ij i · max<br />

s iji ∈S i<br />

u i (s iji , p −i )=<br />

maxu i (s iji , p −i )<br />

s iji ∈S i<br />

= max<br />

˜p i ∈Δ(S i) u i(˜p i , p −i ).


80 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Masisto contradiz o fato de p ∗ i pertencer a argmax˜p i ∈Δ(S i) u i (˜p i , p −i ).<br />

Reciprocamente, se p ∗ i satisfaz a condição p∗ ik = 0 para todo k tal que<br />

s ik ∉ argmax siji ∈S i<br />

u i (s iji , p −i ), então<br />

sempre que p ∗ ik > 0. Assim<br />

u i (s ik , p −i )= max<br />

s iji ∈S i<br />

u i (s iji , p −i )<br />

m i<br />

u i (p ∗ i , p −i ) = ∑<br />

p ∗ ik · u i(s ik , p −i ) = ∑<br />

k=1<br />

= ∑<br />

p ∗ ik >0 p ∗ ik · max<br />

s iji ∈S i<br />

u i (s iji , p −i )=<br />

= max<br />

˜p i ∈Δ(S i) u i(˜p i , p −i ).<br />

p ∗ ik >0 p ∗ ik · u i(s ik , p −i )<br />

maxu i (s iji , p −i )<br />

s iji ∈S i<br />

Isto mostra que p ∗ i pertence a a argmax˜p i ∈Δ(S i) u i(˜p i , p −i ).<br />

Corolário 4.1 p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n) ∈ Δé um equilíbrio<br />

de Nash em estratégias mistas se, e somente se, para todo i =<br />

1,...,n,<br />

p ∗ ik > 0 ⇒ s ik ∈ argmax siji ∈S i<br />

u i (s iji , p ∗ −i),<br />

onde p ∗ i =(p∗ i1 ,...,p∗ ik ,...,p∗ im i<br />

).<br />

O suporte de um perfil p ∗ i =(p∗ i1 ,...,p∗ ik ,...,p∗ im i<br />

)deestratégias<br />

mistas é o conjunto de estratégias puras do jogador g i que recebe<br />

probabilidade positiva por p ∗ i . Mais precisamente,<br />

supp(p ∗ i )={s ik ∈ S i | p ∗ ik > 0}.<br />

Assim, o Corolário 4.1 diz que p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n )é um equilíbrio<br />

de Nash se, e somente se, para todo i =1,...,n,<br />

supp(p ∗ i ) ⊆ argmax s iji ∈S i<br />

u i (s iji , p ∗ −i ).


[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 81<br />

AProposição 4.1 pode ser usada para calcular equilíbrios de Nash<br />

em estratégias mistas. O ponto chave é observar que, pela Proposição<br />

4.1, se p ∗ ∈ Δé um equilíbrio de Nash em estratégias mistas,<br />

então, para todo i =1,...,n,<br />

u i (s ik , p ∗ −i) =constante= max<br />

s iji ∈S i<br />

u i (s iji , p ∗ −i) (4.1)<br />

sempre que p ∗ ik > 0, isto é, em um equilíbrio de Nash, o jogador g i<br />

tem o mesmo ganho se trocar sua estratégia p ∗ i por qualquer outra<br />

estratégia pura que recebeu probabilidade positiva de p ∗ i .<br />

Exemplo 4.5 No Exemplo 2.11, vimos que as funções utilidade dois<br />

jogadores da batalha dos sexos são dadas por<br />

u Homem (p 11 ,p 12 ; p 21 ,p 22 ) = 10· p 11 · p 21 + 5· p 12 · p 22 ,<br />

u Mulher (p 11 ,p 12 ; p 21 ,p 22 ) = 5· p 11 · p 21 +10· p 12 · p 22 .<br />

Vamosusarasrelações 4.1 para calcular o equilíbrio de Nash em<br />

estratégias mistas que não é um equilíbrio em estratégias puras,<br />

isto é, o equilíbrio de Nash cujas estratégias mistas tem suporte<br />

nas duas estratégias puras de cada jogador. Para isto, considere<br />

p ∗ =(p ∗ 11,p ∗ 12; p ∗ 21,p ∗ 22) ∈ Δ 2 × Δ 2 ,com0


82 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

mais do que dois jogadores e com mais do que duas estratégias puras<br />

por jogador. Neste caso, é preciso (1) considerar os vários casos que<br />

resultam das diferentes escolhas das estratégias puras que farão parte<br />

do suporte de cada perfil em estratégias mistas e (2) resolver o sistema<br />

não-linear resultante. Mais precisamente, para cada jogador g i epara<br />

cada subconjunto não-vazio T i = {s ik1 ,...,s ikti } de S i (que especifica<br />

quais estratégias puras farão parte do suporte), devemos resolver o<br />

sistema descrito na Figura 4.5 (neste sistema, w i representa o ganho<br />

constante que o jogador g i obtém escolhendo qualquer uma de suas<br />

estratégias puras que recebeu probabilidade positiva de p ∗ i ).<br />

Para jogos com muitos jogadores e muitas estratégias, o sistema<br />

da Figura 4.5 não éprático para o cálculo a mão dos equilíbrios de<br />

Nash. Contudo, métodos numéricos para a solução de um sistema<br />

de equações polinomiais podem ser aplicados: o método de Newton<br />

com uma estratégia de subdivisão espacial, bases de Gröbner e continuação<br />

homotópica poliedral. O leitor interessado pode consultar as<br />

referências [21, 22, 51]<br />

4.3 Jogos de soma zero<br />

Nesta seção estudaremos os jogos de soma zero com dois jogadores,<br />

uma classe especial de jogos onde a soma dos payoffs dos dois<br />

jogadores é sempre zero: o que um jogador ganha, o outro perde 1 .<br />

Veremos que, para este tipo de jogo, os equilíbrios de Nash em estratégias<br />

mistas podem ser facilmente calculados resolvendo-se um<br />

problema de otimização linear.<br />

4.3.1 Jogos de soma constante com dois jogadores<br />

Definição 4.1 (Jogos de soma constante com dois jogadores)<br />

Um jogo de soma constante com dois jogadores éum<br />

jogo com dois jogadores, comumente denominados jogador linha<br />

e jogador coluna, com estratégias<br />

1 Por este motivo, jogos de soma zero também são denominados jogos estritamente<br />

competitivos.


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 83<br />

∑<br />

m1<br />

j1=1<br />

···<br />

mi−1<br />

∑<br />

ji−1=1<br />

mi+1<br />

∑<br />

ji+1=1<br />

···<br />

∑<br />

mn<br />

jn=1<br />

p ∗ 1j1 ···p∗ (i−1)ji−1 · p∗ (i+1)ji+1 ···p∗ njn · u i(s1j1,...,sij−i,sikτ<br />

,siji+1,snjn) =wi,<br />

∀i =1,...,n,∀sikτ ∈ Ti,<br />

p ∗ ikτ =0, ∀i =1,...,n,∀τ =1,...,t i,<br />

∑<br />

ti<br />

τ =1<br />

p ∗ ikτ<br />

=1, ∀i =1,...,n.<br />

Figura 4.5: Calculando equilíbrios de Nash através de um sistema não-linear.


84 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

S jogador linha = {1, 2,...,m}<br />

e<br />

S jogador coluna = {1, 2,...,n}<br />

ematrizdepayoffs<br />

jogador coluna<br />

1 2 ··· n<br />

jogador linha<br />

1 (a 11 ,b 11 ) (a 12 ,b 12 ) ··· (a 1n ,b 1n )<br />

2 (a 21 ,b 21 ) (a 22 ,b 22 ) ··· (a 2n ,b 2n )<br />

.<br />

.<br />

.<br />

.<br />

.<br />

.<br />

. ..<br />

.<br />

.<br />

m (a m1 ,b m1 ) (a m2 ,b m2 ) ··· (a mn ,b mn )<br />

satisfazendo a ij + b ij = c = constante, para todo i =1,...,m<br />

e j =1,...,n. No caso particular em que a constante c é zero,<br />

dizemos que o jogo tem soma zero.<br />

Em termos de estratégias mistas, se p =(p 1 ,...,p m ) ∈ Δ m éuma<br />

distribuição de probabilidades para as estratégias puras do jogador<br />

linha e q =(q 1 ,...,q n ) ∈ Δ n é uma distribuição de probabilidades<br />

para as estratégias puras do jogador coluna, então o payoff esperado<br />

para o jogador linha é<br />

m∑ n∑<br />

u l (p, q) = p i q j a ij<br />

i=1 j=1<br />

⎡<br />

= [ ]<br />

p 1 p 2 ··· p m ⎢<br />

⎣<br />

⎤ ⎡<br />

a 11 a 12 ··· a 1n<br />

a 21 a 22 ··· a 2n<br />

.<br />

.<br />

. .. .<br />

⎥ ⎢<br />

⎦ ⎣<br />

a m1 a m2 ··· a mn<br />

q 1<br />

q 2<br />

. .<br />

q n<br />

⎤<br />

⎥<br />

⎦ ,


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 85<br />

isto é,<br />

⎡<br />

u l (p, q) =p T Aq, com A = ⎢<br />

⎣<br />

⎤<br />

a 11 a 12 ··· a 1n<br />

a 21 a 22 ··· a 2n<br />

. . .<br />

. . ..<br />

. ⎥<br />

. ⎦ .<br />

a m1 a m2 ··· a mn<br />

Analogamente, o payoff esperado para o jogador coluna é dado por<br />

⎡<br />

⎤<br />

b 11 b 12 ··· b 1n<br />

u c (p, q) =p T b 21 b 22 ··· b 2n<br />

Bq, com B = ⎢<br />

⎣<br />

.<br />

. . ..<br />

⎥<br />

. ⎦ .<br />

b m1 b m2 ··· b mn<br />

Uma vez que o jogo tem soma constante, vemos que<br />

⎡<br />

⎤ ⎡<br />

⎤<br />

a 11 a 12 ··· a 1n b 11 b 12 ··· b 1n<br />

a 21 a 22 ··· a 2n<br />

A + B = ⎢<br />

⎣<br />

.<br />

. . ..<br />

⎥<br />

. ⎦ + b 21 b 22 ··· b 2n<br />

⎢<br />

⎣<br />

.<br />

. . ..<br />

⎥<br />

. ⎦<br />

a m1 a m2 ··· a mn b m1 b m2 ··· b mn<br />

⎡<br />

⎤<br />

c c ··· c<br />

c c ··· c<br />

= ⎢<br />

⎣<br />

.<br />

. . ..<br />

⎥<br />

. ⎦ ,<br />

c c ··· c<br />

isto é,<br />

⎡<br />

A + B = C = ⎢<br />

⎣<br />

c c ··· c<br />

c c ··· c<br />

.<br />

.<br />

. .. . c c ··· c<br />

⎤ ⎡<br />

⎥<br />

⎦ = c ⎢<br />

⎣<br />

1 1 ··· 1<br />

1 1 ··· 1<br />

.<br />

.<br />

. .. . 1 1 ··· 1<br />

⎤<br />

⎥ ⎥⎥⎦<br />

= c 1 ,<br />

onde 1 denota a matriz m × n formada com 1 em todas as suas<br />

entradas. Sendo assim, éfácil de ver que<br />

u c (p, q) =p T Bq = p T (c 1 − A)q = cp T 1 q − p T Aq = c − u l (p, q)


86 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

onde, na última igualdade, usamos que p T 1 q =1,poisp e q são<br />

distribuições de probabilidades e, por isto,<br />

m∑<br />

n∑<br />

p i =1 e q j =1.<br />

i=1<br />

j=1<br />

Em particular, vale a seguinte propriedade importante:<br />

u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ ) ⇔ u c (p ∗ , q ∗ ) ≤ u c (p, q ∗ ). (4.2)<br />

4.3.2 Equilíbrio de Nash em estratégias puras<br />

Definição 4.2 (Ponto de sela) Dizemos que um elemento<br />

a ij de uma matriz A éumponto de sela da matriz A se ele for<br />

simultaneamente um mínimo em sua linha e um máximo em sua<br />

coluna, isto é, se<br />

a ij ≤ a il para todo l =1,...,n e<br />

a ij ≥ a kj para todo k =1,...,m.<br />

Otermoponto de sela vem do fato que se desenharmos o gráfico<br />

dos payoffs do jogador linha, a vizinhança do ponto de sela lembra o<br />

formato de uma sela de cavalo (Figura 4.6).<br />

Teorema 4.1 O elemento a ij é um ponto de sela da matriz A<br />

se, e somente se, o par (i, j) é um equilíbrio de Nash em estratégias<br />

puras para o jogo.<br />

Demonstração:<br />

(⇒) Sejaa ij um ponto de sela da matriz A. Comoa ij émáximo<br />

em sua coluna, vale que<br />

u l (i, j) =a ij ≥ a kj = u l (k, j)


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 87<br />

payoff<br />

Colunas<br />

Linhas<br />

Figura 4.6: Ponto de sela.<br />

para todo k =1,...,m,istoé, o jogador linha não pode aumentar o<br />

seu payoff se o jogador coluna mantiver a escolha da coluna j. Por<br />

outro lado, como a ij émínimo em sua linha, vale que<br />

u c (i, j) =b ij = c − a ij ≥ c − a il = b il = u c (i, l)<br />

para todo l =1,...,n,istoé, o jogador coluna não pode aumentar<br />

oseupayoff se o jogador linha mantiver a escolha da linha i. Isto<br />

mostra que o perfil de estratégias puras (i, j) é um equilíbrio de Nash<br />

do jogo.<br />

(⇐) Seja(i, j) é um equilíbrio de Nash do jogo. A partir das<br />

considerações acima, éfácil de ver que a ij émáximo em sua coluna<br />

emínimo em sua linha e que, portanto, a ij é um ponto de sela da<br />

matriz A.


88 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Teorema 4.2 Se a ij e a rs são dois pontos de sela da matriz A,<br />

então a is e a rj também são pontos de sela da matriz A e<br />

a ij = a rs = a is = a rj .<br />

Demonstração: Considere a matriz<br />

⎡<br />

. .<br />

··· a ij ··· a is ···<br />

A =<br />

.<br />

. . ..<br />

.<br />

.<br />

⎢<br />

⎣ ··· a rj ··· a rs ···<br />

. .<br />

⎤<br />

.<br />

⎥<br />

⎦<br />

Como a ij e a rs são pontos de sela, sabemos que eles são mínimos<br />

em suas respectivas linhas e máximos em suas respectivas colunas.<br />

Assim,<br />

a ij ≤ a is ≤ a rs e a ij ≥ a rj ≥ a rs ,<br />

e, portanto,<br />

a ij = a is = a rj = a rs .<br />

Observe que a is émínimo em sua linha, pois a ij = a is émínimo<br />

da mesma linha e que a is émáximo em sua coluna, pois a rs = a is<br />

émáximo da mesma coluna. Analogamente, a rj émínimo em sua<br />

linha, pois a rs = a rj émínimo da mesma linha e a rj émáximo em<br />

sua coluna, pois a rj = a ij émáximo da mesma coluna. Concluímos<br />

então que a is e a rj também são pontos de sela da matriz A.<br />

O payoff mínimo do jogador linha, se ele escolher a linha k, édado<br />

por<br />

a k = min a kl.<br />

1≤l≤n<br />

Analogamente, o payoff mínimo do jogador coluna, se ele escolher a<br />

coluna l, é dado por c − a l , onde<br />

a l = max<br />

1≤k≤m a kl.


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 89<br />

Defina<br />

e<br />

v l (A) =<br />

max a k =<br />

1≤k≤m<br />

max<br />

v c (A) = min a l = min<br />

1≤l≤n 1≤l≤n<br />

min<br />

a kl<br />

1≤k≤m 1≤l≤n<br />

max<br />

1≤k≤m a kl.<br />

Teorema 4.3 Para toda matriz A, tem-sev c (A) ≥ v l (A).<br />

Demonstração: Temos que para todo k =1,...,m e j =1,...,n,<br />

a kj ≥ min a kl.<br />

1≤l≤n<br />

Assim,<br />

max a kj ≥ max min a kl = v l (A),<br />

1≤k≤m 1≤k≤m 1≤l≤n<br />

para todo j =1,...,n.Conseqüentemente,<br />

v c (A) = min<br />

1≤j≤n<br />

max a kj ≥ max<br />

1≤k≤m<br />

1≤k≤m<br />

min a kl = v l (A).<br />

1≤l≤n<br />

Opróximo teorema caracteriza a existência de pontos de sela e,<br />

portanto, a existência de equilíbrios de Nash em estratégias puras,<br />

em termos das funções v l e v c .<br />

Teorema 4.4 Uma matriz A tem um ponto de sela se, e somente<br />

se, v l (A) =v c (A).<br />

Demonstração:<br />

(⇒) Se a ij é um ponto de sela da matriz A, então vale que<br />

a ij =min 1≤l≤n a il = a i . Como v l (A) =max 1≤k≤m a k ,é claro que<br />

v l (A) ≥ a i = a ij . Por outro lado, a ij =max 1≤k≤m a kj = a j . Como<br />

v c (A) =min 1≤l≤n a l , segue-se que v c (A) ≤ a j = a ij . Combinando<br />

estas duas desigualdades, concluímos que v c (A) ≤ a ij ≤ v l (A). Mas,<br />

pelo teorema anterior, v c (A) ≥ v l (A) e, sendo assim, v c (A) =v l (A).<br />

(⇐) Como v l (A) = max 1≤r≤m a r , existe uma linha i tal que<br />

v l (A) =a i . Como, por sua vez, a i =min 1≤s≤n a is ,existeumacoluna<br />

l tal que a i = a il . Assim, v l (A) =a i = a il . Analogamente, como


90 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

v c (A) =min 1≤s≤n a s , existe uma coluna j tal que v c (A) =a j . Como,<br />

por sua vez, a j =max 1≤r≤m a rj , existe uma linha k tal que a j = a kj .<br />

Assim, v c (A) =a j = a kj . Uma vez que, por hipótese, v l (A) =v c (A),<br />

temos que<br />

a il = a i = v l (A) =v c (A) =a j = a kj .<br />

Afirmamos que a ij é um ponto de sela da matriz A. Com efeito, a ij ≤<br />

a j = a i ≤ a is ,paratodos =1,...,n,istoé, a ij éomínimo de sua<br />

linha. Por outro lado, a ij ≥ a i = a j ≥ a rj ,paratodor =1,...,m,<br />

isto é, a ij éomáximo de sua coluna. Portanto, a ij éumpontode<br />

sela da matriz A.<br />

Corolário 4.2 Um jogo de dois jogadores com soma constante<br />

definido pela matriz de payoffs A do jogador linha tem um<br />

equilíbrio de Nash em estratégias puras se, e somente se,<br />

v l (A) =v c (A).<br />

Exemplo 4.6 Considere o jogo de soma zero cujos payoffs do jogador<br />

linha são dados pela matriz A abaixo.<br />

mínimo das linhas<br />

⎡<br />

3 1 1<br />

⎤<br />

0 0<br />

0 1 2 0 0<br />

A = ⎢<br />

⎥<br />

⎣1 0 2 1⎦<br />

0<br />

3 1 2 2 1<br />

máximo das colunas 3 1 2 2<br />

Como v l (A) =máximo dos mínimos das linhas = 1 = v c (A) =mínimo<br />

dos máximos das colunas, segue-se que o jogo possui um equilíbrio<br />

de Nash em estratégias puras. De fato, a 42 é um ponto de sela da<br />

matriz A.


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 91<br />

Exemplo 4.7 Considere o jogo de soma zero cujos payoffs do jogador<br />

linha são dados pela matriz A abaixo.<br />

mínimo das linhas<br />

⎡<br />

3 2 1<br />

⎤<br />

0 0<br />

0 1 2 0 0<br />

A = ⎢<br />

⎥<br />

⎣1 0 2 1⎦<br />

0<br />

3 1 2 2 1<br />

máximo das colunas 3 2 2 2<br />

Como v l (A) =máximo dos mínimos das linhas = 1 < 2=v c (A) =<br />

mínimo dos máximos das colunas, segue-se que o jogo não possui um<br />

equilíbrio de Nash em estratégias puras.<br />

4.3.3 Equilíbrio de Nash em estratégias mistas<br />

Defina<br />

v l (A) = max min p T Aq e v c (A) = min max p T Aq.<br />

q∈Δ n p∈Δ m<br />

p∈Δ m<br />

q∈Δ n<br />

Teorema 4.5 Para toda matriz A, tem-sev c (A) ≥ v l (A).<br />

Demonstração: Temos que para todo p ∈ Δ m ,<br />

p T Aq ≥ min<br />

y∈Δ n<br />

p T Ay.<br />

Assim,<br />

max p T Aq ≥ max min p T Ay = v l (A).<br />

p∈Δ m p∈Δ m y∈Δ n<br />

Conseqüentemente,<br />

v c (A) = min max p T Aq ≥ max min p T Ay = v l (A).<br />

p∈Δ m y∈Δ n<br />

q∈Δ n<br />

p∈Δ m<br />

Opróximo teorema caracteriza a existência de equilíbrios de Nash<br />

em estratégias mistas em termos das funções v l e v c .


92 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Teorema 4.6 Um perfil de estratégias mistas (p ∗ , q ∗ )éum<br />

equilíbrio de Nash de um jogo de dois jogadores com soma constante<br />

definido pela matriz de payoffs A do jogador linha se, e<br />

somente se,<br />

v l (A) =v c (A) =p ∗T Aq ∗ .<br />

Demonstração:<br />

(⇒) Se(p ∗ , q ∗ )é um equilíbrio de Nash, então<br />

p ∗T Aq ∗ = u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ )=p T Aq ∗ ,<br />

para todo p ∈ Δ m .Emparticular,<br />

p ∗T Aq ∗ =max<br />

p∈Δ m<br />

p T Aq ∗ ≥ min<br />

Vale também que<br />

y∈Δ n<br />

max p T Ay = v c (A).<br />

p∈Δ m<br />

p ∗T Aq ∗ = c − u c (p ∗ , q ∗ ) ≤ c − u c (p ∗ , q) =p ∗T Aq,<br />

para todo q ∈ Δ n .Emparticular,<br />

p ∗T Aq ∗ =min<br />

q∈Δ n<br />

p ∗T Aq ≤ max<br />

x∈Δ m<br />

min x T Aq = v l (A).<br />

q∈Δ n<br />

Desta maneira, v l (A) ≥ v c (A). Como, pelo teorema anterior, v l (A) ≤<br />

v c (A), concluímos que v l (A) =v c (A).<br />

(⇐) Comov l (A) =max p∈Δm min q∈Δn p T Aq, existep ∗ ∈ Δ m tal<br />

que<br />

v l (A) = minp ∗T Aq.<br />

q∈Δ n<br />

Analogamente, como v c (A) =min q∈Δn max p∈Δm p T Aq, existeq ∗ ∈<br />

Δ m tal<br />

v c (A) = maxp T Aq ∗ .<br />

p∈Δ m<br />

Uma vez que, por hipótese, v l (A) =v c (A), temos que<br />

min<br />

q∈Δ n<br />

p ∗T Aq = v l (A) =v c (A) = max<br />

p∈Δ m<br />

p T Aq ∗ .


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 93<br />

Afirmamos que (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Com efeito,<br />

u l (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ min<br />

q∈Δ n<br />

p ∗T Aq =<br />

para todo x ∈ Δ m . Por outro lado,<br />

max<br />

p∈Δ m<br />

p T Aq ∗ ≥ x T Aq ∗ = u l (x, q ∗ ),<br />

u c (p ∗ , q ∗ )=c − p ∗T Aq ∗ ≥ c − max p T Aq ∗ =<br />

p∈Δ m<br />

c − min p ∗T Aq ≥ c − p ∗T Ay = u c (p ∗ , y),<br />

q∈Δ n<br />

para todo y ∈ Δ n . Desta maneira, (p ∗ , q ∗ )é um equilíbrio de Nash<br />

do jogo.<br />

4.3.4 O teorema minimax de von Neumann<br />

Opróximo teorema estabelece que, para jogos de dois jogadores<br />

com soma zero, v l (A) =v c (A) sempre. Sendo assim, pelo teorema 4.6,<br />

segue-se que, para esta classe de jogos, sempre existe pelo menos um<br />

equilíbrio de Nash em estratégias mistas.<br />

Teorema 4.7 (minimax de von Neumann) Para todo jogo<br />

de soma zero com dois jogadores, representado pela matriz<br />

de payoffs A do jogador linha, sempre existe um perfil de estratégias<br />

mistas (p ∗ , q ∗ ) ∈ Δ m × Δ n satisfazendo<br />

v l (A) = max min p T Aq<br />

q∈Δ n<br />

p∈Δ m<br />

=<br />

p ∗T Aq ∗<br />

=<br />

min max p T Aq = v c (A).<br />

p∈Δ m<br />

q∈Δ n<br />

Em particular, (p ∗ , q ∗ )é um equilíbrio de Nash do jogo.


94 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Daremos uma demonstração deste teorema minimax de von Neumann<br />

usando o teorema de dualidade da teoria de programação linear.<br />

Lembramos que um problema de programação linear éumproblema<br />

de otimização com função objetivo e restrições lineares:<br />

(problema primal)<br />

maximizar b T y<br />

sujeito a Ay ≤ c,<br />

y ≥ 0,<br />

onde as desigualdades devem ser interpretadas componente a componente.<br />

A cada problema de programação linear (problema primal)<br />

podemos associar um outro problema de otimização (problema dual):<br />

(problema dual)<br />

minimizar c T x<br />

sujeito a x T A ≥ b T ,<br />

x ≥ 0.<br />

Teorema 4.8 (da dualidade em programação linear)<br />

(a) O problema primal possui uma solução se, e somente se, o<br />

problema dual possui uma solução.<br />

(b) Se y ∗ ésolução do problema primal e x ∗ ésolução do problema<br />

dual, então c T x ∗ = b T y ∗ .<br />

Uma demonstração do teorema de dualidade pode ser encontrada<br />

em [14, 52].<br />

Demonstração do teorema minimax: sem perda de generalidade,<br />

podemos assumir que todas as entradas da matriz de payoffs A do jogador<br />

linha são positivas. Caso contrário, basta substituir A por à =<br />

A + D e B = −A por ˜B = −D + B, onde D = d 1 ,comd><br />

max 1≤i≤m,1≤j≤n |a ij |.Observequeà + ˜B = 0 (isto é, o jogo definido<br />

pelas matrizes à e ˜B tem soma zero) e que (p ∗ , q ∗ )é um equilíbrio


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 95<br />

de Nash para o jogo definido pela matriz A se, e somente se, (p ∗ , q ∗ )<br />

é um equilíbrio de Nash para o jogo definido pela matriz Ã.<br />

Sejam c =(1, 1,...,1) T e b =(1, 1,...,1) T . Considere os problemas<br />

de programação linear:<br />

(problema primal)<br />

maximizar b T y<br />

sujeito a Ay ≤ c,<br />

y ≥ 0,<br />

(problema dual)<br />

minimizar c T x<br />

sujeito a x T A ≥ b T ,<br />

x ≥ 0.<br />

Passo 1: o problema dual possui uma solução.<br />

Como A>0, o conjunto admissível<br />

X = {x ∈ R m | x T A ≥ b T e x ≥ 0}<br />

énão vazio. Por outro lado, como c =(1, 1,...,1) T , a função objetivo<br />

do problema éescritacomox =(x 1 ,x 2 ,...,x m ) ↦→ c T x =<br />

x 1 + x 2 + ···+ x m . Assim, o problema dual consiste em encontrar o<br />

pontodoconjuntoX mais próximo da origem segundo a norma da<br />

soma || · || 1 , um problema que certamente possui uma solução pois,<br />

se p ∈ X, então podemos “compactificar” o conjunto admissível incluindo<br />

a restrição ||x|| 1 ≤||p|| 1 e, com isso, podemos usar o teorema<br />

de Weierstrass para garantir a existência de um mínimo.<br />

Passo 2: construção do equilíbrio de Nash.<br />

Dado que o problema dual possui uma solução, pelo teorema de<br />

dualidade, o problema primal também possui. Mais ainda: se x ∗ é<br />

solução do problema dual e y ∗ ésolução do problema primal, então<br />

c T x ∗ =(x ∗ ) T Ay ∗ = b T y ∗ .<br />

Seja θ = c T x ∗ = b T y ∗ (que é > 0pois(0, 0,...,0) não éadmissível)<br />

e defina<br />

p ∗ = x∗<br />

θ<br />

e<br />

q ∗ = y∗<br />

θ .


96 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Afirmamos que (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Com efeito:<br />

claramente p ∗ ∈ Δ m e q ∗ ∈ Δ n ,poisp ∗ ≥ 0 (já quex ∗ ≥ 0 e θ>0),<br />

q ∗ ≥ 0 (já quey ∗ ≥ 0 e θ>0),<br />

e<br />

m∑ m∑<br />

p i =<br />

i=1<br />

m∑<br />

q j =<br />

j=1<br />

i=1<br />

n∑<br />

j=1<br />

x ∗ i<br />

θ = cT x ∗<br />

= θ θ θ =1<br />

yj<br />

∗<br />

θ = bT y ∗<br />

= θ θ θ =1.<br />

Agora, como x ∗T A ≥ b T , temos que para todo q ∈ Δ n , x ∗T Aq ≥<br />

b T q = ∑ n<br />

j=1 q j =1. Masp ∗ = x ∗ /θ. Desta maneira, p ∗T Aq ≥ θ =<br />

p ∗T Aq ∗ ,paratodoq ∈ Δ n .Conseqüentemente,<br />

u c (p ∗ , q ∗ )=−p ∗T Aq ∗ ≥−p ∗T Aq = u c (p ∗ , q)<br />

para todo q ∈ Δ n . Mostramos então que o jogador coluna não pode<br />

aumentar o seu payoff esperado trocando q ∗ por q, se o jogador linha<br />

mantiver a escolha p ∗ . Analogamente, como Ay ≤ c, temos que<br />

para todo p ∈ Δ m , p T Ay ∗ ≤ p T c = ∑ m<br />

i=1 p i = 1. Mas y ∗ =<br />

q ∗ /θ. Desta maneira, p ∗ Aq ∗ ≤ θ = p ∗T Aq ∗ ,paratodop ∈ Δ m .<br />

Conseqüentemente,<br />

u l (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ p T Aq ∗ = u l (p, q ∗ ),<br />

para todo p ∈ Δ m . Mostramos então que o jogador linha não pode<br />

aumentar o seu payoff esperado trocando p ∗ por p, se o jogador coluna<br />

mantiver a escolha q ∗ .Concluímos, portanto, que (p ∗ , q ∗ )éum<br />

equilíbrio de Nash do jogo.<br />

Além de estabelecer a existência de equilíbrios de Nash, a demonstração<br />

que demos sugere uma maneira de calculá-los: resolvendo-se<br />

dois problemas de programação linear.<br />

Exemplo 4.8 O governo deseja vacinar seus cidadãos contra um<br />

certo vírus da gripe. Este vírus possui dois sorotipos, sendo que é<br />

desconhecida a proporção na qual os dois sorotipos ocorrem na população<br />

do vírus. Foram desenvolvidas duas vacinas onde a eficácia


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 97<br />

da vacina 1 é de 85% contra o sorotipo 1 e de 70% contra o sorotipo<br />

2. A eficácia da vacina 2 é de 60% contra o sorotipo 1 e de 90%<br />

contra o sorotipo 2. Qual política de vacinação deveria ser tomada<br />

pelo governo?<br />

Esta situação pode ser modelada como um jogo de soma zero<br />

com dois jogadores, onde o jogador linha L (o governo) deseja obter<br />

a maior compensação (a fração dos cidadãos resistentes ao vírus) o<br />

maior possível e o jogador coluna C (o vírus) deseja obter a maior<br />

compensação a menor possível. A matriz de payoffs é a seguinte:<br />

vírus<br />

sorotipo 1 sorotipo 2<br />

governo<br />

vacina 1 (85/100, −85/100) (70/100, −70/100)<br />

vacina 2 (60/100, −60/100) (90/100, −90/100)<br />

Para encontrar um equilíbrio de Nash, devemos resolver os seguintes<br />

problemas de programação linear<br />

(problema primal)<br />

maximizar [ y 1 + ][ y 2 ] [ 85/100 70/100 y1 1<br />

sujeito a<br />

≤<br />

60/100 90/100 [ y 2 ] [ 1<br />

y1 0<br />

≥<br />

y 2 0<br />

]<br />

,<br />

]<br />

,<br />

(problema dual)<br />

minimizar x 1 + x 2<br />

[ ] [ ]<br />

85/100 70/100<br />

sujeito a x1 x 2 ≥ [ 1 1 ] ,<br />

60/100 90/100 [ ] [ ]<br />

x1 0<br />

≥ ,<br />

x 2 0<br />

isto é,


98 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

(problema primal)<br />

maximizar y 1 + y 2<br />

sujeito a 17y 1 +14y 2 ≤ 20,<br />

6y 1 + 9y 2 ≤ 10,<br />

y 1 ≥ 0,<br />

y 2 ≥ 0,<br />

(problema dual)<br />

minimizar x 1 + x 2<br />

sujeito a 7x 1 +12x 2 ≥ 20,<br />

7x 1 + 9x 2 ≥ 10,<br />

x 1 ≥ 0,<br />

x 2 ≥ 0.<br />

Asolução do problema dual é x ∗ =(20/23, 10/23) (Figura 4.7) e a<br />

solução do problema primal é y ∗ =(40/69, 50/69), com<br />

θ = x ∗ 1 + x ∗ 2 = y1 ∗ + y2 ∗ = 30<br />

23 .<br />

Desta maneira, o único equilíbrio de Nash para o problema édado<br />

pelo ponto (p ∗ , q ∗ ), onde<br />

(<br />

p ∗ = x∗ 2<br />

θ = 3 , 1 )<br />

3<br />

e<br />

(<br />

q ∗ = y∗ 4<br />

θ = 9 , 5 )<br />

.<br />

9<br />

O teorema minimax de von Neumann garante que, para jogos de<br />

soma zero, existem estratégias mistas p ∗ e q ∗ tais que:<br />

(a) Se o jogador linha jogar com p ∗ , então o seu ganho esperado<br />

nunca émenordoquev ∗ = p ∗T Aq ∗ , independentemente da escolha<br />

do jogador coluna.<br />

(b) Se o jogador coluna jogar com q ∗ ,entãoasuaperda esperada<br />

nunca é maior do que v ∗ = p ∗T Aq ∗ , independentemente da escolha<br />

do jogador linha.<br />

Como efeito: como (p ∗ , q ∗ )é um equilíbrio de Nash em estratégias<br />

mistas, segue-se que v ∗ = u c (p ∗ , q ∗ ) ≥ u c (p ∗ , q), ∀q ∈ Δ n ,ev ∗ =


[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 99<br />

x 2<br />

0 20/23 30/23<br />

30/23<br />

10/23<br />

x 1<br />

Figura 4.7: Solução do problema dual.<br />

y 1<br />

30/23<br />

50/69<br />

0 40/69 30/23<br />

y 1<br />

Figura 4.8: Solução do problema primal.


100 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

u l (p ∗ , q ∗ ) ≥ u c (p, q), ∀p ∈ Δ m .Masu c (p, q) =−p T Aq e u l (p, q) =<br />

+p T Aq. Assim,<br />

∀q ∈ Δ n ,v ∗ = u c (p ∗ , q ∗ ) ≥ u c (p ∗ , q)<br />

⇓<br />

∀q ∈ Δ n , p ∗T Aq ≥ p ∗T Aq ∗ = v ∗ (4.3)<br />

⇓<br />

O ganho esperado do jogador linha nunca émenor<br />

do que v ∗ se ele jogar com p ∗ , independentemente<br />

da escolha q do jogador coluna.<br />

e, analogamente,<br />

∀p ∈ Δ m ,v ∗ = u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ )<br />

⇓<br />

∀p ∈ Δ m , pAq ∗ ≤ p ∗T Aq ∗ = v ∗ (4.4)<br />

⇓<br />

A perda esperada do jogador coluna nunca é maior<br />

do que v ∗ se ele jogar com q ∗ , independentemente<br />

da escolha p do jogador linha.<br />

Mais ainda: se (p ∗ ,q ∗ )é um equilíbrio de Nash do jogo, então<br />

n∑<br />

a ij · qj ∗ = v∗ , para todo i tal que p ∗ i > 0 e (4.5)<br />

j=1<br />

m∑<br />

p ∗ i · a ij = v ∗ , para todo j tal que qj ∗ > 0. (4.6)<br />

i=1<br />

De fato: suponha, por absurdo, que exista algum índice k tal que<br />

p ∗ k > 0e∑ n<br />

j=1 a kj · qj ∗ ≠ v ∗ . Usando as desigualdades 4.4 com<br />

p = e i , sabemos que ∑ n<br />

j=1 a ij ·qj ∗ ≤ v∗ para todo i =1,...,m. Logo,<br />

se ∑ n<br />

j=1 a kj · qj ∗ ≠ v∗ ,então ∑ n<br />

j=1 a kj · qj ∗


[SEC. 4.4:<br />

EQUILÍBRIO DE NASH VIA UM PROBLEMA DE COMPLEMENTARIDADE101<br />

oqueéumacontradição. Um argumento análogo pode ser usado<br />

para provar 4.6. Note que 4.5 e 4.6 nada mais são do que as condições<br />

estabelecidas no Corolário 4.1 na página 80 para o caso particular de<br />

jogos de soma zero.<br />

4.4 Equilíbrio de Nash via um problema<br />

de complementaridade<br />

4.4.1 Jogos bimatriciais<br />

Sejam u 1 (p, q) =p T Aq e u 2 (p, q) =p T Bq são, respectivamente,<br />

as funções utilidade dos jogadores 1 e 2. Sem perda de generalidade,<br />

podemos assumir que A>0 e B > 0 pois, caso contrário, basta<br />

substituir A por A + c 1 e B por B + c 1 para alguma constante<br />

c>0 suficientemente grande. Observe agora que (p ∗ , q ∗ ) ∈ Δ=<br />

Δ m × Δ n é um equilíbrio de Nash em estratégias mistas do jogo se,<br />

esomentese,p ∗ e q ∗ satisfazem os seguintes programas lineares, um<br />

dependendo do outro:<br />

maximizar (Aq ∗ ) T p<br />

sujeito a ½ T mp =1,<br />

p ≥ 0,<br />

maximizar (B T p ∗ ) T q<br />

sujeito a ½ T n q =1,<br />

q ≥ 0,<br />

onde ½ m e ½ n são, respectivamente, matrizes de tamanho m×1en×1<br />

com todas as entradas iguais a 1. Os problemas duais destes dois PLs<br />

são dados por:<br />

minimizar λ<br />

sujeito a ½ m λ ≥ Aq ∗ ,<br />

minimizar μ<br />

sujeito a ½ n μ ≥ B T p ∗ .<br />

Se λ ∗ é a solução ótima do primeiro problema dual, então pelo teorema<br />

forte da dualidade, vale que (Aq ∗ ) T p ∗ = λ ∗ .Mas(Aq ∗ ) T p ∗ =<br />

q ∗T A T p ∗ = p ∗T Aq ∗ e λ ∗ =(p ∗ ½ m )λ ∗ . Assim, p ∗T Aq ∗ =(p ∗ ½ m )λ ∗<br />

ou, equivalentemente,<br />

p ∗T (½ m λ ∗ − Aq ∗ )=0. (4.7)


102 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Esta condição diz que p ∗ e ½ m λ ∗ −Aq ∗ são ortogonais. Dado que estes<br />

vetores são não-negativos, eles têm que ser complementares, no sentido<br />

que eles não podem ter componentes positivas na mesma posição.<br />

Esta caracterização de um par primal-dual ótimo é conhecida como<br />

folgas complementares em programação linear. Dado que p ∗ éuma<br />

distribuição de probabilidades, pelo menos uma de suas componentes<br />

é positiva, de modo que a respectiva componente de ½ m λ ∗ − Aq ∗<br />

é zero e λ ∗ é a maior das entradas de Aq ∗ . Qualquer estratégia<br />

pura i do jogador 1 é uma melhor resposta a q ∗ se, e somente se,<br />

a i-ésima componente de ½ m λ ∗ − Aq ∗ é igual a zero. Desta forma,<br />

aEquação 4.7 obtém o Corolário 4.1 na página 80: uma estratégia<br />

mista p ∗ é uma melhor resposta para q ∗ se, e somente se, ela dá probabilidade<br />

positiva apenas para as estratégias puras que são melhores<br />

respostas para q ∗ . Analogamente, se μ ∗ é a solução ótima do segundo<br />

problema dual, então<br />

q ∗T (½ n μ ∗ − B T p ∗ )=0. (4.8)<br />

Teorema 4.9 O perfil de estratégias mistas (p ∗ , q ∗ ) é um<br />

equilíbrio de Nash se, e somente se, existem números reais λ ∗<br />

e μ ∗ tais que<br />

½ T mp ∗ = 1,<br />

½ T n q∗ = 1,<br />

½ m λ ∗ − Aq ∗ ≥ 0,<br />

½ n μ ∗ − B T p ∗ ≥ 0,<br />

p ∗ , q ∗ ≥ 0,<br />

(4.9)<br />

easEquações 4.7 e 4.7 sejam satisfeitas.<br />

Dado um vetor t ∈ R n e uma matriz M de tamanho n × n, o<br />

problema de complementaridade linear (PCL)associadoaopar(t,M)<br />

consiste em encontrar z, w ∈ R n tais que<br />

w + Mz = t, w ≥ 0, z ≥ 0 e z T w = 0.<br />

Veremos agora como caracterizar os equilíbrios de Nash em estratégias<br />

mistas de jogos bimatriciais (jogos finitos com apenas dois


[SEC. 4.4:<br />

EQUILÍBRIO DE NASH VIA UM PROBLEMA DE COMPLEMENTARIDADE103<br />

jogadores) através de um problema de complementaridade linear.<br />

Se (p ∗ , q ∗ )é um equilíbrio de Nash do jogo, então<br />

u 1 (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ p T Aq ∗ = u 1 (p, q ∗ ), ∀p ∈ Δ m .<br />

Mas, por linearidade, p ∗T Aq ∗ ≥ p T Aq ∗ para todo p ∈ Δ m se, e<br />

somente se, p ∗T Aq ∗ ≥ e T i Aq∗ , ∀i = 1,...,m, onde e i representa<br />

o i-ésimo vetor da base canônica. Mas, então,<br />

(p ∗T Aq ∗ )½ m ≥ (e T i Aq ∗ )½ m = ½ m (e T i Aq ∗ )=(½ m e T i )(Aq ∗ )=Aq ∗ .<br />

Analogamente, como<br />

u 2 (p ∗ , q ∗ )=p ∗T Bq ∗ ≥ p ∗T Bq = u 2 (p ∗ , q), ∀q ∈ Δ n ,<br />

= e T j BT p ∗ , ∀j =1,...,n e, por-<br />

segue-se que p ∗T Bq ∗ ≥ p ∗T Be j<br />

tanto,<br />

(p ∗T Bq ∗ )½ n ≥ (e T j BT p ∗ )½ m =<br />

½ m (e T j BT p ∗ )=(½ m e T j )(BT p ∗ )=B T p ∗ .<br />

Desta maneira, (p ∗ , q ∗ )é um equilíbrio de Nash se, e somente se,<br />

(p ∗T Aq ∗ )½ m ≥ Aq ∗ e (p ∗T Bq ∗ )½ n ≥ B T p ∗ . (4.10)<br />

Como A e B possuem todas as entradas positivas, segue-se que os<br />

números p ∗T Aq ∗ e p ∗T Bq ∗ são positivos. Sejam então<br />

x ∗ =<br />

p ∗<br />

p ∗T Bq ∗ e y ∗ q ∗<br />

=<br />

p ∗T Aq ∗ .<br />

Introduzindoas variáveis de folga w ∗ =(u ∗ , v ∗ ), vemos que se (p ∗ , q ∗ )<br />

é um equilíbrio de Nash, então z ∗ =(x ∗ , y ∗ )ew ∗ constituem uma<br />

solução do problema de complementaridade linear<br />

w + Mz = t, w ≥ 0, z ≥ 0 e z T w = 0,<br />

onde<br />

t =<br />

[<br />

½m<br />

½ n<br />

]<br />

e M =<br />

[ 0 A<br />

B T 0<br />

]<br />

.


104 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Reciprocamente, se z ∗ =(x ∗ , y ∗ )ew ∗ =(u ∗ , v ∗ )constituemuma<br />

solução do problema de complementaridade linear acima, então<br />

p ∗ =<br />

x∗<br />

½ T e q ∗ = y∗<br />

m x∗ ½ T n y∗<br />

constituem um equilíbrio de Nash do jogo bimatricial.<br />

Além de programação linear, programação quadrática e teoria dos<br />

jogos, aplicações do problema de complementaridade linear incluem<br />

o estudo de modelos financeiros, a análise não-linear de certas estruturas<br />

elasto-plásticas e muitas outras áreas ([64]).<br />

4.4.2 O algoritmo de Lemke-Howson<br />

Um dos métodos mais importantes para se encontrar uma solução<br />

de um PCL é o algoritmo de Lemke-Howson. Ele foi apresentado no<br />

artigo [49] em 1964. Muito mais do que um método de cálculo de<br />

equilíbrios de jogos bimatriciais, o algoritmo de Lemke-Howson dá<br />

uma prova algébrica construtiva para a existência de equilíbrios, além<br />

de estabelecer que, genericamente, o número de equilíbrios de Nash é<br />

finito e ímpar. Sendo similar ao algoritmo Simplex para programação<br />

linear, sua complexidade é exponencial ([84]). Além do artigo original,<br />

o leitor interessado em mais detalhes do algoritmo pode consultar<br />

a referência [87].<br />

4.5 Gambit<br />

Desenvolvido por Richard D. McKelvey (California Institute of<br />

Technology), Andrew M. McLennan (University of Minnesota) e Theodore<br />

L. Turocy (Texas A&M University), Gambit é um programa de<br />

computador, gratuito e multiplataforma, orientado para a construção<br />

eanálise de jogos finitos. Ele oferece uma interface gráfica intuitiva<br />

para o cálculo de equilíbrios de Nash e a análise das estruturas de<br />

dominância das estratégias do jogo. Para baixá-lo, acesse o endereço:<br />

http://econweb.tamu.edu/gambit.


[SEC. 4.5: GAMBIT 105<br />

Figura 4.9: Gambit eliminando as estratégias fracamente dominadas<br />

do Jogo da Segunda Gerra Mundial descrito no<br />

Exercício 6 na página 54.


106 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />

Observação. A equipe do Gambit recentemente desenvolveu uma<br />

versão on-line do software que está disponível no endereço: http:<br />

//gte.csc.liv.ac.uk/gte/builder/ (é preciso habilitar o uso de<br />

janelas pop-up).<br />

4.6 Exercícios<br />

[01] Calcule os pontos de sela da matriz<br />

⎡<br />

A =<br />

⎢<br />

⎣<br />

24 23 22 25<br />

10 22 20 19<br />

27 25 22 23<br />

20 28 16 15<br />

⎤<br />

⎥<br />

⎦ .<br />

[02] Como no Exemplo 4.8, escreva os problemas primal e dual do<br />

jogo de comparar moedas (Exemplo 2.6, página 22). Resolva<br />

estes problemas de otimização para encontrar o equilíbrio de<br />

Nash em estratégias mistas do jogo.<br />

[03] Mostre como encontrar pelo menos um equilíbrio de Nash de<br />

um jogo de soma zero 2 × 2geral.<br />

[04] Encontre pelo menos um equilíbrio de Nash em estratégias mistas<br />

do jogo de soma zero definido pela matriz<br />

[ ]<br />

−1 +5 +1 −2<br />

A =<br />

.<br />

+1 −3 −2 +5<br />

[05] Sejam p ∗ ∈ Δ m e q ∗ ∈ Δ n duas estratégias mistas de um jogo<br />

de soma zero com dois jogadores. Mostre que se o mínimo dos<br />

ganhos médios do jogador linha usando p ∗ é igual ao máximo<br />

das perdas médias do jogador coluna usando q ∗ ,istoé, se<br />

min u l(p ∗ , e l )= max (−u c(e k , q ∗ )),<br />

1≤l≤n 1≤k≤m<br />

então (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Aqui e k representa<br />

o k-ésimo vetor da base canônica de R m e e l o l-<br />

ésimo vetor da base canônica de R n . Use este resultado para


[SEC. 4.6: EXERCÍCIOS 107<br />

mostrar que as estratégias mistas p ∗ =(6/37, 20/37, 0, 11/37)<br />

e q ∗ = (14/37, 4/37, 0, 19/37, 0) constituem um equilíbrio de<br />

Nash do jogo de soma zero definido pela matriz<br />

⎡<br />

⎤<br />

5 8 3 1 6<br />

A = ⎢ 4 2 6 3 5<br />

⎥<br />

⎣ 2 4 6 4 1 ⎦ .<br />

1 3 2 5 3<br />

[06] (Jogos de quadrados mágicos) Um quadrado mágico éuma<br />

matriz quadrada n × n cujas entradas são constituídas pelos<br />

números 1, 2,...,n 2 , arranjados de tal forma que a soma das<br />

n entradas em qualquer linha, coluna ou diagonal principal é<br />

sempre o mesmo número. Mostre como encontrar pelo menos<br />

um equilíbrio de Nash em estratégias mistas de um jogo de soma<br />

zero cuja matriz é um quadrado mágico. Aplique a técnica para<br />

amatriz<br />

⎡<br />

A = ⎢<br />

⎣<br />

16 3 2 13<br />

5 10 11 8<br />

9 6 7 12<br />

4 15 14 1<br />

⎤<br />

⎥<br />

⎦ .<br />

Este quadrado mágico aparece na gravura Melencolia I de Albrecht<br />

Dürer:<br />

http://en.wikipedia.org/wiki/Melancholia_I.<br />

[07] Considere um jogo de soma zero definido por uma matriz A<br />

inversível que possui um equilíbrio de Nash (p ∗ , q ∗ ) totalmente<br />

misto (isto é, 0


Capítulo 5<br />

Jogos na forma extensa<br />

A forma normal de um jogo é usada em situações onde os jogadores<br />

escolhem sua estratégia simultaneamente ou o fazem sem conhecer<br />

aestratégia dos outros jogadores. Contudo, existem situações em que<br />

os jogadores tomam suas decisões de forma seqüencial, depois de observar<br />

a ação que um outro jogador realizou. A forma extensa tem<br />

uma estrutura mais adequada para analisar jogos desta natureza, especificando<br />

assim quem se move, quando, com qual informação e o<br />

ganho de cada jogador. Ela contém toda informação sobre um jogo.<br />

Existem várias formas de se representar um jogo da forma extensa, todas<br />

elas tentando formalizar a ideia de árvore. Entre elas: (1) relações<br />

de ordem, (2) teoria de grafos ([41]) e (3) alfabetos ([27]). Nossa abordagem<br />

aqui será mais informal. Trataremos dos jogos seqüencias de<br />

informação perfeita: os ganhos são de conhecimento comum de todos<br />

os jogadores, um único jogador faz um movimento por vez e cada<br />

jogador conhece as escolhas dos jogadores que o antecederam toda<br />

vez que for jogar.<br />

5.1 Definição<br />

Um jogo na forma extensa (também denominado jogo seqüencial)<br />

é aquele em que os jogadores realizam seus movimentos em uma ordem<br />

predeterminada. Por este motivo, uma maneira muito adequada<br />

108


[SEC. 5.1: DEFINIÇÃO 109<br />

de se representar um jogo na forma extensa éatravés de uma árvore.<br />

Por exemplo, na Figura 5.1, o jogador 1 joga primeiro: ele pode escolher<br />

entre as ações a e b. Depois,é a vez do jogador 2 jogar. Se 1<br />

jogou a, então 2 pode escolher entre c ou d e, se 1 jogou b,então 2 pode<br />

escolher entre e e f. Depois que todos jogadores realizaram (seqüencialmente)<br />

suas ações, cada jogador recebe o seu ganho. A convenção<br />

équeaprimeiracoordenadadovetordepayoffs represente o ganho<br />

de quem jogou em primeiro lugar, a segunda coordenada represente<br />

o ganho de quem jogou em segundo lugar, e assim por diante.<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 4)<br />

( 1, 0)<br />

b<br />

2<br />

e<br />

f<br />

( 6,12)<br />

( 9, {1)<br />

Figura 5.1: Um jogo na forma extensa.<br />

Uma árvore é composta por nós e ramos. Os ramos representam<br />

as ações dos jogadores. No jogo da Figura 5.1 existem 6 ramos: a, b,<br />

c, d, e e f. Alguns são do jogador 1 (a e b), enquanto que outros são<br />

do jogador 2 (c, d, e e f). Os nós são de dois tipos: existem aqueles<br />

que emanam ramos e existem aqueles que não. Estes últimos são as<br />

folhas da árvore e neles estão os valores dos payoffs dos jogadores.<br />

Um nó que não é uma folha identifica o jogador que deve escolher<br />

uma das ações representadas pelos ramos que saem do nó. Nós que<br />

não são folhas são denominados nós de decisão. Por exemplo, no<br />

primeiro nó (também denominado raiz da árvore) o jogador 1 que<br />

deve fazer a sua escolha entre os ramos (ações) a e b.<br />

Uma estratégia de um jogador é um plano de ação completo que<br />

especifica uma ação factível deste jogador em cada nó de decisão<br />

em que o jogador pode atuar. No jogo da Figura 5.1, o jogador 1<br />

temapenasumnó de decisão. Por este motivo, suas estratégias se


110 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />

confundem com suas ações:<br />

S 1 = {a, b}.<br />

Por outro lado, o jogador 2 tem dois nós de decisão: um que se segue<br />

depois que o jogador 1 jogou a e o outro depois que o jogador 1 jogou b.<br />

Por este motivo, cada estratégia do jogador 2 deve conter duas ações:<br />

uma para o primeiro nó e a outra para o outro nó. Assim, uma<br />

estratégia possível para o jogador 2 é “jogar c se o jogador 1 jogar a<br />

e jogar f se o jogador 1 jogar b”. Outra é “jogar c se o jogador 1<br />

jogar a e jogar e se o jogador 1 jogar b”. Escrevendo apenas as ações<br />

que o jogador 2 pode tomar em cada nó de decisão, o conjunto de<br />

suas estratégias pode ser então representado da seguinte maneira:<br />

S 2 = {(c, e), (c, f), (d, e), (d, f)}.<br />

É muito importante notar a diferença entre ações e estratégias. Neste<br />

contexto, (c, e) éumaestratégia do jogador 2, enquanto que c e e são<br />

ações (uma para cada nó de decisão do jogador). Uma ação éum<br />

conceito local: ela representa o comportamento do jogador em um<br />

momento particular do jogo, isto é, em um nó de decisão. Uma<br />

estratégia é um conceito global: ela especifica o comportamento do<br />

jogador no jogo inteiro, isto é, em todos os nós de decisão do jogador.<br />

Mais exemplos: no jogo da Figura 5.2,<br />

S 1 = {a, b},<br />

S 2 = {(c, e), (c, f), (c, g), (d, e), (d, f), (d, g)}<br />

e, no jogo da Figura 5.3,<br />

S 1 = {(a, l, p), (a, l, q), (a, m, p), (a, m, q),<br />

(b, l, p), (b, l, q), (b, m, p), (b, m, q)}<br />

e<br />

S 2 = {(c, e), (c, f), (d, e), (d, f)}.<br />

5.2 Equilíbrio de Nash<br />

A definição de equilíbrio de Nash para jogos seqüenciais éamesma<br />

dada para jogos na forma normal: se S i é o conjunto de estratégias


[SEC. 5.2: EQUILÍBRIO DE NASH 111<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 4)<br />

( 1, 0)<br />

b<br />

2<br />

e<br />

f<br />

g<br />

( 6,12)<br />

( 9, {1)<br />

( 8, 9)<br />

Figura 5.2: Um jogo na forma extensa.<br />

a<br />

2 c<br />

d<br />

¯<br />

( 2, 4)<br />

( 1,10)<br />

1<br />

®<br />

b<br />

2<br />

e<br />

1 l<br />

±<br />

m<br />

( 2, 3)<br />

( 1, 4)<br />

°<br />

f<br />

1 p<br />

q<br />

²<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.3: Um jogo na forma extensa.


112 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />

do jogador i, 1≤ i ≤ n, então um perfil de estratégias<br />

s ∗ =(s ∗ 1,...,s ∗ i ,...,s ∗ n) ∈ S 1 ×···×S i ×···×S n<br />

éumequilíbrio de Nash (em estratégias puras) se<br />

u i (s ∗ i , s∗ −i ) ≥ u i(s iji , s ∗ −i )<br />

para todo i =1,...,n eparatodoj i =1,...,m i ,comm i onúmero<br />

de estratégias do jogador i. A caracterização via funções de melhor<br />

resposta também pode ser usada: s ∗ =(s ∗ 1,...,s ∗ i ,...,s∗ n) ∈ S éum<br />

equilíbrio de Nash em estratégias se, e somente se, s ∗ i ∈ MR i (s ∗ −i )<br />

para todo i =1,...,n, onde MR i (s −i ) = argmax si∈S i<br />

u i (s i , s −i ).<br />

No jogo da Figura 5.4, temos que<br />

S 1 = {a, b},<br />

S 2 = {(c, e), (c, f), (d, e), (d, f)}<br />

Assim, existem 8 perfis de estratégias:<br />

S = S 1 × S 2 = {(a, (c, e)), (a, (c, f)), (a, (d, e)), (a, (d, f)),<br />

(b, (c, e)), (b, (c, f)), (b, (d, e)), (b, (d, f))}.<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 4)<br />

( 1, 9)<br />

b<br />

2<br />

e<br />

f<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.4: Calculando equilíbrios de Nash em um jogo seqüencial.<br />

Vamos mostrar que o perfil (a, (c, f)) não é um equilíbrio de Nash<br />

do jogo. Inicialmente, observe que, para calcular o ganho dos jogadores<br />

associado a um determinado perfil de estratégias, basta seguir


[SEC. 5.2: EQUILÍBRIO DE NASH 113<br />

o caminho de execução do jogo. Por exemplo, para o perfil de estratégia<br />

(a, (c, f)), a execução do jogo se dá da seguinte maneira:<br />

o jogador 1 escolhe a ação a e, em seguida, o jogador 2 escolhe a<br />

ação c, o que resulta no ganho 2 para o jogador 1 (Figura 5.5). Já,<br />

para o perfil de estratégia (b, (c, f)), o jogador 1 escolhe a ação a<br />

e o jogador 2 escolhe a ação f, dando o ganho 5 para o jogador 1<br />

(Figura 5.6).<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 4)<br />

( 1, 9)<br />

b<br />

2<br />

e<br />

f<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.5: Caminho de execução associado ao perfil de estratégias<br />

(a, (c, f)).<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 4)<br />

( 1, 9)<br />

b<br />

2<br />

e<br />

f<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.6: Caminho de execução associado ao perfil de estratégias<br />

(b, (c, f)).<br />

Desta maneira, se o jogador 2 mantiver a sua estratégia (c, f), o<br />

jogador 1 ganhará mais trocando sua estratégia a pela estratégia b:<br />

u 1 (a, (c, f)) = 2 < 5=u 1 (b, (c, f)).


114 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />

O per-<br />

Isto mostra que (a, (c, f)) não é um equilíbrio de Nash.<br />

fil (b, (c, f)), por sua vez, é um equilíbrio de Nash, pois<br />

e<br />

u 1 (b, (c, f)) = 5 > 2=u 1 (a, (c, f))<br />

u 2 (b, (c, f)) = 4 > 0=u 2 (b, (c, e)),<br />

u 2 (b, (c, f)) = 4 > 0=u 2 (b, (d, e)),<br />

u 2 (b, (c, f)) = 4 ≥ 4=u 2 (b, (d, f)).<br />

O jogo possui mais um equilíbrio de Nash: o perfil (b, (c, f)).<br />

5.3 Indução retroativa e equilíbrio perfeito<br />

em subjogos<br />

A indução retroativa é um processo que produz um perfil de estratégias<br />

com a propriedade de que se cada jogador seguir as recomendações<br />

de ações estabelecidas pelo perfil, então suas estratégias<br />

serão ótimas em cada nó de decisão onde o jogador pode atuar.<br />

O algoritmo é simples. Começando pelos nós de decisão finais,<br />

determinamos as melhores ações disponíveis para os jogadores que<br />

vão atuar nestes nós. Isto éfácil de se fazer, já que não existem<br />

outros nós de decisão que sucedem os nós em questão: basta, em<br />

cada nó de decisão final, escolher a ação que dê ao jogador do nó<br />

o maior payoff possível. Seexisteumempateentreduasações que<br />

levam ao maior payoff, escolhemos uma delas arbitrariamente. Feito<br />

isto, as ações escolhidas são marcadas e, as demais, ignoradas. Este<br />

processo agora é repetido para os penúltimos nós de decisão, para os<br />

antepenúltimos, etc., até quearaizdaárvore seja alcançada.<br />

Por exemplo, no jogo seqüencial da Figura 5.3, os últimos nós de<br />

decisão são β, δ e ɛ. Assim, no passo 1 da indução retroativa, o jogador<br />

2 marca a ação d no nó β e o jogador 1 marca as ações l e p nos<br />

nós δ e ɛ, respectivamente (Figura 5.7). No passo 2, o jogador 2 marca<br />

aação e no nó γ (Figura 5.8). Finalmente, no passo 3, o jogador 1<br />

marca a ação b (Figura 5.9). O perfil de estratégias obtido é<br />

((b, l, p), (d, e)).


[SEC. 5.3: INDUÇÃO RETROATIVA E EQUILÍBRIO PERFEITO EM SUB<strong>JOGOS</strong> 115<br />

a<br />

2 c<br />

d<br />

¯<br />

( 2, 4)<br />

( 1,10)<br />

1<br />

®<br />

b<br />

2<br />

e<br />

1 l<br />

±<br />

m<br />

( 2, 3)<br />

( 1, 4)<br />

°<br />

f<br />

1 p<br />

q<br />

²<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.7: Indução retroativa: passo 1.<br />

a<br />

2 c<br />

d<br />

¯<br />

( 2, 4)<br />

( 1,10)<br />

1<br />

®<br />

b<br />

2<br />

e<br />

1 l<br />

±<br />

m<br />

( 2, 3)<br />

( 1, 4)<br />

°<br />

f<br />

1 p<br />

q<br />

²<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.8: Indução retroativa: passo 2.


116 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />

a<br />

2<br />

¯<br />

c<br />

d<br />

( 2, 4)<br />

( 1,10)<br />

1<br />

®<br />

b<br />

2<br />

e<br />

1<br />

±<br />

l<br />

m<br />

( 2, 3)<br />

( 1, 4)<br />

°<br />

f<br />

1<br />

²<br />

p<br />

q<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.9: Indução retroativa: passo 3.<br />

O processo de indução retroativa dá, portanto, um algoritmo para<br />

encontrar um equilíbrio de Nash em estratégias puras de um jogo<br />

seqüencial com informação perfeita. Note, contudo, que nem todo<br />

equilíbrio de Nash pode ser obtido por indução retroativa. O perfil<br />

de estratégias (b, d) do jogo da Figura 5.10 é um equilíbrio de Nash<br />

que não é obtido por indução retroativa.<br />

1<br />

a<br />

2<br />

c<br />

d<br />

( 2, 1)<br />

( 0, 0)<br />

b<br />

( 1, 2)<br />

Figura 5.10: (b, d) é um equilíbrio de Nash que não é obtido por<br />

indução retroativa.<br />

Seja α um dos nós de decisão de um jogo G. O subjogo que<br />

começa em α é o jogo obtido copiando-se todos os nós de decisão,<br />

ramos e payoffs do jogo original que sucedem α. Por exemplo, no<br />

jogo da Figura 5.3, o subjogo que começa nó de decisão γ, é o jogo


[SEC. 5.3: INDUÇÃO RETROATIVA E EQUILÍBRIO PERFEITO EM SUB<strong>JOGOS</strong> 117<br />

da Figura 5.11.<br />

2<br />

e<br />

1 l<br />

±<br />

m<br />

( 2, 3)<br />

( 1, 4)<br />

°<br />

f<br />

1 p<br />

²<br />

q<br />

( 5, 0)<br />

( 5, 4)<br />

Figura 5.11: Subjogo que começa no nó γ do jogo da Figura 5.3.<br />

Dizemos que um perfil de estratégias (puras) s ∗ éumequilíbrio<br />

perfeito em subjogos de um jogo seqüencial G se os respectivos subperfis<br />

de s ∗ são equilíbrios de Nash de cada subjogo de G. Como<br />

veremos, este equilíbrio idealizado por Reinhard Selten, tem forte conexão<br />

com o processo de indução retroativa. De fato: considere, por<br />

exemplo, o jogo da Figura 5.3. Se<br />

s ∗ =((a α ,a δ ,a ɛ ), (a β ,a γ ))<br />

é um equilíbrio perfeito em subjogos deste jogo, então (a δ )e(a ɛ )<br />

devem ser equilíbrios de Nash dos subjogos que começam nos nós δ<br />

e ɛ, respectivamente. Mas, neste caso, a δ e a ɛ devem ser ações que<br />

maximizem o ganho do jogador 1 nestes nós. Sendo assim, concluímos<br />

que a δ = l e a ɛ = p ou a ɛ = q. Tomemos a ɛ = p. Do mesmo modo,<br />

como (a β ) deve ser um equilíbrio de Nash do subjogo que começa no<br />

nó β, vemos que o jogador 2 escolherá a β = d. Então, nesta primeira<br />

iteração, já podemos afirmar que<br />

s ∗ =((a α ,l,p), (d, a γ )).<br />

Agora, se a γ = e, o jogador 2 ganhará 3(já que o jogador 1 escolhe l<br />

neste caso) e, se a γ = f, o jogador 2 ganhará 0(já que o jogador 1<br />

escolhe p neste caso). Como (a γ , (l, p)) deve ser um equilíbrio de<br />

Nash do subjogo que começa no nó γ, segue-se que, obrigatoriamente,<br />

a γ = e. Assim, após a segunda iteração, vale que<br />

s ∗ =((a α ,l,p), (d, e)).


118 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />

Como as ações nos nós β, γ, δ e ɛ já estão agora todas determinadas,<br />

éfácil de ver que se s ∗ =((a α ,l,p), (d, e)) é um equilíbrio de Nash do<br />

jogo original, então a α = b. Assim, o equilíbrio perfeito em subjogos é<br />

s ∗ =((b, l, p), (d, e)).<br />

Note que a imposição de que os respectivos subperfis de s ∗ sejam<br />

equilíbrios de Nash de cada subjogo de G induz a mesma seleção de<br />

ações que seria feita no processo de indução retroativa. Époreste<br />

motivo que os equilíbrios perfeitos em subjogos coincidem com os<br />

equilíbrios obtidos por indução retroativa.<br />

5.4 O teorema de Kuhn-Zermelo<br />

Teorema 5.1 (Kuhn-Zermelo) Todo jogo seqüencial de informação<br />

perfeita possui pelo menos um equilíbrio de Nash em<br />

estratégias puras.<br />

Idéiadaprova.Ademonstração é feita por indução. Se o jogo possui<br />

apenas um único nó de decisão, entãooteoremaé verdadeiro: o jogador<br />

que age neste nó escolhe uma ação que maximiza o seu payoff.<br />

Os outros jogadores, se existirem, tem espaços de estratégias vazios.<br />

Suponha então que todo jogo com menos do que m>1nós de decisão<br />

possua pelo menos um equilíbrio de Nash. Escolhendo um nó de<br />

decisão β que sucede imediatamente a raiz α da árvore do jogo, criaremos<br />

dois jogos. O primeiro é o subjogo G β que começa em β. Pela<br />

hipótese de indução, G β possui pelo menos um equilíbrio de Nash s ∗ β .<br />

O segundo jogo, G −β ,éconstruído da seguinte maneira: removemos<br />

de G o subjogo G β enó β, que antes era de decisão, criamos uma<br />

folha cujos payoffs são dados pelos payoffs associados ao equilíbrio s ∗ β<br />

de G β . Novamente, pela hipótese de indução, G −β possui pelo menos<br />

um equilíbrio de Nash s ∗ −β .Seaação em s∗ −β<br />

não usa o ramo a<br />

que liga α a β em G −β ,então s ∗ −β é um equilíbrio de Nash do jogo<br />

original G. Por outro lado, se s ∗ −β usaoramoa, então (a, s∗ β )éum<br />

equilíbrio de Nash do jogo original G.


não confiar<br />

[SEC. 5.5: EXERCÍCIOS 119<br />

5.5 Exercícios<br />

[01] (Jogo da centopéia) Use indução retroativa para obter um<br />

equilíbrio de Nash do jogo seqüencial da figura abaixo. O<br />

equilíbrio é Pareto eficiente?<br />

1 Continuar 2 Continuar 1 Continuar 2 Continuar<br />

(64, 16)<br />

Parar<br />

Parar<br />

Parar<br />

Parar<br />

(4, 1) (2, 8) (16, 4) (8, 32)<br />

.<br />

Este jogo foi desenvolvido pelo economista Robert W. Rosenthal,<br />

mas o seu nome é devido a Kenneth Binmore.<br />

[02] (Jogo da confiança) Use indução retroativa para obter um<br />

equilíbrio de Nash do jogo seqüencial da figura abaixo. O equilíbrio<br />

é Pareto eficiente?<br />

1<br />

confiar<br />

2<br />

trair<br />

honrar<br />

({1, 2)<br />

(1,1)<br />

(0, 0)<br />

.


Capítulo 6<br />

Exemplos<br />

6.1 O jogo Le Her simplificado<br />

Nesta seção estudaremos a versão simplificada do jogo Le Her,<br />

como apresentada por Benjamim e Goldman em [05]. Dois jogadores<br />

empregam um pacote de 13 cartas do mesmo naipe (A, 2, ..., 10,<br />

Q, J e K). Após um sistema de distribuição e troca de cartas que<br />

descreveremos a seguir, o vencedor é aquele com a maior carta (A <<br />

2 < ···< 10 < Q < J < K).<br />

Inicialmente, o jogador 1 embaralha as 13 cartas e distribui uma<br />

carta X para si, uma carta Y para o jogador 2 e deixa o restante<br />

dascartasemummonteZ, sem que nenhum dos dois jogadores<br />

veja as cartas. Feito isto, cada jogador vê suacarta,masnão as<br />

outras. O jogador 1 deve então decidir se mantém a sua carta ou<br />

a troca com o jogador 2 (que não pode se negar a fazer a troca).<br />

No primeiro caso, é a vez do jogador 2 decidir se ele mantém a sua<br />

carta (a única que ele conhece até o momento) ou se ele faz a troca<br />

com a primeira carta do monte Z. Depois que o jogador 2 faz a sua<br />

escolha, os jogadores mostram as suas cartas e vence aquele com a<br />

maior carta. No segundo caso, os dois jogadores conhecem os valores<br />

das duas cartas X e Y e o jogador 2 não tem escolha alguma: se,<br />

depois da troca, a sua carta for menor do que a carta do jogador 1,<br />

então ele deve obrigatoriamente trocá-la com a carta do monte Z<br />

na esperança de obter uma carta maior para vencer o jogo, caso<br />

120


[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 121<br />

contrário, ele mantém a sua carta e vence o jogo. O leitor interessado<br />

pode se familiarizar com as regras do jogo atuando como o jogador 2<br />

no applet Java disponível no endereço:<br />

http://www.professores.uff.br/hjbortol/arquivo/2007.1/<br />

applets/leher1_br.html.<br />

Quais são as estratégias puras do jogador 1? Cada estratégia pura<br />

corresponde a uma escolha de um subconjunto formado pelas cartas<br />

que ele irá manter na primeira etapa do jogo. Por exemplo, a escolha<br />

do subconjunto {5, 7, 9} corresponde àestratégia pura do jogador 1<br />

em manter a sua carta se, e somente se, ela for igual a 5, 7 ou 9. Desta<br />

maneira, existem tantas estratégias puras quantos subconjuntos do<br />

conjunto<br />

D = {A, 2, 3, 4, 5, 6, 7, 8, 9, 10, Q, J, K},<br />

isto é, existem um total de 2 13 = 8192 estratégias puras para o jogador<br />

1. O mesmo vale para o jogador 2: ele tem 2 13 estratégias puras<br />

que estão em correspondência biunívoca com os 2 13 subconjuntos


122 [CAP. 6: EXEMPLOS<br />

distintos de D, cada um especificando quais cartas o jogador 2 irá<br />

manter. É importante observar mais uma vez que o jogador 2 só faz<br />

uma escolha (a de manter a sua carta Y ou trocá-la com uma carta<br />

do monte Z) quando o jogador 1 decide por manter a sua carta X.<br />

Se o jogador 1 resolve trocar de cartas, a ação do jogador 2 está completamente<br />

determinada pelos valores das cartas X e Y (supondo,<br />

naturalmente, que o jogador 2 seja racional).<br />

Amatrizdepayoffs do jogo tem, portanto, dimensão 2 13 × 2 13 .<br />

Este tamanho pode ser reduzido consideravelmente observando que<br />

estratégias puras “com saltos” são dominadas por aquelas “sem saltos”.<br />

Por exemplo, a estratégia pura<br />

{5, 7, 9}<br />

(manter apenas as cartas 5, 7 e 9) é dominada pela estratégia pura<br />

{5, 6, 7, 8, 9, 10, Q, J, K}<br />

(manter apenas as cartas maiores do que ou iguais a 5). Assim, ao<br />

invés de considerar todos os 2 13 subconjuntos de D, podemosnos<br />

restringir aos 13 subconjuntos da forma {C ∈ D | C ≥ ˜C}, onde<br />

˜C ∈ D. No que se segue, usaremos o seguinte abuso de notação<br />

A = {A, 2, 3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},<br />

2 = {2, 3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},<br />

3 = {3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},...<br />

para representar estas estratégias puras dominantes de cada jogador.<br />

O ganho do jogador 1 é sua probabilidade de vitória que, evidentemente,<br />

depende das estratégias puras (dominantes) escolhidas pelos<br />

dois jogadores. Através de cálculos com probabilidades condicionais<br />

(como em [05]) ou através de uma enumeração direta (veja o applet<br />

Java disponível no endereço http://www.professores.uff.br/<br />

hjbortol/arquivo/2007.1/applets/leher2_br.html), obtemos a<br />

matriz de payoffs apresentada na tabela 6.1, onde as probabilidades<br />

foram calculadas com 3 casas decimais corretas. Como o jogo éde<br />

soma zero (isto é, um jogador vence se, e somente se, o outro perde),<br />

amatrizdepayoffs do jogador 2 éamatrizdepayofffs do jogador 1<br />

multiplicada por −1.


[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 123<br />

jogador 2<br />

A 2 3 4 5 6 7 8 9 10 Q J K<br />

A 0.500 0.462 0.429 0.404 0.385 0.372 0.365 0.365 0.372 0.385 0.404 0.429 0.462<br />

2 0.538 0.500 0.468 0.442 0.423 0.410 0.404 0.404 0.410 0.423 0.442 0.468 0.500<br />

3 0.571 0.538 0.506 0.480 0.460 0.447 0.440 0.439 0.445 0.457 0.476 0.501 0.533<br />

4 0.596 0.569 0.543 0.517 0.496 0.481 0.473 0.471 0.476 0.487 0.505 0.529 0.559<br />

5 0.613 0.592 0.571 0.550 0.529 0.513 0.503 0.499 0.502 0.512 0.527 0.550 0.578<br />

6 0.622 0.606 0.590 0.573 0.557 0.541 0.529 0.523 0.523 0.530 0.544 0.564 0.590<br />

7 0.623 0.611 0.598 0.586 0.574 0.562 0.550 0.541 0.538 0.543 0.553 0.570 0.593<br />

8 0.614 0.605 0.597 0.588 0.579 0.571 0.562 0.553 0.547 0.548 0.555 0.568 0.588<br />

9 0.596 0.590 0.584 0.578 0.572 0.566 0.561 0.555 0.549 0.545 0.548 0.558 0.573<br />

10 0.566 0.563 0.559 0.556 0.552 0.549 0.545 0.542 0.538 0.535 0.533 0.538 0.549<br />

Q 0.526 0.524 0.523 0.521 0.519 0.517 0.516 0.514 0.512 0.510 0.509 0.508 0.514<br />

J 0.474 0.474 0.473 0.473 0.472 0.471 0.471 0.470 0.470 0.469 0.469 0.468 0.468<br />

K 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410<br />

Tabela 6.1: Matriz de payoffs do jogador 1 para o jogo Le Her.<br />

jogador 1


124 [CAP. 6: EXEMPLOS<br />

Tabela 6.2: Matriz de payoffs do jogador 1 para o jogo Le Her após mais uma eliminação de estratégias<br />

estritamente dominadas.<br />

jogador 1<br />

7 0.623 0.611 0.598 0.586 0.574 0.562 0.550 0.541 0.538 0.543 0.553 0.570 0.593<br />

8 0.614 0.605 0.597 0.588 0.579 0.571 0.562 0.553 0.547 0.548 0.555 0.568 0.588<br />

9 0.596 0.590 0.584 0.578 0.572 0.566 0.561 0.555 0.549 0.545 0.548 0.558 0.573<br />

jogador 2<br />

A 2 3 4 5 6 7 8 9 10 Q J K


[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 125<br />

Vamos usar dominância para simplificar ainda mais a matriz do<br />

jogo. Observe que as estratégias 7 e 9 do jogador 1 dominam, respectivamente,<br />

as estratégias de A a 6 ede10 a K (isto é, o jogador 1<br />

deve sempre trocar cartas ≤ 6edevesempre manter cartas ≥ 10).<br />

Eliminando-se então as linhas estritamente dominadas, obtemos a<br />

matriz da tabela 6.2. Para esta matriz reduzida, as estratégias 9<br />

e 10 do jogador 2 dominam, respectivamente, as estratégias de A a 8<br />

edeQaK (isto é, o jogador 2 deve sempre trocar cartas ≤ 8edeve<br />

sempre manter as cartas Q, J e K. Eliminando-se então as colunas<br />

estritamente dominadas, obtemos a matriz da tabela 6.3.<br />

jogador 1<br />

jogador 2<br />

9 10<br />

7 0.538 0.543<br />

8 0.547 0.548<br />

9 0.549 0.545<br />

Tabela 6.3: Matriz de payoffs do jogador 1 para o jogo Le Her após<br />

mais uma eliminação de estratégias estritamente dominadas.<br />

Finalmente, vemos que para esta matriz reduzida, a estratégia 8 do<br />

jogador 1 domina estritamente a estratégia 7. Eliminando-a, obtemos<br />

amatriz2× 2databela6.4.<br />

jogador 1<br />

jogador 2<br />

9 10<br />

8 0.547 0.548<br />

9 0.549 0.545<br />

Tabela 6.4: Matriz de payoffs do jogador 1 para o jogo Le Her após<br />

mais uma eliminação de estratégias estritamente dominadas.<br />

Usando-se programação linear ou funções de melhor resposta, podemos<br />

calcular facilmente o equilíbrio de Nash em estratégias mistas


126 [CAP. 6: EXEMPLOS<br />

deste jogo 2 × 2:<br />

(p 1 ,p 2 )=(4/5, 1/5) para o jogador 1<br />

e<br />

(q 1 ,q 2 )=(3/5, 2/5) para o jogador 2.<br />

Os payoffs médios são, respectivamente, 0.5474 e 0.4526. Vemos,<br />

portanto, que o jogador 1 leva vantagem nesta versão simplificada<br />

do Le Her supondo, é claro, que ele aja racionalmente seguindo o<br />

equilíbrio de Nash.<br />

Observações.<br />

1. No jogo original com 52 cartas, o jogador 2 pode se negar a trocar<br />

de cartas com o jogador 1 se sua carta for K (a de maior valor). No<br />

caso de cartas de mesmo valor (mas naipes diferentes), o jogador 2<br />

vence. Mesmo na versão original, a probabilidade média de ganho<br />

do jogador 1 é maior do que a do jogador 2 no equilíbrio de Nash.<br />

Os detalhes podem ser encontrados nas referências [25] e [37].<br />

2. O jogo Le Her foi investigado por Pierre Rémond de Montmort<br />

(1678–1719) e Nicholas Bernoulli (1687–1759), mas foi James Waldegrave<br />

(1684–1741) que forneceu uma solução para o jogo usando<br />

o conceito de equilíbrio em estratégias mistas. As referências [90]<br />

e [37] apresentam em detalhes a história deste jogo, incluindo a<br />

troca de correspondência entre Montmort, Bernoulli e Waldegrave<br />

e os erros cometidos na solução apresentada por Bernoulli.<br />

3. Benjamim e Goldman mostram em [05] que, para a versão simplificada<br />

do Le Her, a redução da matriz de payoffs para uma<br />

matriz 2 × 2 ocorre para qualquer baralho com um número N ≥ 3<br />

de cartas de um mesmo naipe.<br />

6.2 O modelo de duopólio de Cournot<br />

Sejam q 1 e q 2 as quantidades de um produto homogêneo fabricado<br />

por duas empresas 1 e 2, respectivamente. Diz-se que dois produtos<br />

fabricados por empresas diferentes são homogêneos quando os consumidores<br />

não percebem diferenças na qualidade dos dois produtos


[SEC. 6.2: O MODELO DE DUOPÓLIO DE COURNOT 127<br />

e, assim, eles tomam suas decisões sobre qual produto comprar considerando<br />

apenas o preço, independentemente do fabricante. Vamos<br />

assumir a situação de market-clearing, istoé, não existe excesso de<br />

demanda ou excesso de oferta no mercado. Assim, a quantidade demandada<br />

do produto é igual à quantidade ofertada do mesmo. Para<br />

simplificar, vamos supor que o preço de mercado é uma função linear<br />

da quantidade agregada Q = q 1 + q 2 do produto no mercado. Mais<br />

precisamente,<br />

P (Q) =<br />

{ A − Q, se QA,<br />

u 2 (q 1 ,q 2 ) = q 2 · P (q 1 + q 2 ) − c · q 2<br />

{<br />

q2 · [A − (q<br />

=<br />

1 + q 2 ) − c], se q 1 + q 2 ≤ A,<br />

q 2 · [−c],<br />

se q 1 + q 2 >A,<br />

{<br />

q2 · (−q<br />

=<br />

2 +(A − q 1 − c)), se q 1 + q 2 ≤ A,<br />

q 2 · [−c],<br />

se q 1 + q 2 >A.<br />

Desta maneira, as funções de melhor resposta das duas empresas são<br />

dadas por<br />

{<br />

{(A − c − q2 )/2}, se q<br />

MR 1 (q 2 ) =<br />

2 ≤ A − c,<br />

{0}, se q 2 >A− c,


128 [CAP. 6: EXEMPLOS<br />

MR 2 (q 1 ) =<br />

{<br />

{(A − c − q1 )/2}, se q 1 ≤ A − c,<br />

{0}, se q 1 >A− c.<br />

Lembrando que (q1 ∗,q∗ 2 )é um equilíbrio de Nash em estratégias puras<br />

se, e somente se, q2 ∗ ∈ MR 2(q1 ∗)eq∗ 1 ∈ MR 1(q2 ∗), vemos que (q∗ 1 ,q∗ 2 )<br />

deve ser solução do sistema<br />

q ∗ 2 =(A − c − q ∗ 1)/2 e q ∗ 1 =(A − c − q ∗ 2)/2.<br />

Sendo assim, vemos que o único equilíbrio de Nash em estratégias<br />

puras do jogo é<br />

( A − c<br />

(q1 ∗ ,q∗ 2 )= , A − c )<br />

. (6.1)<br />

3 3<br />

Estes valores também podem ser encontrados geometricamente, a-<br />

través dos pontos de interseção das representações gráficas das duas<br />

funções de melhor resposta (Figura 6.1).<br />

q 2<br />

A { c<br />

(A { c)/2<br />

(q , q ) 1 * * 2<br />

0 (A { c)/2 A { c<br />

q 1<br />

Figura 6.1: Calculando o equilíbrio de Nash do modelo de duopólio<br />

de Cournot.


[SEC. 6.3: O MODELO DE DUOPÓLIO DE BERTRAND 129<br />

6.3 O modelo de duopólio de Bertrand<br />

Neste modelo, ao invés de decidir o quanto produzir, as empresas<br />

devem escolher o quanto cobrar pelo produto, isto é, elas entram em<br />

uma competição de preços. Como no modelo de Cournot, estamos<br />

assumindo que tudo o que é produzido é consumido. Lembrando<br />

que A éopreço máximo aceitável pelo mercado, vemos que S 1 =<br />

S 2 =[0,A]eS = S 1 × S 2 =[0,A] × [0,A]. As funções utilidade são<br />

dadas por<br />

u i (p 1 ,p 2 )=p i · Q i (p 1 ,p 2 ) − c · Q i (p 1 ,p 2 )=(p i − c) · Q i (p 1 ,p 2 ),<br />

onde Q i (p 1 ,p 2 ) representa a produção vendida da empresa i com o<br />

perfil de preços (p 1 ,p 2 ). Comooprodutoé homogêneo, podemos<br />

assumir que os consumidores comprarão o produto mais barato. Se<br />

as duas empresas cobrarem o mesmo preço, vamos assumir que elas<br />

dividem igualmente o mercado. Desta maneira,<br />

⎧<br />

⎨A − p i , se p i p j ,<br />

e, portanto,<br />

⎧<br />

⎨(p i − c) · (A − p i ), se p i p j ,<br />

onde j ≠ i =1, 2.<br />

Quais são os equilíbrios de Nash em estratégias puras deste modelo?<br />

Certamente (p ∗ 1 ,p∗ 2 )=(c, c) é um equilíbrio de Nash pois, neste<br />

caso,<br />

u 1 (p ∗ 1,p ∗ 2)=0≥ u 1 (p 1 ,p ∗ 2) e u 2 (p ∗ 1,p ∗ 2)=0≥ u 2 (p ∗ 1,p 2 ),<br />

para todo p 1 ∈ S 1 eparatodop 2 ∈ S 2 . Existem outros equilíbrios de<br />

Nash? A resposta énão, como podemos concluir a partir dos casos<br />

descritos a seguir.<br />

(a) Se p ∗ 2


130 [CAP. 6: EXEMPLOS<br />

p 2<br />

A<br />

c<br />

Caso (c)<br />

Caso (d)<br />

Caso (e)<br />

Caso (b) Caso (f)<br />

Caso (g)<br />

Caso (h)<br />

Caso (a)<br />

0 c A<br />

p 1<br />

Figura 6.2: Calculando o equilíbrio de Nash do modelo de duopólio<br />

de Bertrand analisando os vários casos.<br />

(b) Se p ∗ 1 = p∗ 2


[SEC. 6.4: O MODELO DE DUOPÓLIO DE STACKELBERG 131<br />

(f) Suponha que p ∗ 2 = p∗ 1 >c. Se p∗ 1 = p∗ 2 ∈ ((A + c)/2,A], então<br />

u 1 (p ∗ 1,p ∗ 2) c. Como u 1(p ∗ 1 ,p∗ 2 )=0c.Sep ∗ 1


132 [CAP. 6: EXEMPLOS<br />

u 2<br />

0 c (A +c)/2 A p 2<br />

Figura 6.3: Gráfico da função p 2 ↦→ u 2 ((A + c)/2,p 2 ).<br />

e, então, escolhe a sua quantidade de produção q 2 ≥ 0. O ganho de<br />

cada empresa é o lucro que ela obtém:<br />

u 1 (q 1 ,q 2 )=q 1 · P (q 1 + q 2 ) − c · q 1 ,<br />

u 2 (q 1 ,q 2 )=q 2 · P (q 1 + q 2 ) − c · q 2 ,<br />

onde P (Q) =A − Q éopreço de mercado em função da quantidade<br />

agregada Q = q 1 + q 2 e c>0é o custo unitário de produção.<br />

Vamos usar indução retroativa para encontrar um equilíbrio de<br />

Nash deste jogo seqüencial. Primeiro, vamos calcular a ação ótima<br />

A 2 (q 1 )daempresa2emfunção da quantidade de produção q 1 :<br />

A 2 (q 1 ) = argmax q2≥0 u 2(q 1 ,q 2 ) = argmax q2≥0 q 2 · [A − q 1 − q 2 − c] .<br />

Pela regra de Fermat, obtemos que<br />

q 2 = A 2 (q 1 )= A − q 1 − c<br />

,<br />

2


[SEC. 6.5: A TRAGÉDIA <strong>DOS</strong> COMUNS 133<br />

desde que q 1


134 [CAP. 6: EXEMPLOS<br />

Two Lectures on the Checks to Population de 1833, que depois foi popularizada<br />

e estendida por Garret Hardin no seu artigo The Tragedy<br />

of the Commons publicado na revista Science em 1968 ([38]).<br />

A palavra “tragédia”temosignificadodadoporAlfredNorth<br />

Whitehead em seu livro Science and The Modern World: “The essence<br />

of dramatic tragedy is not unhappiness. It resides in the solemnity<br />

of the remorseless working of things.”. Já a palavra “comuns”<br />

designa uma área de pastagem coletiva, sem dono e sem qualquer<br />

regulamentação, usada por pastores na Idade Média, que cuidavam<br />

do rebanho de ovelhas para obter a lã que vendiam para a confecção<br />

de roupas.<br />

Com o crescimento do número de famílias de camponeses ao longo<br />

do tempo, ocorreu um aumento do número de ovelhas necessárias<br />

para o sustento de cada família. Como a área de pastagem era de uso<br />

comum, nenhuma família tinha incentivo para controlar o número de<br />

ovelhas de seu rebanho pois, se o fizesse, outras famílias usariam as<br />

pastagens de qualquer forma. Com uma superpopulação de ovelhas, a<br />

terra que antes era fértil, começou a se exaurir. A redução da área de<br />

pastagem afetou tanto o rebanho quanto a indústria local de roupas.<br />

Aparábola mostra, então, que a imprudência em administrar um<br />

recurso finito do qual todos se beneficiam pode levar àruína.<br />

Vamos usar teoria dos jogos para modelar uma versão ingênua da<br />

tragédia dos comuns. Considere uma aldeia com n pastores e seja o i<br />

onúmero de ovelhas do i-ésimo pastor, de modo que o número total<br />

de ovelhas da aldeia é o = o 1 + ···+ o n .Ocustodecompradeuma<br />

ovelha é c, independentemente do númerodeovelhasqueopastor<br />

já possui. O benefício de um pastor em deixar uma ovelha pastando<br />

é v(o) por ovelha. Como o campo de pastagem é um recurso finito,<br />

existe um número máximo o de ovelhas que ele pode suportar. Assim,<br />

v(o) > 0seo


[SEC. 6.5: A TRAGÉDIA <strong>DOS</strong> COMUNS 135<br />

exigindo-se que v ′ ≤ 0ev ′′ < 0. Desta maneira, v temumgráfico tal<br />

como o apresentado na Figura 6.4.<br />

v<br />

v<br />

0 o o<br />

Figura 6.4: Gráfico da função v.<br />

Neste jogo, a estratégia do pastor i é a escolha da quantidade de<br />

ovelhas que ele deixará no pasto. Podemos então considerar que o<br />

conjunto de estratégias puras do pastor i é S i =[0, o). Sua função<br />

utilidade é dada por<br />

u i (o 1 ,...,o i ,...,o n )=o i · v(o 1 + ···+ o i + ···+ o n ) − c · o i .<br />

Suponha que c0, logo μ i é crescente e, portanto, positiva, em<br />

um intervalo (0,ɛ)paraalgumɛ>0e


136 [CAP. 6: EXEMPLOS<br />

(5) μ i écôncava em [ 0, o − σ−i] ∗ .<br />

Logo, a função de melhor resposta do pastor i está bem definida:<br />

MR i (o ∗ ) = argmax oi∈(0,o−σ ∗ −i ) (<br />

oi · v ( o i − σ ∗ −i)<br />

− c · oi<br />

)<br />

.<br />

Se o ∗ i ∈ MR i(o ∗ ), então, pela regra de Fermat, μ ′ i (o∗ i ) = 0, isto é,<br />

v(o ∗ i + σ∗ −i )+o∗ i · v′ (o ∗ i + σ∗ −i ) − c =0.<br />

Somando-se estas equações para i =1,...,n e, então, dividindo-se<br />

por n, obtemosqueσ ∗ deve satisfazer a seguinte equação:<br />

v(σ ∗ )+ 1 n · σ∗ · v ′ (σ ∗ )=0. (6.2)<br />

Por outro lado, se o objetivo é maximizar a utilidade coletiva, isto<br />

é,asomadasfunções utilidades individuais, então devemos resolver<br />

o seguinte problema de otimização:<br />

max (o · v(o) − c · o) .<br />

o∈(0,o)<br />

Usando novamente a regra de Fermat, concluímos que uma solução σ •<br />

deste problema de otimização deve resolver a seguinte equação:<br />

v(σ • )+σ • · v ′ (σ • )=0. (6.3)<br />

Observe que σ ∗ >σ • . Com efeito: se, por absurdo, σ ∗ ≤ σ • ,então<br />

v(σ ∗ ) ≥ v(σ • ), já quev é decrescente. Mas v ′ também é decrescente,<br />

já quev ′′ < 0. Desta maneira, 0 >v ′ (σ ∗ ) ≥ v ′ (σ • ). Como 0 <<br />

σ ∗ /n < σ ∗ ≤ σ • , segue-se que<br />

σ ∗<br />

n · v′ (σ ∗ ) ≥ σ∗<br />

n · v′ (σ • ) >σ • · v ′ (σ • )<br />

e, portanto,<br />

0=v(σ ∗ )+ σ∗<br />

n · v′ (σ ∗ ) >v(σ • )+σ • · v ′ (σ • )=0,<br />

uma contradição. Vemos então que o equilíbrio de Nash o ∗ coloca<br />

mais ovelhas no pasto do que o número de ovelhas sugerido pelo<br />

equilíbrio coletivo o • . Isto acontece porque cada pastor considera<br />

apenas o seu próprio benefício e nãooefeitodesuasações sobre os<br />

outros pastores.


Apêndice A<br />

Convexidade<br />

Neste apêndice apresentaremos as definições e propriedades básicas<br />

de funções convexas necessárias no texto. As demonstrações<br />

omitidas podem ser encontradas em [42].<br />

Definição A.1 (Conjuntos convexos) Dizemos que U ⊂<br />

R n éumconjunto convexo se, e somente se, para todo p, q ∈ U<br />

tem-se<br />

(1 − t) · p + t · q ∈ U,<br />

para todo t ∈ [0, 1], isto é, se o segmento de reta que une dois<br />

pontos quaisquer de U está sempre contido em U.<br />

Teorema A.1 Seja {U ξ } ξ∈Ξ<br />

uma família de conjuntos convexos<br />

em R n Então ⋂<br />

ξ∈Ξ<br />

U ξ<br />

também é um conjunto convexo em R n .<br />

137


138 [CAP. A: CONVEXIDADE<br />

(a)<br />

(b)<br />

Figura A.1: O conjunto da esquerda é convexo enquanto que o da<br />

direita não o é.<br />

Definição A.2 (Semiplanos e Semiespaços) Seja a um vetor<br />

não-nulo em R n esejac um número real. Os conjuntos<br />

H + = {x ∈ R n | ax ≥ c} e H − = {x ∈ R n | ax ≤ c}<br />

são denominados, respectivamente, semiespaços fechados correspondentes<br />

ao semiplano H = {x ∈ R n | ax = c}.<br />

Por linearidade, segue-se que semiplanos e semiespaços são conjuntos<br />

convexos.<br />

Definição A.3 (Politopos e Poliedros) Um politopo éum<br />

conjunto que pode ser expresso como a interseção de um número<br />

finito de semiespaços fechados. Um poliedro é um politopo limitado.<br />

Note que politopos e poliedros são conjuntos convexos, como interseção<br />

de conjuntos convexos.<br />

Definição A.4 (Combinação convexa) Sejam x 1 ,...,x k ∈<br />

R n e λ 1 ,...,λ k números reais ≥ 0taisque ∑ n<br />

i=1 λ i =1. Acombinação<br />

convexa de x 1 ,...,x k com pesos λ 1 ,...,λ k éoponto<br />

λ 1 · x 1 + ···+ λ i · x k .


139<br />

(a)<br />

(b)<br />

Figura A.2: O conjunto de todas as combinações convexas de (a) dois<br />

pontos distintos éumsegmentoderetaqueligaosdois<br />

pontos e de (b) três pontos não-colineares éumtriângulo<br />

(lados e interior) com vértices nos três pontos.<br />

Teorema A.2 Um subconjunto U de R n é convexo se, e somente<br />

se, toda combinação convexa de pontos de U pertence<br />

a U.<br />

Definição A.5 (Funções convexas e côncavas)<br />

(a) Dizemos que uma função f : U ⊂ R n → R definida em um<br />

subconjunto convexo U de R n é convexa se, e somente se,<br />

f((1 − t) · p + t · q) ≤ (1 − t) · f(p)+t · f(q),<br />

(A.1)<br />

para todo p, q ∈ U etodot ∈ [0, 1].<br />

(b) Dizemos que uma função f : U ⊂ R n → R definida em um<br />

subconjunto convexo U de R n é côncava se, e somente se,<br />

f((1 − t) · p + t · q) ≥ (1 − t) · f(p)+t · f(q),<br />

(A.2)<br />

para todo p, q ∈ U etodot ∈ [0, 1].<br />

A interpretação geométrica é a seguinte: para uma função convexa, o<br />

segmento de reta secante que passa pelos pontos (p,f(p)) e (q,f(q))<br />

sempre está acima ou coincide com o gráfico de f para qualquer


140 [CAP. A: CONVEXIDADE<br />

y<br />

f(p)<br />

segmento de reta secante<br />

(1{t) . f(p)+t.<br />

f(q)<br />

gráfico de f<br />

f(q)<br />

f((1{t) . p +t.<br />

q)<br />

0<br />

p<br />

(1{t) . p+t.<br />

q<br />

q<br />

x<br />

Figura A.3: Para uma função convexa, o segmento de reta secante<br />

fica sempre acima ou coincide com o gráfico da função,<br />

para quaisquer escolhas de p e q.<br />

escolha de pontos p e q em U (veja a Figura A.3). Já parauma<br />

função côncava, o segmento de reta secante que passa pelos pontos<br />

(p,f(p)) e (q,f(q)) sempre está abaixo ou coincide com o gráfico<br />

de f para qualquer escolha de pontos p e q em U. Note que f é<br />

côncava se, e somente se, −f éconvexa.<br />

Opróximo teorema estabelece o motivo de convexidade ser uma propriedade<br />

tão desejável em otimização.<br />

Teorema A.3<br />

(a) Se f : U ⊂ R n → R éconvexa,então todo ponto de mínimo<br />

local de f em U também é ponto de mínimo global de f<br />

em U.<br />

(b) Se f : U ⊂ R n → R écôncava, então todo ponto de máximo<br />

local de f em U também é ponto de máximo global de f<br />

em U.


141<br />

Teorema A.4 Seja f : U ⊂ R n → R uma função de classe C 1<br />

definida em um subconjunto convexo U de R n .<br />

(a) f é uma função convexa em U se, e somente se,<br />

f(q) ≥ f(p)+∇f(p) · (q − p),<br />

(A.3)<br />

para todo p, q ∈ U, istoé, se, e somente se, cada hiperplano<br />

tangente ao gráfico de f está sempreabaixo ou coincide com<br />

ográfico de f.<br />

(b) f é uma função côncava em U se, e somente se,<br />

f(q) ≤ f(p)+∇f(p) · (q − p),<br />

(A.4)<br />

para todo p, q ∈ U, istoé, se, e somente se, cada hiperplano<br />

tangente ao gráfico de f está sempreacima ou coincide com<br />

ográfico de f.<br />

Aqui ∇f(p) denota o vetor gradiente de f em p.<br />

y<br />

gráfico de f<br />

0<br />

x<br />

Figura A.4: Para uma função convexa, cada hiperplano tangente ao<br />

gráfico de f está sempre abaixo do gráfico de f.


142 [CAP. A: CONVEXIDADE<br />

Definição A.6 (Funções quase-convexas e quase-côncavas)<br />

(a) Dizemos que uma função f : U ⊂ R n → R definida em um<br />

subconjunto convexo U de R n é quase-convexa se, e somente<br />

se,<br />

{x ∈ U | f(x) ≤ c}<br />

é um conjunto convexo para todo c ∈ R.<br />

(b) Dizemos que uma função f : U ⊂ R n → R definida em um<br />

subconjunto convexo U de R n é quase-côncavo se, e somente<br />

se,<br />

{x ∈ U | f(x) ≥ c}<br />

é um conjunto convexo para todo c ∈ R.<br />

Note que f équase-côncava se, e somente se, −f équase-convexa.<br />

Toda função convexa é quase-convexa e toda função côncava équasecôncava.<br />

Existem funções quase-convexas que não são convexas. Por<br />

exemplo, a função f : R → R definida por y = f(x) = 3√ x 2 équaseconvexa,<br />

mas não éconvexa.<br />

y<br />

0 x<br />

Figura A.5: y = f(x) = 3√ x 2 é quase-convexa, mas não éconvexa<br />

em R.


143<br />

Toda função f : R → R monótona é quase-convexa e quase-côncava.<br />

A função y = f(x) =⌊x⌋ que leva x ∈ R no maior inteiro menor do<br />

que ou igual a x é função quase-convexa que não écontínua. A função<br />

da Figura A.6 é um exemplo de função que não équase-convexa.<br />

Teorema A.5 Seja f : U ⊂ R n → R uma função definida em<br />

um subconjunto convexo U de R n .<br />

(a) As seguintes condições são equivalentes:<br />

(1) f é uma função quase-convexa em U.<br />

(2) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1], se f(x 1 ) ≤ f(x 2 ), então<br />

(3) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1],<br />

f(t · x 1 +(1− t) · x 2 ) ≤ f(x 2 ).<br />

f(t · x 1 +(1− t) · x 2 ) ≤ max{f(x 1 ),f(x 2 )}.<br />

(b) As seguintes condições são equivalentes:<br />

(1) f é uma função quase-côncava em U.<br />

(2) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1], se f(x 1 ) ≥ f(x 2 ), então<br />

(3) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1],<br />

f(t · x 1 +(1− t) · x 2 ) ≥ f(x 2 ).<br />

f(t · x 1 +(1− t) · x 2 ) ≥ min{f(x 1 ),f(x 2 )}.<br />

Teorema A.6 Seja f : U ⊂ R n → R uma função de classe C 1<br />

definida em um subconjunto convexo U de R n .<br />

(a) f équase-convexaemU se, e somente se,<br />

∀x 1 , x 2 ∈ U, f(x 2 ) ≤ f(x 1 ) ⇒ ∇f(x 1 ) · (x 2 − x 1 ) ≤ 0.


144 [CAP. A: CONVEXIDADE<br />

y<br />

c<br />

0 x<br />

Figura A.6: Um exemplo de função que não équase-convexa.<br />

(b) f équase-côncava em U se, e somente se,<br />

∀x 1 , x 2 ∈ U, f(x 2 ) ≥ f(x 1 ) ⇒ ∇f(x 1 ) · (x 2 − x 1 ) ≥ 0.


Apêndice B<br />

Programação Linear<br />

Neste apêndice apresentaremos as definições e propriedades básicas<br />

da teoria de programação linear necessárias no texto. Para<br />

detalhes, demonstrações e extensões, recomendamos os excelentes livros<br />

[14, 52].<br />

Um programa linear éumproblemadeotimização onde a função<br />

que queremos otimizar e as restrições são todas lineares. Por exemplo,<br />

minimizar x 1 + x 2<br />

x 1,x 2∈R<br />

sujeito a 3 x 1 +2x 2 ≥ 8,<br />

x 1 +5x 2 ≥ 7,<br />

x 1 ≥ 0,<br />

x 2 ≥ 0,<br />

(B.1)<br />

é um programa linear. Para resolvê-lo, precisamos encontrar um<br />

ponto (x 1 ,x 2 )doconjunto admissível<br />

K = {(x 1 ,x 2 ) ∈ R 2 | 3 x 1 +2x 2 ≥ 8,x 1 +5x 2 ≥ 7,x 1 ≥ 0,x 2 ≥ 0}<br />

que torna o valor da função objetivo o(x 1 ,x 2 )=x 1 + x 2 omenor<br />

possível. O conjunto K está desenhado na Figura B.1. Por inspeção,<br />

vemos que a solução ótima é dada por (x ∗ 1 ,x∗ 2 )=(2, 1). Este ponto é<br />

ainterseção da curva de nível f(x 1 ,x 2 )=x 1 + x 2 = c “mais baixa”<br />

que intercepta o conjunto admissível.<br />

145


146 [CAP. B: PROGRAMAÇÃO LINEAR<br />

x 2<br />

4<br />

3<br />

1<br />

0 2 3<br />

7<br />

x 1<br />

Figura B.1: O conjunto admissível do programa linear B.1.<br />

Dizemos que um programa linear está naforma padrão se todas<br />

as variáveis de decisão são não-negativas e se todas as restrições são<br />

em igualdade:<br />

minimizar<br />

x 1,...,x n<br />

∈ R c 1 x 1 + ···+ c n x n<br />

sujeito a a 11 x 1 + ··· + a 1n x n = b 1 ,<br />

. . . . .<br />

a m1 x 1 + ··· + a mn x n = b m ,<br />

e x 1 ≥ 0, ..., x n ≥ 0.<br />

Todo programa linear pode ser reescrito na forma padrão com o uso<br />

de variáveis de folga. Por exemplo, uma restrição da forma<br />

a i1 x 1 + ···+ a in x n ≥ b i<br />

pode ser substituída, de maneira equivalente, pelas restrições<br />

a i1 x 1 + ···+ a in x n − y i = b i e y i ≥ 0.<br />

Se uma variável de decisão x i pode assumir qualquer valor real, isto é,<br />

se não existe restrição de não-negatividade em x i ,então podemos


147<br />

substituir x i por u i − v i , a diferença de dois números positivos. Se<br />

colocarmos o programa linear B.1 na forma padrão, obtemos o seguinte<br />

PL:<br />

minimizar<br />

x 1,x 2,y 1,y 2∈R<br />

x 1 + x 2<br />

sujeito a 3 x 1 +2x 2 − y 1 =8,<br />

x 1 +5x 2 − y 2 =7,<br />

x 1 ≥ 0,<br />

x 2 ≥ 0,<br />

y 1 ≥ 0,<br />

y 2 ≥ 0.<br />

(B.2)<br />

Um programa linear pode ser escrito de forma mais compacta<br />

usando-se matrizes e vetores:<br />

minimizar c T x<br />

x∈R n<br />

sujeito a Ax = b e x ≥ 0,<br />

(B.3)<br />

onde x ∈ R n , c ∈ R n , b ∈ R m e A é uma matriz m × n. Note<br />

que o conjunto admissível K = {x ∈ R n | Ax = b e x ≥ 0} de um<br />

programa linear, quando não-vazio, é um politopo convexo, e que as<br />

hipersuperfícies de nível da função objetivo são hiperplanos.<br />

Problemas de maximização podem ser transformados em problemas<br />

de minimização substituindo-se a função objetivo o por −o. Mais<br />

precisamente, x ∗ é uma solução ótima de<br />

maximizar c T x<br />

x∈R n<br />

sujeito a Ax = b e x ≥ 0,<br />

se, e somente se, x ∗ também ésolução de<br />

minimizar −c T x<br />

x∈R n<br />

sujeito a Ax = b e x ≥ 0.<br />

Na teoria de programação linear, assume-se que m


148 [CAP. B: PROGRAMAÇÃO LINEAR<br />

Da teoria de Álgebra Linear sabemos, então, que existem m colunas<br />

de A que são linearmente independentes. Renomeando-se índices se<br />

necessário, podemos assumir que estas colunas sejam as m primeiras.<br />

Isto induz uma decomposição de A edex:<br />

A = [ B C ] [ ]<br />

xB<br />

, x = ,<br />

x C<br />

onde B é uma matriz m×m inversível. Como o sistema linear Ax = b<br />

é equivalente a Bx B + Cx C = b, segue-se então que existe uma<br />

solução x de Ax = b na forma<br />

[<br />

xB<br />

0<br />

]<br />

.<br />

Esta solução é denominada solução básica do sistema linear Ax =<br />

b associada à base B. As componentes de x B são denominadas<br />

variáveis básicas.<br />

Teorema B.1 (Teorema Fundamental da Programação<br />

Linear) Considere um programa linear na forma padrão B.3,<br />

com A matriz m × n de posto m.<br />

(a) Se o programa linear possui um ponto admissível, então ele<br />

possui um ponto admissível que é uma solução básica do<br />

sistema linear Ax = b.<br />

(b) Se o programa linear possui um ponto ótimo, então ele possui<br />

um ponto ótimo que é uma solução básica do sistema<br />

linear Ax = b.<br />

Opróximo teorema dá uma interpretação geométrica para pontos<br />

admissíveis que são soluções básicas: eles correspondem aos pontos<br />

extremos (vértices) do politopo K = {x ∈ R n | Ax = b e x ≥ 0}.<br />

Definição B.1 (Ponto Extremo) Dizemos que um ponto x<br />

em um conjunto convexo U é ponto extremo de U se não existem<br />

dois outros pontos distintos x 1 e x 2 em U tais que x = α x 1 +<br />

(1 − α) x 2 para algum α no intervalo (0, 1).


149<br />

Na Figura B.2, x 1 , x 2 e x 3 são os únicospontosextremosdo<br />

conjunto admissível K do PL B.1. O ponto x 4 não éumponto<br />

extremo de K, pois ele pode ser escrito como uma combinação convexa<br />

de x 2 ∈ K e x 3 ∈ K. Como x 6 = α x 5 +(1− α) x 7 para<br />

algum α ∈ (0, 1), vemos que o ponto x 6 (no interior do conjunto<br />

admissível) também não é um ponto extremo de K.<br />

x 2<br />

4<br />

3<br />

x 1<br />

x x 7<br />

6<br />

x 5<br />

x 4<br />

1<br />

x 2<br />

x 3<br />

0 x 1<br />

2 3<br />

7<br />

Figura B.2: x 1 , x 2 e x 3 são os únicospontosextremosdoconjunto<br />

admissível do PL B.1.<br />

Teorema B.2 (Equivalência entre Pontos Extremos e<br />

Soluções Básicas) Seja A uma matriz m × n de posto m,<br />

b um vetor em R m e K = {x ∈ R n | Ax = b e x ≥ 0} oconjunto<br />

admissível de B.3. Então x é um ponto extremo de K<br />

se, e somente se, x é um ponto admissível que ésolução básica<br />

de Ax = b.<br />

Os teoremas B.1 e B.2 dizem que, para se resolver o problema B.3, não<br />

é preciso considerar todos os pontosdoconjuntoadmissível K: basta<br />

procurar pelo ponto ótimo entre os pontos extremos (vértices) de K!<br />

Ométodo simplex explora esta estrutura para construir um algoritmo<br />

muito popular para se resolver B.3. Outra categoria de métodos que


150 [CAP. B: PROGRAMAÇÃO LINEAR<br />

recentemente ganhou bastante popularidade é a classe dos métodos<br />

de ponto interior. Não é nosso propósito estudar estes algoritmos<br />

aqui. O leitor interessado poderá consultar os livros [14, 52]. O que é<br />

preciso se ter em mente é que programas lineares podem ser resolvidos<br />

numericamente de maneira muito eficiente nos dias de hoje. A seguir<br />

estabeleceremos resultados sobre dualidade, um conceito fundamental<br />

emuitoútil em programação linear.<br />

Definição B.2 (O problema dual) O problema dual de<br />

minimizar c T x<br />

x∈R n<br />

sujeito a Ax ≥ b e x ≥ 0,<br />

(B.4)<br />

é o programa linear<br />

maximizar λ T b<br />

λ∈R m<br />

sujeito a A T λ ≤ c e λ ≥ 0,<br />

(B.5)<br />

onde λ T b = ∑ m<br />

i=1 λ ib i . B.5 é denominado o problema dual<br />

de B.4. Neste contexto, B.4 é denominado problema primal.<br />

Por exemplo, o problema dual do programa linear B.1 é<br />

minimizar 8 λ 1 +7λ 2<br />

λ 1,λ 2∈R<br />

sujeito a 3 λ 1 + λ 2 ≤ 1,<br />

2 λ 1 +5λ 2 ≤ 1,<br />

λ 1 ≥ 0,<br />

λ 2 ≥ 0.<br />

(B.6)<br />

O problema dual de qualquer programa linear pode ser encontrado<br />

convertendo-o para o formato B.4. Por exemplo, como Ax = b se,<br />

esomentese,Ax ≥ b e −Ax ≥−b, o programa linear na forma<br />

padrão B.3 pode ser escrito na forma do problema primal B.4 da


151<br />

seguinte maneira equivalente<br />

minimizar<br />

x∈R n<br />

sujeito a<br />

[<br />

A<br />

−A<br />

]<br />

x ≥<br />

c T x<br />

[<br />

b<br />

−b<br />

]<br />

e x ≥ 0.<br />

Particionando-se agora as variáveis duais na forma (u, v), o problema<br />

dual deste último PL é<br />

minimizar<br />

u T b − v T b<br />

x∈R n<br />

sujeito a A T u − A T v ≤ c, u ≥ 0 e v ≥ 0.<br />

Fazendo-se λ = u − v, o problema acima pode ser simplificado, o que<br />

nos leva ao seguinte par de problemas duais:<br />

Par Dual B.1<br />

(problema primal)<br />

minimizar c T x<br />

x∈R n<br />

sujeito a Ax = b,<br />

x ≥ 0,<br />

(problema dual)<br />

maximizar λ T b<br />

λ∈R m<br />

sujeito a A T λ ≤ c.<br />

Outros pares de problemas duais de interesse são dados a seguir.<br />

Par Dual B.2<br />

(problema primal)<br />

maximizar c T x<br />

x∈R n<br />

sujeito a Ax = b,<br />

x ≥ 0,<br />

(problema dual)<br />

minimizar λ T b<br />

λ∈R m<br />

sujeito a A T λ ≥ c.


152 [CAP. B: PROGRAMAÇÃO LINEAR<br />

Par Dual B.3 (O da Definição B.2)<br />

(problema primal)<br />

minimizar c T x<br />

x∈R n<br />

sujeito a Ax ≥ b,<br />

x ≥ 0,<br />

(problema dual)<br />

maximizar λ T b<br />

λ∈R m<br />

sujeito a A T λ ≤ c,<br />

λ ≥ 0.<br />

Par Dual B.4<br />

(problema primal)<br />

maximizar b T y<br />

y∈R m<br />

sujeito a Ay ≤ c,<br />

y ≥ 0,<br />

(problema dual)<br />

minimizar<br />

x∈R n<br />

sujeito a<br />

c T x<br />

x T A ≥ b Ț<br />

x ≥ 0.<br />

Teorema B.3 (Teorema fraco de dualidade) Se x e λ são<br />

admissíveis para os problemas B.3 e B.5, respectivamente, então<br />

c T x ≥ λ T b.<br />

Este teorema mostra que um ponto admissível para um dos problemas<br />

fornece uma cota para o valor da função objetivo do outro<br />

problema. Os valores associados com o problema primal são sempre<br />

maiores ou iguais aos valores associados com o problema dual. Como<br />

corolário, vemos que se um par de pontos admissíveis pode ser encontrado<br />

para os problemas primal e dual com valores iguais da função<br />

objetivo, então estes pontos são ótimos.<br />

Teorema B.4 (Teorema forte de dualidade) Se um dos<br />

problemas B.3 ou B.5 tem uma solução ótima finita, então o<br />

outro também terá uma solução ótima finita e, neste caso, os<br />

valores das respectivas funções objetivo são iguais. Se a função


153<br />

objetivo do problema primal não é limitada inferiormente, então<br />

oconjuntoadmissível do problema dual é vazio e, se a função<br />

objetivo do problema dual não é limitada superiormente, então<br />

oconjuntoadmissível do problema primal é vazio.<br />

Oconjuntoadmissível do problema dual B.6 do programa linear B.1<br />

está desenhado na Figura B.3. Por inspeção, vemos que a solução<br />

ótima é dada por (λ ∗ 1,λ ∗ 2)=(4/13, 1/13). Este ponto éainterseção da<br />

curva de nível g(λ 1 ,λ 2 )=8λ 1 +7λ 2 = c “mais alta” que intercepta<br />

oconjuntoadmissível. Lembrando que (x ∗ 1 ,x∗ 2 )=(2, 1) é a solução<br />

do problema primal B.1, vemos que<br />

f(x ∗ 1 ,x∗ 2 )=x∗ 1 + x∗ 2 =3=8λ∗ 1 +7λ∗ 2 = g(λ∗ 1 ,λ∗ 2 ),<br />

como afirma o teorema forte da dualidade.<br />

¸2<br />

3/7<br />

1/5<br />

(4/13, 1/13)<br />

0<br />

1/3<br />

3/8<br />

¸1<br />

Figura B.3: O conjunto admissível do problema dual B.6 do programa<br />

linear B.1.<br />

Por fim, gostaríamos de observar que se a função objetivo do programa<br />

linear B.3 não é limitada inferiormente no conjunto admissível


154 [CAP. B: PROGRAMAÇÃO LINEAR<br />

K = {x ∈ R n | Ax = b e x ≥ 0} ,<br />

então existem ponto extremo ˜x eraioextremo˜r de K tal que o valor<br />

da função objetivo de B.3 em x = ˜x + t˜r tende a −∞ quando t tende<br />

a+∞. Emparticular,<br />

c T˜r < 0.<br />

Dizemos que ˜r éumraiodeK se, e somente se, ˜r ≠ 0 e o conjunto<br />

{p ∈ R n | p = x + t˜r e t ≥ 0} está contidoemK para todo x ∈ K.<br />

Um raio ˜r de K é extremo, senão existem outros dois raios r 1 e r 2<br />

de K (com r 1 ≠ t r 2 para todo t>0) e um escalar s no intervalo (0, 1)<br />

tal que ˜r = s r 1 +(1− s) r 2 .<br />

r 2<br />

r 3<br />

K<br />

0 x 1<br />

Figura B.4: Os vetores r 1 e r 2 não são raios extremos de K. O vetor<br />

r 3 éumraioextremodeK.


Apêndice C<br />

Respostas dos exercícios<br />

Capítulo 2<br />

[01] O processo de dominância estrita iterada reduz o jogo para uma<br />

matriz 1×1 comumúnico perfil de estratégias puras: (s 13 ,s 22 ).<br />

[02] (a) Não existem estratégias dominantes neste jogo.<br />

(b) (l 1 ,c 1 )e(l 2 ,c 2 )são os únicos equilíbrios de Nash em estratégias<br />

puras do jogo.<br />

[03] (a) c 2 domina estritamente c 1 .<br />

(b) (l 2 ,c 2 )éoúnico equilíbrio de Nash em estratégias puras do<br />

jogo.<br />

[04] (a) Não existem estratégias dominantes neste jogo.<br />

(b) (desviar, não desviar) e (não desviar, desviar) são os únicos<br />

equilíbrios de Nash em estratégias puras do jogo.<br />

[05] (a) Não existem estratégias dominantes neste jogo.<br />

(b) (brigar, ameaçar) e (ameaçar, brigar) são os únicos equilíbrios<br />

de Nash em estratégias puras do jogo.<br />

[06] Usando o processo de dominância fraca iterada, o jogo se reduz<br />

para uma matriz 3 × 3:<br />

155


156 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

Eixo<br />

A B C<br />

Aliados<br />

1 (+13, −13) (+29, −29) (+ 8, − 8)<br />

3 (+18, −18) (+22, −22) (+31, −31)<br />

.<br />

6 (+23, −23) (+22, −22) (+19, −19)<br />

[07] O processo de dominância estrita iterada reduz o jogo para<br />

uma matriz 1 × 1 × 1comumúnico perfil de estratégias puras:<br />

(x 3 ,y 2 ,z 4 ).<br />

[08] O processo de dominância estrita iterada reduz o jogo para<br />

uma matriz 1 × 1 × 1comumúnico perfil de estratégias puras:<br />

(x 2 ,y 1 ,z 2 ).<br />

[09] O perfil de estratégias (x 2 ,y 2 ,z 3 )éoúnico equilíbrio de Nash<br />

em estratégias puras do jogo.<br />

[10] (a) Para o jogador 1, a estratégia M é fracamente dominada<br />

pela estratégia T etambém fracamente dominada pela estratégia<br />

B. Para o jogador 2, a estratégia L éfracamente<br />

dominada pela estratégia R.<br />

(b) O processo de eliminação das estratégias fracamente dominadas<br />

conduz a duas reduções 1 × 1: {(B,C)} e {(T,R)}.<br />

(c) Os equilíbrios de Nash em estratégias puras são (T,C),<br />

(T,R)e(B,C). Note que (T,C) não está entre os perfis<br />

de estratégias encontrados no item anterior.<br />

[11] Suponha, por absurdo, que s ∗ =(s ∗ 1,...,s ∗ n)não seja um e-<br />

quilíbrio de Nash. Então devem existir índice i eestratégia<br />

pura s [1]<br />

i ∈ S i ,coms [1]<br />

i ≠ s ∗ i ,taisqueu i(s ∗ i , s∗ −i )


157<br />

porque a estratégia s [1]<br />

i foi fracamente dominada por outra estratégia<br />

s [2]<br />

i . Logo, u i(s [1]<br />

i , s −i) ≤ u i (s [2]<br />

i , s −i) paratodos −i<br />

que pode ser construído com as estratégias que restaram nos<br />

espaços de estratégias puras dos outros jogadores neste estágio<br />

do processo (que inclui s ∗ −i ) e, mais ainda, pelo menos para<br />

um s [2]<br />

−i , vale a desigualdade estrita: u i(s [1]<br />

i , s[2] −i )


158 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

[12] Note que<br />

u i (p ∗ ) = u i (p ∗ i , p∗ −i )<br />

=<br />

∑m 1<br />

j 1=1<br />

···<br />

∑m n<br />

j n=1<br />

Reordenando os somatórios, obtemos que<br />

onde<br />

v ji =<br />

∑m 1<br />

j 1=1<br />

···<br />

u i (p ∗ i , p ∗ −i) =<br />

m∑<br />

i−1<br />

m∑<br />

i+1<br />

j i−1=1 j i+1=1<br />

p ∗ 1j 1 ····p ∗ nj n · u i (s 1j1 ,...,s njn ).<br />

∑m i<br />

j i=1<br />

···<br />

p ∗ ij i · v ji = 〈p ∗ i , v〉<br />

∑m n<br />

j n=1<br />

c j1,...,j n<br />

· u i (s 1j1 ,...,s njn ),<br />

com c j1,...,j n<br />

= p ∗ 1j 1 ···p ∗ (i−1)j i−1<br />

· p ∗ (i+1)j i+1<br />

···p ∗ nj n<br />

. Desta maneira,<br />

se x 1 ,...,x r ∈ Δ i e λ 1 ,...,λ r são escalares não-negativos<br />

com ∑ r<br />

k=1 λ k =1,então<br />

( r∑<br />

) 〈 r∑<br />

〉<br />

u i λ k · x k , p ∗ −i = λ k · x k , v<br />

k=1 k=1<br />

=<br />

=<br />

r∑<br />

λ k ·〈x k , v〉<br />

k=1<br />

r∑<br />

λ k · u i (x k , p ∗ −i ).<br />

k=1<br />

Nas igualdades acima não usamos que λ 1 ,...,λ r são escalares<br />

não-negativos com ∑ r<br />

k=1 λ k = 1. De fato, esta exigência é<br />

necessária<br />

∑<br />

apenas para garantir que se x 1 ,...,x r ∈ Δ i ,então<br />

r<br />

k=1 λ k · x k ∈ Δ i .<br />

[13] Suponha que a estratégia pura s ik do jogador g i seja estritamente<br />

dominada por uma estratégia mista<br />

p ′ i =(p ′ i1,...,p ′ ik,...,p ′ im i<br />

) ∈ Δ mi .


159<br />

Vamos mostrar que se p i =(p i1 ,...,p ik ,...,p imi )éumaoutra<br />

estratégia mista do jogador g i com p ik > 0, então p i também<br />

é estritamente dominada. Como s ik éestritamentedominada<br />

por p ′ i , segue-se que<br />

u i (p ′ i ,s −i) >u i (s ik ,s −i ), ∀s −i ∈ S −i .<br />

Assim,<br />

u i (p i ,s −i )<br />

(∗)<br />

=<br />

=<br />

<<br />

∑m i<br />

r=1<br />

m i<br />

p ir · u i (s ir ,s −i )<br />

∑<br />

p ir · u i (s ir ,s −i )+p ik · u i (s ik ,s −i )<br />

r=1<br />

r≠k<br />

∑m i<br />

r=1<br />

r≠k<br />

p ir · u i (s ir ,s −i )+p ik · u i (p ′ i,s −i ),<br />

onde, em (∗), usamos a propriedade 2.4 da página 31. Mas, por<br />

esta mesma propriedade,<br />

Conseqüentemente,<br />

∑m i<br />

r=1<br />

r≠k<br />

∑m i<br />

r=1<br />

r≠k<br />

u i (p ′ i ,s −i) =<br />

∑m i<br />

r ′ =1<br />

u i (p i ,s −i )<br />

<<br />

p ir · u i (s ir ,s −i )+p ik ·<br />

=<br />

p ′ ir ′ · u i(s ir ′,s −i ).<br />

∑m i<br />

r ′ =1<br />

p ′ ir ′ · u i(s ir ′,s −i )<br />

(p ir + p ik · p ′ ir) · u i (s ir ,s −i )+p ik · p ′ ik · u i (s ik ,s −i )<br />

∑m i<br />

r=1<br />

=<br />

p ′′<br />

ir · u i(s ir ,s −i ),


160 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

onde os coeficientes p ′′<br />

ir são definidos por<br />

{<br />

p ′′<br />

ir = pir + p ik · p ′ ir , se r ≠ k,<br />

p ik · p ′ ik<br />

, se r = k.<br />

Como p ′′<br />

ir ≥ 0paratodor =1,...,m i e ∑ m i<br />

r=1 p′′ ir =1,segue-se<br />

que p ′′<br />

i =(p ′′<br />

i1 ,...,p′′ ir ,...,p′′ im i<br />

)é uma distribuição de probabilidades<br />

e, sendo assim,<br />

∑m i<br />

u i (p i ,s −i ) < p ′′<br />

ir · u i(s ir ,s −i )=u i (p ′′<br />

i ,s −i), ∀s −i ∈ S −i .<br />

r=1<br />

Isto mostra que a estratégia mista p i éestritamentedominada<br />

pela estratégia mista p ′′<br />

i .<br />

[14] Para o dilema dos prisioneiros, as funções de melhor resposta<br />

são dadas por:<br />

MR Bob (p) = argmax q∈[0,1] ((4 p +1)q − (9 p +1))={1},<br />

MR Al (q) = argmax p∈[0,1] ((4 q +1)p − (9 q +1))={1}.<br />

A partir das representações gráficas destas funções (Figura C.1),<br />

vemos que o único equilíbrio de Nash em estratégias mistas do<br />

jogo éoperfil(1, 0; 1, 0), que corresponde ao único ponto de<br />

interseção (p ∗ ,q ∗ )=(1, 1) das duas representações gráficas.<br />

Para o jogo de comparar moedas, as funções de melhor resposta<br />

são dadas por:<br />

MR 2 (p) = argmax q∈[0,1] (2 (+1 − 2 p) q − 1+2p)<br />

⎧<br />

⎨ {1}, se p ∈ [0, 1/2),<br />

= [0, 1], se p =1/2,<br />

⎩<br />

{0}, se p ∈ (1/2, 1],<br />

MR 1 (q) = argmax p∈[0,1] (2 (−1+2q) p +1− 2 q)<br />

⎧<br />

⎨ {0}, se q ∈ [0, 1/2),<br />

= [0, 1], se q =1/2,<br />

⎩<br />

{1}, se q ∈ (1/2, 1].<br />

A partir das representações gráficas destas funções (Figura C.2),<br />

vemos que o único equilíbrio de Nash em estratégias mistas do


161<br />

(Bob)<br />

q<br />

(Confessar)<br />

1<br />

(Negar)<br />

0<br />

1 p (Al)<br />

(Negar)<br />

(Confessar)<br />

Figura C.1: Calculando os equilíbrios de Nash usando as representações<br />

gráficas das duas funções de melhor resposta.<br />

jogo éoperfil(1/2, 1/2; 1/2, 1/2), que corresponde ao único<br />

ponto de interseção (p ∗ ,q ∗ )=(1/2, 1/2) das duas representações<br />

gráficas.<br />

[15] Um equilíbrio de Nash não pode por probabilidade positiva em<br />

uma estratégia pura que é estritamente dominada. De fato:<br />

suponha, por absurdo, que p ∗ =(p ∗ i , p∗ −i ) seja um equilíbrio<br />

de Nash com p ∗ i =(p∗ i1 ,...,p∗ ik 1<br />

,...,p ∗ ik 2<br />

,...,p ∗ im i<br />

)ep ∗ ik 1<br />

> 0,<br />

onde s ik1 éumaestratégia pura estritamente dominada por s ik2 .<br />

Defina agora p • i =(p ∗ i1 ,...,0,...,p∗ ik 1<br />

+ p ∗ ik 2<br />

,...,p ∗ im i<br />

). Note<br />

que p • i ∈ Δ(S i)eu i (p • i , p∗ i ) >u i(p ∗ i , p∗ i ), contradizendo o fato<br />

de p ∗ =(p ∗ i , p∗ −i ) ser um equilíbrio de Nash. Um equilíbrio de<br />

Nash pode por probabilidade positiva em uma estratégia pura<br />

fracamente dominada. No jogo abaixo,<br />

g 2<br />

s 21 s 22<br />

g 1<br />

s 11 (12, 10) (28, 26)<br />

s 12 (20, 46) (20, 46)<br />

,


162 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

(g ) 2<br />

q<br />

(s ) 21<br />

1<br />

1/2<br />

(s ) 22<br />

0<br />

(s ) 12<br />

1/2 1 p<br />

(s ) 11<br />

(g ) 1<br />

Figura C.2: Calculando os equilíbrios de Nash usando as representações<br />

gráficas das duas funções de melhor resposta.<br />

o perfil de estratégias mistas (0, 1; 1/2, 1/2) é um equilíbrio de<br />

Nash que põe probabilidade p 21 =1/2 > 0naestratégia s 21<br />

e s 21 é fracamente dominada pela estratégia s 22 .<br />

[16] O perfil de estratégias puras s ∗ = (confessar, confessar) não é<br />

Pareto eficiente pois, se s • = (negar, negar) étalqueu Al (s • )=<br />

−1 > −5 =u Al (s • )eu Bob (s • )=−1 > −5 =u Bob (s • ).<br />

Capítulo 3<br />

[01] (a) Considere Δ = [0, 1] e F: Δ→ Δcujográfico édadona<br />

Figura C.3.<br />

(b) Considere Δ = (0, 1) e F: Δ→ Δcujográfico édadona<br />

Figura C.4.<br />

(c) Considere Δ = [0, 1/3] ∪ [2/3, 1] e F: Δ→ Δcujográfico é<br />

dado na Figura C.5.


163<br />

y<br />

1<br />

1/2<br />

0 1/2<br />

1<br />

x<br />

Figura C.3: Gráfico do item (a).<br />

y<br />

1<br />

2/3<br />

0 1/3<br />

1<br />

x<br />

Figura C.4: Gráfico do item (b).


164 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

y<br />

1<br />

2/3<br />

1/3<br />

0 1/3 2/3<br />

1<br />

x<br />

Figura C.5: Gráfico do item (c).<br />

y<br />

1<br />

3/4<br />

1/4<br />

0 1/2<br />

1<br />

x<br />

Figura C.6: φ não possui ponto fixo.


165<br />

[02] Conforme a Figura C.6 na página 164, um exemplo é obtido<br />

tomando-se X =[0, 1] e<br />

⎧<br />

⎨[3/4, 1], se 0 ≤ x


166 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

(problema dual)<br />

minimizar x 1 + x 2<br />

sujeito a 3 x 1 + x 2 ≥ 1,<br />

x 1 +3x 2 ≥ 1,<br />

x 1 ≥ 0,<br />

x 2 ≥ 0.<br />

Asolução do problema dual é(x ∗ 1 ,x∗ 2 )=(1/4, 1/4) e a solução<br />

do problema primal é(y1,y ∗ 2)=(1/4, ∗ 1/4). Se<br />

θ = x ∗ 1 + x∗ 2 = y∗ 1 + y∗ 2 = 1 2 ,<br />

segue-se que o único equilíbrio de Nash do jogo de comparar<br />

moedas é dado por (p ∗ , q ∗ ), onde<br />

p ∗ = (x∗ 1,x ∗ 2)<br />

θ<br />

( 1<br />

=<br />

2 , 1 2)<br />

e q ∗ = (y∗ 1,y ∗ 2)<br />

θ<br />

=<br />

( 1<br />

2 , 1 2)<br />

.<br />

[03] Considere o seguinte jogo matricial geral de ordem 2 × 2:<br />

[ ]<br />

a b<br />

A = .<br />

d c<br />

Se existe um ponto de sela, basta usarmos os resultados da Subseção<br />

4.3.2 para encontrar um equilíbrio de Nash do jogo. Suponha<br />

então que a matriz A não possua pontos de sela. Desta<br />

maneira, o jogo possui apenas equilíbrios de Nash<br />

(p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )<br />

totalmente mistos, isto é, com 0


167<br />

ou a>b, bde d


168 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

v<br />

*<br />

5<br />

v* ={7p* +5<br />

v* =8p* {3<br />

Coluna 2<br />

1<br />

v* ={2p* +1<br />

v* =3p* {2<br />

Coluna 3<br />

0 1 p<br />

{ 1<br />

Coluna 1<br />

*<br />

{ 2<br />

Coluna 4<br />

{ 3<br />

Figura C.7: Envelope inferior.<br />

isto é, ⎧⎪ ⎨<br />

⎪ ⎩<br />

v ∗ ≤ −2 p ∗ +1,<br />

v ∗ ≤ 8 p ∗ − 3,<br />

v ∗ ≤ 3 p ∗ − 2,<br />

v ∗ ≤ −7 p ∗ +5.<br />

(C.1)<br />

As funções afins v ∗ = −2 p ∗ +1, v ∗ =8p ∗ − 3, v ∗ =3p ∗ − 2<br />

e v ∗ =3p ∗ − 2 representam os ganhos médios do jogador linha<br />

quando ele escolhe a distribuição de probabilidades (p ∗ , 1−p ∗ )e<br />

o jogador coluna escolhe as colunas 1, 2, 3 e 4, respectivamente.<br />

Os gráficos destas funções para 0 ≤ p ∗ ≤ 1estão desenhados na<br />

Figura C.7.<br />

Para um valor fixo de p ∗ , o jogador linha está seguro de que seu<br />

ganho médio é pelo menos o mínimo destas quatro funções calculadas<br />

em p ∗ ,oenvelope inferior destas quatro funções. Como<br />

o jogador linha pretende maximizar os seus ganhos médios,


169<br />

então ele precisa encontrar p ∗ queatingeomáximo deste envelope<br />

inferior. De acordo com a Figura C.7, o máximo ocorre<br />

justamente na interseção das retas v ∗ = −2 p ∗ +1 e v ∗ =3p ∗ −2,<br />

as quais representam, respectivamente, as colunas 1 e 3 do jogador<br />

coluna. Deste modo, uma solução do jogo 2 × 4original<br />

pode ser obtida estudando-se o jogo 2 × 2 definido pela matriz<br />

R =<br />

[<br />

−1 +1<br />

+1 −2<br />

O valor deste jogo é v ∗ = −1/5 parap ∗ =3/5 eq ∗ =3/5.<br />

Assim, um equilíbrio de Nash do jogo original é dado por<br />

( 3<br />

(p ∗ , 1 − p ∗ ; q ∗ , 0, 1 − q ∗ , 0) =<br />

5 , 2 5 ; 3 5 , 0, 2 )<br />

5 , 0 .<br />

Naturalmente, a técnica aqui descrita pode ser aplicada para<br />

qualquer jogo de soma zero com matriz A de tamanho 2 × n.<br />

[05] Lembre-se que u l (p, q) =p T Aq e u l (p, q) =−p T Aq. Sejam<br />

e k ∗ e e l ∗ tais que<br />

min u l(p ∗ , e l )=u l (p ∗ , e l ∗)<br />

1≤l≤n<br />

e<br />

max (−u c(e k , q ∗ )) = −u c (e k ∗, q ∗ ),<br />

1≤k≤m<br />

isto é, p ∗T Ae l ≥ p ∗T Ae l ∗ para todo l e e T k Aq∗ ≤ e T k ∗Aq∗ para<br />

todo k. Destamaneira,<br />

e T k Aq∗ ≤ e T k ∗Aq∗ = −(−p ∗T Ae l ∗)=p ∗T Ae l ∗ ≤ p ∗T Ae l ,<br />

para todo k =1,...,me l =1,...,n. Por linearidade, segue-se<br />

que<br />

p T Aq ∗ ≤ p ∗T Aq,<br />

para todo p ∈ Δ m e q ∈ Δ n .Emparticular,p T Aq ∗ ≤ p ∗T Aq ∗<br />

e p ∗T Aq ∗ ≤ p ∗T Aq, istoé, u l (p, q ∗ ) ≤ u l (p ∗ , q ∗ )eu c (p ∗ , q) ≤<br />

u c (p ∗ , q ∗ )paratodop ∈ Δ m e q ∈ Δ n . Istomostraque(p ∗ , q ∗ )<br />

é um equilíbrio de Nash do jogo.<br />

]<br />

.


170 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

Para a matriz A de tamanho 4 × 5 do enunciado, temos que<br />

u l (p ∗ , e 1 )= 121<br />

37 , u l(p ∗ , e 2 )= 121<br />

37 , u l(p ∗ , e 3 )= 160<br />

37 ,<br />

u l (p ∗ , e 4 )= 121 e u l (p ∗ , e 5 )= 169<br />

37<br />

37 ,<br />

e<br />

u c (e 1 , q ∗ )= 121<br />

37 , u c(e 2 , q ∗ )= 121<br />

37 , u c(e 3 , q ∗ )= 120 e<br />

37<br />

u c (e 4 , q ∗ )= 121<br />

37 ,<br />

de modo que<br />

min u l(p ∗ , e l ) = 121/37 = max (−u c(e k , q ∗ )) = 121/37.<br />

1≤l≤n 1≤k≤m<br />

Pelo resultado acima, isto mostra que (p ∗ , q ∗ )é um equilíbrio<br />

de Nash do jogo.<br />

[06] Seja M = ∑ n<br />

l=1 a il = ∑ n<br />

k=1 a kj a constante obtida pela soma<br />

de qualquer linha ou coluna. Defina<br />

( 1<br />

p ∗ = q ∗ =<br />

n n)<br />

,..., 1 ∈ Δ n .<br />

∑<br />

Observe que, para todo k, l ∈{1,...,n}, u l (p ∗ , e l )=p ∗ Ae l =<br />

n<br />

i=1 p∗ i a il = p ∗ ∑ n<br />

i i=1 a il = M/n e u c (e k , q ∗ ) = −e k Aq ∗ =<br />

− ∑ n<br />

j=1 a kjqj ∗ = ∑ n −q∗ j j=1 a kj = −M/n. Portanto,<br />

min u l(p ∗ , e l )= M<br />

1≤l≤n n = max (−u c(e k , q ∗ )).<br />

1≤k≤m<br />

Pelo resultado do exercício anterior, concluímos que (p ∗ , q ∗ )é<br />

um equilíbrio de Nash do jogo. Para o caso do quadrado mágico<br />

da gravura Melancolia I de Albrecht Dürer,<br />

( 1<br />

p ∗ = q ∗ =<br />

4 , 1 4 , 1 4 , 1 4)<br />

e o valor do jogo é v ∗ =34/4 =17/2.


171<br />

[07] Se (p ∗ , q ∗ )é um equilíbrio de Nash totalmente misto, então,<br />

pelas relações 4.5,<br />

n∑<br />

a ij qj ∗ = v ∗ ,<br />

j=1<br />

∀i ∈{1,...,n}.<br />

Estas equações podem ser escritas usando-se matrizes da seguinte<br />

maneira: Aq ∗ = v ∗ ½. Como, por hipótese, A éuma<br />

matriz inversível, segue-se que q ∗ = v ∗ A −1 ½. Agora,<br />

n∑<br />

qj ∗ =1 ⇒ 1=½ T q ∗ = v ∗ ½ T A½ ⇒ v ∗ 1<br />

=<br />

½ T A −1 ½ .<br />

j=1<br />

Sendo assim,<br />

q ∗ =<br />

A−1 ½<br />

½ T A −1 ½ .<br />

Do mesmo modo, pelas relações 4.6,<br />

n∑<br />

p ∗ i a ij = v ∗ ,<br />

i=1<br />

∀j ∈{1,...,n}.<br />

Estas equações podem ser escritas usando-se matrizes da seguinte<br />

maneira: p ∗T Aq ∗ = v ∗ ½. Como, por hipótese, A éuma<br />

matriz inversível, segue-se que p ∗ = v ∗ ½A −1 e, assim,<br />

Capítulo 5<br />

p ∗ =<br />

½A−1<br />

½ T A −1 ½ .<br />

[01] O equilíbrio de Nash em estratégias puras obtido por indução<br />

retroativa é<br />

((Parar, Parar), (Parar, Parar)).<br />

Este equilíbrio não é Pareto eficiente pois, em comparação com<br />

o perfil acima,<br />

((Continuar, Continuar), (Continuar, Continuar))<br />

dá um ganho maior para os dois jogadores.


172 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />

[02] O equilíbrio de Nash em estratégias puras obtido por indução<br />

retroativa é<br />

(Não confiar, Trair).<br />

Este equilíbrio não é Pareto eficiente pois, em comparação com<br />

o perfil acima,<br />

(Confiar, Honrar)<br />

dá um ganho maior para os dois jogadores.


Referências<br />

Bibliográficas<br />

[01] K. R. Apt, Uniform Proofs of Order Independence for Various<br />

Strategy Elimination Procedures. Contributions to Theoretical<br />

Economics, vol. 4, no. 1, article 5, 48 páginas, 2004.<br />

[02] R. Aumann, What Is Game Theory Trying to Accomplish?.<br />

Em Frontiers of Economics, K. Arrow, S. Honkapohja e<br />

B. Blackwell (editores), pp. 28-76, 1985.<br />

[03] R. Avenhaus, M. Canty, D. M. Kilgour, B. von Stengel, S. Zamir,<br />

Inspection Games in Arms Control. European Journal of<br />

Operational Research, vol. 90, no. 3, pp. 383-394, 1996.<br />

[04] G. S. Becker, Crime and Punishment: An Economic Approach.<br />

Journal of Politial Economy, vol 79, pp. 169-217, 1968.<br />

[05] A. T. Benjamin e A. J. Goldman, Analysis of the N-Card<br />

Game Le Her. Journal of Optimization Theory and Applications,<br />

vol. 114, no. 3, pp. 695–704, 2002.<br />

[06] J. Bertrand. Theorie Mathematique de la Richesse Sociale.<br />

Journal des Savants, pp. 499-508, 1883.<br />

[07] E. Borel, The Theory of Play and Integral Equations with Skew<br />

Symmetric Kernels. Econometrica, vol. 21, no. 1, pp. 97-100,<br />

1953. Originalmente publicado em: Comptes Rendus Hebdomadaires<br />

des Seances de l’Academie des Sciences, 1921.<br />

173


174<br />

REFERÊNCIAS BIBLIOGRÁFICAS<br />

[08] E. Borel, On Games that Involve Chance and the Skill of the<br />

Players. Econometrica, vol. 21, no. 1, pp. 101-115, 1953. Originalmente<br />

publicado em: Elements de la Théorie des Probabilités,<br />

1924.<br />

[09] T. Börgers, Pure Strategy Dominance. Econometrica, vol. 61,<br />

no. 1, pp. 423-430, 1993.<br />

[10] S. J. Brams e D. M. Kilgour, Game Theory and National Security.<br />

Basil Blackwell, 1988.<br />

[11] F. Brandt, F. Fischer e Y. Shoham, On Strictly Competitive<br />

Multi-Player Games. Proceedings of the 21st National Conference<br />

on Artificial Intelligence (AAAI), AAAI Press, pp. 605-<br />

612, 2006.<br />

[12] J. N. Brown e R. W. Rosenthal, Testing The Minimax Hypothesis:<br />

A Re-Examination of O’Neill’s Game Experiment.<br />

Econometrica, vol 58, no. 5, pp. 1065-1081, 1990.<br />

[13] L. I. de Castro e J. H. Faro, Introdução àTeoriadaEscolha.<br />

25 o Colóquio Brasileiro de Matemática, IMPA, 2005.<br />

[14] V. Chvátal, Linear Programming. W. H. Freeman and Company,<br />

1983.<br />

[15] Y. C. Chen, N. Y. Long e X. Luo, Iterated Strict Dominance<br />

in General Games. CIRANO Working Papers, 2007s-03, 2007.<br />

[16] S.-F. Cheng e M. P. Wellman, Iterated Weaker-Than-Weak<br />

Dominance Twentieth International Joint Conference on Artificial<br />

Intelligence, Hyderabad, India, pp. 1233-1238, 2007.<br />

[17] P. A. Chiappori, S. Levitt e T. Groseclose, Testing Mixed-<br />

Strategy Equilibria When Players Are Heterogeneous: The Case<br />

of Penalty Kicks in Soccer. The American Economic Review,<br />

vol. 92, no. 4, pp. 1138-1151, 2002.<br />

[18] V. Conitzer e T. Sandholm, Complexity of (Iterated) Dominance.<br />

Proceedings of the 6th ACM Conference on Electronic<br />

Commerce, pp. 88–97, 2005.


REFERÊNCIAS BIBLIOGRÁFICAS 175<br />

[19] A. A. Cournot, Recherches sur les Principes Mathématiques de<br />

la Théorie des Richesses, 1838. Traduzido por N. T. Bacon em<br />

Researches into the Mathematical Principles of the Theory of<br />

Wealth, McMillan, New York, 1927.<br />

[20] R. S. Datta, Algebraic Methods in Game Theory. Tesededoutorado,<br />

Departamento de Matemática, University of California<br />

at Berkeley, 2003.<br />

[21] R. S. Datta, Using Computer Algebra To Find Nash Equilibria.<br />

International Conference on Symbolic and Algebraic Computation,<br />

Proceedings of the 2003 International Symposium on<br />

Symbolic and Algebraic Computation, pp. 74-79, 2003.<br />

[22] R. S. Datta, Finding All Nash Equilibria of a Finite Game<br />

Using Polynomial Algebra. Artigo aceito para publicação, The<br />

Journal of Economic Theory, 2007. Disponível eletronicamente<br />

em: http://arxiv.org/abs/math.AC/0612462.<br />

[23] G. Debreu, A Social Equilibrum Existence Theorem. Proceedings<br />

of the National Academy of Sciences of the United States<br />

of America (PNAS), vol. 38, no. 10, pp. 886-893, 1952.<br />

[24] G. Debreu, Existence of Competitive Equilibrium. EmHandbook<br />

of Mathematical Economics, vol. II, K. J. Arrow e M. D.<br />

Intriligator (editores), North-Holland, pp. 697-743, 1982.<br />

[25] M. Dresher, Games of Strategy: Theory and Applications.<br />

Prentice-Hall, Englewood Cliffs, 1961.<br />

[26] M. Dufwenberg e M. Stegeman, Existence and Uniqueness of<br />

Maximal Reductions Under Iterated Strict Dominance. Econometrica,<br />

vol. 70, n. 5, pp. 2007–2023, 2002.<br />

[27] K. Etessami, Algorithmic Game Theory and Aplications. Lecture<br />

Notes, School of Informatics, The University of Edinburgh,<br />

Scotland, UK, 2004.<br />

[28] A. Fabrikant, A. Luthra, E. Maneva, C. H. Papadimitriou e<br />

S. Shenker, On a Network Creation Game. Annual ACM Symposium<br />

on Principles of Distributed Computing, Proceedings


176<br />

REFERÊNCIAS BIBLIOGRÁFICAS<br />

of the Twenty-Second Annual Symposium on Principles of Distributed<br />

Computing, pp. 347–351, 2003.<br />

[29] J. W. Friedman, Game Theory with Aplications to Economics,<br />

Second Edition. Oxford University Press, 1990.<br />

[30] D. Fudenberg e D. K. Levine, The Theory of Learning in<br />

Games. The MIT Press, 1996.<br />

[31] D. Fudenberg e J. Tirole, Game Theory. The MIT Press, 1995.<br />

[32] I. Gilboa, E. Kalai e E. Zemel, On the Order of Eliminating<br />

Dominated Strategies. Operations Research Letters, vol. 9,<br />

pp. 85–89, 1990.<br />

[33] I. Gilboa, E. Kalai e E. Zemel, The Complexity of Eliminating<br />

Dominated Strategies, Mathematics of Operations Research,<br />

vol. 18, no. 3, pp. 553–565, 1993.<br />

[34] I. L. Glicksberg, A Further Generalization of the Kakutani<br />

Fixed Point Theorem, with Application to Nash Equilibrium<br />

Points, Proceedings of the American Mathematical Society,<br />

vol. 3, no. 1, pp. 170-174, 1952.<br />

[35] S. Govindan e R. Wilson, Direct Proofs of Generic Finiteness<br />

of Nash Equilibrium Outcomes. Econometrica, vol. 69, no. 3,<br />

pp. 765-769, 2001.<br />

[36] F. Gül, D. Pearce, E. Stacchetti, A Bound on The Proportion<br />

of Pure Strategy Equilibria in Generic Games. Mathematics of<br />

Operations Research, vol. 18, no. 3, pp. 548-552, 1993.<br />

[37] A. Hald, A History of Probability and Statistics and Their Applications<br />

before 1750. John Willey & Sons, New York, 1990.<br />

[38] G. Hardin, The Tragedy of the Commons. Science, vol 162,<br />

pp. 1243-1248, 1968.<br />

[39] J. C. Harsanyi, Games with Randomly Disturbed Payoffs: A<br />

New Rationale for Mixed Strategy. International Journal of<br />

Game Theory, vol. 2, no. 1, pp. 1-23, 1973.


REFERÊNCIAS BIBLIOGRÁFICAS 177<br />

[40] J. C. Harsanyi, Oddness of The Number of Equilibrium Points:<br />

ANewProof. International Journal of Game Theory, vol. 2,<br />

no. 1, pp. 235-250, 1973.<br />

[41] S. Hart, Games in Extensive and Strategic Forms. Capítulo 2<br />

em Handbook of Game Theory, vol.1,R.J.AumanneS.Hart<br />

(editores), Elsevier Science Publishers, 1992.<br />

[42] J. B. Hiriart-Urruty e C. Lemarechal, Convex Analysis and Minimization<br />

Algorithms I: Fundamentals. Springer-Verlag, 1993.<br />

[43] J. Hirshleifer e E. Rasmusen, Are Equilibrium Strategies Unaffected<br />

by Incentives?. Journal of Theoretical Politics, vol. 4,<br />

no. 3, pp. 353-367, 1992.<br />

[44] H. Hotelling, The Stability of Competition. The Economic Journal,<br />

vol 39, no. 153, pp. 41-57, 1929.<br />

[45] S. Kakutani, A Generalization of Brouwer’s Fixed Point Theorem.<br />

Duke Mathematical Journal, vol 8, pp. 457-459, 1941.<br />

[46] T. H. Kjeldsen, John von Neumann’s Conception of the Minimax<br />

Theorem: A Journey Through Different Mathematical<br />

Contexts. Archive for History of Exact Sciences, vol. 56, no. 1,<br />

pp. 39-68, 2001.<br />

[47] D. Knuth, C. Papadimitriou e J. Tsitsiklis, A Note on Strategy<br />

Elimination in Bimatrix Games. Operations Research Letters,<br />

vol. 7, pp. 103–107, 1988.<br />

[48] D. M. Kreps, Game Theory and Economic Modelling. Clarendon<br />

Lectures in Economics, Oxford University Press, 1990.<br />

[49] C. E. Lemke e J. T. Howson Jr., Equilibrium Points of Bimatrix<br />

Games. Journal of the Society for Industrial and Applied<br />

Mathematics, vol. 12, no. 2, pp. 413-423, 1964.<br />

[50] R. J. Leonard, From Parlor Games to Social Science: Von Neumann,<br />

Morgenstern, and the Creation of Game Theory 1928-<br />

1944. Journal of Economic Literature, vol. 33, no. 2, pp. 730-<br />

761, 1995.


178<br />

REFERÊNCIAS BIBLIOGRÁFICAS<br />

[51] R. J. Lipton e E. Markakis, Nash Equilibria via Polynomial<br />

Equations. EmLATIN 2004: Theoretical Informatics, Lectures<br />

Notes in Computer Science, Springer-Verlag, pp. 413-422, 2004.<br />

[52] D. G. Luenberger, Linear and Nonlinear Programming, Second<br />

Edition. Addision-Wesley Publishing Company, 1989.<br />

[53] W. B. MacLeod, Incentives in Organizations: An Overview of<br />

Some of the Evidence and Theory. EmTrends in Business Organization,<br />

Horst Siebert (editor), The Kiel Institute of World<br />

Economics, 1995.<br />

[54] E. Markakis, Computational Aspects of Game Theory and Microeconomics.<br />

Tese de doutorado, Faculdade de Computação,<br />

Georgia Institute of Technology, 2005.<br />

[55] L. M. Marx e J. M. Swinkels, Order Independence for Iterated<br />

Weak Dominance. Games and Economic Behavior, vol 18,<br />

pp. 219–245, 1997.<br />

[56] J. Maynard Smith e G. R. Price, The Logic of Animal Conflict.<br />

Nature, vol. 246, no. 5427, pp. 15-18, 1973.<br />

[57] K. A. McCabe, A. Mukherji e D. E. Runkle, An Experimental<br />

Study of Information and Mixed-Strategy Play in Three-Person<br />

Matching-Pennies Game. Economic Theory, vol. 15, pp. 421-<br />

462, 2000.<br />

[58] R. D. McKelvey, A Liapunov Function for Nash Equilibria. Social<br />

Science Working Paper 953, California Institute of Technology,<br />

1998.<br />

[59] R. D. McKelvey e A. McLennan, The Maximal Number of Regular<br />

Totally Mixed Nash Equilibria. Journal of Economic Theory,<br />

vol. 72, pp. 411-425, 1997.<br />

[60] A. McLennan, The Maximal Generic Number of Pure Nash<br />

Equilibria. Journal of Economic Theory, vol. 72, no. 2, pp. 408-<br />

410, 1997.


REFERÊNCIAS BIBLIOGRÁFICAS 179<br />

[61] I. Milchtaich, Congestion Games with Player-Specific Payoff<br />

Functions. Games and Economic Behavior, vol 13, n. 1,<br />

pp. 111–124, 1996.<br />

[62] P. R. Milgrom e R. J. Weber, A Theory of Auctions and Competitive<br />

Bidding. Econometrica, vol. 50, no. 5, pp. 1089-1122,<br />

1982.<br />

[63] J. Milnor, Analytic Proofs of the “Hairy Ball Theorem” and the<br />

Brouwer Fixed Point Theorem. The American Mathematical<br />

Monthly, vol. 85, no. 7, pp. 521-524, 1978.<br />

[64] K. G. Murty, Linear Complementarity, Linear and Nonlinear<br />

Programming. Heldermann-Verlag, 1988.<br />

[65] R. G. Myerson, Nash Equilibrium and the History of Economic<br />

Theory. Journal of Economic Literature, vol. 37, no. 3,<br />

pp. 1067-1082, 1999.<br />

[66] J. F. Nash Jr., Equilibrium Points in n-person Games. Proceedings<br />

of the National Academy of Sciences of the United States<br />

of America, pp. 48–49, 1950.<br />

[67] J. F. Nash Jr., Non-Cooperative Games. PhD.Thesis.Princeton<br />

University Press, 1950.<br />

[68] J. F. Nash Jr., The Bargaining Problem. Econometrica, vol. 18,<br />

no. 2, pp. 155–162, 1950.<br />

[69] J. F. Nash Jr., Non-Cooperative Games. Annals of Mathematics,<br />

vol. 54, pp. 286–295, 1951.<br />

[70] J. F. Nash Jr., Two-person Cooperative Games. Econometrica,<br />

pp. 128–140, 1953.<br />

[71] J. von Neumann. Zur Theorie der Gesellschaftsspiele. Mathematische<br />

Annalen, vol. 100, pp. 295-320. Traduzido por S.<br />

Bargmann: On the Theory of Games of Stategy em Contributions<br />

to the Theory of Games, vol. 4, pp. 13-42, A. W. Tucker<br />

e R. D. Luce (editores), Princeton University Press, 1959.


180<br />

REFERÊNCIAS BIBLIOGRÁFICAS<br />

[72] J. von Neumann e O. Morgenstern, Theory of Games and Economic<br />

Behavior. Princeton University Press, 1944.<br />

[73] B. O’Neill, Nonmetric Test of the Minimax Theory of Twoperson<br />

Zerosum Games. Proceedings of the National Academy<br />

of Sciences of the United States of America (PNAS), vol. 84,<br />

pp. 2106-2109, 1987.<br />

[74] M. J. Osborne e A. Rubinstein, A Course in Game Theory.<br />

The MIT Press, 1994.<br />

[75] R. Otter e J. Dunne, Games with Equilibrium Points. Proceedings<br />

of the National Academy of Sciences of the United States<br />

of America (PNAS), vol. 39, pp. 310-314, 1953.<br />

[76] R. Radner e R. Roshental, Private Information and Pure Strategy<br />

Equilibrium. Mathematics of Operations Research, vol. 7,<br />

pp. 401-409, 1982.<br />

[77] A. Rapoport e R. B. Boebel, Mixed Strategies in Strictly Competitive<br />

Games: A Further Test of The Minimax Hypothesis.<br />

Games and Economic Behaviour, vol. 4, no. 2, pp. 261-283,<br />

1992.<br />

[78] P. J. Reny, On The Existence of Pure and Mixed Strategy Nash<br />

Equilibria in Discontinuous Games. Econometrica, vol. 67,<br />

no. 5, pp. 1029-1056, 1999.<br />

[79] C. A. Rogers, A Less Strange Version of Milnor’s Proof of<br />

Brouwer’s Fixed-Point Theorem. The American Mathematical<br />

Monthly, vol. 87, no. 7, pp. 525-527, 1980.<br />

[80] R. W. Rosenthal, A Class of Games Possessing Pure-Strategy<br />

Nash Equilibria. International Journal of Game Theory, vol. 2,<br />

n. 1, pp. 65–67, 1973.<br />

[81] A. Rubinstein, Comments On The Interpretation of Game Theory.<br />

Econometrica, vol. 59, no. 4, pp. 909-924, 1991.<br />

[82] B. W. Russell, Common Sense and Nuclear Warfare. George<br />

Allen & Unwin, 1959.


REFERÊNCIAS BIBLIOGRÁFICAS 181<br />

[83] T. L. Saaty, Mathematical Models of Arms Control and Disarmament:<br />

Application of Mathematical Structures in Politics.<br />

John Wiley & Sons, 1968.<br />

[84] R. Savani e B. von Stengel, Exponentially Many Steps for Finding<br />

a Nash Equilibrium in a Bimatrix Game. CDAM Research<br />

Report LSE-CDAM-2004-03, 2004.<br />

[85] T. C. Schelling, The Strategy of Conflict. Oxford University<br />

Press, 1968.<br />

[86] U. Schwalbe e P. Walker, Zermelo and the Early History of<br />

Game Theory. Games and Economic Behavior, vol. 34, no. 1,<br />

pp. 123-137, 2001.<br />

[87] L. S. Shapley, A Note on the Lemke-Howson Algorithm.<br />

Mathematical Programming Study I: Pivoting and Extensions,<br />

pp. 175-189, 1974.<br />

[88] H. von Stackelberg, Marktform und Gleichgewicht. Julius<br />

Springer, 1934.<br />

[89] T. Stuckless, Brouwer’s Fixed Point Theorem: Methods of<br />

Proof and Generalizations. Dissertação de mestrado, Departamento<br />

de Matemática, Simon Fraser University, 2003.<br />

[90] I. Todhunter, A History of the Mathematical Theory of Probability.<br />

Chelsea, New York, 1949.<br />

[91] J. P. Torres-Martínez, Fixed Points as Nash equilibria. Fixed<br />

Point Theory and Applications, vol. 2006, 4 páginas, 2006.<br />

[92] G. Tsebelis, The Abuse of Probability In Political Analysis: The<br />

Robison Crusoe Fallacy. The American Political Science Review,<br />

vol. 83, no. 1, pp. 77-91, 1989.<br />

[93] G. Tsebelis, Are Sanctions Effective? A Game-Theoretic<br />

Analysis. The Journal of Conflict Resolution, vol. 34, no. 1,<br />

pp. 3-28, 1990.


182<br />

REFERÊNCIAS BIBLIOGRÁFICAS<br />

[94] A. Vetta, Nash Equilibria in Competitive Societies, with Applications<br />

to Facility Location, Traffic Routing and Auctions.<br />

Proceedings of the 43rd Annual IEEE Symposium on Foundations<br />

of Computer Science (FOCS’02), IEEE Computer Society,<br />

pp. 416–425, 2002.<br />

[95] N. N. Vorob’ev, Foundations of Game Theory: Noncooperative<br />

Games. Birkhäuser Verlag, 1994.<br />

[96] P. Walker, A Chronology of Game Theory. http://www.econ.<br />

canterbury.ac.nz/personal pages/paul walker/gt/hist<br />

.htm, 2005.<br />

[97] R. Wilson, Computing Equilibria of N-Person Games. SIAM<br />

Journal on Applied Mathematics, vol. 21, no 1, 1971.<br />

[98] E. Zermelo, Über eine Anwendung der Mengdenlehre auf die<br />

theories des Schachspiels. AtasdoDécimo Quinto Congresso<br />

Internacional de Matemáticos, vol. 2, pp. 501–504, 1913.<br />

[99] J. Zhao, The Equivalente Between Four Economic Theorems<br />

andBrouwer’sFixedPointTheorem. Working paper, Department<br />

of Economics, Iowa State University, 2002.


Índice<br />

Árvore, 109<br />

Bernoulli, Nicholas, 5, 126<br />

Bertrand<br />

Modelo de duopólio, 129<br />

Binmore, Kenneth, 119<br />

Borel, Émile, 6<br />

Combinação convexa, 31, 138<br />

Complementaridade Linear, 102<br />

Conjunto<br />

admissível de um PL, 145<br />

convexo, 137<br />

Cournot<br />

Augustin, 5<br />

Modelo de duopólio, 126<br />

de Montmort, Pierre Rémond,<br />

126<br />

Dominância<br />

em estratégias mistas, 32<br />

em estratégias puras, 14<br />

estrita iterada, 15, 34<br />

fraca iterada, 18<br />

Dürer, Albrecht, 107<br />

Eficiência de Pareto, 59<br />

Equilíbrio<br />

de estratégia estritamente<br />

dominante, 15, 35<br />

de estratégia fracamente dominante,<br />

18<br />

de Nash, 20, 110<br />

em estratégias mistas, 35<br />

perfeito em subjogos, 117<br />

Espaço de estratégias<br />

mistas, 29<br />

puras, 11<br />

Estratégia<br />

de um jogo sequêncial, 109<br />

mista, 27<br />

suporte, 80<br />

pura, 11<br />

totalmente mista, 69<br />

Folgas complementares, 102<br />

Folha de uma árvore, 109<br />

Forma<br />

normal, 11<br />

padrão de um PL, 146<br />

Função<br />

côncava, 139<br />

convexa, 139<br />

de melhor reposta, 22<br />

objetivo de um PL, 145<br />

quase-côncava, 142<br />

quase-convexa, 142<br />

183


184 ÍNDICE<br />

utilidade, 11<br />

esperada, 30<br />

Gambit, 104<br />

Ganho, 10<br />

Hardin, Garret, 134<br />

Harsanyi, John, 9<br />

Indução retroativa, 114<br />

Informação perfeita, 108<br />

Jogo<br />

a batalha dos sexos, 13<br />

bimatricial, 101<br />

Chicken, 52<br />

comparar moedas, 21<br />

da centopéia, 119<br />

da confiança, 119<br />

da inspeção, 42<br />

de informação perfeita, 108<br />

de soma zero, 82<br />

2 × 2, 106<br />

2 × n, 169<br />

matriz inversível, 107<br />

quadrado mágico, 107<br />

do covarde, 52<br />

estratégico, 11<br />

estritamente competitivo,<br />

82<br />

hawk-dove, 54<br />

Le Her, 120<br />

na forma extensa, 108<br />

na forma normal, 11<br />

não-cooperativo, 11<br />

o dilema do prisioneiro, 11<br />

quadrado mágico, 107<br />

sequêncial, 108<br />

Kalmar, Laszlo, 6<br />

Le Her, 120<br />

Lloyd, William Forster, 133<br />

Market-clearing, 127<br />

Matriz de payoffs,12<br />

Melhor resposta, 22<br />

Método simplex, 149<br />

Modelo de Duopólio<br />

de Bertrand, 129<br />

de Cournot, 126<br />

de Stackelberg, 131<br />

Montmort, Pierre Rémond, 5<br />

Morgenstern, Oskar, 8<br />

Nash<br />

Equilíbrio de<br />

em estratégias mistas, 35<br />

em estratégias puras, 20<br />

Nash Jr., John Forbes, 9, 60<br />

Nó deumaárvore, 109<br />

Ótimo de Pareto, 59<br />

Pareto, eficiência de, 59<br />

Payoff ,10<br />

Perfil de estratégias<br />

mistas, 29<br />

puras, 11<br />

Politopo, 138<br />

Ponto<br />

extremo, 148<br />

fixo, 60, 65<br />

Problema<br />

de complementaridade linear,<br />

102<br />

dual, 150<br />

dual de um LP, 150


ÍNDICE 185<br />

primal de um LP, 150<br />

Produto homogêneo, 126<br />

Proposição da Irrelevância do Payoff,<br />

47<br />

básica de um PL, 148<br />

de folga de um PL, 146<br />

von Neumann, John, 7<br />

von Stackelberg, Heinrich, 131<br />

Quadrado mágico, 107<br />

Raiz de uma árvore, 109<br />

Ramo de uma árvore, 109<br />

Rosenthal, Robert W., 119<br />

Russell, Bertrand, 52<br />

Waldegrave, James, 5, 126<br />

Whitehead, Alfred North, 134<br />

Zermelo, Ernst, 6<br />

Selten, Reinhard, 9, 117<br />

Semiespaço, 138<br />

Semiplano, 138<br />

Simplex, 149<br />

Solução<br />

básica de um PL, 148<br />

Solução estratégica, 20<br />

Stackelberg<br />

Modelo de duopólio, 131<br />

Subjogo, 116<br />

Suporte, 80<br />

Teorema<br />

do ponto fixo de Brouwer,<br />

60<br />

do ponto fixo de Kakutani,<br />

65<br />

forte de dualidade, 152<br />

fraco de dualidade, 152<br />

fundamental da programação<br />

linear, 148<br />

Tucker, Albert W., 11<br />

Utilidade, 11<br />

esperada, 30<br />

Variável

Hooray! Your file is uploaded and ready to be published.

Saved successfully!

Ooh no, something went wrong!