You also want an ePaper? Increase the reach of your titles
YUMPU automatically turns print PDFs into web optimized ePapers that Google loves.
<strong>UMA</strong> <strong>INTRODUÇÃO</strong> <strong>ÀTEORIA</strong><br />
<strong>ECONÔMICA</strong> <strong>DOS</strong> <strong>JOGOS</strong><br />
Humberto José Bortolossi<br />
Universidade Federal Fluminense<br />
Gilmar Garbugio<br />
Universidade Federal Fluminense<br />
Brígida Sartini<br />
Universidade Federal Rural do Rio de Janeiro<br />
VERSÃO 1.1.2<br />
2 de fevereiro de 2017<br />
Por favor, envie suas sugestões, correções e críticas para<br />
hjbortol@vm.uff.br, gilmarg@id.uff.br e brigida.sartini@gmail.com.
À minha esposa Joselí eà minha filha Hillary Winry.<br />
H. J. B.<br />
À minha mãe Rita e aos meus irmãos Humberto e Reginaldo.<br />
B. A. S.<br />
Aos meus pais Orlando e Iraci e aos meus irmãos Roseli, Rosinei,<br />
Rosana, Carla, Andréia e Reginaldo.<br />
G. G.
Sumário<br />
Prefácio 3<br />
1 Alguns marcos históricos 5<br />
2 Jogos na forma estratégica 10<br />
2.1 O que é um jogo? . . . . . . . . . . . . . . . . . . . . . 10<br />
2.2 Soluções de um jogo em estratégias puras . . . . . . . 13<br />
2.2.1 Dominância em estratégiaspuras........ 14<br />
2.2.2 Equilíbrio de Nash em estratégias puras . . . . 20<br />
2.2.3 Relações entre dominância e equilíbrio de Nash 24<br />
2.3 Estratégias mistas . . . . . . . . . . . . . . . . . . . . 27<br />
2.4 Soluções de um jogo em estratégias mistas . . . . . . . 31<br />
2.4.1 Dominância em estratégias mistas . . . . . . . 32<br />
2.4.2 Equilíbrio de Nash em estratégias mistas . . . . 35<br />
2.4.3 Relações entre dominância e equilíbrio de Nash 45<br />
2.4.4 Como interpretar estratégias mistas? . . . . . . 45<br />
2.5 Jogos infinitos . . . . . . . . . . . . . . . . . . . . . . . 48<br />
2.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 50<br />
3 O teorema de equilíbrio de Nash 60<br />
3.1 Usando o teorema de Brouwer . . . . . . . . . . . . . . 60<br />
3.2 Usando o teorema de Kakutani . . . . . . . . . . . . . 65<br />
3.3 Algumas propriedades dos equilíbrios de Nash . . . . . 69<br />
3.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 70<br />
1
2 Sumário<br />
4 Calculando equilíbrios de Nash 71<br />
4.1 Equilíbrio de Nash via um problema de otimização . . 71<br />
4.2 Equilíbrio de Nash via equações polinomiais . . . . . . 74<br />
4.3 Jogos de soma zero . . . . . . . . . . . . . . . . . . . . 82<br />
4.3.1 Jogos de soma constante com dois jogadores . . 82<br />
4.3.2 Equilíbrio de Nash em estratégias puras . . . . 86<br />
4.3.3 Equilíbrio de Nash em estratégias mistas . . . . 91<br />
4.3.4 O teorema minimax de von Neumann . . . . . 93<br />
4.4 Equilíbrio de Nash via um problema de complementaridade<br />
. . . . . . . . . . . . . . . . . . . . . . . . . . . 101<br />
4.4.1 Jogos bimatriciais . . . . . . . . . . . . . . . . 101<br />
4.4.2 O algoritmo de Lemke-Howson . . . . . . . . . 104<br />
4.5 Gambit . . . . . . . . . . . . . . . . . . . . . . . . . . 104<br />
4.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 106<br />
5 Jogos na forma extensa 108<br />
5.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . 108<br />
5.2 Equilíbrio de Nash . . . . . . . . . . . . . . . . . . . . 110<br />
5.3 Indução retroativa e equilíbrio perfeito em subjogos . . 114<br />
5.4 O teorema de Kuhn-Zermelo . . . . . . . . . . . . . . 118<br />
5.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . 119<br />
6 Exemplos 120<br />
6.1 O jogo Le Her simplificado . . . . . . . . . . . . . . . . 120<br />
6.2 O modelo de duopólio de Cournot . . . . . . . . . . . 126<br />
6.3 O modelo de duopólio de Bertrand . . . . . . . . . . . 129<br />
6.4 O modelo de duopólio de Stackelberg . . . . . . . . . . 131<br />
6.5 A tragédia dos comuns . . . . . . . . . . . . . . . . . . 133<br />
A Convexidade 137<br />
B Programação Linear 145<br />
C Respostas dos exercícios 155<br />
Bibliografia 173<br />
Índice 183
Prefácio<br />
A teoria dos jogos é uma teoria matemática criada para se modelar<br />
fenômenos que podem ser observados quando dois ou mais “agentes de<br />
decisão” interagem entre si. Ela fornece a linguagem para a descrição<br />
de processos de decisão conscientes e objetivos envolvendo mais de<br />
um indivíduo.<br />
Suas aplicações incluem eleições, leilões, balanço de poder, evolução<br />
genética, etc. Ela também é uma teoria matemática pura, que<br />
pode e tem sido estudada como tal, sem a necessidade de relacioná-la<br />
com problemas comportamentais ou jogos per se.<br />
Algumas pessoas acreditam que a teoria dos jogos formará, algum<br />
dia, o alicerce de um conhecimento técnico estrito de como decisões<br />
são feitas e de como a economia funciona. A teoria ainda não atingiu<br />
este patamar e, hoje, é mais estudada em seus aspectos matemáticos<br />
puros e, em aplicações, ela é usada como uma ferramenta ou alegoria<br />
que auxiliam no entendimento de sistemas mais complicados.<br />
Neste texto trataremos da teoria matemática dos jogos não-cooperativos<br />
estáticos de informação completa e dos jogos dinâmicos de<br />
informação perfeita.<br />
A Teoria Econômica dos Jogos não deve ser confundida com a<br />
Teoria Combinatória dos Jogos, iniciada por Sprague e Grundy na<br />
década de 30. Enquanto que a primeira tem motivações predominante<br />
econômicas e procura estabelecer métodos para se maximizar<br />
o ganho (payoff ), a segunda se concentra nos aspectos combinatórios<br />
de jogos de mesa (por exemplo, a estratégia do jogo de nim) enão<br />
permite “elementos imprevisíveis” como o lançamento de um dado<br />
ou o embaralhamento de cartas.<br />
Acreditamos que o assunto seja estimulante para o estudante de<br />
matemática: ele terá a oportunidade de ver como conceitos de análise,<br />
3
4 Prefácio<br />
topologia, otimização e probabilidade se integram em uma teoria aplicada.<br />
Agradecimentos 1<br />
Gostaríamos de agradecer a Hilmar Ilton Santana Ferreira, Polyane<br />
Alves Santos e Larissa Santana Barreto, que participaram ativamente<br />
dos seminários sobre teoria dos jogos realizados no período<br />
2003-2004, momento no qual uma versão preliminar deste texto foi<br />
escrita. Também gostaríamos de agradecer a Rita de Cássia Silva<br />
Costa, Bernardo K. Pagnoncelli e, em especial, a Carlos Tomei, que<br />
leram o texto e fizeram várias sugestões. Finalmente, gostaríamos de<br />
agradecer a Seção de Referência (SRE) da Divisão de Bibliotecas e<br />
Documentação da PUC-Rio pela agilidade e eficiência na aquisição<br />
de alguns artigos difíceis de se encontrar.<br />
Agradecimentos 2<br />
Gostaríamos de agradecer às várias pessoas que, após a divulgação<br />
da versão Creative Commons deste livro, colaboraram com sugestões:<br />
Doherty Andrade, Carlos Frederico Palmeira.<br />
Humberto José Bortolossi<br />
Brígida Alexandre Sartini<br />
Gilmar Garbugio<br />
1 de fevereiro de 2017
Capítulo 1<br />
Alguns marcos<br />
históricos<br />
Neste capítulo apresentaremos alguns marcos históricos da teoria<br />
dos jogos relacionados principalmente com os tópicos que iremos explorar<br />
no texto. Para uma cronologia mais completa, recomendamos<br />
as referências [46, 50, 65, 86, 95, 96].<br />
O conceito de solução de um jogo por estratégia mista 1 surgiu pela<br />
primeira vez no estudo do jogo Le Her, realizado por James Waldegrave<br />
e descrito por ele em uma carta a Pierre Rémond de Montmort,<br />
em 13 de novembro de 1713. Em seu estudo, ele procurou encontrar<br />
uma estratégia que maximizasse a probabilidade de vitória do jogador,<br />
independentemente da escolha de estratégia de seu oponente.<br />
Este jogo foi discutido por Montmort e por Nicholas Bernoulli em<br />
1713 e os resultados foram publicados nesse ano por Montmort, que<br />
incluiu a solução de Waldegrave em um apêndice.<br />
Em 1838, Augustin Cournot publicou sua obra Recherches sur<br />
les Principes Mathematiques de la Theorie des Richesses, na qual<br />
analisou um caso especial de duopólio. As empresas decidiam as<br />
quantidades a produzir e Cournot definiu o conceito de equilíbrio de<br />
1 Uma estratégia pura é uma das escolhas que o jogador pode fazer. Uma<br />
estratégia mista é uma distribuição de probabilidades sobre o conjunto de estratégias<br />
puras. Definições formais serão apresentadas no próximo capítulo.<br />
5
6 [CAP. 1: ALGUNS MARCOS HISTÓRICOS<br />
Figura 1.1: Antoine Augustin Cournot (1801–1877).<br />
mercado como sendo a situação em que ambas as empresas reagem<br />
de forma ótima à decisão da empresa concorrente. Este conceito<br />
de solução éumaversão do equilíbriodeNashaplicadoaocasodo<br />
duopólio.<br />
No início do século XX, apareceram vários artigos sobre teoria dos<br />
jogos. Ernst Zermelo, em 1913, publicou um teorema sobre o jogo<br />
de xadrez no artigo Uber eine Anwendung der Mengenlehre auf die<br />
Theorie des Schachspiels, afirmando que, em cada etapa do jogo, pelo<br />
menos um dos jogadores possui uma estratégia que o levará avitória<br />
ou ao empate. Contudo, Zermelo não demonstrou o teorema em seu<br />
artigo. A primeira demonstração foi dada por Laszlo Kalmar. Aparentemente,<br />
foi Zermelo quem primeiro destacou o uso da semântica<br />
de otimalidade em teoria dos jogos: “Whether one could calculate<br />
with mathematical objectivity, or even give a participant some idea<br />
of, the value of a possible position in the game, as well as of the best<br />
move in this position: information without which the player would<br />
have to eliminate both subjective and psychological guesses and the<br />
opinions of ‘the perfect player’, etc.?” ([95]).<br />
No período de 1921 a 1927, Émile Borel publicou uma série de<br />
notas sobre jogos simétricos de soma zero com dois jogadores com<br />
um número finito n de estratégias puras para cada jogador. Borel<br />
foi o primeiro a tentar formular matematicamente este jogo. Ele introduziu<br />
o conceito de “método de jogada” (o que hoje corresponde<br />
àestratégia pura) e procurou por uma solução em estratégias mistas<br />
(o que hoje é conhecido como solução minimax). Em 1921, ele<br />
provou a existência de tal solução para n = 3 ([07]) e, em 1924,
7<br />
Figura 1.2: Ernst Friedrich Ferdinand Zermelo (1871–1953).<br />
para n = 5 ([08]). Borel acreditava que o resultado de existência<br />
não seria válido para um n qualquer, mas como não encontrou um<br />
contra-exemplo, deixou o problema em aberto.<br />
Figura 1.3: Félix Edouard Justin Émile Borel (1871-1956).<br />
No artigo Zur Theorie der Gesellschaftsspiele de 1928, usando<br />
topologia e cálculo funcional ([50]), John von Neumann demonstrou<br />
aexistência de solução em estratégias mistas de um jogo finito de<br />
soma zero com dois jogadores e um número arbitrário de estratégias<br />
puras. Este artigo também introduziu a forma extensa de um jogo.<br />
Até adécada de 40, os artigos publicados sobre teoria dos jogos<br />
não tinham despertado muito o interesse dos cientistas sociais e de<br />
outras áreas que pesquisavam sobre conflitos de interesses. Talvez<br />
isto se deva ao fato de que os artigos eram escritos por matemáticos<br />
e publicados em revistas matemáticas. Este panorama foi alterado<br />
com a publicação em 1944 do livro Theory of Games and Economic
8 [CAP. 1: ALGUNS MARCOS HISTÓRICOS<br />
Behavior, escrito por John von Neumann e pelo economista Oskar<br />
Morgenstern, um marco na teoria dos jogos.<br />
Oskar Morgenstern John von Neumann<br />
(1902-1977) (1903-1957)<br />
Figura 1.4: Oskar Morgenstern e John von Neumann.<br />
Eles detalharam a formulação de problemas econômicos e mostraram<br />
várias possibilidades de aplicação da teoria dos jogos em economia,<br />
procurando apresentar as motivações, os raciocínios e as conclusões<br />
da teoria de forma acessível, atraindo assim a atenção de pesquisa-
9<br />
dores de diversas áreas. Na reedição de 1947, tomada como padrão,<br />
os autores estabeleceram os axiomas da teoria da utilidade. O livro<br />
foi republicado em 1953 e sua mais recente edição é de 1980.<br />
Na Universidade de Princeton, John Forbes Nash Jr. escreveu sua<br />
tese de doutorado em 1949, sob o título Non-Cooperative Games. Ele<br />
definiu o conceito de ponto de equilíbrio, atualmente conhecido como<br />
equilíbrio de Nash de um jogo e provou sua existência para jogos nãocooperativos.<br />
Os resultados mais importantes de sua tese estão no<br />
artigo Equilibrium Points in N-Person Games de 1950 ([66]) e, mais<br />
detalhadamente, no artigo Non-Cooperative Games de 1951 ([69]).<br />
Ainda em 1950, Nash escreveu sobre o problema da barganha em<br />
The Bargaining Problem ([68]) e, no ano de 1953, sobre jogos cooperativos<br />
em Two Person Cooperative Games ([70]). Nestes, Nash<br />
definiu o conceito de solução da barganha de Nash em um jogo cooperativo<br />
com dois jogadores, estabeleceu um sistema de axiomas que<br />
esta solução deveria satisfazer e provou a existência e unicidade desta<br />
solução.<br />
Em 1994, John Harsanyi, John Nash e Reinhard Selten receberam<br />
oPrêmio Nobel de Economia em reconhecimento ao trabalho pioneiro<br />
sobre análise de equilíbrio na teoria de jogos não-cooperativos.<br />
(a) (b) (c)<br />
Figura 1.5: Ganhadores do prêmio Nobel de Economia em 1994:<br />
(a) John Harsanyi (1920-2000), (b) John Forbes Nash Jr.<br />
(1928-2015) e (c) Reinhard Selten (1930-2016).
Capítulo 2<br />
Jogos na forma<br />
estratégica<br />
2.1 O que é um jogo?<br />
A teoria dos jogos pode ser definida como a teoria dos modelos<br />
matemáticos que estuda a escolha de decisões ótimas sob condições<br />
de conflito. O elemento básico em um jogo é o conjunto de jogadores<br />
que dele participam. Cada jogador tem um conjunto de estratégias.<br />
Quando cada jogador escolhe sua estratégia, temos então uma situação<br />
ou perfil no espaço de todas as situações (perfis) possíveis.<br />
Cada jogador tem interesse ou preferências para cada situação no<br />
jogo. Em termos matemáticos, cada jogador tem uma função utilidade<br />
que atribui um número real (o ganho ou payoff do jogador)<br />
a cada situação do jogo. Mais especificamente, um jogo tem os seguintes<br />
elementos básicos: existe um conjunto finito de jogadores,<br />
representado por<br />
G = {g 1 ,g 2 ,...,g n },<br />
e cada jogador g i ∈ G possui um conjunto finito<br />
S i = {s i1 ,s i2 ,...,s imi }<br />
10
[SEC. 2.1: O QUE É UM JOGO? 11<br />
de opções, denominadas estratégias puras do jogador g i (m i ≥ 2).<br />
Um vetor<br />
s =(s 1j1 ,s 2j2 ,...,s njn ),<br />
onde s iji éumaestratégia pura para o jogador g i ∈ G, édenominado<br />
um perfil de estratégias puras. O conjunto de todos os perfis de<br />
estratégias puras formam, portanto, o produto cartesiano<br />
S =<br />
n∏<br />
S i = S 1 × S 2 ×···×S n ,<br />
i=1<br />
Para cada joga-<br />
denominado espaço de estratégias puras do jogo.<br />
dor g i ∈ G, existeumafunção utilidade<br />
u i : S → R<br />
s ↦→ u i (s)<br />
que associa o ganho (payoff) u i (s) do jogador g i a cada perfil de<br />
estratégias puras s ∈ S. Esta função utilidade éumaformaderepresentar<br />
a preferência do jogador g i com relação aos vários perfis de<br />
estratégias do jogo ([13]).<br />
Jogos descritos nesta forma são denominados jogos estratégicos ou<br />
jogos na forma normal. Neles, cada jogador deve fazer a sua escolha<br />
de estratégia sem o conhecimento das escolhas dos demais jogadores.<br />
Admite-se, contudo, que cada jogador conhece toda a estrutura do<br />
jogo. Por este motivo, jogos deste tipo também são denominados<br />
jogos não-cooperativos de informação completa.<br />
Assume-se também que os jogadores sejam racionais, istoé, eles<br />
sempre escolherão ações que maximizem a sua função utilidade. Além<br />
de ser racional, cada jogador (1) sabe que seus adversários também<br />
são racionais, (2) sabe que eles sabem que o jogador sabe que eles são<br />
racionais, ad infinitum.<br />
Exemplo 2.1 (O dilema do prisioneiro) Possivelmente o exemplo<br />
mais conhecido na teoria dos jogos éodilema do prisioneiro. Ele<br />
foi formulado por Albert W. Tucker em 1950, em um seminário para<br />
psicólogos na Universidade de Stanford, para ilustrar a dificuldade de<br />
se analisar certos tipos de jogos.<br />
A situação é a seguinte: dois ladrões, Al e Bob, são capturados<br />
e acusados de um mesmo crime. Presos em selas separadas e sem
12 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
poderem se comunicar entre si, o delegado de plantão faz a seguinte<br />
proposta: cada um pode escolher entre confessar ou negar o crime.<br />
Se nenhum deles confessar, ambos serão submetidos a uma pena de<br />
1ano. Seosdoisconfessarem,então ambos terão pena de 5 anos. Mas<br />
se um confessar e o outro negar, então o que confessou será libertado<br />
eooutroserá condenado a 10 anos de prisão. Neste contexto, temos<br />
G = {Al, Bob},<br />
S Al = {confessar, negar}, S Bob = {confessar, negar},<br />
S = S Al × S Bob =<br />
{(confessar, confessar), (confessar, negar),<br />
(negar, confessar), (negar, negar)}.<br />
As duas funções utilidade<br />
u Al : S → R e u Bob : S → R<br />
são dadas por<br />
u Al (confessar, confessar) = −5, u Al (confessar, negar) = 0,<br />
u Al (negar, confessar) = −10, u Al (negar, negar) = −1,<br />
(que representam os ganhos de Al) e<br />
u Bob (confessar, confessar) = −5, u Bob (confessar, negar) = −10,<br />
u Bob (negar, confessar) = 0, u Bob (negar, negar) = −1<br />
(que representam os ganhos de Bob). Éumaprática representar os<br />
payoffs dos jogadores através de uma matriz, denominada matriz de<br />
payoffs.<br />
Bob<br />
confessar<br />
negar<br />
confessar (−5, −5) (0, −10)<br />
Al<br />
negar (−10, 0) (−1, −1)<br />
Nesta matriz, os números de cada célula representam, respectivamente,<br />
os payoffs de Al e Bob para as escolhas de Al e Bob correspondentes<br />
a célula.
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 13<br />
Exemplo 2.2 (A batalha dos sexos) Um homem e a sua mulher<br />
desejam sair para passear. O homem prefere assistir a um jogo de<br />
futebol enquanto que sua mulher prefere ir ao cinema. Se eles forem<br />
juntos para o futebol, então o homem tem satisfação maior do que a<br />
mulher. Por outro lado, se eles forem juntos ao cinema, entãoamulher<br />
tem satisfação maior do que o homem. Finalmente, se eles saírem<br />
sozinhos, então ambos ficam igualmente insatisfeitos. Esta situação<br />
também pode ser modelada como um jogo estratégico. Temos:<br />
G = {homem, mulher},<br />
S homem = {futebol, cinema}, S mulher = {futebol, cinema},<br />
S = S homem × S mulher =<br />
{(futebol, futebol), (futebol, cinema),<br />
(cinema, futebol), (cinema, cinema)}.<br />
As duas funções utilidade u homem : S → R e u mulher : S → R são<br />
descritas pela seguinte matriz de payoffs:<br />
futebol<br />
Mulher<br />
cinema<br />
Homem<br />
futebol (10, 5) (0, 0)<br />
cinema (0, 0) (5, 10)<br />
.<br />
2.2 Soluções de um jogo em estratégias<br />
puras<br />
Uma solução de um jogo é uma prescrição ou previsão sobre o resultado<br />
do jogo. Existem vários conceitos diferentes de solução. Nesta<br />
seção, investigaremos os dois conceitos mais comuns: dominância e<br />
equilíbrio de Nash.<br />
Considere o dilema do prisioneiro. Como encontrar uma solução<br />
para o dilema de Al e Bob, isto é, que estratégias são plausíveis
14 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
se os dois prisioneiros querem minimizar 1 o tempo de cadeia? Se<br />
analisarmos o jogo do ponto de vista de Al, ele pode raciocinar da<br />
seguinte maneira:<br />
“Duas coisas podem acontecer: Bob pode confessar ou<br />
Bob pode negar. Se Bob confessar, então émelhorpara<br />
mim confessar também. Se Bob não confessar, então eu<br />
fico livre se eu confessar. Em qualquer um dos casos, é<br />
melhor para mim confessar. Então, eu confessarei.”<br />
Se analisarmos agora o jogo do ponto de vista de Bob, podemos<br />
aplicar a mesma linha de raciocínio e concluir que Bob também irá<br />
confessar. Assim, ambos confessarão e ficarão presos por 5 anos.<br />
Em termos da teoria dos jogos, dizemos que (1) os dois jogadores<br />
possuem uma estratégia dominante, istoé, todas menos uma<br />
estratégia é estritamente dominada, (2) que o jogo éresolúvel por dominância<br />
estrita iterada e (3) que o jogo termina em uma solução que<br />
éumequilíbrio de estratégia dominante, conceitos que definiremos a<br />
seguir.<br />
2.2.1 Dominância em estratégias puras<br />
Freqüentemente, iremos discutir perfis de estratégia na qual apenas<br />
a estratégia de um único jogador g i ∈ G irá variar, enquanto que<br />
as estratégias de seus oponentes permanecerão fixas. Denote por<br />
s −i =(s 1j1 ,...,s (i−1)ji−1 ,s (i+1)ji+1 ,...,s njn ) ∈<br />
S −i = S 1 ×···×S i−1 × S i+1 ×···×S n<br />
uma escolha de estratégia para todos os jogadores, menos o jogador g i .<br />
Desta maneira, um perfil de estratégias pode ser convenientemente<br />
denotado por<br />
s =(s iji , s −i )=(s 1j1 ,...,s (i−1)ji−1 ,s iji ,s (i+1)ji+1 ,...,s njn ).<br />
1 No Exemplo 2.1, os payoffs foram definidos como números ≤ 0. Desta maneira,<br />
minimizar o tempo de cadeia é equivalente a maximizar o payoff.
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 15<br />
Definição 2.1 (Estratégia Pura Estritamente Dominada)<br />
Dizemos que uma estratégia pura s ik ∈ S i do jogador<br />
g i ∈ G é estritamente dominada pela estratégia s ik ′ ∈ S i se,<br />
independentemente das escolhas dos demais jogadores, o jogador<br />
g i ganhar mais escolhendo s ik ′ do que s ik ,istoé, se<br />
para todo s −i ∈ S −i .<br />
u i (s ik ′, s −i ) >u i (s ik , s −i ),<br />
Definição 2.2 (em estratégias puras)<br />
(a) (Dominância Estrita Iterada) Dominância estrita iterada<br />
é o processo no qual, seqüencialmente, se eliminam as<br />
estratégias que são estritamente dominadas.<br />
(b) (Equilíbrio de Estratégia Estritamente Dominante)<br />
Quando o processo de dominância estrita iterada reduz<br />
o jogo para um único perfil de estratégias puras s ∗ , dizemos<br />
que s ∗ éumequilíbrio de estratégia estritamente dominante.<br />
Exemplo 2.3 Considere o jogo determinado pela matriz de payoffs<br />
abaixo.<br />
g 2<br />
s 21 s 22 s 23 s 24<br />
g 1<br />
s 12 (0, 0) (3, 2) (2, 1) (1, 1)<br />
s 11 (5, 2) (2, 6) (1, 4) (0, 4)<br />
s 13 (7, 0) (2, 2) (1, 1) (5, 1)<br />
s 14 (9, 5) (1, 3) (0, 2) (4, 8)
16 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Neste jogo, para o jogador g 2 ,aestratégia s 21 éestritamentedominada<br />
pela estratégia s 24 e, assim, a primeira coluna da matriz pode<br />
ser eliminada.<br />
g 2<br />
s 22 s 23 s 24<br />
g 1<br />
s 12 (3, 2) (2, 1) (1, 1)<br />
s 11 (2, 6) (1, 4) (0, 4)<br />
s 13 (2, 2) (1, 1) (5, 1)<br />
s 14 (1, 3) (0, 2) (4, 8)<br />
Agora, nesta matriz reduzida, para o jogador g 1 ,asestratégias s 11<br />
e s 14 são estritamente dominadas pelas estratégias s 12 e s 13 , respectivamente.<br />
Portanto, as linhas 1 e 4 podem ser eliminadas. Além<br />
disso, a estratégia s 23 do jogador g 2 é estritamente dominada pela estratégia<br />
s 22 . Assim, a coluna 2 também pode ser eliminada. Obtemos<br />
então uma matriz reduzida 2 × 2.<br />
g 2<br />
s 22 s 24<br />
g 1<br />
s 12 (3, 2) (1, 1)<br />
s 13 (2, 2) (5, 1)<br />
Finalmente, a estratégia s 24 do jogador g 2 é estritamente dominada<br />
pela estratégia s 22 e, na matriz 2 × 1 resultante, a estratégia s 13 do<br />
jogador g 1 éestritamentedominadapelaestratégia s 12 . Vemos então<br />
que (s 12 ,s 22 )éoequilíbrio de estratégias estritamente dominantes do<br />
jogo: o jogador g 1 escolhe a estratégia s 12 (ganhando 3) e o jogador g 2<br />
escolhe a estratégia s 22 (ganhando 2).<br />
Note que, em cada passo do processo de eliminação das estratégias<br />
estritamente dominadas, o jogo é substituído por um outro jogo
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 17<br />
mais simples, no sentido de que o conjunto de estratégias puras<br />
de um jogador (aquele que tem uma estratégia estritamente dominada)<br />
é substituído por um subconjunto com menos elementos (obtido<br />
removendo-se justamente as estratégias que são estritamente dominadas).<br />
No exemplo acima, os conjuntos de estratégias puras iniciais<br />
dos dois jogadores são dados, respectivamente, por<br />
S 1 = {s 11 ,s 12 ,s 13 ,s 14 } e S 2 = {s 21 ,s 22 ,s 23 ,s 24 }.<br />
Como a estratégia pura s 21 é estritamente dominada por s 24 ,oconjunto<br />
S 2 é substituído por {s 22 ,s 23 ,s 24 } = S 2 −{s 21 }. O conjunto S 1<br />
permanece o mesmo. Sendo assim, podemos substituir o jogo original<br />
por um mais simples, onde os conjuntos de estratégias puras dos dois<br />
jogadores são dados por<br />
S (1)<br />
1 = {s 11 ,s 12 ,s 13 ,s 14 } e S (1)<br />
2 = {s 22 ,s 23 ,s 24 }.<br />
As funções utilidade do novo jogo são as restrições das funções utilidade<br />
do jogo original aos novos conjuntos de estratégias puras:<br />
u 1 | S<br />
(1)<br />
1<br />
e u 2 | S<br />
(1)<br />
2<br />
.<br />
Para o novo jogo, vemos que as estratégias s 11 e s 14 são estritamente<br />
dominadas pelas estratégias s 12 e s 13 , respectivamente. Logo, podemos<br />
simplificar o jogo mais uma vez, considerando os conjuntos de<br />
estratégias puras<br />
S (2)<br />
1 = {s 12 ,s 13 } e S (2)<br />
2 = {s 22 ,s 23 ,s 24 }.<br />
Seguindo com as outras eliminações, terminamos com um jogo muito<br />
simples, onde cada conjunto de estratégias puras é unitário:<br />
S (5)<br />
1 = {s 12 } e S (5)<br />
2 = {s 22 }.<br />
Este processo de eliminação gerou, portanto, uma cadeia de espaços<br />
de estratégias puras:<br />
S = S 1 × S 2 S (1) = S (1)<br />
1 × S (1)<br />
2 S (2) = S (2)<br />
1 × S (2)<br />
2 ···<br />
S (5) = S (5)<br />
1 × S (5)<br />
2 = {(s 12 ,s 22 )}.
18 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Neste exemplo, a técnica de dominância estrita iterada forneceu um<br />
único perfil de estratégias como solução do jogo, no caso, o perfil<br />
(s 12 ,s 22 ) ∈ S (5)<br />
1 × S (5)<br />
2 .<br />
Contudo, pode acontecer da técnica fornecer vários perfis ou, até<br />
mesmo, fornecer todo o espaço de estratégias, como é o caso da batalha<br />
dos sexos, onde não existem estratégias estritamente dominadas.<br />
Um outro conceito importante éodeestratégia pura fracamente<br />
dominada.<br />
Definição 2.3 (Estratégia Pura Fracamente Dominada)<br />
Dizemos que uma estratégia pura s ik ∈ S i do jogador<br />
g i ∈ G é fracamente dominada pela estratégia s ik ′ ∈ S i<br />
se<br />
u i (s ik ′, s −i ) ≥ u i (s ik , s −i ),<br />
para todo s −i ∈ S −i e, pelo menos para algum s • −i ∈ S −i,<br />
u i (s ik ′, s • −i) >u i (s ik , s • −i).<br />
Em outras palavras, s ik ∈ S i é fracamente dominada por<br />
s ik ′ ∈ S i se, independentemente das escolhas dos demais jogadores,<br />
o jogador g i nada perde se trocar a estratégia s ik ∈ S i<br />
pela estratégia s ik ′ ∈ S i e, pelo menos para uma escolha dos<br />
demais jogadores, esta troca dá ao jogador g i um ganho maior.<br />
Definição 2.4<br />
(a) (Dominância Fraca Iterada) Dominância fraca iterada<br />
é o processo no qual, seqüencialmente, se eliminam as estratégias<br />
que são fracamente dominadas.<br />
(b) (Equilíbrio de Estratégia Fracamente Dominante)<br />
Quando o processo de dominância fraca iterada reduz o jogo<br />
para um único perfil de estratégias puras s ∗ , dizemos que<br />
s ∗ éumequilíbrio de estratégia fracamente dominante.
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 19<br />
Exemplo 2.4 Considere o jogo cuja matriz de payoffs é dada por:<br />
g 2<br />
s 21 s 22<br />
g 1<br />
s 11 (1, 1) (1, 0)<br />
s 12 (1, 0) (0, 1)<br />
.<br />
Aestratégia s 12 do jogador g 1 éfracamentedominadapelaestratégia<br />
s 11 . Eliminando-a, obtemos a matriz reduzida:<br />
g 2<br />
s 21 s 22<br />
g 1 s 11 (1, 1) (1, 0)<br />
.<br />
Vemos agora que a estratégia s 22 do jogador 2 éestritamentedominada<br />
pela estratégia s 21 . Sendo assim, (s 11 ,s 21 )éoequilíbrio de<br />
estratégias fracamente dominadas do jogo.<br />
Uma pergunta natural é se o processo de eliminação das estratégias<br />
dominadas depende ou não da ordem em que são realizadas. Para<br />
ocasodeestratégias estritamente dominadas, pode-se mostrar que<br />
esta ordem é irrelevante, isto é, independentemente da ordem em<br />
que as estratégias (estritamente dominadas) são eliminadas, obtém-se<br />
sempre a mesma matriz reduzida no final do processo. Por outro lado,<br />
o processo de eliminação das estratégias fracamente dominadas pode<br />
conduzir a resultados diferentes, dependendo da ordem de eliminação.<br />
Considere, por exemplo, o jogo (conforme [32]):<br />
g 2<br />
s 21 s 22 s 23<br />
g 1<br />
s 11 (0, 2) (0, 0) (1, 0)<br />
s 12 (0, 3) (1, 0) (0, 0)<br />
.
20 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Eliminando-se, em sequência, as estratégias s 23 (que éestritamente<br />
dominada por s 21 ), s 11 (que é fracamente dominada por s 12 )es 22<br />
(que é estritamente dominada por s 21 ), obtemos (s 12 ,s 21 )comoresposta.<br />
Agora, eliminando-se, em sequência, as estratégias s 22 (que<br />
é estritamente dominada por s 21 ), s 12 (que é fracamente dominada<br />
por s 11 )es 23 (que é estritamente dominada por s 21 ), obtemos outra<br />
resposta: (s 11 ,s 21 ). Para detalhes sobre este assunto, recomendamos<br />
as referências [01, 15, 26, 32, 47, 55].<br />
Com relação à complexidade computacional, os resultados mostram<br />
que os problemas relacionados com estratégias estritamente dominadas<br />
tendem a ser mais fáceis (no sentido que eles podem ser<br />
resolvidos em tempo polinomial), enquanto que questões envolvendo<br />
estratégias fracamente dominadas são mais difíceis (no sentido que<br />
eles são NP-completos). Por exemplo, saber se uma dada submatriz<br />
de uma matriz de payoffs pode ser obtida através do processo de<br />
eliminação de estratégias dominadas é um problema polinomial para<br />
ocasodeestratégias estritamente dominadas e éumproblemaNP-<br />
Completoparaocasodeestratégias fracamente dominadas. Detalhes<br />
sobre o assunto podem ser encontrados nas referências [18, 33].<br />
2.2.2 Equilíbrio de Nash em estratégias puras<br />
Uma solução estratégica ou equilíbrio de Nash de um jogo éum<br />
perfil de estratégias onde cada jogador não tem incentivo de mudar<br />
sua estratégia se os demais jogadores não o fizerem.<br />
Definição 2.5 (Equilíbrio de Nash) Dizemos que um perfil<br />
de estratégias<br />
s ∗ =(s ∗ 1,...,s ∗ (i−1) ,s∗ i ,s ∗ (i+1) ,...,s∗ n) ∈ S<br />
éumequilíbrio de Nash se<br />
u i (s ∗ i , s ∗ −i) ≥ u i (s iji , s ∗ −i)<br />
para todo i =1,...,neparatodoj i =1,...,m i ,comm i ≥ 2.
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 21<br />
Exemplo 2.5<br />
(a) No dilema do prisioneiro (Exemplo 2.1), o perfil de estratégias<br />
(confessar, confessar) é um equilíbrio de Nash. De fato:<br />
e<br />
u Al (confessar, confessar) = −5 > −10 = u Al (negar, confessar)<br />
u Bob (confessar, confessar) = −5 > −10 = u Bob (confessar, negar).<br />
Estas desigualdades mostram que, para o perfil de estratégias<br />
(confessar, confessar), um prisioneiro não se sente motivado a<br />
mudar a sua estratégia se o outro nãoofizer(elenão vai ficar<br />
menos tempo na cadeia fazendo isto).<br />
Já o perfil (negar, confessar) não é um equilíbrio de Nash do<br />
jogo pois, neste caso, dado que Bob decide confessar, Al fica<br />
menos tempo na cadeia se mudar a sua estratégia de negar para<br />
confessar. Em outras palavras, para o perfil (negar, confessar),<br />
Al se sente motivado a mudar a sua estratégia se Bob nãoofizer.<br />
Os perfis (confessar, negar) e (negar, negar) também não são<br />
equilíbrios de Nash. Em (confessar, negar), Bob se sente motivado<br />
a mudar a sua estratégia se Al não o fizer e, em (negar,<br />
negar), cada um dos prisioneiros se sente motivado a mudar a<br />
sua estratégia se o outro não o fizer. Desta maneira, vemos que<br />
oúnico equilíbrio de Nash do jogo é (confessar, confessar).<br />
(b) Na batalha dos sexos (Exemplo 2.2), os perfis de estratégia (futebol,<br />
futebol) e (cinema, cinema) são os únicos equilíbrios de<br />
Nash do jogo.<br />
(c) No Exemplo 2.3, o único equilíbrio de Nash do jogo éoperfilde<br />
estratégias (s 12 ,s 22 ).<br />
Existem, contudo, jogos que não possuem equilíbrios de Nash em<br />
estratégias puras. Este é o caso, por exemplo, do jogo de comparar<br />
moedas (matching pennies).
22 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Exemplo 2.6 (Comparar moedas) Nesse jogo, dois jogadores exibem,<br />
ao mesmo tempo, a moeda que cada um esconde em sua mão.<br />
Se ambas as moedas apresentam cara ou coroa, o segundo jogador<br />
dá sua moeda para o primeiro. Se uma das moedas apresenta cara,<br />
enquanto a outra apresenta coroa, é a vez do primeiro jogador dar<br />
sua moeda para o segundo. Esse jogo se encontra representado por<br />
sua matriz de payoffs dada abaixo.<br />
g 2<br />
s 21 s 22<br />
g 1<br />
s 11 (+1, −1) (−1, +1)<br />
s 12 (−1, +1) (+1, −1)<br />
Observe que o perfil de estratégias (s 11 ,s 21 )não é um equilíbrio de<br />
Nash em estratégias puras, pois se o jogador g 1 mantiver a sua estratégia<br />
s 11 , o jogador g 2 terá um ganho maior se mudar sua estratégia<br />
de s 21 para s 22 ,istoé, ele se sente motivado a mudar a sua<br />
estratégia se o jogador g 1 não mudar a sua escolha. O mesmo comportamento<br />
ocorre para o perfil de estratégias (s 12 ,s 22 ). Já, para os<br />
perfis (s 11 ,s 22 )e(s 12 ,s 21 ), é o jogador g 1 que se sente motivado a<br />
mudar de estratégia para ganhar mais, se o jogador g 2 mantiver a sua<br />
estratégia. Isto mostra que o jogo de comparar moedas não possui<br />
equilíbrios de Nash em estratégias puras.<br />
Existe uma maneira conveniente de se caracterizar equilíbrios de<br />
Nash através das funções de melhor resposta. De maneira informal,<br />
a melhor resposta de um jogador para uma determinada escolha de<br />
estratégias dos demais jogadores é o conjunto de estratégias do jogador<br />
que maximizam o seu ganho quando os demais jogadores não<br />
mudam as suas escolhas. Mais precisamente, temos a seguinte<br />
Definição 2.6 (Funções de melhor resposta) A função de<br />
melhor resposta do jogador g i é a aplicação<br />
MR i : S −i → 2 Si
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 23<br />
definida por<br />
MR i (s −i ) = argmax si∈S i<br />
u i (s i , s −i )<br />
= {s ∗ i ∈ S i |∀s i ∈ S i ,u i (s ∗ i , s −i) ≥ u i (s i , s −i )},<br />
com s −i ∈ S −i (aqui 2 Si representa o conjunto das partes de S i ).<br />
A função de melhor resposta do jogo é a aplicação<br />
definida por<br />
MR: S → 2 S<br />
MR(s) =(MR 1 (s −1 ), MR 2 (s −2 ),...,MR n (s −n )),<br />
com s ∈ S. Observação: alguns autores usam as notações<br />
MR i : S −i ⇒ S i eMR i : S −i →→ S i para representar a função<br />
de melhor resposta MR i : S −i → 2 Si .<br />
Exemplo 2.7<br />
(a) No dilema do prisioneiro (Exemplo 2.1), temos<br />
MR Al : S Bob →→ S Al<br />
confessar ↦→ {confessar}<br />
negar ↦→ {confessar}<br />
MR Bob : S Al →→ S Bob<br />
confessar ↦→ {confessar}<br />
negar ↦→ {confessar}.<br />
(b) Na batalha dos sexos (Exemplo 2.2), temos<br />
MR Homem : S Mulher →→ S Homem<br />
futebol ↦→ {futebol}<br />
cinema ↦→ {cinema}<br />
MR Mulher : S Homem →→ S Mulher<br />
futebol ↦→ {futebol}<br />
cinema ↦→ {cinema}.
24 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
(c) No Exemplo 2.3, temos<br />
MR 1 (s 21 )={s 14 }, MR 1 (s 22 )={s 12 },<br />
MR 1 (s 23 )={s 12 }, MR 1 (s 24 )={s 13 },<br />
MR 2 (s 11 )={s 22 }, MR 2 (s 12 )={s 22 },<br />
MR 2 (s 13 )={s 22 }, MR 2 (s 14 )={s 24 }.<br />
(d) No jogo de comparar moedas (Exemplo 2.6), temos<br />
MR 1 (s 21 )={s 11 }, MR 1 (s 22 )={s 12 },<br />
MR 2 (s 11 )={s 22 }, MR 2 (s 12 )={s 21 }.<br />
Apróxima proposição é uma consequência direta das definições<br />
de equilíbrio de Nash e funções de melhor resposta.<br />
Proposição 2.1 s ∗ =(s ∗ 1 ,...,s∗ i ,...,s∗ n ) ∈ S é um equilíbrio<br />
de Nash em estratégias puras se, e somente se, s ∗ i ∈ MR i(s ∗ −i )<br />
para todo i =1,...,n.<br />
Observação. Como vimos, nem sempre um jogo possui um equilíbrio<br />
de Nash em estratégias puras. Contudo, épossível garantir<br />
esta existência para certos tipos de jogos com estruturas especiais.<br />
O leitor interessado pode consultar os jogos descritos nos artigos [28,<br />
61, 80, 94]. Para resultados quantitativos, veja [60].<br />
2.2.3 Relações entre dominância e equilíbrio de<br />
Nash<br />
Proposição 2.2 O processo de dominância estrita iterada não<br />
pode eliminar um equilíbrio de Nash ao simplificar um jogo.<br />
Demonstração: Lembramos que, em cada etapa do processo de eliminação<br />
de estratégias estritamente dominadas, o conjunto de estratégias<br />
puras de algum jogador é substituído por um subconjunto
[SEC. 2.2: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS PURAS 25<br />
com menos elementos, obtido removendo-se as estratégias do jogador<br />
que são estritamente dominadas. Cada eliminação gera um espaço de<br />
estratégias puras com menos elementos o que, sucessivamente, simplifica<br />
o jogo original:<br />
S = S 1 ×···×S n S (1) = S (1)<br />
1 ×···×S n<br />
(1) <br />
··· S (k) = S (k)<br />
1 ×···×S n (k) .<br />
Com esta notação, o enunciado da proposição pode ser colocado assim:<br />
se s ∗ ∈ S é um equilíbrio de Nash, então s ∗ ∈ S (k) .<br />
Ademonstração será feita por contradição: suponha, por absurdo,<br />
que exista s ∗ =(s ∗ 1 ,...,s∗ n ) ∈ S tal que s∗ é um equilíbrio de Nash,<br />
mas s ∗ ∉ S (k) . Isto significa que existe i tal que s ∗ i ∈ S (l)<br />
i mas<br />
s ∗ i ∉ S(l+1) i para algum l =0,...,k− 1(sel = 0, defina S (0)<br />
i = S i ).<br />
Sem perda de generalidade, vamos supor que esta propriedade ocorre<br />
pela primeira vez para o índice i, istoé, s ∗ i é a primeira estratégia do<br />
perfil de estratégias<br />
s ∗ =(s ∗ 1 ,...,s∗ (i−1) ,s∗ i ,s∗ (i+1) ,...,s∗ n )<br />
que é eliminada por uma estratégia estritamente dominante. Sendo<br />
assim, existe s • i ∈ S(l) i tal que<br />
u i (s ∗ i , s −i )
26 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Demonstração: Suponha que o processo de dominância estrita iterada<br />
gere uma cadeia de espaços de estratégias puras<br />
S = S 1 ×···×S n S (1) = S (1)<br />
1 ×···×S n<br />
(1) <br />
··· S (k) = S (k)<br />
1 ×···×S n (k) ,<br />
onde o último conjunto da cadeia é unitário:<br />
S (k) = S (k)<br />
1 ×···×S n<br />
(k) = {s ∗ } = {(s ∗ 1,...,s ∗ i ,...,s ∗ n)}.<br />
Note que, em particular, s ∗ 1 ∈ S(l) 1 , s∗ 2 ∈ S(l) 2 , ..., s∗ n ∈ S n (l) ,para<br />
todo l =0,...,k. Vamos mostrar que, nesta situação, s ∗ éoúnico<br />
equilíbrio de Nash do jogo. De fato, basta mostrar que s ∗ éum<br />
equilíbrio de Nash, pois a unicidade é uma consequência direta da<br />
Proposição 2.2. Suponha então, por absurdo, que s ∗ não seja um<br />
equilíbrio de Nash. Neste caso, devem existir índice i eestratégia<br />
pura s [1]<br />
i ∈ S i ,coms [1]<br />
i ≠ s ∗ i ,taisque<br />
u i (s ∗ i , s∗ −i )
[SEC. 2.3: ESTRATÉGIAS MISTAS 27<br />
Mas isto é um absurdo, pois S i é um conjunto finito.<br />
Arecíproca da Proposição 2.3 é falsa, isto é,mesmoqueojogo<br />
tenha um único equilíbriodeNash,elenão é necessariamente obtido a<br />
partir do processo de dominância estrita iterada. O jogo cuja matriz<br />
de payoffs é<br />
g 2<br />
s 21 s 22 s 23<br />
g 1 s 12 (+1, −1) (−1, +1) (+1, −1)<br />
s 11 (−1, +1) (+1, −1) (−1, +1)<br />
s 13 (−1, +1) (+1, −1) (+5, +5)<br />
fornece um contra-exemplo: s ∗ =(s 13 ,s 23 )éoúnico equilíbrio de<br />
Nash do jogo, mas não existem estratégias estritamente dominadas.<br />
AProposição 2.2 é falsa se trocarmos dominância estrita por dominância<br />
fraca, istoé, o processo de dominância fraca iterada pode<br />
eliminar um equilíbrio de Nash (veja o exercício [10] na página 58<br />
para um contra-exemplo). Se o processo de dominância fraca iterada<br />
reduz o jogo para apenas um único perfil de estratégias (como na<br />
Proposição 2.3), então este perfil é obrigatoriamente um equilíbrio de<br />
Nash, contudo, ele não é necessariamente o único equilíbrio de Nash<br />
do jogo.<br />
2.3 Estratégias mistas<br />
Como vimos no jogo de comparar moedas do Exemplo 2.6, existem<br />
jogos que não possuem equilíbrios de Nash em estratégias puras. Uma<br />
alternativa para estes casos é a de considerar o jogo do ponto de vista<br />
probabilístico, isto é, ao invés de escolher um perfil de estratégias<br />
puras, o jogador deve escolher uma distribuição de probabilidade sobre<br />
suas estratégias puras.<br />
Uma estratégia mista p i para o jogador g i ∈ G é uma distribuição<br />
de probabilidades sobre o conjunto S i de estratégias puras do jogador,
28 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
isto é, p i éumelementodoconjunto<br />
{<br />
Δ mi = (x 1 ,...,x mi ) ∈ R mi | x 1 ≥ 0,...,x mi ≥ 0e<br />
∑m i<br />
k=1<br />
x k =1<br />
}<br />
.<br />
Assim, se p i =(p i1 ,p i2 ,...,p imi ), então<br />
p i1 ≥ 0, p i2 ≥ 0, ..., p imi ≥ 0 e<br />
∑m i<br />
k=1<br />
p ik =1.<br />
Note que cada Δ mi é um conjunto compacto e convexo. Nas<br />
Figuras2.1e2.2temososdesenhosdeΔ 2 eΔ 3 , respectivamente. Os<br />
pontos extremos (vértices) de Δ mi ,istoé, os pontos da forma<br />
e 1 =(1, 0,...,0, 0), e 2 =(0, 1,...,0, 0), ..., e mi =(0, 0,...,0, 1)<br />
dão, respectivamente, probabilidade 1 às estratégias puras s i1 , s i2 ,<br />
..., s imi . Desta maneira, podemos considerar a distribuição de probabilidade<br />
e k comoaestratégia mista que representa a estratégia<br />
pura s ik do jogador g i .<br />
x 2<br />
1<br />
0<br />
1<br />
x 1<br />
Figura 2.1: Δ 2 = { (x 1 ,x 2 ) ∈ R 2 | x 1 ≥ 0,x 2 ≥ 0ex 1 + x 2 =1 } .
[SEC. 2.3: ESTRATÉGIAS MISTAS 29<br />
x 3<br />
1<br />
0<br />
1 x 2<br />
1<br />
x 1<br />
Figura 2.2: Δ 3 = { (x 1 ,x 2 ,x 3 ) ∈ R 3 | x 1 ≥ 0, x 2 ≥ 0, x 3 ≥ 0ex 1 +<br />
x 2 + x 3 =1}.<br />
Oespaço de todos os perfis de estratégia mista é o produto cartesiano<br />
Δ=Δ m1 × Δ m2 ×···×Δ mn ,<br />
denominado espaço de estratégias mistas. Como o produto cartesiano<br />
de conjuntos compactos e convexos é compacto e convexo, vemos que<br />
Δé compacto e convexo.<br />
Um vetor p ∈ Δé denominado um perfil de estratégias mistas.<br />
Como no caso de estratégias puras, usaremos a notação p −i para<br />
representar as estratégias mistas de todos os jogadores, excluindo-se<br />
a do jogador g i . Desta maneira, escreveremos<br />
(p i , p −i )<br />
para representar p =(p 1 ,...,p i ,...,p n ). Como a estratégia pura s ik<br />
pode ser identificada com a distribuição de probabilidades que dá<br />
peso1as ik epeso0às demais estratégias do jogador g i ,usaremos<br />
(s ik , p −i )
30 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
como uma notação alternativa para o perfil de estratégias mistas<br />
(e k , p −i ). Do mesmo modo, usaremos<br />
(p i , s −i )<br />
para indicar o perfil de estratégias mistas onde o jogador g i escolhe<br />
a distribuição de probabilidades p i e os demais jogadores escolhem<br />
distribuições que dãopeso1às estratégias puras em s −i .<br />
Cada perfil de estratégias mistas p =(p 1 ,...,p n ) ∈ Δ determina<br />
um payoff esperado (utilidade esperada), uma média dos payoffs ponderada<br />
pelas distribuições de probabilidades p 1 , ..., p n . Mais precisamente,<br />
se<br />
p = (p 1 , p 2 ,...,p n )<br />
= (p 11 ,p 12 ,...,p 1m1 ; p 21 ,p 22 ,...,p 2m2 ; ...; p n1 ,p n2 ,...,p nmn ),<br />
} {{ } } {{ } } {{ }<br />
p 1<br />
p 2<br />
p n<br />
então<br />
u i (p) =<br />
∑m 1<br />
∑m 2<br />
j 1=1 j 2=1<br />
···<br />
∑m n<br />
j n=1<br />
p 1j1 · p 2j2 ···p njn · u i (s 1j1 ,s 2j2 ,...,s njn ).<br />
(2.1)<br />
Cuidado com o abuso de notação: estamos usando u i para representar<br />
a função utilidade tanto em estratégias puras quanto em estratégias<br />
mistas.<br />
Como exemplo, considere o jogo de comparar moedas na página<br />
22. Se g 1 escolhe a distribuição de probabilidade p 1 =(1/4, 3/4)<br />
e g 2 escolhe a distribuição de probabilidade p 2 =(1/3, 2/3), então<br />
os payoffs esperados associados ao perfil de estratégias mistas p =<br />
(p 1 , p 2 )=(1/4, 3/4; 1/3, 2/3) são dados por<br />
u 1 (p) =<br />
2∑<br />
j 1=1 j 2=1<br />
2∑<br />
p 1j1 · p 2j2 · u 1 (s 1j1 ,s 2j2 )<br />
= p 11 · p 21 · u 1 (s 11 ,s 21 )+p 11 · p 22 · u 1 (s 11 ,s 22 )+<br />
p 12 · p 21 · u 1 (s 12 ,s 21 )+p 12 · p 22 · u 1 (s 12 ,s 22 )<br />
= 1 4 · 1<br />
3 · (+1) + 1 4 · 2<br />
3 · (−1) + 3 4 · 1<br />
3 · (−1) + 3 4 · 2<br />
3 · (+1)<br />
= + 1 6
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 31<br />
e, analogamente,<br />
u 2 (p) =<br />
2∑<br />
j 1=1 j 2=1<br />
2∑<br />
p 1j1 · p 2j2 · u 2 (s 1j1 ,s 2j2 )<br />
= p 11 · p 21 · u 2 (s 11 ,s 21 )+p 11 · p 22 · u 2 (s 11 ,s 22 )+<br />
p 12 · p 21 · u 2 (s 12 ,s 21 )+p 12 · p 22 · u 2 (s 12 ,s 22 )<br />
= 1 4 · 1<br />
3 · (−1) + 1 4 · 2<br />
3 · (+1) + 3 4 · 1<br />
3 · (+1) + 3 4 · 2<br />
3 · (−1)<br />
= − 1 6 .<br />
Observação. Se p ∗ =(p ∗ i , p∗ −i ) ∈ Δ, então a função x ↦→ u i(x, p ∗ −i )<br />
preserva combinações convexas. Mais precisamente, se x 1 ,...,x r ∈<br />
Δ mi e λ 1 ,...,λ r são escalares não-negativos com ∑ r<br />
k=1 λ k =1,então<br />
( r∑<br />
)<br />
r∑<br />
u i λ k · x k , p ∗ −i = λ k · u i (x k , p ∗ −i). (2.2)<br />
k=1<br />
Em particular, se<br />
∑m i<br />
p ∗ i =(p∗ i1 ,...,p∗ im i<br />
)= p ∗ ik · e k, (2.3)<br />
com e k o k-ésimo vetor da base canônica de R mi ,então<br />
(<br />
mi<br />
)<br />
u i (p ∗ )=u i (p ∗ i , p∗ −i )=u ∑<br />
i p ∗ ik · e ∑m i<br />
k, p ∗ −i = p ∗ ik · u i(e k , p ∗ −i ).<br />
k=1<br />
k=1<br />
k=1<br />
k=1<br />
(2.4)<br />
2.4 Soluções de um jogo em estratégias<br />
mistas<br />
Todososcritérios básicos para soluções de jogos em estratégias<br />
puras podem ser estendidos para estratégias mistas.
32 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
2.4.1 Dominância em estratégias mistas<br />
Definição 2.7 (Estratégia Mista Estritamente Dominada)<br />
Dizemos que uma estratégia mista p i ∈ Δ mi do jogador<br />
g i ∈ G é estritamente dominada pela estratégia p ′ i ∈ Δ m i<br />
se, independentemente das escolhas de distribuições de probabilidade<br />
dos demais jogadores, o jogador g i ganha mais escolhendo<br />
p ′ i do que p i,istoé, se<br />
u i (p ′ i, p −i ) >u i (p i , p −i ),<br />
para todo p −i ∈ Δ −i =Δ m1 ×···×Δ mi−1 ×Δ mi+1 ×···×Δ mn .<br />
Como os payoffs u i (p ′ i , p −i )eu i(p i , p −i )são, respectivamente,<br />
combinações convexas dos payoffs u i (p ′ i , s −i) e u i (p i , s −i ),<br />
segue-se que a condição acima é equivalente a<br />
u i (p ′ i , s −i) >u i (p i , s −i ),<br />
para todos perfis de estratégias puras s −i ∈ S −i .<br />
Exemplo 2.8 ([30], página 21) Considere o jogo com a seguinte<br />
matriz de payoffs:<br />
g 2<br />
s 21 s 22<br />
g 1 s 12 (0, 0) (5, 3)<br />
s 11 (5, 3) (0, 0)<br />
.<br />
s 13 (2, 1) (2, 1)<br />
Aestratégia mista p 1 =(0, 0, 1) ∈ Δ 3 do jogador g 1 éestritamente
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 33<br />
dominada pela estratégia mista p ′ 1 =(1/2, 1/2, 0) ∈ Δ 3,pois<br />
( 1<br />
u 1 (p ′ 1, p 2 )=u 1<br />
2 , 1 )<br />
2 , 0; p 21,p 22 = 5 2 · p 21 + 5 2 · p 22 = 5 2<br />
><br />
(<br />
)<br />
u 1 (p 1 , p 2 )=u 1 0 , 0, 1; p 21 ,p 22 =2· p 21 +2· p 22 =2<br />
para todo p 2 = (p 21 ,p 22 ) ∈ Δ 2 . Como p 1 = (0, 0, 1) representa<br />
aestratégia pura s 13 do jogador g 1 , este exemplo também mostra<br />
que uma estratégia pura pode não ser dominada por nenhuma outra<br />
estratégia puras mas, ainda sim, ser dominada por uma estratégia<br />
mista.<br />
Exemplo 2.9 ([31], página 7) Uma estratégia mista que atribui<br />
probabilidade positiva para uma estratégia pura estritamente dominada<br />
também é estritamente dominada (Exercício [13]). Contudo,<br />
uma estratégia mista pode ser estritamente dominada mesmo que ela<br />
atribua probabilidades positivas apenas para as estratégias puras que<br />
não são nem mesmo fracamente dominadas. Considere, por exemplo,<br />
o jogo com a seguinte matriz de payoffs:<br />
g 2<br />
s 21 s 22<br />
g 1 s 12 (2, 0) (5, 3)<br />
s 11 (5, 3) (2, 0)<br />
.<br />
s 13 (4, 1) (4, 1)<br />
As estratégias puras s 11 e s 12 não são fracamente dominadas, mas<br />
aestratégia mista p 1 =(1/2, 1/2, 0) é estritamente dominada pela<br />
estratégia mista p ′ 1 =(0, 0, 1) (que corresponde àestratégia pura s 13 ),
34 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
pois<br />
u 1 (p ′ 1, p 2 )=u 1<br />
(<br />
0 , 0, 1; p 21 ,p 22<br />
)<br />
=4· p 21 +4· p 22 =4<br />
><br />
( 1<br />
u 1 (p 1 , p 2 )=u 1<br />
2 , 1 )<br />
2 , 0; p 21,p 22 = 7 2 · p 21 + 7 2 · p 22 = 7 2<br />
para todo p 2 =(p 21 ,p 22 ) ∈ Δ 2 .<br />
A definição de dominância estrita iterada para estratégias mistas que<br />
daremos aqui segue a linha proposta pelas referências [26, 31, 74].<br />
Abordagens alternativas podem ser encontradas em [01, 15].<br />
Definição 2.8 (Dominância Estrita Iterada em Estratégias<br />
Mistas) Sejam S (0)<br />
i = S i eΔ (0)<br />
m i<br />
=Δ mi . Defina, recursivamente,<br />
e<br />
S (n)<br />
i<br />
= {s ∈ S (n−1)<br />
i<br />
| ∄p i ∈ Δ (n−1)<br />
m i<br />
tal que<br />
∀s −i ∈ S (n−1)<br />
−i ,u i (p i ,s −i ) >u i (s, s −i )}<br />
Δ (n)<br />
m i<br />
= {p i =(p i1 ,...,p imi ) ∈ Δ mi |<br />
∀k =1,...,m i ,p ik > 0somenteses ik ∈ S (n)<br />
i }.<br />
Ainterseção<br />
S ∞ i =<br />
∞⋂<br />
n=0<br />
S (n)<br />
i<br />
é o conjunto de estratégias puras que sobrevivem a remoção<br />
iterada de estratégias estritamente dominadas e
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 35<br />
Δ ∞ m i<br />
= {p i ∈ Δ mi | ∄p ′ i ∈ Δ mi<br />
tal que ∀s −i ∈ S (∞)<br />
−i ,u i (p ′ i,s −i ) >u i (p i ,s i )}<br />
é o conjunto de todas as estratégias mistas do jogador g i que<br />
sobreviveram a técnica de dominância estrita iterada.<br />
Note que S (n)<br />
i é o conjunto de estratégias puras em S (n−1)<br />
i que não são<br />
estritamente dominadas pelas estratégias mistas em Δ (n−1)<br />
m i<br />
equeΔ (n)<br />
m i<br />
é o conjunto de estratégias mistas que dá probabilidades positivas<br />
apenas para as estratégias puras em S (n)<br />
i .<br />
Definição 2.9 (Equilíbrio de Estratégia Estritamente<br />
Dominante) Se, no processo de dominância estrita iterada, o<br />
conjunto S ∞ = S1 ∞ ×···×S∞ n é unitário, isto é, se<br />
S ∞ = {s ∗ },<br />
então dizemos que s ∗ éumequilíbrio de estratégia estritamente<br />
dominante.<br />
Como no caso de estratégias puras, épossível mostrar que os conjuntos<br />
S ∞ = S1 ∞ ×···×Sn ∞ eΔ ∞ =Δ ∞ m 1<br />
×···×Δ ∞ m n<br />
não dependem<br />
da ordem em que as estratégias estritamente dominadas são<br />
removidas. Não apresentaremos a demonstração deste fato aqui.<br />
O leitor interessado poderá encontrá-la (bem como as definições e<br />
resultados sobre estratégias mistas fracamente dominadas) nasreferências<br />
[01, 15, 26, 55].<br />
2.4.2 Equilíbrio de Nash em estratégias mistas<br />
Definição 2.10 (Equilíbrio de Nash) Dizemos que um perfil<br />
de estratégias mistas
36 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
p ∗ =(p ∗ 1, p ∗ 2,...,p ∗ n) ∈ Δ=Δ m1 × Δ m2 ×···×Δ mn<br />
éumequilíbrio de Nash se<br />
u i (p ∗ i , p ∗ −i) ≥ u i (p, p ∗ −i)<br />
para todo p ∈ Δ mi ,istoé, nenhum jogador sente motivação<br />
de trocar a sua estratégia mista se os demais jogadores não o<br />
fizerem.<br />
Exemplo 2.10<br />
(a) No dilema do prisioneiro (Exemplo 2.1), o perfil de estratégias<br />
mistas<br />
p ∗ =(p ∗ 1 , p∗ 2 )=(1, 0; 1, 0)<br />
é um equilíbrio de Nash, pois<br />
u 1 (p 1 , p ∗ 2)=u 1 (p 11 ,p 12 ;1, 0) = 5 · p 11 − 10 ≤<br />
− 5=u 1 (1, 0; 1, 0) = u 1 (p ∗ 1 , p∗ 2 )<br />
para todo p 1 =(p 11 ,p 12 ) ∈ Δ 2 e<br />
u 2 (p ∗ 1 , p 2 )=u 2(1, 0; p 21 ,p 22 )=5· p 21 − 10 ≤<br />
− 5=u 2 (1, 0; 1, 0) = u 2 (p ∗ 1, p ∗ 2)<br />
para todo p 2 = (p 21 ,p 22 ) ∈ Δ 2 . Observe que este equilíbrio<br />
corresponde ao equilíbrio em estratégias puras<br />
s ∗ = (confessar, confessar).<br />
Mostraremos mais adiante que este éoúnico equilíbrio de Nash<br />
em estratégias mistas do jogo.<br />
(b) Na batalha dos sexos (Exemplo 2.2), os equilíbrios de Nash em<br />
estratégias mistas são<br />
(1, 0; 1, 0), (0, 1; 0, 1) e (2/3, 1/3; 1/3, 2/3).
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 37<br />
Os dois primeiros perfis de estratégias mistas correspondem às<br />
estratégias puras (futebol, futebol) e (cinema, cinema), respectivamente.<br />
Mostraremos mais adiante que estes são os únicos<br />
equilíbrios de Nash em estratégias mistas do jogo.<br />
(c) No Exemplo 2.3, o único equilíbrio de Nash em estratégia mista<br />
éoponto<br />
(0, 1, 0, 0; 0, 1, 0, 0)<br />
que corresponde ao equilíbrio de Nash (s 12 ,s 22 )emestratégias<br />
puras.<br />
(d) No jogo de comparar moedas do Exemplo 2.6, o único equilíbrio<br />
de Nash em estratégias mistas éoponto<br />
(1/2, 1/2; 1/2, 1/2).<br />
Como no caso de estratégias puras, podemos caracterizar equilíbrios<br />
de Nash em estratégias mistas através das funções de melhor<br />
resposta. Considere um jogo com espaço de estratégias mistas Δ =<br />
Δ m1 ×···×Δ mi ×···×Δ mn . No que se segue, usaremos as seguintes<br />
notações:<br />
Δ(S i )=Δ mi e Δ(S −i )=Δ m1 ×···×Δ mi−1 × Δ mi+1 ×···Δ mn .<br />
Definição 2.11 (Funções de melhor resposta em estratégias<br />
mistas) A função de melhor resposta do jogador g i éa<br />
aplicação<br />
MR i :Δ(S −i ) → 2 Δ(Si)<br />
definida por MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i ), isto é,<br />
MR i (p −i )<br />
=<br />
{p ∗ i ∈ Δ(S i) |∀p i ∈ Δ(S i ),u i (p ∗ i , p −i) ≥ u i (p i , p −i )},<br />
com p −i ∈ Δ(S −i ). A função de melhor resposta do jogo éa<br />
aplicação<br />
MR: Δ → 2 Δ
38 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
definida por<br />
com p ∈ Δ.<br />
MR(p) =(MR 1 (p −1 ), MR 2 (p −2 ),...,MR n (p −n )),<br />
Note que, como Δ(S i )é um conjunto compacto não-vazio e a<br />
função p i ↦→ u i (p i , p −i )écontínua, podemos usar o teorema de Weierstrass<br />
para garantir que MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i )é<br />
um conjunto não-vazio para todo p −i ∈ Δ(S −i ).<br />
Apróxima proposição é uma consequência direta das definições<br />
de equilíbrio de Nash e funções de melhor resposta em estratégias<br />
mistas.<br />
Proposição 2.4 p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n ) ∈ Δé um equilíbrio<br />
de Nash em estratégias mistas se, e somente se, p ∗ i ∈ MR i(p ∗ −i )<br />
para todo i =1,...,n,istoé, p ∗ ∈ MR(p ∗ ).<br />
Exemplo 2.11 Suponha que, na batalha dos sexos (Exemplo 2.2),<br />
a mulher escolha a estratégia mista p 2 =(1/2, 1/2). Qual éamelhor<br />
resposta do homem a esta estratégia da mulher? Para responder a<br />
esta pergunta, observe inicialmente que<br />
u Homem (p 1 , p 2 ) = u Homem (p 11 ,p 12 ; p 21 ,p 22 )<br />
= p 11 · p 21 · u Homem (futebol, futebol) +<br />
p 11 · p 22 · u Homem (futebol, cinema) +<br />
p 12 · p 21 · u Homem (cinema, futebol) +<br />
p 12 · p 22 · u Homem (cinema, cinema)<br />
= 10· p 11 · p 21 +5· p 12 · p 22<br />
e, portanto, u Homem (p 11 ,p 12 ;1/2, 1/2) = 5 · p 11 +(5/2) · p 12 . Desta<br />
maneira,<br />
MR Homem (1/2, 1/2) = argmax (p11,p 12)∈Δ 2<br />
(5 · p 11 +(5/2) · p 12 ).
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 39<br />
Segue-se que a melhor resposta do homem àestratégia mista p 2 =<br />
(1/2, 1/2) da mulher é obtida resolvendo-se o seguinte problema de<br />
otimização:<br />
maximizar 5 · p 11 +(5/2) · p 12<br />
sujeito a p 11 + p 12 =1,<br />
p 11 ≥ 0,<br />
p 12 ≥ 0,<br />
cuja solução é(p ∗ 11 ,p∗ 12 )=(1, 0). Sendo assim, MR Homem(1/2, 1/2) =<br />
{(1, 0)}.<br />
No caso de jogos com apenas dois jogadores, cada um com apenas<br />
duas estratégias puras, épossível escrever as estratégias mistas de<br />
uma maneira mais simplificada:<br />
Δ 2 = {(p, 1 − p) ∈ R 2 | 0 ≤ p ≤ 1},<br />
isto é, cada elemento de Δ 2 pode ser identificado com um número real<br />
no intervalo [0, 1]. Com isto, as funções de melhor resposta podem<br />
ser reescritas de forma a depender de apenas de um número real. Por<br />
exemplo, se o homem escolhe uma estratégia mista (p, 1 − p) ∈ Δ 2 ,<br />
qual é a melhor resposta da mulher a esta estratégia do homem?<br />
Escrevendo as estratégias mistas da mulher na forma (q, 1 − q) ∈ Δ 2 ,<br />
vemos que<br />
u Mulher (p, 1 − p; q, 1 − q) = 15pq +10− 10 q − 10 p<br />
= 5 (3p − 2) q +10(1− p).<br />
Sendo assim,<br />
MR Mulher (p) = argmax (q,1−q)∈Δ2 (5 (3 p − 2) q +10(1− p))<br />
= argmax q∈[0,1] (5 (3 p − 2) q +10(1− p)),<br />
onde, por simplicidade, estamos escrevendo MR Mulher (p) no lugar<br />
de MR Mulher (p, 1 − p). Assim, dada a escolha de p ∈ [0, 1] do homem,<br />
a mulher quer encontrar os valores de q ∈ [0, 1] que maximizam o valor<br />
de sua utilidade u Mulher =5(3p − 2) q +10(1− p). Se p ∈ [0, 2/3),<br />
então 3 p − 2 < 0 e, para maximizar a sua utilidade, a mulher deverá
40 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
escolher q =0. Sep =2/3, então 3 p − 2 = 0 e, portanto, a utilidade<br />
u Mulher =10(1− p) da mulher não dependerá deq. Neste caso, a<br />
mulher poderá escolher qualquer valor de q em [0, 1]. Se p ∈ (2/3, 1],<br />
então 3 p − 2 > 0 e, para maximizar a sua utilidade, a mulher deverá<br />
escolher q = 1. Mostramos então que<br />
⎧<br />
⎨ {0}, se p ∈ [0, 2/3),<br />
MR Mulher (p) = [0, 1], se p =2/3,<br />
⎩<br />
{1}, se p ∈ (2/3, 1].<br />
Esta função de melhor resposta pode ser representada graficamente,<br />
como mostra a Figura 2.3.<br />
(Mulher)<br />
q<br />
(Futebol)<br />
1<br />
(Cinema)<br />
0<br />
2/3<br />
1 p (Homem)<br />
(Cinema)<br />
(Futebol)<br />
Figura 2.3: Representação gráfica da função de melhor resposta da<br />
mulher no jogo da batalha dos sexos.<br />
Do mesmo modo, se a mulher escolhe uma estratégia mista (q, 1−q) ∈<br />
Δ 2 ,então<br />
u Homem (p, 1 − p; q, 1 − q) = 15pq +5− 5 q − 5 p<br />
= 5 (3q − 1) p +5(1− q),<br />
de modo que<br />
MR Homem (q) = argmax (p,1−p)∈Δ2 (5 (3 q − 1) p +5(1− q))<br />
= argmax p∈[0,1] (5 (3 q − 1) p +5(1− q)).
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 41<br />
Assim, dada a escolha de q ∈ [0, 1] da mulher, o homem quer encontrar<br />
os valores de p ∈ [0, 1] que maximizam o valor de sua utilidade<br />
u Homem =5(3q − 1) p +5(1− q). Se q ∈ [0, 1/3), então 3 q −<br />
1 < 0 e, para maximizar a sua utilidade, o homem deverá escolher<br />
p =0. Seq =1/3, então 3 q − 1=0e,portanto,autilidade<br />
u Homem =5(1− q) dohomemnão dependerá dep. Neste caso, o<br />
homem poderá escolher qualquer valor de p em [0, 1]. Se q ∈ (1/3, 1],<br />
então 3 q − 1 > 0 e, para maximizar a sua utilidade, o homem deverá<br />
escolher p = 1. Mostramos então que<br />
⎧<br />
⎨ {0}, se q ∈ [0, 1/3),<br />
MR Homem (q) = [0, 1], se q =1/3,<br />
⎩<br />
{1}, se q ∈ (1/3, 1].<br />
Esta função de melhor resposta pode ser representada graficamente,<br />
como mostra a Figura 2.4.<br />
(Homem)<br />
p<br />
(Futebol)<br />
1<br />
(Cinema)<br />
0<br />
1/3<br />
1 q (Mulher)<br />
(Cinema)<br />
(Futebol)<br />
Figura 2.4: Representação gráfica da função de melhor resposta do<br />
homem no jogo da batalha dos sexos.<br />
Agora, pela Proposição 2.4, segue-se que um perfil de estratégias<br />
mistas (p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )é um equilíbrio de Nash se, e somente se,<br />
q ∗ ∈ MR Mulher (p ∗ )ep ∗ ∈ MR Homem (q ∗ ). Desta maneira, os valores<br />
de p ∗ e q ∗ que geram equilíbrios de Nash correspondem aos pontos<br />
de interseção entre as representações gráficas das funções de melhor
42 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
resposta da mulher e do homem, quando representadas em um mesmo<br />
sistema de eixos, como ilustra a Figura 2.5.<br />
(Mulher)<br />
q<br />
(Futebol)<br />
1<br />
1/3<br />
(Cinema)<br />
0<br />
2/3<br />
1 p (Homem)<br />
(Cinema)<br />
(Futebol)<br />
Figura 2.5: Calculando os equilíbrios de Nash usando as representações<br />
gráficas das duas funções de melhor resposta.<br />
Vemos, portanto, que a batalha dos sexos possui apenas 3 equilíbrios<br />
de Nash em estratégias mistas:<br />
(0, 1; 0, 1), (2/3, 1/3; 1/3, 2/3) e (1, 0; 1, 0),<br />
que correspondem, respectivamente, aos três únicos pontos de interseção<br />
(p ∗ ,q ∗ )=(0, 0), (p ∗ ,q ∗ )=(2/3, 1/3) e (p ∗ ,q ∗ )=(1, 1) das<br />
duas representações gráficas.<br />
Exemplo 2.12 ([31], página 17) (O jogo da inspeção) Ochefe<br />
de uma empresa de computação desconfia que seu operador de<br />
computadores está usando o tempo de serviço para “bater papo”<br />
na internet. Se o operador trabalha corretamente, ele gasta g em<br />
esforço e produz um lucro bruto de v unidades para a empresa. O<br />
chefe, por sua vez, pode fiscalizar ou não o trabalho do operador.<br />
Fiscalizar custa h unidades para a empresa. Se o operador for pego<br />
“batendo papo” na internet, ele perde o seu salário de w unidades<br />
(o chefe não pode condicionar o valor do salário w ao valor do lucro<br />
bruto v). Para limitar o número de casos a considerar, vamos assumir
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 43<br />
que g > h > 0equew > g. Os dois jogadores escolhem suas<br />
estratégias simultaneamente (em particular, ao decidir se vai fiscalizar<br />
ou não, o chefe não sabe se o empregado decidiu trabalhar ou decidiu<br />
“bater papo” na internet). Neste contexto, o jogo da inspeção tem a<br />
matriz de payoffs indicada abaixo.<br />
empregado<br />
não trabalhar<br />
trabalhar<br />
chefe<br />
fiscalizar (−h, 0) (v − w − h, w − g)<br />
não fiscalizar (−w, w) (v − w, w − g)<br />
Observe que este jogo não possui equilíbrio de Nash em estratégias<br />
puras e, como ele deve se repetir em cada dia útil de trabalho, não é<br />
sensato escolher sempre a mesma estratégia pura para todos os dias.<br />
Asolução, neste caso, é escolher entre as estratégias puras a cada dia<br />
seguindo uma distribuição de probabilidades, isto é, através de estratégias<br />
mistas. Como as funções de melhor resposta do empregado<br />
edochefesão dadas, respectivamente, por<br />
MR Empregado (p) = argmax q∈[0,1] ((−wp + g) q + w − g)<br />
⎧<br />
⎨ {1}, se p ∈ [0,g/w),<br />
= [0, 1], se p = g/w,<br />
⎩<br />
{0}, se p ∈ (g/w, 1],<br />
MR Chefe (q) = argmax p∈[0,1] ((+wq − h) p + v (1 − q) − w)<br />
⎧<br />
⎨ {0}, se q ∈ [0,h/w),<br />
= [0, 1], se q = h/w,<br />
⎩<br />
{1}, se q ∈ (h/w, 1],<br />
segue-se que o (único) equilíbrio de Nash em estratégias mistas é<br />
obtido tomando-se p ∗ = g/w e q ∗ = h/w. Se, por exemplo, v =5,<br />
w =4,g =3eh =2,então<br />
(p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )=(3/4, 1/4; 1/2, 1/2).<br />
Isto significa que o chefe deve escolher sua estratégia de acordo com<br />
um gerador de números aleatórios com distribuição de probabilidade<br />
(3/4, 1/4) e o operador deve escolher sua estratégia de acordo
44 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
com um gerador de números aleatórios com distribuição de probabilidade<br />
(1/2, 1/2). Isto pode ser feito, por exemplo, com as duas “rodas<br />
da fortuna” da Figura 2.6.<br />
Fiscalizar<br />
Trabalhar<br />
Não fiscalizar<br />
Não trabalhar<br />
chefe<br />
empregado<br />
Figura 2.6: Distribuições de probabilidade que constituem um equilíbrio<br />
de Nash para o jogo do Exemplo 2.12.<br />
A partir deste resultado, podemos calcular o valor ótimo de contrato<br />
do empregado, isto é, o valor de w que maximiza o payoff esperado<br />
do chefe:<br />
(<br />
u Chefe (w) =(+wq ∗ − h) p ∗ + v (1 − q ∗ ) − w) =v 1 − h )<br />
− w.<br />
w<br />
Se, por exemplo, √ √ vh > g, então este valor ótimo é dado por w ∗ =<br />
vh (note que u<br />
′<br />
Chefe (w ∗ )=0eu ′′ Chefe (w) ≤ 0paraw>0).<br />
Jogos deste tipo têm sido usados para se estudar temas como controle<br />
de armas ([03, 10, 83]), prevenção de crimes ([04]) e incentivos no<br />
trabalho ([53]).<br />
Como vimos no jogo de comparar moedas no Exemplo 2.6, existem<br />
jogos que não possuem equilíbrios de Nash em estratégias puras e, até<br />
agora, todos os jogos apresentados em nossos exemplos possuem pelo<br />
menos um equilíbrio de Nash em estratégias mistas. Uma pergunta<br />
natural éseaexistência de equilíbrios de Nash em estratégias mistas<br />
é um resultado geral ou não. A resposta ésim!Nopróximo capítulo<br />
apresentaremos e demonstraremos o teorema de equilíbrio de Nash,
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 45<br />
que garante a existência de equilíbrios em estratégias mistas para<br />
jogos finitos.<br />
2.4.3 Relações entre dominância e equilíbrio de<br />
Nash<br />
As Proposições 2.2 e 2.3 para estratégias puras continuam válidas<br />
para estratégias mistas: (1) o processo de dominância estrita iterada<br />
em estratégias mistas não pode eliminar um equilíbrio de Nash<br />
e (2) se o processo de dominância estrita iterada em estratégias mistas<br />
deixa apenas um único perfil de estratégias, então este perfil éum<br />
equilíbrio de Nash do jogo. Não apresentaremos as demonstrações<br />
destes resultados aqui. O leitor interessado poderá encontrá-las nas<br />
referências [15, 26].<br />
2.4.4 Como interpretar estratégias mistas?<br />
Existe muita controvérsia sobre as interpretações e usos de estratégias<br />
mistas ([02, 12, 17, 57, 74, 77, 81, 73, 92, 93]). Aumann,<br />
por exemplo, em [02], afirma que<br />
“Mixed strategy equilibria have always been intuitively<br />
problematic because they are not ‘strict’: a player will not<br />
lose if he abandons the randomization and uses instead<br />
any arbitrary one of the pure strategy components of the<br />
randomization.”<br />
(veja as Equações 4.1 na página 81) e, segundo Rardner e Roshental<br />
([76]),<br />
“One of the reasons why game-theoretic ideas have not<br />
found more widespread application is that randomization,<br />
which plays a major role in game theory, seems to have<br />
limited appeal in many practical situations.”<br />
Ainda, segundo Rubinstein ([81]),<br />
“The reason for the criticism is that the naive interpretation<br />
of a mixed strategy as an action which is conditional<br />
on the outcome of a lottery executed by the player before
46 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
the game, goes against our intuition. We are reluctant to<br />
believe that our decisions are made at random. We prefer<br />
to be able to point to a reason for each action we take.<br />
Outside of Las Vegas we do not spin roulettes.”<br />
De fato, testes experimentais recentes mostraram que jogadores não<br />
seguem a estratégiamistaprevistapelateoria,mesmoquandoojogo<br />
possui um único equilíbrio de Nash em estratégias mistas ([57]).<br />
Existem também certas análises feitas com estratégias mistas que<br />
produzem resultados não-intuitivos. Considere, por exemplo, a seguinte<br />
situação. Um contribuinte C deve decidir se vai ou não sonegar<br />
imposto, sabendo que existe um fiscal F quepodeounão fiscalizá-lo.<br />
Na matriz de payoffs abaixo, vamos assumir que valem as seguintes<br />
desigualdades<br />
(1) c 21 >c 11 : o contribuinte C prefere não sonegar se souber que<br />
ofiscalF irá fiscalizar,<br />
(2) c 12 >c 22 : o contribuinte C prefere sonegar se souber que o fiscal<br />
F não irá fiscalizar,<br />
(3) f 11 >f 12 :ofiscalF prefere fiscalizar se souber que o contribuinte<br />
C irá sonegar e<br />
(4) f 22 >f 21 :ofiscalF prefere não fiscalizar se souber que o contribuinte<br />
C não irá sonegar.<br />
Vocêpodepensarqueosc ij são números negativos que representam<br />
oquantoserá debitado de C pelo pagamento de imposto e que os f ij<br />
são números positivos que representam bônus salariais de F .<br />
F<br />
fiscalizar não fiscalizar<br />
C<br />
sonegar (c 11 ,f 11 ) (c 12 ,f 12 )<br />
não sonegar (c 21 ,f 21 ) (c 22 ,f 22 )<br />
Usandoatécnica descrita no Exemplo 2.11, vemos que o único equilíbrio<br />
de Nash do jogo é dado por (p ∗ C , 1 − p∗ C ; p∗ F , 1 − p∗ F ), onde<br />
(<br />
)<br />
(p ∗ C ,p∗ F )= f 22 − f 21<br />
c 22 − c 12<br />
,<br />
.<br />
f 22 − f 21 − f 12 + f 11 c 22 − c 12 − c 21 + c 11<br />
.
[SEC. 2.4: SOLUÇÕESDEUMJOGOEMESTRATÉGIAS MISTAS 47<br />
Aqui, p ∗ C representa a probabilidade com que C decide sonegar e p∗ F<br />
representa a probabilidade com que F decide fiscalizar. Dois resultados<br />
não-intuitivos advêm destas expressões para p ∗ C e p∗ F :<br />
(a) Se a receita federal decide aumentar a multa de sonegação, isto<br />
é, se ela resolve diminuir o valor de c 11 ,entãoafreqüência p ∗ C de<br />
sonegações não muda e a freqüência de fiscalizações p ∗ F diminui.<br />
(b) Se a receita federal decide aumentar o bônus salarial para os fiscais<br />
que identificam contribuintes sonegadores, isto é, se ela resolveraumentarovalordef<br />
11 ,entãoafreqüência de fiscalizações p ∗ F<br />
não muda e a freqüência de sonegações p ∗ C diminui.<br />
Isto acontece porque alterações introduzidas nos payoffs de um jogador<br />
afeta apenas a expressão para o perfil de estratégias mistas<br />
do equilíbrio de Nash do outro jogador (Proposição da Irrelevância<br />
do Payoff [43]).<br />
Existem, contudo, interpretações que são mais robustas. Uma delas<br />
é imaginar o jogo como uma interação entre n populações numerosas:<br />
cada partida ocorre depois que n jogadores são selecionados<br />
de maneira aleatória nestas populações. As probabilidades p iji no<br />
perfil de estratégias mistas p i do jogador g i são interpretadas como<br />
as freqüências dos jogadores que escolheram a estratégia pura s iji na<br />
i-ésima população. Outra interpretação é devida a Harsanyi. Apresentamos<br />
aqui o abstract de seu artigo [39]:<br />
“Equilibrium points in mixed strategies seem to be unstable,<br />
because any player can deviate without penalty from<br />
his equilibrium strategy even if he expects all other players<br />
to stick to theirs. This paper proposes a model under<br />
which most mixed-strategy equilibrium points have full<br />
stability. It is argued that for any game Γ the players’<br />
uncertainty about the other players’ exact payoffs can be<br />
modeled as a disturbed game Γ ∗ , i.e., as a game with small<br />
random fluctuations in the payoffs. Any equilibrium point<br />
in Γ, whether it is in pure or in mixed strategies, can ‘almost<br />
always’ be obtained as a limit of a pure-strategy<br />
equilibrium point in the corresponding disturbed game<br />
Γ ∗ when all disturbances go to zero. Accordingly, mixedstrategy<br />
equilibrium points are stable – even though the
48 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
players may make no deliberate effort to use their pure<br />
strategies with the probability weights prescribed by their<br />
mixed equilibrium strategies – because the random fluctuations<br />
in their payoffs will make them use their pure<br />
strategies approximately with the prescribed probabilities.”<br />
Não nos aprofundaremos neste tema polêmico. O leitor interessado<br />
pode consultar as referências citadas no início desta subseção e, em<br />
especial, [81] e a Seção 3.2 de [74].<br />
2.5 Jogos infinitos<br />
Os jogos que estudamos até agora são finitos, istoé, eles possuem<br />
um número finito de jogadores, cada um com um número finito de estratégias<br />
puras. Contudo, existem situações que, para serem modeladas,<br />
necessitam de um número infinito de jogadores ou de um número<br />
infinito de estratégias ([06, 44, 62]). Jogos em estratégias mistas, por<br />
exemplo, podem ser pensados como jogos com um número finito de<br />
jogadores e com um número infinito de estratégias (as infinitas distribuições<br />
de probabilidade que cada jogador pode escolher). Vamos<br />
nos concentrar no caso de jogos com um número finito de jogadores e<br />
um número infinito de estratégias puras (o caso de estratégias mistas<br />
requer como pré-requisito teoria da medida e não será tratado aqui).<br />
As definições de estratégias estritamente dominadas, estratégias fracamente<br />
dominadas e equilíbrios de Nash são análogas ao caso finito,<br />
com a diferença de que, agora, os conjuntos S i podem ser infinitos.<br />
Definição 2.12 (Estratégia Pura Estritamente Dominada)<br />
Dizemos que uma estratégia pura s i ∈ S i do jogador g i ∈<br />
G é estritamente dominada pela estratégia s ′ i ∈ S i se<br />
para todo s −i ∈ S −i .<br />
u i (s ′ i , s −i) >u i (s i , s −i ),
[SEC. 2.5: <strong>JOGOS</strong> INFINITOS 49<br />
Definição 2.13 (Estratégia Pura Fracamente Dominada)<br />
Dizemos que uma estratégia pura s i ∈ S i do jogador<br />
g i ∈ G é fracamente dominada pela estratégia s ′ i ∈ S i se<br />
u i (s ′ i, s −i ) ≥ u i (s i , s −i ),<br />
para todo s −i ∈ S −i e, pelo menos para algum s • −i ∈ S −i,<br />
u i (s iκ ′, s • −i ) >u i(s iκ , s • −i ).<br />
Definição 2.14 (Equilíbrio de Nash)Dizemos que um perfil<br />
de estratégias<br />
s ∗ =(s ∗ 1 ,...,s∗ (i−1) ,s∗ i ,s∗ (i+1) ,...,s∗ n ) ∈ S<br />
éumequilíbrio de Nash se<br />
u i (s ∗ i , s∗ −i ) ≥ u i(s i , s ∗ −i )<br />
para todo i =1,...,n eparatodos i ∈ S i .<br />
Exemplo 2.13 ([26], página 2009) Considere o seguinte jogo infinito:<br />
G = {g 1 ,g 2 }, S 1 = S 2 =[0, 1] e u 1 ,u 2 : S = S 1 × S 2 → R<br />
definidas por<br />
⎧<br />
⎨<br />
u 1 (x, y) =<br />
⎩<br />
x, se x
50 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Do mesmo modo, toda estratégia pura y ∈ [0, 1) do jogador g 2 é<br />
estritamente dominada por (1 + y)/2 ∈ (y, 1). Como<br />
u 1 (1, 1) = 1 ≥ u 1 (x, 1) e u 2 (1, 1) = 1 ≥ u 2 (1,y), ∀x, y, ∈ [0, 1],<br />
segue-se que (x ∗ ,y ∗ )=(1, 1) éoúnico equilíbrio de Nash em estratégias<br />
puras do jogo. Eliminando-se todas as estratégias em S 1 −<br />
{1,t} e S 2 −{1,t}, paraalgumt
[SEC. 2.6: EXERCÍCIOS 51<br />
g 2<br />
s 21 s 22 s 23 s 24<br />
g 1<br />
s 11 (3, 0) (1, 1) (5, 4) (0, 2)<br />
s 12 (1, 1) (3, 2) (6, 0) (2, −1)<br />
s 13 (0, 2) (4, 4) (7, 2) (3, 0)<br />
[02] Considere a matriz de payoffs para os jogadores L (linhas) e C<br />
(colunas), a seguir:<br />
C<br />
c 1 c 2<br />
L<br />
l 1 (3, 3) (0, 1)<br />
l 2 (1, 1) (2, 3)<br />
Pede-se:<br />
(a) Determinar se existe alguma estratégia estritamente dominante<br />
para algum jogador.<br />
(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />
puras). Caso exista mais do que um equilíbrio, quantos<br />
equaissão.<br />
[03] A partir da matriz de payoffs a seguir para os jogadores L (linhas)<br />
e C colunas,<br />
C<br />
c 1 c 2<br />
L<br />
l 1 (3, 2) (4, 4)<br />
l 2 (1, 1) (9, 2)<br />
determine:
52 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
(a) Se algum jogador possui alguma estratégia dominante.<br />
(b) Quantos equilíbrios de Nash em estratégias puras existem.<br />
[04] (Jogo do covarde) Neste jogo, dois adolescentes pilotam<br />
carros roubados em direçãoaumabismoemumtestedecoragem:<br />
aquele que desviar o carro primeiro será chamado de<br />
covarde (chicken).<br />
Este tipo de jogo ficou popular depois do filme Juventude Transviada<br />
(Rebel Without a Cause) de 1955, estrelado por James<br />
Dean, que morreu em decorrência de um acidente de automóvel.<br />
Bertrand Russell, em [82], compara uma variação deste jogo<br />
com a tática de brinkmanship 2 na corrida nuclear:<br />
“Since the nuclear stalemate became apparent, the<br />
Governments of East and West have adopted the<br />
policy which Mr. Dulles calls ‘brinkmanship’. This<br />
is a policy adapted from a sport which, I am told, is<br />
practised by some youthful degenerates. This sport<br />
is called ‘Chicken!’. It is played by choosing a long<br />
straight road with a white line down the middle and<br />
starting two very fast cars towards each other from<br />
opposite ends. Each car is expected to keep the wheels<br />
of one side on the white line. As they approach each<br />
other, mutual destruction becomes more and more<br />
imminent. If one of them swerves from the white<br />
2 Arte ou prática de se levar uma situação perigosa ou confrontação além do<br />
limite do que pode ser considerado seguro, para conseguir determinado desfecho.
[SEC. 2.6: EXERCÍCIOS 53<br />
line before the other, the other, as he passes, shouts<br />
‘Chicken!’, and the one who has swerved becomes<br />
an object of contempt. As played by irresponsible<br />
boys, this game is considered decadent and immoral,<br />
though only the lives of the players are risked. But<br />
when the game is played by eminent statesmen, who<br />
risk not only their own lives but those of many hundreds<br />
of millions of human beings, it is thought on<br />
both sides that the statesmen on one side are displaying<br />
a high degree of wisdom and courage, and<br />
only the statesmen on the other side are reprehensible.<br />
This, of course, is absurd. Both are to blame<br />
for playing such an incredibly dangerous game. The<br />
game may be played without misfortune a few times,<br />
but sooner or later it will come to be felt that loss<br />
of face is more dreadful than nuclear annihilation.<br />
The moment will come when neither side can face<br />
the derisive cry of ‘Chicken!’ from the other side.<br />
When that moment is come, the statesmen of both<br />
sides will plunge the world into destruction.”<br />
O jogo do covarde pode ser modelado com a seguinte matriz<br />
de payoffs:<br />
desviar<br />
g 2<br />
não desviar<br />
g 1<br />
desviar (2, 2) (1, 3)<br />
não desviar (3, 1) (0, 0)<br />
.<br />
Pede-se:<br />
(a) Determinar se existe alguma estratégia estritamente dominante<br />
para algum jogador.<br />
(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />
puras). Caso exista mais do que um equilíbrio, quantos<br />
equaissão.
54 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
[05] (Jogo Hawk-Dove) Dois animais disputam um recurso (uma<br />
presa, por exemplo). Cada animal tem duas opções: (1) brigar<br />
pelo recurso (estratégia hawk) ou (2) ameaçar o seu oponente<br />
(estratégia dove). Se os dois animais resolverem brigar pelo<br />
recurso, o conflito continuará até que um deles fique ferido e<br />
o vencedor será o outro. Se somente um animal decide atacar,<br />
então ele vencerá o animal que decidiu apenas ameaçar.<br />
Se os dois escolherem fazer ameaças, então existe um empate<br />
e cada animal recebe um ganho menor do que ganharia na situação<br />
onde um escolhe brigar e o outro ameaçar. Este jogo<br />
foi apresentado pela primeira vez por John Maynard Smith e<br />
George Price no artigo The Logic of Animal Conflict na revista<br />
Nature [56]. A forma tradicional da matriz de payoffs éa<br />
seguinte:<br />
g 1<br />
brigar<br />
ameaçar<br />
brigar<br />
( V − C<br />
, V − C )<br />
2 2<br />
(0,V)<br />
g 2<br />
ameaçar<br />
(V,0)<br />
( V<br />
2 , V 2<br />
)<br />
.<br />
Aqui, V é o valor do recurso sendo disputado e C éocustoda<br />
briga. Em geral, assume-se que o valor do recurso émenordo<br />
que o custo da briga, isto é, C>V >0. Pede-se:<br />
(a) Determinar se existe alguma estratégia estritamente dominante<br />
para algum jogador.<br />
(b) Determinar se existe algum equilíbrio de Nash (em estratégias<br />
puras). Caso exista mais do que um equilíbrio, quantos<br />
equaissão.<br />
[06] No artigo “Nornmandy: Game and Reality”, deW.Drakerna<br />
revista “Moves”, no. 6 (1972), é feita uma análise da invasão da<br />
Europa na Normandia na Segunda Guerra Mundial. Seis configurações<br />
possíveis de ataque (1 a 6) pelos Aliados e seis possíveis
[SEC. 2.6: EXERCÍCIOS 55<br />
estratégias defensivas (A a F ) pelo Eixo foram simuladas e calculadas,<br />
num total de 36 simulações. A matriz da Tabela 2.1<br />
foi estimada pelos Aliados para cada batalha hipotética. Use o<br />
processo de dominância fraca iterada para reduzir ao máximo<br />
possível o tamanho da matriz.<br />
[07] Considere um jogo com três jogadores: A, B e C. Asestratégias<br />
do jogador A são {x 1 ,x 2 ,x 3 },asestratégias do jogador B são<br />
{y 1 ,y 2 } easestratégias do jogador C são {z 1 ,z 2 ,z 3 ,z 4 }. Se<br />
o jogador B escolhe a estratégia y 1 ,ospayoffs são dados pela<br />
matriz<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (5, 0, 2) (1, 0, 1) (3, 0, 6) (1, 2, 1)<br />
A<br />
x 2 (3, 2, 2) (9, 1, 8) (2, 0, 5) (2, 0, 2)<br />
x 3 (1, 0, 0) (1, 0, 9) (4, 0, 8) (3, 0, 3)<br />
Por outro lado, se o jogador B escolhe a estratégia y 2 ,então os<br />
payoffs são dados por<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (0, 1, 1) (0, 1, 2) (2, 1, 3) (0, 3, 9)<br />
A<br />
x 2 (0, 3, 2) (1, 2, 3) (2, 1, 8) (2, 1, 0)<br />
x 3 (1, 1, 0) (2, 1, 1) (3, 2, 2) (3, 1, 3)<br />
Use a técnica de dominância estrita iterada para reduzir a matriz<br />
deste jogo.
56 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Tabela 2.1: Análise da invasão da Europa na Normandia na Segunda Guerra Mundial.<br />
6 (+23, −23) (+22, −22) (+19, −19) (+23, −23) (+30, −30) (+34, −34)<br />
Aliados<br />
3 (+18, −18) (+22, −22) (+31, −31) (+31, −31) (+27, −27) (+37, −37)<br />
4 (+11, −11) (+22, −22) (+12, −12) (+21, −21) (+21, −21) (+26, −26)<br />
5 (+18, −18) (+16, −16) (+19, −19) (+14, −14) (+19, −19) (+28, −28)<br />
2 (+18, −18) (+22, −22) (+21, −21) (+22, −22) (+29, −29) (+31, −31)<br />
1 (+13, −13) (+29, −29) (+ 8, − 8) (+12, −12) (+16, −16) (+23, −23)<br />
Eixo<br />
A B C D E F
[SEC. 2.6: EXERCÍCIOS 57<br />
[08] Repita o exercício anterior com a matriz de payoffs<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (1, 2, 9) (2, 9, 9) (3, 7, 9) (2, 8, 9)<br />
A<br />
x 2 (3, 8, 3) (4, 5, 4) (4, 1, 3) (3, 9, 3)<br />
x 3 (2, 9, 9) (3, 9, 9) (3, 9, 9) (2, 9, 9)<br />
caso o jogador B escolha a estratégia y 1 eamatrizdepayoffs<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (2, 1, 9) (3, 9, 9) (2, 9, 9) (1, 9, 9)<br />
A<br />
x 2 (4, 9, 1) (4, 2, 2) (3, 2, 1) (2, 2, 1)<br />
x 3 (1, 9, 9) (2, 9, 9) (2, 9, 9) (1, 9, 9)<br />
caso ele escolha a estratégia y 2 .<br />
[09] Considere um jogo com três jogadores: A, B e C. Asestratégias<br />
do jogador A são {x 1 ,x 2 ,x 3 },asestratégias do jogador B são<br />
{y 1 ,y 2 } easestratégias do jogador C são {z 1 ,z 2 ,z 3 ,z 4 }. Se<br />
o jogador B escolhe a estratégia y 1 ,ospayoffs são dados pela<br />
matriz<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (1, 2, 1) (2, 3, 1) (1, 0, 2) (1, 4, 1)<br />
A<br />
x 2 (2, 0, 1) (1, 2, 1) (3, 1, 3) (3, 2, 1)<br />
x 3 (1, 0, 1) (1, 1, 1) (2, 5, 1) (1, 3, 1)
58 [CAP. 2: <strong>JOGOS</strong> NA FORMA ESTRATÉGICA<br />
Por outro lado, se o jogador B escolhe a estratégia y 2 ,então os<br />
payoffs são dados por<br />
C<br />
z 1 z 2 z 3 z 4<br />
x 1 (0, 0, 0) (1, 2, 3) (1, 3, 0) (1, 1, 1)<br />
A<br />
x 2 (2, 1, 0) (1, 5, 1) (2, 2, 3) (1, 5, 2)<br />
x 3 (2, 1, 1) (1, 0, 1) (1, 0, 4) (1, 5, 3)<br />
Calcule os equilíbrios de Nash em estratégias puras deste jogo.<br />
[10] Considere o jogo cuja matriz de payoffs é dada por:<br />
Jogador 2<br />
L C R<br />
Jogador 1<br />
T (1, 0) (3, 1) (1, 1)<br />
M (1, 1) (3, 0) (0, 1)<br />
B (2, 2) (3, 3) (0, 2)<br />
.<br />
(a) Identifique, para cada jogador, todos os pares de estratégias<br />
onde uma estratégia é fracamente dominada pela outra.<br />
(b) Usando o processo de eliminação das estratégias fracamente<br />
dominadas, encontre todas as possíveis de maneiras de reduzir<br />
o jogo para uma matriz 1 × 1.<br />
(c) Quais são os equilíbrios de Nash em estratégias puras do<br />
jogo?<br />
[11] Suponha que o processo de dominância fraca iterada em estratégias<br />
puras reduza um jogo finito para apenas um único<br />
perfil de estratégias s ∗ .Mostreques ∗ é um equilíbrio de Nash<br />
em estratégias puras do jogo.
[SEC. 2.6: EXERCÍCIOS 59<br />
[12] Demonstre a propriedade 2.2 da página 31 da função utilidade<br />
esperada definida em 2.1.<br />
[13] Mostre que uma estratégia mista que atribui probabilidade positiva<br />
para uma estratégia pura estritamente dominada também<br />
é estritamente dominada.<br />
[14] Use a técnica descrita no Exemplo 2.11 para calcular as funções<br />
de melhor resposta dos jogadores dos Exemplos 2.1 (o dilema<br />
dos prisioneiros) e 2.6 (comparar moedas). Em seguida, use as<br />
representações gráficas destas funções para calcular os equilíbrios<br />
de Nash em estratégias mistas de cada jogo.<br />
[15] Um equilíbrio de Nash em estratégias mista pode dar probabilidade<br />
positiva a uma estratégia pura que éestritamentedominada?<br />
E em uma estratégia pura que é fracamente dominada?<br />
[16] (Eficiência de Pareto) Um perfil de estratégias puras é Pareto<br />
eficiente (também denominado ponto ótimo de Pareto) se<br />
nenhum outro perfil de estratégias puras oferece a todos os jogadores<br />
um ganho maior, isto é, nenhum jogador pode aumentar o<br />
seu ganho sem que algum outro jogador tenha uma perda. Mais<br />
precisamente, s ∗ ∈ S é Pareto eficiente se, não existe s • ∈ S<br />
tal que<br />
u i (s • ) >u i (s ∗ ),<br />
para todo i =1,...,n.<br />
O equilíbrio de Nash s ∗ = (confessar, confessar) do jogo do<br />
dilema dos prisioneiros é Pareto eficiente?
Capítulo 3<br />
O teorema de equilíbrio<br />
de Nash<br />
O teorema de equilíbrio de Nash estabelece que todo jogo finito<br />
possui pelo menos um equilíbrio de Nash em estratégias mistas. Este<br />
resultado foi provado por John Forbes Nash Jr. em sua tese de doutorado<br />
em 1949 na Universidade de Princeton. Neste capítulo apresentaremos<br />
duas demonstrações do teorema, obtidas através de dois<br />
teoremas de ponto fixo: o de Brouwer e o de Kakutani.<br />
3.1 Usando o teorema de Brouwer<br />
Teorema 3.1 (do ponto fixo de Brouwer) Se Δ éum<br />
subconjunto compacto, convexo e não-vazio de um espaço euclidiano<br />
de dimensão finita e se F: Δ→ Δé uma função contínua,<br />
então F possui um ponto fixo em Δ, isto é, existe p ∗ ∈ Δtal<br />
que<br />
F(p ∗ )=p ∗ .<br />
Ademonstração deste teorema pode ser encontrada, por exemplo,<br />
em [63, 79]. A dissertação de mestrado [89] oferece um excelente<br />
60
[SEC. 3.1: USANDO O TEOREMA DE BROUWER 61<br />
survey sobre o assunto: ela inclui dados históricos, generalizações e<br />
aplicaçõesdoteoremadopontofixodeBrouwer.<br />
Com as notações dadas na Seção 2.3, estabeleceremos uma seqüência<br />
de teoremas que fornecem caracterizações alternativas para<br />
um equilíbrio de Nash.<br />
Teorema 3.2 Para cada i =1,...,n e j =1,...,m i , defina as<br />
funções<br />
z ij : Δ → R<br />
p ↦→ z ij (p) =u i (s ij , p −i ) − u i (p i , p −i )<br />
(isto é, z ij mede o ganho ou perda do jogador g i quando ele troca<br />
a distribuição de probabilidade p i pela estratégia pura s ij ). Temos<br />
que p ∗ é um equilíbrio de Nash se, e somente se,<br />
z ij (p ∗ ) ≤ 0<br />
para cada i =1,...,n e j =1,...,m i .<br />
Demonstração:<br />
(⇒) Sep ∗ =(p ∗ i , p∗ −i )é um equilíbrio de Nash, então u i(p ∗ i , p∗ −i )<br />
≥ u i (s ij , p ∗ −i ) para cada i =1,...,n e j =1,...,m i. Conseqüentemente,<br />
z ij (p ∗ )=u i (s ij , p ∗ −i) − u i (p ∗ i , p ∗ −i) ≤ 0<br />
para cada i =1,...,n e j =1,...,m i .<br />
(⇐) Se<br />
z ij (p ∗ )=u i (s ij , p ∗ −i ) − u i(p ∗ i , p∗ −i ) ≤ 0<br />
para cada i =1,...,n e j =1,...,m i ,então<br />
u i (s ij , p ∗ −i) =u i (e j , p ∗ −i) ≤ u i (p ∗ i , p ∗ −i)<br />
para cada i =1,...,n e j =1,...,m i , onde e j éovetoremR mi que<br />
tem 1 na j-ésima coordenada e zero nas demais. Devemos mostrar<br />
que para todo p i =(p i1 ,...,p imi ) ∈ Δ mi<br />
u i (p i , p ∗ −i) ≤ u i (p ∗ i , p ∗ −i).
62 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />
Mas, como x ↦→ u i (x, p ∗ i ) preserva combinações convexas, temos que<br />
(<br />
mi<br />
)<br />
∑<br />
∑m i<br />
u i (p i , p ∗ −i) =u i p ik · e k , p ∗ (<br />
−i = p ik · u i ek , p ∗ )<br />
−i<br />
∑m i<br />
k=1<br />
k=1<br />
≤<br />
k=1<br />
(<br />
p ik · u i p<br />
∗<br />
i , p ∗ ( ∑m i<br />
−i)<br />
= ui p<br />
∗<br />
i , p ∗ (<br />
−i)<br />
· p ik = u i p<br />
∗<br />
i , p ∗ −i)<br />
,<br />
onde, na última igualdade, usamos o fato de que ∑ m i<br />
k=1 p ik =1,dado<br />
que p i ∈ Δ mi .<br />
k=1<br />
Teorema 3.3 Para cada i =1,...,n e j =1,...,m i , defina as<br />
funções<br />
g ij : Δ → R<br />
p ↦→ g ij (p) =max{0,z ij (p)} .<br />
Temos que p é um equilíbrio de Nash se, e somente se,<br />
g ij (p) =0<br />
para cada i =1,...,n e j =1,...,m i .<br />
Demonstração: A prova segue imediatamente do teorema anterior.<br />
Teorema 3.4 Defina a aplicação<br />
F: Δ = Δ m1 ×···×Δ mn → Δ=Δ m1 ×···×Δ mn<br />
p =(p 1 ,...,p n ) ↦→ F(p) =(y 1 (p),...,y n (p)) ,<br />
onde<br />
e<br />
y i (p) =(y i1 (p),...,y imi (p)), p i =(p i1 ,...,p imi )
[SEC. 3.1: USANDO O TEOREMA DE BROUWER 63<br />
y ij (p) =<br />
p ij + g ij (p)<br />
m i<br />
.<br />
∑<br />
1+ g ik (p)<br />
k=1<br />
Temos que p ∗ é um equilíbrio de Nash se, e somente se,<br />
F(p ∗ )=p ∗ ,<br />
isto é, se, e somente se, p ∗ éumpontofixodaaplicação F.<br />
Demonstração: Observe que, de fato, F(Δ) ⊆ Δ, pois claramente<br />
y ij ≥ 0e<br />
∑m i<br />
k=1<br />
⎛<br />
⎞<br />
∑m i<br />
∑m i<br />
∑m i<br />
p ik + g ik (p)<br />
y ik (p) =<br />
p ik + g ik (p)<br />
⎜ m i<br />
k=1 ⎝ ∑ ⎟<br />
⎠ = k=1 k=1<br />
∑m i<br />
1+ g ik (p) 1+ g ik (p)<br />
k=1<br />
∑m i<br />
1+ g ik (p)<br />
k=1<br />
m i<br />
=<br />
=1,<br />
∑<br />
1+ g ik (p)<br />
k=1<br />
isto é, cada y i (p) ∈ Δ mi .<br />
(⇒) Sep ∗ é um equilíbrio de Nash, então g ij (p ∗ ) = 0 para cada<br />
i =1,...,n e j =1,...,m i .Destamaneira,y ij (p ∗ )=p ∗ ij para cada<br />
i =1,...,ne j =1,...,m i ,istoé, y i (p ∗ )=p ∗ i para cada i =1,...,n<br />
ou, ainda, F(p ∗ )=p ∗ .<br />
(⇐) Suponha que p ∗ =(p ∗ 1, p ∗ 2,...,p ∗ n) ∈ Δ=Δ m1 ×···×Δ mn<br />
seja um ponto fixo da aplicação F: Δ→ Δ, isto é, suponha que<br />
p ∗ ij = p∗ ij + g ij(p ∗ )<br />
∑m i<br />
1+ g ik (p ∗ )<br />
k=1<br />
k=1
64 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />
para todo j =1,...,m i e i =1,...,n.Segue-seentão que<br />
m i<br />
p ∗ ij ·<br />
∑<br />
g ik (p ∗ )=g ij (p ∗ ),<br />
k=1<br />
∑<br />
para todo j =1,...,m i e i =1,...,n. Afirmamos agora que α =<br />
mi<br />
k=1 g ik(p ∗ ) = 0, de modo que g ik (p ∗ )=0paratodok =1,...,m i<br />
e i =1,...,n. De fato: se, por absurdo, α>0, vemos a partir da<br />
relação acima que<br />
g ij (p ∗ ) > 0 se, e somente se, p ∗ ij > 0.<br />
Sem perda de generalidade, suponha que p ∗ i1 > 0, p∗ i2 > 0,...,p∗ il > 0<br />
e p ∗ i(l+1) = p∗ i(l+2) = ···= p∗ im i<br />
=0. Observeque<br />
∑m i<br />
p ∗ i = p ∗ ike k ,<br />
k=1<br />
onde e i é o i-ésimo vetor da base canônica de R mi . Dado que<br />
g ik (p ∗ ) > 0paratodok =1,...,l,temosque<br />
u i (e k , p ∗ −i) >u i (p ∗ i , p ∗ −i),<br />
para todo k =1,...,l.Destamaneira,<br />
(<br />
mi<br />
)<br />
∑<br />
∑m i<br />
u i (p ∗ i , p ∗ −i) =u i p ∗ ike k , p ∗ −i = p ∗ (<br />
ik · u i ek , p ∗ )<br />
−i<br />
k=1<br />
k=1<br />
=<br />
l∑<br />
k=1<br />
p ∗ ik · u (<br />
i ek , p ∗ )<br />
−i<br />
><br />
l∑<br />
p ∗ ik · u (<br />
i p<br />
∗<br />
i , p ∗ (<br />
−i)<br />
= ui p<br />
∗<br />
i , p ∗ −i)<br />
·<br />
k=1<br />
l∑<br />
p ∗ ik = u (<br />
i p<br />
∗<br />
i , p ∗ −i)<br />
,<br />
um absurdo. Isto demonstra que g ij (p ∗ )=0paratodoj =1,...,m i<br />
e j =1,...,m e, assim, p ∗ é um equilíbrio de Nash em estratégias<br />
mistas.<br />
k=1
[SEC. 3.2: USANDO O TEOREMA DE KAKUTANI 65<br />
Teorema 3.5 (do equilíbrio de Nash) Todo jogo definido<br />
por matrizes de payoffs possui um equilíbrio de Nash.<br />
Demonstração: A aplicação F: Δ→ Δ definida no teorema anterior<br />
écontínua e Δ é um conjunto compacto e convexo. Pelo teorema<br />
do ponto fixo de Brouwer, F possui um ponto fixo p ∗ . Pelo teorema<br />
anterior, p ∗ é um equilíbrio de Nash.<br />
3.2 Usando o teorema de Kakutani<br />
Seja X um subconjunto de R n . Dizemos que p ∗ ∈ X éumponto<br />
fixo de uma função φ: X → 2 X se p ∗ ∈ φ(p ∗ ). O teorema do ponto<br />
fixo de Kakutani estabelece condições suficientes para que φ possua<br />
pelo menos um ponto fixo.<br />
Teorema 3.6 (do ponto fixo de Kakutani) Seja X um<br />
subconjunto compacto, convexo e não-vazio de R n .Se<br />
φ: X → 2 X<br />
ésemicontínua superiormente e φ(x)énão-vazio e convexo para<br />
todo x ∈ X, então φ possui pelo menos um ponto fixo, isto é,<br />
existe p ∗ ∈ X tal que<br />
p ∗ ∈ φ(p ∗ ).<br />
Suponha que exista um subconjunto compacto K de R n tal que<br />
φ(x) ⊆ K para todo x ∈ X e suponha que φ(x) é um subconjunto<br />
fechado de R n para todo x ∈ X. Dizemos que φ: X → 2 X é contínua<br />
superiormente se, e somente se, y 0 ∈ φ(x 0 ) sempre que (a) x 0 ∈ X,<br />
(b) x k ∈ X para k =1, 2,..., (c) lim k→+∞ x k = x 0 ,(d)y k ∈ φ(x k )<br />
e (e) lim k→+∞ y k = y 0 . Neste contexto, φ écontínua superiormente<br />
se, e somente se, o gráfico de φ,<br />
Gr(φ) ={(x, y) ∈ X × X | y ∈ φ(x)},
66 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />
é um subconjunto fechado de X × X. Por exemplo, se X =[0, 1],<br />
então<br />
{ {1/2}, se 0 ≤ x
[SEC. 3.2: USANDO O TEOREMA DE KAKUTANI 67<br />
y<br />
1<br />
3/4<br />
1/2<br />
1/4<br />
0 1/2<br />
1<br />
x<br />
Figura 3.2: Gráfico de uma função que não é semicontínua superiormente.<br />
Teorema 3.7 (do equilíbrio de Nash) Todo jogo definido<br />
por matrizes de payoffs possui um equilíbrio de Nash.<br />
Demonstração: Basta verificarmos que a função de melhor resposta<br />
satisfaz as hipóteses do teorema do ponto fixo de Kakutani.<br />
(1) O conjunto X =Δ=Δ(S 1 ) × ···× Δ(S n )énão-vazio, compacto<br />
(como produto cartesiano de conjuntos compactos) e convexo<br />
(como produto cartesiano de conjuntos convexos).<br />
(2) Para todo p ∈ Δ, o conjunto MR(p) está contido no compacto<br />
K =Δ.<br />
(3) Para todo p ∈ Δ, o conjunto MR(p) é convexo. De fato: suponha,<br />
por absurdo, MR(p) não seja um conjunto convexo. Então<br />
existem q (•) , q (◦) ∈ MR(p) eλ ∈ (0, 1) tais que<br />
(1 − λ) · q (•) + λ · q (◦) ∉ MR(p).
68 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />
Mas, para todo índice i, valeque<br />
u i ((1 − λ) · q (•)<br />
i<br />
Agora,<br />
+ λ · q (◦)<br />
i , p −i )=<br />
(1 − λ) · u i (q (•)<br />
i<br />
, p −i )+λ · u i (q (◦)<br />
i , p −i ).<br />
u i (q (•)<br />
i , p −i )=u i (q (◦)<br />
i , p −i )=constante= max u i(p i , p −i ).<br />
p i ∈Δ(S i)<br />
Conseqüentemente, u i ((1 − λ) · q (•)<br />
i + λ · q (◦)<br />
i , p −i )=constante,<br />
isto é, (1 − λ) · q (•)<br />
i + λ · q (◦)<br />
i ∈ MR i (p −i ), para todo i =1,...,n,<br />
oqueéumacontradição.<br />
(4) Para todo p ∈ Δ,oconjuntoMR(p) é fechado. Para ver isto,<br />
basta mostrar que MR i (p −i ) = argmax pi ∈Δ(S i) u i (p i , p −i )éfechado.<br />
Seja então p (k)<br />
i uma sequência de pontos em MR i (p −i )que<br />
converge para p (0)<br />
i . Desta maneira, u i (p (k)<br />
i , p −i )=constante=<br />
max pi ∈Δ(S i) u i (p i , p −i )e,comox ↦→ u i (x, p −i )é uma função<br />
contínua, concluímos que<br />
u i (p (0)<br />
i , p −i )=constante= max<br />
p i ∈Δ(S i) u i(p i , p −i ).<br />
Sendo assim, p (0)<br />
i ∈ MR i (p −i ).<br />
(5) MR: Δ → 2 Δ ésemicontínua superiormente. Com efeito, mostraremos<br />
que se (a) p (0) ∈ Δ, (b) p (k) éumasequência de pontos<br />
em Δ, (c) lim k→+∞ p (k) = p (0) ,(d)q (k) ∈ MR(p (k) )e(e)q (k)<br />
converge para q (0) , então q (0) ∈ MR(p (0) ). Se, por absurdo,<br />
q (0) ∉ MR(p (0) ), então existe índice i tal que q (0)<br />
i<br />
∉ MR(p (0)<br />
Portanto, existem ɛ>0eq (•)<br />
i<br />
∈ Δ(S i )taisque<br />
u i (q (•)<br />
i , p (0)<br />
−i ) >u i(q (0)<br />
i , p (0)<br />
−i )+3· ɛ.<br />
−i ).<br />
Mas, desde que u i é uma função contínua e (q (k)<br />
i , p (k)<br />
−i )converge<br />
para (q (0)<br />
i , p (0)<br />
−i ), então para todo k suficientemente grande,<br />
u i (q (•)<br />
i , p (k)<br />
−i ) >u i(q (•)<br />
i , p (0)<br />
−i ) − ɛ><br />
u i (q (0)<br />
i , p (0)<br />
−i )+2· ɛ>u i(q (k)<br />
i<br />
, p (k)<br />
−i )+ɛ.
[SEC. 3.3: ALG<strong>UMA</strong>S PROPRIEDADES <strong>DOS</strong> EQUILÍBRIOS DE NASH 69<br />
Sendo assim, q (k)<br />
i ∉ MR i (p (k)<br />
−i ), pois u i(q (•)<br />
i , p (k)<br />
−i ) >u i(q (k)<br />
i , p (k)<br />
−i ),<br />
o que contradiz (d).<br />
Shizuo Kakutani demonstrou o seu teorema no artigo [45]. Debreu<br />
lista mais de 300 aplicações do teorema do ponto fixo de Kakutani<br />
ao provar a existência de um equilíbrio econômico em [24].<br />
3.3 Algumas propriedades dos equilíbrios<br />
de Nash<br />
Wilson ([97]) mostrou que, a menos de um conjunto fechado e<br />
de medida zero, todo jogo finito possui um número finito e ímpar<br />
de equilíbrios de Nash em estratégias mistas. Pelo menos para jogos<br />
com dois jogadores, cada um com duas estratégias, este resultado<br />
pode ser antecipado através da análise das funções de melhor resposta<br />
que fizemos na Subseção 2.4.2 (veja, por exemplo, a Figura 2.5 na<br />
página 42). Harsanyi, em [40], apresentou uma prova alternativa para<br />
este resultado. Também tratam do assunto as referências [35, 36, 59].<br />
Por outro lado, os casos degenerados podem ter topologias diversificadas.<br />
De fato, Datta provou que toda variedade algébrica real<br />
(soluções reais de um sistema de equações polinomiais) éisomorfa<br />
ao conjunto de equilíbrios de Nash em estratégias totalmente mistas<br />
de algum jogo com 3 jogadores e, também, de algum jogo com n<br />
jogadores, cada um com apenas 2 estratégias puras ([20]). Um perfil<br />
de estratégias totalmente mistas éumperfilquedá probabilidade<br />
positiva a cada estratégia pura.<br />
Existem jogos cujos payoffs são todos números racionais, mas todos<br />
os equilíbrios de Nash em estratégias mistas possuem coordenadas<br />
irracionais ([69]). Contudo, Markakis mostrou que, neste contexto,<br />
existe sempre pelo menos um equilíbrio de Nash em estratégias mistas<br />
com coordenadas algébricas ([51, 54]).<br />
Torres-Martínez ([91]) e Zhao ([99]) demonstram que épossível<br />
deduzir os teoremas de ponto fixo de Brouwer e Kakutani a partir de<br />
um teorema de existência de equilíbrios de Nash.
70 [CAP. 3: O TEOREMA DE EQUILÍBRIO DE NASH<br />
3.4 Exercícios<br />
[01] O objetivo deste exercício é mostrar que as hipóteses do teorema<br />
do ponto fixo de Brouwer não podem ser removidas.<br />
(a) Exiba uma função F: Δ→ Δ descontínua, definida em um<br />
subconjunto Δ compacto, convexo e não-vazio de R n ,que<br />
não possui ponto fixo.<br />
(b) Exiba uma função F: Δ→ Δcontínua, definida em um<br />
subconjunto Δ não-compacto, convexoenão-vazio de R n ,<br />
que não possui ponto fixo.<br />
(c) Exiba uma função F: Δ→ Δcontínua, definida em um<br />
subconjunto Δ compacto, não-convexo enão-vazio de R n ,<br />
que não possui ponto fixo.<br />
[02] Exiba um exemplo de função φ: X → 2 X definida em um<br />
subconjunto X compacto, convexo e não-vazio de R n , que é<br />
semicontínua superiormente, mas não possui ponto fixo. Isto<br />
mostra que a hipótese de φ(x) ser um conjunto convexo para<br />
todo x ∈ X não pode ser removida do enunciado do teorema<br />
do ponto fixo de Kakutani.<br />
[03] Dê um exemplo de jogo com um número par de equilíbrios de<br />
Nash em estratégias mistas.
Capítulo 4<br />
Calculando equilíbrios<br />
de Nash<br />
4.1 Equilíbrio de Nash via um problema<br />
de otimização<br />
O Teorema 3.3 sugere uma maneira de se calcular os equilíbrios<br />
de Nash de um jogo. Eles são soluções do seguinte problema de<br />
otimização não-linear:<br />
minimizar<br />
n∑ ∑m i<br />
(g ij (p)) 2<br />
i=1 j=1<br />
sujeito a p ∈ Δ.<br />
Com efeito: a soma de quadrados é zero se, e somente se, cada parcela<br />
é igual a zero. McKelvey demonstrou em [58] que a função objetivo<br />
p ↦→<br />
n∑ ∑m i<br />
(g ij (p)) 2<br />
i=1 j=1<br />
é uma função de classe C 1 . Assim, algoritmos numéricos de otimização<br />
que usam derivadas (Newton, Davidon-Fletcher-Powell) podem<br />
ser usados.<br />
71
72 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Exemplo 4.1 Para o dilema do prisioneiro (Exemplo 2.1, página 11),<br />
(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />
é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />
problema de otimização<br />
minimizar G(p, q) = (max{0, − (−1+p)(4q +1)}) 2 +<br />
(max {0, −p (4 q +1)}) 2 +<br />
(max {0, − (4 p +1)(−1+q)}) 2 +<br />
(max {0, −q (4 p +1)}) 2<br />
sujeito a 0 ≤ p ≤ 1,<br />
0 ≤ q ≤ 1.<br />
Como vemos pela Figura 4.1, que mostra o gráfico e o mapa de contorno<br />
de G, oponto<br />
(p ∗ , q ∗ )=(1, 0; 1, 0)<br />
éoúnico equilíbrio de Nash do jogo.<br />
Exemplo 4.2 Para a batalha dos sexos (Exemplo 2.2, página 13),<br />
(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />
é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />
problema de otimização<br />
minimizar G(p, q) = (max{0, −5 (−1+p)(3q − 1)}) 2 +<br />
(max {0, −5 p (3 q − 1)}) 2 +<br />
(max {0, −5 (3p − 2) (−1+q))) 2 +<br />
(max {0, −5 q (3 p − 2)}) 2<br />
sujeito a 0 ≤ p ≤ 1,<br />
0 ≤ q ≤ 1.<br />
Como vemos pela Figura 4.2, que mostra o gráfico e o mapa de contorno<br />
de G, ospontos<br />
(p ∗ , q ∗ )=(1, 0; 1, 0), (p ∗ , q ∗ )=(0, 1; 0, 1) e<br />
(p ∗ , q ∗ )=(2/3, 1/3; 1/3, 2/3)
[SEC. 4.1: EQUILÍBRIO DE NASH VIA UM PROBLEMA DE OTIMIZAÇÃO 73<br />
são os únicos equilíbrios de Nash do jogo.<br />
Exemplo 4.3 Para o jogo do Exemplo 2.6 da página 22,<br />
(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />
é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />
problema de otimização<br />
minimizar G(p, q) = (max{0, −2 (−1+p)(2q − 1)}) 2 +<br />
(max {0, −2 p (2 q − 1)}) 2 +<br />
(max {0, 2(2p − 1) (−1+q)}) 2 +<br />
(max {0, 2(2p − 1) q}) 2<br />
sujeito a 0 ≤ p ≤ 1,<br />
0 ≤ q ≤ 1.<br />
Como vemos pela Figura 4.3, que mostra o gráfico e o mapa de contorno<br />
de G, oponto<br />
(p ∗ , q ∗ )=(1/2, 1/2; 1/2, 1/2)<br />
éoúnico equilíbrio de Nash do jogo.<br />
Exemplo 4.4 Para o jogo do exemplo 2.12 da página 42,<br />
(p, q) =(p, 1 − p; q, 1 − q) ∈ Δ 2 × Δ 2<br />
é um equilíbrio de Nash se, e somente se, (p, q) ésolução do seguinte<br />
problema de otimização<br />
minimizar G(p, q) = (max{0, −2 (−1+p)(2q − 1)}) 2 +<br />
(max {0, −2 p (2 q − 1)}) 2 +<br />
(max {0, (−3+4p)(−1+q)}) 2 +<br />
(max {0,q(−3+4p)}) 2<br />
sujeito a 0 ≤ p ≤ 1,<br />
0 ≤ q ≤ 1.
74 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Como vemos pela Figura 4.4, que mostra o gráfico e o mapa de contorno<br />
de G, oponto<br />
(p ∗ , q ∗ )=(3/4, 1/4; 1/2, 1/2)<br />
éoúnico equilíbrio de Nash do jogo.<br />
4.2 Equilíbrio de Nash via equações polinomiais<br />
Apróxima proposição estabelece que a maior utilidade esperada<br />
que o jogador g i pode obter contra qualquer escolha de estratégias<br />
mistas dos demais jogadores não depende se o jogador g i está usando<br />
estratégias mistas ou somente estratégias puras. Mais ainda, as estratégias<br />
mistas ótimas para o jogador g i são justamente aquelas que<br />
atribuem probabilidade positiva somente para as estratégias puras<br />
ótimas.<br />
Proposição 4.1 Para todo i = 1,...,n e para todo p =<br />
(p 1 ,...,p i ,...,p n ) ∈ Δ=Δ(S 1 ) ×···×Δ(S i ) ×···Δ(S n ),<br />
Mais ainda,<br />
max u i (s iji , p −i )= max u i(˜p i , p −i ).<br />
s iji ∈S i ˜p i ∈Δ(S i)<br />
p ∗ i =(p ∗ i1,...,p ∗ ik,...,p ∗ im i<br />
) ∈ argmax˜pi ∈Δ(S i) u i (˜p i , p −i )<br />
⇕<br />
p ∗ ik = 0 para todo k tal que s ik ∉ argmax siji ∈S i<br />
u i (s iji , p −i ).<br />
Demonstração: Pela Propriedade 2.4, sabemos que<br />
u i (˜p i , p −i )=<br />
∑m i<br />
j i=1<br />
˜p iji · u i (s iji , p −i ).
[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 75<br />
25<br />
20<br />
15<br />
10<br />
5<br />
1<br />
0<br />
0 0.2 0.4 0.6 0.8 1<br />
p<br />
0<br />
0.5 q<br />
p<br />
0 0.2 0.4 0.6 0.8 1<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
Figura 4.1: Encontrando os equilíbrios de Nash para o dilema do prisioneiro<br />
via um problema de otimização.
76 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
3<br />
2.5<br />
2<br />
1.5<br />
1<br />
1<br />
0.5<br />
0.8<br />
0.6<br />
0.4 q<br />
0<br />
0.2<br />
0 0.2 0.4 0.6 0.8<br />
0<br />
1<br />
p<br />
p<br />
0 0.2 0.4 0.6 0.8 1<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
Figura 4.2: Encontrando os equilíbrios de Nash para a batalha dos<br />
sexos via um problema de otimização.
[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 77<br />
4<br />
3<br />
2<br />
1<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
0<br />
0.2<br />
0.4<br />
p<br />
0.6<br />
0.8<br />
1<br />
p<br />
0 0.2 0.4 0.6 0.8 1<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
Figura 4.3: Encontrando os equilíbrios de Nash do jogo de comparar<br />
moedas via um problema de otimização.
78 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
8<br />
6<br />
4<br />
2<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
0<br />
0.2<br />
0.4<br />
p<br />
0.6<br />
0.8<br />
1<br />
p<br />
0 0.2 0.4 0.6 0.8 1<br />
1<br />
0.8<br />
0.6<br />
q<br />
0.4<br />
0.2<br />
0<br />
Figura 4.4: Encontrando os equilíbrios de Nash do jogo do Exemplo<br />
2.12 via um problema de otimização.
[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 79<br />
Assim, u i (˜p i , p −i )éamédia ponderada dos valores u i (s iji , p −i ), onde<br />
os pesos ˜p iji são não-negativos e somam 1. Esta média ponderada<br />
não pode ser maior do que o maior dos valores que participam no<br />
cálculo da média. Assim,<br />
para todo ˜p i ∈ Δ(S i ) e, portanto,<br />
u i (˜p i , p −i ) ≤ max<br />
s iji ∈S i<br />
u i (s iji , p −i )<br />
max<br />
˜p i ∈Δ(S i) u i(˜p i , p −i ) ≤ max<br />
s iji ∈S i<br />
u i (s iji , p −i ).<br />
Por outro lado, u i (s iji , p −i )=u i (e ji , p −i ), onde e ji é a distribuição<br />
de probabilidades em Δ(S i ) que dá peso1àestratégia pura s iji .<br />
Assim,<br />
u i (s iji , p −i )=u i (e ji , p −i ) ≤<br />
para todo s iji ∈ S i e, portanto,<br />
max u i(˜p i , p −i )<br />
˜p i ∈Δ(S i)<br />
max u i (s iji , p −i ) ≤ max u i(˜p i , p −i ).<br />
s iji ∈S i ˜p i ∈Δ(S i)<br />
Para a segunda parte da proposição, suponha por absurdo que exista<br />
p ∗ i =(p ∗ i1,...,p ∗ ik,...,p ∗ im i<br />
) ∈ argmax˜pi ∈Δ(S i) u i (˜p i , p −i )<br />
onde, para algum índice k, ocorre que<br />
p ∗ ik > 0 e s ik ∉ argmax siji ∈S i<br />
u i (s iji , p −i ).<br />
Isto implica que u i (s ik , p −i ) < max siji ∈S i<br />
u i (s iji , p −i ). Uma vez que<br />
u i (s iji , p −i ) ≤ max siji ∈S i<br />
u i (s iji , p −i )paratodoj i ≠ k, segue-se que<br />
u i (p ∗ i , p −i ) =<br />
<<br />
∑m i<br />
j i=1<br />
∑m i<br />
j i=1<br />
p ∗ ij i · u i (s iji , p −i )<br />
p ∗ ij i · max<br />
s iji ∈S i<br />
u i (s iji , p −i )=<br />
maxu i (s iji , p −i )<br />
s iji ∈S i<br />
= max<br />
˜p i ∈Δ(S i) u i(˜p i , p −i ).
80 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Masisto contradiz o fato de p ∗ i pertencer a argmax˜p i ∈Δ(S i) u i (˜p i , p −i ).<br />
Reciprocamente, se p ∗ i satisfaz a condição p∗ ik = 0 para todo k tal que<br />
s ik ∉ argmax siji ∈S i<br />
u i (s iji , p −i ), então<br />
sempre que p ∗ ik > 0. Assim<br />
u i (s ik , p −i )= max<br />
s iji ∈S i<br />
u i (s iji , p −i )<br />
m i<br />
u i (p ∗ i , p −i ) = ∑<br />
p ∗ ik · u i(s ik , p −i ) = ∑<br />
k=1<br />
= ∑<br />
p ∗ ik >0 p ∗ ik · max<br />
s iji ∈S i<br />
u i (s iji , p −i )=<br />
= max<br />
˜p i ∈Δ(S i) u i(˜p i , p −i ).<br />
p ∗ ik >0 p ∗ ik · u i(s ik , p −i )<br />
maxu i (s iji , p −i )<br />
s iji ∈S i<br />
Isto mostra que p ∗ i pertence a a argmax˜p i ∈Δ(S i) u i(˜p i , p −i ).<br />
Corolário 4.1 p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n) ∈ Δé um equilíbrio<br />
de Nash em estratégias mistas se, e somente se, para todo i =<br />
1,...,n,<br />
p ∗ ik > 0 ⇒ s ik ∈ argmax siji ∈S i<br />
u i (s iji , p ∗ −i),<br />
onde p ∗ i =(p∗ i1 ,...,p∗ ik ,...,p∗ im i<br />
).<br />
O suporte de um perfil p ∗ i =(p∗ i1 ,...,p∗ ik ,...,p∗ im i<br />
)deestratégias<br />
mistas é o conjunto de estratégias puras do jogador g i que recebe<br />
probabilidade positiva por p ∗ i . Mais precisamente,<br />
supp(p ∗ i )={s ik ∈ S i | p ∗ ik > 0}.<br />
Assim, o Corolário 4.1 diz que p ∗ =(p ∗ 1 ,...,p∗ i ,...,p∗ n )é um equilíbrio<br />
de Nash se, e somente se, para todo i =1,...,n,<br />
supp(p ∗ i ) ⊆ argmax s iji ∈S i<br />
u i (s iji , p ∗ −i ).
[SEC. 4.2: EQUILÍBRIO DE NASH VIA EQUAÇÕES POLINOMIAIS 81<br />
AProposição 4.1 pode ser usada para calcular equilíbrios de Nash<br />
em estratégias mistas. O ponto chave é observar que, pela Proposição<br />
4.1, se p ∗ ∈ Δé um equilíbrio de Nash em estratégias mistas,<br />
então, para todo i =1,...,n,<br />
u i (s ik , p ∗ −i) =constante= max<br />
s iji ∈S i<br />
u i (s iji , p ∗ −i) (4.1)<br />
sempre que p ∗ ik > 0, isto é, em um equilíbrio de Nash, o jogador g i<br />
tem o mesmo ganho se trocar sua estratégia p ∗ i por qualquer outra<br />
estratégia pura que recebeu probabilidade positiva de p ∗ i .<br />
Exemplo 4.5 No Exemplo 2.11, vimos que as funções utilidade dois<br />
jogadores da batalha dos sexos são dadas por<br />
u Homem (p 11 ,p 12 ; p 21 ,p 22 ) = 10· p 11 · p 21 + 5· p 12 · p 22 ,<br />
u Mulher (p 11 ,p 12 ; p 21 ,p 22 ) = 5· p 11 · p 21 +10· p 12 · p 22 .<br />
Vamosusarasrelações 4.1 para calcular o equilíbrio de Nash em<br />
estratégias mistas que não é um equilíbrio em estratégias puras,<br />
isto é, o equilíbrio de Nash cujas estratégias mistas tem suporte<br />
nas duas estratégias puras de cada jogador. Para isto, considere<br />
p ∗ =(p ∗ 11,p ∗ 12; p ∗ 21,p ∗ 22) ∈ Δ 2 × Δ 2 ,com0
82 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
mais do que dois jogadores e com mais do que duas estratégias puras<br />
por jogador. Neste caso, é preciso (1) considerar os vários casos que<br />
resultam das diferentes escolhas das estratégias puras que farão parte<br />
do suporte de cada perfil em estratégias mistas e (2) resolver o sistema<br />
não-linear resultante. Mais precisamente, para cada jogador g i epara<br />
cada subconjunto não-vazio T i = {s ik1 ,...,s ikti } de S i (que especifica<br />
quais estratégias puras farão parte do suporte), devemos resolver o<br />
sistema descrito na Figura 4.5 (neste sistema, w i representa o ganho<br />
constante que o jogador g i obtém escolhendo qualquer uma de suas<br />
estratégias puras que recebeu probabilidade positiva de p ∗ i ).<br />
Para jogos com muitos jogadores e muitas estratégias, o sistema<br />
da Figura 4.5 não éprático para o cálculo a mão dos equilíbrios de<br />
Nash. Contudo, métodos numéricos para a solução de um sistema<br />
de equações polinomiais podem ser aplicados: o método de Newton<br />
com uma estratégia de subdivisão espacial, bases de Gröbner e continuação<br />
homotópica poliedral. O leitor interessado pode consultar as<br />
referências [21, 22, 51]<br />
4.3 Jogos de soma zero<br />
Nesta seção estudaremos os jogos de soma zero com dois jogadores,<br />
uma classe especial de jogos onde a soma dos payoffs dos dois<br />
jogadores é sempre zero: o que um jogador ganha, o outro perde 1 .<br />
Veremos que, para este tipo de jogo, os equilíbrios de Nash em estratégias<br />
mistas podem ser facilmente calculados resolvendo-se um<br />
problema de otimização linear.<br />
4.3.1 Jogos de soma constante com dois jogadores<br />
Definição 4.1 (Jogos de soma constante com dois jogadores)<br />
Um jogo de soma constante com dois jogadores éum<br />
jogo com dois jogadores, comumente denominados jogador linha<br />
e jogador coluna, com estratégias<br />
1 Por este motivo, jogos de soma zero também são denominados jogos estritamente<br />
competitivos.
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 83<br />
∑<br />
m1<br />
j1=1<br />
···<br />
mi−1<br />
∑<br />
ji−1=1<br />
mi+1<br />
∑<br />
ji+1=1<br />
···<br />
∑<br />
mn<br />
jn=1<br />
p ∗ 1j1 ···p∗ (i−1)ji−1 · p∗ (i+1)ji+1 ···p∗ njn · u i(s1j1,...,sij−i,sikτ<br />
,siji+1,snjn) =wi,<br />
∀i =1,...,n,∀sikτ ∈ Ti,<br />
p ∗ ikτ =0, ∀i =1,...,n,∀τ =1,...,t i,<br />
∑<br />
ti<br />
τ =1<br />
p ∗ ikτ<br />
=1, ∀i =1,...,n.<br />
Figura 4.5: Calculando equilíbrios de Nash através de um sistema não-linear.
84 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
S jogador linha = {1, 2,...,m}<br />
e<br />
S jogador coluna = {1, 2,...,n}<br />
ematrizdepayoffs<br />
jogador coluna<br />
1 2 ··· n<br />
jogador linha<br />
1 (a 11 ,b 11 ) (a 12 ,b 12 ) ··· (a 1n ,b 1n )<br />
2 (a 21 ,b 21 ) (a 22 ,b 22 ) ··· (a 2n ,b 2n )<br />
.<br />
.<br />
.<br />
.<br />
.<br />
.<br />
. ..<br />
.<br />
.<br />
m (a m1 ,b m1 ) (a m2 ,b m2 ) ··· (a mn ,b mn )<br />
satisfazendo a ij + b ij = c = constante, para todo i =1,...,m<br />
e j =1,...,n. No caso particular em que a constante c é zero,<br />
dizemos que o jogo tem soma zero.<br />
Em termos de estratégias mistas, se p =(p 1 ,...,p m ) ∈ Δ m éuma<br />
distribuição de probabilidades para as estratégias puras do jogador<br />
linha e q =(q 1 ,...,q n ) ∈ Δ n é uma distribuição de probabilidades<br />
para as estratégias puras do jogador coluna, então o payoff esperado<br />
para o jogador linha é<br />
m∑ n∑<br />
u l (p, q) = p i q j a ij<br />
i=1 j=1<br />
⎡<br />
= [ ]<br />
p 1 p 2 ··· p m ⎢<br />
⎣<br />
⎤ ⎡<br />
a 11 a 12 ··· a 1n<br />
a 21 a 22 ··· a 2n<br />
.<br />
.<br />
. .. .<br />
⎥ ⎢<br />
⎦ ⎣<br />
a m1 a m2 ··· a mn<br />
q 1<br />
q 2<br />
. .<br />
q n<br />
⎤<br />
⎥<br />
⎦ ,
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 85<br />
isto é,<br />
⎡<br />
u l (p, q) =p T Aq, com A = ⎢<br />
⎣<br />
⎤<br />
a 11 a 12 ··· a 1n<br />
a 21 a 22 ··· a 2n<br />
. . .<br />
. . ..<br />
. ⎥<br />
. ⎦ .<br />
a m1 a m2 ··· a mn<br />
Analogamente, o payoff esperado para o jogador coluna é dado por<br />
⎡<br />
⎤<br />
b 11 b 12 ··· b 1n<br />
u c (p, q) =p T b 21 b 22 ··· b 2n<br />
Bq, com B = ⎢<br />
⎣<br />
.<br />
. . ..<br />
⎥<br />
. ⎦ .<br />
b m1 b m2 ··· b mn<br />
Uma vez que o jogo tem soma constante, vemos que<br />
⎡<br />
⎤ ⎡<br />
⎤<br />
a 11 a 12 ··· a 1n b 11 b 12 ··· b 1n<br />
a 21 a 22 ··· a 2n<br />
A + B = ⎢<br />
⎣<br />
.<br />
. . ..<br />
⎥<br />
. ⎦ + b 21 b 22 ··· b 2n<br />
⎢<br />
⎣<br />
.<br />
. . ..<br />
⎥<br />
. ⎦<br />
a m1 a m2 ··· a mn b m1 b m2 ··· b mn<br />
⎡<br />
⎤<br />
c c ··· c<br />
c c ··· c<br />
= ⎢<br />
⎣<br />
.<br />
. . ..<br />
⎥<br />
. ⎦ ,<br />
c c ··· c<br />
isto é,<br />
⎡<br />
A + B = C = ⎢<br />
⎣<br />
c c ··· c<br />
c c ··· c<br />
.<br />
.<br />
. .. . c c ··· c<br />
⎤ ⎡<br />
⎥<br />
⎦ = c ⎢<br />
⎣<br />
1 1 ··· 1<br />
1 1 ··· 1<br />
.<br />
.<br />
. .. . 1 1 ··· 1<br />
⎤<br />
⎥ ⎥⎥⎦<br />
= c 1 ,<br />
onde 1 denota a matriz m × n formada com 1 em todas as suas<br />
entradas. Sendo assim, éfácil de ver que<br />
u c (p, q) =p T Bq = p T (c 1 − A)q = cp T 1 q − p T Aq = c − u l (p, q)
86 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
onde, na última igualdade, usamos que p T 1 q =1,poisp e q são<br />
distribuições de probabilidades e, por isto,<br />
m∑<br />
n∑<br />
p i =1 e q j =1.<br />
i=1<br />
j=1<br />
Em particular, vale a seguinte propriedade importante:<br />
u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ ) ⇔ u c (p ∗ , q ∗ ) ≤ u c (p, q ∗ ). (4.2)<br />
4.3.2 Equilíbrio de Nash em estratégias puras<br />
Definição 4.2 (Ponto de sela) Dizemos que um elemento<br />
a ij de uma matriz A éumponto de sela da matriz A se ele for<br />
simultaneamente um mínimo em sua linha e um máximo em sua<br />
coluna, isto é, se<br />
a ij ≤ a il para todo l =1,...,n e<br />
a ij ≥ a kj para todo k =1,...,m.<br />
Otermoponto de sela vem do fato que se desenharmos o gráfico<br />
dos payoffs do jogador linha, a vizinhança do ponto de sela lembra o<br />
formato de uma sela de cavalo (Figura 4.6).<br />
Teorema 4.1 O elemento a ij é um ponto de sela da matriz A<br />
se, e somente se, o par (i, j) é um equilíbrio de Nash em estratégias<br />
puras para o jogo.<br />
Demonstração:<br />
(⇒) Sejaa ij um ponto de sela da matriz A. Comoa ij émáximo<br />
em sua coluna, vale que<br />
u l (i, j) =a ij ≥ a kj = u l (k, j)
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 87<br />
payoff<br />
Colunas<br />
Linhas<br />
Figura 4.6: Ponto de sela.<br />
para todo k =1,...,m,istoé, o jogador linha não pode aumentar o<br />
seu payoff se o jogador coluna mantiver a escolha da coluna j. Por<br />
outro lado, como a ij émínimo em sua linha, vale que<br />
u c (i, j) =b ij = c − a ij ≥ c − a il = b il = u c (i, l)<br />
para todo l =1,...,n,istoé, o jogador coluna não pode aumentar<br />
oseupayoff se o jogador linha mantiver a escolha da linha i. Isto<br />
mostra que o perfil de estratégias puras (i, j) é um equilíbrio de Nash<br />
do jogo.<br />
(⇐) Seja(i, j) é um equilíbrio de Nash do jogo. A partir das<br />
considerações acima, éfácil de ver que a ij émáximo em sua coluna<br />
emínimo em sua linha e que, portanto, a ij é um ponto de sela da<br />
matriz A.
88 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Teorema 4.2 Se a ij e a rs são dois pontos de sela da matriz A,<br />
então a is e a rj também são pontos de sela da matriz A e<br />
a ij = a rs = a is = a rj .<br />
Demonstração: Considere a matriz<br />
⎡<br />
. .<br />
··· a ij ··· a is ···<br />
A =<br />
.<br />
. . ..<br />
.<br />
.<br />
⎢<br />
⎣ ··· a rj ··· a rs ···<br />
. .<br />
⎤<br />
.<br />
⎥<br />
⎦<br />
Como a ij e a rs são pontos de sela, sabemos que eles são mínimos<br />
em suas respectivas linhas e máximos em suas respectivas colunas.<br />
Assim,<br />
a ij ≤ a is ≤ a rs e a ij ≥ a rj ≥ a rs ,<br />
e, portanto,<br />
a ij = a is = a rj = a rs .<br />
Observe que a is émínimo em sua linha, pois a ij = a is émínimo<br />
da mesma linha e que a is émáximo em sua coluna, pois a rs = a is<br />
émáximo da mesma coluna. Analogamente, a rj émínimo em sua<br />
linha, pois a rs = a rj émínimo da mesma linha e a rj émáximo em<br />
sua coluna, pois a rj = a ij émáximo da mesma coluna. Concluímos<br />
então que a is e a rj também são pontos de sela da matriz A.<br />
O payoff mínimo do jogador linha, se ele escolher a linha k, édado<br />
por<br />
a k = min a kl.<br />
1≤l≤n<br />
Analogamente, o payoff mínimo do jogador coluna, se ele escolher a<br />
coluna l, é dado por c − a l , onde<br />
a l = max<br />
1≤k≤m a kl.
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 89<br />
Defina<br />
e<br />
v l (A) =<br />
max a k =<br />
1≤k≤m<br />
max<br />
v c (A) = min a l = min<br />
1≤l≤n 1≤l≤n<br />
min<br />
a kl<br />
1≤k≤m 1≤l≤n<br />
max<br />
1≤k≤m a kl.<br />
Teorema 4.3 Para toda matriz A, tem-sev c (A) ≥ v l (A).<br />
Demonstração: Temos que para todo k =1,...,m e j =1,...,n,<br />
a kj ≥ min a kl.<br />
1≤l≤n<br />
Assim,<br />
max a kj ≥ max min a kl = v l (A),<br />
1≤k≤m 1≤k≤m 1≤l≤n<br />
para todo j =1,...,n.Conseqüentemente,<br />
v c (A) = min<br />
1≤j≤n<br />
max a kj ≥ max<br />
1≤k≤m<br />
1≤k≤m<br />
min a kl = v l (A).<br />
1≤l≤n<br />
Opróximo teorema caracteriza a existência de pontos de sela e,<br />
portanto, a existência de equilíbrios de Nash em estratégias puras,<br />
em termos das funções v l e v c .<br />
Teorema 4.4 Uma matriz A tem um ponto de sela se, e somente<br />
se, v l (A) =v c (A).<br />
Demonstração:<br />
(⇒) Se a ij é um ponto de sela da matriz A, então vale que<br />
a ij =min 1≤l≤n a il = a i . Como v l (A) =max 1≤k≤m a k ,é claro que<br />
v l (A) ≥ a i = a ij . Por outro lado, a ij =max 1≤k≤m a kj = a j . Como<br />
v c (A) =min 1≤l≤n a l , segue-se que v c (A) ≤ a j = a ij . Combinando<br />
estas duas desigualdades, concluímos que v c (A) ≤ a ij ≤ v l (A). Mas,<br />
pelo teorema anterior, v c (A) ≥ v l (A) e, sendo assim, v c (A) =v l (A).<br />
(⇐) Como v l (A) = max 1≤r≤m a r , existe uma linha i tal que<br />
v l (A) =a i . Como, por sua vez, a i =min 1≤s≤n a is ,existeumacoluna<br />
l tal que a i = a il . Assim, v l (A) =a i = a il . Analogamente, como
90 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
v c (A) =min 1≤s≤n a s , existe uma coluna j tal que v c (A) =a j . Como,<br />
por sua vez, a j =max 1≤r≤m a rj , existe uma linha k tal que a j = a kj .<br />
Assim, v c (A) =a j = a kj . Uma vez que, por hipótese, v l (A) =v c (A),<br />
temos que<br />
a il = a i = v l (A) =v c (A) =a j = a kj .<br />
Afirmamos que a ij é um ponto de sela da matriz A. Com efeito, a ij ≤<br />
a j = a i ≤ a is ,paratodos =1,...,n,istoé, a ij éomínimo de sua<br />
linha. Por outro lado, a ij ≥ a i = a j ≥ a rj ,paratodor =1,...,m,<br />
isto é, a ij éomáximo de sua coluna. Portanto, a ij éumpontode<br />
sela da matriz A.<br />
Corolário 4.2 Um jogo de dois jogadores com soma constante<br />
definido pela matriz de payoffs A do jogador linha tem um<br />
equilíbrio de Nash em estratégias puras se, e somente se,<br />
v l (A) =v c (A).<br />
Exemplo 4.6 Considere o jogo de soma zero cujos payoffs do jogador<br />
linha são dados pela matriz A abaixo.<br />
mínimo das linhas<br />
⎡<br />
3 1 1<br />
⎤<br />
0 0<br />
0 1 2 0 0<br />
A = ⎢<br />
⎥<br />
⎣1 0 2 1⎦<br />
0<br />
3 1 2 2 1<br />
máximo das colunas 3 1 2 2<br />
Como v l (A) =máximo dos mínimos das linhas = 1 = v c (A) =mínimo<br />
dos máximos das colunas, segue-se que o jogo possui um equilíbrio<br />
de Nash em estratégias puras. De fato, a 42 é um ponto de sela da<br />
matriz A.
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 91<br />
Exemplo 4.7 Considere o jogo de soma zero cujos payoffs do jogador<br />
linha são dados pela matriz A abaixo.<br />
mínimo das linhas<br />
⎡<br />
3 2 1<br />
⎤<br />
0 0<br />
0 1 2 0 0<br />
A = ⎢<br />
⎥<br />
⎣1 0 2 1⎦<br />
0<br />
3 1 2 2 1<br />
máximo das colunas 3 2 2 2<br />
Como v l (A) =máximo dos mínimos das linhas = 1 < 2=v c (A) =<br />
mínimo dos máximos das colunas, segue-se que o jogo não possui um<br />
equilíbrio de Nash em estratégias puras.<br />
4.3.3 Equilíbrio de Nash em estratégias mistas<br />
Defina<br />
v l (A) = max min p T Aq e v c (A) = min max p T Aq.<br />
q∈Δ n p∈Δ m<br />
p∈Δ m<br />
q∈Δ n<br />
Teorema 4.5 Para toda matriz A, tem-sev c (A) ≥ v l (A).<br />
Demonstração: Temos que para todo p ∈ Δ m ,<br />
p T Aq ≥ min<br />
y∈Δ n<br />
p T Ay.<br />
Assim,<br />
max p T Aq ≥ max min p T Ay = v l (A).<br />
p∈Δ m p∈Δ m y∈Δ n<br />
Conseqüentemente,<br />
v c (A) = min max p T Aq ≥ max min p T Ay = v l (A).<br />
p∈Δ m y∈Δ n<br />
q∈Δ n<br />
p∈Δ m<br />
Opróximo teorema caracteriza a existência de equilíbrios de Nash<br />
em estratégias mistas em termos das funções v l e v c .
92 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Teorema 4.6 Um perfil de estratégias mistas (p ∗ , q ∗ )éum<br />
equilíbrio de Nash de um jogo de dois jogadores com soma constante<br />
definido pela matriz de payoffs A do jogador linha se, e<br />
somente se,<br />
v l (A) =v c (A) =p ∗T Aq ∗ .<br />
Demonstração:<br />
(⇒) Se(p ∗ , q ∗ )é um equilíbrio de Nash, então<br />
p ∗T Aq ∗ = u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ )=p T Aq ∗ ,<br />
para todo p ∈ Δ m .Emparticular,<br />
p ∗T Aq ∗ =max<br />
p∈Δ m<br />
p T Aq ∗ ≥ min<br />
Vale também que<br />
y∈Δ n<br />
max p T Ay = v c (A).<br />
p∈Δ m<br />
p ∗T Aq ∗ = c − u c (p ∗ , q ∗ ) ≤ c − u c (p ∗ , q) =p ∗T Aq,<br />
para todo q ∈ Δ n .Emparticular,<br />
p ∗T Aq ∗ =min<br />
q∈Δ n<br />
p ∗T Aq ≤ max<br />
x∈Δ m<br />
min x T Aq = v l (A).<br />
q∈Δ n<br />
Desta maneira, v l (A) ≥ v c (A). Como, pelo teorema anterior, v l (A) ≤<br />
v c (A), concluímos que v l (A) =v c (A).<br />
(⇐) Comov l (A) =max p∈Δm min q∈Δn p T Aq, existep ∗ ∈ Δ m tal<br />
que<br />
v l (A) = minp ∗T Aq.<br />
q∈Δ n<br />
Analogamente, como v c (A) =min q∈Δn max p∈Δm p T Aq, existeq ∗ ∈<br />
Δ m tal<br />
v c (A) = maxp T Aq ∗ .<br />
p∈Δ m<br />
Uma vez que, por hipótese, v l (A) =v c (A), temos que<br />
min<br />
q∈Δ n<br />
p ∗T Aq = v l (A) =v c (A) = max<br />
p∈Δ m<br />
p T Aq ∗ .
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 93<br />
Afirmamos que (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Com efeito,<br />
u l (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ min<br />
q∈Δ n<br />
p ∗T Aq =<br />
para todo x ∈ Δ m . Por outro lado,<br />
max<br />
p∈Δ m<br />
p T Aq ∗ ≥ x T Aq ∗ = u l (x, q ∗ ),<br />
u c (p ∗ , q ∗ )=c − p ∗T Aq ∗ ≥ c − max p T Aq ∗ =<br />
p∈Δ m<br />
c − min p ∗T Aq ≥ c − p ∗T Ay = u c (p ∗ , y),<br />
q∈Δ n<br />
para todo y ∈ Δ n . Desta maneira, (p ∗ , q ∗ )é um equilíbrio de Nash<br />
do jogo.<br />
4.3.4 O teorema minimax de von Neumann<br />
Opróximo teorema estabelece que, para jogos de dois jogadores<br />
com soma zero, v l (A) =v c (A) sempre. Sendo assim, pelo teorema 4.6,<br />
segue-se que, para esta classe de jogos, sempre existe pelo menos um<br />
equilíbrio de Nash em estratégias mistas.<br />
Teorema 4.7 (minimax de von Neumann) Para todo jogo<br />
de soma zero com dois jogadores, representado pela matriz<br />
de payoffs A do jogador linha, sempre existe um perfil de estratégias<br />
mistas (p ∗ , q ∗ ) ∈ Δ m × Δ n satisfazendo<br />
v l (A) = max min p T Aq<br />
q∈Δ n<br />
p∈Δ m<br />
=<br />
p ∗T Aq ∗<br />
=<br />
min max p T Aq = v c (A).<br />
p∈Δ m<br />
q∈Δ n<br />
Em particular, (p ∗ , q ∗ )é um equilíbrio de Nash do jogo.
94 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Daremos uma demonstração deste teorema minimax de von Neumann<br />
usando o teorema de dualidade da teoria de programação linear.<br />
Lembramos que um problema de programação linear éumproblema<br />
de otimização com função objetivo e restrições lineares:<br />
(problema primal)<br />
maximizar b T y<br />
sujeito a Ay ≤ c,<br />
y ≥ 0,<br />
onde as desigualdades devem ser interpretadas componente a componente.<br />
A cada problema de programação linear (problema primal)<br />
podemos associar um outro problema de otimização (problema dual):<br />
(problema dual)<br />
minimizar c T x<br />
sujeito a x T A ≥ b T ,<br />
x ≥ 0.<br />
Teorema 4.8 (da dualidade em programação linear)<br />
(a) O problema primal possui uma solução se, e somente se, o<br />
problema dual possui uma solução.<br />
(b) Se y ∗ ésolução do problema primal e x ∗ ésolução do problema<br />
dual, então c T x ∗ = b T y ∗ .<br />
Uma demonstração do teorema de dualidade pode ser encontrada<br />
em [14, 52].<br />
Demonstração do teorema minimax: sem perda de generalidade,<br />
podemos assumir que todas as entradas da matriz de payoffs A do jogador<br />
linha são positivas. Caso contrário, basta substituir A por à =<br />
A + D e B = −A por ˜B = −D + B, onde D = d 1 ,comd><br />
max 1≤i≤m,1≤j≤n |a ij |.Observequeà + ˜B = 0 (isto é, o jogo definido<br />
pelas matrizes à e ˜B tem soma zero) e que (p ∗ , q ∗ )é um equilíbrio
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 95<br />
de Nash para o jogo definido pela matriz A se, e somente se, (p ∗ , q ∗ )<br />
é um equilíbrio de Nash para o jogo definido pela matriz Ã.<br />
Sejam c =(1, 1,...,1) T e b =(1, 1,...,1) T . Considere os problemas<br />
de programação linear:<br />
(problema primal)<br />
maximizar b T y<br />
sujeito a Ay ≤ c,<br />
y ≥ 0,<br />
(problema dual)<br />
minimizar c T x<br />
sujeito a x T A ≥ b T ,<br />
x ≥ 0.<br />
Passo 1: o problema dual possui uma solução.<br />
Como A>0, o conjunto admissível<br />
X = {x ∈ R m | x T A ≥ b T e x ≥ 0}<br />
énão vazio. Por outro lado, como c =(1, 1,...,1) T , a função objetivo<br />
do problema éescritacomox =(x 1 ,x 2 ,...,x m ) ↦→ c T x =<br />
x 1 + x 2 + ···+ x m . Assim, o problema dual consiste em encontrar o<br />
pontodoconjuntoX mais próximo da origem segundo a norma da<br />
soma || · || 1 , um problema que certamente possui uma solução pois,<br />
se p ∈ X, então podemos “compactificar” o conjunto admissível incluindo<br />
a restrição ||x|| 1 ≤||p|| 1 e, com isso, podemos usar o teorema<br />
de Weierstrass para garantir a existência de um mínimo.<br />
Passo 2: construção do equilíbrio de Nash.<br />
Dado que o problema dual possui uma solução, pelo teorema de<br />
dualidade, o problema primal também possui. Mais ainda: se x ∗ é<br />
solução do problema dual e y ∗ ésolução do problema primal, então<br />
c T x ∗ =(x ∗ ) T Ay ∗ = b T y ∗ .<br />
Seja θ = c T x ∗ = b T y ∗ (que é > 0pois(0, 0,...,0) não éadmissível)<br />
e defina<br />
p ∗ = x∗<br />
θ<br />
e<br />
q ∗ = y∗<br />
θ .
96 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Afirmamos que (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Com efeito:<br />
claramente p ∗ ∈ Δ m e q ∗ ∈ Δ n ,poisp ∗ ≥ 0 (já quex ∗ ≥ 0 e θ>0),<br />
q ∗ ≥ 0 (já quey ∗ ≥ 0 e θ>0),<br />
e<br />
m∑ m∑<br />
p i =<br />
i=1<br />
m∑<br />
q j =<br />
j=1<br />
i=1<br />
n∑<br />
j=1<br />
x ∗ i<br />
θ = cT x ∗<br />
= θ θ θ =1<br />
yj<br />
∗<br />
θ = bT y ∗<br />
= θ θ θ =1.<br />
Agora, como x ∗T A ≥ b T , temos que para todo q ∈ Δ n , x ∗T Aq ≥<br />
b T q = ∑ n<br />
j=1 q j =1. Masp ∗ = x ∗ /θ. Desta maneira, p ∗T Aq ≥ θ =<br />
p ∗T Aq ∗ ,paratodoq ∈ Δ n .Conseqüentemente,<br />
u c (p ∗ , q ∗ )=−p ∗T Aq ∗ ≥−p ∗T Aq = u c (p ∗ , q)<br />
para todo q ∈ Δ n . Mostramos então que o jogador coluna não pode<br />
aumentar o seu payoff esperado trocando q ∗ por q, se o jogador linha<br />
mantiver a escolha p ∗ . Analogamente, como Ay ≤ c, temos que<br />
para todo p ∈ Δ m , p T Ay ∗ ≤ p T c = ∑ m<br />
i=1 p i = 1. Mas y ∗ =<br />
q ∗ /θ. Desta maneira, p ∗ Aq ∗ ≤ θ = p ∗T Aq ∗ ,paratodop ∈ Δ m .<br />
Conseqüentemente,<br />
u l (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ p T Aq ∗ = u l (p, q ∗ ),<br />
para todo p ∈ Δ m . Mostramos então que o jogador linha não pode<br />
aumentar o seu payoff esperado trocando p ∗ por p, se o jogador coluna<br />
mantiver a escolha q ∗ .Concluímos, portanto, que (p ∗ , q ∗ )éum<br />
equilíbrio de Nash do jogo.<br />
Além de estabelecer a existência de equilíbrios de Nash, a demonstração<br />
que demos sugere uma maneira de calculá-los: resolvendo-se<br />
dois problemas de programação linear.<br />
Exemplo 4.8 O governo deseja vacinar seus cidadãos contra um<br />
certo vírus da gripe. Este vírus possui dois sorotipos, sendo que é<br />
desconhecida a proporção na qual os dois sorotipos ocorrem na população<br />
do vírus. Foram desenvolvidas duas vacinas onde a eficácia
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 97<br />
da vacina 1 é de 85% contra o sorotipo 1 e de 70% contra o sorotipo<br />
2. A eficácia da vacina 2 é de 60% contra o sorotipo 1 e de 90%<br />
contra o sorotipo 2. Qual política de vacinação deveria ser tomada<br />
pelo governo?<br />
Esta situação pode ser modelada como um jogo de soma zero<br />
com dois jogadores, onde o jogador linha L (o governo) deseja obter<br />
a maior compensação (a fração dos cidadãos resistentes ao vírus) o<br />
maior possível e o jogador coluna C (o vírus) deseja obter a maior<br />
compensação a menor possível. A matriz de payoffs é a seguinte:<br />
vírus<br />
sorotipo 1 sorotipo 2<br />
governo<br />
vacina 1 (85/100, −85/100) (70/100, −70/100)<br />
vacina 2 (60/100, −60/100) (90/100, −90/100)<br />
Para encontrar um equilíbrio de Nash, devemos resolver os seguintes<br />
problemas de programação linear<br />
(problema primal)<br />
maximizar [ y 1 + ][ y 2 ] [ 85/100 70/100 y1 1<br />
sujeito a<br />
≤<br />
60/100 90/100 [ y 2 ] [ 1<br />
y1 0<br />
≥<br />
y 2 0<br />
]<br />
,<br />
]<br />
,<br />
(problema dual)<br />
minimizar x 1 + x 2<br />
[ ] [ ]<br />
85/100 70/100<br />
sujeito a x1 x 2 ≥ [ 1 1 ] ,<br />
60/100 90/100 [ ] [ ]<br />
x1 0<br />
≥ ,<br />
x 2 0<br />
isto é,
98 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
(problema primal)<br />
maximizar y 1 + y 2<br />
sujeito a 17y 1 +14y 2 ≤ 20,<br />
6y 1 + 9y 2 ≤ 10,<br />
y 1 ≥ 0,<br />
y 2 ≥ 0,<br />
(problema dual)<br />
minimizar x 1 + x 2<br />
sujeito a 7x 1 +12x 2 ≥ 20,<br />
7x 1 + 9x 2 ≥ 10,<br />
x 1 ≥ 0,<br />
x 2 ≥ 0.<br />
Asolução do problema dual é x ∗ =(20/23, 10/23) (Figura 4.7) e a<br />
solução do problema primal é y ∗ =(40/69, 50/69), com<br />
θ = x ∗ 1 + x ∗ 2 = y1 ∗ + y2 ∗ = 30<br />
23 .<br />
Desta maneira, o único equilíbrio de Nash para o problema édado<br />
pelo ponto (p ∗ , q ∗ ), onde<br />
(<br />
p ∗ = x∗ 2<br />
θ = 3 , 1 )<br />
3<br />
e<br />
(<br />
q ∗ = y∗ 4<br />
θ = 9 , 5 )<br />
.<br />
9<br />
O teorema minimax de von Neumann garante que, para jogos de<br />
soma zero, existem estratégias mistas p ∗ e q ∗ tais que:<br />
(a) Se o jogador linha jogar com p ∗ , então o seu ganho esperado<br />
nunca émenordoquev ∗ = p ∗T Aq ∗ , independentemente da escolha<br />
do jogador coluna.<br />
(b) Se o jogador coluna jogar com q ∗ ,entãoasuaperda esperada<br />
nunca é maior do que v ∗ = p ∗T Aq ∗ , independentemente da escolha<br />
do jogador linha.<br />
Como efeito: como (p ∗ , q ∗ )é um equilíbrio de Nash em estratégias<br />
mistas, segue-se que v ∗ = u c (p ∗ , q ∗ ) ≥ u c (p ∗ , q), ∀q ∈ Δ n ,ev ∗ =
[SEC. 4.3: <strong>JOGOS</strong> DE SOMA ZERO 99<br />
x 2<br />
0 20/23 30/23<br />
30/23<br />
10/23<br />
x 1<br />
Figura 4.7: Solução do problema dual.<br />
y 1<br />
30/23<br />
50/69<br />
0 40/69 30/23<br />
y 1<br />
Figura 4.8: Solução do problema primal.
100 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
u l (p ∗ , q ∗ ) ≥ u c (p, q), ∀p ∈ Δ m .Masu c (p, q) =−p T Aq e u l (p, q) =<br />
+p T Aq. Assim,<br />
∀q ∈ Δ n ,v ∗ = u c (p ∗ , q ∗ ) ≥ u c (p ∗ , q)<br />
⇓<br />
∀q ∈ Δ n , p ∗T Aq ≥ p ∗T Aq ∗ = v ∗ (4.3)<br />
⇓<br />
O ganho esperado do jogador linha nunca émenor<br />
do que v ∗ se ele jogar com p ∗ , independentemente<br />
da escolha q do jogador coluna.<br />
e, analogamente,<br />
∀p ∈ Δ m ,v ∗ = u l (p ∗ , q ∗ ) ≥ u l (p, q ∗ )<br />
⇓<br />
∀p ∈ Δ m , pAq ∗ ≤ p ∗T Aq ∗ = v ∗ (4.4)<br />
⇓<br />
A perda esperada do jogador coluna nunca é maior<br />
do que v ∗ se ele jogar com q ∗ , independentemente<br />
da escolha p do jogador linha.<br />
Mais ainda: se (p ∗ ,q ∗ )é um equilíbrio de Nash do jogo, então<br />
n∑<br />
a ij · qj ∗ = v∗ , para todo i tal que p ∗ i > 0 e (4.5)<br />
j=1<br />
m∑<br />
p ∗ i · a ij = v ∗ , para todo j tal que qj ∗ > 0. (4.6)<br />
i=1<br />
De fato: suponha, por absurdo, que exista algum índice k tal que<br />
p ∗ k > 0e∑ n<br />
j=1 a kj · qj ∗ ≠ v ∗ . Usando as desigualdades 4.4 com<br />
p = e i , sabemos que ∑ n<br />
j=1 a ij ·qj ∗ ≤ v∗ para todo i =1,...,m. Logo,<br />
se ∑ n<br />
j=1 a kj · qj ∗ ≠ v∗ ,então ∑ n<br />
j=1 a kj · qj ∗
[SEC. 4.4:<br />
EQUILÍBRIO DE NASH VIA UM PROBLEMA DE COMPLEMENTARIDADE101<br />
oqueéumacontradição. Um argumento análogo pode ser usado<br />
para provar 4.6. Note que 4.5 e 4.6 nada mais são do que as condições<br />
estabelecidas no Corolário 4.1 na página 80 para o caso particular de<br />
jogos de soma zero.<br />
4.4 Equilíbrio de Nash via um problema<br />
de complementaridade<br />
4.4.1 Jogos bimatriciais<br />
Sejam u 1 (p, q) =p T Aq e u 2 (p, q) =p T Bq são, respectivamente,<br />
as funções utilidade dos jogadores 1 e 2. Sem perda de generalidade,<br />
podemos assumir que A>0 e B > 0 pois, caso contrário, basta<br />
substituir A por A + c 1 e B por B + c 1 para alguma constante<br />
c>0 suficientemente grande. Observe agora que (p ∗ , q ∗ ) ∈ Δ=<br />
Δ m × Δ n é um equilíbrio de Nash em estratégias mistas do jogo se,<br />
esomentese,p ∗ e q ∗ satisfazem os seguintes programas lineares, um<br />
dependendo do outro:<br />
maximizar (Aq ∗ ) T p<br />
sujeito a ½ T mp =1,<br />
p ≥ 0,<br />
maximizar (B T p ∗ ) T q<br />
sujeito a ½ T n q =1,<br />
q ≥ 0,<br />
onde ½ m e ½ n são, respectivamente, matrizes de tamanho m×1en×1<br />
com todas as entradas iguais a 1. Os problemas duais destes dois PLs<br />
são dados por:<br />
minimizar λ<br />
sujeito a ½ m λ ≥ Aq ∗ ,<br />
minimizar μ<br />
sujeito a ½ n μ ≥ B T p ∗ .<br />
Se λ ∗ é a solução ótima do primeiro problema dual, então pelo teorema<br />
forte da dualidade, vale que (Aq ∗ ) T p ∗ = λ ∗ .Mas(Aq ∗ ) T p ∗ =<br />
q ∗T A T p ∗ = p ∗T Aq ∗ e λ ∗ =(p ∗ ½ m )λ ∗ . Assim, p ∗T Aq ∗ =(p ∗ ½ m )λ ∗<br />
ou, equivalentemente,<br />
p ∗T (½ m λ ∗ − Aq ∗ )=0. (4.7)
102 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Esta condição diz que p ∗ e ½ m λ ∗ −Aq ∗ são ortogonais. Dado que estes<br />
vetores são não-negativos, eles têm que ser complementares, no sentido<br />
que eles não podem ter componentes positivas na mesma posição.<br />
Esta caracterização de um par primal-dual ótimo é conhecida como<br />
folgas complementares em programação linear. Dado que p ∗ éuma<br />
distribuição de probabilidades, pelo menos uma de suas componentes<br />
é positiva, de modo que a respectiva componente de ½ m λ ∗ − Aq ∗<br />
é zero e λ ∗ é a maior das entradas de Aq ∗ . Qualquer estratégia<br />
pura i do jogador 1 é uma melhor resposta a q ∗ se, e somente se,<br />
a i-ésima componente de ½ m λ ∗ − Aq ∗ é igual a zero. Desta forma,<br />
aEquação 4.7 obtém o Corolário 4.1 na página 80: uma estratégia<br />
mista p ∗ é uma melhor resposta para q ∗ se, e somente se, ela dá probabilidade<br />
positiva apenas para as estratégias puras que são melhores<br />
respostas para q ∗ . Analogamente, se μ ∗ é a solução ótima do segundo<br />
problema dual, então<br />
q ∗T (½ n μ ∗ − B T p ∗ )=0. (4.8)<br />
Teorema 4.9 O perfil de estratégias mistas (p ∗ , q ∗ ) é um<br />
equilíbrio de Nash se, e somente se, existem números reais λ ∗<br />
e μ ∗ tais que<br />
½ T mp ∗ = 1,<br />
½ T n q∗ = 1,<br />
½ m λ ∗ − Aq ∗ ≥ 0,<br />
½ n μ ∗ − B T p ∗ ≥ 0,<br />
p ∗ , q ∗ ≥ 0,<br />
(4.9)<br />
easEquações 4.7 e 4.7 sejam satisfeitas.<br />
Dado um vetor t ∈ R n e uma matriz M de tamanho n × n, o<br />
problema de complementaridade linear (PCL)associadoaopar(t,M)<br />
consiste em encontrar z, w ∈ R n tais que<br />
w + Mz = t, w ≥ 0, z ≥ 0 e z T w = 0.<br />
Veremos agora como caracterizar os equilíbrios de Nash em estratégias<br />
mistas de jogos bimatriciais (jogos finitos com apenas dois
[SEC. 4.4:<br />
EQUILÍBRIO DE NASH VIA UM PROBLEMA DE COMPLEMENTARIDADE103<br />
jogadores) através de um problema de complementaridade linear.<br />
Se (p ∗ , q ∗ )é um equilíbrio de Nash do jogo, então<br />
u 1 (p ∗ , q ∗ )=p ∗T Aq ∗ ≥ p T Aq ∗ = u 1 (p, q ∗ ), ∀p ∈ Δ m .<br />
Mas, por linearidade, p ∗T Aq ∗ ≥ p T Aq ∗ para todo p ∈ Δ m se, e<br />
somente se, p ∗T Aq ∗ ≥ e T i Aq∗ , ∀i = 1,...,m, onde e i representa<br />
o i-ésimo vetor da base canônica. Mas, então,<br />
(p ∗T Aq ∗ )½ m ≥ (e T i Aq ∗ )½ m = ½ m (e T i Aq ∗ )=(½ m e T i )(Aq ∗ )=Aq ∗ .<br />
Analogamente, como<br />
u 2 (p ∗ , q ∗ )=p ∗T Bq ∗ ≥ p ∗T Bq = u 2 (p ∗ , q), ∀q ∈ Δ n ,<br />
= e T j BT p ∗ , ∀j =1,...,n e, por-<br />
segue-se que p ∗T Bq ∗ ≥ p ∗T Be j<br />
tanto,<br />
(p ∗T Bq ∗ )½ n ≥ (e T j BT p ∗ )½ m =<br />
½ m (e T j BT p ∗ )=(½ m e T j )(BT p ∗ )=B T p ∗ .<br />
Desta maneira, (p ∗ , q ∗ )é um equilíbrio de Nash se, e somente se,<br />
(p ∗T Aq ∗ )½ m ≥ Aq ∗ e (p ∗T Bq ∗ )½ n ≥ B T p ∗ . (4.10)<br />
Como A e B possuem todas as entradas positivas, segue-se que os<br />
números p ∗T Aq ∗ e p ∗T Bq ∗ são positivos. Sejam então<br />
x ∗ =<br />
p ∗<br />
p ∗T Bq ∗ e y ∗ q ∗<br />
=<br />
p ∗T Aq ∗ .<br />
Introduzindoas variáveis de folga w ∗ =(u ∗ , v ∗ ), vemos que se (p ∗ , q ∗ )<br />
é um equilíbrio de Nash, então z ∗ =(x ∗ , y ∗ )ew ∗ constituem uma<br />
solução do problema de complementaridade linear<br />
w + Mz = t, w ≥ 0, z ≥ 0 e z T w = 0,<br />
onde<br />
t =<br />
[<br />
½m<br />
½ n<br />
]<br />
e M =<br />
[ 0 A<br />
B T 0<br />
]<br />
.
104 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Reciprocamente, se z ∗ =(x ∗ , y ∗ )ew ∗ =(u ∗ , v ∗ )constituemuma<br />
solução do problema de complementaridade linear acima, então<br />
p ∗ =<br />
x∗<br />
½ T e q ∗ = y∗<br />
m x∗ ½ T n y∗<br />
constituem um equilíbrio de Nash do jogo bimatricial.<br />
Além de programação linear, programação quadrática e teoria dos<br />
jogos, aplicações do problema de complementaridade linear incluem<br />
o estudo de modelos financeiros, a análise não-linear de certas estruturas<br />
elasto-plásticas e muitas outras áreas ([64]).<br />
4.4.2 O algoritmo de Lemke-Howson<br />
Um dos métodos mais importantes para se encontrar uma solução<br />
de um PCL é o algoritmo de Lemke-Howson. Ele foi apresentado no<br />
artigo [49] em 1964. Muito mais do que um método de cálculo de<br />
equilíbrios de jogos bimatriciais, o algoritmo de Lemke-Howson dá<br />
uma prova algébrica construtiva para a existência de equilíbrios, além<br />
de estabelecer que, genericamente, o número de equilíbrios de Nash é<br />
finito e ímpar. Sendo similar ao algoritmo Simplex para programação<br />
linear, sua complexidade é exponencial ([84]). Além do artigo original,<br />
o leitor interessado em mais detalhes do algoritmo pode consultar<br />
a referência [87].<br />
4.5 Gambit<br />
Desenvolvido por Richard D. McKelvey (California Institute of<br />
Technology), Andrew M. McLennan (University of Minnesota) e Theodore<br />
L. Turocy (Texas A&M University), Gambit é um programa de<br />
computador, gratuito e multiplataforma, orientado para a construção<br />
eanálise de jogos finitos. Ele oferece uma interface gráfica intuitiva<br />
para o cálculo de equilíbrios de Nash e a análise das estruturas de<br />
dominância das estratégias do jogo. Para baixá-lo, acesse o endereço:<br />
http://econweb.tamu.edu/gambit.
[SEC. 4.5: GAMBIT 105<br />
Figura 4.9: Gambit eliminando as estratégias fracamente dominadas<br />
do Jogo da Segunda Gerra Mundial descrito no<br />
Exercício 6 na página 54.
106 [CAP. 4: CALCULANDO EQUILÍBRIOS DE NASH<br />
Observação. A equipe do Gambit recentemente desenvolveu uma<br />
versão on-line do software que está disponível no endereço: http:<br />
//gte.csc.liv.ac.uk/gte/builder/ (é preciso habilitar o uso de<br />
janelas pop-up).<br />
4.6 Exercícios<br />
[01] Calcule os pontos de sela da matriz<br />
⎡<br />
A =<br />
⎢<br />
⎣<br />
24 23 22 25<br />
10 22 20 19<br />
27 25 22 23<br />
20 28 16 15<br />
⎤<br />
⎥<br />
⎦ .<br />
[02] Como no Exemplo 4.8, escreva os problemas primal e dual do<br />
jogo de comparar moedas (Exemplo 2.6, página 22). Resolva<br />
estes problemas de otimização para encontrar o equilíbrio de<br />
Nash em estratégias mistas do jogo.<br />
[03] Mostre como encontrar pelo menos um equilíbrio de Nash de<br />
um jogo de soma zero 2 × 2geral.<br />
[04] Encontre pelo menos um equilíbrio de Nash em estratégias mistas<br />
do jogo de soma zero definido pela matriz<br />
[ ]<br />
−1 +5 +1 −2<br />
A =<br />
.<br />
+1 −3 −2 +5<br />
[05] Sejam p ∗ ∈ Δ m e q ∗ ∈ Δ n duas estratégias mistas de um jogo<br />
de soma zero com dois jogadores. Mostre que se o mínimo dos<br />
ganhos médios do jogador linha usando p ∗ é igual ao máximo<br />
das perdas médias do jogador coluna usando q ∗ ,istoé, se<br />
min u l(p ∗ , e l )= max (−u c(e k , q ∗ )),<br />
1≤l≤n 1≤k≤m<br />
então (p ∗ , q ∗ )é um equilíbrio de Nash do jogo. Aqui e k representa<br />
o k-ésimo vetor da base canônica de R m e e l o l-<br />
ésimo vetor da base canônica de R n . Use este resultado para
[SEC. 4.6: EXERCÍCIOS 107<br />
mostrar que as estratégias mistas p ∗ =(6/37, 20/37, 0, 11/37)<br />
e q ∗ = (14/37, 4/37, 0, 19/37, 0) constituem um equilíbrio de<br />
Nash do jogo de soma zero definido pela matriz<br />
⎡<br />
⎤<br />
5 8 3 1 6<br />
A = ⎢ 4 2 6 3 5<br />
⎥<br />
⎣ 2 4 6 4 1 ⎦ .<br />
1 3 2 5 3<br />
[06] (Jogos de quadrados mágicos) Um quadrado mágico éuma<br />
matriz quadrada n × n cujas entradas são constituídas pelos<br />
números 1, 2,...,n 2 , arranjados de tal forma que a soma das<br />
n entradas em qualquer linha, coluna ou diagonal principal é<br />
sempre o mesmo número. Mostre como encontrar pelo menos<br />
um equilíbrio de Nash em estratégias mistas de um jogo de soma<br />
zero cuja matriz é um quadrado mágico. Aplique a técnica para<br />
amatriz<br />
⎡<br />
A = ⎢<br />
⎣<br />
16 3 2 13<br />
5 10 11 8<br />
9 6 7 12<br />
4 15 14 1<br />
⎤<br />
⎥<br />
⎦ .<br />
Este quadrado mágico aparece na gravura Melencolia I de Albrecht<br />
Dürer:<br />
http://en.wikipedia.org/wiki/Melancholia_I.<br />
[07] Considere um jogo de soma zero definido por uma matriz A<br />
inversível que possui um equilíbrio de Nash (p ∗ , q ∗ ) totalmente<br />
misto (isto é, 0
Capítulo 5<br />
Jogos na forma extensa<br />
A forma normal de um jogo é usada em situações onde os jogadores<br />
escolhem sua estratégia simultaneamente ou o fazem sem conhecer<br />
aestratégia dos outros jogadores. Contudo, existem situações em que<br />
os jogadores tomam suas decisões de forma seqüencial, depois de observar<br />
a ação que um outro jogador realizou. A forma extensa tem<br />
uma estrutura mais adequada para analisar jogos desta natureza, especificando<br />
assim quem se move, quando, com qual informação e o<br />
ganho de cada jogador. Ela contém toda informação sobre um jogo.<br />
Existem várias formas de se representar um jogo da forma extensa, todas<br />
elas tentando formalizar a ideia de árvore. Entre elas: (1) relações<br />
de ordem, (2) teoria de grafos ([41]) e (3) alfabetos ([27]). Nossa abordagem<br />
aqui será mais informal. Trataremos dos jogos seqüencias de<br />
informação perfeita: os ganhos são de conhecimento comum de todos<br />
os jogadores, um único jogador faz um movimento por vez e cada<br />
jogador conhece as escolhas dos jogadores que o antecederam toda<br />
vez que for jogar.<br />
5.1 Definição<br />
Um jogo na forma extensa (também denominado jogo seqüencial)<br />
é aquele em que os jogadores realizam seus movimentos em uma ordem<br />
predeterminada. Por este motivo, uma maneira muito adequada<br />
108
[SEC. 5.1: DEFINIÇÃO 109<br />
de se representar um jogo na forma extensa éatravés de uma árvore.<br />
Por exemplo, na Figura 5.1, o jogador 1 joga primeiro: ele pode escolher<br />
entre as ações a e b. Depois,é a vez do jogador 2 jogar. Se 1<br />
jogou a, então 2 pode escolher entre c ou d e, se 1 jogou b,então 2 pode<br />
escolher entre e e f. Depois que todos jogadores realizaram (seqüencialmente)<br />
suas ações, cada jogador recebe o seu ganho. A convenção<br />
équeaprimeiracoordenadadovetordepayoffs represente o ganho<br />
de quem jogou em primeiro lugar, a segunda coordenada represente<br />
o ganho de quem jogou em segundo lugar, e assim por diante.<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 4)<br />
( 1, 0)<br />
b<br />
2<br />
e<br />
f<br />
( 6,12)<br />
( 9, {1)<br />
Figura 5.1: Um jogo na forma extensa.<br />
Uma árvore é composta por nós e ramos. Os ramos representam<br />
as ações dos jogadores. No jogo da Figura 5.1 existem 6 ramos: a, b,<br />
c, d, e e f. Alguns são do jogador 1 (a e b), enquanto que outros são<br />
do jogador 2 (c, d, e e f). Os nós são de dois tipos: existem aqueles<br />
que emanam ramos e existem aqueles que não. Estes últimos são as<br />
folhas da árvore e neles estão os valores dos payoffs dos jogadores.<br />
Um nó que não é uma folha identifica o jogador que deve escolher<br />
uma das ações representadas pelos ramos que saem do nó. Nós que<br />
não são folhas são denominados nós de decisão. Por exemplo, no<br />
primeiro nó (também denominado raiz da árvore) o jogador 1 que<br />
deve fazer a sua escolha entre os ramos (ações) a e b.<br />
Uma estratégia de um jogador é um plano de ação completo que<br />
especifica uma ação factível deste jogador em cada nó de decisão<br />
em que o jogador pode atuar. No jogo da Figura 5.1, o jogador 1<br />
temapenasumnó de decisão. Por este motivo, suas estratégias se
110 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />
confundem com suas ações:<br />
S 1 = {a, b}.<br />
Por outro lado, o jogador 2 tem dois nós de decisão: um que se segue<br />
depois que o jogador 1 jogou a e o outro depois que o jogador 1 jogou b.<br />
Por este motivo, cada estratégia do jogador 2 deve conter duas ações:<br />
uma para o primeiro nó e a outra para o outro nó. Assim, uma<br />
estratégia possível para o jogador 2 é “jogar c se o jogador 1 jogar a<br />
e jogar f se o jogador 1 jogar b”. Outra é “jogar c se o jogador 1<br />
jogar a e jogar e se o jogador 1 jogar b”. Escrevendo apenas as ações<br />
que o jogador 2 pode tomar em cada nó de decisão, o conjunto de<br />
suas estratégias pode ser então representado da seguinte maneira:<br />
S 2 = {(c, e), (c, f), (d, e), (d, f)}.<br />
É muito importante notar a diferença entre ações e estratégias. Neste<br />
contexto, (c, e) éumaestratégia do jogador 2, enquanto que c e e são<br />
ações (uma para cada nó de decisão do jogador). Uma ação éum<br />
conceito local: ela representa o comportamento do jogador em um<br />
momento particular do jogo, isto é, em um nó de decisão. Uma<br />
estratégia é um conceito global: ela especifica o comportamento do<br />
jogador no jogo inteiro, isto é, em todos os nós de decisão do jogador.<br />
Mais exemplos: no jogo da Figura 5.2,<br />
S 1 = {a, b},<br />
S 2 = {(c, e), (c, f), (c, g), (d, e), (d, f), (d, g)}<br />
e, no jogo da Figura 5.3,<br />
S 1 = {(a, l, p), (a, l, q), (a, m, p), (a, m, q),<br />
(b, l, p), (b, l, q), (b, m, p), (b, m, q)}<br />
e<br />
S 2 = {(c, e), (c, f), (d, e), (d, f)}.<br />
5.2 Equilíbrio de Nash<br />
A definição de equilíbrio de Nash para jogos seqüenciais éamesma<br />
dada para jogos na forma normal: se S i é o conjunto de estratégias
[SEC. 5.2: EQUILÍBRIO DE NASH 111<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 4)<br />
( 1, 0)<br />
b<br />
2<br />
e<br />
f<br />
g<br />
( 6,12)<br />
( 9, {1)<br />
( 8, 9)<br />
Figura 5.2: Um jogo na forma extensa.<br />
a<br />
2 c<br />
d<br />
¯<br />
( 2, 4)<br />
( 1,10)<br />
1<br />
®<br />
b<br />
2<br />
e<br />
1 l<br />
±<br />
m<br />
( 2, 3)<br />
( 1, 4)<br />
°<br />
f<br />
1 p<br />
q<br />
²<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.3: Um jogo na forma extensa.
112 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />
do jogador i, 1≤ i ≤ n, então um perfil de estratégias<br />
s ∗ =(s ∗ 1,...,s ∗ i ,...,s ∗ n) ∈ S 1 ×···×S i ×···×S n<br />
éumequilíbrio de Nash (em estratégias puras) se<br />
u i (s ∗ i , s∗ −i ) ≥ u i(s iji , s ∗ −i )<br />
para todo i =1,...,n eparatodoj i =1,...,m i ,comm i onúmero<br />
de estratégias do jogador i. A caracterização via funções de melhor<br />
resposta também pode ser usada: s ∗ =(s ∗ 1,...,s ∗ i ,...,s∗ n) ∈ S éum<br />
equilíbrio de Nash em estratégias se, e somente se, s ∗ i ∈ MR i (s ∗ −i )<br />
para todo i =1,...,n, onde MR i (s −i ) = argmax si∈S i<br />
u i (s i , s −i ).<br />
No jogo da Figura 5.4, temos que<br />
S 1 = {a, b},<br />
S 2 = {(c, e), (c, f), (d, e), (d, f)}<br />
Assim, existem 8 perfis de estratégias:<br />
S = S 1 × S 2 = {(a, (c, e)), (a, (c, f)), (a, (d, e)), (a, (d, f)),<br />
(b, (c, e)), (b, (c, f)), (b, (d, e)), (b, (d, f))}.<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 4)<br />
( 1, 9)<br />
b<br />
2<br />
e<br />
f<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.4: Calculando equilíbrios de Nash em um jogo seqüencial.<br />
Vamos mostrar que o perfil (a, (c, f)) não é um equilíbrio de Nash<br />
do jogo. Inicialmente, observe que, para calcular o ganho dos jogadores<br />
associado a um determinado perfil de estratégias, basta seguir
[SEC. 5.2: EQUILÍBRIO DE NASH 113<br />
o caminho de execução do jogo. Por exemplo, para o perfil de estratégia<br />
(a, (c, f)), a execução do jogo se dá da seguinte maneira:<br />
o jogador 1 escolhe a ação a e, em seguida, o jogador 2 escolhe a<br />
ação c, o que resulta no ganho 2 para o jogador 1 (Figura 5.5). Já,<br />
para o perfil de estratégia (b, (c, f)), o jogador 1 escolhe a ação a<br />
e o jogador 2 escolhe a ação f, dando o ganho 5 para o jogador 1<br />
(Figura 5.6).<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 4)<br />
( 1, 9)<br />
b<br />
2<br />
e<br />
f<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.5: Caminho de execução associado ao perfil de estratégias<br />
(a, (c, f)).<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 4)<br />
( 1, 9)<br />
b<br />
2<br />
e<br />
f<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.6: Caminho de execução associado ao perfil de estratégias<br />
(b, (c, f)).<br />
Desta maneira, se o jogador 2 mantiver a sua estratégia (c, f), o<br />
jogador 1 ganhará mais trocando sua estratégia a pela estratégia b:<br />
u 1 (a, (c, f)) = 2 < 5=u 1 (b, (c, f)).
114 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />
O per-<br />
Isto mostra que (a, (c, f)) não é um equilíbrio de Nash.<br />
fil (b, (c, f)), por sua vez, é um equilíbrio de Nash, pois<br />
e<br />
u 1 (b, (c, f)) = 5 > 2=u 1 (a, (c, f))<br />
u 2 (b, (c, f)) = 4 > 0=u 2 (b, (c, e)),<br />
u 2 (b, (c, f)) = 4 > 0=u 2 (b, (d, e)),<br />
u 2 (b, (c, f)) = 4 ≥ 4=u 2 (b, (d, f)).<br />
O jogo possui mais um equilíbrio de Nash: o perfil (b, (c, f)).<br />
5.3 Indução retroativa e equilíbrio perfeito<br />
em subjogos<br />
A indução retroativa é um processo que produz um perfil de estratégias<br />
com a propriedade de que se cada jogador seguir as recomendações<br />
de ações estabelecidas pelo perfil, então suas estratégias<br />
serão ótimas em cada nó de decisão onde o jogador pode atuar.<br />
O algoritmo é simples. Começando pelos nós de decisão finais,<br />
determinamos as melhores ações disponíveis para os jogadores que<br />
vão atuar nestes nós. Isto éfácil de se fazer, já que não existem<br />
outros nós de decisão que sucedem os nós em questão: basta, em<br />
cada nó de decisão final, escolher a ação que dê ao jogador do nó<br />
o maior payoff possível. Seexisteumempateentreduasações que<br />
levam ao maior payoff, escolhemos uma delas arbitrariamente. Feito<br />
isto, as ações escolhidas são marcadas e, as demais, ignoradas. Este<br />
processo agora é repetido para os penúltimos nós de decisão, para os<br />
antepenúltimos, etc., até quearaizdaárvore seja alcançada.<br />
Por exemplo, no jogo seqüencial da Figura 5.3, os últimos nós de<br />
decisão são β, δ e ɛ. Assim, no passo 1 da indução retroativa, o jogador<br />
2 marca a ação d no nó β e o jogador 1 marca as ações l e p nos<br />
nós δ e ɛ, respectivamente (Figura 5.7). No passo 2, o jogador 2 marca<br />
aação e no nó γ (Figura 5.8). Finalmente, no passo 3, o jogador 1<br />
marca a ação b (Figura 5.9). O perfil de estratégias obtido é<br />
((b, l, p), (d, e)).
[SEC. 5.3: INDUÇÃO RETROATIVA E EQUILÍBRIO PERFEITO EM SUB<strong>JOGOS</strong> 115<br />
a<br />
2 c<br />
d<br />
¯<br />
( 2, 4)<br />
( 1,10)<br />
1<br />
®<br />
b<br />
2<br />
e<br />
1 l<br />
±<br />
m<br />
( 2, 3)<br />
( 1, 4)<br />
°<br />
f<br />
1 p<br />
q<br />
²<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.7: Indução retroativa: passo 1.<br />
a<br />
2 c<br />
d<br />
¯<br />
( 2, 4)<br />
( 1,10)<br />
1<br />
®<br />
b<br />
2<br />
e<br />
1 l<br />
±<br />
m<br />
( 2, 3)<br />
( 1, 4)<br />
°<br />
f<br />
1 p<br />
q<br />
²<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.8: Indução retroativa: passo 2.
116 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />
a<br />
2<br />
¯<br />
c<br />
d<br />
( 2, 4)<br />
( 1,10)<br />
1<br />
®<br />
b<br />
2<br />
e<br />
1<br />
±<br />
l<br />
m<br />
( 2, 3)<br />
( 1, 4)<br />
°<br />
f<br />
1<br />
²<br />
p<br />
q<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.9: Indução retroativa: passo 3.<br />
O processo de indução retroativa dá, portanto, um algoritmo para<br />
encontrar um equilíbrio de Nash em estratégias puras de um jogo<br />
seqüencial com informação perfeita. Note, contudo, que nem todo<br />
equilíbrio de Nash pode ser obtido por indução retroativa. O perfil<br />
de estratégias (b, d) do jogo da Figura 5.10 é um equilíbrio de Nash<br />
que não é obtido por indução retroativa.<br />
1<br />
a<br />
2<br />
c<br />
d<br />
( 2, 1)<br />
( 0, 0)<br />
b<br />
( 1, 2)<br />
Figura 5.10: (b, d) é um equilíbrio de Nash que não é obtido por<br />
indução retroativa.<br />
Seja α um dos nós de decisão de um jogo G. O subjogo que<br />
começa em α é o jogo obtido copiando-se todos os nós de decisão,<br />
ramos e payoffs do jogo original que sucedem α. Por exemplo, no<br />
jogo da Figura 5.3, o subjogo que começa nó de decisão γ, é o jogo
[SEC. 5.3: INDUÇÃO RETROATIVA E EQUILÍBRIO PERFEITO EM SUB<strong>JOGOS</strong> 117<br />
da Figura 5.11.<br />
2<br />
e<br />
1 l<br />
±<br />
m<br />
( 2, 3)<br />
( 1, 4)<br />
°<br />
f<br />
1 p<br />
²<br />
q<br />
( 5, 0)<br />
( 5, 4)<br />
Figura 5.11: Subjogo que começa no nó γ do jogo da Figura 5.3.<br />
Dizemos que um perfil de estratégias (puras) s ∗ éumequilíbrio<br />
perfeito em subjogos de um jogo seqüencial G se os respectivos subperfis<br />
de s ∗ são equilíbrios de Nash de cada subjogo de G. Como<br />
veremos, este equilíbrio idealizado por Reinhard Selten, tem forte conexão<br />
com o processo de indução retroativa. De fato: considere, por<br />
exemplo, o jogo da Figura 5.3. Se<br />
s ∗ =((a α ,a δ ,a ɛ ), (a β ,a γ ))<br />
é um equilíbrio perfeito em subjogos deste jogo, então (a δ )e(a ɛ )<br />
devem ser equilíbrios de Nash dos subjogos que começam nos nós δ<br />
e ɛ, respectivamente. Mas, neste caso, a δ e a ɛ devem ser ações que<br />
maximizem o ganho do jogador 1 nestes nós. Sendo assim, concluímos<br />
que a δ = l e a ɛ = p ou a ɛ = q. Tomemos a ɛ = p. Do mesmo modo,<br />
como (a β ) deve ser um equilíbrio de Nash do subjogo que começa no<br />
nó β, vemos que o jogador 2 escolherá a β = d. Então, nesta primeira<br />
iteração, já podemos afirmar que<br />
s ∗ =((a α ,l,p), (d, a γ )).<br />
Agora, se a γ = e, o jogador 2 ganhará 3(já que o jogador 1 escolhe l<br />
neste caso) e, se a γ = f, o jogador 2 ganhará 0(já que o jogador 1<br />
escolhe p neste caso). Como (a γ , (l, p)) deve ser um equilíbrio de<br />
Nash do subjogo que começa no nó γ, segue-se que, obrigatoriamente,<br />
a γ = e. Assim, após a segunda iteração, vale que<br />
s ∗ =((a α ,l,p), (d, e)).
118 [CAP. 5: <strong>JOGOS</strong> NA FORMA EXTENSA<br />
Como as ações nos nós β, γ, δ e ɛ já estão agora todas determinadas,<br />
éfácil de ver que se s ∗ =((a α ,l,p), (d, e)) é um equilíbrio de Nash do<br />
jogo original, então a α = b. Assim, o equilíbrio perfeito em subjogos é<br />
s ∗ =((b, l, p), (d, e)).<br />
Note que a imposição de que os respectivos subperfis de s ∗ sejam<br />
equilíbrios de Nash de cada subjogo de G induz a mesma seleção de<br />
ações que seria feita no processo de indução retroativa. Époreste<br />
motivo que os equilíbrios perfeitos em subjogos coincidem com os<br />
equilíbrios obtidos por indução retroativa.<br />
5.4 O teorema de Kuhn-Zermelo<br />
Teorema 5.1 (Kuhn-Zermelo) Todo jogo seqüencial de informação<br />
perfeita possui pelo menos um equilíbrio de Nash em<br />
estratégias puras.<br />
Idéiadaprova.Ademonstração é feita por indução. Se o jogo possui<br />
apenas um único nó de decisão, entãooteoremaé verdadeiro: o jogador<br />
que age neste nó escolhe uma ação que maximiza o seu payoff.<br />
Os outros jogadores, se existirem, tem espaços de estratégias vazios.<br />
Suponha então que todo jogo com menos do que m>1nós de decisão<br />
possua pelo menos um equilíbrio de Nash. Escolhendo um nó de<br />
decisão β que sucede imediatamente a raiz α da árvore do jogo, criaremos<br />
dois jogos. O primeiro é o subjogo G β que começa em β. Pela<br />
hipótese de indução, G β possui pelo menos um equilíbrio de Nash s ∗ β .<br />
O segundo jogo, G −β ,éconstruído da seguinte maneira: removemos<br />
de G o subjogo G β enó β, que antes era de decisão, criamos uma<br />
folha cujos payoffs são dados pelos payoffs associados ao equilíbrio s ∗ β<br />
de G β . Novamente, pela hipótese de indução, G −β possui pelo menos<br />
um equilíbrio de Nash s ∗ −β .Seaação em s∗ −β<br />
não usa o ramo a<br />
que liga α a β em G −β ,então s ∗ −β é um equilíbrio de Nash do jogo<br />
original G. Por outro lado, se s ∗ −β usaoramoa, então (a, s∗ β )éum<br />
equilíbrio de Nash do jogo original G.
não confiar<br />
[SEC. 5.5: EXERCÍCIOS 119<br />
5.5 Exercícios<br />
[01] (Jogo da centopéia) Use indução retroativa para obter um<br />
equilíbrio de Nash do jogo seqüencial da figura abaixo. O<br />
equilíbrio é Pareto eficiente?<br />
1 Continuar 2 Continuar 1 Continuar 2 Continuar<br />
(64, 16)<br />
Parar<br />
Parar<br />
Parar<br />
Parar<br />
(4, 1) (2, 8) (16, 4) (8, 32)<br />
.<br />
Este jogo foi desenvolvido pelo economista Robert W. Rosenthal,<br />
mas o seu nome é devido a Kenneth Binmore.<br />
[02] (Jogo da confiança) Use indução retroativa para obter um<br />
equilíbrio de Nash do jogo seqüencial da figura abaixo. O equilíbrio<br />
é Pareto eficiente?<br />
1<br />
confiar<br />
2<br />
trair<br />
honrar<br />
({1, 2)<br />
(1,1)<br />
(0, 0)<br />
.
Capítulo 6<br />
Exemplos<br />
6.1 O jogo Le Her simplificado<br />
Nesta seção estudaremos a versão simplificada do jogo Le Her,<br />
como apresentada por Benjamim e Goldman em [05]. Dois jogadores<br />
empregam um pacote de 13 cartas do mesmo naipe (A, 2, ..., 10,<br />
Q, J e K). Após um sistema de distribuição e troca de cartas que<br />
descreveremos a seguir, o vencedor é aquele com a maior carta (A <<br />
2 < ···< 10 < Q < J < K).<br />
Inicialmente, o jogador 1 embaralha as 13 cartas e distribui uma<br />
carta X para si, uma carta Y para o jogador 2 e deixa o restante<br />
dascartasemummonteZ, sem que nenhum dos dois jogadores<br />
veja as cartas. Feito isto, cada jogador vê suacarta,masnão as<br />
outras. O jogador 1 deve então decidir se mantém a sua carta ou<br />
a troca com o jogador 2 (que não pode se negar a fazer a troca).<br />
No primeiro caso, é a vez do jogador 2 decidir se ele mantém a sua<br />
carta (a única que ele conhece até o momento) ou se ele faz a troca<br />
com a primeira carta do monte Z. Depois que o jogador 2 faz a sua<br />
escolha, os jogadores mostram as suas cartas e vence aquele com a<br />
maior carta. No segundo caso, os dois jogadores conhecem os valores<br />
das duas cartas X e Y e o jogador 2 não tem escolha alguma: se,<br />
depois da troca, a sua carta for menor do que a carta do jogador 1,<br />
então ele deve obrigatoriamente trocá-la com a carta do monte Z<br />
na esperança de obter uma carta maior para vencer o jogo, caso<br />
120
[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 121<br />
contrário, ele mantém a sua carta e vence o jogo. O leitor interessado<br />
pode se familiarizar com as regras do jogo atuando como o jogador 2<br />
no applet Java disponível no endereço:<br />
http://www.professores.uff.br/hjbortol/arquivo/2007.1/<br />
applets/leher1_br.html.<br />
Quais são as estratégias puras do jogador 1? Cada estratégia pura<br />
corresponde a uma escolha de um subconjunto formado pelas cartas<br />
que ele irá manter na primeira etapa do jogo. Por exemplo, a escolha<br />
do subconjunto {5, 7, 9} corresponde àestratégia pura do jogador 1<br />
em manter a sua carta se, e somente se, ela for igual a 5, 7 ou 9. Desta<br />
maneira, existem tantas estratégias puras quantos subconjuntos do<br />
conjunto<br />
D = {A, 2, 3, 4, 5, 6, 7, 8, 9, 10, Q, J, K},<br />
isto é, existem um total de 2 13 = 8192 estratégias puras para o jogador<br />
1. O mesmo vale para o jogador 2: ele tem 2 13 estratégias puras<br />
que estão em correspondência biunívoca com os 2 13 subconjuntos
122 [CAP. 6: EXEMPLOS<br />
distintos de D, cada um especificando quais cartas o jogador 2 irá<br />
manter. É importante observar mais uma vez que o jogador 2 só faz<br />
uma escolha (a de manter a sua carta Y ou trocá-la com uma carta<br />
do monte Z) quando o jogador 1 decide por manter a sua carta X.<br />
Se o jogador 1 resolve trocar de cartas, a ação do jogador 2 está completamente<br />
determinada pelos valores das cartas X e Y (supondo,<br />
naturalmente, que o jogador 2 seja racional).<br />
Amatrizdepayoffs do jogo tem, portanto, dimensão 2 13 × 2 13 .<br />
Este tamanho pode ser reduzido consideravelmente observando que<br />
estratégias puras “com saltos” são dominadas por aquelas “sem saltos”.<br />
Por exemplo, a estratégia pura<br />
{5, 7, 9}<br />
(manter apenas as cartas 5, 7 e 9) é dominada pela estratégia pura<br />
{5, 6, 7, 8, 9, 10, Q, J, K}<br />
(manter apenas as cartas maiores do que ou iguais a 5). Assim, ao<br />
invés de considerar todos os 2 13 subconjuntos de D, podemosnos<br />
restringir aos 13 subconjuntos da forma {C ∈ D | C ≥ ˜C}, onde<br />
˜C ∈ D. No que se segue, usaremos o seguinte abuso de notação<br />
A = {A, 2, 3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},<br />
2 = {2, 3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},<br />
3 = {3, 4, 5, 6, 7, 9, 9, 10, Q, J, K},...<br />
para representar estas estratégias puras dominantes de cada jogador.<br />
O ganho do jogador 1 é sua probabilidade de vitória que, evidentemente,<br />
depende das estratégias puras (dominantes) escolhidas pelos<br />
dois jogadores. Através de cálculos com probabilidades condicionais<br />
(como em [05]) ou através de uma enumeração direta (veja o applet<br />
Java disponível no endereço http://www.professores.uff.br/<br />
hjbortol/arquivo/2007.1/applets/leher2_br.html), obtemos a<br />
matriz de payoffs apresentada na tabela 6.1, onde as probabilidades<br />
foram calculadas com 3 casas decimais corretas. Como o jogo éde<br />
soma zero (isto é, um jogador vence se, e somente se, o outro perde),<br />
amatrizdepayoffs do jogador 2 éamatrizdepayofffs do jogador 1<br />
multiplicada por −1.
[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 123<br />
jogador 2<br />
A 2 3 4 5 6 7 8 9 10 Q J K<br />
A 0.500 0.462 0.429 0.404 0.385 0.372 0.365 0.365 0.372 0.385 0.404 0.429 0.462<br />
2 0.538 0.500 0.468 0.442 0.423 0.410 0.404 0.404 0.410 0.423 0.442 0.468 0.500<br />
3 0.571 0.538 0.506 0.480 0.460 0.447 0.440 0.439 0.445 0.457 0.476 0.501 0.533<br />
4 0.596 0.569 0.543 0.517 0.496 0.481 0.473 0.471 0.476 0.487 0.505 0.529 0.559<br />
5 0.613 0.592 0.571 0.550 0.529 0.513 0.503 0.499 0.502 0.512 0.527 0.550 0.578<br />
6 0.622 0.606 0.590 0.573 0.557 0.541 0.529 0.523 0.523 0.530 0.544 0.564 0.590<br />
7 0.623 0.611 0.598 0.586 0.574 0.562 0.550 0.541 0.538 0.543 0.553 0.570 0.593<br />
8 0.614 0.605 0.597 0.588 0.579 0.571 0.562 0.553 0.547 0.548 0.555 0.568 0.588<br />
9 0.596 0.590 0.584 0.578 0.572 0.566 0.561 0.555 0.549 0.545 0.548 0.558 0.573<br />
10 0.566 0.563 0.559 0.556 0.552 0.549 0.545 0.542 0.538 0.535 0.533 0.538 0.549<br />
Q 0.526 0.524 0.523 0.521 0.519 0.517 0.516 0.514 0.512 0.510 0.509 0.508 0.514<br />
J 0.474 0.474 0.473 0.473 0.472 0.471 0.471 0.470 0.470 0.469 0.469 0.468 0.468<br />
K 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410 0.410<br />
Tabela 6.1: Matriz de payoffs do jogador 1 para o jogo Le Her.<br />
jogador 1
124 [CAP. 6: EXEMPLOS<br />
Tabela 6.2: Matriz de payoffs do jogador 1 para o jogo Le Her após mais uma eliminação de estratégias<br />
estritamente dominadas.<br />
jogador 1<br />
7 0.623 0.611 0.598 0.586 0.574 0.562 0.550 0.541 0.538 0.543 0.553 0.570 0.593<br />
8 0.614 0.605 0.597 0.588 0.579 0.571 0.562 0.553 0.547 0.548 0.555 0.568 0.588<br />
9 0.596 0.590 0.584 0.578 0.572 0.566 0.561 0.555 0.549 0.545 0.548 0.558 0.573<br />
jogador 2<br />
A 2 3 4 5 6 7 8 9 10 Q J K
[SEC. 6.1: O JOGO LE HER SIMPLIFICADO 125<br />
Vamos usar dominância para simplificar ainda mais a matriz do<br />
jogo. Observe que as estratégias 7 e 9 do jogador 1 dominam, respectivamente,<br />
as estratégias de A a 6 ede10 a K (isto é, o jogador 1<br />
deve sempre trocar cartas ≤ 6edevesempre manter cartas ≥ 10).<br />
Eliminando-se então as linhas estritamente dominadas, obtemos a<br />
matriz da tabela 6.2. Para esta matriz reduzida, as estratégias 9<br />
e 10 do jogador 2 dominam, respectivamente, as estratégias de A a 8<br />
edeQaK (isto é, o jogador 2 deve sempre trocar cartas ≤ 8edeve<br />
sempre manter as cartas Q, J e K. Eliminando-se então as colunas<br />
estritamente dominadas, obtemos a matriz da tabela 6.3.<br />
jogador 1<br />
jogador 2<br />
9 10<br />
7 0.538 0.543<br />
8 0.547 0.548<br />
9 0.549 0.545<br />
Tabela 6.3: Matriz de payoffs do jogador 1 para o jogo Le Her após<br />
mais uma eliminação de estratégias estritamente dominadas.<br />
Finalmente, vemos que para esta matriz reduzida, a estratégia 8 do<br />
jogador 1 domina estritamente a estratégia 7. Eliminando-a, obtemos<br />
amatriz2× 2databela6.4.<br />
jogador 1<br />
jogador 2<br />
9 10<br />
8 0.547 0.548<br />
9 0.549 0.545<br />
Tabela 6.4: Matriz de payoffs do jogador 1 para o jogo Le Her após<br />
mais uma eliminação de estratégias estritamente dominadas.<br />
Usando-se programação linear ou funções de melhor resposta, podemos<br />
calcular facilmente o equilíbrio de Nash em estratégias mistas
126 [CAP. 6: EXEMPLOS<br />
deste jogo 2 × 2:<br />
(p 1 ,p 2 )=(4/5, 1/5) para o jogador 1<br />
e<br />
(q 1 ,q 2 )=(3/5, 2/5) para o jogador 2.<br />
Os payoffs médios são, respectivamente, 0.5474 e 0.4526. Vemos,<br />
portanto, que o jogador 1 leva vantagem nesta versão simplificada<br />
do Le Her supondo, é claro, que ele aja racionalmente seguindo o<br />
equilíbrio de Nash.<br />
Observações.<br />
1. No jogo original com 52 cartas, o jogador 2 pode se negar a trocar<br />
de cartas com o jogador 1 se sua carta for K (a de maior valor). No<br />
caso de cartas de mesmo valor (mas naipes diferentes), o jogador 2<br />
vence. Mesmo na versão original, a probabilidade média de ganho<br />
do jogador 1 é maior do que a do jogador 2 no equilíbrio de Nash.<br />
Os detalhes podem ser encontrados nas referências [25] e [37].<br />
2. O jogo Le Her foi investigado por Pierre Rémond de Montmort<br />
(1678–1719) e Nicholas Bernoulli (1687–1759), mas foi James Waldegrave<br />
(1684–1741) que forneceu uma solução para o jogo usando<br />
o conceito de equilíbrio em estratégias mistas. As referências [90]<br />
e [37] apresentam em detalhes a história deste jogo, incluindo a<br />
troca de correspondência entre Montmort, Bernoulli e Waldegrave<br />
e os erros cometidos na solução apresentada por Bernoulli.<br />
3. Benjamim e Goldman mostram em [05] que, para a versão simplificada<br />
do Le Her, a redução da matriz de payoffs para uma<br />
matriz 2 × 2 ocorre para qualquer baralho com um número N ≥ 3<br />
de cartas de um mesmo naipe.<br />
6.2 O modelo de duopólio de Cournot<br />
Sejam q 1 e q 2 as quantidades de um produto homogêneo fabricado<br />
por duas empresas 1 e 2, respectivamente. Diz-se que dois produtos<br />
fabricados por empresas diferentes são homogêneos quando os consumidores<br />
não percebem diferenças na qualidade dos dois produtos
[SEC. 6.2: O MODELO DE DUOPÓLIO DE COURNOT 127<br />
e, assim, eles tomam suas decisões sobre qual produto comprar considerando<br />
apenas o preço, independentemente do fabricante. Vamos<br />
assumir a situação de market-clearing, istoé, não existe excesso de<br />
demanda ou excesso de oferta no mercado. Assim, a quantidade demandada<br />
do produto é igual à quantidade ofertada do mesmo. Para<br />
simplificar, vamos supor que o preço de mercado é uma função linear<br />
da quantidade agregada Q = q 1 + q 2 do produto no mercado. Mais<br />
precisamente,<br />
P (Q) =<br />
{ A − Q, se QA,<br />
u 2 (q 1 ,q 2 ) = q 2 · P (q 1 + q 2 ) − c · q 2<br />
{<br />
q2 · [A − (q<br />
=<br />
1 + q 2 ) − c], se q 1 + q 2 ≤ A,<br />
q 2 · [−c],<br />
se q 1 + q 2 >A,<br />
{<br />
q2 · (−q<br />
=<br />
2 +(A − q 1 − c)), se q 1 + q 2 ≤ A,<br />
q 2 · [−c],<br />
se q 1 + q 2 >A.<br />
Desta maneira, as funções de melhor resposta das duas empresas são<br />
dadas por<br />
{<br />
{(A − c − q2 )/2}, se q<br />
MR 1 (q 2 ) =<br />
2 ≤ A − c,<br />
{0}, se q 2 >A− c,
128 [CAP. 6: EXEMPLOS<br />
MR 2 (q 1 ) =<br />
{<br />
{(A − c − q1 )/2}, se q 1 ≤ A − c,<br />
{0}, se q 1 >A− c.<br />
Lembrando que (q1 ∗,q∗ 2 )é um equilíbrio de Nash em estratégias puras<br />
se, e somente se, q2 ∗ ∈ MR 2(q1 ∗)eq∗ 1 ∈ MR 1(q2 ∗), vemos que (q∗ 1 ,q∗ 2 )<br />
deve ser solução do sistema<br />
q ∗ 2 =(A − c − q ∗ 1)/2 e q ∗ 1 =(A − c − q ∗ 2)/2.<br />
Sendo assim, vemos que o único equilíbrio de Nash em estratégias<br />
puras do jogo é<br />
( A − c<br />
(q1 ∗ ,q∗ 2 )= , A − c )<br />
. (6.1)<br />
3 3<br />
Estes valores também podem ser encontrados geometricamente, a-<br />
través dos pontos de interseção das representações gráficas das duas<br />
funções de melhor resposta (Figura 6.1).<br />
q 2<br />
A { c<br />
(A { c)/2<br />
(q , q ) 1 * * 2<br />
0 (A { c)/2 A { c<br />
q 1<br />
Figura 6.1: Calculando o equilíbrio de Nash do modelo de duopólio<br />
de Cournot.
[SEC. 6.3: O MODELO DE DUOPÓLIO DE BERTRAND 129<br />
6.3 O modelo de duopólio de Bertrand<br />
Neste modelo, ao invés de decidir o quanto produzir, as empresas<br />
devem escolher o quanto cobrar pelo produto, isto é, elas entram em<br />
uma competição de preços. Como no modelo de Cournot, estamos<br />
assumindo que tudo o que é produzido é consumido. Lembrando<br />
que A éopreço máximo aceitável pelo mercado, vemos que S 1 =<br />
S 2 =[0,A]eS = S 1 × S 2 =[0,A] × [0,A]. As funções utilidade são<br />
dadas por<br />
u i (p 1 ,p 2 )=p i · Q i (p 1 ,p 2 ) − c · Q i (p 1 ,p 2 )=(p i − c) · Q i (p 1 ,p 2 ),<br />
onde Q i (p 1 ,p 2 ) representa a produção vendida da empresa i com o<br />
perfil de preços (p 1 ,p 2 ). Comooprodutoé homogêneo, podemos<br />
assumir que os consumidores comprarão o produto mais barato. Se<br />
as duas empresas cobrarem o mesmo preço, vamos assumir que elas<br />
dividem igualmente o mercado. Desta maneira,<br />
⎧<br />
⎨A − p i , se p i p j ,<br />
e, portanto,<br />
⎧<br />
⎨(p i − c) · (A − p i ), se p i p j ,<br />
onde j ≠ i =1, 2.<br />
Quais são os equilíbrios de Nash em estratégias puras deste modelo?<br />
Certamente (p ∗ 1 ,p∗ 2 )=(c, c) é um equilíbrio de Nash pois, neste<br />
caso,<br />
u 1 (p ∗ 1,p ∗ 2)=0≥ u 1 (p 1 ,p ∗ 2) e u 2 (p ∗ 1,p ∗ 2)=0≥ u 2 (p ∗ 1,p 2 ),<br />
para todo p 1 ∈ S 1 eparatodop 2 ∈ S 2 . Existem outros equilíbrios de<br />
Nash? A resposta énão, como podemos concluir a partir dos casos<br />
descritos a seguir.<br />
(a) Se p ∗ 2
130 [CAP. 6: EXEMPLOS<br />
p 2<br />
A<br />
c<br />
Caso (c)<br />
Caso (d)<br />
Caso (e)<br />
Caso (b) Caso (f)<br />
Caso (g)<br />
Caso (h)<br />
Caso (a)<br />
0 c A<br />
p 1<br />
Figura 6.2: Calculando o equilíbrio de Nash do modelo de duopólio<br />
de Bertrand analisando os vários casos.<br />
(b) Se p ∗ 1 = p∗ 2
[SEC. 6.4: O MODELO DE DUOPÓLIO DE STACKELBERG 131<br />
(f) Suponha que p ∗ 2 = p∗ 1 >c. Se p∗ 1 = p∗ 2 ∈ ((A + c)/2,A], então<br />
u 1 (p ∗ 1,p ∗ 2) c. Como u 1(p ∗ 1 ,p∗ 2 )=0c.Sep ∗ 1
132 [CAP. 6: EXEMPLOS<br />
u 2<br />
0 c (A +c)/2 A p 2<br />
Figura 6.3: Gráfico da função p 2 ↦→ u 2 ((A + c)/2,p 2 ).<br />
e, então, escolhe a sua quantidade de produção q 2 ≥ 0. O ganho de<br />
cada empresa é o lucro que ela obtém:<br />
u 1 (q 1 ,q 2 )=q 1 · P (q 1 + q 2 ) − c · q 1 ,<br />
u 2 (q 1 ,q 2 )=q 2 · P (q 1 + q 2 ) − c · q 2 ,<br />
onde P (Q) =A − Q éopreço de mercado em função da quantidade<br />
agregada Q = q 1 + q 2 e c>0é o custo unitário de produção.<br />
Vamos usar indução retroativa para encontrar um equilíbrio de<br />
Nash deste jogo seqüencial. Primeiro, vamos calcular a ação ótima<br />
A 2 (q 1 )daempresa2emfunção da quantidade de produção q 1 :<br />
A 2 (q 1 ) = argmax q2≥0 u 2(q 1 ,q 2 ) = argmax q2≥0 q 2 · [A − q 1 − q 2 − c] .<br />
Pela regra de Fermat, obtemos que<br />
q 2 = A 2 (q 1 )= A − q 1 − c<br />
,<br />
2
[SEC. 6.5: A TRAGÉDIA <strong>DOS</strong> COMUNS 133<br />
desde que q 1
134 [CAP. 6: EXEMPLOS<br />
Two Lectures on the Checks to Population de 1833, que depois foi popularizada<br />
e estendida por Garret Hardin no seu artigo The Tragedy<br />
of the Commons publicado na revista Science em 1968 ([38]).<br />
A palavra “tragédia”temosignificadodadoporAlfredNorth<br />
Whitehead em seu livro Science and The Modern World: “The essence<br />
of dramatic tragedy is not unhappiness. It resides in the solemnity<br />
of the remorseless working of things.”. Já a palavra “comuns”<br />
designa uma área de pastagem coletiva, sem dono e sem qualquer<br />
regulamentação, usada por pastores na Idade Média, que cuidavam<br />
do rebanho de ovelhas para obter a lã que vendiam para a confecção<br />
de roupas.<br />
Com o crescimento do número de famílias de camponeses ao longo<br />
do tempo, ocorreu um aumento do número de ovelhas necessárias<br />
para o sustento de cada família. Como a área de pastagem era de uso<br />
comum, nenhuma família tinha incentivo para controlar o número de<br />
ovelhas de seu rebanho pois, se o fizesse, outras famílias usariam as<br />
pastagens de qualquer forma. Com uma superpopulação de ovelhas, a<br />
terra que antes era fértil, começou a se exaurir. A redução da área de<br />
pastagem afetou tanto o rebanho quanto a indústria local de roupas.<br />
Aparábola mostra, então, que a imprudência em administrar um<br />
recurso finito do qual todos se beneficiam pode levar àruína.<br />
Vamos usar teoria dos jogos para modelar uma versão ingênua da<br />
tragédia dos comuns. Considere uma aldeia com n pastores e seja o i<br />
onúmero de ovelhas do i-ésimo pastor, de modo que o número total<br />
de ovelhas da aldeia é o = o 1 + ···+ o n .Ocustodecompradeuma<br />
ovelha é c, independentemente do númerodeovelhasqueopastor<br />
já possui. O benefício de um pastor em deixar uma ovelha pastando<br />
é v(o) por ovelha. Como o campo de pastagem é um recurso finito,<br />
existe um número máximo o de ovelhas que ele pode suportar. Assim,<br />
v(o) > 0seo
[SEC. 6.5: A TRAGÉDIA <strong>DOS</strong> COMUNS 135<br />
exigindo-se que v ′ ≤ 0ev ′′ < 0. Desta maneira, v temumgráfico tal<br />
como o apresentado na Figura 6.4.<br />
v<br />
v<br />
0 o o<br />
Figura 6.4: Gráfico da função v.<br />
Neste jogo, a estratégia do pastor i é a escolha da quantidade de<br />
ovelhas que ele deixará no pasto. Podemos então considerar que o<br />
conjunto de estratégias puras do pastor i é S i =[0, o). Sua função<br />
utilidade é dada por<br />
u i (o 1 ,...,o i ,...,o n )=o i · v(o 1 + ···+ o i + ···+ o n ) − c · o i .<br />
Suponha que c0, logo μ i é crescente e, portanto, positiva, em<br />
um intervalo (0,ɛ)paraalgumɛ>0e
136 [CAP. 6: EXEMPLOS<br />
(5) μ i écôncava em [ 0, o − σ−i] ∗ .<br />
Logo, a função de melhor resposta do pastor i está bem definida:<br />
MR i (o ∗ ) = argmax oi∈(0,o−σ ∗ −i ) (<br />
oi · v ( o i − σ ∗ −i)<br />
− c · oi<br />
)<br />
.<br />
Se o ∗ i ∈ MR i(o ∗ ), então, pela regra de Fermat, μ ′ i (o∗ i ) = 0, isto é,<br />
v(o ∗ i + σ∗ −i )+o∗ i · v′ (o ∗ i + σ∗ −i ) − c =0.<br />
Somando-se estas equações para i =1,...,n e, então, dividindo-se<br />
por n, obtemosqueσ ∗ deve satisfazer a seguinte equação:<br />
v(σ ∗ )+ 1 n · σ∗ · v ′ (σ ∗ )=0. (6.2)<br />
Por outro lado, se o objetivo é maximizar a utilidade coletiva, isto<br />
é,asomadasfunções utilidades individuais, então devemos resolver<br />
o seguinte problema de otimização:<br />
max (o · v(o) − c · o) .<br />
o∈(0,o)<br />
Usando novamente a regra de Fermat, concluímos que uma solução σ •<br />
deste problema de otimização deve resolver a seguinte equação:<br />
v(σ • )+σ • · v ′ (σ • )=0. (6.3)<br />
Observe que σ ∗ >σ • . Com efeito: se, por absurdo, σ ∗ ≤ σ • ,então<br />
v(σ ∗ ) ≥ v(σ • ), já quev é decrescente. Mas v ′ também é decrescente,<br />
já quev ′′ < 0. Desta maneira, 0 >v ′ (σ ∗ ) ≥ v ′ (σ • ). Como 0 <<br />
σ ∗ /n < σ ∗ ≤ σ • , segue-se que<br />
σ ∗<br />
n · v′ (σ ∗ ) ≥ σ∗<br />
n · v′ (σ • ) >σ • · v ′ (σ • )<br />
e, portanto,<br />
0=v(σ ∗ )+ σ∗<br />
n · v′ (σ ∗ ) >v(σ • )+σ • · v ′ (σ • )=0,<br />
uma contradição. Vemos então que o equilíbrio de Nash o ∗ coloca<br />
mais ovelhas no pasto do que o número de ovelhas sugerido pelo<br />
equilíbrio coletivo o • . Isto acontece porque cada pastor considera<br />
apenas o seu próprio benefício e nãooefeitodesuasações sobre os<br />
outros pastores.
Apêndice A<br />
Convexidade<br />
Neste apêndice apresentaremos as definições e propriedades básicas<br />
de funções convexas necessárias no texto. As demonstrações<br />
omitidas podem ser encontradas em [42].<br />
Definição A.1 (Conjuntos convexos) Dizemos que U ⊂<br />
R n éumconjunto convexo se, e somente se, para todo p, q ∈ U<br />
tem-se<br />
(1 − t) · p + t · q ∈ U,<br />
para todo t ∈ [0, 1], isto é, se o segmento de reta que une dois<br />
pontos quaisquer de U está sempre contido em U.<br />
Teorema A.1 Seja {U ξ } ξ∈Ξ<br />
uma família de conjuntos convexos<br />
em R n Então ⋂<br />
ξ∈Ξ<br />
U ξ<br />
também é um conjunto convexo em R n .<br />
137
138 [CAP. A: CONVEXIDADE<br />
(a)<br />
(b)<br />
Figura A.1: O conjunto da esquerda é convexo enquanto que o da<br />
direita não o é.<br />
Definição A.2 (Semiplanos e Semiespaços) Seja a um vetor<br />
não-nulo em R n esejac um número real. Os conjuntos<br />
H + = {x ∈ R n | ax ≥ c} e H − = {x ∈ R n | ax ≤ c}<br />
são denominados, respectivamente, semiespaços fechados correspondentes<br />
ao semiplano H = {x ∈ R n | ax = c}.<br />
Por linearidade, segue-se que semiplanos e semiespaços são conjuntos<br />
convexos.<br />
Definição A.3 (Politopos e Poliedros) Um politopo éum<br />
conjunto que pode ser expresso como a interseção de um número<br />
finito de semiespaços fechados. Um poliedro é um politopo limitado.<br />
Note que politopos e poliedros são conjuntos convexos, como interseção<br />
de conjuntos convexos.<br />
Definição A.4 (Combinação convexa) Sejam x 1 ,...,x k ∈<br />
R n e λ 1 ,...,λ k números reais ≥ 0taisque ∑ n<br />
i=1 λ i =1. Acombinação<br />
convexa de x 1 ,...,x k com pesos λ 1 ,...,λ k éoponto<br />
λ 1 · x 1 + ···+ λ i · x k .
139<br />
(a)<br />
(b)<br />
Figura A.2: O conjunto de todas as combinações convexas de (a) dois<br />
pontos distintos éumsegmentoderetaqueligaosdois<br />
pontos e de (b) três pontos não-colineares éumtriângulo<br />
(lados e interior) com vértices nos três pontos.<br />
Teorema A.2 Um subconjunto U de R n é convexo se, e somente<br />
se, toda combinação convexa de pontos de U pertence<br />
a U.<br />
Definição A.5 (Funções convexas e côncavas)<br />
(a) Dizemos que uma função f : U ⊂ R n → R definida em um<br />
subconjunto convexo U de R n é convexa se, e somente se,<br />
f((1 − t) · p + t · q) ≤ (1 − t) · f(p)+t · f(q),<br />
(A.1)<br />
para todo p, q ∈ U etodot ∈ [0, 1].<br />
(b) Dizemos que uma função f : U ⊂ R n → R definida em um<br />
subconjunto convexo U de R n é côncava se, e somente se,<br />
f((1 − t) · p + t · q) ≥ (1 − t) · f(p)+t · f(q),<br />
(A.2)<br />
para todo p, q ∈ U etodot ∈ [0, 1].<br />
A interpretação geométrica é a seguinte: para uma função convexa, o<br />
segmento de reta secante que passa pelos pontos (p,f(p)) e (q,f(q))<br />
sempre está acima ou coincide com o gráfico de f para qualquer
140 [CAP. A: CONVEXIDADE<br />
y<br />
f(p)<br />
segmento de reta secante<br />
(1{t) . f(p)+t.<br />
f(q)<br />
gráfico de f<br />
f(q)<br />
f((1{t) . p +t.<br />
q)<br />
0<br />
p<br />
(1{t) . p+t.<br />
q<br />
q<br />
x<br />
Figura A.3: Para uma função convexa, o segmento de reta secante<br />
fica sempre acima ou coincide com o gráfico da função,<br />
para quaisquer escolhas de p e q.<br />
escolha de pontos p e q em U (veja a Figura A.3). Já parauma<br />
função côncava, o segmento de reta secante que passa pelos pontos<br />
(p,f(p)) e (q,f(q)) sempre está abaixo ou coincide com o gráfico<br />
de f para qualquer escolha de pontos p e q em U. Note que f é<br />
côncava se, e somente se, −f éconvexa.<br />
Opróximo teorema estabelece o motivo de convexidade ser uma propriedade<br />
tão desejável em otimização.<br />
Teorema A.3<br />
(a) Se f : U ⊂ R n → R éconvexa,então todo ponto de mínimo<br />
local de f em U também é ponto de mínimo global de f<br />
em U.<br />
(b) Se f : U ⊂ R n → R écôncava, então todo ponto de máximo<br />
local de f em U também é ponto de máximo global de f<br />
em U.
141<br />
Teorema A.4 Seja f : U ⊂ R n → R uma função de classe C 1<br />
definida em um subconjunto convexo U de R n .<br />
(a) f é uma função convexa em U se, e somente se,<br />
f(q) ≥ f(p)+∇f(p) · (q − p),<br />
(A.3)<br />
para todo p, q ∈ U, istoé, se, e somente se, cada hiperplano<br />
tangente ao gráfico de f está sempreabaixo ou coincide com<br />
ográfico de f.<br />
(b) f é uma função côncava em U se, e somente se,<br />
f(q) ≤ f(p)+∇f(p) · (q − p),<br />
(A.4)<br />
para todo p, q ∈ U, istoé, se, e somente se, cada hiperplano<br />
tangente ao gráfico de f está sempreacima ou coincide com<br />
ográfico de f.<br />
Aqui ∇f(p) denota o vetor gradiente de f em p.<br />
y<br />
gráfico de f<br />
0<br />
x<br />
Figura A.4: Para uma função convexa, cada hiperplano tangente ao<br />
gráfico de f está sempre abaixo do gráfico de f.
142 [CAP. A: CONVEXIDADE<br />
Definição A.6 (Funções quase-convexas e quase-côncavas)<br />
(a) Dizemos que uma função f : U ⊂ R n → R definida em um<br />
subconjunto convexo U de R n é quase-convexa se, e somente<br />
se,<br />
{x ∈ U | f(x) ≤ c}<br />
é um conjunto convexo para todo c ∈ R.<br />
(b) Dizemos que uma função f : U ⊂ R n → R definida em um<br />
subconjunto convexo U de R n é quase-côncavo se, e somente<br />
se,<br />
{x ∈ U | f(x) ≥ c}<br />
é um conjunto convexo para todo c ∈ R.<br />
Note que f équase-côncava se, e somente se, −f équase-convexa.<br />
Toda função convexa é quase-convexa e toda função côncava équasecôncava.<br />
Existem funções quase-convexas que não são convexas. Por<br />
exemplo, a função f : R → R definida por y = f(x) = 3√ x 2 équaseconvexa,<br />
mas não éconvexa.<br />
y<br />
0 x<br />
Figura A.5: y = f(x) = 3√ x 2 é quase-convexa, mas não éconvexa<br />
em R.
143<br />
Toda função f : R → R monótona é quase-convexa e quase-côncava.<br />
A função y = f(x) =⌊x⌋ que leva x ∈ R no maior inteiro menor do<br />
que ou igual a x é função quase-convexa que não écontínua. A função<br />
da Figura A.6 é um exemplo de função que não équase-convexa.<br />
Teorema A.5 Seja f : U ⊂ R n → R uma função definida em<br />
um subconjunto convexo U de R n .<br />
(a) As seguintes condições são equivalentes:<br />
(1) f é uma função quase-convexa em U.<br />
(2) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1], se f(x 1 ) ≤ f(x 2 ), então<br />
(3) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1],<br />
f(t · x 1 +(1− t) · x 2 ) ≤ f(x 2 ).<br />
f(t · x 1 +(1− t) · x 2 ) ≤ max{f(x 1 ),f(x 2 )}.<br />
(b) As seguintes condições são equivalentes:<br />
(1) f é uma função quase-côncava em U.<br />
(2) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1], se f(x 1 ) ≥ f(x 2 ), então<br />
(3) ∀x 1 , x 2 ∈ U, ∀t ∈ [0, 1],<br />
f(t · x 1 +(1− t) · x 2 ) ≥ f(x 2 ).<br />
f(t · x 1 +(1− t) · x 2 ) ≥ min{f(x 1 ),f(x 2 )}.<br />
Teorema A.6 Seja f : U ⊂ R n → R uma função de classe C 1<br />
definida em um subconjunto convexo U de R n .<br />
(a) f équase-convexaemU se, e somente se,<br />
∀x 1 , x 2 ∈ U, f(x 2 ) ≤ f(x 1 ) ⇒ ∇f(x 1 ) · (x 2 − x 1 ) ≤ 0.
144 [CAP. A: CONVEXIDADE<br />
y<br />
c<br />
0 x<br />
Figura A.6: Um exemplo de função que não équase-convexa.<br />
(b) f équase-côncava em U se, e somente se,<br />
∀x 1 , x 2 ∈ U, f(x 2 ) ≥ f(x 1 ) ⇒ ∇f(x 1 ) · (x 2 − x 1 ) ≥ 0.
Apêndice B<br />
Programação Linear<br />
Neste apêndice apresentaremos as definições e propriedades básicas<br />
da teoria de programação linear necessárias no texto. Para<br />
detalhes, demonstrações e extensões, recomendamos os excelentes livros<br />
[14, 52].<br />
Um programa linear éumproblemadeotimização onde a função<br />
que queremos otimizar e as restrições são todas lineares. Por exemplo,<br />
minimizar x 1 + x 2<br />
x 1,x 2∈R<br />
sujeito a 3 x 1 +2x 2 ≥ 8,<br />
x 1 +5x 2 ≥ 7,<br />
x 1 ≥ 0,<br />
x 2 ≥ 0,<br />
(B.1)<br />
é um programa linear. Para resolvê-lo, precisamos encontrar um<br />
ponto (x 1 ,x 2 )doconjunto admissível<br />
K = {(x 1 ,x 2 ) ∈ R 2 | 3 x 1 +2x 2 ≥ 8,x 1 +5x 2 ≥ 7,x 1 ≥ 0,x 2 ≥ 0}<br />
que torna o valor da função objetivo o(x 1 ,x 2 )=x 1 + x 2 omenor<br />
possível. O conjunto K está desenhado na Figura B.1. Por inspeção,<br />
vemos que a solução ótima é dada por (x ∗ 1 ,x∗ 2 )=(2, 1). Este ponto é<br />
ainterseção da curva de nível f(x 1 ,x 2 )=x 1 + x 2 = c “mais baixa”<br />
que intercepta o conjunto admissível.<br />
145
146 [CAP. B: PROGRAMAÇÃO LINEAR<br />
x 2<br />
4<br />
3<br />
1<br />
0 2 3<br />
7<br />
x 1<br />
Figura B.1: O conjunto admissível do programa linear B.1.<br />
Dizemos que um programa linear está naforma padrão se todas<br />
as variáveis de decisão são não-negativas e se todas as restrições são<br />
em igualdade:<br />
minimizar<br />
x 1,...,x n<br />
∈ R c 1 x 1 + ···+ c n x n<br />
sujeito a a 11 x 1 + ··· + a 1n x n = b 1 ,<br />
. . . . .<br />
a m1 x 1 + ··· + a mn x n = b m ,<br />
e x 1 ≥ 0, ..., x n ≥ 0.<br />
Todo programa linear pode ser reescrito na forma padrão com o uso<br />
de variáveis de folga. Por exemplo, uma restrição da forma<br />
a i1 x 1 + ···+ a in x n ≥ b i<br />
pode ser substituída, de maneira equivalente, pelas restrições<br />
a i1 x 1 + ···+ a in x n − y i = b i e y i ≥ 0.<br />
Se uma variável de decisão x i pode assumir qualquer valor real, isto é,<br />
se não existe restrição de não-negatividade em x i ,então podemos
147<br />
substituir x i por u i − v i , a diferença de dois números positivos. Se<br />
colocarmos o programa linear B.1 na forma padrão, obtemos o seguinte<br />
PL:<br />
minimizar<br />
x 1,x 2,y 1,y 2∈R<br />
x 1 + x 2<br />
sujeito a 3 x 1 +2x 2 − y 1 =8,<br />
x 1 +5x 2 − y 2 =7,<br />
x 1 ≥ 0,<br />
x 2 ≥ 0,<br />
y 1 ≥ 0,<br />
y 2 ≥ 0.<br />
(B.2)<br />
Um programa linear pode ser escrito de forma mais compacta<br />
usando-se matrizes e vetores:<br />
minimizar c T x<br />
x∈R n<br />
sujeito a Ax = b e x ≥ 0,<br />
(B.3)<br />
onde x ∈ R n , c ∈ R n , b ∈ R m e A é uma matriz m × n. Note<br />
que o conjunto admissível K = {x ∈ R n | Ax = b e x ≥ 0} de um<br />
programa linear, quando não-vazio, é um politopo convexo, e que as<br />
hipersuperfícies de nível da função objetivo são hiperplanos.<br />
Problemas de maximização podem ser transformados em problemas<br />
de minimização substituindo-se a função objetivo o por −o. Mais<br />
precisamente, x ∗ é uma solução ótima de<br />
maximizar c T x<br />
x∈R n<br />
sujeito a Ax = b e x ≥ 0,<br />
se, e somente se, x ∗ também ésolução de<br />
minimizar −c T x<br />
x∈R n<br />
sujeito a Ax = b e x ≥ 0.<br />
Na teoria de programação linear, assume-se que m
148 [CAP. B: PROGRAMAÇÃO LINEAR<br />
Da teoria de Álgebra Linear sabemos, então, que existem m colunas<br />
de A que são linearmente independentes. Renomeando-se índices se<br />
necessário, podemos assumir que estas colunas sejam as m primeiras.<br />
Isto induz uma decomposição de A edex:<br />
A = [ B C ] [ ]<br />
xB<br />
, x = ,<br />
x C<br />
onde B é uma matriz m×m inversível. Como o sistema linear Ax = b<br />
é equivalente a Bx B + Cx C = b, segue-se então que existe uma<br />
solução x de Ax = b na forma<br />
[<br />
xB<br />
0<br />
]<br />
.<br />
Esta solução é denominada solução básica do sistema linear Ax =<br />
b associada à base B. As componentes de x B são denominadas<br />
variáveis básicas.<br />
Teorema B.1 (Teorema Fundamental da Programação<br />
Linear) Considere um programa linear na forma padrão B.3,<br />
com A matriz m × n de posto m.<br />
(a) Se o programa linear possui um ponto admissível, então ele<br />
possui um ponto admissível que é uma solução básica do<br />
sistema linear Ax = b.<br />
(b) Se o programa linear possui um ponto ótimo, então ele possui<br />
um ponto ótimo que é uma solução básica do sistema<br />
linear Ax = b.<br />
Opróximo teorema dá uma interpretação geométrica para pontos<br />
admissíveis que são soluções básicas: eles correspondem aos pontos<br />
extremos (vértices) do politopo K = {x ∈ R n | Ax = b e x ≥ 0}.<br />
Definição B.1 (Ponto Extremo) Dizemos que um ponto x<br />
em um conjunto convexo U é ponto extremo de U se não existem<br />
dois outros pontos distintos x 1 e x 2 em U tais que x = α x 1 +<br />
(1 − α) x 2 para algum α no intervalo (0, 1).
149<br />
Na Figura B.2, x 1 , x 2 e x 3 são os únicospontosextremosdo<br />
conjunto admissível K do PL B.1. O ponto x 4 não éumponto<br />
extremo de K, pois ele pode ser escrito como uma combinação convexa<br />
de x 2 ∈ K e x 3 ∈ K. Como x 6 = α x 5 +(1− α) x 7 para<br />
algum α ∈ (0, 1), vemos que o ponto x 6 (no interior do conjunto<br />
admissível) também não é um ponto extremo de K.<br />
x 2<br />
4<br />
3<br />
x 1<br />
x x 7<br />
6<br />
x 5<br />
x 4<br />
1<br />
x 2<br />
x 3<br />
0 x 1<br />
2 3<br />
7<br />
Figura B.2: x 1 , x 2 e x 3 são os únicospontosextremosdoconjunto<br />
admissível do PL B.1.<br />
Teorema B.2 (Equivalência entre Pontos Extremos e<br />
Soluções Básicas) Seja A uma matriz m × n de posto m,<br />
b um vetor em R m e K = {x ∈ R n | Ax = b e x ≥ 0} oconjunto<br />
admissível de B.3. Então x é um ponto extremo de K<br />
se, e somente se, x é um ponto admissível que ésolução básica<br />
de Ax = b.<br />
Os teoremas B.1 e B.2 dizem que, para se resolver o problema B.3, não<br />
é preciso considerar todos os pontosdoconjuntoadmissível K: basta<br />
procurar pelo ponto ótimo entre os pontos extremos (vértices) de K!<br />
Ométodo simplex explora esta estrutura para construir um algoritmo<br />
muito popular para se resolver B.3. Outra categoria de métodos que
150 [CAP. B: PROGRAMAÇÃO LINEAR<br />
recentemente ganhou bastante popularidade é a classe dos métodos<br />
de ponto interior. Não é nosso propósito estudar estes algoritmos<br />
aqui. O leitor interessado poderá consultar os livros [14, 52]. O que é<br />
preciso se ter em mente é que programas lineares podem ser resolvidos<br />
numericamente de maneira muito eficiente nos dias de hoje. A seguir<br />
estabeleceremos resultados sobre dualidade, um conceito fundamental<br />
emuitoútil em programação linear.<br />
Definição B.2 (O problema dual) O problema dual de<br />
minimizar c T x<br />
x∈R n<br />
sujeito a Ax ≥ b e x ≥ 0,<br />
(B.4)<br />
é o programa linear<br />
maximizar λ T b<br />
λ∈R m<br />
sujeito a A T λ ≤ c e λ ≥ 0,<br />
(B.5)<br />
onde λ T b = ∑ m<br />
i=1 λ ib i . B.5 é denominado o problema dual<br />
de B.4. Neste contexto, B.4 é denominado problema primal.<br />
Por exemplo, o problema dual do programa linear B.1 é<br />
minimizar 8 λ 1 +7λ 2<br />
λ 1,λ 2∈R<br />
sujeito a 3 λ 1 + λ 2 ≤ 1,<br />
2 λ 1 +5λ 2 ≤ 1,<br />
λ 1 ≥ 0,<br />
λ 2 ≥ 0.<br />
(B.6)<br />
O problema dual de qualquer programa linear pode ser encontrado<br />
convertendo-o para o formato B.4. Por exemplo, como Ax = b se,<br />
esomentese,Ax ≥ b e −Ax ≥−b, o programa linear na forma<br />
padrão B.3 pode ser escrito na forma do problema primal B.4 da
151<br />
seguinte maneira equivalente<br />
minimizar<br />
x∈R n<br />
sujeito a<br />
[<br />
A<br />
−A<br />
]<br />
x ≥<br />
c T x<br />
[<br />
b<br />
−b<br />
]<br />
e x ≥ 0.<br />
Particionando-se agora as variáveis duais na forma (u, v), o problema<br />
dual deste último PL é<br />
minimizar<br />
u T b − v T b<br />
x∈R n<br />
sujeito a A T u − A T v ≤ c, u ≥ 0 e v ≥ 0.<br />
Fazendo-se λ = u − v, o problema acima pode ser simplificado, o que<br />
nos leva ao seguinte par de problemas duais:<br />
Par Dual B.1<br />
(problema primal)<br />
minimizar c T x<br />
x∈R n<br />
sujeito a Ax = b,<br />
x ≥ 0,<br />
(problema dual)<br />
maximizar λ T b<br />
λ∈R m<br />
sujeito a A T λ ≤ c.<br />
Outros pares de problemas duais de interesse são dados a seguir.<br />
Par Dual B.2<br />
(problema primal)<br />
maximizar c T x<br />
x∈R n<br />
sujeito a Ax = b,<br />
x ≥ 0,<br />
(problema dual)<br />
minimizar λ T b<br />
λ∈R m<br />
sujeito a A T λ ≥ c.
152 [CAP. B: PROGRAMAÇÃO LINEAR<br />
Par Dual B.3 (O da Definição B.2)<br />
(problema primal)<br />
minimizar c T x<br />
x∈R n<br />
sujeito a Ax ≥ b,<br />
x ≥ 0,<br />
(problema dual)<br />
maximizar λ T b<br />
λ∈R m<br />
sujeito a A T λ ≤ c,<br />
λ ≥ 0.<br />
Par Dual B.4<br />
(problema primal)<br />
maximizar b T y<br />
y∈R m<br />
sujeito a Ay ≤ c,<br />
y ≥ 0,<br />
(problema dual)<br />
minimizar<br />
x∈R n<br />
sujeito a<br />
c T x<br />
x T A ≥ b Ț<br />
x ≥ 0.<br />
Teorema B.3 (Teorema fraco de dualidade) Se x e λ são<br />
admissíveis para os problemas B.3 e B.5, respectivamente, então<br />
c T x ≥ λ T b.<br />
Este teorema mostra que um ponto admissível para um dos problemas<br />
fornece uma cota para o valor da função objetivo do outro<br />
problema. Os valores associados com o problema primal são sempre<br />
maiores ou iguais aos valores associados com o problema dual. Como<br />
corolário, vemos que se um par de pontos admissíveis pode ser encontrado<br />
para os problemas primal e dual com valores iguais da função<br />
objetivo, então estes pontos são ótimos.<br />
Teorema B.4 (Teorema forte de dualidade) Se um dos<br />
problemas B.3 ou B.5 tem uma solução ótima finita, então o<br />
outro também terá uma solução ótima finita e, neste caso, os<br />
valores das respectivas funções objetivo são iguais. Se a função
153<br />
objetivo do problema primal não é limitada inferiormente, então<br />
oconjuntoadmissível do problema dual é vazio e, se a função<br />
objetivo do problema dual não é limitada superiormente, então<br />
oconjuntoadmissível do problema primal é vazio.<br />
Oconjuntoadmissível do problema dual B.6 do programa linear B.1<br />
está desenhado na Figura B.3. Por inspeção, vemos que a solução<br />
ótima é dada por (λ ∗ 1,λ ∗ 2)=(4/13, 1/13). Este ponto éainterseção da<br />
curva de nível g(λ 1 ,λ 2 )=8λ 1 +7λ 2 = c “mais alta” que intercepta<br />
oconjuntoadmissível. Lembrando que (x ∗ 1 ,x∗ 2 )=(2, 1) é a solução<br />
do problema primal B.1, vemos que<br />
f(x ∗ 1 ,x∗ 2 )=x∗ 1 + x∗ 2 =3=8λ∗ 1 +7λ∗ 2 = g(λ∗ 1 ,λ∗ 2 ),<br />
como afirma o teorema forte da dualidade.<br />
¸2<br />
3/7<br />
1/5<br />
(4/13, 1/13)<br />
0<br />
1/3<br />
3/8<br />
¸1<br />
Figura B.3: O conjunto admissível do problema dual B.6 do programa<br />
linear B.1.<br />
Por fim, gostaríamos de observar que se a função objetivo do programa<br />
linear B.3 não é limitada inferiormente no conjunto admissível
154 [CAP. B: PROGRAMAÇÃO LINEAR<br />
K = {x ∈ R n | Ax = b e x ≥ 0} ,<br />
então existem ponto extremo ˜x eraioextremo˜r de K tal que o valor<br />
da função objetivo de B.3 em x = ˜x + t˜r tende a −∞ quando t tende<br />
a+∞. Emparticular,<br />
c T˜r < 0.<br />
Dizemos que ˜r éumraiodeK se, e somente se, ˜r ≠ 0 e o conjunto<br />
{p ∈ R n | p = x + t˜r e t ≥ 0} está contidoemK para todo x ∈ K.<br />
Um raio ˜r de K é extremo, senão existem outros dois raios r 1 e r 2<br />
de K (com r 1 ≠ t r 2 para todo t>0) e um escalar s no intervalo (0, 1)<br />
tal que ˜r = s r 1 +(1− s) r 2 .<br />
r 2<br />
r 3<br />
K<br />
0 x 1<br />
Figura B.4: Os vetores r 1 e r 2 não são raios extremos de K. O vetor<br />
r 3 éumraioextremodeK.
Apêndice C<br />
Respostas dos exercícios<br />
Capítulo 2<br />
[01] O processo de dominância estrita iterada reduz o jogo para uma<br />
matriz 1×1 comumúnico perfil de estratégias puras: (s 13 ,s 22 ).<br />
[02] (a) Não existem estratégias dominantes neste jogo.<br />
(b) (l 1 ,c 1 )e(l 2 ,c 2 )são os únicos equilíbrios de Nash em estratégias<br />
puras do jogo.<br />
[03] (a) c 2 domina estritamente c 1 .<br />
(b) (l 2 ,c 2 )éoúnico equilíbrio de Nash em estratégias puras do<br />
jogo.<br />
[04] (a) Não existem estratégias dominantes neste jogo.<br />
(b) (desviar, não desviar) e (não desviar, desviar) são os únicos<br />
equilíbrios de Nash em estratégias puras do jogo.<br />
[05] (a) Não existem estratégias dominantes neste jogo.<br />
(b) (brigar, ameaçar) e (ameaçar, brigar) são os únicos equilíbrios<br />
de Nash em estratégias puras do jogo.<br />
[06] Usando o processo de dominância fraca iterada, o jogo se reduz<br />
para uma matriz 3 × 3:<br />
155
156 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
Eixo<br />
A B C<br />
Aliados<br />
1 (+13, −13) (+29, −29) (+ 8, − 8)<br />
3 (+18, −18) (+22, −22) (+31, −31)<br />
.<br />
6 (+23, −23) (+22, −22) (+19, −19)<br />
[07] O processo de dominância estrita iterada reduz o jogo para<br />
uma matriz 1 × 1 × 1comumúnico perfil de estratégias puras:<br />
(x 3 ,y 2 ,z 4 ).<br />
[08] O processo de dominância estrita iterada reduz o jogo para<br />
uma matriz 1 × 1 × 1comumúnico perfil de estratégias puras:<br />
(x 2 ,y 1 ,z 2 ).<br />
[09] O perfil de estratégias (x 2 ,y 2 ,z 3 )éoúnico equilíbrio de Nash<br />
em estratégias puras do jogo.<br />
[10] (a) Para o jogador 1, a estratégia M é fracamente dominada<br />
pela estratégia T etambém fracamente dominada pela estratégia<br />
B. Para o jogador 2, a estratégia L éfracamente<br />
dominada pela estratégia R.<br />
(b) O processo de eliminação das estratégias fracamente dominadas<br />
conduz a duas reduções 1 × 1: {(B,C)} e {(T,R)}.<br />
(c) Os equilíbrios de Nash em estratégias puras são (T,C),<br />
(T,R)e(B,C). Note que (T,C) não está entre os perfis<br />
de estratégias encontrados no item anterior.<br />
[11] Suponha, por absurdo, que s ∗ =(s ∗ 1,...,s ∗ n)não seja um e-<br />
quilíbrio de Nash. Então devem existir índice i eestratégia<br />
pura s [1]<br />
i ∈ S i ,coms [1]<br />
i ≠ s ∗ i ,taisqueu i(s ∗ i , s∗ −i )
157<br />
porque a estratégia s [1]<br />
i foi fracamente dominada por outra estratégia<br />
s [2]<br />
i . Logo, u i(s [1]<br />
i , s −i) ≤ u i (s [2]<br />
i , s −i) paratodos −i<br />
que pode ser construído com as estratégias que restaram nos<br />
espaços de estratégias puras dos outros jogadores neste estágio<br />
do processo (que inclui s ∗ −i ) e, mais ainda, pelo menos para<br />
um s [2]<br />
−i , vale a desigualdade estrita: u i(s [1]<br />
i , s[2] −i )
158 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
[12] Note que<br />
u i (p ∗ ) = u i (p ∗ i , p∗ −i )<br />
=<br />
∑m 1<br />
j 1=1<br />
···<br />
∑m n<br />
j n=1<br />
Reordenando os somatórios, obtemos que<br />
onde<br />
v ji =<br />
∑m 1<br />
j 1=1<br />
···<br />
u i (p ∗ i , p ∗ −i) =<br />
m∑<br />
i−1<br />
m∑<br />
i+1<br />
j i−1=1 j i+1=1<br />
p ∗ 1j 1 ····p ∗ nj n · u i (s 1j1 ,...,s njn ).<br />
∑m i<br />
j i=1<br />
···<br />
p ∗ ij i · v ji = 〈p ∗ i , v〉<br />
∑m n<br />
j n=1<br />
c j1,...,j n<br />
· u i (s 1j1 ,...,s njn ),<br />
com c j1,...,j n<br />
= p ∗ 1j 1 ···p ∗ (i−1)j i−1<br />
· p ∗ (i+1)j i+1<br />
···p ∗ nj n<br />
. Desta maneira,<br />
se x 1 ,...,x r ∈ Δ i e λ 1 ,...,λ r são escalares não-negativos<br />
com ∑ r<br />
k=1 λ k =1,então<br />
( r∑<br />
) 〈 r∑<br />
〉<br />
u i λ k · x k , p ∗ −i = λ k · x k , v<br />
k=1 k=1<br />
=<br />
=<br />
r∑<br />
λ k ·〈x k , v〉<br />
k=1<br />
r∑<br />
λ k · u i (x k , p ∗ −i ).<br />
k=1<br />
Nas igualdades acima não usamos que λ 1 ,...,λ r são escalares<br />
não-negativos com ∑ r<br />
k=1 λ k = 1. De fato, esta exigência é<br />
necessária<br />
∑<br />
apenas para garantir que se x 1 ,...,x r ∈ Δ i ,então<br />
r<br />
k=1 λ k · x k ∈ Δ i .<br />
[13] Suponha que a estratégia pura s ik do jogador g i seja estritamente<br />
dominada por uma estratégia mista<br />
p ′ i =(p ′ i1,...,p ′ ik,...,p ′ im i<br />
) ∈ Δ mi .
159<br />
Vamos mostrar que se p i =(p i1 ,...,p ik ,...,p imi )éumaoutra<br />
estratégia mista do jogador g i com p ik > 0, então p i também<br />
é estritamente dominada. Como s ik éestritamentedominada<br />
por p ′ i , segue-se que<br />
u i (p ′ i ,s −i) >u i (s ik ,s −i ), ∀s −i ∈ S −i .<br />
Assim,<br />
u i (p i ,s −i )<br />
(∗)<br />
=<br />
=<br />
<<br />
∑m i<br />
r=1<br />
m i<br />
p ir · u i (s ir ,s −i )<br />
∑<br />
p ir · u i (s ir ,s −i )+p ik · u i (s ik ,s −i )<br />
r=1<br />
r≠k<br />
∑m i<br />
r=1<br />
r≠k<br />
p ir · u i (s ir ,s −i )+p ik · u i (p ′ i,s −i ),<br />
onde, em (∗), usamos a propriedade 2.4 da página 31. Mas, por<br />
esta mesma propriedade,<br />
Conseqüentemente,<br />
∑m i<br />
r=1<br />
r≠k<br />
∑m i<br />
r=1<br />
r≠k<br />
u i (p ′ i ,s −i) =<br />
∑m i<br />
r ′ =1<br />
u i (p i ,s −i )<br />
<<br />
p ir · u i (s ir ,s −i )+p ik ·<br />
=<br />
p ′ ir ′ · u i(s ir ′,s −i ).<br />
∑m i<br />
r ′ =1<br />
p ′ ir ′ · u i(s ir ′,s −i )<br />
(p ir + p ik · p ′ ir) · u i (s ir ,s −i )+p ik · p ′ ik · u i (s ik ,s −i )<br />
∑m i<br />
r=1<br />
=<br />
p ′′<br />
ir · u i(s ir ,s −i ),
160 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
onde os coeficientes p ′′<br />
ir são definidos por<br />
{<br />
p ′′<br />
ir = pir + p ik · p ′ ir , se r ≠ k,<br />
p ik · p ′ ik<br />
, se r = k.<br />
Como p ′′<br />
ir ≥ 0paratodor =1,...,m i e ∑ m i<br />
r=1 p′′ ir =1,segue-se<br />
que p ′′<br />
i =(p ′′<br />
i1 ,...,p′′ ir ,...,p′′ im i<br />
)é uma distribuição de probabilidades<br />
e, sendo assim,<br />
∑m i<br />
u i (p i ,s −i ) < p ′′<br />
ir · u i(s ir ,s −i )=u i (p ′′<br />
i ,s −i), ∀s −i ∈ S −i .<br />
r=1<br />
Isto mostra que a estratégia mista p i éestritamentedominada<br />
pela estratégia mista p ′′<br />
i .<br />
[14] Para o dilema dos prisioneiros, as funções de melhor resposta<br />
são dadas por:<br />
MR Bob (p) = argmax q∈[0,1] ((4 p +1)q − (9 p +1))={1},<br />
MR Al (q) = argmax p∈[0,1] ((4 q +1)p − (9 q +1))={1}.<br />
A partir das representações gráficas destas funções (Figura C.1),<br />
vemos que o único equilíbrio de Nash em estratégias mistas do<br />
jogo éoperfil(1, 0; 1, 0), que corresponde ao único ponto de<br />
interseção (p ∗ ,q ∗ )=(1, 1) das duas representações gráficas.<br />
Para o jogo de comparar moedas, as funções de melhor resposta<br />
são dadas por:<br />
MR 2 (p) = argmax q∈[0,1] (2 (+1 − 2 p) q − 1+2p)<br />
⎧<br />
⎨ {1}, se p ∈ [0, 1/2),<br />
= [0, 1], se p =1/2,<br />
⎩<br />
{0}, se p ∈ (1/2, 1],<br />
MR 1 (q) = argmax p∈[0,1] (2 (−1+2q) p +1− 2 q)<br />
⎧<br />
⎨ {0}, se q ∈ [0, 1/2),<br />
= [0, 1], se q =1/2,<br />
⎩<br />
{1}, se q ∈ (1/2, 1].<br />
A partir das representações gráficas destas funções (Figura C.2),<br />
vemos que o único equilíbrio de Nash em estratégias mistas do
161<br />
(Bob)<br />
q<br />
(Confessar)<br />
1<br />
(Negar)<br />
0<br />
1 p (Al)<br />
(Negar)<br />
(Confessar)<br />
Figura C.1: Calculando os equilíbrios de Nash usando as representações<br />
gráficas das duas funções de melhor resposta.<br />
jogo éoperfil(1/2, 1/2; 1/2, 1/2), que corresponde ao único<br />
ponto de interseção (p ∗ ,q ∗ )=(1/2, 1/2) das duas representações<br />
gráficas.<br />
[15] Um equilíbrio de Nash não pode por probabilidade positiva em<br />
uma estratégia pura que é estritamente dominada. De fato:<br />
suponha, por absurdo, que p ∗ =(p ∗ i , p∗ −i ) seja um equilíbrio<br />
de Nash com p ∗ i =(p∗ i1 ,...,p∗ ik 1<br />
,...,p ∗ ik 2<br />
,...,p ∗ im i<br />
)ep ∗ ik 1<br />
> 0,<br />
onde s ik1 éumaestratégia pura estritamente dominada por s ik2 .<br />
Defina agora p • i =(p ∗ i1 ,...,0,...,p∗ ik 1<br />
+ p ∗ ik 2<br />
,...,p ∗ im i<br />
). Note<br />
que p • i ∈ Δ(S i)eu i (p • i , p∗ i ) >u i(p ∗ i , p∗ i ), contradizendo o fato<br />
de p ∗ =(p ∗ i , p∗ −i ) ser um equilíbrio de Nash. Um equilíbrio de<br />
Nash pode por probabilidade positiva em uma estratégia pura<br />
fracamente dominada. No jogo abaixo,<br />
g 2<br />
s 21 s 22<br />
g 1<br />
s 11 (12, 10) (28, 26)<br />
s 12 (20, 46) (20, 46)<br />
,
162 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
(g ) 2<br />
q<br />
(s ) 21<br />
1<br />
1/2<br />
(s ) 22<br />
0<br />
(s ) 12<br />
1/2 1 p<br />
(s ) 11<br />
(g ) 1<br />
Figura C.2: Calculando os equilíbrios de Nash usando as representações<br />
gráficas das duas funções de melhor resposta.<br />
o perfil de estratégias mistas (0, 1; 1/2, 1/2) é um equilíbrio de<br />
Nash que põe probabilidade p 21 =1/2 > 0naestratégia s 21<br />
e s 21 é fracamente dominada pela estratégia s 22 .<br />
[16] O perfil de estratégias puras s ∗ = (confessar, confessar) não é<br />
Pareto eficiente pois, se s • = (negar, negar) étalqueu Al (s • )=<br />
−1 > −5 =u Al (s • )eu Bob (s • )=−1 > −5 =u Bob (s • ).<br />
Capítulo 3<br />
[01] (a) Considere Δ = [0, 1] e F: Δ→ Δcujográfico édadona<br />
Figura C.3.<br />
(b) Considere Δ = (0, 1) e F: Δ→ Δcujográfico édadona<br />
Figura C.4.<br />
(c) Considere Δ = [0, 1/3] ∪ [2/3, 1] e F: Δ→ Δcujográfico é<br />
dado na Figura C.5.
163<br />
y<br />
1<br />
1/2<br />
0 1/2<br />
1<br />
x<br />
Figura C.3: Gráfico do item (a).<br />
y<br />
1<br />
2/3<br />
0 1/3<br />
1<br />
x<br />
Figura C.4: Gráfico do item (b).
164 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
y<br />
1<br />
2/3<br />
1/3<br />
0 1/3 2/3<br />
1<br />
x<br />
Figura C.5: Gráfico do item (c).<br />
y<br />
1<br />
3/4<br />
1/4<br />
0 1/2<br />
1<br />
x<br />
Figura C.6: φ não possui ponto fixo.
165<br />
[02] Conforme a Figura C.6 na página 164, um exemplo é obtido<br />
tomando-se X =[0, 1] e<br />
⎧<br />
⎨[3/4, 1], se 0 ≤ x
166 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
(problema dual)<br />
minimizar x 1 + x 2<br />
sujeito a 3 x 1 + x 2 ≥ 1,<br />
x 1 +3x 2 ≥ 1,<br />
x 1 ≥ 0,<br />
x 2 ≥ 0.<br />
Asolução do problema dual é(x ∗ 1 ,x∗ 2 )=(1/4, 1/4) e a solução<br />
do problema primal é(y1,y ∗ 2)=(1/4, ∗ 1/4). Se<br />
θ = x ∗ 1 + x∗ 2 = y∗ 1 + y∗ 2 = 1 2 ,<br />
segue-se que o único equilíbrio de Nash do jogo de comparar<br />
moedas é dado por (p ∗ , q ∗ ), onde<br />
p ∗ = (x∗ 1,x ∗ 2)<br />
θ<br />
( 1<br />
=<br />
2 , 1 2)<br />
e q ∗ = (y∗ 1,y ∗ 2)<br />
θ<br />
=<br />
( 1<br />
2 , 1 2)<br />
.<br />
[03] Considere o seguinte jogo matricial geral de ordem 2 × 2:<br />
[ ]<br />
a b<br />
A = .<br />
d c<br />
Se existe um ponto de sela, basta usarmos os resultados da Subseção<br />
4.3.2 para encontrar um equilíbrio de Nash do jogo. Suponha<br />
então que a matriz A não possua pontos de sela. Desta<br />
maneira, o jogo possui apenas equilíbrios de Nash<br />
(p ∗ , 1 − p ∗ ; q ∗ , 1 − q ∗ )<br />
totalmente mistos, isto é, com 0
167<br />
ou a>b, bde d
168 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
v<br />
*<br />
5<br />
v* ={7p* +5<br />
v* =8p* {3<br />
Coluna 2<br />
1<br />
v* ={2p* +1<br />
v* =3p* {2<br />
Coluna 3<br />
0 1 p<br />
{ 1<br />
Coluna 1<br />
*<br />
{ 2<br />
Coluna 4<br />
{ 3<br />
Figura C.7: Envelope inferior.<br />
isto é, ⎧⎪ ⎨<br />
⎪ ⎩<br />
v ∗ ≤ −2 p ∗ +1,<br />
v ∗ ≤ 8 p ∗ − 3,<br />
v ∗ ≤ 3 p ∗ − 2,<br />
v ∗ ≤ −7 p ∗ +5.<br />
(C.1)<br />
As funções afins v ∗ = −2 p ∗ +1, v ∗ =8p ∗ − 3, v ∗ =3p ∗ − 2<br />
e v ∗ =3p ∗ − 2 representam os ganhos médios do jogador linha<br />
quando ele escolhe a distribuição de probabilidades (p ∗ , 1−p ∗ )e<br />
o jogador coluna escolhe as colunas 1, 2, 3 e 4, respectivamente.<br />
Os gráficos destas funções para 0 ≤ p ∗ ≤ 1estão desenhados na<br />
Figura C.7.<br />
Para um valor fixo de p ∗ , o jogador linha está seguro de que seu<br />
ganho médio é pelo menos o mínimo destas quatro funções calculadas<br />
em p ∗ ,oenvelope inferior destas quatro funções. Como<br />
o jogador linha pretende maximizar os seus ganhos médios,
169<br />
então ele precisa encontrar p ∗ queatingeomáximo deste envelope<br />
inferior. De acordo com a Figura C.7, o máximo ocorre<br />
justamente na interseção das retas v ∗ = −2 p ∗ +1 e v ∗ =3p ∗ −2,<br />
as quais representam, respectivamente, as colunas 1 e 3 do jogador<br />
coluna. Deste modo, uma solução do jogo 2 × 4original<br />
pode ser obtida estudando-se o jogo 2 × 2 definido pela matriz<br />
R =<br />
[<br />
−1 +1<br />
+1 −2<br />
O valor deste jogo é v ∗ = −1/5 parap ∗ =3/5 eq ∗ =3/5.<br />
Assim, um equilíbrio de Nash do jogo original é dado por<br />
( 3<br />
(p ∗ , 1 − p ∗ ; q ∗ , 0, 1 − q ∗ , 0) =<br />
5 , 2 5 ; 3 5 , 0, 2 )<br />
5 , 0 .<br />
Naturalmente, a técnica aqui descrita pode ser aplicada para<br />
qualquer jogo de soma zero com matriz A de tamanho 2 × n.<br />
[05] Lembre-se que u l (p, q) =p T Aq e u l (p, q) =−p T Aq. Sejam<br />
e k ∗ e e l ∗ tais que<br />
min u l(p ∗ , e l )=u l (p ∗ , e l ∗)<br />
1≤l≤n<br />
e<br />
max (−u c(e k , q ∗ )) = −u c (e k ∗, q ∗ ),<br />
1≤k≤m<br />
isto é, p ∗T Ae l ≥ p ∗T Ae l ∗ para todo l e e T k Aq∗ ≤ e T k ∗Aq∗ para<br />
todo k. Destamaneira,<br />
e T k Aq∗ ≤ e T k ∗Aq∗ = −(−p ∗T Ae l ∗)=p ∗T Ae l ∗ ≤ p ∗T Ae l ,<br />
para todo k =1,...,me l =1,...,n. Por linearidade, segue-se<br />
que<br />
p T Aq ∗ ≤ p ∗T Aq,<br />
para todo p ∈ Δ m e q ∈ Δ n .Emparticular,p T Aq ∗ ≤ p ∗T Aq ∗<br />
e p ∗T Aq ∗ ≤ p ∗T Aq, istoé, u l (p, q ∗ ) ≤ u l (p ∗ , q ∗ )eu c (p ∗ , q) ≤<br />
u c (p ∗ , q ∗ )paratodop ∈ Δ m e q ∈ Δ n . Istomostraque(p ∗ , q ∗ )<br />
é um equilíbrio de Nash do jogo.<br />
]<br />
.
170 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
Para a matriz A de tamanho 4 × 5 do enunciado, temos que<br />
u l (p ∗ , e 1 )= 121<br />
37 , u l(p ∗ , e 2 )= 121<br />
37 , u l(p ∗ , e 3 )= 160<br />
37 ,<br />
u l (p ∗ , e 4 )= 121 e u l (p ∗ , e 5 )= 169<br />
37<br />
37 ,<br />
e<br />
u c (e 1 , q ∗ )= 121<br />
37 , u c(e 2 , q ∗ )= 121<br />
37 , u c(e 3 , q ∗ )= 120 e<br />
37<br />
u c (e 4 , q ∗ )= 121<br />
37 ,<br />
de modo que<br />
min u l(p ∗ , e l ) = 121/37 = max (−u c(e k , q ∗ )) = 121/37.<br />
1≤l≤n 1≤k≤m<br />
Pelo resultado acima, isto mostra que (p ∗ , q ∗ )é um equilíbrio<br />
de Nash do jogo.<br />
[06] Seja M = ∑ n<br />
l=1 a il = ∑ n<br />
k=1 a kj a constante obtida pela soma<br />
de qualquer linha ou coluna. Defina<br />
( 1<br />
p ∗ = q ∗ =<br />
n n)<br />
,..., 1 ∈ Δ n .<br />
∑<br />
Observe que, para todo k, l ∈{1,...,n}, u l (p ∗ , e l )=p ∗ Ae l =<br />
n<br />
i=1 p∗ i a il = p ∗ ∑ n<br />
i i=1 a il = M/n e u c (e k , q ∗ ) = −e k Aq ∗ =<br />
− ∑ n<br />
j=1 a kjqj ∗ = ∑ n −q∗ j j=1 a kj = −M/n. Portanto,<br />
min u l(p ∗ , e l )= M<br />
1≤l≤n n = max (−u c(e k , q ∗ )).<br />
1≤k≤m<br />
Pelo resultado do exercício anterior, concluímos que (p ∗ , q ∗ )é<br />
um equilíbrio de Nash do jogo. Para o caso do quadrado mágico<br />
da gravura Melancolia I de Albrecht Dürer,<br />
( 1<br />
p ∗ = q ∗ =<br />
4 , 1 4 , 1 4 , 1 4)<br />
e o valor do jogo é v ∗ =34/4 =17/2.
171<br />
[07] Se (p ∗ , q ∗ )é um equilíbrio de Nash totalmente misto, então,<br />
pelas relações 4.5,<br />
n∑<br />
a ij qj ∗ = v ∗ ,<br />
j=1<br />
∀i ∈{1,...,n}.<br />
Estas equações podem ser escritas usando-se matrizes da seguinte<br />
maneira: Aq ∗ = v ∗ ½. Como, por hipótese, A éuma<br />
matriz inversível, segue-se que q ∗ = v ∗ A −1 ½. Agora,<br />
n∑<br />
qj ∗ =1 ⇒ 1=½ T q ∗ = v ∗ ½ T A½ ⇒ v ∗ 1<br />
=<br />
½ T A −1 ½ .<br />
j=1<br />
Sendo assim,<br />
q ∗ =<br />
A−1 ½<br />
½ T A −1 ½ .<br />
Do mesmo modo, pelas relações 4.6,<br />
n∑<br />
p ∗ i a ij = v ∗ ,<br />
i=1<br />
∀j ∈{1,...,n}.<br />
Estas equações podem ser escritas usando-se matrizes da seguinte<br />
maneira: p ∗T Aq ∗ = v ∗ ½. Como, por hipótese, A éuma<br />
matriz inversível, segue-se que p ∗ = v ∗ ½A −1 e, assim,<br />
Capítulo 5<br />
p ∗ =<br />
½A−1<br />
½ T A −1 ½ .<br />
[01] O equilíbrio de Nash em estratégias puras obtido por indução<br />
retroativa é<br />
((Parar, Parar), (Parar, Parar)).<br />
Este equilíbrio não é Pareto eficiente pois, em comparação com<br />
o perfil acima,<br />
((Continuar, Continuar), (Continuar, Continuar))<br />
dá um ganho maior para os dois jogadores.
172 [CAP. C: RESPOSTAS <strong>DOS</strong> EXERCÍCIOS<br />
[02] O equilíbrio de Nash em estratégias puras obtido por indução<br />
retroativa é<br />
(Não confiar, Trair).<br />
Este equilíbrio não é Pareto eficiente pois, em comparação com<br />
o perfil acima,<br />
(Confiar, Honrar)<br />
dá um ganho maior para os dois jogadores.
Referências<br />
Bibliográficas<br />
[01] K. R. Apt, Uniform Proofs of Order Independence for Various<br />
Strategy Elimination Procedures. Contributions to Theoretical<br />
Economics, vol. 4, no. 1, article 5, 48 páginas, 2004.<br />
[02] R. Aumann, What Is Game Theory Trying to Accomplish?.<br />
Em Frontiers of Economics, K. Arrow, S. Honkapohja e<br />
B. Blackwell (editores), pp. 28-76, 1985.<br />
[03] R. Avenhaus, M. Canty, D. M. Kilgour, B. von Stengel, S. Zamir,<br />
Inspection Games in Arms Control. European Journal of<br />
Operational Research, vol. 90, no. 3, pp. 383-394, 1996.<br />
[04] G. S. Becker, Crime and Punishment: An Economic Approach.<br />
Journal of Politial Economy, vol 79, pp. 169-217, 1968.<br />
[05] A. T. Benjamin e A. J. Goldman, Analysis of the N-Card<br />
Game Le Her. Journal of Optimization Theory and Applications,<br />
vol. 114, no. 3, pp. 695–704, 2002.<br />
[06] J. Bertrand. Theorie Mathematique de la Richesse Sociale.<br />
Journal des Savants, pp. 499-508, 1883.<br />
[07] E. Borel, The Theory of Play and Integral Equations with Skew<br />
Symmetric Kernels. Econometrica, vol. 21, no. 1, pp. 97-100,<br />
1953. Originalmente publicado em: Comptes Rendus Hebdomadaires<br />
des Seances de l’Academie des Sciences, 1921.<br />
173
174<br />
REFERÊNCIAS BIBLIOGRÁFICAS<br />
[08] E. Borel, On Games that Involve Chance and the Skill of the<br />
Players. Econometrica, vol. 21, no. 1, pp. 101-115, 1953. Originalmente<br />
publicado em: Elements de la Théorie des Probabilités,<br />
1924.<br />
[09] T. Börgers, Pure Strategy Dominance. Econometrica, vol. 61,<br />
no. 1, pp. 423-430, 1993.<br />
[10] S. J. Brams e D. M. Kilgour, Game Theory and National Security.<br />
Basil Blackwell, 1988.<br />
[11] F. Brandt, F. Fischer e Y. Shoham, On Strictly Competitive<br />
Multi-Player Games. Proceedings of the 21st National Conference<br />
on Artificial Intelligence (AAAI), AAAI Press, pp. 605-<br />
612, 2006.<br />
[12] J. N. Brown e R. W. Rosenthal, Testing The Minimax Hypothesis:<br />
A Re-Examination of O’Neill’s Game Experiment.<br />
Econometrica, vol 58, no. 5, pp. 1065-1081, 1990.<br />
[13] L. I. de Castro e J. H. Faro, Introdução àTeoriadaEscolha.<br />
25 o Colóquio Brasileiro de Matemática, IMPA, 2005.<br />
[14] V. Chvátal, Linear Programming. W. H. Freeman and Company,<br />
1983.<br />
[15] Y. C. Chen, N. Y. Long e X. Luo, Iterated Strict Dominance<br />
in General Games. CIRANO Working Papers, 2007s-03, 2007.<br />
[16] S.-F. Cheng e M. P. Wellman, Iterated Weaker-Than-Weak<br />
Dominance Twentieth International Joint Conference on Artificial<br />
Intelligence, Hyderabad, India, pp. 1233-1238, 2007.<br />
[17] P. A. Chiappori, S. Levitt e T. Groseclose, Testing Mixed-<br />
Strategy Equilibria When Players Are Heterogeneous: The Case<br />
of Penalty Kicks in Soccer. The American Economic Review,<br />
vol. 92, no. 4, pp. 1138-1151, 2002.<br />
[18] V. Conitzer e T. Sandholm, Complexity of (Iterated) Dominance.<br />
Proceedings of the 6th ACM Conference on Electronic<br />
Commerce, pp. 88–97, 2005.
REFERÊNCIAS BIBLIOGRÁFICAS 175<br />
[19] A. A. Cournot, Recherches sur les Principes Mathématiques de<br />
la Théorie des Richesses, 1838. Traduzido por N. T. Bacon em<br />
Researches into the Mathematical Principles of the Theory of<br />
Wealth, McMillan, New York, 1927.<br />
[20] R. S. Datta, Algebraic Methods in Game Theory. Tesededoutorado,<br />
Departamento de Matemática, University of California<br />
at Berkeley, 2003.<br />
[21] R. S. Datta, Using Computer Algebra To Find Nash Equilibria.<br />
International Conference on Symbolic and Algebraic Computation,<br />
Proceedings of the 2003 International Symposium on<br />
Symbolic and Algebraic Computation, pp. 74-79, 2003.<br />
[22] R. S. Datta, Finding All Nash Equilibria of a Finite Game<br />
Using Polynomial Algebra. Artigo aceito para publicação, The<br />
Journal of Economic Theory, 2007. Disponível eletronicamente<br />
em: http://arxiv.org/abs/math.AC/0612462.<br />
[23] G. Debreu, A Social Equilibrum Existence Theorem. Proceedings<br />
of the National Academy of Sciences of the United States<br />
of America (PNAS), vol. 38, no. 10, pp. 886-893, 1952.<br />
[24] G. Debreu, Existence of Competitive Equilibrium. EmHandbook<br />
of Mathematical Economics, vol. II, K. J. Arrow e M. D.<br />
Intriligator (editores), North-Holland, pp. 697-743, 1982.<br />
[25] M. Dresher, Games of Strategy: Theory and Applications.<br />
Prentice-Hall, Englewood Cliffs, 1961.<br />
[26] M. Dufwenberg e M. Stegeman, Existence and Uniqueness of<br />
Maximal Reductions Under Iterated Strict Dominance. Econometrica,<br />
vol. 70, n. 5, pp. 2007–2023, 2002.<br />
[27] K. Etessami, Algorithmic Game Theory and Aplications. Lecture<br />
Notes, School of Informatics, The University of Edinburgh,<br />
Scotland, UK, 2004.<br />
[28] A. Fabrikant, A. Luthra, E. Maneva, C. H. Papadimitriou e<br />
S. Shenker, On a Network Creation Game. Annual ACM Symposium<br />
on Principles of Distributed Computing, Proceedings
176<br />
REFERÊNCIAS BIBLIOGRÁFICAS<br />
of the Twenty-Second Annual Symposium on Principles of Distributed<br />
Computing, pp. 347–351, 2003.<br />
[29] J. W. Friedman, Game Theory with Aplications to Economics,<br />
Second Edition. Oxford University Press, 1990.<br />
[30] D. Fudenberg e D. K. Levine, The Theory of Learning in<br />
Games. The MIT Press, 1996.<br />
[31] D. Fudenberg e J. Tirole, Game Theory. The MIT Press, 1995.<br />
[32] I. Gilboa, E. Kalai e E. Zemel, On the Order of Eliminating<br />
Dominated Strategies. Operations Research Letters, vol. 9,<br />
pp. 85–89, 1990.<br />
[33] I. Gilboa, E. Kalai e E. Zemel, The Complexity of Eliminating<br />
Dominated Strategies, Mathematics of Operations Research,<br />
vol. 18, no. 3, pp. 553–565, 1993.<br />
[34] I. L. Glicksberg, A Further Generalization of the Kakutani<br />
Fixed Point Theorem, with Application to Nash Equilibrium<br />
Points, Proceedings of the American Mathematical Society,<br />
vol. 3, no. 1, pp. 170-174, 1952.<br />
[35] S. Govindan e R. Wilson, Direct Proofs of Generic Finiteness<br />
of Nash Equilibrium Outcomes. Econometrica, vol. 69, no. 3,<br />
pp. 765-769, 2001.<br />
[36] F. Gül, D. Pearce, E. Stacchetti, A Bound on The Proportion<br />
of Pure Strategy Equilibria in Generic Games. Mathematics of<br />
Operations Research, vol. 18, no. 3, pp. 548-552, 1993.<br />
[37] A. Hald, A History of Probability and Statistics and Their Applications<br />
before 1750. John Willey & Sons, New York, 1990.<br />
[38] G. Hardin, The Tragedy of the Commons. Science, vol 162,<br />
pp. 1243-1248, 1968.<br />
[39] J. C. Harsanyi, Games with Randomly Disturbed Payoffs: A<br />
New Rationale for Mixed Strategy. International Journal of<br />
Game Theory, vol. 2, no. 1, pp. 1-23, 1973.
REFERÊNCIAS BIBLIOGRÁFICAS 177<br />
[40] J. C. Harsanyi, Oddness of The Number of Equilibrium Points:<br />
ANewProof. International Journal of Game Theory, vol. 2,<br />
no. 1, pp. 235-250, 1973.<br />
[41] S. Hart, Games in Extensive and Strategic Forms. Capítulo 2<br />
em Handbook of Game Theory, vol.1,R.J.AumanneS.Hart<br />
(editores), Elsevier Science Publishers, 1992.<br />
[42] J. B. Hiriart-Urruty e C. Lemarechal, Convex Analysis and Minimization<br />
Algorithms I: Fundamentals. Springer-Verlag, 1993.<br />
[43] J. Hirshleifer e E. Rasmusen, Are Equilibrium Strategies Unaffected<br />
by Incentives?. Journal of Theoretical Politics, vol. 4,<br />
no. 3, pp. 353-367, 1992.<br />
[44] H. Hotelling, The Stability of Competition. The Economic Journal,<br />
vol 39, no. 153, pp. 41-57, 1929.<br />
[45] S. Kakutani, A Generalization of Brouwer’s Fixed Point Theorem.<br />
Duke Mathematical Journal, vol 8, pp. 457-459, 1941.<br />
[46] T. H. Kjeldsen, John von Neumann’s Conception of the Minimax<br />
Theorem: A Journey Through Different Mathematical<br />
Contexts. Archive for History of Exact Sciences, vol. 56, no. 1,<br />
pp. 39-68, 2001.<br />
[47] D. Knuth, C. Papadimitriou e J. Tsitsiklis, A Note on Strategy<br />
Elimination in Bimatrix Games. Operations Research Letters,<br />
vol. 7, pp. 103–107, 1988.<br />
[48] D. M. Kreps, Game Theory and Economic Modelling. Clarendon<br />
Lectures in Economics, Oxford University Press, 1990.<br />
[49] C. E. Lemke e J. T. Howson Jr., Equilibrium Points of Bimatrix<br />
Games. Journal of the Society for Industrial and Applied<br />
Mathematics, vol. 12, no. 2, pp. 413-423, 1964.<br />
[50] R. J. Leonard, From Parlor Games to Social Science: Von Neumann,<br />
Morgenstern, and the Creation of Game Theory 1928-<br />
1944. Journal of Economic Literature, vol. 33, no. 2, pp. 730-<br />
761, 1995.
178<br />
REFERÊNCIAS BIBLIOGRÁFICAS<br />
[51] R. J. Lipton e E. Markakis, Nash Equilibria via Polynomial<br />
Equations. EmLATIN 2004: Theoretical Informatics, Lectures<br />
Notes in Computer Science, Springer-Verlag, pp. 413-422, 2004.<br />
[52] D. G. Luenberger, Linear and Nonlinear Programming, Second<br />
Edition. Addision-Wesley Publishing Company, 1989.<br />
[53] W. B. MacLeod, Incentives in Organizations: An Overview of<br />
Some of the Evidence and Theory. EmTrends in Business Organization,<br />
Horst Siebert (editor), The Kiel Institute of World<br />
Economics, 1995.<br />
[54] E. Markakis, Computational Aspects of Game Theory and Microeconomics.<br />
Tese de doutorado, Faculdade de Computação,<br />
Georgia Institute of Technology, 2005.<br />
[55] L. M. Marx e J. M. Swinkels, Order Independence for Iterated<br />
Weak Dominance. Games and Economic Behavior, vol 18,<br />
pp. 219–245, 1997.<br />
[56] J. Maynard Smith e G. R. Price, The Logic of Animal Conflict.<br />
Nature, vol. 246, no. 5427, pp. 15-18, 1973.<br />
[57] K. A. McCabe, A. Mukherji e D. E. Runkle, An Experimental<br />
Study of Information and Mixed-Strategy Play in Three-Person<br />
Matching-Pennies Game. Economic Theory, vol. 15, pp. 421-<br />
462, 2000.<br />
[58] R. D. McKelvey, A Liapunov Function for Nash Equilibria. Social<br />
Science Working Paper 953, California Institute of Technology,<br />
1998.<br />
[59] R. D. McKelvey e A. McLennan, The Maximal Number of Regular<br />
Totally Mixed Nash Equilibria. Journal of Economic Theory,<br />
vol. 72, pp. 411-425, 1997.<br />
[60] A. McLennan, The Maximal Generic Number of Pure Nash<br />
Equilibria. Journal of Economic Theory, vol. 72, no. 2, pp. 408-<br />
410, 1997.
REFERÊNCIAS BIBLIOGRÁFICAS 179<br />
[61] I. Milchtaich, Congestion Games with Player-Specific Payoff<br />
Functions. Games and Economic Behavior, vol 13, n. 1,<br />
pp. 111–124, 1996.<br />
[62] P. R. Milgrom e R. J. Weber, A Theory of Auctions and Competitive<br />
Bidding. Econometrica, vol. 50, no. 5, pp. 1089-1122,<br />
1982.<br />
[63] J. Milnor, Analytic Proofs of the “Hairy Ball Theorem” and the<br />
Brouwer Fixed Point Theorem. The American Mathematical<br />
Monthly, vol. 85, no. 7, pp. 521-524, 1978.<br />
[64] K. G. Murty, Linear Complementarity, Linear and Nonlinear<br />
Programming. Heldermann-Verlag, 1988.<br />
[65] R. G. Myerson, Nash Equilibrium and the History of Economic<br />
Theory. Journal of Economic Literature, vol. 37, no. 3,<br />
pp. 1067-1082, 1999.<br />
[66] J. F. Nash Jr., Equilibrium Points in n-person Games. Proceedings<br />
of the National Academy of Sciences of the United States<br />
of America, pp. 48–49, 1950.<br />
[67] J. F. Nash Jr., Non-Cooperative Games. PhD.Thesis.Princeton<br />
University Press, 1950.<br />
[68] J. F. Nash Jr., The Bargaining Problem. Econometrica, vol. 18,<br />
no. 2, pp. 155–162, 1950.<br />
[69] J. F. Nash Jr., Non-Cooperative Games. Annals of Mathematics,<br />
vol. 54, pp. 286–295, 1951.<br />
[70] J. F. Nash Jr., Two-person Cooperative Games. Econometrica,<br />
pp. 128–140, 1953.<br />
[71] J. von Neumann. Zur Theorie der Gesellschaftsspiele. Mathematische<br />
Annalen, vol. 100, pp. 295-320. Traduzido por S.<br />
Bargmann: On the Theory of Games of Stategy em Contributions<br />
to the Theory of Games, vol. 4, pp. 13-42, A. W. Tucker<br />
e R. D. Luce (editores), Princeton University Press, 1959.
180<br />
REFERÊNCIAS BIBLIOGRÁFICAS<br />
[72] J. von Neumann e O. Morgenstern, Theory of Games and Economic<br />
Behavior. Princeton University Press, 1944.<br />
[73] B. O’Neill, Nonmetric Test of the Minimax Theory of Twoperson<br />
Zerosum Games. Proceedings of the National Academy<br />
of Sciences of the United States of America (PNAS), vol. 84,<br />
pp. 2106-2109, 1987.<br />
[74] M. J. Osborne e A. Rubinstein, A Course in Game Theory.<br />
The MIT Press, 1994.<br />
[75] R. Otter e J. Dunne, Games with Equilibrium Points. Proceedings<br />
of the National Academy of Sciences of the United States<br />
of America (PNAS), vol. 39, pp. 310-314, 1953.<br />
[76] R. Radner e R. Roshental, Private Information and Pure Strategy<br />
Equilibrium. Mathematics of Operations Research, vol. 7,<br />
pp. 401-409, 1982.<br />
[77] A. Rapoport e R. B. Boebel, Mixed Strategies in Strictly Competitive<br />
Games: A Further Test of The Minimax Hypothesis.<br />
Games and Economic Behaviour, vol. 4, no. 2, pp. 261-283,<br />
1992.<br />
[78] P. J. Reny, On The Existence of Pure and Mixed Strategy Nash<br />
Equilibria in Discontinuous Games. Econometrica, vol. 67,<br />
no. 5, pp. 1029-1056, 1999.<br />
[79] C. A. Rogers, A Less Strange Version of Milnor’s Proof of<br />
Brouwer’s Fixed-Point Theorem. The American Mathematical<br />
Monthly, vol. 87, no. 7, pp. 525-527, 1980.<br />
[80] R. W. Rosenthal, A Class of Games Possessing Pure-Strategy<br />
Nash Equilibria. International Journal of Game Theory, vol. 2,<br />
n. 1, pp. 65–67, 1973.<br />
[81] A. Rubinstein, Comments On The Interpretation of Game Theory.<br />
Econometrica, vol. 59, no. 4, pp. 909-924, 1991.<br />
[82] B. W. Russell, Common Sense and Nuclear Warfare. George<br />
Allen & Unwin, 1959.
REFERÊNCIAS BIBLIOGRÁFICAS 181<br />
[83] T. L. Saaty, Mathematical Models of Arms Control and Disarmament:<br />
Application of Mathematical Structures in Politics.<br />
John Wiley & Sons, 1968.<br />
[84] R. Savani e B. von Stengel, Exponentially Many Steps for Finding<br />
a Nash Equilibrium in a Bimatrix Game. CDAM Research<br />
Report LSE-CDAM-2004-03, 2004.<br />
[85] T. C. Schelling, The Strategy of Conflict. Oxford University<br />
Press, 1968.<br />
[86] U. Schwalbe e P. Walker, Zermelo and the Early History of<br />
Game Theory. Games and Economic Behavior, vol. 34, no. 1,<br />
pp. 123-137, 2001.<br />
[87] L. S. Shapley, A Note on the Lemke-Howson Algorithm.<br />
Mathematical Programming Study I: Pivoting and Extensions,<br />
pp. 175-189, 1974.<br />
[88] H. von Stackelberg, Marktform und Gleichgewicht. Julius<br />
Springer, 1934.<br />
[89] T. Stuckless, Brouwer’s Fixed Point Theorem: Methods of<br />
Proof and Generalizations. Dissertação de mestrado, Departamento<br />
de Matemática, Simon Fraser University, 2003.<br />
[90] I. Todhunter, A History of the Mathematical Theory of Probability.<br />
Chelsea, New York, 1949.<br />
[91] J. P. Torres-Martínez, Fixed Points as Nash equilibria. Fixed<br />
Point Theory and Applications, vol. 2006, 4 páginas, 2006.<br />
[92] G. Tsebelis, The Abuse of Probability In Political Analysis: The<br />
Robison Crusoe Fallacy. The American Political Science Review,<br />
vol. 83, no. 1, pp. 77-91, 1989.<br />
[93] G. Tsebelis, Are Sanctions Effective? A Game-Theoretic<br />
Analysis. The Journal of Conflict Resolution, vol. 34, no. 1,<br />
pp. 3-28, 1990.
182<br />
REFERÊNCIAS BIBLIOGRÁFICAS<br />
[94] A. Vetta, Nash Equilibria in Competitive Societies, with Applications<br />
to Facility Location, Traffic Routing and Auctions.<br />
Proceedings of the 43rd Annual IEEE Symposium on Foundations<br />
of Computer Science (FOCS’02), IEEE Computer Society,<br />
pp. 416–425, 2002.<br />
[95] N. N. Vorob’ev, Foundations of Game Theory: Noncooperative<br />
Games. Birkhäuser Verlag, 1994.<br />
[96] P. Walker, A Chronology of Game Theory. http://www.econ.<br />
canterbury.ac.nz/personal pages/paul walker/gt/hist<br />
.htm, 2005.<br />
[97] R. Wilson, Computing Equilibria of N-Person Games. SIAM<br />
Journal on Applied Mathematics, vol. 21, no 1, 1971.<br />
[98] E. Zermelo, Über eine Anwendung der Mengdenlehre auf die<br />
theories des Schachspiels. AtasdoDécimo Quinto Congresso<br />
Internacional de Matemáticos, vol. 2, pp. 501–504, 1913.<br />
[99] J. Zhao, The Equivalente Between Four Economic Theorems<br />
andBrouwer’sFixedPointTheorem. Working paper, Department<br />
of Economics, Iowa State University, 2002.
Índice<br />
Árvore, 109<br />
Bernoulli, Nicholas, 5, 126<br />
Bertrand<br />
Modelo de duopólio, 129<br />
Binmore, Kenneth, 119<br />
Borel, Émile, 6<br />
Combinação convexa, 31, 138<br />
Complementaridade Linear, 102<br />
Conjunto<br />
admissível de um PL, 145<br />
convexo, 137<br />
Cournot<br />
Augustin, 5<br />
Modelo de duopólio, 126<br />
de Montmort, Pierre Rémond,<br />
126<br />
Dominância<br />
em estratégias mistas, 32<br />
em estratégias puras, 14<br />
estrita iterada, 15, 34<br />
fraca iterada, 18<br />
Dürer, Albrecht, 107<br />
Eficiência de Pareto, 59<br />
Equilíbrio<br />
de estratégia estritamente<br />
dominante, 15, 35<br />
de estratégia fracamente dominante,<br />
18<br />
de Nash, 20, 110<br />
em estratégias mistas, 35<br />
perfeito em subjogos, 117<br />
Espaço de estratégias<br />
mistas, 29<br />
puras, 11<br />
Estratégia<br />
de um jogo sequêncial, 109<br />
mista, 27<br />
suporte, 80<br />
pura, 11<br />
totalmente mista, 69<br />
Folgas complementares, 102<br />
Folha de uma árvore, 109<br />
Forma<br />
normal, 11<br />
padrão de um PL, 146<br />
Função<br />
côncava, 139<br />
convexa, 139<br />
de melhor reposta, 22<br />
objetivo de um PL, 145<br />
quase-côncava, 142<br />
quase-convexa, 142<br />
183
184 ÍNDICE<br />
utilidade, 11<br />
esperada, 30<br />
Gambit, 104<br />
Ganho, 10<br />
Hardin, Garret, 134<br />
Harsanyi, John, 9<br />
Indução retroativa, 114<br />
Informação perfeita, 108<br />
Jogo<br />
a batalha dos sexos, 13<br />
bimatricial, 101<br />
Chicken, 52<br />
comparar moedas, 21<br />
da centopéia, 119<br />
da confiança, 119<br />
da inspeção, 42<br />
de informação perfeita, 108<br />
de soma zero, 82<br />
2 × 2, 106<br />
2 × n, 169<br />
matriz inversível, 107<br />
quadrado mágico, 107<br />
do covarde, 52<br />
estratégico, 11<br />
estritamente competitivo,<br />
82<br />
hawk-dove, 54<br />
Le Her, 120<br />
na forma extensa, 108<br />
na forma normal, 11<br />
não-cooperativo, 11<br />
o dilema do prisioneiro, 11<br />
quadrado mágico, 107<br />
sequêncial, 108<br />
Kalmar, Laszlo, 6<br />
Le Her, 120<br />
Lloyd, William Forster, 133<br />
Market-clearing, 127<br />
Matriz de payoffs,12<br />
Melhor resposta, 22<br />
Método simplex, 149<br />
Modelo de Duopólio<br />
de Bertrand, 129<br />
de Cournot, 126<br />
de Stackelberg, 131<br />
Montmort, Pierre Rémond, 5<br />
Morgenstern, Oskar, 8<br />
Nash<br />
Equilíbrio de<br />
em estratégias mistas, 35<br />
em estratégias puras, 20<br />
Nash Jr., John Forbes, 9, 60<br />
Nó deumaárvore, 109<br />
Ótimo de Pareto, 59<br />
Pareto, eficiência de, 59<br />
Payoff ,10<br />
Perfil de estratégias<br />
mistas, 29<br />
puras, 11<br />
Politopo, 138<br />
Ponto<br />
extremo, 148<br />
fixo, 60, 65<br />
Problema<br />
de complementaridade linear,<br />
102<br />
dual, 150<br />
dual de um LP, 150
ÍNDICE 185<br />
primal de um LP, 150<br />
Produto homogêneo, 126<br />
Proposição da Irrelevância do Payoff,<br />
47<br />
básica de um PL, 148<br />
de folga de um PL, 146<br />
von Neumann, John, 7<br />
von Stackelberg, Heinrich, 131<br />
Quadrado mágico, 107<br />
Raiz de uma árvore, 109<br />
Ramo de uma árvore, 109<br />
Rosenthal, Robert W., 119<br />
Russell, Bertrand, 52<br />
Waldegrave, James, 5, 126<br />
Whitehead, Alfred North, 134<br />
Zermelo, Ernst, 6<br />
Selten, Reinhard, 9, 117<br />
Semiespaço, 138<br />
Semiplano, 138<br />
Simplex, 149<br />
Solução<br />
básica de um PL, 148<br />
Solução estratégica, 20<br />
Stackelberg<br />
Modelo de duopólio, 131<br />
Subjogo, 116<br />
Suporte, 80<br />
Teorema<br />
do ponto fixo de Brouwer,<br />
60<br />
do ponto fixo de Kakutani,<br />
65<br />
forte de dualidade, 152<br />
fraco de dualidade, 152<br />
fundamental da programação<br />
linear, 148<br />
Tucker, Albert W., 11<br />
Utilidade, 11<br />
esperada, 30<br />
Variável