UNIVERSIDAD DE BUENOS AIRES Facultad de Ciencias Exactas y Naturales Departamento de Matemática Teoría de juegos y sistemas de ecuaciones diferenciales parciales Tesis presentada para optar al título de Doctor de la Universidad de Buenos Aires en el área Ciencias Matemáticas Alfredo Manuel Miranda Director de tesis: Dr. Julio Daniel Rossi Consejero de estudios: Dr. Gabriel Acosta Rodríguez Lugar de trabajo: Departamento de Matemática de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires Buenos Aires, 2024 Fecha de defensa: 12-12-2024 1 2 Resumen. En esta tesis proponemos diferentes juegos de suma cero para dos jugadores, jugados en dos tableros. Se demuestra que estos juegos tienen una función valor que convergen uniformemente cuando un parámetro que controla la longitud de los pasos posibles tiende a cero, a soluciones viscosas de diferentes sistemas de ecuaciones diferenciales parciales parabólicos y/o elípticos. Las principales novedades y modificaciones de trabajos anteriores se dan en la forma de pasar de un tablero a otro, utilizando tanto el azar como la toma de decisiones de los jugadores. Se abordan cuatro problemas diferentes. En el primer problema se destaca la utilización de dos juegos diferentes en cada tablero (paseos al azar y Tug-of-War), y una regla de cambio de tablero a través del azar. El valor de este juego converge uniformemente a la única solución viscosa de un sistema parabólico/elíptico. En el segundo problema proponemos un juego asimétrico, donde en un tablero se usa el azar para saltar de un tablero al otro, mientras que en el otro tablero uno de lo jugadores decide entre jugar en ese tablero, o saltar al otro. A través de este juego obtuvimos un sistema con una ecuación de tipo obstáculo. Finalmente, en los dos últimos problemas utilizamos un juego en el que en cada tablero, es uno de los jugadores quién decide entre jugar o saltar al otro tablero. Con este juego obtenemos soluciones viscosas del problema de las dos membranas en la versión elíptica y en la versión parabólica, para dos operadores de tipo p−laplaciano normalizado, utilizando un juego denominado Tug-of-War with noise. 3 4 Game theory for systems of partial differential equations Abstract. In this thesis we propose different two-player zero-sum games, played on two boards. It is proved that these games have a value function that converges uniformly, as a parameter that controls the size of the steps in the game goes to zero, to viscosity solutions to different parabolic and/or elliptic partial differential equation systems. The main novelty and modifications of previous results are in the way of moving from one board to the other, using randomness, or the player’s decisions. This thesis deals with four different problems. In the first problem, we use two different games on each board (random walks and Tug-of-War game) and a rule for changing boards given by a random variable. The value of this game converges uniformly to the unique viscosity solution to a parabolic/elliptic system. In the second problem we propose an asymmetric game, where on one board, it changes the board at random, while on the other board, one of the players decides between playing on that board or jumping to the other. Through this game we obtained a system with an obstacle-type equation. Finally, in the last two problems we use a game in which on each board, it is one of the players who decides between playing or jumping to the other board. With this game we obtain viscosity solutions to the two membranes problem, in the elliptic and in the parabolic versions, for two normalized p−laplacian type operators, using a game called Tug-of-War with noise. 5 6 Índice general 1. INTRODUCCIÓN 11 1.1. Descripción de los resultados principales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2. TEORÍA DE JUEGOS PARA UN SISTEMA PARABÓLICO/ELÍPTICO CON DIFERENTES OPERADORES 25 2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.3. Descripción del juego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.4. Existencia y unicidad de solución del DPP . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 2.5. Convergencia uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 2.6. Existencia de soluciones viscosas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 2.7. Principio de comparación y unicidad del problema . . . . . . . . . . . . . . . . . . . . . . 59 3. TEORÍA DE JUEGOS PARA UN SISTEMA NO LINEAL CON UNA ECUACIÓN DE TIPO OBSTÁCULO 63 3.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.2. Existencia y unicidad del DPP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.3. Convergencia uniforme cuando ε → 0. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 3.4. El límite es solución viscosa para el sistema de EDP . . . . . . . . . . . . . . . . . . . . . 100 3.5. Observaciones finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 4. JUEGOS PARA EL PROBLEMA DE LAS DOS MEMBRANAS ELÍPTICO 109 4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 7 4.2. Análisis del primer juego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 4.3. Un juego que da una condición extra en el conjunto de contacto . . . . . . . . . . . . . . . 150 4.4. Observaciones finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153 5. JUEGOS PARA EL PROBLEMA DE LAS DOS MEMBRANAS PARABÓLICO 157 5.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 5.2. Preliminares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 5.3. Descripción del juego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 5.4. Existencia y unicidad del DPP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 5.5. Convergencia cuando ε → 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 5.6. El límite es una solución viscosa del el sistema de EDP . . . . . . . . . . . . . . . . . . . . 190 5.7. Observaciones finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 8 Agradecimientos Quiero comenzar agradeciendo a mi familia, Carolina y Jade. A Caro: cuando nos conocimos, hace no muchos años, yo era un estudiante de grado, remándola y sufriendo. En este tiempo, tu apoyo y ayuda fueron importantísimos y determinantes para haber llegado hasta acá. Gracias por poner la oreja cuando practicaba de las charlas en inglés, y darme tranquilidad y confianza cuando me atacaban las dudas. A Jade: gracias por la alegría y energía que me das todos los días. Tu sonrisa es el sol. Agradezco también a mi padre Eduardo, y a mi madre Norma, por el apoyo (económico y moral) durante todos estos años estudiando matemática. A mi hermana Natalia, mi hermano Edu, mis cuñadas y cuñados, mis tías y tíos, mis primas y primos, mis sobrinas y sobrinos, a todos y ellos y ellas, muchas gracias, de corazón. Quiero agradecer a mi director, Julio Rossi, cuyas enseñanzas trascienden ampliamente las PDEs. Me mostró de manera nítida el camino que debía recorrer, me acompañó y dio apoyo cada vez que lo necesité, y me dejó moverme con libertad cuando creía que estaba en condiciones para hacerlo, todo de manera muy armónica. Como ya te dije, los momentos compartidos en la oficina, frente al pizarrón, tomando café y comiendo alguna galletita, los voy a atesorar por siempre. También quiero agradecer a mi consejero de estudios, Gabriel Acosta Rodríguez, quien también me acompaña hace muchos años; el fue mi profesor de análisis armónico, jurado de mi tesina, y ahora consejero. Él fue también alguien muy importante a la hora de decidir volcarme al análisis. Agradezco a mis jurados, Constanza Sánchez de la Vega, Bianca Stroffolini y Félix del Teso Méndez, por aceptar esta tarea. Los informes han sido muy agradables y fue un gusto leerlos. Me gustaría destacar que las oportunidades que tuvimos de juntarnos y charlar sobre la tesis han sido de mucho aprendizaje. Quiero agradecer a las personas que me han ayudado a formarme en estos años. A Juan D. González, quien a través de un encuentro casual en un pasillo de la facultad, me persuadió a cursar la materia soluciones viscosas, y ese fue el primer contacto con mi director y con el área donde iba a terminar trabajando. A Mauricio Mendiluce, compañero del CBC, de la carrera de grado y de posgrado, y amigo. A Aurelia Deshayes y Nicolás Frevenza, por recibirme en París y Uruguay respectivamente. A Carolina Mosquera, con quien hemos trabajado durante la cuarentena, de forma virtual, ha sido de gran ayuda para pasar esas épocas duras. A Irene Gonzálvez y Jorge Ruiz Cases, de la UAM, con quienes hemos trabajado estos últimos años, dos excelentes matemáticos, de los cuales aprendí mucho. Me gustaría agradecer a los investigadores, quienes a través de la lectura de sus artículos, formaron parte de mi formación. Especialmente a Juan Manfredi, Mikko Parviainen, Luis Caffarelli, Oscar Bruno, Hiroyoshi Mitake, Hung Tran, a quienes tuve el gusto de conocer personalmente. Agradezco también a mis docente del doctorado: Leandro Del Pezzo, Gabriela Armentano, Julián Fernandez Bonder, Julián Hadad e Inés Armendáriz. También agradezco a Juan Sabia, Walter Feruglio, Claudia Ledermann, Daniel Carando, Daniel Galicer, Noemí Wolanski, Daniel Perruchi, Alicia Dickens- tein, Pablo Groisman, Martín Mereb, Diego Rial, Ezequiel Rela, Rocío Balderrama, Andrea Ceretani, Pablo Turco, Ignacio Ojea, Martín Mansilla, Pablo Blanc, Juliana Osorio Morales, Osvaldo Santillán, Hernán Vivas, Joao da Silva, Juan Pablo Borthagaray, Angel Arroyo, Fernando Quirós, Jazmin Schmu- nis, Mariela Cañizares, Hilde Bianchi, Nico Agote, Juan Rodrigo Zuccotti, Sebastián Pedersen, Nacho Cereza, Manuela Palazón, Maxi Frungillo, Iñaki Zalduendo, Darío Devia, Cristian Czubara, Luz Alvarez, Jorge Endelli. 9 Aprovecho para mandar un abrazo a mis amigos del grupo de los exiliados (ferbambiaxelinemaru- sourubonacabezapochoclo), a los muchachos de Pichota (que viva el Pop). A los mapadres del jardín, especialmente a Albert, Mar, Majo, Lean, Lu, Felipe, Lau, Andrés, Gabi y Juan Pablo, y a sus hijes. Un beso a Romina Dzialoszycki. Un beso también a mi tio Daniel, a mi tía Ellen, y a mis primas Lula, Anyu y Dani. Quiero agradecer a la Universidad de Buenos Aires, y al CONICET, por haber invertido en mi formación, cosa que tomo con orgullo y responsabilidad. Por último, y menos importante...o más importante, no lo sé, quiero agradecer a Peto Menahem, quien con su curso de antiayuda, y toda su sabiduría antiayuda, ha sido mi compañía en las largas horas sentado en mi oficina tipeando, pensando, preparando clases, etc. 10 Capítulo 1 INTRODUCCIÓN Es bien conocida la relación entre la probabilidad y la teoría de ecuaciones diferenciales parciales. En el caso de ecuaciones lineales, se puede ver en los trabajos [33], [25], [34], entre otros, donde se relacionan los paseos al azar (o el movimiento browniano) con las funciones armónicas. Esto tiene que ver con el resultado (muy conocido) queR dice que si u es armónica (∆u = 0), entonces verifica la siguiente formula de valor medio u(x) = |Bε1(x)| Bε (x) u(y)dy. Y esta propiedad de valor medio está relacionada con el valor del juego paseos al azar. Ahora bien, si consideramos ecuaciones no lineales, existe un juego denominado Tug-of-War, que fue introducido en [53], cuyo valor da una fórmula de valor medio que aproxima al operador infinito Laplaciano. Este juego fue generalizado para cubrir otras ecuaciones no lineales. Por ejemplo, en [43], [44], los autores introducen el juego llamado Tug-of-War with noise, que se relaciona con el p−Laplaciano normalizado. En cuanto a juegos y sistemas de ecuaciones podemos citar [52] donde los autores introducen un juego en múltiples tableros donde en cada tablero juegan Tug-of-War, para obtener soluciones a un sistema acoplado de ecuaciones, utilizando en todas las ecauciones del sistema el operador infinito Laplaciano. En esta tesis vamos a estudiar diferentes sistemas acoplados de ecuaciones diferenciales parciales, utilizando teoría de juegos probabilísticos, para, mediante un paso al límite, obtener soluciones viscosas de dichos sistemas. El trabajo está dividido cuatro en capítulos (2, 3, 4 y 5). Cada capítulo corresponde a un problema particular, y en ellos van a encontrar todos las definiciones, enunciados y demostraciones de todos los resultados, de manera que cada capítulo se puede leer autónomamente. Antes de introducir los problemas tratados en esta tesis, me gustaría comenzar introduciendo (aquí sin todos los detalles) el trabajo correspondiente a mi tesina (o tesis de licenciatura), publicada en [47]. La razón por la que vuelvo a este problema es porque fue el punto de partida del trabajo de investigación de mi doctorado, y muchos problemas estudiados aquí están relacionados con este primer trabajo. En el trabajo de la tesina obtuvimos soluciones viscosas de un sistema de ecuaciones con dos operadores distintos (el Laplaciano y el infinito Laplaciano) utilizando juegos probabilísticos que aproximen a la solución. Construimos un juego que combina las reglas Tug-of-War y paseos al azar en dos tableros diferentes. Probamos que el valor esperado del juego existe y es único. Y finalmente vimos que este valor 11 converge uniformemente a la solución del sistema. El sistema que resolvimos es el siguiente    1 − ∆∞ u(x) + u(x) − v(x) = 0 si x ∈ Ω,     2    − κ ∆v(x) + v(x) − u(x) = 0 si x ∈ Ω, 2 (1.0.1)     u(x) = f (x) si x ∈ ∂Ω,      v(x) = g(x) si x ∈ ∂Ω, donde κ es una constante que depende sólo de la dimensión. Al conjunto Ω ⊆ RN le pediremos que sea abierto, conexo, con borde Lipschitz, y que además cumpla la propiedad de tener una bola tangente exterior uniforme. Esto quiere decir que existe una constante θ > 0 tal que para todo y ∈ ∂Ω, existe una bola cerrada de radio θ que solo corta a Ω en y. Esto es equivalente a decir que para todo y ∈ ∂Ω existe un zy tal que Bθ (zy ) ∩ Ω = {y}. A las funciones f y g le pedimos que sean Lipschitz. La idea para hallar soluciones de este sistema es definir un juego en dos tableros que aproximan a la solución. Demos una breve descripción del juego: Sea ε > 0, elijamos un tablero para comenzar, y un punto x0 ∈ Ω como punto de partida. A veces va a resultar cómodo notar a los puntos como un par (x, j), donde x ∈ Ω y j ∈ {1, 2} indica el tablero donde estamos parados. Supongamos que elegimos comenzar el juego parados en el primer tablero, entonces, con probabilidad 1 − ε2 vamos a jugar en este tablero con las reglas Tug-of-War (se lanza una moneda equilibrada, y el jugador favorecido por el lanzamiento elije la próxima posición del juego en la bola Bε (x0 )), y con probabilidad ε2 vamos a pasar al segundo tablero, cayendo en el mismo punto en Ω. Supongamos que nos quedamos en el primer tablero y jugamos según las reglas Tug-of-War y el punto que eligieron el jugador I o II (dependiendo del lanzamiento de la moneda) cae dentro de Ω, entonces volvemos a repetir el procedimiento, es decir, con probabilidad 1 − ε2 jugamos Tug-of-War en el primer tablero y con probabilidad ε2 pasaremos al segundo tablero. Ahora bien, si en cambio del x0 del primer tablero hemos saltado al x0 del segundo tablero (con probabilidad ε2 ) entonces partiendo de este punto jugaremos, con probabilidad 1 − ε2 paseos al azar (el siguiente punto se elige con probabilidad uniforme en Bε (x0 )), y volveremos al primer tablero con probabilidad ε2 . El juego se sigue desenvolviendo de esta manera, es decir, con probabilidad 1−ε2 vamos a jugar en el tablero donde estamos con su regla correspondiente, y con probabilidad ε2 pasaremos al otro tablero. El juego finaliza cuando el punto elegido (en cualquiera de los dos tableros) cae fuera de Ω, y como resultado final el jugador I recibirá el valor de la función correspondiente al tablero donde sale evaluada en el punto de salida y el jugador II pagará esta cantidad. Es decir, si el punto xτ ∈ RN \Ω es la última elección y esta la hicimos en el primer tablero, entonces el jugador I recibe la cantidad f (xτ ) y el jugador II paga esta misma cantidad (recibe −f (xτ )). Naturalmente el caso de terminar el segundo tablero es totalmente análogo, en este caso el jugador I recibe la cantidad g(xτ ) y el jugador II paga esta misma cantidad (recibe −g(xτ )). En la figura 1.1 podemos ver un esquema del juego en dos tableros que acabamos de describir. Llamamos SI y SII a las estrategias de los jugadores I y II cuando juegan este juego en dos tableros. Es importante notar que estas estrategias solo se usan cuando la ficha está en el primer tablero y se juega allí Tug-of-War (con probabilidad 1 − ε2 ), ya que el resto de las reglas del juego dependen del azar. Observar también que estas estrategias se consideran tanto si comenzamos en el primer tablero como en el segundo, ya que en cada jugada tenemos chances de pasar al otro tablero respecto de donde estamos. 12 Figura 1.1: Esquema del juego con dos tableros. Precisamente por eso escribimos la sentencia ”pago final”, porque no sabemos en cual de los dos tableros vamos a finalizar sea cual sea el tablero en el que comenzamos. Ahora definimos las funciones del valor del juego, sea uε (x0 ) = sup ı́nf ExS0I ,SII [ pago final] = ı́nf sup ExS0I ,SII [ pago final], SI SII SI SII si x0 ∈ Ω en el primer tablero, y v ε (x0 ) = sup ı́nf ExS0I ,SII [ pago final] = ı́nf sup ExS0I ,SII [ pago final], SI SII SI SII si x0 ∈ Ω en el segundo tablero. En [47] hemos probado que el juego tiene un valor, es decir, se pueden intercambiar ı́nf con sup en la definición de ambas funciones uε y v ε , lo que implica que las funciones están bien definidas. Estas funciones verifican la siguiente fórmula de valor medio que se denomina comúnmente en la literatura Dynamic Programming Principle (DPP):  n1 o  1   u ε (x) = ε 2 ε v (x) + (1 − ε 2 ) sup u ε (y) + ı́nf u ε (y) si x ∈ Ω,   2 2 y∈Bε (x)   Z y∈Bε (x)   ε v (x) = ε2 uε (x) + (1 − ε2 ) v ε (y)dy si x ∈ Ω,   Bε (x)   u ε (x) = f (x) si x ∈ RN \Ω,      ε v (x) = g(x) si x ∈ RN \Ω. 13 Estas funciones convergen uniformemente (vía una subsucesión) a un par de funciones continuas (u, v), soluciones viscosas de (1.0.1). Para probar que el DPP tiene solución usamos una técnica similar al método de Perron. Para probar que el juego tiene valor, y este coincide con cualquier solución del DPP (lo que prueba la unicidad de la solución de DPP) utilizamos herramientas probabilísticas como la construcción de martingalas y el Optional Stopping Theorem. Para probar la convergencia uniforme de la solución del DPP usamos una variante del lema Arzela-Ascoli. Esto nos hizo probar que las soluciones del DPP tienen dos propiedades: acotación uniforme (en ε), y continuidad asintótica uniforme. Para lograr esto, fue necesario hacer estimaciones para puntos cerca del borde, jugando tanto Tug-of-War como paseos al azar. Finalmente, para probar que el par límite es solución viscosa del sistema utilizamos teoría clásica de soluciones viscosas. 1.1. Descripción de los resultados principales A continuación voy a introducir los problemas que corresponden a esta tesis doctoral. En esta tesis se abordan diferentes sistemas de ecuaciones usando técnicas de probabilidad. Se presentan los resultados con detalle para sistemas de dos ecuaciones y al final de cada capítulo se describen brevemente posibles extensiones a sistemas con más de dos ecuaciones. La presentación de los resultados obtenidos se divide en cuatro capítulos. Cada uno tiene una escritura autónoma de los demás, lo que permite que su lectura se puede realizar de forma independiente. 1.1.1. Primer problema. Un sistema parabólico/elíptico El primer problema es una extensión del trabajo de la tesina anteriormente descripto. Concretamente obtuvimos existencia y unicidad del siguiente problema parabólico/elíptico  ∂u 1   (x, t) − ∆∞ u(x, t) + u(x, t) − v(x, t) = 0 x ∈ Ω, t > 0,     ∂t 2   κ   − ∆v(x, t) + v(x, t) − u(x, t) = 0 x ∈ Ω, t > 0,   2 u(x, t) = f (x, t) x ∈ ∂Ω, t > 0, (1.1.2)         v(x, t) = g(x, t) x ∈ ∂Ω, t > 0,     u(x, 0) = u0 (x) x ∈ Ω. En este caso utilizamos un juego en dos tableros, que son dos cilindros de la forma RN ×[0, T ] con Ω ⊂ RN . En cada tablero se juegan distintos juegos, relacionados con dos operadores diferenciales diferentes, pero en uno de los tableros se modifica la variable temporal de t a t − ε2 , mientras que en el otro tablero la 14 variable temporal t funciona como un parámetro. Este juego tiene asociado el siguiente DPP  ε   u (x, t) = ε2 v ε (x, t)   n1 o   − 2 ε − 2 1 ε − 2 (x, t) ∈ Ω × (0, T ),   +(1 ε ) sup u (y, t ε )+ ı́nf u (y, t ε )   2 y∈Bε (x) 2 y∈Bε (x)   Z    v ε (x, t) = ε2 uε (x, t) + (1 − ε2 ) v ε (y, t)dy (x, t) ∈ Ω × (0, T ), Bε (x)   uε (x, t) = f (x, t) (x, t) ∈ (RN \Ω) × [0, T ),         v ε (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × (0, T ),      ε u (x, 0) = u0 (x) x ∈ Ω. Aquí se ve que en el primer tablero, con probabilidad 1 − ε2 se juega Tug-of-War bajando de t a t − ε2 , y con probabilidad ε2 la posición cambia de tablero. Por otro lado, estando en el segundo tablero, con probabilidad 1 − ε2 se juega paseos al azar (sin modificar la variable temporal) y con probabilidad ε2 la ficha cambia de tablero. Tablero Tablero Figura 1.2: Esquema del juego con dos cilindros. En la figura 1.2 se puede ver un esquema del juego en dos tableros con diferentes reglas en cada tablero. En el Capítulo 2 se pueden encontrar todos los detalles respecto a este problema. Concretamente, probamos que el juego tiene un valor, y este valor es la única solución del DPP. Luego probamos que esta familia soluciones del DPP convergen (via una subsucesión) a un par de funciones continuas. A con- tinuación, vimos que estas funciones son solución del sistema (1.1.2). Finalmente probamos un principio 15 de comparación que nos da unicidad del sistema. Esta variante propuesta nos obligó a estudiar nuevas formas para probar los resultados obtenidos. En particular cabe destacar que, a la hora de obtener la convergencia uniforme de la familia de soluciones del DPP, al hacer las estimaciones cerca del borde, tuvimos que tener especial atención si tenemos un punto (x, t) ∈ Ω × (0, T ] cerca del borde parabólico en el primer o segundo tablero. Solo para entender la dificultad quiero adelantar en esta introducción un caso para prestar atención. Supongamos que el punto verifica que t ∼ 0 pero x no esta cerca de ∂Ω, este punto esta cerca del borde en el primer tablero, pero no en el segundo. Esto nos hizo probar que el juego va a mantenerse en el primer tablero hasta terminar (llegar a tiempor t = 0) con probabilidad alta. Como lo dije antes, todos los detalles se pueden encontrar en el capítulo 2. Pasemos ahora al siguiente problema. 1.1.2. Segundo problema. Un sistema con una ecuación de tipo obstáculo En el siguiente problema proponemos un sistema con una ecuación de tipo obstáculo. Me gustaría hacer una introducción del problema del obstáculo. Dado φ una función definida sobre Ω, y f una función definida sobre ∂Ω, si consideramos L un operador diferencial, una solución (en algún sentido) del problema del obstáculo, con obstáculo φ por debajo, y condición de borde f , es una función u que verifica la siguiente ecuación  n o  mı́n L(u), u − φ = 0 x ∈ Ω,  u=f x ∈ ∂Ω. Este problema se puede reescribir de la siguiente manera    u≥φ x ∈ Ω,      L(u) ≥ 0 x ∈ Ω,   L(u) = 0 x ∈ Ω ∩ {u > φ},      u=f x ∈ ∂Ω. Una posible interpretación de este problema es modelar el comportamiento de una membrana elástica (la función u) sujetada en el borde del dominio (por f ), que es empujada por debajo por un objeto (el obstáculo φ) sin perforarla (ver la figura 1.3). Naturalmente, el sentido de la solución que se pretende encontrar va a depender del operador, o de la teoría que se quiera utilizar para resolver este problema (por ejem- plo, se puede atacar el problema minimizando una energía, es decir, utilizando cálculo de variaciones, sujeto a la condición u ≥ φ y en este caso aparecerán soluciones débiles). Si con- sideramos el problema en sentido viscoso, este fue estudiado en [46], utilizando teoría de juegos. 16 Figura 1.3: Problema del Obstáculo en 1D. La idea en el segundo trabajo de la tesis es modificar las reglas del juego que desarrollamos en la tesina, obteniendo un juego asimétrico cuyo valor converge uniformemente a un par de funciones continuas, solución del siguiente sistema con una ecuación de tipo obstáculo  n o   mı́n − ∆ ∞ u(x), (u − v)(x) =0 x ∈ Ω,       − κ ∆v(x) + v(x) − u(x) = h(x) x ∈ Ω, 2 (1.1.3)     u(x) = f (x) x ∈ ∂Ω,     v(x) = g(x) x ∈ ∂Ω. En este sistema la función v actúa como obstáculo por debajo para la función u, mientras que la segunda ecuación contiene a ambas funciones acopladas. Una breve descripción del juego asimétrico es la siguiente: nuevamente se trata de un juego de suma cero entre dos jugadores en dos tableros. En cada tablero jugamos con reglas distintas, por ejemplo, en este caso jugaremos Tug-of-War en el primer tablero, y paseos al azar en el segundo tablero. La clave está en modo de pasar de un tablero al otro. Estando en el primer tablero, será el jugador I (quien quiere maximizar el pago final) es quien decide entre jugar en el primer tablero con las reglas correspondientes (en este caso, Tug-of-War), o saltar al mismo punto, pero en el otro tablero. Por otro lado, en el segundo tablero vamos a usar es azar. Es decir, con probabilidad 1 − ε2 vamos a jugar en el segundo tablero, con las reglas correspondientes (en este caso, paseos al azar sumando un pago por jugada igual a ε2 h), y con probabilidad ε2 vamos a saltar al primer tablero. Este es el primer trabajo donde las reglas para cambiar de tablero dependen de la estrategia de un jugador. En el Capítulo 3 probamos con todo detalle que el juego tiene un valor y el mismo cumple el siguiente DPP  nh 1 i o  1   u ε (x) = máx sup u ε (y) + ı́nf u ε (y) , v ε (x) x ∈ Ω,   2 y∈Bε (x) 2 y∈Bε (x)   hZ i   ε v (x) = (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε (x) x ∈ Ω,   B ε (x)   uε (x) = f (x) x ∈ RN \Ω,      ε v (x) = g(x) x ∈ RN \Ω. Aquí se puede ver que estando en el primer tablero, el jugador I decide entre jugar Tug-of-War o saltar al segundo tablero, por lo que tenemos la primera ecuación con un máx. Por otro lado, en el segundo tablero, con probabilidad 1 − ε2 jugamos paseos al azar en el segundo tablero con pago por jugada ε2 h, y con probabilidad ε2 saltamos al primer tablero. Se ve claramente la asimetría en las reglas del juego a la hora de cambiar de tablero, utilizando en un caso el azar, y en el otro caso la decisión de un jugador. Estas funciones, soluciones del DPP, convergen uniformemente (a través de una subsucesión) a un par de funciones continuas, solución viscosa del sistema tipo obstáculo (1.1.3) definido más arriba. Una dificultad que surge en este trabajo tiene que ver con el manejo de esta asimetría a la hora de lograr las estimaciones cerca del borde, teniendo que recurrir a un resultado que estima la cantidad de jugadas si la posición de la ficha se encuentra cerca del borde, haciendo que unos de los dos jugadores apunte al borde para salir. Como lo he mencionado antes, en el capítulo 3 se encuentran todos los detalles mencionados aquí brevemente. Pasemos ahora la próximo problema. 17 1.1.3. Tercer problema. El problema de las dos membranas elíptico En el siguiente capítulo de la tesis vamos utilizar nuevos juegos para resolver el problema de las dos membranas, en su versión elíptica. Hagamos una breve descripción de este problema. Dadas dos funciones f y g definidas sobre el borde de un dominio Ω, y ordenadas, es decir, f ≥ g, y dos operadores diferenciales L1 y L2 , definimos el problema de las dos membranas de la siguiente manera  n o   mı́n L (u), u − v =0 x ∈ Ω,   1   n o    máx L (v), v − u = 0 x ∈ Ω, 2     u=f x ∈ ∂Ω,      v=g x ∈ ∂Ω. Este sistema se puede reescribir de la siguiente manera    u ≥ v, x∈Ω       L1 (u) ≥ 0, L2 (v) ≤ 0 x ∈ Ω,   L1 (u) = 0, L2 (v) = 0 x ∈ Ω ∩ {u > v},       u=f x ∈ ∂Ω,     v=g x ∈ ∂Ω. Este problema se puede interpretar como un sistema que modela el comportamiento de dos membranas elásticas, fijadas en el borde (por las funciones f y g), que son empujadas una sobre otra por fuerzas exteriores, de manera que no se pueden atravesar entre sí. Se pueden encontrar referencias sobre soluciones de este problema en [16] y [17]. En esta tesis vamos a resolver este problema utilizando un juego simétrico en dos tablero. En cada tablero vamos a permitirle a uno de los jugadores decidir jugar en el tablero o saltar al otro tablero. Otra novedad en este capítulo es la introducción del juego Tug-of-War with noise, relacionado con el operador p−Laplaciano normalizado (ver [42], [43] y [44]). Describamos brevemente el juego Tug-of-War with noise: dado un parametro 0 < α < 1, vamos a jugar Tug-of-War con probabilidad α, y vamos a jugar paseos al azar con probabilidad 1 − α. Este juego se relaciona con el p−Laplaciano normalizado, combinando los parámetros de la siguiente manera α p−2 = . 1−α N +2 En la introducción del Capítulo 4 se pueden encontrar todos los detalles la respecto. A continuación hagamos una breve descripción del juego para resolver el problema de las dos mem- branas para dos operadores p−Laplaciano distintos: Dados dos valores 0 < αi < 1 con i = 1, 2, vamos a definir en cada tablero dos juegos Tug-of-War with noise con parámetros αi para los tableros uno y dos respectivamente. Es decir, en el primer tablero, con probabilidad α1 jugaremos Tug-of-War, y con probabilidad 1 − α1 jugaremos paseos al azar, agregando un pago por jugada igual a −ε2 h1 . Análoga- mente, en el segundo tablero usamos el parámetro α2 y la función de pago por jugada ε2 h2 . La novedad 18 en este capítulo es la regla para ir de un tablero al otro. En el primer tablero, el jugador I decide entre permanecer en el primer tablero y jugar con sus reglas, o saltar al segundo tablero y jugar con las reglas del segundo tablero. De manera opuesta, en el segundo tablero es el jugador II quien decide entre jugar en este tablero con sus reglas, o saltar al primer tablero y jugar con las reglas del tablero I. En el capítulo 4 probamos que este juego tiene un valor, y esta función resuelve el siguiente DPP  n o   u ε (x) = máx J (u ε )(x), J (v ε )(x) x ∈ Ω,   1 2   n o    v ε (x) = mı́n J (uε )(x), J (v ε )(x) x ∈ Ω, 1 2     uε (x) = f (x) x ∈ RN \Ω,      v ε (x) = g(x) x ∈ RN \Ω. donde h1 i Z 1 J1 (w)(x) = α1 sup w(y) + ı́nf w(y) + (1 − α1 ) w(y)dy − ε2 h1 (x), 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) y Z h1 1 i J2 (w)(x) = α2 sup w(y) + ı́nf w(y) + (1 − α2 ) w(y)dy + ε2 h2 (x). 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Además probamos que existen soluciones que convergen a una par de funciones continuas (u, v) (via una subsucesión cuando ε → 0) y estas funciones límite verifican  n o   mı́n − ∆ 1 u(x) + h (x), (u − v)(x) =0 x ∈ Ω,   p 1   n o    máx − ∆1 v(x) − h (x), (v − u)(x) = 0 x ∈ Ω, q 2 (1.1.4)     u(x) = f (x) x ∈ ∂Ω,      v(x) = g(x) x ∈ ∂Ω, en sentido viscoso. La relación entre los αi y los valores p y q es la siguiente α1 p−2 α2 q−2 = , = . 1 − α1 N +2 1 − α2 N +2 En este mismo capítulo van a encontrar una variante de este juego que aporta una condición extra para el sistema de ecuaciones diferenciales. La variante se va a ver a la hora de saltar de un tablero al otro. Las reglas son las siguientes: Supongamos que la ficha se encuentra en el primer tablero, se lanza una moneda equilibrada, si sale cara se permanece en este tablero y se juega (Tug-of-War with noise con parámetro α1 ), mientras que si sale seca el jugador I puede decidir entre quedarse en el primer tablero y jugar o saltar al segundo tablero y jugar (Tug-of-War with noise con parámetro α2 ). Ahora bien, si la ficha está situada en el segundo tablero las reglas son opuestas, es decir, se lanza la moneda, si sale cara se juega en este tablero (Tug-of-War with noise con parámetro α2 ), mientras que si sale seca el jugador II puede decidir entre permanecer en el segundo tablero y jugar, o saltar al primer tablero y 19 jugar (Tug-of-War with noise con parámetro α1 ). Este juego tiene valor y este es solución del siguiente DPP  n o 1  1   u ε (x) = máx J (u ε )(x), J (v ε )(x) + J1 (uε )(x), x ∈ Ω,   2 1 2 2   n o 1   ε 1 v (x) = mı́n J1 (uε )(x), J2 (v ε )(x) + J2 (v ε )(x), x ∈ Ω, 2 2     uε (x) = f (x), x ∈ RN \Ω,      ε v (x) = g(x), x ∈ RN \Ω. Usando las estimaciones adecuadas al jugar cerca del borde, se prueba que existe una subsucesión que converge a un par de funciones (u, v) que son solución del sistema (1.1.4) con la siguiente condición extra   − ∆1p u(x) + h1 (x) + − ∆1q v(x) − h2 (x) = 0 x ∈ Ω, estas soluciones son siempre pensadas en sentido viscoso. 1.1.4. Cuarto problema. El problema de las dos membranas parabólico Finalmente, en el último capítulo estudiamos la versión parabólica del problema de las dos membranas, también obteniendo una condición extra. Para eso propusimos un juego en dos tableros, en este caso dos cilindros de la forma Ω × [0, T ), cuyas reglas son esencialmente las mismas que las descriptas antes, pero modificando la variable temporal de t a t − ε2 en cada jugada. La descripción del juego es la siguiente: Dados 0 < αi < 1 con i = 1, 2, establecemos en cada tablero el juego Tug-of-War with noise con parámetro αi en el espacio, pero hacemos descender la variable temporal de t a t − ε2 , además tenemos un pago por jugada ε2 hi en cada tablero. Ahora bien, las reglas para pasar de un tablero al otro son las mismas que acabamos de describir en la variante del juego elíptico. Es decir, si suponemos que la ficha está en el primer tablero, se lanza una moneda equilibrada, si sale cara se permanece en el primer tablero y se juega, mientras que si sale seca el jugador I decide entre permanecer en este tablero y jugar, o saltar al segundo tablero y jugar. Por otro lado, en el segundo tablero se invierten las reglas, es decir, se lanza la moneda, si sale cara se permanece en el segundo tablero y se juega, mientras que si sale seca el jugador II decide entre jugar en el segundo tablero o saltar al primer tablero y jugar. En el capítulo 5 probamos que el juego tiene valor, y este verifica el siguiente DPP   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1  + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2   1   v ε (x, t) = J2 (v ε )(x, t − ε2 )   2   n o   1 + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 con las condiciones de contorno ( ε u (x, t) = f (x, t) (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × [0, T ), 20 y las condiciones iniciales ( uε (x, 0) = u0 (x) x ∈ Ω, v ε (x, 0) = v0 (x) x ∈ Ω. Los operadores de promedio J1 y J2 se definen de la siguiente manera h1 1 i J1 (w)(x, t) = α1 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1 − α1 ) w(y, t)dy + ε2 h1 (x, t), Bε (x) y h1 1 i J2 (w)(x, t) = α2 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1 − α2 ) w(y, t)dy + ε2 h2 (x, t). Bε (x) Estas funciones valor (uε , v ε ) convergen (vía una subsucesión) a un par de funciones continuas (u, v) que son una solución viscosa de  n ∂u o   mı́n (x, t) − ∆1p u(x, t) − h1 (x, t), (u − v)(x, t) = 0 (x, t) ∈ Ω × (0, T ), ∂t  n o  máx ∂v (x, t) − ∆1 v(x, t) − h (x, t), (v − u)(x, t) = 0 (x, t) ∈ Ω × (0, T ), q 2 ∂t con la condición extra ∂u  ∂v  (x, t) − ∆1p u(x, t) + (x, t) − ∆1q v(x, t) = h1 (x, t) + h2 (x, t) (x, t) ∈ Ω × (0, T ), ∂t ∂t las condiciones de contorno ( u(x, t) = f (x, t) (x, t) ∈ ∂Ω × [0, T ), v(x, t) = g(x, t) (x, t) ∈ ∂Ω × [0, T ), y las condiciones iniciales ( u(x, 0) = u0 (x) x ∈ Ω, v(x, 0) = v0 (x) x ∈ Ω. En este sistema, p y q vienen dados por α1 p−2 α2 q−2 = y = . 1 − α1 N +2 1 − α2 N +2 Una de las partes clave de este capítulo tiene que ver con las estimaciones cerca del borde. Aquí tuvimos que estudiar de manera diferente cuando el punto está cerca de ∂Ω o cuando estamos cerca del fondo del cilindro. En particular hay que estudiar con mucho cuidado el caso en el que el punto (x, t) ∈ Ω × (0, T ) verifica que x está cerca de ∂Ω y t ∼ 0, porque en este caso la ficha puede salir del 21 dominio por los lados y por el fondo. Por eso es importante que las condiciones del borde parabólico sean consistentes en el siguiente sentido, si definimos ( f (x, t) x∈ / Ω, t ≥ 0, w1 (x, t) = u0 (x) x ∈ Ω, t = 0, y ( g(x, t) x∈ / Ω, t ≥ 0, w2 (x, t) = v0 (x) x ∈ Ω, t = 0. vamos a pedir que estas funciones sean Lipschitz, es decir  |wi (x, t) − wi (y, s)| ≤ L |x − y| + |t − s| . para i = 1, 2. 1.1.5. Aportes de esta tesis En esta tesis se estudian diversos problemas asociados a soluciones viscosas de sistemas de ecuaciones diferenciales de tipo elíptico y/o parabólico y su relación con teoría de juegos. El objeto principal de esta tesis es el estudio de los juegos llamados Tug-of-War en la literatura, y su conexión con sistemas de ecuaciones en derivadas parciales (EDP). Se consideran diferentes variantes de juegos de dos jugadores, con suma cero, que dependen de un parámetro que controla el tamaño del paso que se da cuando se actualiza la posición del juego. Se demuestra que el valor de estos juegos converge (cuando el parámetro tiende a cero) a una solución del sistema de EDP (que debe ser interpretada en sentido viscoso). De esta forma nos encontramos con una nueva herramienta, basada en teoría de probabilidad, para obtener soluciones de sistemas no-variacionales. El estudio de tipo de problemas para sistemas de ecuaciones es relativamente reciente siendo los resultados obtenidos en esta tesis los primeros en tratar sistemas con ecuaciones de tipo obstáculo. Los juegos asociados a los sistemas sistemas considerados se juegan en dos tableros con reglas distintas en cada tablero (lo que dará lugar a diferentes operadores en cada ecuación del sistema) y diferentes reglas para pasar de un tablero al otro (y esto nos determina el acople entre las ecuaciones). La principal dificultad al tratar estos problemas se encuentra en que los juegos a estudiar poseen reglas asimétricas (las reglas dependen del tablero donde se juegue y de las posibilidades de pasar de un tablero a otro). Esto hace que obtener estimaciones para los valores del juego tenga dificultades adicionales que no están presentes en el estudio de una sola ecuación. En conclusión, la idea general de esta tesis es el estudio de diferentes modificaciones en las reglas de juegos en dos tableros (sobre todo las reglas de salto) para estudiar diferentes problemas (elípticos y/o parabólicos), utilizando tanto el azar, como decisiones de los jugadores. Estos juegos nos dan fórmulas de valor medio (DPP) que aproximan soluciones (siempre en sentido viscoso) de varios sistemas. En esta tesis hemos sido capaces de abordar sistemas de ecuaciones conocidas como la del problema del obstáculo, o como en los últimos ejemplos, problemas clásicos y ya estudiados con otras teorías, como el problema de las dos membranas. 22 Publicaciones Los resultados de esta tesis están contenidos en los siguientes artículos: 1. A. Miranda and J. D. Rossi. A game theoretical approximation for a parabolic/elliptic system with different operators. Discr. Cont. Dyn. Sys., 43(3-4), (2023), 1625–1656. 2. A.Miranda and J.D.Rossi. A game theoretical approximation for solutions to nonlinear systems with obstacle-type equations. SeMA Journal. 80, (2023), 201–244. 3. A. Miranda and J. D. Rossi. Games for the two membranes problem. Orbita Mathematicae, 1, (2024), 59–101. 4. A. Miranda. A Game for the parabolic two membranes problem. Preprint. 23 24 Capítulo 2 TEORÍA DE JUEGOS PARA UN SISTEMA PARABÓLICO/ELÍPTICO CON DIFERENTES OPERADORES 2.1. Introducción En esta sección vamos a proporcionar un enfoque probabilístico para encontrar soluciones viscosas de un sistema de ecuaciones diferenciales parciales parabólico/elíptico utilizando dos operadores diferentes. El sistema que vamos a resolver es el siguiente  ∂u 1   (x, t) − ∆∞ u(x, t) + u(x, t) − v(x, t) = 0 x ∈ Ω, t > 0,     ∂t 2   κ   − ∆v(x, t) + v(x, t) − u(x, t) = 0 x ∈ Ω, t > 0,   2 u(x, t) = f (x, t) x ∈ ∂Ω, t > 0, (2.1.1)         v(x, t) = g(x, t) x ∈ ∂Ω, t > 0,     u(x, 0) = u0 (x) x ∈ Ω, con κ > 0 una constante que solo depende de la dimensión del espacio. Este sistema involucra dos operadores diferentes, el Laplaciano clásico definido como X N ∆ϕ = ∂ xi xi ϕ i=1 y el infinito Laplaciano normalizado definido como (ver [21]) 1 X N ∇ϕ ∇ϕ ∆∞ ϕ = hD2 ϕ , i= ∂xi ϕ∂xi xj ϕ∂xj ϕ. |∇ϕ| |∇ϕ| |∇ϕ|2 i,j=1 25 Observar que la primera ecuación es parabólica (posee la derivada de u respecto a t), mientras que la segunda es elíptica (la variable t se puede considerar como un parámetro en la ecuación para v). Además, existe una condición inicial para u, pero no para v. Esto se debe al hecho de que la primera ecuación es parabólica mientras que la segunda es elíptica. Existe una gran cantidad de articulos que destacan la interacción entre la teoría de probabilidad y las ecuaciones diferenciales parciales. La idea principal es que las funciones armónicas y las martingalas tienen algo en común: la validez de las fórmulas de valor medio. Un resultado conocido es que u es armónica, es decir, u verifica la EDP ∆u = 0, si y sólo si u verifica la propiedad del valor medio Z 1 u(x) = u(y) dy. |Bε (x)| Bε (x) De hecho, se puede relajar la condición pidiendo que se cumpla asintóticamente de la siguiente manera Z 1 u(x) = u(y) dy + o(ε2 ), |Bε (x)| Bε (x) cuando ε → 0. La relación entre el operador Laplaciano y el movimiento Browniano o el paseo al azar (con el tamaño del paso que tiende a cero) es también conocida (ver [33]). En la actualidad se sabe que las ideas y técnicas utilizadas para las ecuaciones lineales se pueden ampliar para cubrir problemas no lineales. Por ejemplo si estamos interesados en conocer una propiedad de valor medio para el p−Laplaciano (incluido el infinito Laplaciano) nos referimos a [30, 24, 34, 38] y [42]. Véase también [10] para fórmulas de valor medio para Monge-Ampere. Estas fórmulas de valor medio están estrechamente relacionadas con el valor de juegos teóricos. Para una aproximación del infinito Laplaciano hay un juego (llamado juego Tug-of- War en la literatura) que se introdujo en [53] y fue generalizado en varias direcciones para cubrir otras ecuaciones, como por ejemplo para el p−Laplaciano, en [4, 8, 14, 19, 41, 42, 43, 44, 52, 54, 55]. También existen versiones parabólicas de estos resultados, que se pueden encontrar en [11, 45]. Para una visión general del tema nos remitimos a los recientes libros [15] y [36]. Para sistemas de ecuaciones hay menos referencias disponibles. Esto se debe a que en general para sistemas no lineales no existe una teoría de soluciones viscosas, y también que las estimaciones necesarias para pasar al límite en las soluciones aproximadas son más complicados (normalmente para los sistemas es necesario obtener estimaciones para ambos componentes simultáneamente). Para sistemas elípticos citamos [52] y [47]. En [52] se analizó un sistema elíptico acoplado que involucra el infinito laplaciano para cada componente; mientras en [47] se estudió un sistema elíptico que involucra dos operadores diferentes (el Laplaciano y el infinito Laplaciano). Los resultados de este capitulo pueden verse como una continuación de estos dos artículos. La principal diferencia con [52] y [47] es que aquí tenemos que abordar un problema dependiente del tiempo, por eso tenemos que tener especial cuidado cuando obtenemos estimaciones de los componentes de las aproximaciones (necesitamos probar estimaciones en el espacio y el tiempo simultáneamente). El sistema (2.1.1) no es variacional (no hay energía asociada). Por lo tanto, para encontrar soluciones una posibilidad es utilizar métodos de monotonía basados en el principio de comparación (argumento de Perron). Aquí veremos el sistema de forma diferente y para obtener existencia de soluciones encontraremos una aproximación utilizando la teoría de juegos. Este 26 enfoque no sólo da la existencia de soluciones sino que también nos proporciona una descripción que produce cierta intuición sobre el comportamiento de las mismas. Entenderemos soluciones del sistema siempre en sentido viscoso. Esto es natural ya que el infinito Laplaciano no es variacional (consulte la Sección 2.2 para la definición precisa). Una vez que tenemos existencia de soluciones, demostramos un principio de comparación que implica unicidad. Para resolver este sistema vamos a definir un juego de suma cero definido en dos tableros. Vamos a llamar tablero a un cilindro de la forma Ω × (0, T ) ⊆ RN × [0, T ). Esta es una breve descripción del juego: Dado 0 < ε < 1, un parámetro que nos va indicar el tamaño de los desplazamientos espaciales y temporales, y las funciones de pago final f , g, y u0 definidas en RN \ Ω × [0, T ) en los tableros uno y dos respectivamente las dos primeras, y u0 definida en Ω×{0} en el primer tablero, todas funciones Lipschitz. Supongamos que la posición del juego es (x, t) ∈ Ω×(0, T ] en el primer tablero, con probabilidad 1−ε2 los jugadores juegan Tug-of-War (se lanza una moneda equilibrada y el favorecido elige la próxima posición en la bola Bε (x)), pero cambiando t por t − ε2 . Esto significa que la próxima posición del juego será (y, t − ε2 ) con y ∈ Bε (x) que dependerá de la elección del jugador favorecido por el lanzamiento de la moneda. Por otro lado, si la posición del juego se encuentra en el punto (x, t) ∈ Ω × (0, T ] en el segundo tablero, con probabilidad 1 − ε2 la ficha se va a mover al azar en Bε (x) sin modificar la variable t. Es decir, la siguiente posición será (y, t), con y ∈ Bε (x) elegido al azar (con distribución uniforme). Además de estas reglas para jugar en cada tablero, con probabilidad ε2 vamos a saltar de un tablero al otro. Esto significa que si nos encontramos en (x, t) ∈ Ω × (0, T ] en el primer tablero, con probabilidad ε2 vamos a ir a (x, t) pero en el otro tablero. El juego continua de la misma manera hasta que la posición abandona el dominio Ω o el tiempo llega a 0 (esto solo puede suceder en el primer tablero) en un punto (xτ , tτ ), y en ese caso, si el punto se encuentra en el primer tablero, el jugador I recibe como pago f (xτ , tτ ) si xτ ∈ /Ω o u0 (xτ ) si xτ ∈ Ω and tτ = 0, mientras que el jugador II paga la misma cantidad (podemos suponer que el jugador II le paga al jugador I el valor del pago final, definido por f , g o u0 dependiendo del tablero y el punto final). Tablero Tablero Este juego tiene un valor (el mejor valor que ambos jugadores pueden obtener, jugando de la manera 27 más astuta, ver 2.3 para tener una definición exacta). Este valor del juego es definido a través de dos funciones (uε , v ε ) El siguiente Teorema asegura que el juego está bien definido, y el valor del juego (uε , v ε ) verifica el siguiente sistema de fórmulas de promedio (llamado el Dynamic Programming Principle (DPP) en la literatura). Teorema 2.1.1. El juego tiene un valor dado por uε , v ε : RN × [0, T ] 7→ R. Esta función verifica el siguiente DPP  ε   u (x, t) = ε2 v ε (x, t)   n1 o   − 2 ε − 2 1 ε − 2 (x, t) ∈ Ω × (0, T ),   +(1 ε ) sup u (y, t ε )+ ı́nf u (y, t ε )   2 y∈Bε (x) 2 y∈Bε (x)   Z    v ε (x, t) = ε2 uε (x, t) + (1 − ε2 ) v ε (y, t)dy (x, t) ∈ Ω × (0, T ), Bε (x) (2.1.2)   ε (x, t) = f (x, t) ∈ N \Ω) × [0, T ),   u (x, t) (R     ε   v (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × (0, T ),      ε u (x, 0) = u0 (x) x ∈ Ω. Observar que el DPP (2.1.2) puede verse como una especie de propiedad de valor medio (con paso ε) para el sistema (2.1.1). Veamos intuitivamente por qué se cumple el DPP (2.1.2). Jugando en el primer 2 tablero, en cada paso el jugador I elige la siguiente posición del juego con probabilidad 1−ε 2 y tiene como objetivo obtener supy∈Bε (x) uε (y, t−ε2 ) (recuerde que este jugador busca maximizar el pago final, y que el 2 tiempo disminuye en ε2 cada vez que jugamos en el primer tablero); por otro lado, con probabilidad 1−ε 2 es el jugador II quien elige y pretende obtener ı́nf y∈Bε (x) uε (y, t − ε2 ), y finalmente con probabilidad ε2 el juego cambia de tablero manteniendo la misma posición y tiempo (y por lo tanto entra en juego v ε (x, t)). Jugando en el segundo tablero, con probabilidad 1 − ε2 el punto se mueve alRazar (pero permanece en el segundo tablero y mantiene el mismo tiempo) y de ahí aparece el término Bε (x) v ε (y, t)dy, pero con probabilidad ε2 se cambia el tablero al primero, y por lo tanto tenemos uε (x, t) en la segunda ecuación. El objetivo principal de este capítulo es mostrar que, bajo condiciones de regularidad apropiadas sobre los datos, ∂Ω, f y g, las soluciones del DPP (2.1.2) (uε , v ε ) son el valor del juego. Estás funciones convergen uniformemente en Ω a funciones continuas (u, v), que son una solución viscosa de (2.1.1). Aquí usamos que Ω es un dominio acotado que satisface la siguiente condición: Condición de esfera exterior uniforme: Existe un radio fijo θ0 > 0 tal que, para cada punto z ∈ ∂Ω existe una bola exterior Bθ0 ⊂ RN \ Ω con {z} = ∂Bθ0 ∩ ∂Ω. Teorema 2.1.2. Supongamos que Ω es un dominio acotado que verifica la condición de esfera exterior uniforme, y los datos de borde e iniciales f , g y u0 son funciones Lipschitz que verifican la condición de compatibilidad u0 (x) = f (x, 0) para x ∈ ∂Ω. Si consideramos (uε , v ε ) la solución de DPP (2.1.2), que es el valor del juego, existe una subsucesión (que seguiremos llamando (uε , v ε )) tal que uε → u, y v ε → v, cuando ε → 0, 28 uniformemente en Ω × [0, T ] a un par de funciones continuas. R Estas funciones (u, v) son la única solución viscosa del sistema (2.1.1) (con la constante κ = |B11(0)| B1 (0) zj2 dz = N 1+2 , que depende unicamente de la dimensión). Observación 2.1.1. Basta con pedir un módulo de continuidad uniforme de los datos, f , g y u0 (mante- niendo la compatibilidad u0 (x) = f (x, 0) para x ∈ ∂Ω). Preferimos enunciar y probar nuestros resultados para funciones Lipschitz, para simplificar ligeramente algunos de los argumentos. Observación 2.1.2. Si asumimos que la probabilidad de quedarnos en el segundo tablero es 1 − Kε2 (y por lo tanto, la probabilidad de cambiar del segundo al primer tablero es Kε2 ), con los mismos cálculos que obtenemos Z v (x, t) = Kε u (x, t) + (1 − Kε ) ε 2 ε 2 v ε (y, t)dy Bε (x) como segunda ecuación del DPP (2.1.2) (la primera ecuación, y los datos exteriores e iniciales permanecen sin cambios). Pasando al límite que llegamos a κ − ∆v(x, t) + v(x, t) − u(x, t) = 0, 2K y por lo tanto, eligiendo K, podemos obtener cualquier constante positiva frente al Laplaciano en (2.1.1). Comentemos brevemente las ideas que utilizaremos en las demostraciones. Para demostrar que la sucesión tiene una subsucesión convergente aplicaremos un lema tipo Arzelà-Ascoli (ver Lema 2.5.1). Para este fin necesitamos demostrar un límite uniforme y una especie de continuidad asintótica que se base en estimaciones para ambos componentes (uε , v ε ) cerca del borde (estas estimaciones se pueden ampliar al interior mediante un argumento probabilístico de acoplamiento). De hecho, para ver una continuidad asintótica cerca de un punto del borde, podemos demostrar que ambos jugadores tienen estrategias que hacen que el juego termine cerca de un punto y ∈ ∂Ω con probabilidad alta, si empezamos a jugar cerca de ese punto, sin importar la estrategia elegida por el otro jugador. También necesitamos mostrar que los jugadores tienen estrategias que obligan al juego a terminar cerca de (y, 0), y ∈ Ω, cuando el punto de partida (x, t) tiene x cerca de y y t > 0 pero pequeño. Esto nos permite obtener una especie de equicontinuidad asintótica cerca del borde que conduce a convergencia uniforme en todo Ω × [0, T ). Tener en cuenta que, en general, las soluciones del DPP (2.1.2) (uε , v ε ) son discontinuas dentro de Ω × (0, T ) (esto se debe a que hacemos pasos discretos) y por lo tanto mostrar una convergencia uniforme hacia límites continuos es una tarea difícil. Una vez demostrada la convergencia uniforme a lo largo de una subsucesión de (uε , v ε ) a un límite (u, v) mostramos que el límite es de hecho una solución de viscosidad para el sistema (2.1.1) (aquí usamos argumentos de teoría viscosa teniendo en cuenta que una ecuación en (2.1.1) es parabólica y la otra elíptica). Nuestro sistema parabólico/elíptico (2.1.1) tiene un principio de comparación (para supersoluciones y subsoluciones viscosas). Por lo tanto, tenemos unicidad del límite y concluimos la convergencia de toda la familia (uε , v ε ) (el lema tipo Arzelà-Ascoli nos da convergencia a lo 29 largo de subsucesiones). Finalmente, notar que con ideas similares podemos resolver el siguiente sistema,   1   − ∆∞ u(x, t) + u(x, t) − v(x, t) = 0 x ∈ Ω, t > 0,   2     ∂v κ   (x, t) − ∆v(x, t) + v(x, t) − u(x, t) = 0 x ∈ Ω, t > 0,   ∂t 2   u(x, t) = f (x, t) x ∈ ∂Ω, t > 0,       v(x, t) = g(x, t) x ∈ ∂Ω, t > 0,      v(x, 0) = v0 (x) x ∈ Ω, donde la derivada respecto al tiempo se encuentra en la segunda ecuación. El capítulo está organizado de la siguiente manera: en la Sección 2.2 recopilamos algunos resulta- dos preliminares (incluida la definición precisa de una solución viscosa para nuestro sistema parabó- lico/elíptico); en la sección 2.3 describimos detalladamente el juego; en la Sección 2.4 comenzamos el análisis del juego e incluimos una prueba de la existencia y unicidad de las soluciones del DPP (demos- tración del teorema 2.1.1). En la Sección 2.5 mostramos la convergencia uniforme del valor del juego a un par de funciones continuas; en la Sección 2.6 demostramos que este límite uniforme es de hecho una solución viscosa para nuestro sistema e incluimos un breve bosquejo de la prueba del principio de comparación para (2.1.1) que implica la unicidad de la solución del sistema. 2.2. Preliminares En esta sección incluimos en primer lugar la definición precisa de lo que entendemos por solución viscosa para el sistema (2.1.1). En este caso debemos considerar dos definiciones diferentes, una pa- ra cada ecuación. A continuación, incluimos el enunciado preciso del Optional Stopping Theorem que necesitaremos cuando utilicemos argumentos probabilísticos. 2.2.1. Soluciones Viscosas Vamos a considerar la referencia [22] para los resultados generales respecto a soluciones viscosas. Para la primera ecuación de (2.1.1) introducimos la siguiente definición de solución viscosa para una EDP parabólica. Dada una función P : Ω × (0, T ] × R × R × RN × SN ×N → R donde SN ×N denota el conjunto de matrices simétricas de N × N . Consideramos  ∂u  P x, t, u(x, t), (x, t), Du(x, t), D 2 u(x, t) = 0, x ∈ Ω, t ∈ (0, T ). (2.2.3) ∂t 30 En nuestro sistema tenemos   1 p p P x, t, r, s, p, M = s − hM , i + r − v(x, t) = 0. 2 |p| |p| La idea detrás de las soluciones viscosas es utilizar el principio máximo para “pasar las derivadas a las funciones test”. Esta idea nos permite considerar operadores que no tienen forma de divergencia. Supondremos que P satisface dos propiedades de monotonía, X ≤ Y in SN ×N =⇒ P (x, t, r, s, p, X) ≥ P (x, t, r, s, p, Y ) para todo (x, t, r, s, p) ∈ Ω × (0, T ] × R × R × RN ; y s1 ≤ s2 en R =⇒ P (x, t, r, s1 , p, X) ≤ P (x, t, r, s2 , p, Y ) para todo (x, t, r, p, X) ∈ Ω × (0, T ] × R × RN × SN ×N . Aquí tenemos una ecuación que involucra el ∞-Laplaciano, que no están definidos cuando el gradiente vale cero. Para resolver esta situación, consi- deraremos las envolventes semicontinuas inferior, P∗ , e superior, P ∗ , de P . Estas funciones vienen dadas por P ∗ (x, t, r, s, p, X) = lı́m sup P (y, l, m, n, q, Y ), (y,l,m,n,q,Y )→(x,t,r,s,p,X) P∗ (x, t, r, s, p, X) = lı́m inf P (y, l, m, n, q, Y ). (y,l,m,n,q,Y )→(x,t,r,s,p,X) Estas funciones coinciden con P en cada punto de continuidad de P y son semicontinuas inferior y superior respectivamente. Con estas ideas a mano estamos listos para establecer la definición de solución viscosa para (2.2.3). Definición 2.2.1. Una función semicontinua superiormente u es solución viscosa de (2.2.3) si para toda función test ϕ ∈ C 2,1 (Ω × (0, T ]) tal que ϕ toca u en (x, t) ∈ Ω × (0, T ] estrictamente por arriba (es decir, u − ϕ tiene un máximo estricto en (x, t) con u(x, t) = ϕ(x, t)), vale  ∂ϕ  P∗ x, t, ϕ(x, t), (x, t), Dϕ(x, t), D 2 ϕ(x, t) ≤ 0. ∂t Una función semicontinua inferiormente u es solución viscosa de (2.2.3) si para toda función test ϕ ∈ C 2,1 (Ω × (0, T ]) tal que ϕ toca u en (x, t) ∈ Ω × (0, T ] estrictamente por debajo (es decir, u − ϕ tiene un mínimo estricto en (x, t) con u(x, t) = ϕ(x, t)), vale  ∂ϕ  P ∗ x, t, ϕ(x, t), (x, t), Dϕ(x, t), D 2 ϕ(x, t) ≥ 0. ∂t Finalmente, u es solución viscosa de (2.2.3) si es, simultaneamente, sub- y supersolución. Ahora, para la segunda ecuación en (2.1.1) introducimos la siguiente definición para una ecuación elíptica con t como parámetro. Dada la función Q : Ω × (0, T ] × R × RN × SN ×N → R. 31 Asociada con Q, consideramos la EDP   Q x, t, v(x, t), Dv(x, t), D 2 v(x, t) = 0, x ∈ Ω, t ∈ (0, T ). (2.2.4) En nuestro sistema (2.1.1) la segunda ecuación viene dada por   κ Q x, t, r, p, M = − trace(M ) + r − u(x, t) = 0. 2 Notar que no hay derivada temporal involucrada en esta ecuación, pero t está presente en el operador Q. Asumimos para Q satisface la condición de monotonía, X ≤ Y in SN ×N =⇒ Q(x, t, r, p, X) ≥ Q(x, t, r, p, Y ) para todo (x, t, r, p) ∈ Ω × (0, T ] × R × RN . Aquí tenemos una ecuación que involucra al Laplaciano que está bien definida, por lo que no hay necesidad de considerar las envolventes semicontinuas superior e inferior de Q. Luego, la definición de solución viscosa es la siguiente: Definición 2.2.2. Un función semicontinua superiormente v es una solución viscosa de (2.2.4) si para toda función test ϕ ∈ C 2 (Ω) tal que ϕ toca v(·, t) en x ∈ Ω estrictamente por arriba (es decir, v(·, t) − ϕ(·) tiene un máximo estricto en x con v(x, t) = ϕ(x)), vale   Q x, t, ϕ(x), Dϕ(x), D 2 ϕ(x) ≤ 0. Una función semiicontinua inferiormente v es solución viscosa de (2.2.4) si para toda función test ψ ∈ C 2 (Ω) tal que ψ toca v(·, t) at x ∈ Ω estrictamente por debajo (es decir, v(·, t) − ψ(·) tiene un mínimo estricto en x con v(x, t) = ψ(x)), vale   Q x, t, ψ(x, t), Dψ(x, t), D 2 ψ(x, t) ≥ 0. Finalmente, v es solución viscosa de (2.2.3) si es simultáneamente sub- y supersolución. Como mencionamos antes, para el sistema (2.1.1), entendemos que el par (u, v) es una solución viscosa de (2.1.1) si u es una solución viscosa de la primera ecuación (en el sentido de la Definición 2.2.1 con v(x, t) como función dada), y v(x, t) es una solución a la segunda ecuación (esta vez en el sentido de Definición 2.2.2 con u(x, t) en el lado derecho). Definición 2.2.3. El par de funciones continuas u, v : Ω × [0, +∞) 7→ R, es solución viscosa de (2.1.1) si para todo T > 0, u es solución de ∂u 1 (x, t) − ∆∞ u(x, t) + u(x, t) − v(x, t) = 0 x ∈ Ω, t ∈ (0, T ], ∂t 2 en el sentido de la definición 2.2.1 usando p p P (x, t, r, s, p, X) = s − hX , i + r − v(x, t), |p| |p| 32 y que verifica u|∂Ω×(0,T ] = f y u|Ω×{0} = u0 ; mientras que v es solución viscosa de κ − ∆v(x, t) + v(x, t) − u(x, t) = 0 x ∈ Ω, t ∈ (0, T ], 2 en el sentido de la definición 2.2.2, usando κ Q(x, t, r, p, X) = − trace(X) + r − u(x, t), 2 y que verifica v|∂Ω×(0,T ] = g. 2.2.2. Probabilidad. Optional Stopping Theorem. Recordemos (ver [59]) que una sucesión de variables aleatorias {Mk }k≥1 es una supermartingala (una submartingala) si E[Mk+1 |M0 , M1 , ..., Mk ] ≤ Mk (≥) Luego, el Optional Stopping Theorem, que notaremos (OSTh) durante todo el trabajo, dice: Dado τ un tiempo de parada (stopping time) tal que cumple una de las siguientes condiciones, (a) El tiempo de parada τ está acotado a.s.; (b) Vale que E[τ ] < ∞ y existe una constante c > 0 tal que E[Mk+1 − Mk |M0 , ..., Mk ] ≤ c; (c) Existe una constante C > 0 tal que |Mmı́n{τ,k} | ≤ C a.s. para todo k ≥ 0. Entonces E[Mτ ] ≤ E[M0 ] (≥) si {Mk }k≥0 es supermartingala (submartingala). Para la prueba de este teorema ver [25, 59]. 2.3. Descripción del juego Como mencionamos antes, a la hora de estudiar nuestro sistema (2.1.1), las reglas del juego asociado son las siguientes: el juego comienza con una posición inicial (x0 , t0 ) ∈ Ω × (0, T ), en uno de los dos tableros. En el primer tablero, con probabilidad 1 − ε2 , los jugadores juegan Tug-of-War como se describe en [53, 42] (este juego está asociado con el infinito Laplaciano). En el juego Tug-of-War, los jugadores lanzan una moneda equilibrada, y el ganador elige una nueva posición del juego con la restricción de que x1 ∈ Bε (x0 ). Entonces la nueva posición del juego va al punto (x1 , t0 − ε2 ), esto quiere decir que, si jugamos en el primer tablero, la siguiente posición del juego va a estar en el nivel de tiempo t1 = t0 − ε2 (o t1 = 0 si t0 < ε2 ). Disminuimos el tiempo en ε2 solo si jugamos en el primer tablero. Por otro lado, con probabilidad ε2 la posición del juego salta al segundo tablero (en la misma posición (x0 , t0 ) (sin 33 cambiar el tiempo en este caso). Jugando en el segundo tablero, con probabilidad 1 − ε2 la posición pasa aleatoriamente (probabilidad uniforme) a algún punto (x1 , t0 ) ∈ Bε (x0 ) × (0, T ] (mantenemos el tiempo sin cambios en el segundo tablero) y con probabilidad ε2 la posición pasa al primer tablero (sin cambiar la posición espacial ni temporal). Observar que en el segundo tablero nos quedamos en cada jugada en el tiempo (solo cambiamos la variable espacial x, pero la variable de tiempo t sigue siendo la misma). En la figura 2.1 se ve un esquema de las reglas del juego en cada tablero. El juego continúa con las mismas (a) Tug-of-War en (x, t − ε2 ) (b) Paseos al azar en (x, t) Figura 2.1: Reglas del juego en cada tablero reglas hasta que la posición del juego abandona el dominio espacial o la variable tiempo se hace menor o igual a 0. Si estamos en la primera situación (abandonamos Ω) y la última posición del juego es (xτ , tτ ) (con xτ ∈ RN \ Ω y tτ ≥ 0) en el primer tablero, el jugador I obtiene el pago final f (xτ , tτ ) y el jugador II obtiene −f (xτ , tτ ) (tener en cuenta que este es un juego de suma cero). Pero si el juego se detiene en (xτ , tτ ) con xτ ∈ Ω and tτ ≤ 0 (tengamos en cuenta que esto sólo puede suceder jugando en el primer tablero), el jugador I obtiene como pago final u0 (xτ ) cuando, y el jugador II obtiene menos esta cantidad. Ahora, si terminamos el juego jugando en el segundo tablero y (xτ , tτ ) es la última posición (en este caso debe valer tτ > 0), entonces el jugador I obtiene g(xτ , tτ ) y el jugador II obtiene −g(xτ , tτ ). Este juego genera una sucesión de posiciones, n o P = (x0 , t0 , j0 ), (x1 , t1 , j1 ), ..., (xτ , tτ , jτ ) con ji ∈ {1, 2} (este índice muestra el tablero donde estamos jugando) y (xi , ti ) nos indica la posición (en tiempo y espacio) en el tablero ji . La dependencia de la posición del juego en uno de los tableros, ji , se hará explícito sólo cuando sea necesario. También observar que el número de jugadas hasta que finaliza el juego, τ , es finito con probabilidad 1 (es decir, el juego termina un número finito de jugadas). Una estrategia SI para el jugador I es una función que depende de las posiciones anteriores y nos da una posición del juego si el jugador I gana el lanzamiento de la moneda (y la posición del juego se mantiene en el primer tablero) SI ((x0 , t0 , j0 ), (x1 , t1 , j1 ), . . . , (xn , tn , 1)) = (xn+1 , tn+1 , 1) con xn+1 ∈ Bε (xn ) y tn+1 = tn − ε2 > 0 o tn+1 = 0 si tn − ε2 ≤ 0. 34 De manera análoga, una estrategia SII para jugador II es una función que depende de las posiciones anteriores y da la siguiente posición del juego siempre que el jugador II sea quien gane el lanzamiento de la moneda (y la posición permanece en el primer tablero). Cuando los dos jugadores fijan sus estrategias SI y SII podemos calcular la esperanza del pago final de la siguiente manera: Dada la sucesión (x0 , t0 ), . . . , (xn , tn ) con xk ∈ Ω y tn > 0, si (xk , tk ) pertenece al primer tablero, el siguiente la posición del juego se distribuye según la probabilidad πSI ,SII ,1 ((x0 , t0 , j0 ), . . . , (xk , tk , 1), A, B) 1 − ε2 1 − ε2 = δSI ((x0 ,t0 ,j0 ),...,(xk ,tk ,1)) (A) + δSII ((x0 ,t0 ,j0 ),...,(xk ,tk ,1)) (A) 2 2 +ε2 δ(xk ,tk ) (B). Aquí A es un subconjunto en el primer tablero mientras que B es un subconjunto en el segundo tablero. Si xk pertenece al segundo tablero, la siguiente posición del juego se distribuye según la probabilidad πSI ,SII ,2 ((x0 , t0 , j0 ), . . . , (xk , tk , 2), A, B) = (1 − ε2 )U (Bε (xk ))(B) + ε2 δ(xk ,tk ) (A). Aquí y en lo sucesivo notaremos U (B) la medida de probabilidad uniforme en el conjunto B. Utilizando el teorema de extensión de Kolmogorov y las probabilidades de transición de un paso, (x ,t ,j ) podemos construir una medida de probabilidad PSI0,SII0 0 definida en la sucesión de posiciones (teniendo en cuenta los dos tableros). La esperanza del pago final, a partir de (x0 , t0 , j0 ) y usando las estrategias SI , SII , es Z (x ,t ,j0 ) (x ,t ,j0 ) ESI0,SII0 [h(xτ , tτ )] = h(xτ , tτ ) dPSI0,SII0 . (2.3.5) H∞ Vamos a extender las funciones f y g desde ∂Ω × (0, ∞) a RN \ Ω × (0, ∞) por un par de funciones Lipschitz y acotadas que denotamos de igual manera f y g, y luego usamos h = f si (xτ , tτ ) está en el primer tablero y tτ > 0, h = g si (xτ , tτ ) está en el segundo tablero y tτ > 0, o, finalmente, configuramos h = u0 si tτ ≤ 0. Valor del juego para el jugador I: Este valor viene dado por (x ,t ,1) uεI (x0 , t0 ) = ı́nf sup ESI0,SII0 [h(xτ , tτ )] SII SI para (x0 , t0 ) ∈ Ω × (0, T ] en el primer tablero (j0 = 1), y (x ,t ,2) vIε (x0 , t0 ) = ı́nf sup ESI0,SII0 [h(xτ , tτ )] SII SI para (x0 , t0 ) ∈ Ω × (0, T ] en el segundo tablero (j0 = 2). Valor del juego para el jugador II: Este valor viene dado por la misma fórmula invirtiendo ı́nf–sup, (x ,t ,1) uεII (x0 , t0 ) = sup ı́nf ESI0,SII0 [h(xτ , tτ )] , SI SII 35 para x0 en el primer tablero, (x ,t ,2) ε vII (x0 , t0 ) = sup ı́nf ESI0,SII0 [h(xτ , tτ )] , SI SII para x0 en el segundo tablero. Intuitivamente, los valores uI (x0 , t0 ) y uII (x0 , t0 ) son los mejores resultados esperados que cada jugador puede garantizar cuando el juego comienza en (x0 , t0 ) en el primer tablero mientras que vI (x0 , t0 ) y vII (x0 , t0 ) son los mejores resultados esperados para cada jugador en el segundo tablero. Si estos valores coinciden uεI = uεII y vIε = vII ε , decimos que el juego tiene un valor. Pero antes observemos que el juego termina con probabilidad 1, sin importar las estrategias utilizadas por los jugadores, es decir P(τ = +∞) = 0, y por lo tanto la esperanza (2.3.5) está bien definida. Esto se debe a que la probabilidad de jugar infinitamente en el mismo tablero es cero, y jugando en el primer tablero dejaremos Ω × (0, T ) ya sea saliendo de Ω o agotando el tiempo (en un número finito de jugadas). 2.4. Existencia y unicidad de solución del DPP Para ver que el juego tiene un valor, primero veremos que tenemos existencia de (uε , v ε ), solución del DPP. Comencemos considerando el siguiente conjunto (compuesto por pares de funciones que son subsoluciones de nuestro DPP). Sea n o C = máx kf k∞ , kgk∞ , ku0 k∞ . (2.4.6) Consideramos n o A = (z ε , wε ) : son acotadas por C y verifican (e) , siendo  n1 o  1   z ε (x, t) ≤ ε 2 ε w (x, t)+(1 − ε 2 ) sup z ε (y, t − ε 2 )+ ı́nf z ε (y, t − ε 2 )   2 y∈Bε (x) 2 y∈Bε (x)     x ∈ Ω, t ∈ (0, T ],       Z     wε (x, t) ≤ ε2 z ε (x, t) + (1 − ε2 ) wε (y, t)dy  Bε (x) x ∈ Ω, t ∈ (0, T ], (e)         z ε (x, t) ≤ f (x, t) x ∈ RN \Ω, t ∈ (0, T ],         wε (x, t) ≤ g(x, t) x ∈ RN \Ω, t ∈ (0, T ],     ε z (x, t) ≤ u0 (x) x ∈ Ω, t ≤ 0. Observar que A 6= ∅. En efecto, si tomamos z ε = −C y wε = −C con C dada por (2.4.6). Definamos ahora uε (x, t) = sup z ε (x, t) y v ε (x, t) = sup wε (x, t). (2.4.7) (z ε ,wε )∈A (z ε ,wε )∈A Queremos probar que estas funciones son una solución del DPP. 36 Proposición 2.4.1. El par (uε , v ε ) dado por (2.4.7) es una solución del DPP (2.1.2). Demostración. Primero, veamos que (uε , v ε ) pertenecen al conjunto A. Para eso observemos que uε y v ε están acotadas por C y verifican uε (x, t) ≤ f (x, t) , v ε (x, t) ≤ g(x, t) para x ∈ RN \Ω, t ≥ 0, y uε (x, t) ≤ u0 (x) para x ∈ Ω, t ≤ 0. Por lo tanto, nos queda probar que se verifica (e) para x ∈ Ω , t > 0. Tomemos (z ε , wε ) ∈ A y un punto (x, t) ∈ Ω × (0, T ] fijo. Entonces, n1 1 o z ε (x, t) ≤ ε2 wε (x, t) + (1 − ε2 ) sup z ε (y, t − ε2 ) + ı́nf z ε (y, t − ε2 ) . 2 y∈Bε (x) 2 y∈Bε (x) Como z ε ≤ uε y wε ≤ v ε llegaremos a n1 1 o z ε (x, t) ≤ ε2 v ε (x, t) + (1 − ε2 ) sup uε (y, t − ε2 ) + ı́nf uε (y, t − ε2 ) . 2 y∈Bε (x) 2 y∈Bε (x) Tomando supremo del lado izquierdo obtenemos n1 1 o uε (x, t) ≤ ε2 v ε (x, t) + (1 − ε2 ) sup uε (y, t − ε2 ) + ı́nf uε (y, t − ε2 ) . 2 y∈Bε (x) 2 y∈Bε (x) De forma análoga llegamos a Z v (x, t) ≤ ε u (x, t) + (1 − ε ) ε 2 ε 2 v ε (y, t)dy, Bε (x) Así concluimos que (uε , v ε ) ∈ A. Para finalizar la demostración debemos ver que (uε , v ε ) verifica (2.1.2). Vamos a argumentar por el absurdo. Supongamos que existe un punto (x0 , t0 ) ∈ RN × [0, T ] donde la desigualdad (e) es estricta. Si asumimos primero que (x0 , t0 ) ∈ (RN \Ω) × [0, T ), entonces debe suceder que uε (x0 , t0 ) < f (x0 , t0 ), o en otro caso x0 ∈ Ω, t0 ≤ 0 y entonces uε (x0 , t0 ) < u0 (x0 ). Entonces, tomando uε0 definida como uε0 (x, t) = uε (x, t) para (x, t) 6= (x0 , t0 ) y uε0 (x0 , t0 ) = f (x0 , t0 ) en el primer caso, o uε0 (x0 , t0 ) = u0 (x0 ) en el segundo caso. Este par (uε0 , v ε ) pertenece a A pero uε0 (x0 ) > uε (x0 ) lo que genera una contradicción. De manera similar podemos argumentar si v ε (x0 , t0 ) < g(x0 , t0 ). Consideremos ahora (x0 , t0 ) ∈ Ω × (0, T ] con una desigualdad estricta en e. Supongamos que n1 1 o uε (x0 , t0 ) < ε2 v ε (x0 , t0 ) + (1 − ε2 ) sup uε (y, t0 − ε2 ) + ı́nf uε (y, t0 − ε2 ) . 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) Sea n1 o 1 δ = ε2 v ε (x0 , t0 ) + (1 − ε2 ) sup uε (y, t0 − ε2 ) + ı́nf uε (y, t0 − ε2 ) 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) −u (x0 , t0 ) > 0, ε y sea la función uε0 definida como  ε  u (x, t) (x, t) 6= (x0 , t0 ), uε0 (x, t) =  uε (x, t) + δ (x, t) = (x0 , t0 ). 2 37 Observar que δ uε0 (x0 , t0 ) = uε (x0 , t0 ) + 2 n1 1 o < ε2 v ε (x0 , t0 ) + (1 − ε2 ) sup uε (y, t0 − ε2 ) + ı́nf uε (y, t0 − ε2 ) , 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) entonces n1 1 o uε0 (x0 , t0 ) < ε2 v ε (x0 , t0 ) + (1 − ε2 ) sup uε0 (y, t0 − ε2 ) + ı́nf uε0 (y, t0 − ε2 ) . 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) Por lo tanto llegamos a que (uε0 , v ε ) ∈ A, pero uε0 (x0 t0 ) > uε (x0 , t0 ) lo cual genera nuevamente una contradicción. Podemos hacer el razonamiento análogo si Z v ε (x0 , t0 ) < ε2 uε (x0 , t0 ) + (1 − ε2 ) v ε (y, t0 )dy. Bε (x0 ) Así finalizamos la demostración. Comentario: En la definición (2.4.7) obtenemos una función v ε que no es necesariamente medible. Entonces, entendemos la integral de la siguiente manera Z Z  ε v (y)dy = sup w(y)dy / w medible , w ≤ v ε Bε (x) Bε (x) Alternativamente, podemos obtener un par de funciones medibles (uε , v ε ), soluciones del DPP a través de la siguiente iteración: Dadas z0ε = w0ε = −C con C definida en (2.4.6), tenemos que el par (z0ε , w0ε ) es subsolución del DPP (2.1.2). Definimos para n ≥ 0  n1 o  1   z ε (x, t) = ε 2 ε w (x, t)+(1 − ε 2 ) sup z ε (y, t − ε 2 )+ ı́nf z ε (y, t − ε 2 )   n+1 n 2 y∈Bε (x) n 2 y∈Bε (x) n     x ∈ Ω, t ∈ (0, T ],       Z     w ε (x, t) = ε zn (x, t) + (1 − ε ) 2 ε 2 wnε (y, t)dy  n+1 Bε (x)   x ∈ Ω, t ∈ (0, T ],       ε zn+1 (x, t) = f (x, t) x ∈ RN \Ω, t ∈ (0, T ],         ε wn+1 (x, t) = g(x, t) x ∈ RN \Ω, t ∈ (0, T ],     ε zn+1 (x, t) = u0 (x) x ∈ Ω, t ≤ 0. Esto nos da un par de sucesiones de funciones medibles (znε , wnε ) subsucesiones del DPP, crecientes, uniformemente acotadas. Si definimos lı́m z ε (x, t) = uε (x, t) y lı́m wnε (x, t) = v ε (x, t) n→∞ n n→∞ 38 Estas funciones resultan medibles, y son solución del DPP (2.1.2). Los detalles de construcción alternativa de la solución del DPP se pueden ver en el lema 5.4.4 y el teorema 5.4.1 del capítulo 5. Con esto damos por terminado el comentario. Si nos concentramos ahora en el valor del juego, sabemos que uεI ≥ uεII y vIε ≥ vII ε (esto se deduce de inmediato de la definición). Luego, para obtener la unicidad de la solución del DPP y existencia del valor del juego es suficiente probar uεII ≥ uε ≥ uεI y vII ε ≥ v ε ≥ v ε . Para eso vamos a usar el OSTh para I sub/supermartingalas (ver Sección 2.2). Teorema 2.4.1. Dado 0 < ε < 1 Sea (uε , v ε ) un par de funciones que verifica el DPP (2.1.2), entonces vale que (x ,t ,1) uε (x0 , t0 ) = sup ı́nf ESI0,SII0 [h(xτ , tτ )], SI SII si (x0 , t0 ) ∈ Ω × (0, T ) está en el primer tablero, y (x ,t ,2) v ε (x0 , t0 ) = sup ı́nf ESI0,SII0 [h(xτ , tτ )], SI SII si (x0 , t0 ) ∈ Ω × (0, T ) está en el segundo tablero. Más aún, también vale que (x ,t ,1) uε (x0 , t0 ) = ı́nf sup ESI0,SII0 [h(xτ , tτ )] SII SI para (x0 , t0 ) ∈ Ω × (0, T ) en el primer tablero, y (x ,t ,2) v ε (x0 , t0 ) = ı́nf sup ESI0,SII0 [h(xτ , tτ )] SII SI para (x0 , t0 ) ∈ Ω × (0, T ) en el segundo tablero. Luego, el juego tiene valor, y está caracterizado por ser solución del DPP (2.1.2). Demostración. Dado ε > 0 ya hemos probado existencia de solución del DPP (uε , v ε ). Dado δ > 0, y un punto inicial, que podemos suponer en el primer tablero (x0 , t0 , 1), elegimos una estrategia para el jugador I dada por (xIk+1 , tk+1 , 1) = SI∗ ((x0 , t0 , j0 ), ..., (xk , tk , 1)) con xIk+1 tal que δ sup uε (y, tk − ε2 ) − ≤ uε (xIk+1 , tk+1 ). y∈Bε (xk ) 2k Dada esta estrategia para el jugador I y cualquier estrategia SII para el jugador II consideramos la sucesión de variables aleatorias    δ  uε (xk , tk ) − si (jk = 1), 2k Mk =   δ  v ε (xk , tk ) − si (jk = 2). 2k 39 Veamos que (Mk )κ≥0 es una submartingala. Para eso vamos a estimar (x ,t ,1) (x ,t ,1) ES ∗0,SII0 [Mk+1 |Mk ] = ES ∗0,SII0 [Mk+1 |(xk , tk , jk )]. I I Consideremos dos casos: Caso 1: Supongamos que jk = 1, entonces (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 1)] I (x ,t ,1) = (1 − ε2 )ES ∗0,SII0 [Mk+1 |(xk , tk , 1) ∧ jk+1 = 1] I (x ,t ,1) +ε2 ES ∗0,SII0 [Mk+1 |(xk , tk , 1) ∧ jk+1 = 2]. I Aquí usamos que la probabilidad de quedarnos en el mismo tablero donde estamos es (1 − ε2 ) y la probabilidad de cambiar de tablero es ε2 . Ahora bien, si jk = 1 y jk+1 = 2, entonces xk+1 = xk y tk+1 = tk (hemos cambiado de tablero). Por lo tanto (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 1)] I n1 1 δ o = (1 − ε2 ) uε (xIk+1 , tk+1 ) + uε (xII k+1 , tk+1 ) − k+1 2 2 2 δ +ε2 (v ε (xk , tk ) − k ). 2 Como estamos usando las estrategias SI∗ y SII , vale lo siguiente, δ sup uε (y, tk − ε2 ) − ≤ uε (xIk+1 , tk+1 ) y∈Bε (xk ) 2k y ı́nf uε (y, tk − ε2 ) ≤ uε (xII k+1 , tk+1 ). y∈Bε (xk ) Luego, (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 1)] I n1 δ 1 o ≥ (1 − ε2 ) sup uε (y, tk − ε2 ) − + ı́nf u ε (y, t k − ε 2 ) 2 y∈Bε (xk ) 2k 2 y∈Bε (xk ) δ +ε2 v ε (xk , tk ) − ε2 , 2k Es decir, (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 1)] I n1 1 o ≥ (1 − ε2 ) sup uε (y, t − ε2 ) + ı́nf uε (y, t − ε2 ) 2 y∈Bε (xk ) 2 y∈Bε (xk ) δ δ +ε2 v ε (xk , tk ) − (1 − ε2 ) k − ε2 k . 2 2 40 Usando que uε es solución del DPP (2.1.2) obtenemos (x ,t ,1) δ ES ∗0,SII0 [Mk+1 |(xk , tk , 1)] ≥ uε (xk , tk ) − = Mk I 2k como queríamos probar. Caso 2: Supongamos que jk = 2. Con las mismas técnicas que usamos antes obtenemos (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 2)] I (x ,t ,1) = (1 − ε2 )ES ∗0,SII0 [Mk+1 |(xk , tk , 2) ∧ jk+1 = 2] I (x ,1) +ε2 ES ∗0,SII [Mk+1 |(xk , tk , 2) ∧ jk+1 = 1]. I Observar que jk = jk+1 = 2 (lo que significa que la posición se mantiene en el segundo tablero) con xk ∈ Ω, entonces xk+1 será elegido con probilidad uniforme en la bola Bε (xk ). Luego, (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 2) ∧ jk+1 = 2] I (x ,t ,1) δ = ES ∗0,SII0 [v ε (xk+1 , tk+1 ) − k+1 |(xk , 2) ∧ jk+1 = 2] I 2 Z δ = v ε (y, tk )dy − k+1 . Bε (xk ) 2 Por otro lado, (x ,t ,1) δ ES ∗0,SII0 [Mk+1 |(xk , tk , 2) ∧ jk+1 = 1] = uε (xk , tk ) − . I 2k+1 Juntando estas estimaciones llegamos a (x ,t ,1) ES ∗0,SII0 [Mk+1 |(xk , tk , 2)] I Z ! δ  δ  = (1 − ε ) 2 v (y, tk )dy − ε + ε2 uε (xk , tk ) − 2k+1 2k+1 Z Bε (xk ) δ ≥ (1 − ε2 ) v ε (y, tk )dy + ε2 uε (xk , tk ) − , Bε (xk ) 2k es decir, (x ,t ,1) δ ES ∗0,SII0 [Mk+1 |(xk , tk , 2)] ≥ v ε (xk , tk ) − = Mk . I 2k Aquí usamos que vε es solución del DPP, (2.1.2). Así termina el caso 2. Luego, (Mk )k≥0 es una submartingala. Usando el OSTh concluimos que (x ,t ,1) ES ∗0,SII0 [Mτ ] ≥ M0 I 41 donde τ es el primer turno tal que (xτ , tτ ) ∈ / Ω × (0, T ] en cualquiera de los dos tableros (recordar que el tiempo de parada τ es finito a.s. y Mk está acotado uniformemente). Así, (x ,t ,1) ES ∗0,SII0 [h(xτ , tτ )] ≥ uε (x0 , t0 ) − δ. I Si tomamos infimo sobre las estrategias SII y luego supremos sobre SI obtenemos (x ,t ,1) sup ı́nf ESI0,SII0 [h(xτ , tτ )] ≥ uε (x0 , t0 ) − δ. SI SII Observar que se pueden repetir los mismos argumentos si comenzamos en el segundo tablero para obtener (x ,t ,2) sup ı́nf ESI0,SII0 [h(xτ , tτ )] ≥ v ε (x0 , t0 ) − δ. SI SII Ahora queremos probar la desigualdad inversa (intercambiando inf y sup). Para eso definimos la estrategia para el jugador II de la siguiente manera ∗  (xII k+1 , tk+1 ) = SII (x0 , t0 , j0 ), ..., (xk , tk , 1) es tal que δ ı́nf uε (y, tk+1 ) + ≥ uε (xII k+1 , tk+1 ). y∈Bε (xk ) 2k Consideremos la sucesión de variables aleatorias    δ  uε (xk , tk ) + k si jk = 1 2 Nk =   δ  v ε (xk , tk ) + si jk = 2. 2k Argumentando como antes obtenemos que la sucesión es una supermartingala. Aplicando el OSTh llegamos a (x ,t ,1) ESI0,S ∗0 [Nτ ] ≤ N0 II para cualquier estrategia SI , donde τ es el tiempo de parada del juego. Luego, (x ,t ,1) ESI0,S ∗0 [h(xτ , tτ )] ≤ uε (x0 , t0 ) + δ. II Tomando supremo sobre SI y luego ínfimo sobre SII llegamos a (x ,t ,1) ı́nf sup ESI0,SII0 [h(xτ , tτ )] ≤ uε (x0 , t0 ) + δ. SII SI Como antes, si comenzamos en (x0 , t0 , 2) obtenemos (x ,1) ı́nf sup ESI0,SII [h(xτ , tτ )] ≤ v ε (x0 ) + δ. SII SI 42 Para finalizar esta demostración, observamos que sup ı́nf ESI ,SII [h(xτ , tτ )] ≤ ı́nf sup ESI ,SII [h(xτ , tτ )]. SI SII SII SI Así concluímos que (x ,t ,1) uε (x0 , t0 ) − δ ≤ sup ı́nf ESI0,SII0 [h(xτ , tτ )] SI SII (x0 ,t0 ,1) ≤ ı́nf sup ESI ,SII [h(xτ , tτ )] ≤ uε (x0 , t0 ) + δ SII SI y (x ,t ,2) v ε (x0 , t0 ) − δ ≤ sup ı́nf ESI0,SII0 [h(xτ , tτ )] SI SII (x0 ,t0 ,2) ≤ ı́nf sup ESI ,SII [h(xτ , tτ )] ≤ v ε (x0 , t0 ) + δ. SII SI Como δ > 0 es arbitrario hemos terminado la demostración. Resumiendo, en esta sección hemos construido primero una solución del DPP (2.1.2), y luego probamos que el juego tiene valor, y este valor es igual a cualquier solución del DPP. Con esto hemos terminado la sección. 2.5. Convergencia uniforme En esta sección estamos interesados en pasar al límite en el valor del juego para obtener uε → u y v ε → v, cuando ε → 0, uniformemente en Ω × [0, T ], y en la próxima sección probaremos que (u, v) es solución viscosa del sistema (2.1.1). Para obtener la convergencia vía una subsucesión vamos a usar el siguiente Lema tipo Arzela-Ascoli para uε y v ε . Para la demostración del Lema ver Lemma 4.2 de [44]. Lema 2.5.1 (Lema tipo Azela-Ascoli). Sea {wε : Ω × [0, T ] → R, ε > 0} una función que verifica 1. Existe C > 0 tal que |wε (x, t)| < C para todo ε > 0 y x ∈ Ω, t ∈ [0, T ], 2. Dado δ > 0 existen constantes r0 > 0 y ε0 > 0 tal que para todo ε < ε0 y x, y ∈ Ω con |x − y| < r0 y t, s ∈ [0, T ] tal que |t − s| < r0 , vale lo siguiente |wε (x, t) − wε (y, s)| < δ. Entonces, existe una función uniformemente continua w : Ω×[0, T ] → R y una subsucesión que seguiremos llamando {wε } tal que wε → w uniformemente en Ω × [0, T ], cuando ε → 0. 43 Nuestro objetivo es probar que uε y v ε satisfacen las hipótesis del lema previo. Primero, veamos que las funciones están uniformemente acotadas. Lema 2.5.2. Existe una constante C > 0, independiente de ε, tal que |uε (x, t)| ≤ C, |v ε (x, t)| ≤ C, para todo ε > 0 y (x, t) ∈ Ω × [0, T ]. Demostración. Notar que podemos tomar C = máx{kgk∞ , kf k∞ , ku0 k∞ }, dado que el valor del juego está acotado por esta contante C. Para probar la segunda hipotesis del lema 2.5.1 vamos a necesitar algunas estimaciones dependiendo del tablero donde estamos. 2.5.1. Estimaciones para el juego Tug-of-War Vamos a asumir que estamos jugando permanentemente en el primer tablero (jugando Tug-of-War). Vamos  a introducir   la siguientes  notaciones: ΩT = Ω × (0, T ) para el cilindro parabólico, y ∂p ΩT = ∂Ω × [0, T ) ∪ Ω × {0} para el borde parabólico. Lema 2.5.3. Sean η > 0 y a > 0, existen r0 > 0 y ε0 > 0 tal que, si (y, s) ∈ ∂p ΩT y (x0 , t0 ) ∈ ΩT con |x0 − y| < r0 , |t0 − s| < r0 , uno de los dos jugadores tiene una estrategia S ∗ con la cual obtenemos    a  P |xτ − y| < a ≥ 1 − η, P |tτ − s| < a ≥ 1 − η and P τ ≥ 2 < η, 2ε para ε < ε0 , y donde (xτ , tτ ) denota la primera posición fuera de Ω × (0, T ). Demostración. Consideremos dos casos dependiendo de la posición de (y, s) ∈ ∂p ΩT . Caso 1: Si (y, s) ∈ ∂Ω × [0, T ). Podemos asumir sin perdida de generalidad que y = 0 ∈ ∂Ω. Vamos a considerar la estrategia S ∗ (usada por cualquiera de los dos jugadores) que viene dada por ”apuntar al punto y = 0”. Esta estrategia se define de la siguiente manera   ε3 x xk+1 = S ∗ x0 , x1 , ..., xk = xk + k − ε k , 2 |xk | si |xk | ≥ ε, y en otro caso xk+1 = 0. Notar que la estrategia depende únicamente de la posición xk , no del tiempo tk (que es determinístico, tk+1 = tk − ε2 , luego no afecta la elección dadas por las estrategias). Consideremos la sucesión de variables aleatorias ε3 Nk = |xk | + 2k 44 para k ≥ 0 y asumiendo que uno de los jugadores usa la estrategia S ∗ . El objetivo es probar que {Nk }k≥0 es supermartingala, es decir, E[Nk+1 |Nk ] ≤ Nk . Notar que con probabilidad 1/2 llegamos a  ε3 x k xk+1 = xk + −ε 2k |xk | este es el caso en el que el jugador que usa la estrategia S ∗ gana el lanzamiento de la moneda. Por otro lado, tenemos que |xk+1 | ≤ |xk | + ε, cuando gana el otro jugador (no importa que estrategia use). Luego, llegamos a h i 1 ε3  1 ε3 E |xk+1 ||xk ≤ |xk | + ( k − ε) + (|xk | + ε) = |xk | + k+1 . 2 2 2 2 Por lo tanto, podemos deducir que h i h ε3 ε3 i ε3 ε3 E Nk+1 |Nk = E |xk+1 | + k+1 ||xk | + k ≤ |xk | + k+1 + k+1 = Nk . 2 2 2 2 Así hemos probado que {Nk }k≥0 es una supermartingala. Ahora bien, consideremos las variables aleatorias (Nk+1 − Nk )2 , y el evento n o Fk = el jugador que apunta a 0 ∈ ∂Ω gana el lanzamiento de la moneda en el paso k . (2.5.8) Entonces tenemos la siguiente estimación 1 1 E[(Nk+1 − Nk )2 |Nk ] = E[(Nk+1 − Nk )2 |Nk ∧ Fk ] + E[(Nk+1 − Nk )2 |Nk ∧ Fkc ] 2 2 1 ≥ E[(Nk+1 − Nk )2 |Nk ∧ Fk ]. 2 Observar que cuando |xk | ≥ ε vale 1 1 h ε3 ε3 ε3 i E[(Nk+1 − Nk )2 |Nk ∧ Fk ] = E (|xk | − ε + k + k+1 − |xk | − k )2 2 2 2 2 2 1 h ε 3 i ε 2 = E (−ε + k+1 )2 ≥ , 2 2 3 si ε < ε0 para ε0 suficientemente chico. Por otro lado, si |xk | < ε vale que xk+1 = 0, entonces 1 1 h ε3 ε3 i E[(Nk+1 − Nk )2 |Nk ∧ Fk ] = E ( k+1 − |xk | − k )2 2 2 2 2 1 h ε 3 i ε 2 > E (−ε − k+1 )2 ≥ , 2 2 3 45 obtenemos la misma estimación. Así llegamos a ε2 E[(Nk+1 − Nk )2 |Nk ] ≥ . (2.5.9) 3 Ahora, analicemos Nk2 − Nk+1 2 , tenemos Nk2 − Nk+1 2 = (Nk+1 − Nk )2 + 2Nk+1 (Nk − Nk+1 ). (2.5.10) Probemos que E[Nk+1 (Nk − Nk+1 )|Nk ] ≥ 0 usando el conjunto Fk definido en (2.5.8), E[Nk+1 (Nk − Nk+1 )|Nk ] 1 1 = E[Nk+1 (Nk − Nk+1 )|Nk ∧ Fk ] + E[Nk+1 (Nk − Nk+1 )|Nk ∧ Fkc ] 2 2 1 h ε 3 ε 3 ε3 ε3 ε3 i = (|xk | − ε + k + k+1 )(|xk | + k − |xk | + ε − k − k+1 ) 2 2 2 2 2 2 1 h ε 3 ε 3 ε 3 i + (|xk+1 | + k+1 )(|xk | + k − |xk+1 | − k+1 ) 2 2 2 2 1  ε 3 ε 3  ε 3  ≥ |xk | − ε + k + k+1 ε − k+1 2 2 2 2 1 h ε 3 ε3 ε3 i + (|xk | − ε + k+1 )(|xk | + k − |xk | − ε − k+1 ) , 2 2 2 2 aquí usamos que |xk | − ε ≤ |xk+1 | ≤ |xk | + ε. Luego, llegamos a 1 ε3 ε3 ε3 E[Nk+1 (Nk − Nk+1 )|Nk ] ≥ (|xk | − ε + k+1 + k )(ε − k+1 ) 2 2 2 2 1 ε 3 ε 3 + (|xk | − ε + k+1 )(−ε + k+1 ), 2 2 2 y entonces obtenemos, 1 h ε3 ε3 i E[Nk+1 (Nk − Nk+1 )|Nk ] ≥ (ε − ) ≥ 0. 2 2k 2k+1 Si volvemos a (2.5.10) y usamos (2.5.9) y el resultado que acabamos de obtener llegamos a ε2 E[Nk2 − Nk+1 2 |Nk ] ≥ E[(Nk+1 − Nk )2 |Nk ] ≥ . 3 Ahora, dada la sucesión de variables aleatorias kε2 Wk = Nk2 + 3 obtenemos ε2 E[Wk − Wk+1 |Wk ] = E[Nk2 − Nk+1 2 − |Wk ] ≥ 0. 3 46 Como E[Wk |Wk ] = Wk llegamos a E[Wk+1 |Wk ] ≤ Wk . Con esto probamos que {Wk }k≥1 ss una supermartingala. Si usamos el OSTh, para un m ∈ N definimos el tiempo de parada τm = τ ∧ m := mı́n{τ, m}. Este nuevo tiempo de parada verifica que τm ≤ m (la primera hipótesis del OSTh). Luego obtenemos E[Wτm ] ≤ W0 . Observar que lı́m τ ∧ m = τ casi seguramente. Entonces, usando el Lema de Fatou, llegamos a m→∞ E[Wτ ] = E[lı́m inf Wτ ∧m ] ≤ lı́m inf E[Wτ ∧m ] ≤ W0 . m |{z} m |{z} F atou OST h Así obtenemos E[Wτ ] ≤ W0 , i.e., h τ ε2 i E Nτ2 + ≤ N02 . (2.5.11) 3 Por lo tanto E[τ ] ≤ 3(|x0 | + ε3 )2 ε−2 ≤ 4|x0 |2 ε−2 si ε es suficientemente chico. Por otro lado, si volvemos a (2.5.11) tenemos E[Nτ2 ] ≤ N02 , i.e. h ε3 i E[|xτ |2 ] ≤ E (|xτ | + τ )2 ≤ (|x0 | + ε3 )2 ≤ 2|x0 |2 . 2 Hasta ahora lo que tenemos es E[τ ] ≤ 4|x0 |2 ε−2 y E[|xτ |2 ] ≤ 2|x0 |2 . Dados η > 0 y a > 0, tomemos x0 ∈ Ω tal que |x0 | < r0 con r0 que elegiremos luego (va a depender de η y a). Así llegamos a  a  a Cr02 ε−2 ≥ C|x0 |2 ε−2 ≥ Ex0 [τ ] ≥ P τ ≥ 2 . 2ε 2ε2 Luego  a  r2 P τ ≥ 2 ≤ 2C 0 < η (2.5.12) 2ε a q ηa lo que es cierto si r0 < 2C . Ahora, si volvemos a (2.5.12) obtenemos  a  a P τ ε2 < ≥1−η ⇒ P t0 − τ ε 2 > t 0 − ≥ 1 − η. 2 2 47 Entonces, usando que tτ < t0 , tenemos  a P |tτ − t0 | < ≥ 1 − η. 2 Observar que, si tomamos r0 < a2 , llegamos a a |tτ − s| ≤ |tτ − t0 | + |t0 − s| < |tτ − t0 | + . 2 Luego n ao n o |tτ − t0 | < ⊆ |tτ − s| < a , 2 y podemos concluir que   P |tτ − s| < a ≥ 1 − η. Para finalizar este caso, veamos que también vale Cr02 ≥ C|x0 |2 ≥ Ex0 [|xτ |2 ] ≥ a2 P(|xτ |2 ≥ a2 ). Entonces r02 P(|xτ | ≥ a) ≤ C < η, a2 q q q ηa2 ηa2 ηa lo cual es cierto si r0 < C .Observar que si tomamos a < 1/2 tenemos que C < 2C , luego, si q 2 tomamos r0 < ηa C las dos condiciones se dan al mismo tiempo. Caso 2: Supongamos que s = 0, es decir, tenemos un punto (y, 0) con y ∈ Ω. Una vez más, usaremos la estrategia para uno de los dos jugadores de apuntar a y, como definimos más arriba. Es decir   ε3  y−x xk+1 = S ∗ x0 , ..., xk = xk + k − ε k , 2 |y − xk | si |xk − y| ≥ ε y xk+1 = y en otro caso. Podemos asumir, sin perdida de generalidad que el jugador I usa esta estrategia. Supongamos que 0 < t0 < r0 para r0 chico (lo elegiremos después). Entonces el tiempo de parada está acotado. En efecto τ ≤ [ εr02 ] con probabilidad 1. Llamaremos M = [ εr02 ]. Dado que tτ < t0 , tomemos r0 ≤ a/2 para obtener a P(τ ≥ 2 ) = 0 y P(|tτ | < a) = 1. 2ε y definamos la siguiente sucesión de variables aleatorias   1 si el jugador II gana, Xk =  −1 si el jugador I gana, para k ≥ 1, y X k Zk = Xk . j=1 48 Observar que Xk son independientes y E[Xk ] = 0, así como V[Xk ] = 1. Luego, E[Zk ] = 0 y V[Zk ] = k. Si usamos el Teorema de Chevichev (ver [28]) obtenemos a V[ZM ] M 4ε2 ( εr02 + 1)ε2 4r0 4ε2 P(|ZM | ≥ )≤ a 2 = ≤ 4 ≤ + 2 <η 2ε ( 2ε ) a2 a2 a2 a si 4r0 η 2 < a 2 y 4ε2 η 2 < . a 2 a Esto nos dice que la probabilidad de que el jugador II gane 2ε más turnos que el jugador I es chica. Entonces podemos deducir que a P(|xτ − x0 | ≥ ) < η. 2 Aquí usamos que lo máximo que nos podemos alejar de x0 is ε en cada paso. Ahora, si tomamos r0 < a2 , llegamos a a |xτ − y| ≤ |xτ − x0 | + |x0 − y| < |xτ − x0 | + . 2 Luego, obtenemos n o n ao |xτ − y| ≥ a ⊆ |xτ − x0 | ≥ , 2 y podemos concluir que P(|xτ − y| ≥ a) < η. Esto da por terminada la demostración. 2.5.2. Estimaciones para el juego paseos al azar En este caso vamos a asumir que jugamos permanentemente en el segundo tablero, jugando paseos al azar, sin cambiar el tiempo t. Por eso, vamos a omitir la variable j, y la esperanza es tomada usando la medida de probabilidad uniforme en la bola de radio ε correspondiente. Las estimaciones son similares a las hechas antes, pero con la ventaja de no tener estrategias involucradas. Proporcionaremos las principales ideas de las demostraciones, para más detalles ver [47]. Recordar que en este tablero la variable temporal t no se modifica.   Lema 2.5.4. Dado η > 0 y a > 0, existe r0 > 0 y ε0 > 0 tal que, dados (y, s) ∈ ∂Ω × (0, T ) y x0 ∈ Ω con |x0 − y| < r0 , si jugamos paseos al azar en Ω × {s} obtenemos    a  P |xτ − y| < a ≥ 1 − η y P τ ≥ 2 <η 2ε para ε < ε0 y (xτ , s) la primera posición fuera de Ω × (0, T ]. 49 Demostración. Vamos a incluir una versión resumida de esta prueba. Para más detalles ver [47]. Asumimos que la dimensión ambiente verifica N ≥ 3 (los casos N = 1, 2 son similares). Para comenzar, dado θ < θ0 , y y ∈ Ω vamos a asumir sin perdida de generalidad que el centro de la bola exterior que tiene a y en el borde es zy = 0, con lo que Bθ (0) ∩ Ω = {y}. Definimos el conjunto Ωε = {x ∈ RN : d(x, Ω) < ε} para ε suficientemente chico. Ahora, consideremos la función µ : Ωε → R dada por 1 1 µ(x) = − . θN −2 |x|N −2 Esta función es positiva en Ω\{y}, es radial, creciente (respecto del radio), y armónica en Ω. Observar también que µ(y) = 0. Tomemos la primera posición del juego, x0 ∈ Ω, tal que |x0 − y| < r0 con r0 chico (que elegiremos más adelante). Sea (xk )k≥0 la sucesión de posiciones del juego moviéndonos al azar, y consideremos la sucesión de variables aleatorias Nk = µ(xk ), para k ≥ 0. Como µ es armónica, obtenemos que Nk es una martingala. En efecto Z E[Nk+1 |Nk ] = µ(y)dy = µ(xk ) = Nk . Bε (xk ) Dado que µ es acotada en Ω, se verifica la tercer hipótesis de OSTh, por lo tanto obtenemos E[µ(xτ )] = µ(x0 ). Tenemos la siguiente estimación para µ(x0 ): existe una constante c(Ω, θ) > 0 tal que µ(x0 ) ≤ c(Ω, θ)r0 . Necesitamos establecer una relación entre µ(xτ ) y |xτ − y|. Para eso, tomemos la función b : [θ, +∞) → R dada por 1 1 b(a) = N −2 − N −2 . θ a Notar que esta función es la versión en una dimensión de µ, luego es positiva y creciente. Entonces, tiene una inversa que también es creciente dada por la siguiente fórmula θ a(b) = 1 . (1 − θN −2 b) N −2 Utilizando esta función vamos a obtener el siguiente resultado: dado a > 0, existe a > θ, b > 0 y ε0 > 0 tal que si µ(xτ ) < b ⇒ |xτ − y| < a , d(xτ , Ω) < ε0 . Entonces, llegamos a P(µ(xτ ) ≥ b) ≥ P(|xτ − y| ≥ a), y por lo tanto P(|xτ − y| ≥ a) < η 50 si r0 es chico. Consideremos Z E[Nk+1 2 − Nk2 |Nk ] = (µ2 (w) − µ2 (xk ))dw. Bε (xk ) Utilizando la expansión de Taylor de orden dos obtenemos E[Nk+1 2 − Nk2 |Nk ] ≥ σ(Ω)ε2 . Entonces, con argumentos similares a los usados antes llegamos a  a  P τ ≥ 2 <η 2ε para r0 > 0 suficientemente chico. Ya estamos listos para probar la segunda hipótesis del lema tipo Arzela-Ascoli. Lema 2.5.5. Sea δ > 0, existen r0 > 0 y ε0 > 0 tal que para todo 0 < ε < ε0 y cualquier x, y ∈ Ω con |x − y| < r0 y |t − s| < r0 se verifica |uε (x, t) − uε (y, s)| < δ y |v ε (x, t) − v ε (y, s)| < δ. Demostración. Vamos a comenzar con las estimaciones para uε . Observar que uε es el valor del juego comenzando en el primer tablero (donde jugamos Tug-of-War). En primer lugar vamos a tomar dos puntos (x, t) y (y, s) con (y, s) ∈ ∂p ΩT y (x, t) ∈ ΩT . Definamos la siguiente función w : [(RN \Ω × (0, T ]) ∪ (RN × {0})] → R, dada por   f (x, t) si t ≥ 0, x ∈ / Ω, w(x, t) =  u (x) si t = 0, x ∈ Ω. 0 Por las condiciones de los datos, la función w está bien definida, es Lipschitz en ambas variables, esto es |w(x, t) − w(y, s)| ≤ L(|x − y| + |t − s|), recordar que f , g y u0 las consideramos Lipschitz. Observemos que si tenemos t > 0 y s = 0 con x ∈ RN \ Ω, y ∈ Ω, llegamos a |f (x, t) − u0 (y)| ≤ L(|x − y| + |t|). Dado η > 0 y a > 0, tenemos valores r0 , ε0 y una estrategia SI∗ como en el lema 2.5.3. Sea n a a o F = la posición no cambia en las primeras d 2 e jugadas y τ < d 2 e . 2ε 2ε Vamos a considerar dos casos. Primero vamos a acotar uε (x0 , t0 ) − w(y, s) por abajo, y luego por arriba. Para la acotación por abajo usamos la estrategia especial para el jugador I, mientras que para la otra acotación será el jugador II quien use la estrategia especial. 51 Caso 1: Vamos a probar que uε (x0 , t0 ) − w(y, s) ≥ −A(a, η) con A(a, η) & 0 si a → 0 y η → 0. Tenemos (x ,t ,1) uε (x0 , t0 ) ≥ ı́nf ES ∗0,SII0 [h(xτ , tτ )]. SII I Ahora, usando propiedades de probabilidad obtenemos (x ,t ,1) (x ,t ,1) (x ,t ,1) ES ∗0,SII0 [h(xτ , tτ )] = ES ∗0,SII0 [h(xτ , tτ )|F ]P(F ) + ES ∗0,SII0 [h(xτ , tτ )|F c ]P(F c ) I I I (x ,t ,1) ≥ ES ∗0,SII0 [w(xτ , tτ )|F ]P(F ) − máx{|f |, |g|, |u0 |}P(F c ). I Aquí usamos que el pago final, denominado h, viene dado por f , g o u0 , y que bajo la condición F c no tenemos control del tablero donde el juego va a terminar. Vamos a estimar ahora P(F ) y P(F c ). Tenemos  a  a P(F c ) ≤ P el juego cambia de tablero antes de d 2 e jugadas + P(τ ≥ d 2 e). 2ε 2ε Vamos a acotar cada término. Primero tenemos que  a  P el juego cambia de tablero antes de d 2 e jugadas 2ε (2.5.13) a −a/2 = 1 − (1 − ε ) 2 2ε2 ≤1−e +η a si ε es suficientemente chico. Aquí usamos que (1 − ε2 ) 2ε2 % e−a/2 . Ahora, si usamos el lema 2.5.3 obtenemos  a   a  P τ ≥ 2 ≤ P τ ≥ 2 < η, (2.5.14) 2ε 2ε0 para ε < ε0 . Tomando (2.5.13) y (2.5.14) obtenemos P(F c ) ≤ (1 − e−a/2 ) + η + η = (1 − e−a/2 ) + 2η, y luego P(F ) = 1 − P(F c ) ≥ 1 − [(1 − e−a/2 ) + 2η]. Así, llegamos a ES ∗0,SII0 [h(xτ , tτ )] ≥ ES ∗0,SII0 [w(xτ , tτ )|F ](1 − [(1 − e−a/2 ) + 2η]) (x ,t ,1) (x ,t ,1) I I (2.5.15) −a/2 − máx{|f |, |g|, |u0 |}[(1 − e ) + 2η]. (x ,t ,1) Analicemos ahora la esperanza ES ∗0,SII0 [w(xτ , tτ )|F ]. Nuevamente vamos a considerar dos eventos I F1 = F ∩ [{|xτ − y| < a} ∩ {|tτ − s| < a}] and F2 = F ∩ F1c . Luego, vale que F = F1 ∪ F2 . Entonces (x ,t ,1) ES ∗0,SII0 [w(xτ , tτ )|F ] I (2.5.16) (x ,t ,1) (x ,t ,1) = ES ∗0,SII0 [w(xτ , tτ )|F1 ]P(F1 ) + ES ∗0,SII0 [w(xτ , tτ )|F2 ]P(F2 ). I I 52 Ahora bien, tenemos que P(F2 ) ≤ P([{|xτ − y| < a} ∩ {|tτ − s| < a}]c ) = P ({|xτ − y| ≥ a} ∪ {|tτ − s| ≥ a}) (2.5.17) ≤ P(|xτ − y| ≥ a) + P(|tτ − s| ≥ a) < 2η. Para la otra acotación observar que F1c = F c ∪ {|xτ − y| ≥ a} ∪ {|tτ − s| ≥ a}. Luego P(F1 ) = 1 − P(F1c ) ≥ 1 − [P(F c ) + P(|xτ − y| ≥ a) + P(|tτ − s| ≥ a)], y por lo tanto llegamos a P(F1 ) ≥ 1 − [(1 − e−a ) + 2η + η + η] = 1 − [(1 − e−a ) + 4η]. (2.5.18) Si volvemos a (2.5.16), usamos (2.5.18) y (2.5.17) obtenemos (x ,t ,1) ES ∗0,SII0 [w(xτ , tτ )|F ] I ≥ ES ∗0,SII0 [w(xτ , tτ )|F1 ](1 − [(1 − e−a ) + 4η]) − máx{|f |, |u0 |}2η. (x ,t ,1) I Usando que w es Lipschitz obtenemos w(xτ , tτ ) ≥ w(y, s) − L(|xτ − y| + |tτ − s|) ≥ w(y, s) − 2La, y usando que (w(y, s) − 2La) no depende de las estrategias, podemos concluir ES ∗0,SII0 [w(xτ , tτ )|F ] ≥ (w(y, s) − 2La)(1 − [(1 − e−a ) + 4η]) − máx{|f |, |u0 |}2η. (x ,t ,1) I Retomando (2.5.15) obtenemos (x ,t ,1) ES ∗0,SII0 [h(xτ , tτ )] I ≥ ((w(y, s) − 2La)(1 − [(1 − e−a ) + 4η]) − máx{|f |, |u0 |}2η)(1 − [(1 − e−a ) + 2η]) − máx{|f |, |g|, |u0 |}[(1 − e−a ) + 2η]. Notar que cuando η → 0 y a → 0 el lado derecho tiende a w(y, s), por lo tanto llegamos a (x ,t ,1) ES ∗0,SII0 [h(xτ , tτ )] ≥ w(y, s) − A(a, η). I Tomando ínfimo sobre todas las posibles estrategias SII y luego supremo sobre SI obtenemos uε (x0 , t0 ) ≥ w(y, s) − A(a, η), con A(a, η) → 0 cuando η → 0 y a → 0 como queríamos probar. 53 Caso 2: En este caso vamos a probar uε (x0 , t0 ) − w(y, s) ≤ B(a, η) con B(a, η) & 0 cuando η → 0 y a → 0. En este caso supondremos que la estrategia S ∗ del Lema 2.5.3 ∗ , así obtenemos va a ser usada por el jugador II: SII uε (x0 , t0 ) ≤ sup ExS0I ,S ∗ [h(xτ , tτ )]. II SI Usaremos nuevamente el conjunto F que utilizamos anteriormente (x ,t ,1) (x ,t ,1) (x ,t ,1) ESI0,S ∗0 [h(xτ , tτ )] = ESI0,S ∗0 [w(xτ , tτ )|F ]P(F ) + ESI0,S ∗0 [h(xτ , tτ )|F c ]P(F c ). II II II Llegamos a P(F ) ≤ 1 y P(F c ) ≤ (1 − e−a/2 ) + 2η. Luego, obtenemos ESI0,S ∗0 [h(xτ , tτ )] ≤ ESI0,S ∗0 [w(xτ , tτ )|F ] + máx{|f |, |g|, |u0 |}[(1 − e−a/2 ) + 2η]. (x ,t ,1) (x ,t ,1) II II (x ,t ,1) Para obtener una cota ESI0,S ∗0 [w(xτ , tτ )|F ] vamos a usar nuevamente los conjuntos F1 y F2 . Así II (x ,t ,1) (x ,t ,1) (x ,t ,1) ESI0,S ∗0 [w(xτ , tτ )|F ] = ESI0,S ∗0 [w(xτ , tτ )|F1 ]P(F1 ) + ESI0,S ∗0 [w(xτ , tτ )|F2 ]P(F2 ). II II II Ahora bien, usamos P(F1 ) ≤ 1 y P(F2 ) ≤ 2η para llegar a (x ,t ,1) (x ,t ,1) ESI0,S ∗0 [w(xτ , tτ )|F ] ≤ ESI0,S ∗0 [w(xτ , tτ )|F1 ] + máx{|f |, |u0 |}2η. II II Usando que w es una función Lipschitz y (w(y, s) + 2La) no depende de las estrategias de los jugadores obtenemos (x ,t ,1) ESI0,S ∗0 [w(xτ , tτ )|F ] II (x ,t ,1) ≤ ESI0,S ∗0 [w(y, s) + 2La|F1 ] + máx{|f |}2η II ≤ (w(y, s) + 2La) + máx{|f |, |u0 |}2η. Finalmente, podemos concluir que (x ,t ,1) ESI0,S ∗0 [h(xτ , tτ )] II ≤ w(y, s) + 2La + máx{|f |, |u0 |}2η + máx{|f |, |g|, |u0 |}[(1 − e−a/2 ) + 2η]. Ya hemos probado que (x ,t ,1) ESI0,S ∗0 [h(xτ , tτ )] ≤ w(y, s) + B(a, η), II con B(a, η) → 0. Si tomamos supremo sobre las estrategias del jugador I, y luego infimo sobre las estrategias del jugador 2 obtenemos uε (x0 , t0 ) ≤ w(y, s) + B(a, η) 54 con B(a, η) → 0 cuando η → 0 y a → 0. Por lo tanto |uε (x0 , t0 ) − w(y, s)| < máx{A(a, η), B(a, η)}, lo que se verifica si (y, s) ∈ ∂p ΩT y (x0 , t0 ) ∈ ΩT cercano a (y, s). A través de una estimación análoga podemos obtener los mismos resultados para v ε , por lo que omitimos los detalles. Ahora, dados dos puntos (x0 , t0 , j) y (z0 , s0 , j) en ΩT con |x0 − z0 | < r0 y |t0 − s0 | < r0 , vamos a acoplar los juegos comenzando en (x0 , t0 , j) con el juego comenzando en (z0 , s0 , j) haciendo los mismos movimientos, y cambiando de tablero de manera simultánea. Este acoplamiento genera dos sucesiones de posiciones (xi , ti , ji ) y (zi , si , ki ) tal que |xi − zi | < r0 , |ti − si | < r0 y ji = ki (dado que los juegos cambian de tablero en simultáneo, los juegos van a estar siempre en el mismo tablero). Esto continúa hasta que uno de los dos juegos termina (digamos (xτ , tτ ) 6∈ Ω × (0, T )). En este momento el juego que comienza en (z0 , s0 , j) se encuentra en el punto (zτ , sτ ), que se encuentra cerca del punto fuera del dominio (xτ , tτ ) 6∈ Ω × (0, T ) en el mismo tablero (pues |xτ − zτ | < r0 y |tτ − sτ | < r0 ), entonces podemos utilizar las estimaciones previas para concluir que |uε (x0 , t0 ) − uε (z0 , s0 )| < δ, y |v ε (x0 , t0 ) − v ε (z0 , s0 )| < δ. Esto finaliza la demostración. Como consecuencia de este resultado tenemos convergencia de (uε , v ε ) y ε → 0 a través de una subsucesión. Teorema 2.5.1. Sea (uε , v ε ) solución del DPP (2.1.2), entonces existe una subsucesión εk → 0 y un par de funciones (u, v) continuas en Ω tal que uεk → u, y v εk → v, uniformemente en Ω × [0, T ]. Demostración. El Lema 2.5.2 y el Lema 2.5.5 implican que podemos usar el lema de tipo Arzela-Ascoli (Lema 2.5.1), y obtener la convergencia uniforme. 2.6. Existencia de soluciones viscosas En esta sección vamos a usar argumentos de teoría viscosa para probar que el límite uniforme vía una subsucesión del valor del juego (que existe gracias al Teorema 2.5.1) es solución viscosa del sistema parabólico/elíptico (2.1.1). Esto es parte de la prueba del Teorema 2.1.2. Lema 2.6.1. Sea (u, v) el límite uniforme a través de una subsucesión del valor del juego, (uε , v ε ), cuando ε → 0. Entonces (u, v) es solución viscosa del sistema parabólico/elíptico (2.1.1). 55 Demostración. Por hipótesis existe una subsucesión εk → 0 y un par de funciones continuas (u, v) en Ω tal que uεk → u, y v εk → v, uniformemente en Ω × [0, T ). Tenemos que (uεk , v εk ) verifican  ε   u k (x, t) = f (x, t) x ∈ RN \Ω, t ∈ [0, T ),   v εk (x, t) = g(x, t) x ∈ RN \Ω, t ∈ [0, T ),     εk u (x, 0) = u0 (x) x ∈ Ω, entonces llegamos a que el límite uniforme verifica    u(x, t) = f (x, t) x ∈ ∂Ω, t ∈ [0, T ),   v(x, t) = g(x, t) x ∈ ∂Ω, t ∈ [0, T ),     u(x, 0) = u0 (x) x ∈ Ω. Luego, nuestro objetivo es probar que (u, v) es solución viscosa del sistema parabólico/elíptico (2.1.1) en Ω × (0, T ]. Primera ecuación. Sea ϕ ∈ C 2,1 (Ω × (0, T ]) tal que (u − ϕ)(x0 , t0 ) tiene un máximo estricto en (x0 , t0 ) con (u − ϕ)(x0 , t0 ) = 0 (máximo en ambas variables x y t). Entonces existe una sucesión (xε , tε )ε>0 tal que xε → x0 y tε → t0 cuando ε → 0, y uε (y, t) − ϕ(y, t) ≤ uε (xε , tε ) − ϕ(xε , tε ) + ε3 si y ∈ Ω, t ∈ (0, T ]. Entonces obtenemos uε (y, t) − uε (xε , tε ) ≤ ϕ(y, t) − ϕ(xε , tε ) + ε3 . (2.6.19) Si usamos el DPP (2.1.2) para uε en (xε , tε ) llegamos a n1 1 o u (xε , tε ) = ε v (xε , tε ) + (1 − ε ) ε 2 ε 2 sup u (y, tε − ε ) + ε ı́nf u (y, tε − ε ) . 2 ε 2 2 y∈Bε (xε ) 2 y∈Bε (xε ) Por lo tanto si sumamos y sustraemos uε (xε , tε − ε2 ), nos queda h i 0 = ε2 v ε (xε , tε ) − uε (xε , tε ) − uε (xε , tε − ε2 ) 1 h i +(1 − ε2 ) sup uε (y, tε − ε2 ) − uε (xε , tε − ε2 ) 2 y∈Bε (xε ) 1 h i +(1 − ε2 ) ı́nf uε (y, tε − ε2 ) − uε (xε , tε − ε2 ) − ε2 uε (xε , tε − ε2 ). 2 y∈Bε (xε ) 56 Ahora bien, usando (2.6.19) obtenemos h i 0 ≤ ε2 v ε (xε , tε ) − ϕ(xε , tε ) − ϕ(xε , tε − ε2 ) h i 2 1 +(1 − ε ) sup ϕ(y, tε − ε ) − ϕ(xε , tε − ε ) 2 2 2 y∈Bε (xε ) 1 h i +(1 − ε2 ) ı́nf ϕ(y, tε − ε2 ) − ϕ(xε , tε − ε2 ) + ε3 − ε2 uε (xε , tε − ε2 ). 2 y∈Bε (xε ) Supongamos que ∇ϕ(x0 , t0 ) 6= 0, entonces ∇ϕ(xε , tε − ε2 ) 6= 0 para ε suficientemente chico. Llamemos ∇ϕ(xε , tε − ε2 ) ∇ϕ(x0 , t0 ) wε = y w0 = . |∇ϕ(xε , tε − ε2 )| |∇ϕ(x0 , t0 )| Observar que wε → w0 si ε → 0. Entonces sup ϕ(y, tε − ε2 ) ∼ ϕ(xε + εwε , tε − ε2 ), y∈Bε (xε ) y ı́nf ϕ(y, tε − ε2 ) ∼ ϕ(xε − εwε , tε − ε2 ). y∈Bε (xε ) En efecto, como ∇ϕ(x0 , t0 ) 6= 0 el máximo (y también el mínimo) de ϕ in Bε (xε ) se verifica en un punto xεm ∈ ∂Bε (xε ) para ε chico. Podemos escribir xεm = xε + εzε . Ahora bien, haciendo una expansión de Taylor llegamos a εh∇ϕ(xε , tε − ε2 ), wε i + o(ε) ≤ εh∇ϕ(xε , tε − ε2 ), zε i + o(ε) ≤ εh∇ϕ(xε , tε − ε2 ), wε i + o(ε). Si cdividimos por ε y tomamos límite ε → 0 obtenemos h∇ϕ(x0 , t0 ), w0 i = h∇ϕ(x0 , t0 ), z0 i siendo zε → z0 . Por lo tanto, como |w0 | = |z0 | = 1 llegamos a que z0 = w0 . Luego, arribamos a h i 0 ≤ ε2 v ε (xε , tε ) − ϕ(xε , tε ) − ϕ(xε , tε − ε2 ) 1h i +(1 − ε2 ) ϕ(xε + εzε , tε − ε2 ) − ϕ(xε , tε − ε2 ) 2 1h i +(1 − ε2 ) ϕ(xε − εzε , tε − ε2 ) − ϕ(xε , tε − ε2 ) 2 −ε u (xε , tε − ε2 ) + o(ε2 ). 2 ε Usando Taylor sobre ϕ respecto a la variable espacial (xε , tε − ε2 ) obtenemos ϕ(xε + εzε , tε − ε2 ) − ϕ(xε , tε − ε2 ) = εh∇ϕ(xε , tε − ε2 ), zε i 1 +ε2 hD2 ϕ(xε , tε − ε2 )zε , zε i + o(ε2 ) 2 57 ϕ(xε − εzε , tε − ε2 ) − ϕ(xε , tε − ε2 ) = −εh∇ϕ(xε , tε − ε2 ), zε i 1 +ε2 hD2 ϕ(xε , tε − ε2 )zε , zε i + o(ε2 ). 2 Luego, dividiendo por ε2 , deducimos ϕ(xε , tε ) − ϕ(xε , tε − ε2 ) 0 ≤ v ε (xε , tε ) − ε2 1 o(ε2 ) +(1 − ε2 ) hD2 ϕ(xε , tε − ε2 )zε , zε i + 2 − uε (xε , tε − ε2 ). 2 ε Tomando límite ε → 0 concluimos ∂ϕ 1 0 ≤ v(x0 , t0 ) − (x0 , t0 ) + hD2 ϕ(x0 , t0 )w0 , w0 i − u(x0 , t0 ) ∂t 2 i.e. ∂ϕ 1 (x0 , t0 ) − ∆∞ ϕ(x0 , t0 ) + u(x0 , t0 ) − v(x0 , t0 ) ≤ 0, ∂t 2 como queríamos probar. La desigualdad opuesta para una función test que toca por abajo a u se obtiene de manera análoga. Con esto probamos que u es solución viscosa de (2.1.1). Segunda ecuación. Veamos ahora que v es solución viscosa de κ − ∆v(x, t) + v(x, t) − u(x, t) = 0. 2 Vamos a probar que v es subsolución. Dado t > 0, sea ψ ∈ C 2 (Ω) tal que v(x0 , t) − ψ(x0 ) = 0 tiene un máximo estricto v(·, t) − ψ en x0 ∈ Ω. Como antes, existe un sucesión (xε )ε>0 tal que xε → x0 y v ε (y, t) − v ε (xε , t) ≤ ψ(y) − ψ(xε ) + ε3 . (2.6.20) Luego, usando el DPP (2.1.2) en el punto (xε , t), obtenemos Z 2 1 0 = (u (xε , t) − v (xε , t)) + (1 − ε ) 2 ε ε (v ε (y, t) − v ε (xε , t))dy. ε Bε (xε ) Usando (2.6.20) llegamos a Z 1 0 ≤ (uε (xε , t) − v ε (xε , t)) + (1 − ε2 ) (ψ(y) − ψ(xε ))dy + (1 − ε2 )ε. ε2 Bε (xε ) Usando la expansión de Taylor se llega a Z κX n 1 κ (ψ(y) − ψ(xε ))dy = ∂xj xj ψ(xε ) = ∆ψ(xε ), ε2 Bε (xε ) 2 2 j=1 58 con Z Z 1 1 κ= n zj2 εn dz = zj2 dz. ε |B1 (0)| B1 (0) |B1 (0)| B1 (0) Tomando límite cuando ε → 0 nos queda κ − ∆ψ(x0 ) + v(x0 , t) − u(x0 , t) ≤ 0. 2 La prueba para ver que v es supersolución es similar. Luego v es solución. Con esto terminamos la demostración. 2.7. Principio de comparación y unicidad del problema Nuestro objetivo es mostrar la unicidad de las soluciones de viscosidad para nuestro sistema (2.1.1). Con este fin, seguimos ideas de [9, 47, 52] (véase también [31] para resultados de unicidad relacionados con el infinito laplaciano). Este resultado de unicidad implica que toda la sucesión uε , v ε converge cuando ε → 0 y nos da la prueba del Teorema 2.1.2. Como es habitual en la teoría de soluciones viscosas, la unicidad se deduce de un principio de comparación. El principio de comparación para la versión elíptica de (2.1.1) se obtuvo en [47]. Recordamos que las soluciones viscosas a (2.1.1) se entienden en el sentido de la Definición 2.2, u es una solución de viscosidad para la primera ecuación con v(x, t) como una función dada, y v(x, t) es una solución para la segunda ecuación, esta vez con u(x, t) dado. Véase la Sección 2.2.3. Teorema 2.7.1. Supongamos que (u1 , v1 ) y (u2 , v2 ) son una subsolución de viscosidad acotada y una supersolución de viscosidad acotada de (2.1.1), respectivamente, y también supongamos que u1 ≤ u2 y v1 ≤ v2 en ∂p ΩT . Entonces, u1 ≤ u2 y v 1 ≤ v 2 , en Ω × (0, T ). Como un corolario inmediato de este resultado de comparación, obtenemos la unicidad deseada para (2.1.1). Corolario 2.7.1. Existe una única solución de viscosidad para (2.1.1). Demostración del Teorema 2.7.1. Siguiendo las ideas clásicas estudiadas en [22] vamos a perturbar la subsolución definiendo la función δ e1 (x, t) := u1 (x, t) − u , δ > 0, T −t Esta función satisface, en sentido viscoso, lo siguiente   ∂(eu1 ) 1   (x, t) − ∆∞ u e1 (x, t) + u e1 (x, t) − v1 (x, t)    ∂t 2 δ δ  ≤− − ≤ −c < 0 en Ω × (0, T ),   T − t (T − t)2    e1 → −∞, u cuando t → T − . 59 Es claro que si probamos que u e1 (x, t) ≤ u2 (x, t) para x ∈ Ω y t ∈ (0, T ) entonces, si δ → 0 vamos a deducir el resultado deseado. Luego, podemos asumir que tenemos una desigualdad estricta,    ∂(eu1 ) 1 (x, t) − ∆∞ u e1 (x, t) + u e1 (x, t) − v1 (x, t) ≤ −c < 0 en Ω × (0, T ), ∂t 2  u → −∞, 1 cuando t → T − . Ahora bien, vamos a argumentar por el absurdo: supongamos que n o sup máx ue1 (x, t) − u2 (x, t); v1 (x, t) − v2 (x, t) := η > 0. x∈Ω, t∈[0,T ] Vamos a asumir que ue1 y v1 son funciones semiconvexas en la variable espacial, mientras que u2 y v2 son semiconcavas usando convoluciones superior e inferior y restringiendo el problema a un dominio estrictamente menor si es necesario (ver [52] para más detalles). Perturbemos u e1 y v1 . Sea α > 0, consideramos Ωα := {x ∈ Ω : dist(x, ∂Ω) > α} y para |h| suficientemente chico n |t − r|2 M (h) := máx máx e1 (x + h, t) − u2 (x, r) − u ; x∈Ω, t,r∈[0,T ] 2ε o máx (v1 (x + h, t) − v2 (x, r)) x∈Ω, t,r∈[0,T ] = w1 (xh + h, th ) − w2 (xh , rh ) para w = u or v y para cierto xh ∈ Ω|h| , th , rr (notar que estas cantidades dependen ε pero vamos a omitir esa dependencia para simplificar la notación). Llamemos w la componente donde se alcanza el máximo, es decir w = u, si máx e1 (x + h, t) − u2 (x, r) ≥ u máx (v1 (x + h, t) − v2 (x, r)) x∈Ω, t,r∈[0,T ] x∈Ω, t,r∈[0,T ] y w = v, si máx e1 (x + h, t) − u2 (x, r) < u máx (v1 (x + h, t) − v2 (x, r)). x∈Ω, t,r∈[0,T ] x∈Ω, t,r∈[0,T ] Dado que M (0) > 0, para |h| suficientemente chico, tenemos que M (h) > 0 y el máximo de arriba es el mismo si lo tomamos sobre Ωα para algún α > 0 lo suficientemente chico (y fijo). Como en [47] vamos a obtener una sucesión hn → 0 tal que dado un máximo y ∈ Ω|hn | de n o máx máx (e u1 (x + hn , t) − u2 (x, t)); máx (v1 (x + hn , t) − v2 (x, t)) , x∈Ω|hn | x∈Ω|hn | tenemos ∇w1 (y + hn ) = ∇w2 (y) 6= 0, para n ∈ N. Ahora consideramos, al igual que en [9], las funciones φγ definidas como las primitivas de Z t  1  1  φ′γ (t) = exp exp − (s − ) ds . 0 γ γ 60 Estas funciones φγ son similares a la identidad (es decir, φγ (s) → s si γ → 0), φ′γ > 0, φ′γ converge a 1 si γ → 0, y φ′′γ converge a 0 si γ → 0 con (φ′′γ (s))2 > φ′′′ ′ −1 γ (s)φγ (s), ver [9]. con ψγ = φγ hacemos el cambio de variables Uiγ = ψγ (ui ), Viγ = ψγ (vi ), i = 1, 2. Es claro que U1 , V1 son semiconvexas en el espacio y U2 , V2 son semiconcavas. Luego llegamos a n |t − r|2 o máx máx(U1γ (x + hn , t) − U2γ (x, r) − ); máx(V1γ (x + hn , t) − V2γ (x, r)) , x,t,r 2γ x,t,r se alcanza en cierto punto xγ , tγ , rγ . Notar que U1 , V1 , −U2 y −V2 son acotadas por abajo, Ω × [0, T ] es compacto lı́mt→T − U1 → −∞. Utilizando una cuenta estandar de la teoría viscosa nos queda 1 |tγ − rγ |2 → 0, as γ → 0. (2.7.21) ε Extrayendo una subsucesión, si es necesario, podemos asumir que xγ → xhn y (tγ , rγ ) → (e tn , ren ) ∈ [0, T )2 , y luego obtenemos e t = re. Usando que u1 (x, t) ≤ u2 (x, t), v1 (x, t) ≤ v2 (x, t) en ∂Ω × (0, T ) y u1 (x, 0) ≤ / ∂Ω and e u2 (x, 0), obtenemos xh ∈ t = re > 0. Así llegamos a mı́n{d(xh , ∂Ω)} > 0, y mı́n{tε , rε } > 0. Dado que ∇w1 (y + hn ) = ∇w2 (y) 6= 0, para n ∈ N, vale que existe una constante positiva c(n) tal que |∇w1 (xn + hn , e tn )| = |∇w2 (xn , ren )| > c(n). Entonces, deducimos que para γ suficientemente chico, vale |∇W1γ (xγ + hn , e tn )| = |∇W2γ (xγ , ren )| ≥ c(n)/2. Ahora bien, como en [47], tenemos que U1 , V1 , U2 y V2 es solución de un sistema estrictamente monótono (con una desigualdad estricta en la primer ecuación). DE hecho, el par (U1 , V1 ) verifica las ecuaciones (en sentido viscoso) ∂e u1 1 0 > −c ≥ − ∆∞ u 1 + u 1 − v 1 ∂t 2 ∂U 1 1 = φ′ (U1 ) − φ′ (U1 )∆∞ U1 − φ′′ (U1 )|DU1 |2 + φ(U1 ) − φ(V1 ) 1 ∂t 2 2  ∂U 1 ′′ 1 φ (U1 ) φ(U1 ) − φ(V1 )  = φ′ (U1 ) 1 − ∆∞ U 1 − |DU 1 | 2 + , ∂t 2 2 φ′ (U1 ) φ′ (U1 ) y κ 0 = − ∆v + v − u 2 κ ′  = − φ (V1 )∆V1 + φ′′ (V1 )|DV1 |2 + φ(V1 ) − φ(U1 ) 2  κ κ φ′′ (V1 ) φ(V1 ) − φ(U1 )  ′ = φ (V1 ) − ∆V1 − |DV1 | (x) + 2 , 2 2 φ′ (V1 ) φ′ (V1 ) 61 y una ecuación similar vale para (U2 , V2 ). Luego, por la monotonía estricta, la desigualdad estricta en la ecuación parabólica y usando (2.7.21), obtenemos una contradicción. Ver la demostración del Lemma 3.1 en [9] para ver más detalles 62 Capítulo 3 TEORÍA DE JUEGOS PARA UN SISTEMA NO LINEAL CON UNA ECUACIÓN DE TIPO OBSTÁCULO 3.1. Introducción Es bien sabido que existe una profunda conexión entre la teoría de la probabilidad y las ecuaciones diferenciales parciales. Esta conexión se remonta a los trabajos de Doob, Feller, Hunt, Kakutani, Kolmo- gorov y muchos otros que tratan sobre el potencial clásico y la probabilidad, véase [27, 29, 32, 35] y el libro [26]. La idea principal que está detrás de esta relación clásica es que las funciones armónicas y las martingalas tienen en común la validez de las fórmulasPde valor medio. Un hecho bien conocido es que una función u es armónica, es decir, u verifica ∆u := N i=1 ∂xi xi u = 0 si y solo si verifica la propiedad del valor medio Z 1 u(x) = u(y) dy. |Bε (x)| Bε (x) R De hecho, se sabe que si una familia acotada de funciones uε verifica uε (x) = |Bε1(x)| Bε (x) uε (y) dy entonces, la familia converge, uε → u cuando ε → 0, y el límite resulta ser una solución de ∆u = 0. Ahora bien, algunas de las ideas y técnicas utilizadas para ecuaciones lineales pueden utilizarse para resolver casos no lineales. En [53] se introdujo y analizó en detalle un juego llamado Tug-of-War. Se trata de un juego de suma cero para dos jugadores en el que se lanza una moneda equilibrada (con probabilidades de 1/2 a 1/2 de cara y seca) y el ganador del lanzamiento elige mover la posición del juego desde la posición actual x0 a cualquier punto dentro de la bola Bε (x0 ). El juego continúa hasta que la posición deja un dominio fijo Ω y en este punto final el juego termina con un pago final dado por una función fija (uno de los jugadores recibe y el otro paga la cantidad dada por la función de pago final en la posición final). En [53] se muestra que este juego tiene un valor uε (ver más abajo la definición) y que este valor verifica una propiedad de valor medio dentro de Ω (que en la literatura se denomina Dynamic 63 Programming Principle), h1 1 i uε (x) = sup uε (y) + ı́nf uε (y) . 2 y∈Bε (x) 2 y∈Bε (x) Además, en [53] se demuestra que hay un límite cuando ε → 0, uε → u, y el límite es una solución del infinito laplaciano normalizado definido de la siguiente manera 1 X N ∇u ∇u ∆∞ u = hD u 2 , i= ∂xi u∂xi xj u∂xj u, |∇u| |∇u| |∇u|2 i,j=1 dentro de Ω. Nótese que la ecuación es elíptica, no lineal y degenerada. Nos referimos a [21] y [5] para referencias adicionales sobre esta ecuación. El juego Tug-of-War fue generalizado en varias direcciones para cubrir otras ecuaciones, por ejemplo el p−Laplaciano, ecuaciones parabólicas, etc. Véase [4, 8, 13, 14, 19, 41, 42, 43, 44, 52, 54, 55] y los libros recientes [15] y [36]. En particular, es oportuno mencionar que problemas de tipo obstáculo también pueden considerarse, véase [46] y [37]. Aquí nuestro principal objetivo es extender algunas de estas ideas para cubrir sistemas de EDP. Como precedentes citamos [52], [47] y [48] donde los autores estudian juegos para diferentes sistemas. Estos juegos se definen en dos tableros que son dos copias de un dominio Ω ⊂ RN . En cada tablero se juega un juego con pasos de tamaño ε con probabilidad 1 − ε2 mientras que con probabilidad ε2 el juego se cambia al otro tablero. De esta manera el sistema de límites que se verifica por los límites de las funciones de valor para el juego en cada tablero se ven de la siguiente manera ( L1 (D2 u, ∇u, u, x) + v(x) = 0, x ∈ Ω, L2 (D2 v, ∇v, v, x) + u(x) = 0, x ∈ Ω. Obsérvese que el acoplamiento entre las dos ecuaciones del sistema es simétrico y lineal, pero los ope- radores L1 y L2 pueden ser diferentes y no lineales, (véase [52] para dos ∞−Laplacianos, [47] para un Laplaciano y un ∞−Laplaciano y [48] para L1 un operador parabólico y L2 un operador elíptico). Nuestro objetivo principal es analizar un juego de dos jugadores en el que en un tablero uno de los jugadores tiene la opción de jugar o cambiar al otro tablero. Por lo tanto, ahora nos enfrentamos a un juego con reglas asimétricas en el que uno de los jugadores decide si continúa jugando en el primer tablero, o se cambia la posición del juego al segundo tablero. Describamos el juego con más detalle. Este es un juego de suma cero con dos jugadores (que llamaremos, jugador I y jugador II, juegan uno contra el otro y las ganancias totales de un jugador son exactamente las pérdidas del otro). El juego se desarrolla en dos tableros, que son dos copias de un dominio fijo, acotado Ω ⊂ RN . Dadas dos funciones de pago final f, g : RN \Ω → R con f ≥ g (supondremos que f y g son Lipschitz y acotadas). Estas dos funciones de pago corresponden al pago final en el primer y segundo tablero, respectivamente. También consideraremos una función de pago por jugada h : Ω → R (que también se supondrá Lipschitz) cuando se juega en el segundo tablero. Dado un parámetro positivo ε. El juego comienza en una posición inicial x0 ∈ Ω en uno de los dos tableros. En el primer tablero, jugaremos Tug-of-War (se lanza una moneda equilibrada y el ganador del lanzamiento de la moneda (jugador I o jugador II) elige la siguiente posición del juego en la bola de radio ε centrada en x0 , Bε (x0 )). En el segundo tablero, jugaremos paseos al azar (es decir, la 64 siguiente posición se elige con probabilidad uniforme en la bola Bε (x0 )) con un pago por jugar igual a ε2 h(x0 ) (el jugador I obtiene ε2 h(x0 ) y el jugador II −ε2 h(x0 ), recordemos que este es un juego de suma cero). Este pago por jugar se produce sólo cuando la posición se mueve en el segundo tablero. A estas reglas añadimos las siguientes formas de cambiar de tablero: en el primer tablero, el jugador I decide entre jugar Tug-of-War (y permanecer en el primer tablero) o cambiar de tablero y entonces la nueva posición de la ficha permanece en el mismo punto de Ω pero, por otro lado, en el segundo tablero se juega paseos al azar con probabilidad 1 − ε2 y con probabilidad ε2 la ficha se mueve al primer tablero. El juego continúa con las mismas reglas hasta que la ficha sale del dominio Ω (y en ese momento el juego termina). Esto da una sucesión aleatoria de puntos (posiciones del juego) y un tiempo de parada τ (la primera vez que la posición de la ficha cae fuera de Ω, en cualquiera de los dos tableros). La secuencia de posiciones se denotará por n o (x0 , j0 ), (x1 , j1 ), . . . (xτ , jτ ) , aquí xk ∈ Ω, k = 1, .., τ − 1 (y xτ 6∈ Ω) y la segunda variable, jk , indica en qué tablero estamos, jk = 1 si la posición de la ficha está en el primer tablero y jk = 2 si está en el segundo tablero. Como ya mencionamos, el juego termina cuando la ficha sale de Ω en algún punto, que denotaremos (xτ , jτ ), la primera posición del juego con xτ 6∈ Ω. En este caso, el pago final (la cantidad que recibe el jugador I y paga el jugador II) viene dado por f (xτ ) si jτ = 1 (la ficha sale del dominio en el primer tablero) y g(xτ ) si jτ = 2 (la ficha sale en el segundo tablero). Por lo tanto, el pago total de una ocurrencia particular del juego viene dado por τ −1 X pago total := f (xτ )χ{j=1} (jτ ) + g(xτ )χ{j=2} (jτ ) + ε2 (1 − ε2 ) h(xk )χ{j=2} (jk ). k=1 Observar que el pago total es la suma del pago final (dado por f (xτ ) o por g(xτ ) según el tablero en el que la posición abandona el dominio) y el pago por jugada (cada vez que se produce un movimiento en el segundo tablero se suma ε2 (1 − ε2 )h(xk ), el factor extra (1 − ε2 ) tiene en cuenta la probabilidad de realizar dicho movimiento). Ahora, los jugadores fijan dos estrategias, SI para el jugador I y SII para el jugador II. Es decir, el jugador I, en cada jugada decide jugar o cambiar de tablero (si la ficha está en el primer tablero) y selecciona el punto al que ir siempre que el lanzamiento de la moneda del juego Tug-of-War lo favorezca; mientras que el Jugador II sólo selecciona el punto al que mover la ficha cuando juegan Tug-of-War en el primer tablero. Entonces, una vez que fijamos las estrategias SI y SII todo depende sólo de la probabilidad subyacente (el lanzamiento de la moneda si juegan en el primer tablero, la probabilidad de cambiar de tablero jugando en el segundo tablero y la elección del punto en Bε (x) con probabilidad uniforme, jugando en el segundo tablero) y podemos calcular la esperanza del pago final comenzando en (x, j) (recordemos que j = 1, 2 indica el tablero en el que está la posición) usando las estrategias SI y SII , (x,j) ESI ,SII [pago total]. Aquí, como en [53], penalizamos las estrategias que fuerzan al juego a que nunca termine con probabilidad positiva (por ejemplo, el jugador I puede decidir jugar Tug-of-War en el primer tablero y ambos jugadores eligen quedarse en el mismo punto en cada turno). Por lo tanto, de ahora en adelante, asumimos que esta esperanza está bien definida. 65 Diremos que el juego tiene un valor si (x,j) (x,j) wε (x, j) = sup ı́nf ESI ,SII [pago total] = ı́nf sup ESI ,SII [pago final]. (3.1.1) SI SII SII SI Observar que este valor wε es el mejor resultado posible que el jugador I y el jugador II pueden esperar obtener jugando con las mejores estrategias posibles. Demostraremos que este juego tiene un valor (ver el Teorema 3.1.1 a continuación). El valor del juego wε genera dos funciones, la primera definida en el primer tablero, uε (x) := wε (x, 1) que es el valor esperado del juego si la posición inicial está en el primer tablero (y los jugadores juegan lo mejor que pueden), y v ε (x) := wε (x, 2) que es el valor esperado del juego cuando la posición inicial está en el segundo tablero. Estas dos funciones uε , v ε satisfacen un sistema de ecuaciones denominado Dynamic Programming Principle (DPP) en la literatura. En nuestro caso, el DPP correspondiente para el juego viene dado por  nh 1 i o  1   u ε (x) = máx sup u ε (y) + ı́nf u ε (y) , v ε (x) x ∈ Ω,   2 y∈Bε (x) 2 y∈Bε (x)   hZ i   ε v (x) = (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε (x) x ∈ Ω, (3.1.2)   B ε (x)   ε u (x) = f (x) x ∈ R \Ω, N      ε v (x) = g(x) x ∈ RN \Ω. Comentemos brevemente los diferentes términos que aparecen en el DPP. En primer lugar, observemos que en la primera ecuación tenemos que el valor esperado en el primer tablero en un punto x ∈ Ω, uε (x), viene dado por el máximo entre el resultado esperado de jugar una ronda de Tug-of-War permaneciendo en el primer tablero, y el valor esperado en el mismo punto pero en el segundo tablero, v ε (x). Esto se debe a que el primer jugador (que quiere maximizar el resultado esperado) es el que decide jugar o cambiar de tablero. Por otro lado, la segunda ecuación dice que el valor esperado en un punto x ∈ Ω en el segundo tablero está dado por la suma de 1 − ε2 (la probabilidad de jugar) por el resultado de jugar paseos al azar, más el pago por jugada, mas ε2 (la probabilidad de cambiar del segundo tablero al primer tablero) por el valor esperado en el mismo punto en el primer tablero. Finalmente, fuera de Ω el juego termina instantáneamente y entonces el valor esperado es simplemente el pago final en el tablero correspondiente. Nótese que asumimos que f ≥ g, esto se debe a que si en algunos puntos tenemos f < g el primer jugador decidirá cambiar de tablero cerca de estos puntos del borde (para maximizar el resultado esperado) y entonces el dato f puede considerarse igual a g en esos puntos. El primer resultado de este capítulo dice que este juego tiene un valor (podemos intercambiar ı́nf con sup en (3.1.1)) y que los dos componentes de esta función uε y v ε vienen caracterizados por la única solución de (3.1.2). Para precedentes de este tipo de resultado nos remitiremos a [14, 41, 43, 53, 55]. Teorema 3.1.1. El juego descripto anteriormente tiene un valor que se caracteriza como la única solución del DPP (3.1.2). Es decir, (x,j) (x,j) wε (x, j) = sup ı́nf ESI ,SII [pago total] = ı́nf sup ESI ,SII [pago total] SI SII SII SI 66 y tenemos que wε (x, 1) = uε (x) y wε (x, 2) = v ε (x) con (uε , v ε ) la única solución para (3.1.2). Nuestro próximo objetivo es estudiar el límite cuando ε → 0 del valor del juego. Para eso, utilizamos una herramienta clásica, un lema de tipo Arzela-Ascoli, cuya demostración se puede encontrar en [42] (ver Sección 3.3 para más detalles). Para utilizar este lema tenemos que demostrar que las funciones uε y v ε son equiacotadas y asintóticamente equicontinuas. Estos dos hechos son consecuencia de algunas estimaciones que son delicadas debido a que las reglas del juego no son simétricas (recordemos que sólo uno de los jugadores puede elegir jugar o saltar al otro tablero). Una estimación clave es obtener una cota para el número esperado de jugadas, y luego obtener una cota (uniforme P −1 en ε) para la parte del pago por jugada que proviene de jugar en el segundo tablero, (1 − ε2 )ε2 τk=0 h(xk )χ{j=2} (jk ). Observe que aquí es crucial que los límites sean independientes del ı́nf y sup entre estrategias que aparecen en la definición de la función de valor del juego (3.1.1). Es decir, por ejemplo, tenemos que demostrar una afirmación de la forma .El jugador II tiene una estrategia tal que el pago total está acotada independientemente de ε (pequeño), la posición inicial de la ficha (incluido el tablero en el que comienza el juego) y la estrategia utilizada por el jugador I”. Esta es una tarea no trivial ya que el jugador I puede obligar a que el juego se juegue todo el tiempo en el segundo tablero (simplemente decidiendo cambiar de tablero cada vez que la posición esté en el primer tablero). Si este es el caso, la estrategia del jugador II nunca se utiliza (el juego Tig-of-War nunca se juega), sin embargo en este caso el límite deseado para el número esperado de jugadas simplemente proviene del análisis bien conocido para el paseo al azar. Nuestro resultado principal dice que las funciones de valor del juego convergen uniformemente cuando ε → 0 a un par de funciones continuas (u, v) que son una solución viscosa de un sistema de ecuaciones diferenciales parciales en el que aparece una ecuación de tipo obstáculo. Teorema 3.1.2. Existe una sucesión εj → 0 tal que los valores del juego convergen, uεj ⇒ u y v εj ⇒ v, uniformemente en Ω a un par de funciones continuas (u, v). El par límite es una solución viscosa del sistema  n o   mı́n − ∆ ∞ u(x), (u − v)(x) =0 x ∈ Ω,      κ  − ∆v(x) + v(x) − u(x) = h(x) x ∈ Ω, 2 (3.1.3)    u(x) = f (x)  x ∈ ∂Ω,     v(x) = g(x) x ∈ ∂Ω. R Aquí κ = B1 (0) z12 dz es una constante que sólo depende de la dimensión N . En la figura 3.1 se puede ver como luce una solución del Psistema en 2D. Observar que este sistema involucra dos operadores diferenciales, el laplaciano ∆u = N i=1 ∂xi xi u y el infinito laplaciano normali- ∇u ∇u 1 PN zado ∆∞ u = hD u |∇u| , |∇u| i = |∇u|2 i,j=1 ∂xi u∂xi xj u∂xj u, que es un operador elíptico degenerado, de 2 segundo orden, 1-homogéneo (ver [21]). Este sistema (3.1.3) es no variacional (no tiene energía asociada) por lo tanto, entenderemos las soluciones del sistema en el sentido viscoso (ver Sección 3.4 para la defini- ción precisa). Observe que la primera ecuación dice que tenemos dos desigualdades, −∆∞ u(x) ≥ 0 (u es 67 ∞−superarmónica) y u(x) ≥ v(x) (u es mayor que v) con una igualdad en una de ellas. Es decir, u es una solución al problema del obstáculo para el ∞−Laplaciano con v como obstáculo y dato de contorno f . Sin embargo, nótese que el obstáculo v depende también de u en la segunda ecuación. Este sistema está completamente acoplado de manera no lineal (a través de la ecuación de tipo obstáculo que involucra un operador no lineal y un mínimo). Figura 3.1: Sistema con ecuación de tipo obstáculo en 2D. Este capítulo está organizado de la siguiente manera: En la sección 3.2 demostramos que el juego tiene un valor y que este valor es la única solución al DPP, demostrando el Teorema 3.1.1; la demostración del Teorema 3.1.2 está dividida en las secciones 3.3 y 3.4. En la primera demostramos convergencia uniforme a lo largo de una subsucesión y en la segunda demostramos que el límite uniforme es solución viscosa para el sistema de EDP (3.1.3). Finalmente, en la sección 3.5 incluimos algunas observaciones y comentarios sobre posibles extensiones de nuestros resultados. 3.2. Existencia y unicidad del DPP En esta sección primero demostramos que existe una solución del DPP, (3.1.2), luego demostramos que cualquier solución del DPP es el valor del juego (la demostración se basa en que la solución del DPP nos permite encontrar estrategias cuasi óptimas para los jugadores) y simultáneamente probaremos que el juego tiene valor, así obtenemos la unicidad de las soluciones del DPP. Para demostrar la existencia de una solución del DPP usamos una variante del método de Perron 68 (una solución puede obtenerse como supremo de subsoluciones). Consideremos el conjunto de funciones n o A = (uε , v ε ) : uε , v ε son funciones acotadas tal que vale (3.2.4) siendo  nh 1 i o  1   u ε (x) ≤ máx sup u ε (y) + ı́nf u ε (y) , v ε (x) x ∈ Ω,   2 y∈Bε (x) 2 y∈Bε (x)   hZ i   ε v (x) ≤ (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε (x) x ∈ Ω, (3.2.4)   Bε (x)   u ε (x) ≤ f (x) x∈ RN \Ω,      ε v (x) ≤ g(x) x ∈ RN \Ω. Notar que (3.2.4) dice que (uε , v ε ) es una subsolución del DPP. Observar que A 6= ∅ dado que u ≡ v = −C siendo C = máx{kf k∞ , kgk∞ }, verifica (u, v) ∈ A . El próximo objetivo es probar que las funciones pertenecientes al conjunto (uε , v ε ) ∈ A están uni- formemente acotadas. Para eso necesitamos probar una serie de lemas. Primero, vamos a introducir una función auxiliar. Dado que Ω ⊂ RN es acotado existe R > 0 tal que Ω ⊂⊂ BR (0). Consideremos la función ( 2K(R2 − |x|2 ) + M̃ si x ∈ BR (0), w0 (x) = M̃ si x ∈ RN \ BR (0), con K = máxΩ |h| + 1. Este función es supersolución de una ecuación auxiliar. Lema 3.2.1. Dada K = máxΩ |h| + 1, existen ε0 > 0 y M̃ (independentes de ε) tal que w0 verifica  nZ 1 1 o   w ε (x) ≥ máx wε (y)dy, sup wε (y) + ı́nf wε (y) + Kε2 x ∈ Ω,  2 y∈Bε (x) 2 y∈Bε (x) Bε (x) n o (3.2.5)    w (x) ≥ M = máx sup f, sup g x ∈ RN \Ω, ε RN \Ω RN \Ω para todo ε < ε0 . Demostración. Para comenzar, observar que la inecuación wε (x) ≥ M vale para x ∈ RN \Ω para M̃ suficientemente grande. Entonces, estamos listos para probar que para x ∈ Ω vale nZ 1 1 o w0 (x) ≥ máx w0 (y)dy, sup w0 (y) + ı́nf w0 (y) + Kε2 . Bε (x) 2 y∈Bε (x) 2 y∈Bε (x) 69 Esto es, nZ 1 1 o 0 ≥ máx (w0 (y) − w0 (x))dy, sup (w0 (y) − w0 (x)) + ı́nf (w0 (y) − w0 (x)) + Kε2 . (3.2.6) Bε (x) 2 y∈Bε (x) 2 y∈Bε (x) Usando que w0 es suave en BR (0), por una expansión de Taylor obtenemos 1 w0 (y) − w0 (x) = h∇w0 (x), yi + hD2 w0 (x)y, yi + o(ε2 ). 2 Integrando en Bε (x) obtenemos Z X n 2κ κ (w0 (y) − w0 (x))dy = ε ∂xj xj w0 (x) = ε2 ∆w0 (x) + o(ε2 ), (3.2.7) Bε (x) 2 2 j=1 con Z Z 1 1 κ= N zj2 εN dz = zj2 dz, ε |B1 (0)| B1 (0) |B1 (0)| B1 (0) esta es una constante positiva que solo depende de la dimensión. Por otro lado, usando nuevamente que w0 es suave, llegamos a sup (w0 (y) − w0 (x)) = máx (w0 (y) − w0 (x)) y∈Bε (x) y∈B ε (x) y ese máximo se alcanza en un punto cerca de la dirección del gradiente de w0 . Luego, obtenemos ∇w0 1 ∇w0 (x) ∇w0 (x) máx (w0 (y) − w0 (x)) = εh∇w0 (x), i + ε2 hD2 w0 (x) , i + o(ε2 ). y∈B ε (x) |∇w0 | 2 |∇w0 (x)| |∇w0 (x)| Análogamente, se tiene lo siguiente ∇w0 1 ∇w0 (x) ∇w0 (x) mı́n (w0 (y) − w0 (x)) = −εh∇w0 (x), i + ε2 hD2 w0 (x) , i + o(ε2 ) y∈B ε (x) |∇w0 | 2 |∇w0 (x)| |∇w0 (x)| y luego obtenemos 1 1 ε2 sup w0 (y) + ı́nf w0 (y) = ∆∞ w0 (x) + o(ε2 ). (3.2.8) 2 y∈Bε (x) 2 y∈Bε (x) 2 Usando (3.2.7) y (3.2.8) en (3.2.6), y dividiendo por ε2 , nos queda nκ 1 o 0 ≥ máx ∆w0 (x), ∆∞ w0 (x) + K + o(1). 2 2 Observar que N −1 N −1 ∆w0 (x) = (w0 )rr + (w0 )r = −4K − 2Kr = K(−4 − 2(N − 1)) r r y ∆∞ w0 (x) = (w0 )rr = −4K. Por lo tanto, obtenemos que la primer ecuación de (3.2.5) vale para todo x ∈ Ω y ε suficientemente chico. 70 Observar que el problema  nZ 1 1 o  wε (x) = máx wε (y)dy, sup wε (y) + ı́nf wε (y) + Kε2 x ∈ Ω, Bε (x) 2 y∈Bε (x) 2 y∈Bε (x)  ε w (x) = M x ∈ RN \Ω, corresponde al DPP que debe ser satisfecho por la función valor de un juego con las siguientes reglas: dentro de Ω el primer jugador, que busca maximizar el pago, decide jugar Tug-of-War o paseos al azar y tiene un pago por jugada Kε2 con K = α(máxΩ |h|) + 1 ≥ αh, y un pago final M = máx{sup f, sup g} ≥ f, g. Dado que el primer jugador puede decidir qué juego se va a jugar y el pago continuo y final son mayores que los que tenemos en nuestros dos tableros, es de esperar que las funciones de valor del juego para nuestro juego estén acotadas por w0 . Nuestro siguiente resultado dice que, de hecho, las subsoluciones del DPP (pares (u, v) ∈ A ) están efectivamente acotadas por w0 . Esto demuestra que las funciones en A están uniformemente acotadas. Lema 3.2.2. Dado (uε , v ε ) ∈ A (subsoluciones acotadas del DPP (3.1.2)) y wε una supersolución de (3.2.5). Entonces, vale que uε (x) ≤ wε (x) y v ε (x) ≤ wε (x), x ∈ RN . Demostración. Argumentaremos por el absurdo. Asumamos que n o máx sup(uε − wε ), sup(v ε − wε ) = θ > 0. Es claro que uε (x) ≤ M ≤ wε (x), v ε (x) ≤ M ≤ wε (x) para x 6∈ Ω. Por lo tanto, nos vamos a concentrar en los puntos dentro de Ω. Vamos a dividir la prueba en dos casos. Caso 1: Asumimos que sup(v ε − wε ) = θ. Sea n ∈ N y sea xn ∈ Ω tal que 1 θ− < (v ε − wε )(xn ). n Ahora bien, vamos a usar las inecuaciones verificadas por las funciones para obtener 1 θ− < (v ε − wε )(xn ) = v ε (xn ) − (1 − ε2 )wε (xn ) − ε2 wε (xn ) n hZ i hZ i ≤ (1 − ε ) 2 v (y)dy + ε h(xn ) + ε u (xn ) − (1 − ε ) ε 2 2 ε 2 wε (y)dy + Kε2 − ε2 wε (xn ). Bε (xn ) Bε (xn ) Luego, llegamos a h Z i 1 θ − < (1 − ε2 ) (v ε − wε )(y)dy + ε2 (h(xn ) − K) + ε2 (v ε − wε )(xn ). n Bε (xn ) 71 Usando que (v ε − wε )(xn ) ≤ θ obtenemos Z 1 θ− < (v ε − wε )(y)dy − ε2 (K − h(xn )). (1 − ε2 )n Bε (xn ) Tomemos n ∈ N suficientemente grande tal que 1 < ε2 (K − h(xn )), (1 − ε2 )n y luego llegamos a Z 1 1 θ− < (v ε − wε )(y)dy − (1 − ε2 )n Bε (xn ) (1 − ε2 )n eso nos lleva a la contradicción Z θ< (v ε − wε )(y)dy. Bε (xn ) Esto da por terminada la prueba para el primer caso Caso 2: Asumimos que sup(uε − wε ) = θ. En este caso tomamos nuevamente una sucesión xn ∈ Ω tal que 1 θ− < (uε − wε )(xn ). n Supongamos que n1 1 o máx sup uε (y) + ı́nf uε (y), v ε (xn ) = v ε (xn ). 2 y∈Bε (xε ) 2 y∈Bε (xε ) Entonces, estamos nuevamente en el caso 1 y arribamos a una contradicción como antes. Finalmente, nos queda el caso n1 1 o 1 1 máx sup uε (y) + ı́nf uε (y), v ε (xn ) = sup uε (y) + ı́nf uε (y). 2 y∈Bε (xε ) 2 y∈Bε (xε ) 2 y∈Bε (xε ) 2 y∈Bε (xε ) En este caso llegamos a 1 1 1 1 1 θ− < (uε − wε )(xn ) ≤ sup uε (y) + ı́nf uε (y) − sup wε (y) − ı́nf wε (y) − Kε2 n 2 y∈Bε (xε ) 2 y∈Bε (xε ) 2 y∈Bε (xε ) 2 y∈Bε (xε ) 1 1 1 ≤ sup uε (y) − sup wε (y) + sup (uε − wε )(y) − Kε2 . 2 y∈Bε (xε ) 2 y∈Bε (xε ) 2 y∈Bε (xε ) Usando que 1 sup (uε − wε )(y) ≤ θ, 2 y∈Bε (xε ) obtenemos 2 θ− < sup uε (y) − sup wε (y) − 2Kε2 . n y∈Bε (xε ) y∈Bε (xε ) 72 Si tomamos yn ∈ Bε (xn ) tal que 1 sup uε (y) − < uε (yn ) y∈Bε (xε ) n nos queda 2 1 1 θ− < uε (yn ) + − sup wε (y) − 2Kε2 ≤ uε (yn ) + − wε (yn ) − 2Kε2 . n n y∈Bε (xε ) n Así, tenemos 3 θ− + 2Kε2 < (uε − wε )(yn ) ≤ θ. n Esto nos lleva a una contradicción si n ∈ N es suficientemente grande de forma que 3 − + 2Kε2 > 0. n Con lo cual, en este caso obtenemos 3 θ<θ− + 2Kε2 < (uε − wε )(yn ) ≤ θ. n Esto da por terminada la prueba. Ahora bien, utilizando que w0 es continua RN y por lo tanto acotada en la bola cerrada BR , podemos deducir que existe una constante Λ > 0 que depende de los datos f , g, h y del dominio Ω tal que w0 (x) ≤ Λ. Entonces, utilizando los lemas anteriores obtenemos una cota uniforme para funciones en A . Teorema 3.2.1. Existe una constante Λ > 0 que depende de f ,g,h y Ω tal que para todo para (u, v) ∈ A vale u(x) ≤ Λ and v(x) ≤ Λ, para todo x ∈ RN y para todo ε ≤ ε0 (aquí ε0 viene dado por el lema 3.2.1). Demostración. Se deduce de los lemas 3.2.1, 3.2.2 y la acotación de w0 . Luego de estos resultados, estamos en condiciones de definir para x ∈ RN , uε (x) = sup u(x) y v ε (x) = sup v(x). (3.2.9) (u,v)∈A (u,v)∈A El resultado previo, el teorema 3.2.1, dice que estas funciones uε y v ε están bien definidas y están acotadas. El siguiente teorema nos dice que las funciones recién definidas son solución del DPP (3.1.2). Teorema 3.2.2. El par de funciones (uε , v ε ) es solución del DPP (3.1.2). 73 Demostración. Veamos primero que (uε , v ε ) ∈ A . Sea (uε , v ε ) ∈ A y x ∈ Ω tenemos que n1 1 o uε (x) ≤ máx sup uε (y) + ı́nf uε (y), v ε (x) . 2 y∈Bε (x) 2 y∈Bε (x) Tomando supremo del lado derecho (uε , v ε ) ∈ A obtenemos n1 1 o uε (x) ≤ máx sup uε (y) + ı́nf uε (y), v ε (x) 2 y∈Bε (x) 2 y∈Bε (x) y luego tomando supremo del lado izquierdo concluimos n1 1 o uε (x) ≤ máx sup uε (y) + ı́nf uε (y), v ε (x) . 2 y∈Bε (x) 2 y∈Bε (x) De manera análoga para la segunda ecuación obtenemos que v ε verifica hZ i v ε (x) ≤ (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε (x), Bε (x) para x ∈ Ω. Finalmente uε (x) ≤ f (x) y v ε (x) ≤ g(x) para x ∈ RN \Ω, tomando supremo obtenemos uε (x) ≤ f (x) y ≤ g(x) para x ∈ RN \Ω y concluimos que (uε , v ε ) ∈ A . v ε (x) Tenemos las desigualdades deseadas para el par (uε , v ε ) ∈ A . Para probar que el par es efectivamente una solución del DPP vamos a razonar por el absurdo. Asumamos que tenemos una desigualdad estricta para algún x0 ∈ RN . Si x0 ∈ RN \Ω y vale uε (x0 ) < f (x0 ) vamos a llegar a una contradicción si consideramos ( ε u (x) si x 6= x0 , uε0 (x) = uε (x0 ) + δ si x = x0 , con δ > 0 suficientemente chico para que valga uε (x0 ) + δ < f (x0 ). Luego, se puede chequear que el par (uε0 , v ε ) pertenece a A pero en x0 tenemos uε0 (x0 ) = uε (x0 ) + δ > uε (x0 ) = sup uε (x0 ), A que es una contradicción. Podemos argumentar de manera similar si x0 ∈ RN \Ω y vale v ε (x0 ) < g(x0 ). Entonces concluimos que uε (x) = f (x) y v ε (x) = g(x) para todo x ∈ RN \Ω. Asumamos entonces que tenemos una desigualdad estricta para x0 ∈ Ω. Consideremos primero el caso en el que n1 o 1 uε (x0 ) < máx sup uε (y) + ı́nf uε (y), v ε (x0 ) . 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) Consideremos n1 o 1 máx sup uε (y) + ı́nf uε (y), v ε (x0 ) − uε (x0 ) = δ > 0, 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) 74 y, como antes, la función  ε  u (x) si x 6= x0 , uε0 (x) =  uε (x ) + δ si x = x0 . 0 2 Entonces tenemos δ n1 1 o uε0 (x0 ) = uε (x0 ) + < máx sup uε (y) + ı́nf uε (y), v ε (x0 ) , 2 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) y luego n1 1 o uε0 (x0 ) < máx sup uε0 (y) + ı́nf uε0 (y), v ε (x0 ) . 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) En otros puntos x ∈ Ω también vale n1 1 o uε0 (x) ≤ máx sup uε0 (y) + ı́nf uε0 (y), v ε (x) . 2 y∈Bε (x) 2 y∈Bε (x) Finalmente, para v ε tenemos para cualquier x ∈ Ω, hZ i v ε (x) ≤ (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε0 (x). Bε (x) Así, tenemos que el par (uε0 , v ε ) pertenece a A , llegando nuevamente a una contradiccion como antes dado que uε0 (x0 ) > uε (x0 ). Analogamente podemos llegar al absurdo si x0 ∈ Ω y hZ i v (x0 ) < (1 − ε ) ε 2 v ε (y)dy + ε2 h(x0 ) + ε2 uε (x0 ). Bε (x0 ) Esto finaliza la demostración. Corolario 3.2.1. Existe una constante Λ > 0 tal que |uε (x)| < Λ and |v ε (x)| < Λ para todo x ∈ RN . Demostración. Se deduce de (3.2.1) y la definición de uε y v ε . Comentario: En la definición (3.2.9) obtenemos una función v ε que no es necesariamente medible. Entonces, entendemos la integral de la siguiente manera Z Z  ε v (y)dy = sup w(y)dy / w medible , w ≤ v ε Bε (x) Bε (x) 75 Alternativamente, podemos obtener un par de funciones medibles (uε , v ε ), soluciones del DPP a través de la siguiente iteración: Dadas uε0 = v0ε = −C con C > 0 suficientemente chica, tenemos que el par (uε0 , v0ε ) es subsolución del DPP (3.1.2). Definimos para n ≥ 0  nh 1 i o  1   u ε (x) = máx sup u ε (y) + ı́nf u ε (y) , v ε (x) x ∈ Ω,   n+1 2 y∈Bε (x) n 2 y∈Bε (x) n   h Z i   ε vn+1 (x) = (1 − ε2 ) vnε (y)dy + ε2 h(x) + ε2 uεn (x) x ∈ Ω,   Bε (x)   uεn+1 (x) = f (x) x ∈ RN \Ω,      ε vn+1 (x) = g(x) x ∈ RN \Ω. Esto nos da un par de sucesiones de funciones medibles (uεn , vnε ) subsucesiones del DPP, crecientes, uniformemente acotadas. Si definimos lı́m uεn (x, t) = uε (x, t) y lı́m v ε (x, t) = v ε (x, t) n→∞ n→∞ n Estas funciones resultan medibles, y son solución del DPP (3.1.2). Los detalles de construcción alternativa de la solución del DPP se pueden ver en el lema 5.4.4 y el teorema 5.4.1 del capítulo 5. Con esto damos por terminado el comentario. Ahora, para tener una versión completa, incluimos el enunciado preciso del Optional Stopping Theo- rem (una herramienta clave de la teoría de la probabilidad que usaremos a continuación). The Optional Stopping Theorem. Recordemos (ver [59]) que una sucesión de variables aleatorias {Mk }k≥1 es una supermartingala (submartingala) si E[Mk+1 |M0 , M1 , ..., Mk ] ≤ Mk (≥). Entonces, el Optional Stopping Theorem, que notaremos (OSTh) en lo sucesivo, dice: Sea τ un tiempo de parada que verifica alguna de las siguientes propiedades, (a) El tiempo de parada τ es acotado casi seguramente; (b) Vale que E[τ ] < ∞ y existe una constante c > 0 tal que E[Mk+1 − Mk |M0 , ..., Mk ] ≤ c; (c) Existe una constante c > 0 tal que |Mmı́n{τ,k} | ≤ c casi seguramente para todo k. Entonces E[Mτ ] ≤ E[M0 ] (≥), si {Mk }k≥0 es una supermartingala (submartingala). Para ver la demostración de este resultado ver [25, 59]. Estamos listos para probar el Teorema 3.1.1, que enuncia si que el par (uε , v ε ) es una solución del DPP (3.1.2) es el valor del juego, y este es único. 76 Demostración del Teorema 3.1.1. Probemos que (x,1) (x,2) uε (x) = sup ı́nf ESI ,SII [pago total] y v ε (x) = sup ı́nf ESI ,SII [pago total]. SI SII SI SII Fijemos δ > 0. Asumimos que comenzamos en un punto en el primer tablero, (x0 , 1). Entonces, elegimos una estrategia para el jugador I utilizando la solución del DPP (3.1.2) de la siguiente manera: EL jugador I decide permanecer en el primer tablero si n1 1 o 1 1 máx sup uε (y) + ı́nf uε (y), v ε (x0 ) = sup uε (y) + ı́nf uε (y), 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) y en este caso el jugador I elige un punto tal que δ xIk+1 = SI∗ (x0 , . . . , xk ) tal que sup uε (y) − ≤ uε (xIk+1 ), y∈Bε (xk ) 2k+1 si el lanzamiento de la moneda lo favorece al jugar Tug-of-War. Por otro lado, el jugador I va a elegir saltar al segundo tablero si n1 1 o máx sup uε (y) + ı́nf uε (y), v ε (x0 ) = v ε (x0 ). 2 y∈Bε (x0 ) 2 y∈Bε (x0 ) Dada esta estrategia SI∗ para el jugador I, y cualquier estrategia para el jugador II, consideremos la sucesión de variables aleatorias X k−1 δ Mk = wε (xk , jk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − . 2k l=1 Veamos que (Mk )k≥0 es una submartingala. Para eso necesitamos acotar (x ,1) (x ,1) (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] = ES ∗0,SII [Mk+1 |Mk ] = ES ∗0,SII [Mk+1 |(xk , jk )]. I I I Vamos a considerar diferentes casos Caso 1: Supongamos que jk = 1 y jk+1 = 1 (esto es, nos quedamos en el primer tablero), entonces h X k δ i (x ,1) (x ,1) ES ∗0,SII [Mk+1 |(xk , 1)] = ES ∗0,SII uε (xk+1 ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − k+1 |(xk , 1) I I 2 l=1 h X k−1 δ i (x0 ,1) |{z} SI ,SII u (xk+1 ) + ε (1 − ε ) E h(xl )χ{j=2} (jl ) − |(xk , 1) ε 2 2 = ∗ k+1 2 jk =1 l=1 1 1 X k−1 δ ≥ uε (xIk+1 ) + uε (xII k+1 ) + ε (1 − ε ) 2 2 h(xl )χ{j=2} (jl ) − k+1 2 2 2 l=1 1 δ 1 X δ k−1 ≥ sup uε (y) − k+1 + ı́nf uε (y)ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − k+1 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) 2 l=1 X k−1 δ = uε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − = Mk . 2k l=1 77 Caso 2: Supongamos que jk = 1 y jk+1 = 2 (esto es, cambiamos de tablero), entonces (x ,1) X k δ ES ∗0,SII [Mk+1 |(xk , 1)] = v ε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − I 2k+1 l=1 X k−1 δ = v ε (xk ) + ε2 (1 − ε2 ) |{z} h(xl )χ{j=2} (jl ) − 2k+1 jk =1 l=1 X k−1 δ ≥ v ε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − = Mk . 2k l=1 Caso 3: Supongamos que jk = 2, usando la probabilidad de jk+1 = 2 es (1 − ε2 ) y en el caso jk+1 = 1 es ε2 obtenemos (x ,1) (x ,1) ES ∗0,SII [Mk+1 |(xk , 2)] = (1 − ε2 )ES ∗0,SII [Mk+1 |(xk , 2), jk+1 = 2] I I (3.2.10) (x ,1) +ε2 ES ∗0,SII [Mk+1 |(xk , 2), jk+1 = 1]. I Si jk = jk+1 = 2 la proxima posición va a ser elegida con probabilidad uniforme en Bε (xk ). Luego, vale (x ,1) ES ∗0,SII [Mk+1 |(xk , 2), jk+1 = 2] I h X k δ i (x0 ,1) = ES ∗ ,SII v (xk+1 ) + ε (1 − ε ) ε 2 2 h(xl )χ{j=2} (jl ) − k+1 |(xk , 2), jk+1 = 2 I 2 l=1 Z X k−1 δ = v ε (y)dy + ε2 (1 − ε2 )h(xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − . Bε (xk ) 2k+1 l=1 Por otro lado (x ,1) ES ∗0,SII [Mk+1 |(xk , 2), jk+1 = 1] I Xk δ = u (xk ) + ε (1 − ε ) ε 2 2 h(xl )χ{j=2} (jl ) − 2k+1 l=1 X k−1 δ = u (xk ) + ε (1 − ε )h(xk ) + ε (1 − ε ) ε 2 2 2 2 h(xl )χ{j=2} (jl ) − . 2k+1 l=1 Si usamos estas estimaciones en (3.2.10) llegamos a (x ,1) ES ∗0,SII [Mk+1 |(xk , 2)] I Z X k−1 δ δ = (1 − ε )[ 2 v ε (y)dy + ε2 h(xk )] − + ε u (xk ) − 2 ε + ε (1 − ε ) 2 2 h(xl )χ{j=2} (jl ) Bε (xk ) 2k+1 2k+1 l=1 X k−1 δ = v ε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − = Mk . 2k l=0 78 Así, llegamos a que (Mk )k≥0 is submartingala. Usando el OSTh podemos concluir que dado k ∈ N, (x ,1) ES ∗0,SII [Mτ ∧k ] ≥ M0 I donde τ es el primer tiempo tal que xτ ∈ / Ω en algún tablero. Tomando límite k → ∞ llegamos a h τ −1 X δi (x ,1) (x ,1) ES ∗0,SII [Mτ ] = ES ∗0,SII wε (xτ , jτ ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − τ ≥ wε (x0 , 1). I I 2 l=1 Luego, obtenemos (x ,1) ES ∗0,SII [pago total] ≥ uε (x0 ) − δ, I tomando ínfimo sobre SII y luego supremo sobre SI tenemos (x ,1) sup ı́nf ESI0,SII [pago total] ≥ uε (x0 ) − δ. SI SII Observar que si comenzamos en el segundo tablero, las estimaciones previas muestran que (x ,2) sup ı́nf ESI0,SII [pago total] ≥ v ε (x0 ) − δ. SI SII Ahora vamos a probar la inecuación opuesta (intercambiando inf y sup). Esto es, vamos a probar (x,1) (x,2) uε (x) ≥ ı́nf sup ESI ,SII [paog total] − δ y v ε (x) ≥ ı́nf sup ESI ,SII [pago total] − δ. SII SI SII SI Para eso vamos a definir una estrategia para el jugador II de la siguiente manera ∗ δ xII k+1 = SII (x0 , . . . , xk ) tal que ı́nf uε (y) + ≥ uε (xII k+1 ) y∈Bε (xk ) 2k+1 y consideremos la sucesión de variables aleatorias X k−1 δ Nk = w (xk , jk ) + ε (1 − ε ) ε 2 2 h(xl )χ{j=2} (jl ) + . 2k l=1 Probemos que (Nk )k≥0 es supermartingala. Nuevamente vamos a considerar varios casos. Caso 1: Supongamos que jk = 1 y jk+1 = 1, esto significa que el primer jugador decide no cambiar de 79 tablero. Entonces, tenemos h X k δ i (x ,1) (x ,1) ESI0,S ∗ [Nk+1 |(xk , 1)] = ESI0,S ∗ uε (xk+1 ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + (xk , 1) II II 2k+1 l=1 h X k−1 δ i (x0 ,1) ε = E |{z} SI ,SII ∗ u (x k+1 ) + ε 2 (1 − ε 2 ) h(x l )χ {j=2} (j l ) + (x k , 1) 2k+1 jk =1 l=1 1 1 X δ k−1 = uε (xIk+1 ) + uε (xII k+1 ) + ε (1 − ε ) 2 2 h(xl )χ{jl =2} (jl ) + k+1 2 2 2 l=1 1 1 X δ k−1 δ ≤ sup uε (y) + ı́nf uε (y) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + k+1 + k+1 2 y∈Bε (xk ) 2 y∈Bε (xk ) 2 2 l=0 X k−1 δ ≤ uε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + = Nk . 2k l=0 En la última inecuación usamos nh 1 1 i o 1 1 uε (x) = máx sup uε (y) + ı́nf uε (y) , v ε (x) ≥ sup uε (y) + ı́nf uε (y). 2 y∈Bε (x) 2 y∈Bε (x) 2 y∈Bε (x) 2 y∈Bε (x) Caso 2: Supongamos que jk = 1 y jk+1 = 2 (esto es, el jugador I decide cambiar de tablero). Entonces, (x ,1) X k δ ES ∗0,SII [Nk+1 |(xk , 1)] = v ε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + I 2k+1 l=1 X k−1 δ = v ε (xk ) + ε2 (1 − ε2 ) |{z} h(xl )χ{j=2} (jl ) + 2k+1 jk =1 l=1 X k−1 δ ≤ uε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + = Nk . 2k l=1 Aquí utilizamos nh 1 1 i o uε (x) = máx sup uε (y) + ı́nf uε (y) , v ε (x) ≥ v ε (x). 2 y∈Bε (x) 2 y∈Bε (x) Caso 3: Supongamos que jk = 2, entonces, utilizando nuevamente que la probabilidad de jk+1 = 2 es (1 − ε2 ) y de jk+1 = 1 es ε2 , obtenemos (x ,1) (x ,1) (x ,1) ES ∗0,SII [Nk+1 |(xk , 2)] = (1 − ε2 )ES ∗0,SII [Nk+1 |(xk , 2), jk+1 = 2] + ε2 ES ∗0,SII [Nk+1 |(xk , 2), jk+1 = 1]. I I I Si jk = jk+1 = 2, la próxima posición es elegida con probabilidad uniforme en Bε (xk ). Luego, llegamos a (x ,1) ES ∗0,SII [Nk+1 |(xk , 2), jk+1 = 2] I h X k δ i (x0 ,1) = ES ∗ ,SII v (xk+1 ) + ε (1 − ε ) ε 2 2 h(xl )χ{j=2} (jl ) + k+1 |(xk , 2), jk+1 = 2 I 2 l=1 Z X k−1 δ = v ε (y)dy + ε2 (1 − ε2 )h(xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + . Bε (xk ) 2k+1 l=1 80 Por otro lado (x ,1) ES ∗0,SII [Nk+1 |(xk , 2), jk+1 = 1] I Xk δ = uε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + 2k+1 l=1 X k−1 δ = uε (xk ) + ε2 (1 − ε2 )h(xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) + . 2k+1 l=1 De estas estimaciones deducimos hZ i δ δ (x ,1) ES ∗0,SII [Nk+1 |(xk , 2)] = (1 − ε2 ) v ε (y)dy + ε2 h(xk ) − + ε2 uε (xk ) − k+1 I Bε (xk ) 2k+1 2 X k−1 +ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) l=1 X k−1 δ = v ε (xk ) + ε2 (1 − ε2 ) h(xl )χ{j=2} (jl ) − = Nk . 2k l=1 Luego (Nk )k≥0 es supermartingala. Usando el OSTh obtenemos (x ,1) ESI0,S ∗ [Nτ ∧k ] ≤ N0 . II tomando límite k → ∞ llegamos a (x ,1) ESI0,S ∗ [Nτ ] ≤ N0 . II Tomando supremo sobre SI y luego ínfimo sobre SII obtenemos (x ,1) ı́nf sup ESI0,SII [Nτ ] ≤ N0 SII SI donde τ es el tiempo de parada del juego. Entonces, (x ,1) ı́nf sup ESI0,SII [pago total] ≤ uε (x0 ) + δ. SII SI Como antes, repitiendo las ideas comenzando en (x0 , 2) llegaremos (x ,2) ı́nf sup ESI0,SII [pago total] ≤ v ε (x0 ) + δ. SII SI Para finalizar la demostración observar que sup ı́nf ESI ,SII [pago total] ≤ ı́nf sup ESI ,SII [pago total]. SI SII SII SI Luego, llegamos a (x ,1) (x ,1) uε (x0 ) − δ ≤ sup ı́nf ESI0,SII [pago total] ≤ ı́nf sup ESI0,SII [pago total] ≤ uε (x0 ) + δ SI SII SII SI 81 y (x ,2) (x ,2) v ε (x0 ) − δ ≤ sup ı́nf ESI0,SII [pago total] ≤ ı́nf sup ESI0,SII [pago total] ≤ v ε (x0 ) + δ. SI SII SII SI Como δ > 0 es arbitrario podemos concluir que el juego tiene valor, y este valor es la solución del DPP que habíamos obtenido (o cualquier solución del DPP), llegamos a (x ,j ) (x ,j ) wε (x0 , j0 ) = sup ı́nf ESI0,SII0 [pago total] = ı́nf sup ESI0,SII0 [pago total]. SI SII SII SI Esto prueba la unicidad de la solución del DPP (3.1.2). 3.3. Convergencia uniforme cuando ε → 0. Ahora queremos pasar al límite en el valor del juego, obteniendo una subsucesión εj tal que uεj → u, v εj → v, cuando εj → 0, y en la próxima sección probaremos que este par límite (u, v) es una solución viscosa del sistema (3.1.3). Para eso vamos a usar un lema de tipo Arzela-Ascoli. La prueba de este lema ver Lemma 4.2 de [44]. Lema 3.3.1. Sea {wε : Ω → R}ε>0 , una sucesión tal que 1. Existe C > 0 tal que |wε (x)| < C para todo ε > 0 y todo x ∈ Ω, 2. Dado δ > 0, existen constantes r0 > 0 y ε0 > 0 tales que para todo ε < ε0 y todo x, y ∈ Ω tales que |x − y| < r0 vale |wε (x) − wε (y)| < δ. Entonces, existe una función uniformemente continua w : Ω → R y una subsucesión que seguiremos llamando {wε } tal que wε → w uniformemente en Ω, cuando ε → 0. Entonces, nuestra tarea ahora es mostrar que uε y v ε satisfacen las hipótesis del lema anterior. Primero, observar que ya demostramos que las funciones están uniformemente acotados (ver Corolario 3.2.1). Por lo tanto, tenemos que existe una constante C > 0 independiente de ε tal que |uε (x)| ≤ C, |v ε (x)| ≤ C, para todo ε > 0 y x ∈ Ω. Para probar la segunda hipótesis del Lema 3.3.1 necesitaremos Algunas estimaciones clave según el tablero en el que estemos jugando. Primero, probaremos unos resultados preliminares en los que asumimos que no cambiamos de tablero (por lo tanto, se juega Tug-of-War o paseos al azar en cada jugada). A continuación, conseguiremos utilizar las estimaciones obtenidas teniendo en cuenta el acoplamiento entre las dos jugadas para demostrar la equicontinuidad asintótica requerida para el valor del juego uε y v ε . 82 3.3.1. Estimaciones para el juego Tug-of-War En este caso vamos a suponer que estamos jugando permanentemente en el primer tablero (con el juego Tug-of-War). Suponemos que el jugador decide jugar en cada jugada, por lo que el tablero no cambia. Lema 3.3.2. Dado η > 0 y a > 0, existen r0 > 0 y ε0 > 0 tal que, dados y ∈ ∂Ω y x0 ∈ Ω con |x0 − y| < r0 , uno de los dos jugadores tiene una estrategia S ∗ con la cual obtenemos    a P xτ : |xτ − y| ≥ a < η and P τ ≥ 2 < η, ε para ε < ε0 y xτ ∈ RN \Ω la primera posición fuera de Ω. Demostración. Vamos a incluir una versión resumida de la demostración. Para ver todo los detalles se puede ir a [47]. Podemos asumir sin pérdida de generalidad que y = 0 ∈ ∂Ω. En este caso definimos la estrategia S ∗ (esta estrategia puede utilizada por cualquiera de los dos jugadores) ”apunta al punto y = 0” de la siguiente manera:  ε3 x xk+1 = S ∗ (x0 , x1 , ..., xk ) = xk + k −ε . 2k |xk | Consideremos la sucesión de variables aleatorias ε3 Nk = |xk | + , 2k para k ≥ 0. Asumiendo que uno de los jugadores usa la estrategia S ∗ , el objetivo es probar que {Nk }k≥0 es supermartingala. Luego de algunos cálculos llegamos a ε2 E[(Nk+1 − Nk )2 |Nk ] ≥ . 3 Ahora, analicemos Nk2 − Nk+1 2 . En efecto Nk2 − Nk+1 2 = (Nk+1 − Nk )2 + 2Nk+1 (Nk − Nk+1 ). Además vale E[Nk+1 (Nk − Nk+1 )|Nk ] ≥ 0. Entonces ε2 E[Nk2 − Nk+1 2 |Nk ] ≥ E[(Nk+1 − Nk )2 |Nk ] ≥ . 3 Para la sucesión de variables aleatorias kε2 Wk = Nk2 + , 3 llegamos a ε2 E[Wk − Wk+1 |Wk ] = E[Nk2 − Nk+1 2 − |Wk ] ≥ 0, 3 83 como E[Wk |Wk ] = Wk entonces E[Wk+1 |Wk ] ≤ Wk . Hemos probado que {Wk }k≥1 es una supermartingala. Usando el OSTh, y dado m ∈ N definimos el tiempo de parada τ ∧ m := mı́n{τ, m} y estamos bajo las hipótesis de OSTh. Entonces, obtenemos E[Wτ ∧m ] ≤ W0 . Observar que lı́m τ ∧ m = τ casi seguramente. Luego, usando el Lema de Fatou, llegamos a m→∞ E[Wτ ] = E[lı́m inf Wτ ∧m ] ≤ lı́m inf E[Wτ ∧m ] ≤ W0 . m |{z} m |{z} F atou OST h Luego, obtenemos E[Wτ ] ≤ W0 , i.e., τ ε2 E[Nτ2 + ] ≤ N02 . (3.3.11) 3 Entonces E[τ ] ≤ 3(|x0 | + ε3 )2 ε−2 ≤ 4|x0 |2 ε−2 , si ε es suficientemente chico. Por otra parte, si volvemos a (3.3.11) tenemos E[Nτ2 ] ≤ N02 , es decir, h ε3 i E[|xτ |2 ] ≤ E (|xτ | + τ )2 ≤ (|x0 | + ε3 )2 ≤ 2|x0 |2 . 2 Lo que tenemos hasta ahora es E[τ ] ≤ 4|x0 |2 ε−2 y E[|xτ |2 ] ≤ 2|x0 |2 . Vamos a usar estas estimaciones para probar  a   P τ ≥ 2 <η y P |xτ | ≥ a < η. ε Sea η > 0 y a > 0, tomamos x0 ∈ Ω tal que |x0 | < r0 con r0 que determinaremos luego (dependerá de η y a). Entonces  aa Cr02 ε−2 ≥ C|x0 |2 ε−2 ≥ Ex0 [τ ] ≥ P τ ≥ 2 2 . ε ε Luego a r2 P(τ ≥ 2 ) ≤ C 0 < η, ε a q lo que será verdadero si r0 < ηa C . También tenemos Cr02 ≥ C|x0 |2 ≥ Ex0 [|xτ |2 ] ≥ a2 P(|xτ |2 ≥ a2 ). Entones r02 P(|xτ | ≥ a) ≤ C < η, a2 q q q 2 ηa2 lo que será verdadero si r0 < ηa C . Observar que si tomamos a < 1 llegamos a C < ηa C . Luego, si q 2 elegimos r0 < ηa C ambas condiciones se satisfacen. 84 3.3.2. Estimaciones para paseos al azar En este caso vamos a suponer que permanecemos permanentemente en el segundo tablero, jugando paseos al azar. En este caso no hay estrategias involucradas. Lema 3.3.3. Dados η > 0 y a > 0, existen r0 > 0 y ε0 > 0 tal que, dados y ∈ ∂Ω y x0 ∈ Ω con |x0 −y| < r0 , si jugamos paseos al azar, tenemos    a P |xτ − y| ≥ a < η y P τ ≥ 2 < η, ε para todo ε < ε0 y xτ ∈ RN \Ω la primera posición fuera de Ω. Demostración. Recordemos la condición de bola exterior uniforme sobre Ω con constante θ0 > 0. Para N ≥ 3, y dado θ < θ0 , e y ∈ ∂Ω podemos asumir sin perdida de generalidad que zy = 0 es tal que Bθ (0) ∩ Ω = {y}. Definimos el conjunto Ωε = {x ∈ RN : d(x, Ω) < ε}, para ε suficientemente chico. Consideremos la función µ : Ωε → R definida como 1 1 µ(x) = − . θN −2 |x|N −2 Esta función es positiva en Ω\{y}, radialmente creciente, y armónica en Ω. También vale que µ(y) = 0. Para N = 2 tomamos µ(x) = ln(θ) − ln(|x|) (omitimos los detalles en este caso). Consideremos x0 ∈ Ω, la primera posición del juego, tal que |x0 − y| < r0 con r0 a elegir más adelante. Sea (xk )k≥0 la sucesión de variables aleatorias jugando paseos al azar, y la sucesión de variables aleatorias Nk = µ(xk ), para k ≥ 0. Vamos a probar que Nk es una martingala. En efecto Z E[Nk+1 |Nk ] = µ(y)dy = µ(xk ) = Nk . Bε (xk ) Aquí usamos que µ es armónica. Dado que µ es acotada en Ω, se cumplen las hipótesis del OSTh, luego tenemos E[µ(xτ )] = µ(x0 ). (3.3.12) Entonces vale  RN −2 (N − 2)  µ(x0 ) ≤ r0 . θ2(N −2) Si llamamos RN −2 (N − 2) c(Ω, θ) = θ2(N −2) 85 y volvemos a (3.3.12) obtenemos E[µ(xτ )] < c(Ω, θ)r0 . (3.3.13) Debemos establecer una relación entre µ(xτ ) y |xτ −y|. Para ello, consideremos la función b : [θ, +∞) → R dada por 1 1 b(a) = N −2 − N −2 . θ a Con esta función podemos probar que dado a > θ existe b > 0 tal que if µ(xτ ) < b ⇒ |xτ | < a. Aquí usamos que la función b(a) es creciente. Ahora, debemos probar la siguiente afirmación: para todo a > 0 , existe a > θ y ε0 > 0 tal que, si |xτ | < a, y d(xτ , Ω) < ε0 , entonces |xτ − y| < a. Vamos a demostrar esta afirmación por el absurdo: Supongamos que negamos la afirmación, entonces existe un a0 > 0 tal que para todo a > θ y para todo ε0 > 0 existe xτ con |xτ | < a y d(xτ , Ω) < ε0 . pero |xτ − y| ≥ a0 . En este caso podemos construir sucesiones an → θ, εn0 → 0 y xnτ un conjunto acotado de puntos. Este conjunto tiene una subsucesión convergente que, para no cargar la notación, llamaremos simplemente xnτ → z. Analicemos un poco que cumple z. como |xnτ | < an ⇒ |z| ≤ θ, como |xnτ − y| > a0 ⇒ |z − y| ≥ a0 , y finalmente como d(xnτ , Ω) < εn0 ⇒ d(z, Ω) = 0 ⇒ z ∈ Ω. Esto implica que |z| = θ y z ∈ Ω. El único punto que cumple esto es y, pero z 6= y pues |z − y| ≥ a0 > 0. Esto produce un absurdo. Poniendo todo junto obtenemos que, dado a > 0, existe a > θ, b > 0 y ε0 > 0 tal que si µ(xτ ) < b ⇒ |xτ − y| < a , d(xτ , Ω) < ε0 . Vamos a pedir 0 < b < a, a definir luego. Entonces llegamos a P(µ(xτ ) ≥ b) ≥ P(|xτ − y| ≥ a). 86 Volviendo a (3.3.13) obtenemos c(Ω, θ)r0 > E[µ(xτ )] ≥ P(µ(xτ ) ≥ b)b ≥ P(|xτ − y| ≥ a)b. (3.3.14) Usando que a − θ ≤ K(θ)b arribamos a a−θ c(Ω, θ)r0 > P(|xτ − y| ≥ a) . K(θ) Luego c(Ω, θ)r0 K(θ) P(|xτ − y| ≥ a) < < η, a−θ lo cual es cierto si η(a − θ) r0 < . c(Ω, θ)K(θ) Esta es una de las inecuaciones deseadas. Ahora, consideremos Z E[Nk+1 2 − Nk2 |Nk ] = (µ2 (w) − µ2 (xk ))dw. Bε (xk ) Podemos probar que E[Nk+1 2 − Nk2 |Nk ] ≥ σ(Ω)ε2 , si ε es suficientemente chico. Aquí, R = máxx∈Ω {|x|} y κ(N − 2)2 σ(Ω) = . 2R2(N −2) Consideremos la sucesión de variables aleatorias (Wk )k≥0 dada por Wk = −Nk2 + σ(Ω)kε2 . Entonces E[Wk+1 − Wk |Wk ] = E[−(Nk+1 2 − Nk2 ) + σε2 |Nk ] ≤ 0. Esto es, Wk es una supermartingala. Usando el OSTh como antes obtenemos E[−µ2 (xτ ) + στ ε2 ] ≤ −µ2 (x0 ). Por lo tanto, E[στ ε2 ] ≤ −µ2 (x0 ) + E[µ2 (xτ )] ≤ E[µ2 (xτ )]. (3.3.15) Vamos a necesitar acotar E[µ2 (xτ )]. Tenemos E[µ2 (xτ )] = E[µ2 (xτ )|µ(xτ ) < b]P(µ(xτ ) < b) + E[µ2 (xτ )|µ(xτ ) ≥ b]P(µ(xτ ) ≥ b). Luego vale E[µ2 (xτ )|µ(xτ ) < b] ≤ b2 y P(µ(xτ ) < b) ≤ 1. Si llamamos M (ε0 ) = máxx∈Ωε0 |µ(x)| obtene- mos E[µ2 (xτ )|µ(xτ ) ≥ b] ≤ M (ε0 )2 . Finalmente usamos (3.3.14) para llegar a c(Ω, θ)r0 P(µ(xτ ) ≥ b) ≤ . b 87 Por lo tanto c(Ω, θ)r0 E[µ2 (xτ )] ≤ b2 + M (ε0 )2 . b Recordemos que 0 < b < a. Entonces c(Ω, θ)r0 E[µ2 (xτ )] ≤ a2 + M (ε0 )2 . (3.3.16) b Por otro lado, tenemos σE[τ ε2 ] ≥ P(τ ε2 ≥ a)aσ. Usando (3.3.15) y (3.3.16) llegamos a  a a c(Ω, θ)r0 P τ ≥ 2 ≤ + M (ε0 )2 . ε σ bσa Si pedimos a η < σ 2 arribamos a  a η c(Ω, θ)r0 P τ ≥ 2 ≤ + M (ε0 )2 <η ε 2 baσ lo cual es cierto si pedimos bηaσ r0 < . 2M (ε0 )c(Ω, θ) Entonces, obtenemos la segunda desigualdad del lema, así hemos terminado la demostración. Ahora vamos a analizar el juego acoplado completo. Primero, necesitamos estimar el número de veces que se juega el juego. Para esto necesitamos acotar la cantidad de veces que jugamos en el segundo tablero. Para eso necesitamos que los jugadores tengan una estrategia para la cual se verifica C E[τ ] ≤ , (3.3.17) ε2 donde la constante C es independiente de ε. Tengamos en cuenta que esta es una afirmación no trivial ya que el juego tiene reglas asimétricas. De hecho, la parte dificultosa del argumento es demostrar que el jugador II tiene una estrategia que garantiza (3.3.17) independientemente de las elecciones realizadas por el jugador I cuando juega en el primer tablero Tug-of-War, o cuando decide cambiar de tablero. En cualquiera de estos casos la estrategia que elige el jugador II hará que finalice el juego en un número esperado de jugadas no tan grande. Observar que el jugador I puede forzar que el juego se juegue sólo en el segundo tablero (cambiando tablero cada vez), o jugar en el primer tablero. Si ocurre alguno de estos dos casos extremos, entonces la cota (3.3.17) se mantiene puesto que si se juega Tug-of-War todo el tiempo tenemos la estimación dada en el Lema 3.3.2 y cuando juegan todo el tiempo paseos al azar, podemos usar el Lema 3.3.3. Sin embargo, tenemos que cuidar todos los posibles escenarios intermedios. Por lo tanto, enunciemos y probemos la cota sobre la esperanza del número de jugadas τ . 88 Lema 3.3.4. Si el jugador I decide no cambiar de tablero y usa la estrategia SI∗ definida en el lema 3.3.2 (la estrategia de apuntar a y ∈ ∂Ω), entonces, existe C = C(Ω) > 0 tal que ε2 ExS0∗ ,SII [τ ] ≤ C (3.3.18) I para cualquier posible estrategia SII para el jugador II, y cualquier posición inicial del juego (x0 , j0 ) (esto es, para cualquier x0 ∈ Ω y cualquier tablero, j0 = 1 o j0 = 2). Demostración. Supongamos a comenzamos en el primer tablero, es decir, j0 = 1, entonces jugando the Tug-of-War podemos usar la estimación del lema 3.3.2. Notar que en la demostración del lema 3.3.2 obtuvimos una cota para E[τ ] ≤ 4|x0 |2 ε−2 (3.3.19) cuando la posición inicial es cercana al borde y uno de los jugadores apunta al borde, es decir, si comenza- mos |x0 − y| < r0 , obtenemos (3.3.18) para esta posición inicial. Entonces, podemos repetir el argumento anterior comenzando en x1 tal que |x1 − x0 | < r0 para algún x0 con |x0 − y| < r0 , tenemos una estrategia de apuntar a x0 y así obtendremos, gracias al lema 3.3.2 apuntamos a y para obtener E[τ ] ≤ 8r02 ε−2 comenzando en x1 con |x1 − y| < 2r0 . Dado que Ω es acotado, podemos obtener, en un número finito de pasos la estimación (3.3.18) si comenzamos en cualquier punto (x0 , 1) para cualquier posible estrategia SII del jugador II. Si la posición inicial x0 se encuentra en el segundo tablero, la esperanza del tiempo de parada τ se puede acotar ∞ X h i (x ,2) (x ,2) ES ∗0,SII [τ ] ≤ ES ∗0,SII τ |cambia de tablero en la jugada j P(cambia de tablero en la jugada j) I I j=1 ∞  X C ≤ j+ P(cambia de tablero en la jugada j). ε2 j=1 (3.3.20) Aquí usamos la estimación (3.3.19) para obtener h i C (x ,2) ES ∗0,SII τ |cambia de tablero en la jugada j ≤ j + 2 . I ε Por otro lado, tenemos P(cambia de tablero en la jugada j) = (1 − ε2 )j−1 ε2 . Entonces, si volvemos a (3.3.20), llegamos a ∞  C X ∞X ∞ X (x ,2) 1 C ES ∗0,SII [τ ] ≤ j+ 2 (1 − ε2 )j−1 ε2 = jε2 (1 − ε2 )j−1 + C (1 − ε2 )j−1 ≤ 2 + 2 . I ε ε ε j=1 j=1 j=1 89 Aquí usamos que ∞ X 1 jε2 (1 − ε2 )j−1 = E[X] = , ε2 j=1 siendo X ∼ Ge(ε2 ). Con esto hemos terminado la demostración. ∗ definida en el Lema 3.3.2 (la estrategia que apunta Lema 3.3.5. Si el jugador II utiliza la estrategia SII a y ∈ ∂Ω), entonces, existe una constante C = C(Ω) tal que ExS0I ,S ∗ [ε2 τ ] ≤ C II para cualquier estrategia posible SI para el jugador I (que decide jugar o cambiar de tablero en cualquier jugada en el primer tablero), y para cualquier posición inicial posible del juego (x0 , j0 ) (es decir, para cualquier x0 ∈ Ω y cualquier tablero, j0 = 1 o j0 = 2). Demostración. Sin pérdida de generalidad podemos suponer que Ω ⊆ BR (0)\Bδ (0) e y ∈ ∂Ω ∩ ∂Bδ (0). Vamos a definir un juego nuevo en un tablero: Consideremos en el dominio BR (0)\Bδ (0) (solo en un tablero) un nuevo juego con las siguientes reglas; dado x0 ∈ BR (0)\Bδ (0) el jugador I elige entre dos opciones. La primera opción es jugar Tug-of-War. La segunda opción es jugar paseos al azar con probabilidad (1 − ε2 ), y con probabilidad ε2 la posición se mantiene en x0 . Si el jugador I elige la opción uno, tiene alguna estrategia SI para elegir la siguiente posición (supongamos que quiere maximizar el tiempo de salida). En ambos casos la siguiente posición debe seleccionarse en Bε (x0 ) ∩ BR (0). El juego termina cuando la posición llega a Bδ (0). Nuestro objetivo ahora es estimar la esperanza del tiempo de salida τ ∗ jugando este juego. Más ∗ la estrategia del Lema 3.3.2 para el jugador II, y S cualquier estrategia para el precisamente, dada SII I jugador I, tenemos ExS0I ,S ∗ [τ ∗ ] ≤ C(R, δ)ε−2 . II En efecto, consideremos la función E(x) = ExSI ,S ∗ [τ ∗ ]. II Nótese que E es radial y creciente en r = |x|. Entonces, utilizando las estrategias SII∗ y S una estrategia que busca maximizar el tiempo de salida, I tenemos que la función E puede asociarse con el siguiente DPP n1 Z o 1 E(x) = máx sup E(y) + ı́nf E(y), (1 − ε ) 2 E(y)dy + ε2 E(x) + 1. 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) El último término corresponde a la jugada ejecutada (el número de jugadas siempre aumenta en uno al realizar una jugada). Llamemos F (x) = ε2 E(x). Esta función verifica n1 Z o 1 F (x) = máx sup F (y) + ı́nf F (y), (1 − ε ) 2 F (y)dy + ε2 F (x) + ε2 . 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) 90 por lo tanto, llegamos a n1 1 0 = máx sup (F (y) − F (x)) + ı́nf (F (y) − F (x)), 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Z  o (1 − ε2 ) F (y) − F (x) dy + ε2 . Bε (x)∩BR (0) Esto nos induce a buscar una función F tal que 1 1 0≥ sup (F (y) − F (x)) + ı́nf (F (y) − F (x)) + ε2 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) y Z (3.3.21)  0≥ F (y) − F (x) dy + ε2 . Bε (x)∩BR (0) Nótese que para ε pequeños esta es una versión discreta de las siguientes desigualdades    0 ≥ ∆∞ F (x) + 2 x ∈ BR (0)\Bδ (0),      0 ≥ ∆F (x) + 2(N + 2) x ∈ BR (0)\Bδ (0), F (x) = 0 x ∈ ∂Bδ (0), (3.3.22)       ∂F  (x) = 0 x ∈ ∂BR (0), ∂η ∂ donde ∂η se refiere a la derivada normal. Consideremos el problema    ∆F (x) + 2(N + 2) = 0 x ∈ BR+ε (0)\Bδ (0),   F (x) = 0 x ∈ ∂Bδ (0), (3.3.23)     ∂F (x) = 0 x ∈ ∂BR+ε (0). ∂η En [13] se demuestra que una solución radial y creciente de este problema en r = |x| viene dada por F (r) = −ar2 − br2−N + c para N > 2 y F (r) = −ar2 − b log(r) + c, para N = 2, con ciertas constantes a, b, c que dependen solo de N , R, δ y ε pero que están acotadas uniformemente cuando ε → 0. Si miramos esta función en el conjunto Bδ (0)\B δ−ε (0) obtenemos N −1 ∆∞ F = Frr ≤ Frr + Fr = ∆F. r Entonces, F satisface (3.3.22). Un cálculo clásico usando las expansiones de Taylor muestra que F satisface (3.3.21) para cada Bε (x) ⊂ (BR+ε (0)\Bδ (0)). Además, para cada x ∈ BR (0)\Bδ (0) se cumple que Z Z 1 1 1 1 F ≤ F y sup F+ ı́nf F ≤ sup F + ı́nf F. Bε (x)∩BR (0) Bε (x) 2 Bε (x)∩BR (0) 2 Bε (x)∩BR (0) 2 Bε (x) 2 Bε (x) 91 Entonces llegamos a Z 1 1 F (x) ≥ máx sup F+ ı́nf F, (1 − ε2 ) F + ε2 F (x) + ε2 . 2 Bε (x)∩BR (0) 2 Bε (x)∩BR (0) Bε (x)∩BR (0) Por lo tanto, si consideramos F (xk ) + kε2 , obtenemos ExS0I ,S ∗ [F (xk+1 ) + (k + 1)ε2 |xk ] II n1 Z o 1 ≤ máx sup F+ ı́nf F, (1 − ε2 ) F + ε2 F (xk ) + ε2 + kε2 2 Bε (xk )∩BR (0) 2 Bε (xk )∩BR (0) Bε (xk )∩BR (0) ≤ F (xk ) + kε2 . Entonces {F (xk ) + kε2 } es una supermartingala. Usando el OSTh obtenemos ExS0I ,S ∗ [F (xτ ∗ ∧k ) + (τ ∗ ∧ k)ε2 ] ≤ F (x0 ). II Usando xτ ∗ ∈ Bδ (0)\Bδ−ε (0) tenemos ExS0I ,S ∗ [−F (xτ∗ )] ≤ o(1). II Por otro lado, usando la forma de las soluciones de (3.3.23), tenemos la estimación F (x0 ) ≤ C(δ, Ω). Por lo tanto, tomando k → ∞ obtenemos ExS0I ,S ∗ [ε2 τ ∗ ] ≤ C(δ, Ω) + o(1), (3.3.24) II aquí o(1) es tal que o(1) → 0 si ε → 0. Ahora, volvamos a nuestro juego original. Supongamos que en el juego con dos tableros, utilizando ∗ para el jugador II definida en el Lema 3.3.2 y S cualquier estrategia para el jugador I, la estrategia SII I dado un punto inicial x0 ∈ Ω ⊆ BR (0)\Bδ (0) (en cualquier tablero) queremos estimar (x ,j ) ESI0,S ∗0 [τ ]. II Para ello, consideramos una sucesión de posiciones en el juego {(x0 , j0 ), (x1 , j1 ), . . . , (xτ , jτ )} con xτ −1 ∈ Ω y xτ ∈ / Ω. Si extraemos los términos (xl , jl ) en los que jl−1 = 1 y jl = 2 (esto implica xl−1 = xl ) obtenemos una nueva sucesión {(x0 , j0 ), (xi1 , ji1 ), . . . , (xτ , jτ )} tal que τ ≤ τ ≤ 2τ . Ahora, la sucesión {x0 , xi1 , . . . , xτ } corresponde a las posiciones si jugamos el juego en un tablero con las reglas definidas anteriormente, usando dos estrategias ŜI y ŜII ∗ tales que Ŝ ∗ es la estrategia que apunta a y ∈ ∂Ω (la II ∗ misma que SII ), y ŜI la estrategia que repite la estrategia SI (y usamos probabilidad si cambiamos de paseos al azar a Tug-of-War) hasta el paso τ . Si xτ ∈ / BR (0)\Bδ (0) entonces τ ∗ = τ . De lo contrario, tenemos ExS0I ,S ∗ [τ ] ≤ sup Ex0 ∗ [τ ∗ ]. II ŜI ,ŜII ŜI 92 Utilizando la acotación (3.3.24) obtenemos C(Ω, δ) EŜI ,Ŝ ∗ [τ ∗ ] ≤ II ε2 para cualquier estrategia ŜI . Por lo tanto, obtenemos 2C(Ω, δ) ExS0I ,S ∗ [τ ] ≤ ExS0I ,S ∗ [2τ ] ≤ . II II ε2 Esto finaliza la demostración. Corolario 3.3.1. (a) Si el jugador I decide no cambiar de tablero cuando juega en el primer tablero y utiliza la estrategia SI∗ definida en el Lema 3.3.2 (la estrategia que apunta a y ∈ ∂Ω), entonces, existe una constante C = C(Ω) > 0 tal que ExS0∗ ,SII [pago total] ≤ C I para cualquier estrategia posible SII para el jugador II, y para cualquier posición inicial del juego (x0 , j0 ) (es decir, para cualquier x0 ∈ Ω y cualquier tablero, j0 = 1 o j0 = 2). ∗ definida en el Lema 3.3.2 (la estrategia que apunta a (b) Si el jugador II utiliza la estrategia SII y ∈ ∂Ω), entonces, existe una constante C = C(Ω) > 0 tal que ExS0I ,S ∗ [pago total] ≤ C II para cualquier estrategia posible SI para el jugador I (que decide jugar o cambiar de tablero en cualquier jugada en el tablero 1), y para cualquier posición inicial del juego (x0 , j0 ) (es decir, para cualquier x0 ∈ Ω y cualquier tablero, j0 = 1 o j0 = 2). Demostracón. Observamos que h i h τ −1 X i E pago total = E f (xτ )χ{j=1} (jτ ) + g(xτ )χ{j=2} (jτ ) + ε (1 − ε ) 2 2 h(xk )χ{j=2} (jk ) n o k=1 ≤ máx sup |f (x)|, sup |g(x)| + E[τ ε2 ] sup |h(x)| n x∈Ωc x∈Ωc o x∈Ω ≤ máx sup |f (x)|, sup |g(x)| + C sup |h(x)|. x∈Ωc x∈Ωc x∈Ω Aquí C > 0 está dado por el Lema 3.3.4 o por el Lema 3.3.5. Ahora estamos listos para demostrar la segunda condición del lema tipo Arzela-Ascoli. Lema 3.3.6. Dado δ > 0 hay constantes r0 y ε0 tales que para cada ε < ε0 y cualquier x, y ∈ Ω con |x − y| < r0 se cumple |uε (x) − uε (y)| < δ y |v ε (x) − v ε (y)| < δ. 93 Demostración. Primero nos ocupamos de la estimación para v ε . Recordemos que v ε es el valor del juego que comienza en el segundo tablero (donde jugamos paseos al azar). Vamos a comenzar con dos puntos cercanos x e y con y 6∈ Ω y x ∈ Ω. Recordar que v ε (y) = g(y) pues y 6∈ Ω. Dado η > 0 y a > 0 tenemos r0 > 0 y ε0 > 0 tales que valen las estimaciones del Lema 3.3.3. Ahora supongamos que el juego comienza en (x0 , 2), es decir, comenzamos en el segundo tablero. Usando los valores r0 , ε0 del Lema 3.3.3, definamos n a a o G = la posición no cambia de tablero en d 2 e jugadas y τ < d 2 e . ε ε Ahora, estimemos P(G) y P(Gc ). Tenemos que  a   a  P(Gc ) ≤ P el juego cambia de tablero antes de d 2 e jugadas + P τ ≥ d 2 e . ε ε Primero, tenemos  a  a P el juego cambia de tablero antes de d 2 e jugadas = 1 − (1 − ε2 ) ε2 ≤ (1 − e−a ) + η (3.3.25) ε a para ε lo suficientemente chico. Aquí usamos que (1 − ε2 ) ε2 % e−a . Ahora, observamos que usando el Lema 3.3.3 obtenemos  a  a P τ ≥ 2 ≤ P τ ≥ 2 < η, (3.3.26) ε ε0 para ε < ε0 . De (3.3.25) y (3.3.26) obtenemos P(Gc ) ≤ (1 − e−a ) + η + η = (1 − e−a ) + 2η y por lo tanto P(G) = 1 − P(Gc ) ≥ 1 − [(1 − e−a ) + 2η]. Entonces llegamos a ExS0I ,SII [pago total] h τ −1 X i ≥ ExS0I ,SII g(xτ ) + ε2 h(xk )|G (1 − [(1 − e−a ) + 2η]) (3.3.27)  k=0  − máx{ sup |f |, sup |g|} + C sup |h| [(1 − e−a ) + 2η]. x∈Ωc x∈Ωc x∈Ω Analicemos el valor esperado h τ −1 X i ExS0I ,SII g(xτ ) + ε 2 h(xk )|G . k=0 Necesitamos considerar dos eventos, G1 = G ∩ {|xτ − y| < a} y G2 = G ∩ {|xτ − y| ≥ a}. 94 Tenemos que G = G1 ∪ G2 , entonces h τ −1 X i ExS0I ,SII g(xτ ) + ε 2 h(xk )|G k=0 (3.3.28) h τ −1 X i h τ −1 X i = ExS0I ,SII g(xτ ) + ε 2 h(xk )|G1 P(G1 ) + ExS0I ,SII g(xτ ) + ε 2 h(xk )|G2 P(G2 ). k=0 k=0 Ahora hay que observar que P(G2 ) ≤ P(|xτ − y| ≥ a) < η. (3.3.29) Para obtener una cota para el otro caso observamos que Gc1 = Gc ∪ {|xτ − y| ≥ a}. Por lo tanto P(G1 ) = 1 − P(Gc1 ) ≥ 1 − [P(Gc ) + P(|xτ − y| ≥ a)], y llegamos a P(G1 ) ≥ 1 − [(1 − e−a ) + 2η + η] = 1 − [(1 − e−a ) + 3η]. (3.3.30) Si volvemos a (3.3.28) y usamos (3.3.30) y (3.3.29) obtenemos h τ −1 X i ESx0I ,SII g(xτ ) + ε2 h(xk )|G k=0 h τ −1 X i   ≥ ExS0I ,SII g(xτ ) + ε 2 h(xk )|G1 1 − [(1 − e−a ) + 3η] − sup |g| + C sup |h| η. k=0 x∈Ωc x∈Ω Usando que g es Lipschitz y τ < d εa2 e obtenemos τ −1 X g(xτ ) + ε 2 h(xk ) ≥ g(y) − L|xτ − y| − τ ε2 sup |h| ≥ g(y) − (L + sup |h|)a, k=0 x∈Ω x∈Ω y luego obtenemos (usando que g(y) − (L + sup |h|)a no depende de las estrategias) x∈Ω h τ −1 X i ExS0I ,SII g(xτ ) + ε 2 h(xk )|G ≥ (g(y) − (L + sup |h|)a)(1 − [(1 − e−a ) + 3η]) x∈Ω k=0  − sup |g| + C sup |h| η. x∈Ωc x∈Ω Recordando (3.3.27) obtenemos ExS0I ,SII [pago total]  ≥ (g(y) − (L + supx∈Ω |h|)a)(1 − [(1 − e−a ) + 3η]) − supx∈Ωc |g| + C supx∈Ω |h| η   − máx{ sup |f |, sup |g|} + C sup |h| [(1 − e−a ) + 2η]. x∈Ωc x∈Ωc x∈Ω 95 Observar que cuando η → 0 y a → 0 el lado derecho tiende a g(y), por lo tanto hemos obtenido ExS0I ,SII [pago total] ≥ g(y) − A(a, η), con A(a, η) → 0. Tomando ínfimo sobre todas las estrategias posibles SII y luego supremo entre las estrategias SI obtenemos v ε (x0 ) ≥ g(y) − A(a, η), con A(a, η) → 0 cuando η → 0 y a → 0 como queríamos mostrar. Usando argumentos similares podemos probar que v ε (x0 ) ≤ g(y) + B(a, η) con B(a, η) → 0 como η → 0 y a → 0. Esto termina la prueba cuando x0 ∈ Ω e y 6∈ Ω en el segundo tablero. Ahora vamos a estimar uε . Supongamos que empezamos en el primer tablero, con dos puntos cercanos x0 ∈ Ω e y ∈ / Ω. Consideremos dos casos. Caso 1: Vamos a demostrar que uε (x0 ) − f (y) ≥ −A(a, η) con A(a, η) & 0 si a → 0 y η → 0. Dados η > 0 y a > 0 utilizando las estimaciones del Lema 3.3.2 tenemos los valores r0 > 0 y ε0 > 0 y SI∗ la estrategia tal que el jugador I nunca abandona el primer tablero (decide jugar en cada turno) y, jugando Tug-of-War, utilizamos las mismas estrategias que en el Lema 3.3.2. Luego (x ,1) uε (x0 ) ≥ ı́nf ES ∗0,SII [pago total]. SII I Ahora, utilizando la estrategia SI∗ , y SII cualquier estrategia para el jugador II obtenemos (x ,1) (x ,1) ES ∗0,SII [pago total] = ES ∗0,SII [f (xτ )] I I Consideremos el conjunto n o F = |xτ − y| < a . Utilizando el lema 3.3.2 tenemos P(F ) ≥ 1 − η y P(F c ) < η. Entonces obtenemos (x ,1) (x ,1) (x ,1) ES ∗0,SII [f (xτ )] = ES ∗0,SII [f (xτ )|F ]P(F ) + ES ∗0,SII [f (xτ )|F c ]P(F c ) I I I (x ,1) (3.3.31) ≥ ES ∗0,SII [f (xτ )|F ]P(F ) − sup |f (x)|η. I x∈Ωc Ahora, usando que f es Lipschitz, llegamos a f (xτ ) ≥ f (y) − L|xτ − y| ≥ f (y) − La, 96 y luego, si retomamos (3.3.31), obtenemos (x ,1) (x ,1) ES ∗0,SII [f (xτ )] ≥ ES ∗0,SII [f (y) − La](1 − η) − sup |f (x)|η. I I x∈Ωc Ahora, observamos que f (y) − La no depende de ninguna estrategia, por lo tanto, (x ,1) ES ∗0,SII [f (xτ )] ≥ (f (y) − La)(1 − η) − sup |f (x)|η. I x∈Ωc Notar que cuando η → 0 y a → 0 el lado derecho tiende a f (y), por lo tanto hemos obtenido ExS0∗ ,SII [f (xτ )] ≥ f (y) − A(a, η) I con A(a, η) → 0. Tomando ínfimo sobre todas las estrategias posibles SII obtenemos ı́nf ExS0∗ ,SII [f (xτ )] ≥ f (y) − A(a, η). SII I Entonces, tenemos uε (x0 ) = sup ı́nf ExS0∗ ,SII [f (xτ )] ≥ ı́nf ExS0∗ ,SII [f (xτ )] ≥ f (y) − A(a, η), I I SI SII SII con A(a, η) → 0 cuando η → 0 y a → 0 como queríamos demostrar, esto termina el caso 1. Caso 2: Ahora vamos a demostrar que uε (x0 ) ≤ f (y) + B(a, η) con B(a, η) & 0 si a → 0 y η → 0. Dados η > 0 y a > 0 utilizando las estimaciones del Lema 3.3.2 ∗ la estrategia tal que el jugador II apunte a y jugando Tug-of-War tenemos valores r0 > 0 y ε0 > 0 y SII (si jugamos en el primer tablero). Tenemos (x ,1) uε (x0 ) ≤ sup ESI0,S ∗ [pago total]. II SI (x ,1) ∗ la estrategia particular para el jugador II y S cualquier estrategia Estimemos ESI0,S ∗ [pago total] para SII I II para el jugador I. Dividamos el conjunto de estrategias para el jugador I de la siguiente manera n a o H = SI : la posición no cambia de tablero en las primeras d 2 e jugadas . ε Si tomamos cualquier estrategia SI ∈ H, utilizando las estimaciones del lema 3.3.2 si definimos  a K = τ < d 2e ε Obtenemos P(K) ≥ 1 − η ⇒ P(K c ) < η. 97 Entonces (x ,1) (x ,1)  ESI0,S ∗ [f (xτ )] ≤ ESI0,S ∗ [f (xτ )|K] + máx{ sup |f (x)|, sup |g(x)|} + C sup |h(x)| η. (3.3.32) II II x∈Ωc x∈Ωc x∈Ω Ahora consideremos K1 = K ∩ {|xτ − y| < a} y K2 = K ∩ {|xτ − y| ≥ a}. Observe que K1 ∪ K2 = K. Además, utilizando las estimaciones del Lema 3.3.2 tenemos   P(K2 ) ≤ P |xτ − y| ≥ a < η. Entonces, vale lo siguiente (x ,1) (x ,1) ESI0,S ∗ [f (xτ )|K] ≤ ESI0,S ∗ [f (xτ )|K1 ] + ( sup |f (x)|)η. II II x∈Ωc Utilizando que f es Lipshitz obtenemos f (xτ ) ≤ f (y) + L|xτ − y| < f (y) + La si estamos bajo las condiciones K1 . Por lo tanto, (x ,1) ESI0,S ∗ [f (xτ )|K] ≤ f (y) + La + ( sup |f (x)|)η. II x∈Ωc Por último, si volvemos a (3.3.32), tenemos para SII ∗ la estrategia particular del jugador 2 y S ∈ H I cualquiera, obtenemos (x ,1) ESI0,S ∗ [f (xτ )] ≤ f (y) + La + 2( sup |f (x)|)η. II x∈Ωc Ahora tomemos SI ∈ H c . Esto significa que el jugador uno decide cambiar de tablero antes de d εa2 e. Llamemos xk a la (primera) posición cuando cambiamos de tablero. Es decir, jl = 1 si 0 ≤ l < k y jk = 2 , xk = xk−1 , y k ≤ d εa2 e. Ahora afirmamos que, para a > 0 y η > 0 los valores fijados al principio, y r0 > 0 dados por el Lema 3.3.3, entonces se cumple que P(|xk − y| < r0 ) ≥ 1 − η si |x0 − y| < r̂0 . Demostremos la afirmación. Llamemos ε3 Mj = |xj − y| + para 1 ≤ j ≤ k. 2j El objetivo ahora es demostrar que (Mj )1≤j≤k es supermartingala. Para eso calculemos 1 ε3 1 ε3 ε3 E[Mj+1 |Mj ] ≤ (|xj − y| − ε + j ) + (|xj − y| + ε) + j+1 = |xj − y| + j = Mj . 2 2 2 2 2 98 Entonces, (Mj ) es supermartingala. Utilizando la OSTh obtenemos E[Mk ] ≤ M0 ⇒ E[|xk − y|] ≤ |x0 − y| + ε3 < 2r̂0 , si ε es suficientemente chico. Por lo tanto, 2r̂0 P(|xk − y| ≥ r0 )r0 ≤ E[|xk − y|] < 2r̂0 ⇒ P(|xk − y| ≥ r0 ) ≤ <η r0 ηr0 si r̂0 < 2 . Esto termina la prueba de la afirmación. Llamemos L = {|xk − y| < r0 } ⇒ P(Lc ) < η. Entonces, llegamos a (x ,1) (x ,2) ESI0,S ∗ [pago total] = ESIk,S ∗ [pago total] II II (x ,2) (x ,2) = ESIk,S ∗ [pago total|L]P(L) + ESIk,S ∗ [pago total|Lc ]P(Lc ) II II (x ,2)  ≤ ESIk,S ∗ [pago total|L] + mı́n{ sup |f (x)|, sup |g(x)|} + C sup |h(x)| η. II x∈Ωc x∈Ωc x∈Ω Ahora bien, como vale que |xk − y| < r0 , usando las estimaciones del Lema 3.3.3 y la primera parte de la demostración obtenemos (x ,2) ESIk,S ∗ [pago total|L] ≤ g(y) + B̂(a, η) II con B̂(a, η) → 0 si a → 0 y η → 0. También tenemos por hipótesis que g(y) ≤ f (y). Entonces (x ,2) ESIk,S ∗ [pago total|L] ≤ f (y) + B̂(a, η). II Por lo tanto, tenemos (x ,2)  ESIk,S ∗ [pago total] ≤ f (y) + B̂(a, η) + mı́n{ sup |f (x)|, sup |g(x)|} + C sup |h(x)| η = f (y) + B(a, η). II x∈Ωc x∈Ωc x∈Ω ∗ dado por los lemas anteriores para el jugador II, y S cualquier estrategia para el Finalmente, para SII I jugador I obtenemos (x ,1) ESI0,S ∗ [pago total] ≤ f (y) + B(a, η). II Tomando supremo sobre las estrategias SI y luego ínfimo sobre las estrategias SII llegamos a uε (x0 ) ≤ f (y) + B(a, η). Por lo tanto, si llamamos C(a, η) = mı́n{A(a, η), B(a, η)} tenemos |uε (x) − uε (y)| < C(a, η) y |v ε (x) − v ε (y)| < C(a, η) si |x − y| < r0 e y ∈ / Ω. 99 Ahora bien, dados dos puntos x0 y z0 dentro de Ω con |x0 − z0 | < r0 acoplamos el juego que comienza en x0 , con el juego que comienza en z0 , haciendo los mismos movimientos y también cambiando tableros simultáneamente. Este acoplamiento genera dos secuencias de posiciones (xi , ji ) y (zi , ki ) tales que |xi − zi | < r0 y ji = ki (ya que cambian de tablero al mismo tiempo, ambos juegos están en el mismo tablero en cada turno, por lo tanto intervienen las mismas probabilidades). Esto continúa hasta que uno de los juegos sale del dominio (por ejemplo, en xτ 6∈ Ω). A partir de aquí, para el juego que comienza en z0 , tenemos que su posición zτ está cerca del punto exterior xτ 6∈ Ω (ya que tenemos |xτ − zτ | < r0 ) y, por lo tanto, podemos usar nuestras estimaciones anteriores para puntos cercanos al borde para concluir que |uε (x0 ) − uε (z0 )| < δ, y |v ε (x0 ) − v ε (z0 )| < δ. Con esto terminamos la demostración. 3.4. El límite es solución viscosa para el sistema de EDP De las secciones anteriores tenemos que para cada ε > 0 existe una única solución (uε , v ε ) para el DPP (3.1.2) y, además, existe una sucesión εj → 0 tal que uεj ⇒ u, v εj ⇒ v uniformemente en Ω para un par de funciones continuas (u, v). Nuestro objetivo en esta sección es demostrar que el par límite (u, v) es una solución viscosa (3.1.3). En primer lugar, vamos a definir con precisión lo que entendemos como una solución viscosa para el sistema (3.1.3). Soluciones viscosas. Comenzamos con la definición de una solución viscosa para una EDP elíptica de segundo orden no lineal. Nos remitimos a [22] una referencia general sobre la teoría viscosa. Fijemos una función P : Ω × R × RN × SN ×N → R donde SN ×N denota el conjunto de matrices simétricas de N × N y consideremos la EDP P (x, u(x), Du(x), D 2 u(x)) = 0, x ∈ Ω. (3.4.33) Supondremos que P es elíptica degenerada, es decir, P satisface una propiedad de monotonía con respecto a la variable matricial, es decir, X ≤ Y in SN ×N =⇒ P (x, r, p, X) ≥ P (x, r, p, Y ) para todo (x, r, p) ∈ Ω × R × RN . En nuestro sistema (3.1.3) tenemos una ecuación que involucra al ∞-laplaciano que no está bien definido cuando el gradiente se anula. Para este caso, necesitamos considerar las envolventes semicontinuas inferior, P∗ , y semicontinuas superior, P ∗ , de P . Estas funciones están dadas por P ∗ (x, r, p, X) = lı́m sup P (y, s, w, Y ), (y,s,w,Y )→(x,r,p,X) P∗ (x, r, p, X) = lı́m inf P (y, s, w, Y ). (y,s,w,Y )→(x,r,p,X) 100 Estas funciones coinciden con P en cada punto de continuidad de P y son semicontinuas inferior y superior respectivamente. Ahora estamos listos para enunciar la definición de una solución viscosa para (3.4.33). Definición 3.4.1. Una función semicontinua inferior u es una supersolución viscosa de (3.4.33) si para cada ϕ ∈ C 2 tal que ϕ toca a u en x ∈ Ω estrictamente desde abajo (es decir, u − ϕ tiene un mínimo estricto en x con u(x) = ϕ(x)), tenemos P ∗ (x, ϕ(x), Dϕ(x), D 2 ϕ(x)) ≥ 0. Una función semicontinua superior u es una subsolución viscosa de (3.4.33) si para cada ψ ∈ C 2 tal que ψ toca a u en x ∈ Ω estrictamente desde arriba (es decir, u − ψ tiene un máximo estricto en x con u(x) = ψ(x)), tenemos P∗ (x, ψ(x), Dψ(x), D 2 ψ(x)) ≤ 0. Finalmente, u es una solución viscosa de (3.4.33) si es simultáneamente supersolución y subsolución viscosa. En nuestro sistema (3.1.3) tenemos dos ecuaciones dadas por las funciones n 1 p p o F1 (x, u, p, X) = mı́n − hX , i, (u − v)(x) = 0 2 |p| |p| y κ F2 (x, v, Y ) = − traza(Y ) + v(x) − u(x) = h(x). 2 Entonces, la definición de una solución viscosa para el sistema (3.1.3) que utilizaremos aquí es la siguiente. Definición 3.4.2. Un par de funciones continuas u, v : Ω 7→ R es una solución viscosa de (3.1.3) si u|∂Ω = f, v|∂Ω = g, u es una solución viscosa para F1 (x, u, Du, D 2 u) = 0 y v es una solución viscosa para F2 (x, v, D 2 v) = 0 en el sentido de la Definición 3.4.1. Observación 3.4.1. Entendemos una solución de (3.1.3) como un par de funciones continuas hasta el borde que satisfacen las condiciones de borde puntualmente y de manera que u es una solución viscosa para la primera ecuación en el sistema (con v como una función continua fija de x en F1 ) y v resuelve la segunda ecuación en el sistema, en sentido viscoso (considerando a u como una función fija de x en F2 ). Teorema 3.4.1. Sean (u, v) funciones continuas que son un límite uniforme de una sucesión εj → 0 de valores del juego, es decir, uεj ⇒ u, v εj ⇒ v uniformemente en Ω. Entonces, el par límite (u, v) es una solución viscosa para (3.1.3). 101 Demostración. Dividamos la demostración en varios casos. Caso 1. Primera ecuación. Demostremos que u es una subsolución viscosa de n o mı́n − ∆∞ u(x), (u − v)(x) = 0 para x ∈ Ω. Para ello, consideremos una función suave φ ∈ C 2 (Ω) tal que (u − φ)(x0 ) = 0 sea un máximo estricto de (u − φ). Entonces, debido a la convergencia uniforme, existe una sucesión de puntos, que denotaremos por (xε )ε>0 , tales que xε → x0 y (uε − φ)(xε ) ≥ (uε − φ)(y) − o(ε2 ), es decir, uε (y) − uε (xε ) ≤ φ(y) − φ(xε ) + o(ε2 ). (3.4.34) A partir del DPP (3.1.2) tenemos n1 1 o 0 = máx sup (uε (y) − uε (xε )) + ı́nf (uε (y) − uε (xε )), v ε (xε ) − uε (xε ) , 2 y∈Bε (xε ) 2 y∈Bε (xε ) y luego, usando (3.4.34), obtenemos n1 1 o 0 ≤ máx máx (φ(y) − φ(xε ) + o(ε2 )) + mı́n (φ(y) − φ(xε ) + o(ε2 )), v ε (xε ) − uε (xε ) . (3.4.35) 2 y∈B ε (xε ) 2 y∈B ε (xε ) Supongamos que ∇φ(x0 ) 6= 0. Sea zε ∈ B1 (0) tal que máx φ(y) = φ(xε + εzε ). y∈B ε (xε ) Entonces, de (3.4.35) llegamos a n1  1  o 0 ≤ máx φ(xε + εzε ) − φ(xε ) + φ(xε − εzε ) − φ(xε ) + o(ε2 ), v ε (xε ) − uε (xε ) . 2 2 A partir de la expansión de Taylor concluimos que 1 1 1 (φ(xε + εzε ) − φ(xε )) + (φ(xε − εzε ) − φ(xε )) + o(ε2 ) = ε2 hD2 φ(xε )zε , zε i + o(ε2 ), 2 2 2 y por lo tanto tenemos 1 0 ≤ ε2 hD2 φ(xε )zε , zε i + o(ε2 ) 2 o bien 0 ≤ v ε (xε ) − uε (xε ). Dividiendo por ε2 la primera desigualdad y tomando el límite como ε → 0 llegamos a 0 ≤ ∆∞ φ(x0 ) o 0 ≤ (v − u)(x0 ), 102 es decir, n o mı́n − ∆∞ φ(x0 ), (u − v)(x0 ) ≤ 0. Ahora, si ∇φ(x0 ) = 0 tenemos que usar las envolventes semicontinuas superior e inferior de la ecuación. Para una matriz simétrica M ∈ RN ×N y ξ ∈ RN , definimos   −hM ξ ; ξ i ξ 6= 0 K(ξ, M ) = |ξ| |ξ|  0 ξ = 0. Las envolventes semicontinuas de F1 se están dadas por    ξ ξ  −hM ; i ξ 6= 0 |ξ| |ξ| K ∗ (ξ, M ) = n o   η η  máx lı́m sup −hM ; i; 0 ξ = 0, η→0 |η| |η| y    ξ ξ  −hM ; i ξ 6= 0 |ξ| |ξ| K∗ (ξ, M ) = n o   η η  mı́n lı́m inf −hM ; i; 0 ξ = 0. η→0 |η| |η| Ahora, simplemente observamos que ξ ξ − máx {λi } ≤ −hM , i ≤ − mı́n {λi } 1≤i≤N |ξ| |ξ| 1≤i≤N y por lo tanto obtenemos    ξ ξ  −hM ; i ξ 6= 0 |ξ| |ξ| K ∗ (ξ, M ) = n o    máx − mı́n {λ i }; 0 ξ=0 1≤i≤N y    ξ ξ  −hM ; i ξ 6= 0 |ξ| |ξ| K∗ (ξ, M ) = n o    mı́n − máx {λi }; 0 ξ = 0. 1≤i≤N Ahora, volvamos a la demostración y veamos que n o mı́n K∗ (0, D 2 φ(x0 )), (u − v)(x0 ) ≤ 0. Como antes, tenemos una secuencia (xε )ε>0 tal que xε → x0 y uε (y) − uε (xε ) ≤ φ(y) − φ(xε ) + ε3 . (3.4.36) 103 Usando el DPP, que φ es suave y (3.4.36) obtenemos n1 1 o 0 ≤ máx máx (φε (y) − φε (xε )) + mı́n (φε (y) − φε (xε )), v ε (xε ) − uε (xε ) . 2 y∈B ε (xε ) 2 y∈B ε (xε ) Sea wε ∈ Bε (xε ) tal que φ(wε ) − φ(xε ) = máx (φ(y) − φ(xε )). Bε (xε ) Sea wε el punto simétrico a wε en la bola Bε (xε ). Entonces obtenemos n1 1 o 0 ≤ máx (φε (wε ) − φε (xε )) + (φε (wε ) − φε (xε )), v ε (xε ) − uε (xε ) . 2 2 Usando nuevamente la expansión de Taylor n1 (wε − xε ) (wε − xε ) ε o 0 ≤ máx hD2 φ(xε ) , i, v (xε ) − uε (xε ) + o(1). 2 ε ε Si para una sucesión ε → 0 tenemos (wε − xε ) = 1, ε luego, extrayendo una subsucesión si es necesario, tenemos z ∈ Rn con |z| = 1 tal que (wε − xε ) → z. ε Pasando al límite obtenemos n1 o 0 ≤ máx hD2 φ(x0 )z, zi, v(x0 ) − u(x0 ) . 2 Entonces 1 0 ≤ hD2 φ(x0 )z, zi o 0 ≤ v(x0 ) − u(x0 ), 2 esto implica que 1 0≤ máx {λi } o 0 ≤ v(x0 ) − u(x0 ). 2 1≤i≤n Por lo tanto, obtenemos n 1 o mı́n − máx {λi }, u(x0 ) − v(x0 ) ≤ 0, 2 1≤i≤n es decir, n1 o mı́n K∗ (0, D 2 ϕ(x0 )), u(x0 ) − v(x0 ) ≤ 0. 2 Ahora bien, si tenemos (wε − xε ) <1 ε 104 para ε pequeño, simplemente observamos que en esos puntos tenemos que D2 φ(wε ) es semidefinido negativo. Por lo tanto, pasando al límite obtenemos que D2 φ(x0 ) también es semidefinido negativo y entonces todo valor propio de D2 φ(x0 ) es menor o igual a 0. Concluimos que n o K∗ (0, D 2 φ(x0 )) = mı́n − máx {λi }; 0 = 0. 1≤i≤n Además, para ε pequeño tenemos que hD2 φ(xε ) (wε −x ε ε ) (wε −xε ) , ε i ≤ 0. Entonces, n1 (wε − xε ) (wε − xε ) ε o 0 ≤ máx hD2 φ(xε ) , i, v (xε ) − uε (xε ) + o(1) = v ε (xε ) − uε (xε ) + o(1). 2 ε ε Tomando como límite ε → 0 obtenemos u(x0 ) − v(x0 ) ≤ 0. Por lo tanto, llegamos a n1 o mı́n K∗ (x0 , D 2 φ(x0 )), u(x0 ) − v(x0 ) ≤ 0. 2 Este argumento muestra que u es una subsolución viscosa de la primera ecuación en (3.1.3) en Ω. La prueba de que u es una supersolución viscosa es análoga. Caso 2. Segunda ecuación. Ahora, demostremos que v es una subsolución viscosa de κ − ∆v(x) + v(x) − u(x) = h(x) 2 para x ∈ Ω. Tomemos una función suave φ ∈ C 2 (Ω) tal que (v − φ)(x0 ) = 0 sea un máximo estricto de (v − φ). Entonces, debido a la convergencia uniforme existe una sucesión de puntos, que denotaremos por (xε )ε>0 , tales que xε → x0 y (v ε − φ)(xε ) ≥ (v ε − φ)(y) − o(ε2 ), es decir, v ε (y) − v ε (xε ) ≤ φ(y) − φ(xε ) + o(ε2 ). (3.4.37) De la segunda ecuación en la DPP (3.1.2) tenemos hZ i v (x) = (1 − ε ) ε 2 v ε (y)dy + ε2 h(x) + ε2 uε (x) Bε (x) y por lo tanto, usando (3.4.37), obtenemos hZ i 0 ≤ (1 − ε2 ) (φ(y) − φ(x0 )) dy + ε2 h(x) + ε2 uε (x) − ε2 φ(x0 ). Bε (x) Dividiendo por ε2 y tomando el límite cuando ε → 0 llegamos a κ 0≤ ∆v(x) + v(x) − u(x) + h(x) 2 105 con Z κ= z12 dz. B1 (0) Como en el caso anterior, el hecho de que v sea una supersolución viscosa es análogo. Caso 3. Condiciones de contorno. Simplemente observamos que, a partir del hecho de que uε (x) = f (x) y v ε (x) = g(x) x ∈ RN \ Ω y la convergencia uniforme tenemos u(x) = f (x) y v(x) = g(x) x ∈ ∂Ω. Esto termina la prueba. 3.5. Observaciones finales En esta sección final recogemos algunas observaciones sobre posibles extensiones de nuestros resulta- dos. Observación 3.5.1 (Variantes del juego). En primer lugar, señalemos que podemos jugar el mismo juego en los dos tableros (manteniendo las reglas de cambio de tablero, en el primer tablero el jugador I decide mientras que en el segundo tablero cambian por azar). Por ejemplo, si jugamos paseos al azar en los dos tableros, el DPP se lee como  nh Z i o   u ε (x) = máx u ε (y)dy , v ε (x) x ∈ Ω,     hZ Bε (x)   i  ε v (x) = (1 − ε2 ) v ε (y)dy + ε2 h(x) + ε2 uε (x) x ∈ Ω,   Bε (x)   u ε (x) = f (x) x ∈ RN \Ω,      ε v (x) = g(x) x ∈ RN \Ω, y el sistema de EDP límite está dado por  n κ o   mı́n − ∆u(x), (u − v)(x) =0 x ∈ Ω,   2     − κ ∆v(x) + v(x) − u(x) = h(x) x ∈ Ω, 2     u(x) = f (x) x ∈ ∂Ω,     v(x) = g(x) x ∈ ∂Ω. El análisis de este caso es mucho más simple ya que no hay ninguna estrategia involucrada para el jugador II (aquí el único jugador que puede hacer una elección es el jugador I). 106 Cuando en el primer tablero es el otro jugador, el jugador II, quien hace la elección de jugar o cambiar de tablero, la ecuación correspondiente en el DPP se lee como nh Z i o ε u (x) = mı́n uε (y)dy , v ε (x) . Bε (x) El análisis de este caso es similar, pero ahora asumimos que los pagos finales verifican f ≤ g. También podemos añadir un pago por jugada para las jugadas en el primer tablero, y en este caso la primera ecuación del DPP correspondiente para los valores del juego es nh 1 1 i o uε (x) = máx sup uε (y) + ı́nf uε (y) − ε2 h1 (x) , v ε (x) . 2 y∈Bε (x) 2 y∈Bε (x) Aquí se supone que h1 es no negativo (es decir, el jugador I paga algo si decide jugar en el primer tablero). Esta suposición se hace simplemente para obtener un juego con un valor si el jugador I decide jugar para siempre en el primer tablero (recuerde que el juego Tug-of-War con un pago por jugada que cambia de signo puede no tener un valor bien definido, consulte [53]). También se puede trabajar con sistemas más grandes. Por ejemplo, supongamos que tenemos tres tableros. En el primer tablero jugamos como antes (el jugador I decide jugar una ronda de Tug-of-War en ese tablero o cambiar al segundo o al tercer tablero); en el segundo y tercer tablero jugamos a paseos aleatorios con un pago por jugada (h2 en el segundo tablero y h3 en el tercero) y también tenemos una probabilidad positiva de cambiar de tablero (volver al primer tablero o cambiar al otro). Tenemos tres funciones de pago final f1 , f2 y f3 para cada uno de los tres tableros. En este caso encontramos el siguiente DPP,  nh 1 i o  1   u ε (x) = máx sup u ε (y) + ı́nf u ε (y) , v ε (x), w ε (x) x ∈ Ω,   2 y∈Bε (x) 2 y∈Bε (x)   h Z i     v ε (x) = (1 − p ε 2 − p ε 2 ) v ε (y)dy + ε 2 h (x) + p1 ε2 uε (x) + p3 ε2 wε (x) x ∈ Ω,   1 3 2   ZB (x)  h i ε  ε w (x) = (1 − q1 ε2 − q2 ε2 ) wε (y)dy + ε2 h3 (x) + q1 ε2 uε (x) + q2 ε2 v ε (x) x ∈ Ω,   Bε (x)  ε    u (x) = f1 (x) x ∈ RN \Ω,       v ε (x) = f2 (x) x ∈ RN \Ω,      ε w (x) = f3 (x) x ∈ RN \Ω. Son posibles varias combinaciones diferentes. Sin embargo, un caso que no se puede manejar con las ideas utilizadas en este capítulo es cuando en el primer tablero el jugador I elige jugar o cambiar de tablero y en el segundo tablero es el jugador II quien elige. En este caso puede suceder que ambos jugadores decidan cambiar en el mismo punto y por lo tanto la posición del juego quede estancada allí para siempre. Necesitamos algún movimiento aleatorio y alguna probabilidad positiva de cambiar de tablero al menos de un tablero al otro. El análisis de esta situación es el objetivo del siguiente capítulo. Observación 3.5.2 (Sobre el acoplamiento en el sistema límite). Por último, señalemos que el sistema límite puede desacoplarse. Por ejemplo, considere nuestra EDP límite en una dimensión, Ω = (0, 1), y 107 datos de contorno constantes f (0) = f (1) = a, g(0) = g(1) = b. Entonces, tenemos,  n o  ′′   mı́n − u (x), (u − v)(x) =0 x ∈ (0, 1),      −v ′′ (x) + v(x) − u(x) = h(x) x ∈ (0, 1),     u(0) = u(1) = a,     v(0) = v(1) = b. Ahora bien, puede suceder que u ≥ v y por lo tanto obtenemos u(x) ≡ a, en (0, 1), mientras que v es simplemente la solución de   −v ′′ (x) + v(x) = h(x) + a x ∈ (0, 1),  v(0) = v(1) = b, que verifica que v ≤ u cuando b y h son pequeños y a es grande. En este caso, tenemos que la primera ecuación está desacoplada de la segunda. Para obtener este escenario en el límite, lo que puede suceder a nivel de juego (para ε > 0 pequeños) es que el pago final en el primer tablero sea tan grande y el pago final y el pago por jugada en el segundo tablero sean tan pequeños que el primer jugador decida jugar cada vez en el primer tablero, ya que cambiar de tablero le dará al jugador I un pago total menor. Sin embargo, en el caso general, por ejemplo cuando h es grande, el sistema resultante está comple- tamente acoplado, ya que tenemos alguna parte del dominio donde u = v. En el juego lo que sucede es que hay alguna parte del dominio donde el jugador I prefiere cambiar de tablero ya que el pago por jugada en el segundo tablero es grande y entonces el resultado esperado es mayor jugando en el segundo tablero una gran cantidad de veces que el que uno espera manteniendo el tablero sin cambios y jugando Tug-of-War hasta salir. 108 Capítulo 4 JUEGOS PARA EL PROBLEMA DE LAS DOS MEMBRANAS ELÍPTICO 4.1. Introducción La profunda conexión entre las ecuaciones diferenciales parciales y la probabilidad es un tema bien conocido y ampliamente estudiado. Para los operadores lineales, como el Laplaciano, resulta que esta relación tiene que ver con las fórmulas de valor medio para las soluciones en el lado de las EDP y las martingalas en el lado de la probabilidad. De hecho, existe una conexión estándar entre el Laplaciano y el movimiento browniano o con el límite de los paseos al azar cuando el tamaño del paso tiende a cero, véase, por ejemplo, [25, 26, 27, 29, 33, 32, 35, 59]. Recientemente, a partir de [53], algunas de estas conexiones se extendieron para cubrir ecuaciones no lineales. Para una aproximación probabilística del infinito Laplaciano existe un juego (llamado Tug-of-War en la literatura) que fue introducido en [53] cuyos valores aproximan soluciones de la EDP cuando el parámetro que controla el tamaño de los pasos en el juego tiende a cero. En [54], véase también [43] y [44], los autores introducen una modificación del juego (llamado Tug-of-War with noise) que está relacionada con el p−Laplaciano normalizado. Por lo tanto podemos decir que la aproximación de soluciones a EDP lineales y no lineales utilizando la teoría de juegos se ha convertido en un tema clásico. Los resultados mencionados anteriormente se extendieron para cubrir ecuaciones muy diferentes (como los operadores de Pucci, la ecuación de Monge-Ampere, el problema del obstáculo, etc.); nos remitimos a los libros recientes [15] y [36] y las referencias allí incluidas. Sin embargo, se sabe mucho menos sobre la relación entre los sistemas de EDP y los juegos; véase [47, 48, 52] para referencias recientes. Uno de los sistemas que atrajo la atención de la comunidad de EDP es el problema de las dos membranas. Este problema modela el comportamiento de dos membranas elásticas que están sujetas en el borde de un dominio prescrito (se las supone ordenadas, es decir, una membrana está por encima de la otra) y están sujetas a diferentes fuerzas externas (la membrana que está arriba es empujada hacia abajo y la que está abajo es empujada hacia arriba). La suposición principal aquí es que las dos membranas no se penetran entre sí (se las supone ordenadas en todo el dominio). Esta situación puede ser modelada por un problema de dos obstáculos; la membrana inferior actúa como un obstáculo desde abajo para la ecuación que describe la membrana superior, mientras que, a la inversa, la membrana superior es 109 un obstáculo desde arriba para la ecuación de la membrana inferior. Cuando las ecuaciones que obedecen a las dos membranas tienen una estructura variacional este problema puede ser abordado usando cálculo de variaciones (se pretende minimizar la suma de las dos energías sujetas a que las funciones que describen la posición de las membranas siempre están ordenadas dentro del dominio, una es mayor o igual que la otra), ver [57]. Sin embargo, cuando las ecuaciones involucradas no son variacionales el análisis se basa en argumentos de monotonía (usando el principio del máximo). Una vez que se obtiene la existencia de una solución (en un sentido apropiado) surgen muchas preguntas interesantes, como la unicidad, la regularidad de las funciones involucradas, una descripción del conjunto de contacto, la regularidad del conjunto de contacto, etc. Ver [16, 17, 56], la disertación [58] y las referencias allí incluidas. El objetivo principal en este capítulo es analizar juegos cuyas funciones de valor aproximan soluciones al problema de las dos membranas con dos p−Laplacianos normalizados diferentes (estas son ecuaciones no variacionales y no lineales, ver más abajo). 4.1.1. El operador p−Laplaciano normalizado y la teoría de juegos Para comenzar, introduzcamos el p−Laplaciano normalizado y demos la relación entre este operador y el juego llamado Tug-of-War with noise en la literatura. Para más detalles, nos podemos remitrir a [44] y a los libros recientes [15] y [36]. Este tipo de juego fue estudiado extensamente. Algunas referencias relacionadas son [4, 8, 13, 14, 19, 37, 40, 41, 42, 43, 44, 45, 46]. Consideremos el operador p−Laplaciano clásico ∆p u = div(|∇u|p−2 ∇u) con 2 ≤ p < ∞. Desarro- llando la divergencia podemos escribir (formalmente) este operador como una combinación del operador Laplaciano XN ∆u = u xn xn n=1 y el infinito Laplaciano 1-homogéneo, ∇u ∇u X ∆1∞ u = hD2 u , i = |∇u|−2 u xi u xi xj u xj |∇u| |∇u| 1≤i,j≤N como sigue  ∆p u = |∇u|p−2 (p − 2)∆1∞ u + ∆u . (4.1.1) Ahora queremos recordar la fórmula del valor medio asociada a este operador obtenida en [42] (ver también [7]). Dado 0 < α < 1, consideremos u : Ω → R tal que Z 1 1  u(x) = α sup u(y) + ı́nf u(y) + (1 − α) u(y)dy + o(ε2 ), (4.1.2) 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) cuando ε → 0. Resulta que u verifica esta fórmula de valor medio asintótica si y sólo si u es una solución viscosa para ∆p u = 0, véase [42]. Para referencias generales sobre fórmulas de valor medio para soluciones de ecuaciones diferenciales parciales no lineales, nos remitimos a [7, 10, 30, 34]. De hecho, si asumimos que u es suave, usando la expansión de Taylor tenemos Z ε2 u(y)dy − u(x) = ∆u(x) + o(ε2 ), (4.1.3) Bε (x) 2(N + 2) 110 y si |∇u(x)| 6= 0, usando nuevamente Taylor obtenemos 1 1  1 ∇u(x) 1 ∇u(x)  sup u(y) + ı́nf u(y) − u(x) ∼ u(x + ε ) + u(x − ε ) 2 y∈Bε (x) 2 y∈Bε (x) 2 |∇u(x)| 2 |∇u(x)| (4.1.4) ε2 = ∆1∞ u(x) + o(ε2 ). 2 Entonces, si volvemos a (4.1.2), dividimos por ε2 y llevamos ε → 0, obtenemos α 1 (1 − α) 0= ∆ u(x) + ∆u(x). 2 ∞ 2(N + 2) Por lo tanto, de (4.1.1), obtenemos que la función u es una solución de la ecuación −∆p u(x) = 0 para p > 2 tal que α p−2 = . 1−α N +2 Estos cálculos se pueden hacer rigurosos utilizando la teoría viscosa, nos referimos a [42]. Ahora, introduzcamos la definición del p−Laplaciano normalizado. Definición 4.1.1. Dado p > 2, defiimos el p−Laplaciano normalizado como α 1 1−α ∆1p u(x) = ∆∞ u(x) + ∆u(x), 2 2(N + 2) con α p−2 = . 1−α N +2 Observar que este operador, que es una combinación lineal entre el Laplaciano clásico y el ∞- Laplaciano, es 1−homogéneo, elíptico y no lineal. Existen juegos probabilísticos que se relacionan con estos operadores. La conexión entre el Laplaciano y el movimiento browniano o con el límite de los paseos al azar cuando el tamaño del paso tiende a cero es bien conocida, véase [33, 32, 35]. Para una aproximación probabilística del infinito Laplaciano existe un juego (llamado Tug-of-War en la literatura) que se introdujo en [53]. En [54], véase también [43] y [44], los autores introducen un juego de suma cero para dos jugadores llamado Tug-of-War with noise que está relacionado con el p−Laplaciano normalizado. Este es un juego de suma cero para dos jugadores (dos jugadores, jugador I y jugador II, juegan uno contra el otro y las ganancias totales de un jugador son exactamente las pérdidas totales del otro). Las reglas del juego son las siguientes: En un dominio suave y acotado Ω (lo que necesitamos aquí es que ∂Ω satisfaga una condición de esfera exterior) dada una posición inicial x ∈ Ω, con probabilidad α el jugador I y el jugador II juegan Tug-of-War (los jugadores lanzan una moneda equilibrada y el ganador elige la siguiente posición de la ficha en Bε (x)), y con probabilidad (1 − α) se mueve al azar (la siguiente posición de la ficha se elige con probabilidad uniforme en Bε (x)). Continúan jugando con estas reglas hasta que la posición del juego deja el dominio 111 Ω. En este momento de parada, el jugador II paga al jugador I la cantidad determinada por una función de pago definida fuera de Ω. El valor del juego (definido como el mejor valor que ambos jugadores pueden esperar obtener) verifica una fórmula de valor medio, llamada Dynamic Progamming Prinicple (DPP), que en este caso viene dado por Z 1 1  ε u (x) = α ε sup u (y) + ı́nf u (y) + (1 − α) ε uε (y)dy. 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Esta es exactamente la misma fórmula que (4.1.2) pero sin el término de error o(ε2 ). Observar que la función de valor de este juego depende de ε, el parámetro que controla el tamaño de los posibles movimientos. Observar también que esta ecuación se puede escribir como Z 1 1  0=α ε sup u (y) + ı́nf u (y) − u (x) + (1 − α) ε ε (uε (y) − uε (x))dy. 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Utilizando como herramienta principal las fórmulas asintóticas (4.1.3) y (4.1.4), en [13] y [44] los autores muestran que existe un límite uniforme cuando ε → 0, uε ⇒ u y que este límite u es la única solución (en sentido viscoso) al problema de Dirichlet   −∆1p u(x) = 0, x ∈ Ω,  u(x) = F (x), x ∈ ∂Ω. Cuando se quiere trabajar con una ecuación no homogénea como −∆1p u(x) = h(x) se puede añadir un pago por jugada, es decir, en cada jugada el jugador I paga al jugador II la cantidad ε2 h(x). 4.1.2. El problema de las dos membranas Como ya hemos mencionado, el problema de las dos membranas describe la posición de equilibrio de dos membranas elásticas en contacto entre sí que no pueden cruzarse. Por lo tanto, una de las membranas actúa como un obstáculo (desde arriba o desde abajo) para la otra. Dados dos operadores diferenciales F (x, u, ∇u, D 2 u) y G(x, v, ∇v, D 2 v) la formulación matemática del problema de las dos membranas es la siguiente:  n o   mı́n F (x, u(x), ∇u(x), D 2 u(x)), (u − v)(x) = 0, x ∈ Ω,     n o    máx G(x, v(x), ∇v(x), D 2 v(x)), (v − u)(x) = 0, x ∈ Ω,     u(x) = f (x), x ∈ ∂Ω,      v(x) = g(x), x ∈ ∂Ω. En general, no hay unicidad para el problema de las dos membranas. Por ejemplo, tomemos u como solución al primer operador F (u) = 0 con u|∂Ω = f y v como solución al problema del obstáculo por 112 arriba para G(v) y dato de contorno v|∂Ω = g. Este par (u, v) es una solución al problema de las dos membranas: v es una solución al problema del obstáculo con u como obstáculo superior y u es una solución al problema del obstáculo con v como obstáculo inferior (de hecho, u es una solución en todo el dominio y está por encima de v). Análogamente, se puede considerar ṽ como la solución de G(ṽ) = 0 con ṽ|∂Ω = g y ũ la solución al problema del obstáculo por arriba para F (ũ) y dato de contorno ũ|∂Ω = f , para obtener un par (ũ, ṽ) que es una solución al problema de las dos membranas. En general, se cumple que (u, v) 6= (ũ, ṽ). El problema de las dos membranas para el Laplaciano con un lado derecho, es decir, para F (D2 u) = −∆u + h1 y F (D2 v) = −∆v − h2 , fue considerado por primera vez en [57] usando argumentos variacio- nales. Más tarde, en [16] los autores resuelven el problema de las dos membranas para dos Laplacianos fraccionarios diferentes (dos operadores lineales no locales definidos por dos núcleos diferentes). Obsérvese que en este caso el problema sigue siendo variacional. En estos casos aparece una condición adicional, es decir, la suma de los dos operadores se anula, G(u) + F (v) = 0, (4.1.5) dentro de Ω. Además, esta condición adicional junto con la estructura variacional se utiliza para demostrar un resultado de regularidad C 1,γ para la solución. El problema de las dos membranas para un operador no lineal fue estudiado en [16, 17, 56]. En particular, en [17] los autores consideran una versión del problema de las dos membranas para dos operadores no lineales diferentes, F (D2 u) y G(D2 u). Suponiendo que F es convexa y que G(X) = −F (−X), (4.1.6) prueban que las soluciones son C 1,1 . También mencionamos que varios autores consideraron una versión más general del problema que involucra más de dos membranas (ver por ejemplo [6, 18, 20]). 4.1.3. Descripción de los resultados principales En este capítulo utilizamos el juego Tug-of-War with noise descripto anteriormente para obtener juegos en dos tableros cuyos valores aproximan soluciones (en un sentido viscoso) a un sistema con dos ecuaciones de tipo obstáculo (un problema de dos membranas). Primer juego Describamos con más detalle el primer juego que vamos a estudiar. Nuevamente, se trata de un juego de suma cero para dos jugadores. El juego se juega en dos tableros, que son dos copias de un dominio fijo, suave y acotado Ω ⊂ RN . Fijamos dos funciones de pago final f, g : RN \Ω → R, Lipschitz uniformes con f ≥ g, y dos funciones de pago por jugada h1 , h2 : Ω → R (también asumimos que son funciones Lipschitz uniformes), correspondientes al primer y segundo tablero respectivamente. Tomamos un parámetro ε > 0. Usemos dos juegos con reglas diferentes para el primer y segundo tablero respectivamente, asociadas a dos 113 operadores p−Laplacianos diferentes. Para ello, fijemos dos números 0 < αi < 1 para i = 1, 2. Jugando en el primer tablero las reglas son las siguientes: con una probabilidad α1 jugamos Tug-of-War, esto significa que se lanza una moneda equilibrada, y el jugador favorecido elige la siguiente posición dentro de la bola Bε (x), y con una probabilidad (1 − α1 ) jugamos con una regla de paseo al azar, es decir, la siguiente posición se elige en Bε (x) con probabilidad uniforme. Jugando en el primer tablero añadimos un pago por jugada −ε2 h1 (x0 ) (el jugador I obtiene −ε2 h1 (x0 ) y el jugador II ε2 h1 (x0 )). Llamamos a este juego el juego J1 . Análogamente, en el segundo tablero usamos α2 para identificar la probabilidad jugar Tug-of-War y (1 − α2 ) para la probabilidad de movernos al azar, esta vez con un pago por jugada ε2 h2 (x0 ). Llamamos a este juego J2 . A las reglas que describimos en los dos tableros J1 y J2 agregamos las siguientes formas de cambiar de tablero: en el primer tablero, el jugador I decide jugar con reglas J1 (y la posición de juego permanece en el primer tablero) o cambiar de tablero y la nueva posición de la ficha se elige jugando la regla de juego J2 en el segundo tablero. En el segundo tablero la regla es exactamente la opuesta, en este caso es el jugador II quien decide jugar con reglas de juego J2 (y permanecer en el segundo tablero) o cambiar de tablero y jugar en el primer tablero con las reglas de juego J1 . El juego comienza con una ficha en una posición inicial x0 ∈ Ω en uno de los dos tableros. Después de la primera jugada, el juego continúa con las mismas reglas (cada jugador decide cambiar o continuar en un tablero más las reglas para los dos juegos Tug-of-War with noise diferentes en cada tablero) hasta que la ficha salga del dominio Ω (en este momento el juego termina). Esto da una sucesión aleatoria de puntos (posiciones de la ficha) y un tiempo de parada τ (la primera vez que la posición de la ficha está fuera de Ω en cualquiera de los dos tableros). La secuencia de posiciones se denotará por n o (x0 , j0 ), (x1 , j1 ), . . . (xτ , jτ ) , aquí xk ∈ Ω (y xτ 6∈ Ω) y la segunda variable, jk ∈ {1, 2}, es sólo un índice que indica en qué tablero estamos jugando, jk = 1 si la posición de la ficha está en el primer tablero y jk = 2 si estamos en el segundo tablero. Como mencionamos, el juego termina cuando la ficha sale de Ω en algún punto (xτ , jτ ). En este caso, el pago final (la cantidad que recibe el jugador I y paga el jugador II) está dado por f (xτ ) si jτ = 1 (la ficha sale del dominio en el primer tablero) y g(xτ ) si jτ = 2 (la ficha sale en el segundo tablero). Por lo tanto, teniendo en cuenta el pago por jugada y el pago final, el pago total de una ocurrencia particular del juego está dada por τ −1  X  pago total := f (xτ )χ{1} (jτ ) + g(xτ )χ{2} (jτ ) − ε2 h1 (xk )χ{j=1} (jk+1 ) − h2 (xk )χ{j=2} (jk+1 ) . k=0 Observe que el pago total es la suma del pago final (dado por f (xτ ) o por g(xτ ) según el tablero en el que la posición abandona el dominio) y el pago por jugada que está dado por −ε2 h1 (xk ) y ε2 h2 (xk ) correspondiente al tablero en el que jugamos en el paso k + 1. Ahora bien, los jugadores fijan dos estrategias, SI para el jugador I y SII para el jugador II. Es decir, ambos jugadores deciden jugar o cambiar de tablero en el tablero respectivo, y en cada tablero seleccionan el punto al que ir siempre que el lanzamiento de la moneda del Tug-of-War sea favorable. Notar que la decisión sobre el tablero donde se desarrolla el juego la toman los jugadores en cada turno (según el tablero en el que se encuentre la posición que elija uno de los jugadores). Por lo tanto, cuando 114 las estrategias de ambos jugadores son fijas, el tablero en el que se desarrolla el juego en cada turno está dado (y no es aleatorio). Entonces, una vez que fijamos las estrategias SI y SII , todo depende solamente de la probabilidad subyacente: el lanzamiento de la moneda que decide cuándo jugar Tug-of-War y cuándo moverse al azar (observe que esta probabilidad está dada por α1 o α2 y es diferente en los dos tableros) y el lanzamiento de la moneda (con probabilidad 1/2–1/2) que decide quién elige la siguiente posición del juego si se juega Tug-of-War. Con respecto a esta probabilidad subyacente, con las estrategias fijas SI y SII , podemos calcular la esperanza del pago total comenzando en (x, j) (recuerde que j = 1, 2 indica el tablero en el que está la posición del juego), (x,j) ESI ,SII [pago total]. Se dice que el juego tiene un valor si (x,j) (x,j) wε (x, j) = sup ı́nf ESI ,SII [pago total] = ı́nf sup ESI ,SII [pago total]. (4.1.7) SI SII SII SI Observar que este valor wε es el mejor resultado esperado posible que el jugador I y el jugador II pueden esperar obtener jugando lo mejor que puedan. Vamos a demostrar que este juego tiene un valor. El valor del juego, wε , está compuesto de hecho por dos funciones, la primera definida en el primer tablero, uε (x) := wε (x, 1) que es el resultado esperado del juego si la posición inicial está en el primer tablero (y los jugadores juegan lo mejor que pueden) y v ε (x) := wε (x, 2) que es el resultado esperado del juego cuando la posición inicial está en el segundo tablero. Resulta que estas dos funciones uε , v ε satisfacen un sistema de ecuaciones que en la literatura se denomina Dynamic Programming Principle (DPP). En nuestro caso, el DPP correspondiente para el juego viene dado por  n o   u ε (x) = máx J (u ε )(x), J (v ε )(x) , x ∈ Ω,   1 2   n o    v ε (x) = mı́n J (uε )(x), J (v ε )(x) , x ∈ Ω, 1 2 (4.1.8)     u ε (x) = f (x), x ∈ R N \Ω,      v ε (x) = g(x), x ∈ RN \Ω. donde h1 i Z 1 J1 (w)(x) = α1 sup w(y) + ı́nf w(y) + (1 − α1 ) w(y)dy − ε2 h1 (x) 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) y Z h1 1 i J2 (w)(x) = α2 sup w(y) + ı́nf w(y) + (1 − α2 ) w(y)dy + ε2 h2 (x). 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Observación 4.1.1. A partir del DPP y de la condición f ≥ g queda claro que las funciones de valor del juego están ordenadas. Tenemos uε (y) ≥ v ε (y) para todo y ∈ RN . 115 Observación 4.1.2. Observe que el DPP refleja las reglas del juego descriptas anteriormente. Es decir, la regla J1 dice que con una probabilidad de α1 jugamos al juego de Tug-of-War y con una probabilidad de (1 − α1 ) jugamos al juego de paseo al azar, con un pago por jugada que involucra a h1 . Análogamente, en el juego J2 la probabilidad está dada por α2 y el pago por jugada involucra a h2 . Observe también que los máx y mı́n que surgen en el DPP corresponden a las elecciones de los jugadores de cambiar de tablero (o no). En el primer tablero, el jugador I (que busca maximizar el resultado esperado) es el que decide, mientras que en el segundo tablero decide el jugador II (que quiere minimizar). Nuestro primer resultado dice que las funciones de valor del juego convergen uniformemente cuando ε → 0 a un par de funciones continuas (u, v) que es una solución viscosa para un sistema de ecuaciones diferenciales parciales en el que aparecen dos ecuaciones de tipo obstáculo. Teorema 4.1.1. Existe una sucesión εj → 0 tal que (uεj , v εj ) converge a un par de funciones continuas (u, v), uεj ⇒ u, v εj ⇒ v uniformemente en Ω. El par límite es una solución viscosa para el sistema de dos membranas con dos p−Laplacianos diferentes. Es decir,    u(x) ≥ v(x) x ∈ Ω,       −∆1p u(x) + h1 (x) ≥ 0 , −∆1q v(x) − h2 (x) ≤ 0 x ∈ Ω,    −∆1p u(x) + h1 (x) = 0 , −∆1q v(x) − h2 (x) = 0 x ∈ {u > v} ∩ Ω, (4.1.9)       u(x) = f (x) x ∈ ∂Ω,      v(x) = g(x) x ∈ ∂Ω. Aquí p y q están dados por α1 p−2 α2 q−2 = y = . (4.1.10) 1 − α1 N +2 1 − α2 N +2 Observación 4.1.3. Utilizando que uε ⇒ u, v ε ⇒ v y que uε ≥ v ε obtenemos inmediatamente u(y) ≥ v(y) para todo y ∈ RN . Observación 4.1.4. Podemos escribir el sistema (4.1.9) como  n o   mı́n − ∆ 1 u(x) + h (x), (u − v)(x) = 0, x ∈ Ω,   p 1   n o    máx − ∆1 v(x) − h (x), (v − u)(x) = 0, x ∈ Ω, q 2     u(x) = f (x), x ∈ ∂Ω,      v(x) = g(x), x ∈ ∂Ω. Aquí la primera ecuación dice que u es una solución al problema del obstáculo para el p-Laplaciano con v como obstáculo por debajo, y dato de contorno f , y la segunda ecuación dice que v es una solución al problema del obstáculo para el q-Laplaciano con u como obstáculo por arriba, y dato de contorno g. 116 Esta formulación corresponde a un problema de dos membranas en el que las membranas están sujetas en el borde del dominio y cada membrana actúa como un obstáculo para la otra (ver figura 4.1). Observación 4.1.5. Dado que en general no hay unicidad para el problema de las dos membranas sólo podemos demostrar la convergencia tomando una secuencia εj → 0 usando un argumento de compacidad. Figura 4.1: Problema de las dos Membranas en 2D Comentemos brevemente las principales dificultades que aparecen en la demostración de este resultado. Para demostrar que el DPP tiene una solución argumentamos utilizando argumentos de monotonía en el espíritu del método de Perron (una solución se obtiene como el supremo de subsoluciones). Una vez que demostramos la existencia de una solución para el DPP utilizamos esta solución para construir estrategias cuasi óptimas para los jugadores y demostramos que el juego tiene un valor que coincide con una solución para el DPP (este hecho implica unicidad para las soluciones para el DPP). En este punto queremos mencionar que es crucial la regla que obliga a jugar una ronda del juego, cuando uno de los jugadores decide cambiar de tablero. Si uno cambia de tablero sin jugar una ronda en el otro tablero el juego puede no terminar nunca (e incluso si penalizamos los juegos que nunca terminan no está claro que el juego tenga un valor). Ver [53] para un ejemplo de un juego Tug-of-War que no tiene un valor. Luego de haber probado la existencia y unicidad del DPP y la existencia de un valor para el juego, estudiamos su comportamiento cuando ε → 0. La convergencia uniforme se seguirá de una variante del lema de Arzela- Ascoli, ver Lema 4.2.4 (esta idea se utilizó antes para obtener la convergencia de funciones de valor de los juegos, ver varios ejemplos en [15]). Para ello necesitamos que cuando el juego comience cerca del borde en cualquiera de los dos tableros, cualquiera de los dos jugadores tenga una estrategia que fuerce al juego a terminar cerca del punto de inicio en un número controlado de jugadas con una probabilidad alta. Por ejemplo, comenzando en el primer tablero, el primer jugador puede elegir la estrategia de nunca 117 cambiar de tablero y apuntar hacia un punto del borde cuando se juega el juego Tug-of-War. Se puede demostrar que esta estrategia da la estimación deseada de un solo lado. Sin embargo, a partir del primer tablero, encontrar una estrategia para el jugador II que logre límites similares es más complicado, ya que el jugador que puede decidir cambiar de tablero es el jugador I. Obtener dichos límites para la posición terminal y el número esperado de jugadas en este caso es una de las principales dificultades con las que nos enfrentamos. Una vez que demostramos la convergencia uniforme de las funciones de valor, utilizamos el DPP para obtener que el par límite es una solución viscosa del problema de las dos membranas. Esto se demuestra utilizando el enfoque de teoría viscosa habitual. Segundo juego Consideremos una variante del juego anterior en la que la posibilidad de que los jugadores cambien de tablero también depende de un lanzamiento de moneda. Este nuevo juego tiene las siguientes reglas: si la posición del juego está en (xk , 1) los jugadores lanzan una moneda equilibrada (probabilidad 1/2 − 1/2), si el jugador I gana, decide jugar el juego J1 en el primer tablero o jugar el juego J2 en el segundo tablero. Por otro lado, si el ganador es el jugador II la única opción es jugar J1 en el primer tablero. Si la posición está en el segundo tablero, digamos en (xk , 2), la situación es análoga pero con los roles de los jugadores invertidos, se lanza nuevamente una moneda equilibrada, y si el jugador II gana, decide entre jugar J2 en el segundo tablero o saltar al primer tablero y jugar J1 , mientras que si el jugador I gana la única opción es jugar J2 en el segundo tablero. Aquí las reglas de J1 y J2 son exactamente las mismas que antes, lo único que cambiamos es que la decisión de cambiar de tablero o no también depende de un lanzamiento de moneda equilibrada. Este juego tiene asociado lo siguiente DPP:  n o 1  1   u ε (x) = máx J (u ε )(x), J (v ε )(x) + J1 (uε )(x) x ∈ Ω,   2 1 2 2   n o 1   ε 1 v (x) = mı́n J1 (uε )(x), J2 (v ε )(x) + J2 (v ε )(x) x ∈ Ω, 2 2     ε u (x) = f (x) x ∈ RN \Ω,      ε v (x) = g(x) x ∈ RN \Ω. Este DPP también refleja las reglas del juego. Por ejemplo, la primera ecuación dice que con proba- bilidad 1/2 el primer jugador decide jugar J1 o cambiar de tablero y jugar J2 (de ahí que aparezca el término máx{J1 (uε )(x), J2 (v ε )(x)} ) y con probabilidad 1/2 la posición permanece en el primer tablero (simplemente juegan J1 ). De igual manera se puede hacer el análisis para la segunda ecuación. Observación 4.1.6. También en este caso, a partir de la DPP y la condición f ≥ g resulta inmediato que uε (y) ≥ v ε (y), se cumple para todo y ∈ RN . 118 En este caso, el par (uε , v ε ) también converge uniformemente a lo largo de una subsucesión εj → 0 a un par de funciones continuas (u, v), y este par límite es también una solución viscosa al problema de las dos membranas con una condición adicional en el conjunto de contacto. Teorema 4.1.2. Existe una secuencia εj → 0 tal que (uεj , v εj ) converge a un par de funciones continuas (u, v), uεj ⇒ u, v εj ⇒ v uniformemente en Ω. El par límite es una solución viscosa para el sistema de dos membranas con los dos p−Laplacianos diferentes, (4.1.9), con p y q dados por (4.1.10). Además, se cumple la siguiente condición adicional   − ∆1p u(x) + h1 (x) + − ∆1q v(x) − h2 (x) = 0, x ∈ Ω, (4.1.11) Observación 4.1.7. Observemos que la condición adicional (4.1.11) se cumple trivialmente en {u > v} (ya que u y v resuelven −∆1p u(x) + h1 (x) = 0 y −∆1q v(x) − h2 (x) = 0 respectivamente). Entonces, esta condición extra nos da nueva información en el conjunto de contacto {u = v}. Nótese que esta condición extra (la suma de las dos ecuaciones es igual a cero) es similar a la que aparece en [16], c.f. (4.1.5), pero no es la misma que la que se supone en [17] para obtener regularidad de las soluciones, véase (4.1.6), ya que para el p−Laplaciano normalizado no es cierto que −∆1p u(x) = ∆1q (−u)(x) a menos que p = q. El capítulo está organizado de la siguiente manera: En la Sección 4.2 analizamos el primer juego; En la subsección En la primera demostramos la convergencia uniforme a lo largo de una subsucesión y en la segunda demostramos que el límite uniforme es una solución viscosa del sistema de EDP (4.1.9). En la Sección 4.3 incluimos una breve descripción del análisis para el segundo juego (los argumentos utilizados para demostrar la convergencia uniforme son bastante similares). Aquí nos centramos en los detalles necesarios para demostrar que obtenemos una condición adicional en el conjunto de contacto. Por último, en la Sección 4.4 incluimos algunas observaciones y comentarios sobre posibles extensiones de nuestros resultados. 4.2. Análisis del primer juego 4.2.1. Existencia y unicidad de la solución del DPP En esta sección primero demostramos que existe una solución para el DPP, (4.1.8), luego demostramos que la existencia de una solución para el DPP implica que el juego tiene un valor (permite encontrar estrategias cuasi óptimas para los jugadores) y al final obtenemos la unicidad de las soluciones para el DPP. Para demostrar la existencia de una solución para el DPP utilizamos una variante del método de Perron (es decir, una solución puede obtenerse como supremo de subsoluciones). Consideremos el conjunto de funciones n o A = (uε , v ε ) : uε , v ε son funciones acotadas tales que (4.2.12) se cumple 119 con  n o   uε (x) ≤ máx J1 (uε )(x), J2 (v ε )(x) x ∈ Ω,     n o    v ε (x) ≤ mı́n J (uε )(x), J (v ε )(x) x ∈ Ω, 1 2 (4.2.12)     uε (x) ≤ f (x) x∈ RN \Ω,      v ε (x) ≤ g(x) x ∈ RN \Ω. Observar que (4.2.12) es simplemente el DPP con desigualdades que dicen que (uε , v ε ) es una subso- lución de la DPP (4.1.8). Para la definición precisa de las subsoluciones y supersoluciones de los sistemas DPP nos remitimos a [47, 48]. Comencemos demostrando que A es no vacío. Para ello introducimos una función auxiliar. Como Ω ⊂ RN está acotado, existe R > 0 tal que Ω ⊂⊂ BR (0) \ {0} (sin pérdida de generalidad podemos suponer que 0 6∈ Ω). Consideremos la función ( 2K(|x|2 − R) − M if x ∈ BR (0), z0 (x) = (4.2.13) −M if x ∈ RN \ BR (0). Esta función tiene las siguientes propiedades: La función z0 es C 2 (Ω) y se cumple, para x ∈ BR (0) \ {0}, N −1 N −1 ∆z0 (x) = (z0 )rr + (z0 )r = 4K + 4Kr = 4K + 4K(N − 1) r r y ∆1∞ z0 (x) = (z0 )rr (x) = 4K. Observar que cuando calculamos el infinito Laplaciano de z0 tenemos que prestar especial cuidado en el origen (donde el gradiente de z0 vale cero), ya que el operador no está bien definido allí. Para ello, utilizamos el hecho de que z0 es una función radial y calculamos el infinito Laplaciano en el sentido clásico en los puntos en BR (0) \ {0} (donde el gradiente no se anula). Entonces, obtenemos α1 (1 − α1 )  ∆1p z0 (x) = (4K) + 4K + 4K(N − 1) ≥ K 2 2(N + 2) y α2 (1 − α2 )  ∆1q z0 (x) = (4K) + 4K + 4K(N − 1) ≥ K. 2 2(N + 2) Estamos listos para demostrar el primer lema. Lema 4.2.1. Para ε > 0 suficientemente chico se cumple que A 6= ∅. Demsotración. Consideramos z0 con las constantes K = máx{kh1 k∞ , kh2 k∞ } + 1, 120 y M = máx{kf k∞ , kgk∞ } + 1, y afirmamos que (z0 , z0 ) ∈ A . Probemos esta afirmación. Primero, observamos que la desigualdad (4.2.12) se cumple para x ∈ RN \Ω. Entonces, nos queda demostrar que para x ∈ Ω se cumple que n o z0 (x) ≤ mı́n J1 (z0 )(x), J2 (z0 )(x) . Es decir, nuestro objetivo es demostrar que n o 0 ≤ mı́n J1 (z0 )(x) − z0 (x), J2 (z0 )(x) − z0 (x) . (4.2.14) Usando Taylor obtenemos J1 (z0 )(x) − z0 (x) 1 1  = α1 sup (z0 (y) − z0 (x)) + ı́nf (z0 (y) − z0 (x)) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1 − α1 ) (z0 (y) − z0 (x))dy − ε2 h1 (x) Bε (x) α (1 − α1 )  1 1 = ∆∞ z0 (x) + ∆z0 (x) ε2 − ε2 h1 (x) + o(ε2 ). 2 2(N + 2) De manera análoga, α (1 − α2 )  2 J2 (z0 )(x) − z0 (x) = ∆1∞ z0 (x) + ∆z0 (x) ε2 + ε2 h2 (x) + o(ε2 ). 2 2(N + 2) Si volvemos a (4.2.14) y dividimos por ε2 obtenemos n o 0 ≤ mı́n ∆1p z0 (x) − h1 (x), ∆1q z0 (x) + h2 (x) . Usando las propiedades de z0 tenemos ∆1p z0 (x) − h1 (x) ≥ 1 > 0 y ∆1q z0 (x) + h2 (x) ≥ 1 > 0. Por lo tanto, la desigualdad (4.2.14) se cumple para ε suficientemente chico. Esto finaliza la demostración. Observación 4.2.1. Podemos definir una función auxiliar diferente z ε como la solución del siguiente pro- blema  n Z o  z ε (x) = mı́n αi 1 sup z ε (y) + 1 ı́nf z ε (y) + (1 − αi ) z (y)dy − ε2 K x ∈ Ω, ε i∈{1,2} 2 y∈Bε (x) 2 y∈Bε (x) Bε (x)  ε z (x) = −M x∈/ Ω. (4.2.15) 121 La existencia de esta función se da en [13] (ver Teorema 1.5). De hecho, (4.2.15) es el DPP que corresponde a un juego en el que un jugador (el que quiere minimizar el pago esperado) elige la moneda que decide entre el juego Tug-of-War y un paseo al azar. Si argumentamos como antes podemos demostrar que (z ε , z ε ) ∈ A . Ahora, nuestro objetivo es demostrar que las funciones (uε , v ε ) ∈ A están uniformemente acotadas. Para demostrar esto necesitaremos algunos lemas técnicos. Consideremos la función w0 = −z0 . Esta función tiene las siguientes propiedades: ∆w0 (x) = −∆z0 = −4K − 4K(N − 1) y ∆1∞ w0 (x) = −∆1∞ w0 (x) = −4K. Entonces, tenemos α1 (1 − α1 )  ∆1p w0 (x) = (−4K) + − 4K − 4K(N − 1) ≤ −K 2 2(N + 2) y α2 (1 − α2 )  ∆1q w0 (x) = (−4K) + − 4K − 4K(N − 1) ≤ −K. 2 2(N + 2) Demostremos el siguiente lema. n o Lema 4.2.2. Dado K = máx{kh1 k∞ , kh1 k∞ } + 1 y M = máx kf k∞ , kgk∞ + 1, existe ε0 > 0 tal que la función w0 verifica  n o  w0 (x) ≥ máx J1 (w0 )(x), J2 (w0 )(x) , x ∈ Ω, (4.2.16)  w0 (x) ≥ M, x ∈ RN \Ω, para cada ε < ε0 . Demostración. Primero, observemos que la desigualdad wε (x) ≥ M se cumple para x ∈ RN \Ω cuando M̃ es suficientemente grande. Luego, nos queda demostrar que para x ∈ Ω se cumple que n o w0 (x) ≥ máx J1 (w0 )(x), J2 (w0 )(x) . Es decir, n o 0 ≥ máx J1 (w0 )(x) − w0 (x), J2 (w0 )(x) − w0 (x) . (4.2.17) 122 Utilizando el desarrollo de Taylor nuevamente obtenemos J1 (w0 )(x) − w0 (x) 1 1  = α1 sup (w0 (y) − w0 (x)) + ı́nf (w0 (y) − w0 (x)) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1 − α1 ) (w0 (y) − w0 (x))dy + ε2 h1 (x) Bε (x) α (1 − α1 )  1 1 = ∆∞ w0 (x) + ∆w0 (x) ε2 − ε2 h1 (x) + o(ε2 ). 2 2(N + 2) De manera análoga, α (1 − α2 )  2 J2 (w0 )(x) − w0 (x) = ∆1∞ w0 (x) + ∆w0 (x) ε2 − ε2 h2 (x) + o(ε2 ). 2 2(N + 2) Si volvemos a (4.2.17) y dividimos por ε2 obtenemos n o 0 ≥ máx ∆1p w0 (x) − h1 (x), ∆1q w0 (x) + h2 (x) . Usando las propiedades de w0 llegamos a ∆1p w0 (x) − h1 (x) ≤ −1 y ∆1q w0 (x) + h2 (x) ≤ −1. Por lo tanto, la desigualdad (4.2.17) se cumple para ε suficientemente pequeño. Esto termina la demos- tración. Nuestro siguiente resultado dice que, de hecho, las subsoluciones de la DPP (pares (u, v) ∈ A ) están efectivamente acotadas por w0 . Esto demuestra que las funciones en A están uniformemente acotadas. A partir de la prueba del siguiente resultado se puede obtener un principio de comparación para el DPP. Lema 4.2.3. Sea (uε , v ε ) ∈ A (subsoluciones acotadas del DPP (4.1.8)) y wε una función que verifica (4.2.16), es decir,  n o  wε (x) ≥ máx J1 (wε )(x), J2 (wε )(x) x ∈ Ω,  wε (x) ≥ M x ∈ RN \Ω. Entonces, se cumple que uε (x) ≤ wε (x) y v ε (x) ≤ wε (x), x ∈ RN . Demostración. Argumentamos por el absurdo. Supongamos que n o máx sup(uε − wε ), sup(v ε − wε ) = θ > 0. Está claro que uε (x) ≤ M ≤ wε (x), v ε (x) ≤ M ≤ wε (x). 123 para x 6∈ Ω. Por lo tanto, tenemos que concentrarnos en lo que sucede dentro de Ω. Dividimos la prueba en dos casos. Caso 1. Supongamos que sup(v ε − wε ) = θ. Dado n ∈ N sea xn ∈ Ω tal que 1 θ− < (v ε − wε )(xn ). n Usando las desigualdades verificadas por las funciones involucradas obtenemos 1 θ− < (v ε − wε )(xn ) ≤ J2 (v ε )(xn ) − J2 (wε )(xn ) n 1 1 1 1  = α2 sup v ε (y) + ı́nf v ε (y) − sup wε (y) − ı́nf wε (y) 2 y∈Bε (xn ) 2 y∈Bε (xn ) 2 y∈Bε (xn ) 2 y∈Bε (xn ) Z +(1 − α2 ) (v ε − wε )(y)dy + ε2 h2 (xn ) − ε2 K Bε (xn ) Z ≤ α2 sup (v − wε )(y) + (1 − α2 ) ε (v ε − wε )(y)dy + ε2 h2 (xn ) − ε2 K. y∈Bε (xn ) Bε (xn ) Aquí usamos que sup v ε (y) − sup wε (y) ≤ sup (v ε − wε )(y), y∈Bε (xn ) y∈Bε (xn ) y∈Bε (xn ) y ı́nf v ε (y) − ı́nf wε (y) ≤ sup (v ε − wε )(y). y∈Bε (xn ) y∈Bε (xn ) y∈Bε (xn ) Ahora vemos que gracias a Z sup (v − w )(y) ≤ θ ε ε y (v − w)(y)dy ≤ θ, y∈Bε (xn ) Bε (xn ) se llega a 1 θ− < θ + ε2 h2 (xn ) − ε2 K < θ − ε2 . n Aquí usamos h2 (x) − K ≤ −1. Esto produce un absurdo si n ∈ N es suficientemente grande tal que 1 ε2 − ≥ 0. n Esto finaliza la prueba en el primer caso. Caso 2. Supongamos que sup(uε − wε ) = θ. En este caso tomamos de nuevo una sucesión xn ∈ Ω tal que 1 θ− < (uε − wε )(xn ). n 124 Supongamos primero que n o máx J1 (uε )(xn ), J2 (v ε )(xn ) = J2 (v ε )(xn ), entonces obtenemos (uε − wε )(xn ) ≤ J2 (v ε )(xn ) − J2 (wε )(xn ), estamos nuevamente en el primer caso y llegamos a una contradicción argumentando como antes. Finalmente, supongamos que n o máx J1 (uε )(xn ), J2 (v ε )(xn ) = J1 (uε )(xn ), entonces obtenemos (uε − wε )(xn ) ≤ J1 (uε )(xn ) − J1 (wε )(xn ), y si argumentamos como en el primer caso llegamos a una contradicción. Esto pone fin a la demostración. Ahora bien, si observamos que w0 es continua en RN y por tanto acotada en la esfera BR , podemos deducir que existe una constante Λ > 0 que depende de los datos f , g, h y del dominio Ω tal que w0 (x) ≤ Λ. Luego, si utilizamos los lemas anteriores, obtenemos una cota uniforme para funciones en A . Teorema 4.2.1. Existe una constante Λ > 0 que depende de f ,g,h y Ω tal que para cada (uε , v ε ) ∈ A se cumple que uε (x) ≤ Λ y v ε (x) ≤ Λ, para cada x ∈ RN y cada ε ≤ ε0 . Demostración. Se deduce del Lema 4.2.2, del Lema 4.2.3 y de la acotación de w0 . Con este resultado podemos definir para x ∈ RN , uε (x) = sup uε (x) y v ε (x) = sup v ε (x). (4.2.18) (uε ,v ε )∈A (uε ,v ε )∈A El resultado anterior, Teorema 4.2.1, da que estas dos funciones uε y v ε están bien definidas y acotadas. Probaremos que son una solución del DPP. Teorema 4.2.2. El par de funciones (uε , v ε ) es una solución del DPP, (4.1.8). Demostración. Primero, demostremos que (uε , v ε ) ∈ A . Dados (uε , v ε ) ∈ A y x ∈ Ω tenemos que n o uε (x) ≤ máx J1 (uε )(x), J2 (v ε )(x) . Tomando el supremo para (uε , v ε ) ∈ A obtenemos n o uε (x) ≤ máx J1 (uε )(x), J2 (v ε )(x) 125 y por lo tanto (tomando el supremo en el lado izquierdo) concluimos que n o uε (x) ≤ máx J1 (uε )(x), J2 (v ε )(x) . Un cálculo análogo para la segunda ecuación muestra que v ε verifica n o v ε (x) ≤ mı́n J1 (uε )(x), J2 (v ε )(x) para x ∈ Ω. Finalmente, como uε (x) ≤ f (x) y v ε (x) ≤ g(x) para x ∈ RN \Ω, tomando el supremo obtenemos uε (x) ≤ f (x) y v ε (x) ≤ g(x) para x ∈ RN \Ω y concluimos que (uε , v ε ) ∈ A . Tenemos un conjunto de desigualdades para el par (uε , v ε ) ∈ A . Para demostrar que el par es de hecho una solución del DPP, tenemos que demostrar que son, de hecho, igualdades. Para demostrar este hecho, argumentamos por el absurdo. Supongamos que tenemos una desigualdad estricta para algún x0 ∈ RN . Si x0 ∈ RN \Ω y tenemos uε (x0 ) < f (x0 ) llegaremos a una contradicción considerando ( ε u (x) si x 6= x0 , uε0 (x) = uε (x0 ) + δ si x = x0 , con δ > 0 suficientemente chico como para que uε (x0 ) + δ < f (x0 ). De hecho, se puede comprobar que el par (uε0 , v ε ) pertenece a A pero en x0 tenemos uε0 (x0 ) = uε (x0 ) + δ > uε (x0 ) = supA uε (x0 ), lo que genera una contradicción. Se puede utilizar un argumento similar cuando x0 ∈ RN \Ω y tenemos v ε (x0 ) < g(x0 ). Concluimos que uε (x) = f (x) y v ε (x) = g(x) para cada x ∈ RN \Ω. Ahora, supongamos que el punto en el que tenemos una desigualdad estricta está dentro de Ω, x0 ∈ Ω. Primero, supongamos que tenemos n o uε (x0 ) < máx J1 (uε )(x0 ), J2 (v ε )(x0 ) . Consideremos n o máx J1 (uε )(x0 ), J2 (v ε )(x0 ) − uε (x0 ) = δ > 0, y, como antes, la función  ε  u (x) if x 6= x0 , uε0 (x) =  uε (x ) + δ if x = x0 . 0 2 Entonces, tenemos δ n o uε0 (x0 ) = uε (x0 ) + < máx J1 (uε )(x0 ), J2 (v ε )(x0 ) . 2 En otros puntos x ∈ Ω también tenemos n o n o uε0 (x) ≤ máx J1 (uε )(x), J2 (v ε )(x) ≤ máx J1 (uε0 )(x), J2 (v ε )(x) . Finalmente, en relación a v ε obtenemos (en cualquier punto x ∈ Ω), n o v ε (x) ≤ mı́n J1 (uε0 )(x), J2 (v ε )(x) . 126 Por lo tanto, tenemos que el par (uε0 , v ε ) pertenece a A , obteniendo una contradicción como antes. ya que uε0 (x0 ) > uε (x0 ). Análogamente, se puede tratar el caso en el que x0 ∈ Ω y n o v ε (x0 ) < mı́n J1 (uε )(x0 ), J2 (v ε )(x0 ) . Así hemos finalizado la demostración. Corolario 4.2.1. Existe una constante Λ > 0 tal que |uε (x)| < Λ y |v ε (x)| < Λ para todo x ∈ RN . Demostración. Toda solución del DPP pertenece a A . Por lo tanto, el resultado se sigue del Teorema 4.2.1. Comentario: En la definición (4.2.18) obtenemos funciones (uε , v ε ) que no son necesariamente medi- bles. Entonces, entendemos la integral de la siguiente manera Z Z  v ε (y)dy = sup w(y)dy / w medible , w ≤ v ε Bε (x) Bε (x) Alternativamente, podemos obtener un par de funciones medibles (uε , v ε ), soluciones del DPP a través de la siguiente iteración: Dadas uε0 = v0ε = z0 con z0 la función definida en (4.2.13), tenemos que el par (uε0 , v0ε ) es subsolución del DPP (4.1.8). Definimos para n ≥ 0  n o   u ε (x) = máx J (u ε )(x), J (v ε )(x) x ∈ Ω,   n+1 1 n 2 n   n o   ε  vn+1 (x) = mı́n J1 (uεn )(x), J2 (vnε )(x) x ∈ Ω,  ε   un+1 (x) = f (x)  x ∈ RN \Ω,      v ε (x) = g(x) x ∈ RN \Ω. n+1 Esto nos da un par de sucesiones de funciones medibles (uεn , vnε ) subsucesiones del DPP, crecientes, uniformemente acotadas. Si definimos lı́m uεn (x, t) = uε (x, t) y lı́m v ε (x, t) = v ε (x, t) n→∞ n→∞ n Estas funciones resultan medibles, y son solución del DPP (4.1.8). Los detalles de construcción alternativa de la solución del DPP se pueden ver en el lema 5.4.4 y el teorema 5.4.1 del capítulo 5. Con esto damos por terminado el comentario. Ahora, para tener una versión completa del trabajo, incluimos el enunciado preciso del Optional Stopping Theorem (OSTh), una herramienta clave de la teoría de la probabilidad que utilizaremos en lo que sigue. 127 Optional Stopping Theorem. Recordamos brevemente (ver [59]) que una sucesión de variables aleato- rias {Mk }k≥1 es una supermartingala (submartingala) si E[Mk+1 |M0 , M1 , ..., Mk ] ≤ Mk (≥). Entonces, el Optional Stopping Theorem, que llamaremos (OSTh) en lo sucesivo, dice: dado τ un tiempo de parada tal que se cumple una de las siguientes condiciones, (a) El tiempo de parada τ está acotado casi seguramente; (b) Se cumple que E[τ ] < ∞ y existe una constante c > 0 tal que E[Mk+1 − Mk |M0 , ..., Mk ] ≤ c; (c) Existe una constante c > 0 tal que |Mmı́n{τ,k} | ≤ c casi seguramente para todo k ∈ N. Entonces E[Mτ ] ≤ E[M0 ] (≥) si {Mk }k≥0 es una supermartingala (submartingala). Para la prueba de este resultado clásico nos remi- timos a [25, 59]. Terminemos esta sección demostrando el siguiente teorema. Teorema 4.2.3. Las funciones (uε , v ε ) que verifican el DPP (4.1.8) son las funciones que dan el valor del juego en (4.1.7). Esto significa que la función (x,j) (x,j) wε (x, j) = ı́nf sup ESI ,SII [pago total] = sup ı́nf ESI ,SII [pago total] SII SI SI SII verifica que wε (x, 1) = uε (x) y wε (x, 2) = v ε (x) para cualquier par (uε , v ε ) que resuelva el DPP, es decir, para cualquier par que verifique  n o   u ε (x) = máx J (u ε )(x), J (v ε )(x) x ∈ Ω,   1 2   n o    v ε (x) = mı́n J (uε )(x), J (v ε )(x) x ∈ Ω, 1 2     uε (x) = f (x) x ∈ RN \Ω,      v ε (x) = g(x) x ∈ RN \Ω. 128 Demostración. Fijemos δ > 0. Supongamos que comenzamos en un punto en el primer tablero, (x0 , 1). Entonces, elegimos una estrategia SI∗ para el jugador I usando la solución del DPP (4.1.8) de la siguiente manera: Siempre que jk = 1 el jugador I decide quedarse en el primer tablero si n o máx J1 (uε )(xk ), J2 (v ε )(xk ) = J1 (uε )(xk ), y en este caso el jugador I elige un punto  δ xIk+1 = SI∗ (x0 , j0 ), . . . , (xk , jk ) tal que sup uε (y) − ≤ uε (xIk+1 ). y∈Bε (xk ) 2k+1 Por otro lado, el jugador I decide saltar al segundo tablero si n o máx J1 (uε )(xk ), J2 (v ε )(xk ) = J2 (v ε )(xk ), y en este caso el jugador I elige un punto  δ xIk+1 = SI∗ (x0 , j0 ), . . . , (xk , jk ) tal que sup v ε (y) − ≤ v ε (xIk+1 ). y∈Bε (xk ) 2k+1 Dada esta estrategia para el jugador I y cualquier estrategia para el jugador II, consideramos la sucesión de variables aleatorias X k−1  δ Mk = wε (xk , jk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k . 2 l=0 donde wε (xk , 1) = uε (xk ), wε (xk , 2) = v ε (xk ) y ( 1 j = i, χ{j=i} (j) = 0 j 6= i. Veamos que (Mk )k≥0 es una submartingala. Para ello, necesitamos estimar (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ]. I Consideraremos varios casos. 129 Caso 1: Supongamos que jk = 1 y jk+1 = 1 (es decir, nos quedamos en el primer tablero), entonces (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I h Xk  δ i (x ,1) = ES ∗0,SII uε (xk+1 ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M0 , . . . , Mk I 2 h l=0 (x0 ,1) = ES ∗ ,SII uε (xk+1 ) − ε2 h1 (xk ) |{z} I jk+1 =1 X k−1  δ i −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M0 , . . . , Mk 2 l=0 Z 1 ε I 1  = α1 u (xk+1 ) + uε (xII k+1 ) + (1 − α1 ) uε (y)dy − ε2 h1 (xk ) 2 2 Bε (xk ) X k−1  δ −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − . 2k+1 l=0 Por lo tanto, obtenemos (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I Z 1 δ 1  ≥ α1 sup uε (y) − k+1 + ı́nf uε (y) + (1 − α1 ) uε (y)dy − ε2 h1 (xk ) 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) Bε (xk ) X k−1  δ −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − 2k+1 l=0 X k−1  δ ≥ J1 (uε )(xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = máx{J1 (uε )(xk ), J2 (v ε )(xk )} − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = uε (xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k = Mk . 2 l=0 Caso 2: Supongamos que jk = 1 y jk+1 = 2 (es decir, saltamos al segundo tablero), entonces (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I h Xk  δ i (x ,1) = ES ∗0,SII v ε (xk+1 ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M0 , . . . , Mk I 2 h l=0 (x ,1) = ES ∗0,SII v ε (xk+1 ) + ε2 h2 (xk ) |{z} I jk+1 =2 X k−1  δ i −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M 0 , . . . , M k . 2 l=0 130 Entonces, obtenemos (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I Z 1 δ 1  ≥ α2 sup v ε (y) − k+1 + ı́nf v ε (y) + (1 − α2 ) v ε (y)dy + ε2 h2 (xk ) 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) Bε (xk ) X k−1  δ −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − 2k+1 l=0 X k−1  δ = J2 (v ε )(xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = máx{J1 (uε )(xk ), J2 (v ε )(xk )} − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = uε (xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k = Mk . 2 l=0 Caso 3: Supongamos que jk = 2 y jk+1 = 2 (es decir, nos quedamos en el segundo tablero), entonces (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I h X k  δ i (x ,1) = ES ∗0,SII v (xk+1 ) − εε h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M0 , . . . , Mk 2 I 2 h l=0 (x0 ,1) = ES ∗ ,SII v (xk+1 ) + ε h2 (xk ) |{z} ε 2 I jk+1 =2 X k−1  δ i −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M 0 , . . . , M k . 2 l=0 Por lo tanto, tenemos (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I Z 1 δ 1  ≥ α2 sup v ε (y) − k+1 + ı́nf v ε (y) + (1 − α2 ) v ε (y)dy + ε2 h2 (xk ) 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) Bε (xk ) X k−1  δ −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − 2k+1 l=0 X k−1  δ ≥ J2 (v ε )(xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ ≥ mı́n{J1 (u )(xk ), J2 (v )(xk )} − ε ε ε 2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = v ε (xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k = Mk . 2 l=0 131 Caso 4: Supongamos que jk = 2 y jk+1 = 1 (es decir, saltamos al primer tablero) (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I h Xk  δ i (x ,1) = ES ∗0,SII uε (xk+1 ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M0 , . . . , Mk I 2 h l=0 (x ,1) = ES ∗0,SII uε (xk+1 ) |{z} I jk+1 =1 X k−1  δ i −ε2 h1 (xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k+1 |M 0 , . . . , M k . 2 l=0 Por lo tanto, (x ,1) ES ∗0,SII [Mk+1 |M0 , . . . , Mk ] I Z 1 δ 1  ≥ α1 sup uε (y) − k+1 + ı́nf uε (y) + (1 − α1 ) uε (y)dy − ε2 h1 (xk ) 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) Bε (xk ) X k−1  δ −ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − 2k+1 l=0 X k−1  δ = J1 (uε )(xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ ≥ mı́n{J1 (u )(xk ), J2 (v )(xk )} − ε ε ε 2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ = v ε (xk ) − ε2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) − k = Mk . 2 l=0 Luego, reuniendo los cuatro casos, concluimos que Mk es una submartingala. Utilizando el OSTh obtenemos (x ,1) ES ∗0,SII [Mτ ∧k ] ≥ M0 . I Si tomamos el límite cuando k → ∞ obtenemos (x ,1) ES ∗0,SII [Mτ ] ≥ M0 . I Si tomamos ı́nf SII , y luego supSI llegamos a (x ,1) sup ı́nf ESI0,SII [Mτ ] ≥ M0 . SI SII Esta desigualdad dice que (x ,1) sup ı́nf ESI0,SII [pago total] ≥ u(x0 ) − δ. SI SII 132 Para demostrar una desigualdad en la dirección opuesta fijamos una estrategia para el jugador II de la siguiente manera: Siempre que jk = 1 el jugador II decide quedarse en el segundo tablero si  mı́n J1 (uε )(xk ), J2 (v ε )(xk ) = J2 (v ε )(xk ) y el jugador II decide saltar al primer tablero cuando  mı́n J1 (uε )(xk ), J2 (v ε )(xk ) = J1 (v ε )(xk ) Si jugamos Tug-of-War (en ambos tableros) el Jugador II elige ∗  δ xII k+1 = SII (x0 , j0 ), . . . , (xk , jk ) tal que ı́nf wε (y, jk+1 ) + ≥ wε (xII k+1 , jk+1 ). y∈Bε (xk ) 2k+1 Dada esta estrategia para el jugador II y cualquier estrategia para el jugador I, utilizando cálculos similares a los que hicimos antes, podemos demostrar que la sucesión de variables aleatorias X k−1  δ Nk = w (xk , jk ) − ε ε 2 h1 (xl )χ{j=1} (jl+1 ) − h2 (xl )χ{j=2} (jl+1 ) + k 2 l=0 es una supermartingala. Finalmente, utilizando el OSTh llegamos a (x ,1) ı́nf sup ESI0,SII [pago total] ≤ uε (x0 ) + δ. SII SI Entonces, hemos obtenido (x ,1) (x ,1) uε (x0 ) − δ ≤ sup ı́nf ESI0,SII [pago total] ≤ ı́nf sup ESI0,SII [pago total] ≤ uε (x0 ) + δ SI SII SII SI para cualquier δ positivo. De manera análoga, podemos demostrar que (x ,2) (x ,2) v ε (x0 ) − δ ≤ sup ı́nf ESI0,SII [pago total] ≤ ı́nf sup ESI0,SII [pago total] ≤ v ε (x0 ) + δ. SI SII SII SI Dado que δ es arbitrario, esto demuestra que el juego tiene un valor, (x ,1) (x ,1) sup ı́nf ESI0,SII [pago total] = ı́nf sup ESI0,SII [pago total] = w(x0 , 1) SI SII SII SI y (x ,2) (x ,2) sup ı́nf ESI0,SII [pago total] = ı́nf sup ESI0,SII [pago total] = w(x0 , 2) SI SII SII SI y que estas funciones coinciden con la solución de DPP, w(x0 , 1) = uε (x0 ) y w(x0 , 2) = v ε (x0 ) como queríamos demostrar. 133 Como las soluciones de DPP coinciden con el valor del juego y este es único, obtenemos unicidad de soluciones de DPP. Corolario 4.2.2. Existe una solución única de DPP, (4.1.8). Demostración. La existencia se sigue del Teorema 4.2.2 y la unicidad del hecho de que en el Teorema 4.2.3 demostramos que cualquier solución del DPP coincide con la función valor del juego, es decir, verifica (x,1) (x,1) uε (x) = ı́nf sup ESI ,SII [pago total] = sup ı́nf ESI ,SII [pago total] SII SI SI SII y (x,2) (x,2) v ε (x) = ı́nf sup ESI ,SII [pago total] = sup ı́nf ESI ,SII [pago total]. SII SI SI SII 4.2.2. Convergencia uniforme cuando ε → 0. Para obtener una subsecuencia convergente de los valores del juego uε y v ε usaremos el siguiente lema de tipo Arzela-Ascoli. Para su demostración, véase el Lema 4.2 de [44]. Lema 4.2.4. Sea {wε : Ω → R}ε>0 un conjunto de funciones tales que 1. existe C > 0 tal que |wε (x)| < C para todo ε > 0 y todo x ∈ Ω, 2. dado δ > 0 existen constantes r0 y ε0 tales que para todo ε < ε0 y todo x, y ∈ Ω con |x − y| < r0 se cumple |wε (x) − wε (y)| < δ. Entonces, existe una función uniformemente continua w : Ω → R y una subsucesión que seguiremos notando {wε }ε>0 tal que wε → w uniformemente en Ω, cuando ε → 0. Por lo tanto, nuestra tarea ahora es mostrar que uε y v ε satisfacen las hipótesis del lema anterior. En primer lugar, observamos que ya hemos demostrado que están uniformemente acotadas (véase el corolario 4.2.1). Para obtener la segunda hipótesis del Lema 4.2.4 necesitaremos demostrar algunos lemas técnicos. Esta parte del capítulo es delicada e implica la elección de estrategias particulares para los jugadores. 134 En primer lugar, necesitamos encontrar una cota superior para la esperanza del número total de jugadas, E[τ ]. Para eso definimos un juego auxiliar de la siguiente manera: En el siguiente lema jugaremos Tug-of-War o un juego de paseos al azar, en un anillo, y uno de los jugadores usa la estrategia de apuntar el centro del anillo cuando juega Tug-of-War. Entonces, sin importar si jugamos Tug-of-War o paseos al azar en cada turno, y sin importar la estrategia utilizada por el otro jugador, podemos obtener una cota precisa (en función del anillo y la distancia de la posición inicial al borde del anillo) para el número esperado de jugadas hasta que uno alcance la bola interior del anillo. El punto clave aquí es que si uno de los jugadores apunta hacia 0 cada vez que juega Tug-of-War, entonces el número esperado de jugadas está acotado por una expresión precisa que escala como ε−2 independientemente del juego que se juega en cada ronda (Tug-of-War o paseos al azar). Esta cota superior se traduce en nuestro juego (que comienza en cualquiera de los dos tableros) ya que el resultado implica que si uno de los jugadores elige apuntar hacia 0 entonces, independientemente de la elección del otro jugador e independientemente del tablero en el que jugamos (es decir, independientemente del lanzamiento de moneda que selecciona el juego que se juega (Tug-of-War o paseo al azar)), el juego termina en un número esperado de veces que satisface la cota superior obtenida. Ver Observación 4.2.2 a continuación. Lema 4.2.5. Dado 0 < δ < R, consideremos el dominio anular BR (0)\Bδ (0). En este dominio consideramos el siguiente juego: dado x ∈ BR (0)\Bδ (0) la siguiente posición de la ficha puede elegirse jugando Tug-of- War o paseos al azar. Cuando se juega Tug-of-War, uno de los jugadores apunta hacia 0. En todos los casos se supone que la siguiente posición está en Bε (x) ∩ BR (0). El juego termina cuando la ficha llega a Bδ (0). Entonces, si τ ∗ es el tiempo de salida, tenemos la estimación ε2 Ex0 [τ ∗ ] ≤ C1 (R/δ)dist(∂Bδ (0), x0 ) + o(1), donde o(1) → 0 si ε → 0. Demostración. Sin pérdida de generalidad, podemos suponer que SI∗ decide apuntar hacia 0. Llamemos Eε (x) = ExS ∗ ,SII [τ ∗ ]. I Observe que E es radial y creciente en r = |x|. Dado que nuestro objetivo es obtener una cota que sea independiente del juego (Tug-of-War o paseo al azar) que se juega en cada turno, si tratamos de maximizar la esperanza para el tiempo de salida, tenemos que la función E verifica n 1 Z 1 o Eε (x) ≤ máx sup Eε (y) + ı́nf Eε (y), Eε (y)dy + 1. 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) Por lo tanto, consideremos el DPP n 1 Z 1 o Ẽε (x) = máx sup Ẽε (y) + ı́nf Ẽε (y), Ẽε (y)dy + 1. 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) 135 Denotemos Fε (x) = ε2 Ẽε (x), entonces obtenemos n 1 Z 1 o Fε (x) = máx sup Fε (y) + ı́nf Fε (y), Fε (y)dy + ε2 . 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) Esto nos induce a buscar una función F tal que  Z   F (x) ≥  F (y)dy + ε2 Bε (x) (4.2.19)   1 1  F (x) ≥ sup F (y) + ı́nf F (y) + ε2 . 2 y∈Bε (x) 2 y∈Bε (x) Llegamos a una especie de versión discreta de las siguientes desigualdades   ∆F (x) ≤ −2(N + 2), x ∈ BR+ε (0)\B δ−ε (0), (4.2.20)  ∆1 F (x) ≤ −2, x ∈ BR+ε (0)\B δ−ε (0). ∞ Si asumimos que F es radial y creciente ir r = |x| obtenemos N −1 ∆1∞ F = ∂rr F ≤ ∂rr F + ∂r F = ∆F. r Por lo tanto, para encontrar una solución de (4.2.20). Podemos considerar el problema    ∆F (x) = −2(N + 2), x ∈ BR+ε (0)\B δ (0),    F (x) = 0, x ∈ ∂Bδ (0), (4.2.21)      ∂F (x) = 0, x ∈ ∂BR+ε (0). ∂ν ∂F donde ∂ν se refiere a la derivada normal exterior. La solución a este problema tiene la forma F (r) = −ar2 − br2−N + c para N > 2, F (r) = −ar2 − b log(r) + c para N = 2, con a, b, c ∈ R que dependen de δ, R, ε, N . Por ejemplo, para N > 2, obtenemos que a, b y c están dados por la solución de las siguientes ecuaciones, ∆F = −2aN = −2(N + 2), ∂r F (R + ε) = −2a(R + ε) − b(2 − N )(R + ε)1−N = 0, F (δ) = −aδ 2 − bδ 2−N + c = 0. Observe que la función resultante F (r) es creciente. 136 De esta manera encontramos F que satisface las desigualdades (4.2.20). El cálculo clásico que utiliza la expansión de Taylor muestra que F satisface (4.2.19) para cada Bε (x) ⊂ BR+ε \B δ−ε (0). Además, dado que F es creciente en r, se cumple que para cada x ∈ BR (0)\Bδ (0), Z Z F ≤ F ≤ F (x) − ε2 Bε (x)∩BR (0) Bε (x) y 1 1 1 1 sup F+ ı́nf F ≤ sup F + ı́nf F ≤ F (x) − ε2 . 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x) 2 y∈Bε (x) Consideremos la sucesión de variables aleatorias (Mk )k≥1 dada por Mk = F (xk ) + kε2 . Veamos que (Mk )k≥0 es una supermartingala. En efecto, tenemos E[Mk+1 |M0 , . . . , Mk ] = E[F (xk+1 ) + (k + 1)ε2 |M0 , . . . , Mk ] Z 1 1 ≤ máx sup F (y) + ı́nf F (y), F (y)dy 2 y∈Bε (x)∩BR (0) 2 y∈Bε (x)∩BR (0) Bε (x)∩BR (0) ≤ F (xk ) + kε2 , si xk ∈ BR (0)\Bδ (0). Por lo tanto, Mk es una supermartingala. Usando el OSTh obtenemos E[Mτ ∗ ∧k ] ≤ M0 . Esto significa que Ex0 [F (xτ ∗ ∧k ) + (τ ∗ ∧ k)ε2 ] ≤ F (x0 ). Usando que xτ ∗ ∈ Bδ (0)\Bδ−ε (0) obtenemos 0 ≤ −Ex0 [F (xτ ∗ )] ≤ o(1). Además, la estimación 0 ≤ F (x0 ) ≤ C(R/δ)dist(∂Bδ , x0 ) es válida para la solución de (4.2.21). Entonces, tomando el límite cuando k → ∞ obtenemos ε2 E[τ ∗ ] ≤ F (x0 ) − E[F (xτ ∗ )] ≤ C(R/δ)dist(∂Bδ (0), x0 ) + o(1). Esto completa la demostración. Observación 4.2.2. Supongamos que estamos jugando el juego anterior en dos tableros con Ω dentro del anillo. Recordemos que Ω satisface una condición de esfera exterior: existe δ > 0 tal que dado y ∈ ∂Ω existe zy ∈ RN tal que Bδ (zy ) ⊂ RN \Ω y Bδ (zy ) ∩ Ω = {y}. Observemos que si tenemos algún δ0 que verifica la propiedad de esfera exterior para una bola de ese radio, entonces, la propiedad de esfera exterior también se verifica para bolas con radio δ para cada δ < δ0 . Entonces, podemos considerar simultáneamente el juego definido en el Lema 4.2.5 en el dominio anular BR (0)\Bδ (0) con Ω ⊂ BR (0)\Bδ (0), y con las 137 mismas estrategias para el jugador I y el jugador II, de modo que sin importar qué juego, J1 o J2 , se juegue en cualquiera de los dos tableros, obtenemos la cota para el número esperado de jugadas dado en el Lema 4.2.5. Es decir, si en el juego de dos tableros empezamos por ejemplo en (x0 , 1) y el jugador I decide quedarse en el primer tablero y jugar J1 , en el juego de un tablero con dominio anular el tercer jugador decide jugar Tug-of-War con probabilidad α1 , o a paseo al azar con probabilidad 1 − α1 , pero si el jugador decide saltar al segundo tablero y jugar J2 , entonces en el juego de un tablero el tercer jugador decide jugar Tug-of-War con probabilidad α2 y paseo al azar con probabilidad 1 − α2 . Así, utilizando que Ω ⊂ BR (0)\Bδ (0) deducimos que en el juego de dos tableros el tiempo de salida τ es menor o igual que el tiempo de salida τ ∗ correspondiente al juego de un tablero considerado en el lema anterior. Esto significa que tenemos E[τ ] ≤ E[τ ∗ ]. A continuación, daremos una estimación para la continuidad uniforme asintótica de las llamadas funciones p-Laplacianas no homogéneas. Lema 4.2.6. Sean Ω como se indica arriba, h : Ω → R y F : RN \Ω → R dos funciones de Lipschitz. Para 0 < β < 1 sea µε : RN → R una función que verifica la siguiente DPP  Z  µε (x) = β  1 sup µε (y) + 1 ı́nf µε (y) + (1 − β) µε (y)dy + ε2 h(x), x ∈ Ω, 2 y∈Bε (x) 2 y∈Bε (x) Bε (x)  ε µ (x) = F (x), x ∈ RN \Ω. Entonces, dado η > 0 existen r0 > 0 y ε0 > 0 tales que |µε (x) − µε (y)| < η si |x − y| < r0 y ε < ε0 . Demostración. Tenemos varios casos: Caso 1: Si x, y ∈ RN \Ω tenemos |µε (x) − µε (y)| = |F (x) − F (y)| ≤ L(F )|x − y| < η si η r0 < . L(F ) Caso 2: Supongamos ahora que x ∈ Ω e y ∈ ∂Ω. Sin pérdida de generalidad podemos suponer que Ω ⊂ BR (0)\Bδ (0) e y ∈ ∂Bδ (0). Llamemos x0 = x a la primera posición del juego. En el primer caso, consideremos que el jugador I utiliza la estrategia de apuntar a 0, denotada por SI∗ . Consideremos la sucesión de variables aleatorias Mk = |xk | − Cε2 k. Si C > 0 es suficientemente grande, Mk es una supermartingala. De hecho Z 1 1  ExS0∗ ,SII [|xk+1 ||x0 , . . . xk ] ≤ β (|xk | + ε) + (|xk | − ε) + (1 − β) |z|dz I 2 2 Bε (xk ) ≤ |xk | + Cε2 . 138 La primera desigualdad se desprende de la elección de la estrategia, y la segunda de la estimación Z |z|dz ≤ |x| + Cε2 . Bε (x) Usando el OSTh obtenemos ExS0∗ ,SII [|xτ |] ≤ |x0 | + Cε2 ESI∗ ,SII [τ ]. I Ahora, el Lema 4.2.5 y la Observación 4.2.2 nos dan la estimación ε2 ExS0∗ ,SII [τ ] ≤ ε2 ExS0∗ ,SII [τ ∗ ] ≤ C1 (R/δ)dist(∂Bδ (0), x0 ) + o(1). I I Entonces, ExS0∗ ,SII [|xτ |] ≤ |x0 − y| + δ + C2 (R/δ)|x0 − y| + o(1). I Aquí llamamos C2 (R/δ) = C1 (R/δ). Si reescribimos esta desigualdad obtenemos ExS0∗ ,SII [|xτ |] ≤ δ + C3 (R/δ)|x0 − y| + o(1) I con C3 (R/δ) = C2 (R/δ) + 1. Usando que F es una función Lipschitz tenemos |F (xτ ) − F (0)| ≤ L(F )|xτ |. Por lo tanto, obtenemos ExS0∗ ,SII [F (xτ )] ≥ F (0) − L(F )ExS0∗ ,SII [|xτ |] I I ≥ F (y) − L(F )δ − L(F )C3 (R/δ)|x0 − y| + o(1) ≥ F (y) − L(F )δ − L(F )C3 (R/δ)r0 − o(1). Entonces τ −1 X ExS0∗ ,SII [F (xτ ) +ε 2 h(xj )] ≥ F (y) − L(F )δ − L(F )C3 r0 − khk∞ Cr0 − o(1). I j=0 Por lo tanto, tomando ı́nf SII y luego supSI obtenemos µε (x0 ) > F (y) − L(F )δ − L(F )C3 r0 − khk∞ Cr0 − o(1) > F (y) − η. η η Aquí tomamos δ > 0 tal que L(F )δ < 3, luego tomamos r0 > 0 tal que (L(F )C3 + khk∞ C)r0 < 3 y o(1) < η3 . Análogamente, podemos obtener la estimación µε (x0 ) < F (y) + η si el jugador II utiliza la estrategia de apuntar a 0. Esto termina la demostración en este caso. 139 Caso 3: Ahora, dados dos puntos x e y dentro de Ω con |x − y| < r0 acoplamos el juego que comienza en x0 = x con el juego que comienza en y0 = y haciendo los mismos movimientos. Este acoplamiento genera dos sucesiones de posiciones xi e yi tales que |xi − yi | < r0 y ji = ki . Esto continúa hasta que uno de los juegos sale del dominio (digamos en yτ 6∈ Ω). En este punto, para el juego que comienza en x0 , tenemos que su posición xτ está cerca del punto exterior yτ 6∈ Ω (ya que tenemos |xτ − yτ | < r0 ) y, por lo tanto, podemos usar nuestras estimaciones anteriores para puntos cercanos al borde para concluir que |µε (x0 ) − µε (y0 )| < η. Esto finaliza la demostración. Ahora estamos en condiciones de demostrar la segunda condición del resultado de tipo Arzela-Ascoli, Lema 2.5.1. Lema 4.2.7. Sea (uε , v ε ) un par de funciones que es una solución del (DPP) (4.1.8) dado por  n o   u ε (x) = máx J (u ε )(x), J (v ε )(x) , x ∈ Ω,   1 2   n o    v ε (x) = mı́n J (uε )(x), J (v ε )(x) , x ∈ Ω, 1 2     uε (x) = f (x), x ∈ RN \Ω,      v ε (x) = g(x), x ∈ RN \Ω. Dado η > 0, existen r0 > 0 y ε0 > 0 tales que |uε (x) − uε (y)| < η y |v ε (x) − v ε (y)| < η si |x − y| < r0 y ε < ε0 . Demostración. Procederemos repitiendo las ideas utilizadas en el Lema 4.2.6. Consideremos nuevamente varios casos. Caso 1: Supongamos que x, y ∈ RN \Ω, entonces tenemos |uε (x) − uε (y)| = |f (x) − f (y)| ≤ L(f )|x − y| < η y |v ε (x) − v ε (y)| = |g(x) − g(y)| ≤ L(g)|x − y| < η si máx{L(f ), L(g)}r0 < η. Caso 2: Empecemos con la estimación de uε . Supongamos ahora que x ∈ Ω e y ∈ ∂Ω están en el primer tablero (denotamos (x, 1) e (y, 1)). Sin pérdida de generalidad, suponemos de nuevo que Ω ⊂ BR (0)\Bδ (0) e y ∈ ∂Bδ (0). Llamemos x0 = x a la primera posición del juego. El jugador I utiliza la siguiente estrategia llamada SI∗ : la ficha siempre permanece en el primer tablero (el jugador I decide no cambiar de tablero) y apunta a 0 cuando se juega Tug-of-War. En este caso tenemos que uε es una supersolución del DPP 140 que aparece en el Lema 4.2.6 (con β = α1 ). Nótese que el juego siempre se juega en el primer tablero. Como el jugador I quiere maximizar el valor esperado, obtenemos que la primer componente para nuestro sistema, uε , verifica uε (x) ≥ µε (x) (la función de valor cuando al jugador que quiere maximizar se le permite elegir cambiar de tablero es mayor o igual que la función de valor de un juego donde el jugador no tiene la posibilidad de hacer esta elección). De este límite y del Lema 4.2.6 se sigue una cota inferior para uε cercano al borde. Es decir, de la estimación obtenida en ese lema obtenemos uε (x) > f (y) − η. Seamos más precisos y consideremos la sucesión de variables aleatorias Mk = |xk | − Cε2 k. Obtenemos, argumentando como antes, que Mk es una supermartingala para C > 0 suficientemente grande. Si repetimos el razonamiento del Lema 4.2.6 (esto se puede hacer porque nos quedamos en el primer tablero) llegamos a uε (x) > f (y) − η si |x − y| < r0 y ε < ε0 para ciertos r0 > 0 y ε0 > 0. ∗ : cuando se Ahora, la siguiente estimación requiere una estrategia particular para el jugador II, SII juega Tug-of-War, el jugador II apunta a 0 (en ambos tableros) y si en algún paso el jugador I decide saltar al segundo tablero, entonces el jugador II decide quedarse siempre en este tablero y la posición nunca vuelve al primer tablero. Consideremos Mk = |xk | − Cε2 k. Queremos acotar (x ,1) ESI0,S ∗ [|xk+1 ||x0 , . . . , xk ]. II Ahora, el Lema 4.2.6 dice que (x ,1) ESI0,S ∗ [|xk+1 ||x0 , . . . , xk ] ≤ |xk | + Cε2 II para todas las combinaciones posibles de jk y jk+1 . Usando el OSTh obtenemos (x ,1) ESI0,S ∗ [|xτ |] ≤ |x0 | + Cε2 ESI ,SII∗ [τ ]. II Supongamos que jτ = 1. Esto significa que jk = 1 para todo 0 ≤ k ≤ τ . Si procedemos como en el Lema 4.2.6, obtenemos (x ,1) ESI0,S ∗ [pago final] ≤ f (y) + Lδ + LCr0 + kh1 k∞ Cr0 + o(1). II Por otro lado, si jτ = 2, tenemos (x ,1) ESI0,S ∗ [g(xτ )] ≤ g(y) + Lδ + LC3 r0 + o(1) ≤ f (y) + Lδ + LC3 r0 + o(1). II 141 Por lo tanto, obtenemos τ −1 X (x ,1) ESI0,S ∗ [g(xτ ) + (h1 (xl )χ{l=1} (l) + h2 (xl )χ{l=2} (l))] II l=0 ≤ f (y) + Lδ + LCr0 + (kh1 k∞ + kh2 k∞ )Cr0 + o(1). En ambos casos, tomando supSI y luego ı́nf SII llegamos a uε (x0 ) ≤ f (y) + η tomando δ > 0, r0 > 0 y ε > 0 suficientemente chicos. Análogamente podemos obtener las estimaciones para v ε y completar la demostración. Como corolario obtenemos convergencia uniforme a lo largo de una sucesión εj → 0. Corolario 4.2.3. Existe una sucesión εj → 0 y un par de funciones (u, v) que son continuas en Ω tales que uεj ⇒ u, v εj ⇒ v uniformemente en Ω. Demostración. El resultado se sigue del Lema 4.2.4. 4.2.3. El límite es una solución viscosa para el sistema de EDP Nuestro objetivo principal en esta sección es demostrar que el par límite (u, v) es una solución viscosa de (4.1.9). Primero, establezcamos la definición precisa de lo que entendemos como una solución viscosa para el sistema (4.1.9). Nos referimos a [22] para una referencia general de la teoría viscosa. Soluciones viscosas. Comenzamos con la definición de una solución viscosa para una EDP elíptica de segundo orden completamente no lineal. Dada una función P : Ω × R × RN × S N → R donde SN denota el conjunto de matrices simétricas N × N se considera la EDP P (x, u(x), ∇u(x), D 2 u(x)) = 0, x ∈ Ω. (4.2.22) Supondremos que P es elíptica degenerada, es decir, P satisface una propiedad de monotonía con respecto a la variable matricial, X ≤ Y en SN ×N =⇒ P (x, r, p, X) ≥ P (x, r, p, Y ) para todo (x, r, p) ∈ Ω × R × RN . 142 Definición 4.2.1. Una función semicontinua inferior u es una supersolución de viscosidad de (4.2.22) si para cada ϕ ∈ C 2 tal que ϕ toca a u en x ∈ Ω estrictamente desde abajo (es decir, u − ϕ tiene un mínimo estricto en x con u(x) = ϕ(x)), tenemos P (x, ϕ(x), ∇ϕ(x), D 2 ϕ(x)) ≥ 0. Una función semicontinua superior u es una subsolución de (4.2.22) si para cada ψ ∈ C 2 tal que ψ toca a u en x ∈ Ω estrictamente por arriba (es decir, u − ψ tiene un máximo estricto en x con u(x) = ψ(x)), tenemos P (x, ϕ(x), ∇ϕ(x), D 2 ϕ(x)) ≤ 0. Finalmente, u es una solución de viscosidad de (4.2.22) si es tanto una supersolución como una subsolu- ción. Cuando P no es continua, hay que considerar las envolventes semicontinuas superior e inferior de P , que denotaremos por P ∗ y P∗ respectivamente, y considerar P ∗ (x, ϕ(x), ∇ϕ(x), D 2 ϕ(x)) ≥ 0, y P∗ (x, ϕ(x), ∇ϕ(x), D 2 ϕ(x)) ≤ 0, al definir supersoluciones y subsoluciones. En nuestro sistema (4.1.9) tenemos dos ecuaciones dadas por las funciones n α p p (1 − α1 ) o 1 F1 (x, u, v, p, X) = mı́n − hX , i − trace(X) + h1 (x), (u − v)(x) 2 |p| |p| 2(N + 2) y n α2 q q (1 − α2 ) o F2 (x, u, v, q, Y ) = máx − hY , i − trace(Y ) − h2 (x), (v − u)(x) . 2 |q| |q| 2(N + 2) Estas funciones F1 y F2 no son continuas (ni siquiera están bien definidas para p = 0 y para q = 0 respectivamente). La envolvente semicontinua superior de F1 está dada por  n α o  p p (1 − α1 )   mı́n − 1 hX , i − trace(X) + h 1 (x), (u − v)(x) , p 6= 0, ∗ 2 |p| |p| 2(N + 2) (F1 ) (x, u, v, p, X) =  n α (1 − α1 ) o   mı́n − 1 λ1 (X) − trace(X) + h1 (x), (u − v)(x) , p = 0. 2 2(N + 2) Aquí λ1 (X) = mı́n{λ : λ es un valor propio de X}. Mientras que la envolvente semicontinua inferior es  n α o  p p (1 − α1 )  1  mı́n − 2 hX |p| , |p| i − 2(N + 2) trace(X) + h1 (x), (u − v)(x) , p 6= 0, (F1 )∗ (x, u, v, p, X) =  n α (1 − α1 ) o   mı́n − 1 λN (X) − trace(X) + h1 (x), (u − v)(x) , p = 0. 2 2(N + 2) Aquí λN (X) = máx{λ : λ es un valor propio de X}. Valen fórmulas análogas para (F2 )∗ y (F2 )∗ cambiando α1 por α2 . Entonces, la definición de una solución viscosa para el sistema (4.1.9) que usaremos aquí es la siguiente. 143 Definición 4.2.2. Un par de funciones continuas u, v : Ω 7→ R es una solución viscosa de (4.1.9) si 1. u(x) ≥ v(x) x ∈ Ω, 2. u|∂Ω = f , v|∂Ω = g, 3. u es una solución viscosa de F1 (x, u, v(x), ∇u, D 2 u) = 0 en {x : u(x) > v(x)} u es una supersolución viscosa de F1 (x, u, v(x), ∇u, D 2 u) = 0 en Ω , 4. v es una solución viscosa de F2 (x, u(x), v, ∇v, D 2 v) = 0 en {x : u(x) > v(x)} v es una subsolución viscosa de F2 (x, u(x), v, ∇v, D 2 v) = 0 en Ω. Observación 4.2.3. El significado de la Definición 4.2.2 es que entendemos una solución de (4.1.9) como un par de funciones continuas hasta el borde que satisfacen las condiciones de borde puntualmente y de manera que u es una solución viscosa del problema del obstáculo (desde abajo) para la primera ecuación en el sistema (con v como una función continua fija de x como obstáculo desde abajo) y v resuelve el problema del obstáculo (por arriba) para la segunda ecuación en el sistema (considerando a u como una función fija de x como obstáculo por arriba). Con esta definición a mano estamos listos para mostrar que cualquier límite uniforme de las fun- ciones valor de nuestro juego es una solución viscosa del problema de las dos membranas con los dos p−Laplacianos diferentes. Teorema 4.2.4. Sean (u, v) funciones continuas que son un límite uniforme de una sucesión de valores del juego, es decir, uεj ⇒ u, v εj ⇒ v uniformemente en Ω cuando εj → 0. Entonces, el par límite (u, v) es una solución viscosa para (4.1.9). Demostración. Dividimos la prueba en varios casos. 1) u y v están ordenadas. Del hecho de que uεj ≥ v εj en Ω y la convergencia uniforme obtenemos inmediatamente u≥v en Ω. 144 2) Las condiciones de contorno. Como tenemos que uεj = f, v εj = g, en RN \ Ω obtenemos u|∂Ω = f, v|∂Ω = g. 3) La ecuación para u. Primero, demostremos que u es una supersolución viscosa de −∆1p u(x) + h1 (x) = 0 para x ∈ Ω. Para eso, consideremos un punto x0 ∈ Ω y una función suave φ ∈ C 2 (Ω) tal que (u−φ)(x0 ) = 0 es un mínimo estricto de (u − φ). Entonces, por la convergencia uniforme, existe una sucesión de puntos, que denotaremos por (xε )ε>0 , tales que xε → x0 y (uε − φ)(xε ) ≤ (uε − φ)(y) + o(ε2 ), es decir, uε (y) − uε (xε ) ≥ φ(y) − φ(xε ) − o(ε2 ). (4.2.23) Del DPP (4.1.8) tenemos n o 0 = máx J1 (uε )(xε ) − u(xε ), J2 (v ε )(xε ) − uε (xε ) ≥ J1 (uε )(xε ) − uε (xε ), (4.2.24) Escribiendo J1 (uε )(xε ) − u(xε ) obtenemos J1 (uε )(xε ) − uε (xε ) h1 1 i = α1 sup (uε (y) − uε (xε )) + ı́nf (uε (y) − uε (xε )) 2 y∈Bε (xε ) 2 y∈Bε (xε ) Z +(1 − α1 ) (uε (y) − uε (xε ))dy − ε2 h1 (xε ), Bε (xε ) y luego, usando (4.2.23), obtenemos J1 (uε )(xε ) − uε (xε ) h1 1 i ≥ α1 sup (φ(y) − φ(xε )) + ı́nf (φ(y) − φ(xε )) 2 y∈Bε (xε ) 2 y∈Bε (xε ) | {z } (4.2.25) Z I +β1 (φ(y) − φ(xε ))dy −ε2 h1 (xε ) + o(ε2 ). Bε (xε ) | {z } II Analicemos I y II. Empezamos con I: Supongamos que ∇φ(x0 ) 6= 0. Sea zε ∈ B1 (0) tal que mı́n φ(y) = φ(xε − εzε ). y∈B ε (xε ) 145 Entonces, tenemos 1 1 I ≥ (φ(xε + εzε ) − φ(xε )) + (φ(xε − εzε ) − φ(xε )) + o(ε2 ). 2 2 A partir de la expansión de Taylor concluimos que 1 1 1 (φ(xε + εzε ) − φ(xε )) + (φ(xε − εzε ) − φ(xε )) + o(ε2 ) = ε2 hD2 φ(xε )zε , zε i + o(ε2 ). 2 2 2 Dividiendo por ε2 la primera desigualdad y tomando el límite como ε → 0 (ver [47]) llegamos a 1 I → ∆1∞ φ(x0 ). 2 Aquí utilizamos que ∇φ(x0 ) zε → z0 = . |∇φ(x0 )| Cuando ∇φ = 0 argumentando de nuevo usando las expansiones de Taylor obtenemos 1 lı́m sup I ≥ λ1 (D2 φ(x0 )) 2 ver [15] para más detalles. Ahora, veamos II: Usando nuevamente las expansiones de Taylor obtenemos Z ε2 (φ(y) − φ(xε ))dy = ∆φ(xε ) + o(ε2 ). Bε (xε ) 2(N + 2) Dividiendo por ε2 y tomando límite cunado ε → 0 se llega a 1 II → ∆φ(x0 ). 2(N + 2) Por lo tanto, si volvemos a (4.2.24), usando (4.2.25), dividiendo por ε2 y tomando el límite ε → 0 obtenemos α1 1 1 − α1 0≥ ∆ φ(x0 ) + ∆φ(x0 ) − h1 (x0 ) 2 ∞ 2(N + 2) cuando ∇φ(x0 ) 6= 0 y α1 1 − α1 0≥ λ1 (D2 φ(x0 )) + ∆φ(x0 ) − h1 (x0 ) 2 2(N + 2) cuando ∇φ(x0 ) = 0. Usando la definición del p−Laplaciano normalizado hemos llegado a −∆1p φ(x0 ) + h1 (x0 ) ≥ 0 en el sentido de la Definición 4.2.1. 146 Ahora vamos a demostrar que u es la solución viscosa de −∆1p u(x) + h1 (x) = 0 (4.2.26) en el conjunto Ω ∩ {u > v}. Consideremos x0 ∈ Ω ∩ {u > v}. Sea η > 0 tal que u(x0 ) ≥ v(x0 ) + 3η. Entonces, usando que u y v son funciones continuas, existe δ > 0 tal que u(y) ≥ v(y) + 2η para todo y ∈ Bδ (x0 ), y, usando que uε ⇒ u y v ε ⇒ v tenemos uε (y) ≥ v ε (y) + η para todo y ∈ Bδ (x0 ) para 0 < ε < ε0 para algún ε0 > 0. Dados z ∈ B δ (x0 ) y ε < mı́n{ε0 , 2δ } obtenemos 2 Bε (z) ⊂ Bδ (x0 ). Utilizando uε ⇒ u obtenemos los siguientes límites: sup uε (y) → u(z), cuando ε → 0. (4.2.27) y∈Bε (z) De hecho, a partir de nuestras estimaciones anteriores tenemos que sup uε (y) − u(z) ≤ sup |uε (y) − u(y)| + sup |u(y) − u(z)|. y∈Bε (z) y∈Bε (z) y∈Bε (z) Si se utiliza uε ⇒ u, existe ε1 > 0 tal que si ε < ε1 θ |(uε − u)(x)| < para todo x ∈ Ω. 2 Ahora, suponiendo que u es continua, existe ε2 > 0 tal que θ |u(y) − u(z)| < si |y − z| < ε2 , 2 por lo tanto, si tomamos ε < mı́n{ε0 , ε1 , ε2 , 2δ } obtenemos sup uε (y) − u(z) < θ. y∈Bε (z) Esto demuestra (4.2.27). Además, con un argumento similar, tenemos, ı́nf uε (y) →ε→0 u(z). (4.2.28) y∈Bε (z) 147 Finalmente, obtenemos, Z uε (y)dy →ε→0 u(z). (4.2.29) Bε (z) En efecto, calculemos Z Z Z uε (y)dy − u(z) ≤ |uε (y) − u(y)| dy + |u(y) − u(z)| dz. Bε (z) Bε (z) Bε (z) Ahora usamos de nuevo que uε ⇒ u y que u es una función continua para obtener Z Z θ θ |u (y) − u(y)|dy < ε y |u(y) − u(z)|dz < , Bε (z) 2 Bε (z) 2 para ε > 0 suficientemente pequeño. De esta manera obtenemos Z uε (y)dy − u(z) < θ. Bε (z) Utilizando los límites anteriores, (4.2.27), (4.2.28) y (4.2.29) se obtiene J1 (uε )(z) → u(z) cuando ε → 0. Análogamente, podemos demostrar que J2 (v ε )(z) → v(z), cuando ε → 0. Ahora, si recordamos que u(z) ≥ v(z) + 2η, obtenemos J1 (uε )(z) ≥ J2 (v ε )(z) + η, (4.2.30) si ε > 0 es suficientemente chico. Entonces, usando el DPP obtenemos uε (z) = máx{J1 (uε )(z), J2 (v ε )(z)} = J1 (uε )(z), para todo z ∈ B δ (x0 ) y para todo ε > 0 suficientemente chico. Demostremos que u es una subsolución 2 viscosa de la ecuación (4.2.26). Dada ahora φ ∈ C 2 (Ω) tal que (u − φ)(x0 ) = 0 es el máximo de u − φ. Entonces, de la convergencia uniforme existe una sucesión de puntos (xε )ε>0 ⊂ B δ (x0 ), tal que xε → x0 2 y (uε − φ)(xε ) ≥ (uε − φ)(y) + o(ε2 ), es decir, uε (y) − uε (xε ) ≤ φ(y) − φ(xε ) − o(ε2 ). (4.2.31) Del DPP (4.1.8) tenemos n o 0 = máx J1 (uε )(xε ) − u(xε ), J2 (v ε )(xε ) − uε (xε ) = J1 (uε )(xε ) − uε (xε ), 148 Escribiendo J1 (uε )(xε ) − u(xε ) obtenemos J1 (uε )(xε ) − uε (xε ) h1 1 i = α1 sup (uε (y) − uε (xε )) + ı́nf (uε (y) − uε (xε )) 2 y∈Bε (xε ) 2 y∈Bε (xε ) Z +(1 − α1 ) (uε (y) − uε (xε ))dy − ε2 h1 (xε ), Bε (xε ) y luego, usando (4.2.31), obtenemos J1 (uε )(xε ) − uε (xε ) h1 1 i ≤ α1 sup (φ(y) − φ(xε )) + ı́nf (φ(y) − φ(xε )) 2 y∈Bε (xε ) 2 y∈Bε (xε ) Z +(1 − α1 ) (φ(y) − φ(xε ))dy − ε2 h1 (xε ) + o(ε2 ). Bε (xε ) Pasando al límite como antes obtenemos α1 1 (1 − α1 ) 0≤ ∆∞ φ(x0 ) + ∆φ(x0 ) − h1 (x0 ), 2 2(N + 2) cuando ∇φ(x0 ) 6= 0 y α1 (1 − α1 ) 0≤ λN (D2 φ(x0 )) + ∆φ(x0 ) − h1 (x0 ), 2 2(N + 2) si ∇φ(x0 ) = 0. Por lo tanto llegamos a −∆1p φ(x0 ) + h1 (x0 ) ≤ 0, según la Definición 4.2.1. Esto demuestra que u es una subsolución viscosa de la ecuación (4.2.26) dentro del conjunto abierto {u > v}. Como tenemos que u es una supersolución viscosa en todo Ω, concluimos que u es una solución viscosa de −∆1p u(x0 ) + h1 (x0 ) = 0, en el conjunto {u > v}. 4) La ecuación para v. El caso en que v es una subsolución viscosa para −∆1q v(x) + h2 (x) = 0 es análogo. Aquí usamos esa n o 0 = mı́n J2 (v ε )(xε ) − v(xε ), J1 (uε )(xε ) − v ε (xε ) ≤ J2 (v ε )(xε ) − v ε (xε ). Para demostrar que v es una solución viscosa −∆1q v(x0 ) − h2 (x0 ) = 0, si x0 ∈ Ω ∩ {u > v} procedemos como antes. 149 4.3. Un juego que da una condición extra en el conjunto de contacto En esta sección estudiaremos las funciones valor del segundo juego. En este caso, están dadas por un par de funciones (uε , v ε ) que verifican el siguiente DPP  n o 1  1   uε (x) = máx J1 (uε )(x), J2 (v ε )(x) + J1 (uε )(x) x ∈ Ω,   2 2   n o   ε 1 1 v (x) = mı́n J1 (uε )(x), J2 (v ε )(x) + J2 (v ε )(x) x ∈ Ω, 2 2 (4.3.32)     uε (x) = f (x) x ∈ RN \Ω,      ε v (x) = g(x) x ∈ RN \Ω. Del DPP se desprende claramente que uε ≥ v ε . Nuestro objetivo es demostrar que estas funciones convergen (a lo largo de las subsucesión εj → 0) a un par de funciones (u, v) que es una solución viscosa para el sistema    u(x) ≥ v(x), Ω,       −∆1p u(x) + h1 (x) ≥ 0, −∆1q v(x) − h2 (x) ≤ 0, Ω,        −∆1p u(x) + h1 (x) = 0, −∆1q v(x) − h2 (x) = 0, {u > v} ∩ Ω, (4.3.33)  − ∆1 u(x) + h (x) + − ∆1 v(x) − h (x) = 0,  ∈   p 1 q 2 x Ω,       u(x) = f (x), x ∈ ∂Ω,      v(x) = g(x), x ∈ ∂Ω. Observe que aquí tenemos la formulación clásica del problema de las dos membranas, pero con la condición adicional   − ∆1p u(x) + h1 (x) + − ∆1q v(x) − h2 (x) = 0 que es significativa para x ∈ {x : u(x) = v(x)}. La existencia y unicidad del par de funciones (uε , v ε ) se puede demostrar como antes. De hecho, podemos reproducir los argumentos del método de Perron para obtener la existencia de una solución. A continuación, mostramos que dada una solución para el DPP podemos construir estrategias cuasioptimas y demostrar que el juego tiene un valor y que este valor coincide con la solución para el DPP, de donde se sigue la unicidad de las soluciones para el DPP. La convergencia uniforme también se sigue con los mismos argumentos utilizados antes utilizando el resultado de tipo Arzela-Ascoli junto con las estimaciones cercanas al borde probadas en la sección anterior. Obsérvese que aquí podemos prescribir las mismas estrategias que las utilizadas antes. Por ejemplo, el jugador I puede decidir quedarse en el primer tablero (si el lanzamiento de la moneda permite una elección) y apuntar a un punto prescrito cuando se juega Tug-of-War. Observar también que la cota 150 obtenida del número esperado de jugadas dado en el Lema 4.2.5 también se puede utilizar aquí para obtener una cota para el número total de jugadas en la variante del juego. Pasar al límite en sentido viscoso también es análogo. Solo hay que prestar especial atención a la condición adicional. Por lo tanto, demostremos ahora que la condición adicional en (4.3.33),   − ∆1p u(x) + h1 (x) + − ∆1q v(x) − h2 (x) = 0 se cumple en sentido viscoso, en el conjunto {x : u(x) = v(x)}. Comencemos a demostrar el caso de subsolución. Dados x0 ∈ {u = v} y φ ∈ C 2 (Ω) tales que (u − φ)(x0 ) = 0 es el máximo de u − φ. Tengamos en cuenta que, dado que v(x0 ) = u(x0 ) y v ≤ u en Ω, también tenemos que (v − φ)(x0 ) = 0 es el máximo de v − φ. Entonces, de la convergencia uniforme existe una sucesión de puntos (xε )ε>0 ⊂ B δ (x0 ), tal que xε → x0 y 2 (uε − φ)(xε ) ≥ (uε − φ)(y) + o(ε2 ), (4.3.34) Caso 1: Supóngase que uε (xεj ) > v ε (xεj ) para una subsucesión tal que εj → 0. Observemos que, si J1 (uε )(z) < J2 (v ε )(z) tenemos que 1 1 1 1 uε (z) = J1 (uε )(z) + J2 (v ε )(z) y v ε (z) = J1 (uε )(z) + J2 (v ε )(z), 2 2 2 2 y entonces obtenemos uε (z) = v ε (z) en este caso. Esta observación implica que cuando uε (xεj ) > v ε (xεj ) tenemos J1 (uε )(xεj ) ≥ J2 (v ε )(xεj ). Si usamos la ecuación del DPP (4.3.32) obtenemos 1 1 0 = (J1 (uε )(xεj ) − uε (xεj )) + máx{J1 (uε )(xεj ) − uε (xεj ), J2 (v ε )(xεj ) − uε (xεj )} 2 2 1 1 = (J1 (uε )(xεj ) − uε (xεj )) + J1 (uε )(xεj ) − uε (xεj ) = J1 (uε )(xεj ) − uε (xεj ), 2 2 y usando (4.3.34) obtenemos 0 = J1 (uε )(xεj ) − uε (xεj ) ≤ J1 (φ)(xεj ) − φ(xεj ), tomando el límite cuando εj → 0 como antes obtenemos −∆1p φ(x0 ) + h1 (x0 ) ≤ 0. (4.3.35) 151 Hemos demostrado antes que v es una subsolución de −∆1q v(x) − h2 (x) = 0 en todo Ω. Por lo tanto, como (v − φ)(x0 ) = 0 es un máximo de v − φ obtenemos −∆1q φ(x0 ) − h2 (x0 ) ≤ 0. (4.3.36) Por lo tanto, de (4.3.35) y (4.3.36) concluimos que (−∆1p φ(x0 ) + h1 (x0 )) + (−∆1q φ(x0 ) − h2 (x0 )) ≤ 0. Caso 2: Si uε (xε ) = v ε (xε ) para ε < ε0 . Usando la ecuación DPP (4.3.32) tenemos 1 1 uε (xε ) = J1 (uε )(xε ) + J2 (v ε )(xε ), 2 2 1 1 v ε (xε ) = J1 (uε )(xε ) + J2 (v ε )(xε ), 2 2 entonces obtenemos máx{J1 (uε )(xε ), J2 (v ε )(xε )} = J2 (v ε )(xε ), mı́n{J1 (uε )(xε ), J2 (v ε )(xε )} = J1 (uε )(xε ). Si usamos de nuevo (4.3.34) obtenemos φ(y) − φ(xε ) ≥ uε (y) − uε (xε ) + o(ε2 ) ≥ v ε (y) − v ε (xε ) + o(ε2 ), aquí usamos que uε ≥ v ε y uε (xε ) = v ε (xε ). Por lo tanto 1  1  0= J1 (uε )(xε ) − uε (xε ) + J2 (v ε )(xε ) − v ε (xε ) 2 2 1  1  ≤ J1 (φ)(xε ) − φ(xε ) + J2 (φ)(xε ) − φ(xε ) . 2 2 Tomando el límite cuando ε → 0 obtenemos (−∆1p φ(x0 ) + h1 (x0 )) + (−∆1q φ(x0 ) − h2 (x0 )) ≤ 0, en sentido viscoso (teniendo en cuenta las envolventes semicontinuas cuando el gradiente de φ se anula). Acabamos de demostrar que la condición adicional se verifica con una desigualdad cuando tocamos u y v desde arriba en algún punto x0 con una función de prueba suave. La prueba de que la otra desigualdad se cumple cuando tocamos a u y v desde abajo es análoga y, por lo tanto, omitimos los detalles. 152 4.4. Observaciones finales A continuación, recopilamos algunos comentarios breves sobre posibles extensiones de nuestros resul- tados. 4.4.1. n membranas Podemos extender nuestros resultados al caso en el que tengamos n membranas. Para el problema de EDP nos remitimos a [6, 18, 20]. Podemos generalizar el juego a un sistema de n equaciones. Supongamos que tenemos para 1 ≤ k ≤ n h1 i Z 1 Jk (w)(x) = αk sup w(y) + ı́nf w(y) + (1 − αk ) w(y)dy − ε2 hk (x) 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Estos juegos tienen asociados los operadores Lk (w) = −∆1pk w + hk . Dadas f1 ≥ f2 ≥ · · · ≥ fn definidas fuera de Ω, podemos considerar el (DPP)  n o n o  uε (x) = 1 máx Ji (uε ) + 1 mı́n Jl (uε ) , x ∈ Ω, k i l 2 i≥k 2 l≤k  ε uk (x) = fk (x), x ∈ RN \Ω, para 1 ≤ k ≤ n. Este DPP está asociado a un juego que se juega en n tableros. En el tablero k se lanza una moneda equilibrada y el ganador puede cambiar de tablero, pero el jugador I solo puede elegir cambiar a un tablero con índice mayor o igual a k mientras que el jugador II puede elegir un tablero con índice menor o igual a k. Las funciones (uε1 , · · · , uεn ) convergen uniformemente cuando ε → 0 (a lo largo de una subsucesión) a funciones continuas {uk }1≤k≤n que son soluciones viscosas del problema de las n membranas,    uk (x) ≥ uk+1 (x) x ∈ Ω,       Lk (uk ) ≥ 0 , Lk+l (uk+l ) ≤ 0 x ∈ {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 } ∩ Ω,    Lk (uk ) + Lk+l (uk+l ) = 0 x ∈ {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 } ∩ Ω,       Lk (uk ) = 0 x ∈ {uk−1 > uk > uk+1 } ∩ Ω,      uk (x) = fk (x) x ∈ ∂Ω, para 1 ≤ k ≤ n. 153 Nótese que aquí aparece la condición adicional Lk (uk ) + Lk+l (uk+l ) = 0, x ∈ {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 } ∩ Ω . 4.4.2. Otros operadores Nuestros resultados también se pueden extender al problema de las dos membranas con operadores diferentes siempre que haya juegos J1 y J2 cuyas funciones de valor se aproximen a las soluciones de las EDP correspondientes y para las cuales se puedan demostrar las estimaciones clave de la Sección 4.2. Es decir, necesitamos que comenzando cerca del borde, cada jugador tenga una estrategia que obligue al juego a terminar cerca de la posición inicial en el mismo tablero con alta probabilidad y en un número controlado de jugadas esperadas, independientemente de las elecciones del otro jugador. Por ejemplo, nuestros resultados se pueden extender para abordar el problema de las dos membranas para los operadores de Pucci (para un juego relacionado con los operadores de Pucci, nos remitimos a [12]). Los operadores de Pucci son uniformemente elípticos y están dados en términos de dos constantes positivas, λ y Λ, por las fórmulas + − Mλ,Λ (D2 u) = sup tr(AD2 u) y Mλ,Λ (D2 u) = ı́nf tr(AD2 u) A∈Lλ,Λ A∈Lλ,Λ con n o Lλ,Λ = A ∈ Sn : λId ≤ A ≤ ΛId . Observar que la condición extra que obtenemos con el segundo juego se lee como Mλ+1 ,Λ1 (D2 u(x)) + Mλ−2 ,Λ2 (D2 v(x)) = h2 (x) − h1 (x) si jugamos con un juego asociado a la ecuación Mλ+1 ,Λ1 (D2 u(x)) + h1 (x) = 0 en el primer tablero y con un juego asociado a Mλ−2 ,Λ2 (D2 u(x)) + h1 (x) = 0 en el segundo tablero. Dejamos los detalles al lector. 4.4.3. Jugar con una moneda no equilibrada modifica la condición adicional También se puede tratar el juego en el que el lanzamiento de moneda que se utiliza para determinar si el jugador puede elegir cambiar de tablero o no, es una moneda equilibrada. Supongamos que se lanza una moneda en el primer tablero con probabilidades γ y (1−γ) y en el segundo tablero con probabilidades inversas, (1 − γ) y γ. En este caso las ecuaciones que intervienen en la DPP se leen como  n o   uε (x) = γ máx J1 (uε )(x), J2 (v ε )(x) + (1 − γ)J1 (uε )(x) x ∈ Ω, n o   v ε (x) = (1 − γ) mı́n J1 (uε )(x), J2 (v ε )(x) + γJ2 (v ε )(x) x ∈ Ω. 154 En este caso, la condición extra que obtenemos viene dada por   γ − ∆1p u(x) + h1 (x) + (1 − γ) − ∆1q v(x) − h2 (x) = 0 x ∈ Ω, Nótese que hay dos casos extremos, γ = 0 y γ = 1. Cuando γ = 1, el segundo jugador no puede decidir cambiar de tablero pero el primer jugador tiene esta posibilidad (con probabilidad uno) en el primer tablero. En este caso, en el problema límite la segunda componente, v, es solución de −∆1q v(x)−h2 (x) = 0 en todo Ω y u es la solución del problema del obstáculo (con v como obstáculo desde abajo). En cambio, si γ = 0, es el primer jugador el que no puede decidir cambiar y el segundo jugador tiene el mando en el segundo tablero y en este caso en el límite es u la componente que es solución de la ecuación, −∆1p u(x) + h1 (x) = 0, y v la que resuelve el problema del obstáculo (con u como obstáculo desde arriba). Observar que las funciones de valor son crecientes con respecto a γ, es decir, uεγ1 (x) ≤ uεγ2 (x) y ≤ vγε2 (x) para γ1 ≤ γ2 . Por lo tanto, pasando al límite como ε → 0 obtenemos una familia de vγε1 (x) soluciones al problema de las dos membranas que es creciente con γ, u0 (x) ≤ uγ1 (x) ≤ uγ2 (x) ≤ u1 (x), y v0 (x) ≤ vγ1 (x) ≤ vγ2 (x) ≤ v1 (x), para γ1 ≤ γ2 . El par (u0 , v0 ) es la solución mínimal del problema de las dos membranas en el sentido de que u0 ≤ u y v0 ≤ v para cualquier otra solución (u, v). De hecho, como u es una supersolución y u0 es una solución de −∆1p u(x) + h1 (x) = 0 del principio de comparación obtenemos u0 ≤ u. Luego, obtenemos que v0 ≤ v del hecho de que son soluciones al problema de obstáculos anterior con obstáculos u0 y u respectivamente. Análogamente, el par (u1 , v1 ) es la solución máximal del problema de las dos membranas. 155 156 Capítulo 5 JUEGOS PARA EL PROBLEMA DE LAS DOS MEMBRANAS PARABÓLICO 5.1. Introducción Existe una profunda conexión entre las ecuaciones diferenciales parciales y la probabilidad. Para los operadores lineales, el Laplaciano puede estar relacionado con el movimiento browniano o con el límite de los paseos aleatorios cuando el tamaño del paso tiende a cero (véase, por ejemplo, [25, 26, 27, 35, 59]). En lo que respecta a los operadores no lineales, hay un juego introducido en [53] llamado Tug-of-War que está relacionado con el infinito Laplaciano. Más adelante, en [43] y [44], los autores introducen una modificación del juego (llamado Tug-of-War with noise) que está relacionada con el p−Laplaciano normalizado. Los resultados mencionados anteriormente se ampliaron para cubrir ecuaciones muy diferentes, como los operadores de Pucci, la ecuación de Monge-Ampere, el problema del obstáculo, etc. Para más detalles, nos remitimos a los recientes libros [15] y [36]. En relación con los problemas parabólicos con operadores no lineales, nos remitimos a [1, 2, 3], en el que los autores estudiaron el operador infinito Laplaciano para un problema parabólico. En [39], se analiza un problema alternativo llamado ecuación del Laplaciano infinito parabólico sesgado. En relación con la teoría de juegos, nos remitimos a [23], donde los autores describieron un juego Tug-of-War con dependencia espacial y temporal. En [45], y también en el libro [15], los autores encuentran una fórmula de valor medio para ecuaciones parabólicas relacionadas con juegos Tug-of-War with noise. Por otra parte, existe un creciente interés en los juegos para sistemas de EDP. Citamos a [47, 48, 52] como ejemplos de juegos jugados en diferentes tableros asociados con soluciones de sistemas de EDP acoplados que utilizan operadores tanto lineales como no lineales. En [48], los autores presentan un juego que se juega en dos tableros donde imponen una condición dependiente del tiempo en un tablero para obtener una solución a un problema parabólico/elíptico. En este capítulo, nos centraremos en el problema de las dos membranas, un tema clásico que ha sido ampliamente estudiado en la literatura. La versión estacionaria (elíptica) de este problema modela el comportamiento de dos membranas elásticas sujetas en el límite de un dominio prescrito, se supone que las membranas están ordenadas, con una membrana encima de la otra, y están sujetas a diferentes fuerzas 157 externas. Específicamente, la membrana de arriba es empujada hacia abajo, mientras que la de abajo es empujada hacia arriba. La hipótesis principal aquí es que las dos membranas no se penetran entre sí (se supone que están ordenadas en todo el dominio). Esta situación puede ser modelada por dos problemas de tipo obstáculo simultáneos; la membrana inferior actúa como un obstáculo desde abajo para la ecuación que describe la ubicación de la membrana superior, mientras que, por el contrario, la membrana superior es un obstáculo desde arriba para la ecuación de la membrana inferior. Cuando las ecuaciones que aparecen en el problema tienen una estructura variacional, éste puede ser abordado usando la teoría cálculo de variaciones (se busca minimizar la suma de las dos energías sujetas a la restricción de que las funciones que describen la posición de las membranas siempre están ordenadas dentro del dominio, una es mayor o igual que la otra). Una vez que se obtiene la existencia de una solución (en un sentido apropiado) surgen muchas preguntas interesantes, como la unicidad, la regularidad de las funciones involucradas, una descripción del conjunto de contacto, la regularidad del conjunto de contacto, etc. Ver [16, 17], la disertación [58] y las referencias allí incluidas. Sin embargo, cuando las ecuaciones involucradas no son variacionales el análisis se basa en argumentos de monotonía (usando el principio del máximo). Recientemente, usando teoría de juegos, el problema elíptico de las dos membranas fue estudiado en [50] sin asumir ninguna estructura variacional. Nuestro principal interés aquí es mirar la versión parabólica de este problema. El problema de las dos membranas parabólicas puede interpretarse como la evolución en el tiempo de dos membranas con posiciones iniciales y condiciones de contorno preestablecidas. Estas soluciones modelan el comportamiento de las membranas (una sobre la otra), comenzando en una posición inicial. Es decir, este problema representa el problema de evolución para el problema de las dos membranas estacionario. Para aproximar soluciones a un problema de dos membranas parabólicas, introducimos un juego de suma cero para dos jugadores, jugado en dos tableros que son dos cilindros parabólicos, luego demostramos que este juego tiene un valor, y este valor del juego converge a soluciones del sistema de dos membranas parabólicas cuando el parámetro que controla el tamaño de los pasos del juego tiende a cero. Describamos brevemente el juego. En cada cilindro, jugamos Tug-of-War with noise, parámetros variables y pagos por jugada en cada tablero. Es decir, con una probabilidad de α, los jugadores juegan Tug-of-War (con una probabilidad 21 el jugador I elige la siguiente posición de la ficha, y con una probabilidad 12 el jugador II elige la siguiente posición, ambos en la bola ε), y con una probabilidad de (1 − α) la ficha se mueve al azar en la bola ε (es decir, la posición es elegida en la bola ε con probabilidad uniforme). Además, existe una regla particular para cambiar de tablero. Esta es una breve descripción del juego: En un punto dado (x, t) en el primer tablero, se lanza una moneda equilibrada, si el resultado es cara, los jugadores juegan Tug-of-War with noise en este tablero, pero cambiando t por t − ε2 . Por otro lado, si el resultado del lanzamiento de la moneda es cruz, el jugador I decidirá entre jugar en el primer tablero, o saltar al segundo tablero y jugar allí, siempre cambiando t por t − ε2 . Por el contrario, en el segundo tablero las reglas son las inversas, con probabilidad 21 la ficha permanece en el segundo tablero y los jugadores juegan Tug-of-War with noise (con diferente parámetro) cambiando t por t − ε2 , y con probabilidad 12 el jugador II decide entre quedarse en el segundo tablero y jugar o saltar al primer tablero y jugar, como antes, cambiando t por t − ε2 . En cuanto a los juegos, en cada tablero las reglas de juego son diferentes (Tug-of-War with noise con diferentes parámetros y pagos por jugada). El juego continúa hasta que la ficha sale del dominio, o la variable temporal llega a cero, y el jugador I gana el pago total, mientras que el jugador II pierde esta misma cantidad. Esta cantidad es la suma del pago final y el pago por cada jugada, que dependen de funciones Lipschitz fijas. Nótese que el pago final es diferente dependiendo de la última posición de la ficha (la posición fuera del dominio). En efecto, el pago varía si la ficha sale 158 del dominio por los lados o por la parte inferior del cilindro parabólico. Esta situación implica que la condición de contorno debe ser compatible con la condición inicial. en ambos tableros. Probaremos que el juego tiene un valor, dado por dos funciones, uε (x, t) y v ε (x, t), que estan rela- cionadas con la esperanza del pago total cuando el juego comienza en (x, t) en el primer tablero y en el segundo tablero respectivamente. Estas funciones verifican el siguiente Dynamic Programming Principle (DPP):   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1  + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 (5.1.1)   1   v (x, t) = J2 (v )(x, t − ε ) ε ε 2   2   n o   1 + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 con las condiciones de contorno ( ε u (x, t) = f (x, t) (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × [0, T ), y las condiciones iniciales ( uε (x, 0) = u0 (x) x ∈ Ω, v ε (x, 0) = v0 (x) x ∈ Ω. Los operadores asociados a los dos juego Tug-of-War with noise que aparecen en el DPP se definen de la siguiente manera: h1 1 i J1 (w)(x, t) = α1 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z (5.1.2) +(1 − α1 ) 2 w(y, t)dy + ε h1 (x, t), Bε (x) y h1 1 i J2 (w)(x, t) = α2 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z (5.1.3) +(1 − α2 ) w(y, t)dy + ε2 h2 (x, t). Bε (x) Aquí las funciones h1 , h2 : Ω × [0, T ) → R son funciones Lipschitz acotadas, f, g : (RN \Ω) × [0, T ) → R son funciones Lipschitz acotadas tales que f ≥ g, y u0 , v0 : Ω → R son funciones Lipschitz acotadas con u0 ≥ v0 . Nótese que J1 y J2 están relacionadas con los juegos jugados en el tablero uno y el tablero dos respectivamente. También asumimos una condición de compatibilidad en los datos: Consideremos w1 : [(RN \Ω × [0, T )) ∪ (Ω × {0})] → R, ( f (x, t) x∈/ Ω, t ≥ 0, w1 (x, t) = (5.1.4) u0 (x) x ∈ Ω, t = 0, 159 y w2 : [(RN \Ω × [0, T )) ∪ (Ω × {0})] → R, ( g(x, t) x∈ / Ω, t ≥ 0, w2 (x, t) = (5.1.5) v0 (x) x ∈ Ω, t = 0. Está claro que w1 (x, t) ≥ w2 (x, t). También debemos imponer la siguiente condición, |wi (x, t) − wi (y, s)| ≤ L(|x − y| + |t − s|). para i = 1, 2. Esta condición implica que los datos de contorno son compatibles con las condiciones iniciales. Es decir, para cada (xk )k≥1 ⊂ Ω tal que xk → y con y ∈ ∂Ω se cumple lı́m u0 (xk ) = f (y, 0) y lı́m v0 (xk ) = g(y, 0). k→∞ k→∞ Finalmente, describamos la hipótesis que debemos imponer sobre el dominio. Condición de esfera exterior uniforme: Ω es un dominio abierto acotado, con borde suave, y que cumple que existen 0 < δ < R tales que para cada y ∈ ∂Ω, existe z ∈ RN tal que Ω ⊂ BR (z)\Bδ (z) y vale que y ∈ ∂Bδ (z). Observación 5.1.1. Del DPP y las condiciones f ≥ g y u0 ≥ v0 obtenemos uε ≥ v ε , en RN × [0, T ). En efecto, dado (x, t) ∈ Ω × (0, T ) tenemos que 1 1 n o uε (x, t) = J1 (uε )(x, t − ε2 ) + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) 2 2 1 1 ≥ J1 (uε )(x, t − ε2 ) + J2 (v ε )(x, t − ε2 ) 2 2 1 1 n o ≥ J2 (v ε )(x, t − ε2 ) + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) = v ε (x, t). 2 2 Los juegos J1 y J2 están asociados con un operador llamado operador p−Laplaciano normalizado, definido de la siguiente manera (véase [42]). Definición 5.1.1. Dada φ una función C 2,1 tal que ∇φ(x, t) 6= 0, definimos, para p ≥ 2, el operador p−Laplaciano normalizado como α 1 1−α ∆1p φ(x, t) := ∆∞ φ(x, t) + ∆φ(x, t) 2 2(N + 2) donde α y p están relacionados por α p−2 = . 1−α N +2 Aquí aparecen los operadores Laplaciano clásico y el infinito Laplaciano normalizado, dado por ∇φ ∇φ X ∆1∞ φ := hD2 φ , i = |∇φ|−2 φ xi φ xi xj φ xj , |∇φ| |∇φ| 1≤i,j≤N . 160 Recordemos que el p−Laplaciano clásico viene dado por ∆p u = div(|∇u|p−2 ∇u). Para 2 ≤ p < ∞, expandiendo la divergencia podemos escribir este operador como una combinación del Laplaciano y el infinito Laplaciano normalizado de la siguiente manera:  ∆p u = |∇u|p−2 (p − 2)∆1∞ u + ∆u . En [42] los autores demostraron que u : Ω → R verifica la fórmula del valor medio asintótico Z 1 1  u(x) = α sup u(y) + ı́nf u(y) + (1 − α) u(y)dy + o(ε2 ), 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) con ε → 0, si y solo si u es una solución de ∆p u = 0. en el sentido viscoso. Aquí α y p están relacionados por α p−2 = . 1−α N +2 Con respecto a esta definición y a las fórmulas del valor medio J1 y J2 definidas anteriormente, supon- gamos ahora que u : Ω × (0, T ) → R satisface 1 1  u(x, t) = α sup u(y, t − ε2 ) + ı́nf u(y, t − ε2 ) 2 y∈Bε (x) 2 y∈Bε (x) Z (5.1.6) +(1 − α) u(y, t − ε2 )dy + o(ε2 ), Bε (x) para ε > 0 chico. Si asumimos que u es suave, utilizando la expansión de Taylor tenemos Z ε2 u(y, t − ε2 )dy − u(x, t − ε2 ) = ∆u(x, t − ε2 ) + o(ε2 ), Bε (x) 2(N + 2) y si ∇u(x, t − ε2 ) 6= 0, utilizando nuevamente Taylor obtenemos 1 1  sup u(y, t − ε2 ) + ı́nf u(y, t − ε2 ) − u(x, t − ε2 ) 2 y∈Bε (x) 2 y∈Bε (x) 1  ∇u(x, t − ε2 )  1  ∇u(x, t − ε2 )  ∼ u x+ε , t − ε 2 + u x − ε , t − ε 2 − u(x, t − ε2 ) 2 |∇u(x, t − ε2 )| 2 |∇u(x, t − ε2 )| ε2 = ∆1∞ u(x, t − ε2 ) + o(ε2 ). 2 Entonces, si volvemos a (5.1.6), sumamos −u(x, t − ε2 ) en ambos lados, dividimos por ε2 y llevamos ε → 0, obtenemos ∂u α (1 − α) (x, t) = ∆1∞ u(x, t) + ∆u(x, t). ∂t 2 2(N + 2) 161 Es decir, ∂u (x, t) = ∆1p u(x, t). ∂t Este cálculo formal explica la relación entre las fórmulas del DPP y las ecuaciones parabólicas corres- pondientes. Utilizaremos teoría viscosa para realizar este cálculo de una manera más rigurosa. El resultado principal de este capítulo es que el valor del juego (la solución del DPP) converge uniformemente cuando ε → 0 a un par de funciones continuas (u, v) que es una solución viscosa para el siguiente sistema parabólico con dos operadores p−Laplacianos normalizados diferentes. Teorema 5.1.1. Existe una subsucesión de soluciones del DPP, denotada como (uεj , v εj ) que converge cuando εj → 0 a un par de funciones continuas (u, v). Este par límite es una solución viscosa para el siguiente sistema    u(x, t) ≥ v(x, t) (x, t) ∈ Ω × [0, T ),     ∂u     (x, t) − ∆1p u(x, t) ≥ h1 (x, t) (x, t) ∈ Ω × (0, T ),   ∂t   ∂v (x, t) − ∆1q v(x, t) ≤ h2 (x, t) (x, t) ∈ Ω × (0, T ), (5.1.7)   ∂t     ∂u (x, t) − ∆1p u(x, t) = h1 (x, t) (x, t) ∈ (Ω × (0, T )) ∩ {u > v},    ∂t      ∂v (x, t) − ∆1q v(x, t) = h2 (x, t) (x, t) ∈ (Ω × (0, T )) ∩ {u > v}, ∂t con la siguiente condición adicional, ∂u  ∂v  (x, t) − ∆1p u(x, t) + (x, t) − ∆1q v(x, t) = h1 (x, t) + h2 (x, t) (x, t) ∈ Ω × (0, T ), (5.1.8) ∂t ∂t las condiciones de contorno ( u(x, t) = f (x, t) (x, t) ∈ ∂Ω × [0, T ), (5.1.9) v(x, t) = g(x, t) (x, t) ∈ ∂Ω × [0, T ), y las condiciones iniciales ( u(x, 0) = u0 (x) x ∈ Ω, (5.1.10) v(x, 0) = v0 (x) x ∈ Ω. Aquí p y q están dados por α1 p−2 α2 q−2 = y = . 1 − α1 N +2 1 − α2 N +2 Observación 5.1.2. Podemos reescribir el sistema (5.1.7) de la siguiente manera  n ∂u o   mı́n (x, t) − ∆1p u(x, t) − h1 (x, t), (u − v)(x, t) = 0 (x, t) ∈ Ω × (0, T ), ∂t  n o  máx ∂v (x, t) − ∆1 v(x, t) − h (x, t), (v − u)(x, t) = 0 (x, t) ∈ Ω × (0, T ), q 2 ∂t 162 con la condición adicional ∂u  ∂v  (x, t) − ∆1p u(x, t) + (x, t) − ∆1q v(x, t) = h1 (x, t) + h2 (x, t) (x, t) ∈ Ω × (0, T ), ∂t ∂t las condiciones de borde (5.1.9) y las condiciones iniciales (5.1.10). El capítulo está organizado de la siguiente manera: en la Sección 5.2 presentamos algunos resultados preliminares, incluyendo la definición de solución viscosa para nuestro sistema parabólico. A continuación presentamos las reglas del juego de suma cero para dos jugadores cuyo valor es la solución del DPP. En la sección 5.4 demostramos que el juego tiene un valor, y el valor es la única solución del DPP. Empezamos con una subsolución del DPP, y usando un esquema de iteración obtenemos una sucesión no decreciente de subsoluciones. Esta sucesión está uniformemente acotada y por lo tanto converge. El límite de esta sucesión es la solución del DPP. Luego usamos algunas estrategias específicas para obtener sub y supermartingalas, y usando el Optional Stopping Theorem obtenemos que la solución del DPP es el valor del juego. La demostración del Teorema 5.1.1 se divide en las dos siguientes secciones. En la primera demostramos la convergencia uniforme a lo largo de una subsucesión utilizando un lema de tipo Arzela-Ascoli, y en la segunda demostramos que el límite uniforme es una solución viscosa del sistema de EDP (5.1.7) con la condición extra (5.1.8) utilizando técnicas clásicas de teoría viscosa. Finalmente, recopilamos algunas observaciones finales sobre posibles extensiones de nuestros resultados. 5.2. Preliminares. En esta sección presentamos la definición precisa de lo que entendemos como una solución viscosa para el sistema (5.1.7). A continuación, incluimos el enunciado preciso del Optional Stopping Theorem que necesitaremos al tratar con la parte probabilística de nuestros argumentos. 5.2.1. Soluciones viscosas Nos remitimos a [22] para obtener resultados generales sobre soluciones viscosas. Para las ecuaciones parabólicas que aparecen en (5.1.7) presentamos la siguiente definición de solución viscosa. Dada una función P : Ω × (0, T ) × R × RN × SN ×N → R donde SN ×N denota el conjunto de matrices simétricas N × N . Consideramos la EDP  ∂u  P x, t, (x, t), ∇u(x, t), D 2 u(x, t) = 0, x ∈ Ω, t ∈ (0, T ). (5.2.11) ∂t En nuestro sistema tenemos  hα p p 1−α i P x, t, s, p, X = s − hX , i + trace(X) − h(x, t). (5.2.12) 2 |p| |p| 2(N + 2) 163 La idea detrás de las soluciones viscosas es utilizar el principio del máximo para ”pasar derivadas a funcio- nes de test suaves”. Esta idea nos permite considerar operadores que no vengan en forma de divergencia. Supondremos que P satisface dos propiedades de monotonía, X ≤ Y en SN ×N =⇒ P (x, t, s, p, X) ≥ P (x, t, s, p, Y ) para todo (x, t, s, p) ∈ Ω × (0, T ) × R × RN ; y s1 ≤ s2 en R =⇒ P (x, t, s1 , p, X) ≤ P (x, t, s2 , p, Y ) para todo (x, t, p, X) ∈ Ω × (0, T ) × RN × SN ×N . Aquí tenemos ecuaciones que involucran al ∞-laplaciano que no están bien definidas cuando el gradiente es cero. Para esos casos, necesitamos considerar la envolvente semicontinua inferior, P∗ , y la envolvente semicontinua superior, P ∗ , de P , que están dadas por P ∗ (x, t, s, p, X) = lı́m sup P (y, l, n, q, Y ), (y,l,n,q,Y )→(x,t,s,p,X) P∗ (x, t, s, p, X) = lı́m inf P (y, l, n, q, Y ). (y,l,n,q,Y )→(x,t,s,p,X) Estas funciones coinciden con P en cada punto de continuidad de P y son semicontinuas inferior y superior respectivamente. Es claro que la función P (x, t, s, p, X) definida en (5.2.12) es continua para p 6= 0. Con estos conceptos a mano estamos listos para enunciar la definición de una solución viscosa para (5.2.11). Definición 5.2.1. (a) Una función semicontinua superior u es una subsolución viscosa de (5.2.11) si para cada ϕ ∈ C 2,1 (Ω × (0, T )) tal que ϕ toca a u en (x, t) ∈ Ω × (0, T ) estrictamente desde arriba (es decir, u − ϕ tiene un máximo estricto en (x, t) con u(x, t) = ϕ(x, t)), tenemos  ∂ϕ  P∗ x, t, (x, t), ∇ϕ(x, t), D 2 ϕ(x, t) ≤ 0. ∂t Si u es una subsolución escribimos  ∂u  P x, t, (x, t), ∇u(x, t), D u(x, t) ≤ 0. 2 ∂t (b) Una función semicontinua inferior u es una supersolución viscosa de (5.2.11) si para cada ϕ ∈ C 2,1 (Ω × (0, T )) tal que ϕ toca a u en (x, t) ∈ Ω × (0, T ) estrictamente desde abajo (es decir, u − ϕ tiene un mínimo estricto en (x, t) con u(x, t) = ϕ(x, t)), tenemos  ∂ϕ  P ∗ x, t, (x, t), Dϕ(x, t), D 2 ϕ(x, t) ≥ 0. ∂t Cuando u es una supersolución escribimos  ∂u  P x, t, (x, t), ∇u(x, t), D 2 u(x, t) ≥ 0. ∂t (c) Finalmente, u es una solución viscosa de (5.2.11) si es subsolución y supersolución simultáneamente, y notamos  ∂u  P x, t, (x, t), ∇u(x, t), D 2 u(x, t) = 0. ∂t 164 Como mencionamos antes, para tratar con nuestro sistema (5.1.7), dado un par de funciones continuas (u, v) tales que u ≥ v, verifica las condiciones de contorno (5.1.9), y las condiciones iniciales (5.1.10), simplemente consideramos (5.2.12) con parámetros 0 < α1 < 1 y 0 < α2 < 1, hα p p 1 − α1 i 1 P1 (x, t, s, p, X) = s − hX , i+ trace(X) − h1 (x, t) 2 |p| |p| 2(N + 2) hα p p 1 − α2 i 2 P2 (x, t, s, p, X) = s − hX , i + trace(X) − h2 (x, t) 2 |p| |p| 2(N + 2) y utilizamos la Definición 5.2.1. 5.2.2. Probabilidad. Optional Stopping Theorem. Recordamos (ver [59]) que una sucesión de variables aleatorias {Mk }k≥1 se dice supermartingala (submartingala) si E[Mk+1 |M0 , M1 , ..., Mk ] ≤ Mk (≥). Entonces, el Optional Stopping Theorem, que llamaremos (OSTh) en lo sucesivo, dice: Supongamos que τ es un tiempo de parada, tal que se cumple alguna de las siguientes condiciones, (a) El tiempo de parada τ está acotado casi seguramente, (b) Se cumple que E[τ ] < ∞ y existe una constante c > 0 tal que E[Mk+1 − Mk |M0 , ..., Mk ] ≤ c, (c) Existe una constante C > 0 tal que |Mmı́n{τ,k} | ≤ C casi seguramente para cada k. Entonces E[Mτ ] ≤ E[M0 ] (≥), si {Mk }k≥0 es una supermartingala (submartingala). Para la prueba de este resultado, nos remitimos a [25, 59]. 5.3. Descripción del juego Describamos en detalle el juego que vamos a estudiar. Es un juego de suma cero para dos jugadores. El juego se juega en dos tableros, que son dos copias de RN ×[0, T ), con Ω un dominio fijo y acotado Ω ⊂ RN . Tenemos dos funciones de pago final f, g : RN \Ω×[0, T ) → R. Se trata de dos funciones Lipschitz acotadas con f ≥ g. También tenemos dos condiciones iniciales u0 , v0 : Ω → R, funciones Lipschitz acotadas tales que u0 ≥ v0 , y dos funciones de pago por jugada h1 , h2 : Ω × [0, T ) → R (también asumimos que son funciones Lipschitz acotadas), que se utilizarán en el primer y segundo tablero respectivamente. Dado un parámetro positivo ε > 0 que controle el tamaño de los pasos en ambos tableros simultáneamente. 165 Usaremos dos juegos, con diferentes reglas asociadas a dos operadores parabólicos p−Laplacianos para el primer y segundo tablero respectivamente. Para esto, fijemos dos números 0 < αi < 1 para i = 1, 2. En el primer tablero las reglas son las siguientes: estando en la posición (x, t), con probabilidad α1 jugamos con reglas Tug-of-War descendiendo del nivel t al t − ε2 , es decir, se lanza una moneda equilibrada, y el jugador que gane el lanzamiento elige la siguiente posición dentro de la bola Bε (x) pero descendiendo hasta el nivel t − ε2 . Es decir, la siguiente posición del juego será un punto de la pinta (y, t − ε2 ) con y ∈ Bε (x), y elegido por el jugador que gane el lanzamiento. Por otro lado, con probabilidad (1 − α1 ) jugamos con una regla de paseo al azar, la siguiente posición se elige en Bε (x) con probabilidad uniforme, pero descendiendo nuevamente al nivel t − ε2 . Es decir, con una probabilidad (1 − α1 ) la siguiente posición de la ficha será (y, t − ε2 ) con y ∈ Bε (x) elegida al azar. Jugando en el primer tablero añadimos un pago por jugada ε2 h1 (x, t − ε2 ) (el jugador I obtiene ε2 h1 (x, t − ε2 ) y el jugador II paga la misma cantidad). Llamamos a este juego el juego J1 . Análogamente, en el segundo tablero usamos α2 para codificar la probabilidad de que juguemos Tug-of-War y (1 − α2 ) para la probabilidad de movernos al azar, en ambos casos tomando la siguiente posición en el nivel t − ε2 , esta vez con un pago por jugada ε2 h2 (x, t − ε2 ). A este juego lo llamamos J2 . A las reglas que hemos descripto en los dos tableros J1 y J2 le añadimos las siguientes formas de cambiar de tablero: en el primer tablero, con probabilidad 21 la ficha se queda en el primer tablero y se juega el juego J1 , y con probabilidad 12 el jugador I decide entre jugar con reglas J1 (y la posición de juego se queda en el primer tablero) o cambiar de tablero, y entonces se elige la nueva posición de la ficha jugando la regla de juego J2 en el segundo tablero. En el segundo tablero la regla es exactamente la contraria, en este caso, con probabilidad 21 la ficha se queda en el segundo tablero y se juega el juego J2 , y con probabilidad 12 el jugador II decide entre jugar con reglas de juego J2 (y se queda en el segundo tablero) o cambiar de tablero y jugar en el primer tablero con las reglas de juego J1 . El juego comienza con una ficha en una posición inicial (x0 , t0 ) ∈ Ω × (0, T ) en uno de los dos tableros. Después de la primera jugada, el juego continúa con las mismas reglas descriptas anteriormente. Esto da una sucesión aleatoria de puntos (posiciones de la ficha) y un tiempo de parada τ (la primera vez que la posición de la ficha está fuera de Ω × (0, T ) en cualquiera de los dos tableros). La secuencia de posiciones se denotará por n o (x0 , t0 , j0 ), (x1 , t1 , j1 ), . . . (xτ , tτ , jτ ) , aquí (xk , tk ) ∈ Ω × (0, T ) para 0 ≤ k ≤ τ − 1 (y (xτ , tτ ) ∈ / Ω × (0, T )) y la tercera variable, jk ∈ {1, 2}, indica en qué tablero estamos jugando, jk = 1 si la posición de la ficha está en el primer tablero, y jk = 2 si la ficha está en el segundo tablero. Como mencionamos, el juego termina cuando la ficha sale Ω × (0, T ) en algún punto (xτ , tτ , jτ ) (observemos que si tτ −1 − ε2 < 0 consideraremos tτ = 0). En este caso el pago final viene dado por w1 (xτ , tτ ) si jτ = 1, donde w1 es la función definida en (5.1.4) (la ficha sale del dominio en el primer tablero) y w2 (xτ , tτ ), donde w2 estaba definida en (5.1.5) si jτ = 2 (la ficha sale en el segundo tablero). Por lo tanto, teniendo en cuenta el pago por jugada y el pago final, el pago total de una ocurrencia particular del juego está dado por pago total := w1 (xτ , tτ )χ{j=1} (jτ ) + w2 (xτ , tτ )χ{j=2} (jτ ) τ −1  X  +ε2 h1 (xk , tk+1 )χ{j=1} (jk+1 ) + h2 (xk , tk+1 )χ{j=2} (jk+1 ) . k=0 Observar que el pago total es la suma del pago final (dado por w1 (xτ , tτ ) o por w2 (xτ , tτ ) según el tablero 166 en el que la ficha sale del dominio) y el pago por jugada que viene dada por ε2 h1 (xk , tk+1 ) y ε2 h2 (xk , tk+1 ) según el tablero en el que juguemos en cada paso. Ahora, los jugadores fijan dos estrategias, SI para el jugador I y SII para el jugador II. Es decir, ambos jugadores deciden jugar o cambiar de tablero en el respectivo tablero si es necesario, y en cada tablero seleccionan el punto a jugar siempre que el lanzamiento de la moneda del juego Tug-of-War sea favorable. Entonces, una vez que fijamos las estrategias SI y SII , todo depende sólo de la probabilidad subyacente: el lanzamiento de moneda equilibrada que los jugadores usan para establecer la posibilidad de decidir cambiar el tablero (con probabilidad 1/2–1/2), y el lanzamiento de la moneda que decide cuándo jugar Tug-of-War y cuándo moverse al azar (observe que esta probabilidad está dada por α1 o α2 y es diferente en los dos tableros) y el lanzamiento de la moneda (con probabilidad 1/2–1/2) que decide quién elige la siguiente posición del juego si se juega Tug-of-War. Con respecto a esta probabilidad subyacente, con estrategias fijadas SI y SII , podemos calcular la esperanza del pago total a partir de (x, t, j) (recuerde que j = 1, 2 indica el tablero en el que se encuentra la posición del juego), (x,t,j) ESI ,SII [pago total]. Se dice que el juego tiene un valor si (x,t,j) (x,t,j) ω ε (x, t, j) = sup ı́nf ESI ,SII [pago total] = ı́nf sup ESI ,SII [pago total]. SI SII SII SI Observe que este valor ω ε es el mejor resultado posible que el jugador I y el jugador II pueden esperar obtener jugando lo mejor que puedan. Aquí demostraremos que este juego tiene valor. El valor del juego, ω ε , está compuesto por dos funciones, la primera definida en el primer tablero, uε (x, t) := ω ε (x, t, 1) ese es el resultado esperado del juego si la posición inicial está en el primer tablero (y los jugadores juegan lo mejor que pueden) y v ε (x, t) := ω ε (x, t, 2) ese es el resultado esperado del juego cuando la posición inicial está en el segundo tablero. Resulta que estas dos funciones uε , v ε satisfacen un sistema de ecuaciones que en la literatura se denomina Dynamic Programming Principle (DPP). En nuestro caso, el DPP correspondiente para el juego viene dado por   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1  + máx J1 (u )(x, t − ε ), J2 (v )(x, t − ε ) ε 2 ε 2 (x, t) ∈ Ω × (0, T ), 2   1   v ε (x, t) = J2 (v ε )(x, t − ε2 )   2   n o   1 + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 con las condiciones de contorno ( ε u (x, t) = f (x, t) (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × [0, T ), 167 y las condiciones iniciales ( uε (x, 0) = u0 (x) x ∈ Ω, v ε (x, 0) = v0 (x) x ∈ Ω. Observación 5.3.1. Observe que el DPP refleja las reglas del juego descriptas anteriormente. Es decir, con probabilidad 12 el juego permanece en el tablero donde está y juega el juego correspondiente, y los máx y mı́n que aparecen en el DPP corresponden a las elecciones de los jugadores de cambiar de tablero (o no). En el primer tablero el jugador I (que pretende maximizar el resultado esperado) es quien decide, mientras que en el segundo tablero decide el jugador II (que quiere minimizar). Los juegos J1 y J2 definidos en (5.1.2) y (5.1.3) muestran que, en cada tablero, los jugadores juegan Tug-of-War with noise con dos parámetros diferentes (α1 y α2 ) y pagos por jugada h1 y h2 respectivamente. En la siguiente sección demostraremos que existe una única solución para el DPP, y que esta solución es el valor del juego que acabamos de describir. 5.4. Existencia y unicidad del DPP En esta sección demostraremos que el valor del juego es la solución del DPP. Pero antes, demostremos que existe una solución del DPP (5.1.1). Para ello, introducimos una función auxiliar. Como Ω ⊂ RN está acotado, existe R > 0 tal que Ω ⊂⊂ BR (0). Dados K > 0 y M > 0 dos constantes, consideremos la función ( 2K(|x|2 − R2 ) − M (x, t) ∈ BR (0) × (0, T ), z0 (x, t) =   −M (x, t) ∈ RN \ BR (0) × [0, T ) ∪ BR (0) × {0} . Esta función tiene las siguientes propiedades: La función z0 es C 2,1 (Ω × (0, T )), está acotada (kz0 k∞ ≤ 2KR2 + M ) y, como z0 es radial, se cumple que ∂ 2 z0 N − 1  ∂z0 N − 1 ∆z0 = + = 4K + 4Kr = 4KN, ∂r2 r ∂r r y ∂ 2 z0 ∆1∞ z0 = = 4K, ∂r2 dentro de Ω. Entonces, obtenemos α1 (1 − α1 )  ∆1p z0 = (4K) + 4KN ≥ K, 2 2(N + 2) y α2 (1 − α2 )  ∆1q z0 = (4K) + 4KN ≥ K. 2 2(N + 2) Finalmente, esta función verifica ∂z0 = 0. ∂t El siguiente lema demuestra que esta función es una subsolución del DPP. 168 Lema 5.4.1. Sea K = máx{kh1 k∞ , kh2 k∞ } + 2 y M = máx{kf k∞ , kgk∞ , ku0 k∞ , kv0 k∞ }. Si consideramos la función z0 con estas dos constantes, para ε suficientemente pequeño el par (z0 , z0 ) es una subsolución de la DPP (5.1.1). Es decir,   1   z0 (x, t) ≤ J1 (z0 )(x, t − ε2 )   2   n o   1  + máx J1 (z0 )(x, t − ε2 ), J2 (z0 )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2   1  z0 (x, t) ≤ J2 (z0 )(x, t − ε2 )    2   n o   1 + mı́n J1 (z0 )(x, t − ε2 ), J2 (z0 )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 con las condiciones de contorno ( z0 (x, t) ≤ f (x, t) (x, t) ∈ (RN \Ω) × [0, T ), (5.4.13) z0 (x, t) ≤ g(x, t) (x, t) ∈ (RN \Ω) × [0, T ), y las condiciones iniciales ( z0 (x, 0) ≤ u0 (x) x ∈ Ω, (5.4.14) z0 (x, 0) ≤ v0 (x) x ∈ Ω. Demostración. Primero, observamos que las desigualdades (5.4.13) y (5.4.14) se cumplen para (x, t) ∈ RN \Ω × [0, T ) y (x, t) ∈ Ω × {0}. Recordemos la definición de J1 y J2 h1 1 i J1 (w)(x, t) = α1 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z (5.4.15) +(1 − α1 ) w(y, t)dy + ε2 h1 (x, t), Bε (x) y h1 1 i J2 (w)(x, t) = α2 sup w(y, t) + ı́nf w(y, t) 2 y∈Bε (x) 2 y∈Bε (x) Z (5.4.16) +(1 − α2 ) w(y, t)dy + ε2 h2 (x, t). Bε (x) Hagamos la siguiente afirmación: Para (x, t) ∈ Ω × (0, T ) se cumple que n o z0 (x, t) ≤ mı́n J1 (z0 )(x, t − ε2 ), J2 (z0 )(x, t − ε2 ) − ε2 . Es claro que si probamos la afirmación habremos probado el lema. Entonces, demostremos la afirmación, Demostración de la afirmación: nuestro objetivo es demostrar que n o ε2 ≤ mı́n J1 (z0 )(x, t − ε2 ) − z0 (x, t), J2 (z0 )(x, t − ε2 ) − z0 (x, t) . (5.4.17) 169 Utilizando las expansiones de Taylor obtenemos J1 (z0 )(x, t−ε2 )−z0 (x, t) 1 1  = α1 sup (z0 (y, t−ε2 )−z0 (x, t−ε2 )) + ı́nf (z0 (y, t − ε2 )−z0 (x, t−ε2 )) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1−α1 ) (z0 (y, t−ε2 )−z0 (x, t−ε2 ))dy + z0 (x, t−ε2 )−z0 (x, t) + ε2 h1 (x, t−ε2 ) Bε (x)  ∂z α1 1 (1−α1 )  0 = − (x, t) + ∆∞ z0 (x, t−ε2 ) + ∆z0 (x, t−ε2 ) ε2 + ε2 h1 (x, t−ε2 ) + o(ε2 ). ∂t 2 2(N + 2) De manera análoga,  ∂z α2 1 0 J2 (z0 )(x, t − ε2 ) − z0 (x, t) = − (x, t) + ∆ z0 (x, t − ε2 ) ∂t  2 ∞ (1 − α2 ) + ∆z0 (x, t − ε2 ) ε2 + ε2 h2 (x, t − ε2 ) + o(ε2 ). 2(N + 2) Si volvemos a (5.4.17) y dividimos por ε2 , obtenemos que es necesario demostrar que se cumple n ∂z0 1 ≤ mı́n − (x, t) + ∆1p z0 (x, t − ε2 ) + h1 (x, t − ε2 ), ∂t o o(ε2 ) (5.4.18) ∂z0 − (x, t) + ∆1q z0 (x, t − ε2 ) + h2 (x, t − ε2 ) + 2 , ∂t ε para ε > 0 suficientemente chico. Usando las propiedades de z0 tenemos ∂z0 − (x, t) + ∆1p z0 (x, t − ε2 ) + h1 (x, t − ε2 ) ≥ K + h1 (x, t − ε2 ) ≥ 2 > 1, ∂t y ∂z0 − (x, t) + ∆1q z0 (x, t − ε2 ) + h2 (x, t − ε2 ) ≥ K + h2 (x, t − ε2 ) ≥ 2 > 1. ∂t Por lo tanto, la desigualdad (5.4.18) se cumple para ε suficientemente chico. Esta afirmación implica que (z0 , z0 ) es una subsolución del DPP (5.1.1). Con esto terminamos la demostración. Ahora, comenzando con uε0 = v0ε = z0 definiremos inductivamente la siguiente sucesión para n ≥ 0   1   uεn+1 (x, t) = J1 (uεn )(x, t − ε2 )   2   n o   1  + máx J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 (5.4.19)   1  vn+1  ε (x, t) = J2 (vnε )(x, t − ε2 )   2   n o   1 + mı́n J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 170 con condiciones de contorno ( uεn+1 (x, t) = f (x, t), (x, t) ∈ (RN \Ω) × [0, T ), ε vn+1 (x, t) = g(x, t), (x, t) ∈ (RN \Ω) × [0, T ), y condiciones iniciales ( uεn+1 (x, 0) = u0 (x), x ∈ Ω, ε vn+1 (x, 0) = v0 (x), x ∈ Ω. Demostremos el siguiente lema. Lema 5.4.2. La secuencia {(uεn , vnε )}n≥0 verifica: (a) uεn ≤ uεn+1 y vnε ≤ vn+1 ε para todo n ≥ 0. (b) el par (uεn , vnε ) es una subsolución de la DPP (5.1.1) para todo n ≥ 0. Demostración. (a) Por inducción: 1 1 n o uε1 (x, t) = J1 (uε0 )(x, t − ε2 ) + máx J1 (uε0 )(x, t − ε2 ), J2 (v0ε )(x, t − ε2 ) ≥ uε0 (x, t), 2 2 para (x, t) ∈ Ω × (0, T ). Aquí usamos que uε0 = v0ε = z0 y que (z0 , z0 ) es una subsolución de la DPP. De manera análoga, 1 1 n o v1ε (x, t) = J2 (v0ε )(x, t − ε2 ) + mı́n J1 (uε0 )(x, t − ε2 ), J2 (v0ε )(x, t − ε2 ) ≥ v0ε (x, t). 2 2 Fuera del dominio está claro que uε1 (x, t) = f (x, t) ≥ uε0 (x, t), (x, t) ∈ (RN \Ω) × [0, T ), v1ε (x, t) = g(x, t) ≥ v0ε (x, t), (x, t) ∈ (RN \Ω) × [0, T ), uε1 (x, 0) = u0 (x) ≥ uε0 (x, 0), x ∈ Ω, v1ε (x, 0) = v0 (x) ≥ v0ε (x, 0), x ∈ Ω. Ahora, veamos el paso inductivo, uεn ≤ uεn−1 y vnε ≤ vn−1 ε . La definición de J1 y J2 implica que J1 (uεn )(x, t − ε2 ) ≥ J1 (uεn−1 )(x, t − ε2 ) y J2 (vnε )(x, t − ε2 ) ≥ J2 (vn−1 ε )(x, t − ε2 ). Por lo tanto, 1 1 n o uεn+1 (x, t) = J1 (uεn )(x, t − ε2 ) + máx J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 ) 2 2 1 1 n o ≥ J1 (uεn−1 )(x, t − ε2 ) + máx J1 (uεn−1 )(x, t − ε2 ), J2 (vn−1 ε )(x, t − ε2 ) = uεn (x, t). 2 2 171 ε De manera análoga, obtenemos vn+1 ≥ vnε . (b) (z0 , z0 ) es una subsolución gracias al Lema 5.4.1. Usando (a) y la monotonía de J1 y J2 obtenemos 1 1 n o J1 (uεn+1 )(x, t − ε2 ) + máx J1 (uεn+1 )(x, t − ε2 ), J2 (vn+1 ε )(x, t − ε2 ) 2 2 1 1 n o ≥ J1 (uεn )(x, t − ε2 ) + máx J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 ) = uεn+1 (x, t). 2 2 De manera análoga se prueba para vnε . Con esto finalizamos la demostración. Probemos ahora que las sucesiones están uniformemente acotadas. Para ello, consideramos w0 = −z0 . Esta función está acotada y verifica n o w0 (x, t) ≥ máx J1 (w0 )(x, t − ε2 ), J2 (w0 )(x, t − ε2 ) + ε2 , (x, t) ∈ Ω × (0, T ), para ε > 0 suficientemente chico. Entonces tenemos el siguiente lema. Lema 5.4.3. Se tiene que uεn ≤ w0 y vnε ≤ w0 para todo n ≥ 0. Demostración. Es claro que la desigualdad se cumple fuera del dominio Ω × (0, T ). Dentro del dominio argumentamos por el absurdo. Supongamos que existe n0 ∈ N tal que n o máx sup (uεn0 − w0 ), sup (vnε 0 − w0 ) = sup (uεn0 − w0 ) = θ > 0. Ω×(0,T ) Ω×(0,T ) Ω×(0,T ) Sea (xk , tk ) ∈ Ω × (0, T ) tal que 1 θ− < (uεn0 − w0 )(xk , tk ). k Usando las desigualdades obtenemos 1 n o θ− < (uεn0 − w0 )(xk , tk ) ≤ máx J1 (uεn0 )(xk , tk − ε2 ), J2 (v0ε )(xk , tk − ε2 ) k n o − máx J1 (w0 )(xk , tk − ε2 ), J2 (w0 )(xk , tk − ε2 ) − ε2 (5.4.20) n o ≤ máx (J1 (uεn0 ) − J1 (w0 ))(xk , tK − ε2 ), (J2 (vnε 0 ) − J2 (w0 ))(xk , tk − ε2 ) − ε2 . Aquí usamos máx{a, b} − máx{c, d} ≤ máx{a − c, b − d}. Consideremos las desigualdades ı́nf uεn0 (y, tk − ε2 ) − ı́nf w0 (y, tk − ε2 ) ≤ sup (uεn0 − w0 )(y, tk − ε2 ) ≤ θ y∈Bε (xk ) y∈Bε (xk ) y∈Bε (xk ) y sup uεn0 (y, tk − ε2 ) − sup w0 (y, tk − ε2 ) ≤ sup (uεn0 − w0 )(y, tk − ε2 ) ≤ θ y∈Bε (xk ) y∈Bε (xk ) y∈Bε (xk ) 172 y finalmente Z (uεn0 − w0 )(y, tk − ε2 )dy ≤ θ. Bε (xk ) Por lo tanto, utilizando nuevamente la definición de J1 (5.4.15) y J2 (5.4.16) obtenemos que J1 (uεn0 )(x, t − ε2 ) − J1 (w0 )(x, t − ε2 ) ≤ θ y J2 (vnε 0 )(x, t − ε2 ) − J2 (w0 )(x, t − ε2 ) ≤ θ. Si volvemos a (5.4.20) obtenemos 1 θ− + ε2 < (uεn0 − w0 )(xk , tk ) ≤ θ k lo que genera un absurdo si k ∈ N es suficientemente grande. Esto termina la demostración. Finalmente, llegamos al siguiente resultado. Corolario 5.4.1. Existe una constante Λ > 0 tal que uεn ≤ Λ y vnε ≤ Λ para todo n ≥ 0. Ahora estamos listos para demostrar la existencia de una solución para el DPP. Comencemos notando que dado que las sucesiones uεn y vnε son no decrecientes y acotadas y por lo tanto existen los siguientes límites uε (x, t) := lı́m uεn (x, t) y v ε (x, t) := lı́m vnε (x, t). n→∞ n→∞ Teorema 5.4.1. El par (uε , v ε ) es una solución del DPP (5.1.1) Para demostrar este teorema, primero demostraremos un lema técnico para una sola ecuación que tiene su propio interés. Lema 5.4.4. Considere el siguiente DPP  Z  uε (x) = α 1 sup uε (y) + 1 ı́nf uε (y) + (1 − α) uε (y)dy x ∈ Ω, 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) (5.4.21)  ε u (x) = f (x) x ∈ RN \Ω, con f una función Lipschitz acotada. Sea M = kf k∞ . Entonces ( −M, x ∈ Ω, ε u0 (x) = f (x), x ∈ RN \Ω, es una subsolución de (5.4.21). Consideremos la siguiente iteración para n ≥ 0  Z     uεn+1 (x) = α 1 sup uεn (y) + 1 ı́nf uεn (y) +(1 − α) uεn (y)dy x ∈ Ω, 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) (5.4.22)   uε (x) = f (x) n+1 x ∈ RN \Ω. 173 Esta suseción (un )n≥0 es no decreciente y está uniformemente acotada (kun k∞ ≤ M para todo n ≥ 0). Finalmente, la función uε (x) := lı́m uεn (x) n→∞ es una solución de la DPP (5.4.21). Demostración. Empecemos demostrando que uε0 es una subsolución. Es decir, Z 1 1  −M = uε0 (x) ≤ α sup uε0 (y) + ı́nf uε0 (y) + (1 − α) uε0 (y)dy, 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) para x ∈ Ω. Aquí usamos que −M ≤ sup uε0 (y) y −M ≤ ı́nf uε0 (y), y∈Bε (x) y∈Bε (x) y finalmente Z −M ≤ uε0 (y)dy. Bε (x) Por otro lado = f (x) para x ∈ uε0 (x) RN \Ω. La sucesión definida por (5.4.22) es no decreciente y está compuesta por subsoluciones de la DPP (5.4.21) (ver Lema 5.4.2). Demostremos que la sucesión está uniformemente acotada. De hecho, tenemos que uεn ≤ M, para todo n ≥ 0. Usamos un argumento inductivo. Está claro R que εu0 ≤ M . Supongamos que un ≤ M . ε Usando que supy∈Bε (x) un (y) ≤ M , ı́nf y∈Bε (x) un (y) ≤ M y Bε (x) u0 (y)dy ≤ M obtenemos un+1 ≤ M . ε ε Ahora, demostremos que uε (x) := lı́m uεn (x) n→∞ es una solución de (5.4.21). Está claro que si x ∈ RN \Ω uε (x) = lı́m uεn (x) = f (x). n→∞ Para x ∈ Ω, consideremos (uεn+1 − uεn )(x) 1 1 1 1  =α sup uεn (y) + ı́nf uεn (y) − sup uεn−1 (y) − ı́nf uεn−1 (y) 2 y∈Bε (x) 2 y∈Bε (x) 2 y∈Bε (x) Z 2 y∈Bε (x) (5.4.23) +(1 − α) (uεn − uεn−1 )(y)dy. Bε (x) Si definimos Cn := kuεn − uεn−1 kL∞ (Ω) . 174 Usando (5.4.23) y las desigualdades sup uεn (y) − sup uεn−1 (y) ≤ sup (uεn − uεn−1 )(y) y∈Bε (x) y∈Bε (x) y∈Bε (x) y ı́nf uεn (y) − ı́nf uεn−1 (y) ≤ sup (uεn − uεn−1 )(y) y∈Bε (x) y∈Bε (x) y∈Bε (x) obtenemos (uεn+1 − uεn )(x) ≤ αCn + (1 − α)Cn . Por lo tanto, Cn+1 ≤ Cn . Ahora, consideremos el siguiente conjunto n εo Γ1 = x ∈ Ω : d(x, ∂Ω) < . 2 Usando la regularidad asumida en ∂Ω (condición de esfera exterior uniforme) tenemos |Bε (x) ∩ Ω| η1 = sup < 1. x∈Γ1 |Bε (x)| Dado x ∈ Γ1 , obtenemos Z (uεn+1 − uεn )(x) ≤ αCn + (1 − α) (uεn − uεn−1 )(y)dy ≤ αCn + (1 − α)η1 Cn . Bε (x)∩Ω Aquí usamos que Z Z 1 (uεn − uεn−1 )(y)dy = (uεn − uεn−1 )(y)dy, Bε (x) |Bε | Bε (x)∩Ω ya que (uεn − uεn−1 )(x) = 0 cuando x ∈ RN \Ω. Por lo tanto, (uεn+1 − uεn )(x) ≤ (α + (1 − α)η1 )Cn ≤ θ1 Cn . (5.4.24) con θ1 = α + (1 − α)η1 < 1 para todo x ∈ Γ1 . Continuemos con n εo Γ2 = x ∈ Ω : d(x, Γ1 ) < . 2 Observe que Γ1 ⊂ Γ2 . Definamos |Bε (x) ∩ (Ω\Γ1 )| η2 = sup < 1. x∈Γ2 |Bε (x)| Aquí usamos nuevamente la condición de esfera exterior uniforme. Dado x ∈ Γ2 obtenemos (uεn+2 − uεn+1 )(x) Z Z 1   ≤ αCn+1 + (1 − α) (un+1 − un )(y)dy + ε ε (uεn+1 − uεn )(y)dy |Bε (x)| Bε (x)∩(Ω\Γ1 ) Bε (x)∩Γ1     ≤ αCn + (1 − α) η2 Cn + (1 − η2 )θ1 Cn = α + (1 − α)[η2 + (1 − η2 )θ1 ] Cn = θ2 Cn . 175 donde θ2 = α + (1 − α)[η2 + (1 − η2 )θ1 ] < 1. Aquí usamos (5.4.24). Nótese que θ1 < θ2 < 1. Iterando este procedimiento obtenemos n εo |Bε (x) ∩ (Ω\Γk−1 )| Γk = x ∈ Ω : d(x, Γk−1 ) < y ηk = sup < 1. 2 x∈Γk |Bε (x)| Entonces, para x ∈ Γk (uεn+k − uεn+k−1 )(x) ≤ θk Cn , donde θk = α + (1 − α)[ηk + (1 − ηk )θk−1 ] < 1. Observar que, si k0 = d diam(Ω) ε/2 e obtenemos Ω ⊂ Γk0 . Por lo tanto Cn+k0 ≤ θk0 Cn . Observar que Ck0 ≤ θk0 C0 y Ck0 +j ≤ Ck0 ≤ θk0 C0 para 0 ≤ j ≤ k0 − 1. Además ∞ X ∞ X Clk0 +j ≤ θkl 0 C0 ⇒ Clk0 +j ≤ k0 θkl+i 0 C0 . j=0 i=0 Finalmente, X m ∞ X ∞ X ⌊ kn ⌋+i kuεn+m − uεn kL∞ (Ω) ≤ kuεn+j − uεn+j−1 kL∞ (Ω) ≤ Cn+j ≤ k 0 θ k0 0 C0 . j=1 j=1 i=1 y esto es chico si n ∈ N es suficientemente grande. Entonces, (uεn )n≥0 es una sucesión de Cauchy en L∞ , y esto implica que un ⇒ u uniformemente en Ω cuando n → ∞. Por lo tanto, obtenemos sup uεn (y) → sup uε (y) y ı́nf uεn (y) → ı́nf uε (y). (5.4.25) y∈Bε (x) y∈Bε (x) y∈Bε (x) y∈Bε (x) Finalmente, también tenemos Z Z uεn (y)dy → uε (y)dy. (5.4.26) Bε (x) Bε (x) Tomando límites en (5.4.22) y usando (5.4.25) y (5.4.26) concluimos que Z 1 1  uεn+1 (x)=α ε sup u (y) + ı́nf u (y) + (1 − α) ε uεn (y)dy | {z } 2 y∈Bε (x) n 2 y∈Bε (x) n Bε (x) ↓ | {z } | {z } | {z } ↓ ↓ ↓ Z 1 1  uε (x) = α sup uε (y) + ı́nf uε (y) + (1 − α) uε (y)dy. 2 y∈Bε (x) 2 y∈Bε (x) Bε (x) Con esto terminamos la demostración del lema. Observación 5.4.1. En [13] los autores prueban un enunciado como el Lema 5.4.4 para una ecuación diferente usando técnicas similares. 176 Prueba del Teorema 5.4.1. Sabemos que (uεn , vnε ) es una subsolución de la DPP (5.1.1) para todo n ≥ 0, entonces, tenemos 1 1 n o uεn (x, t) ≤ J1 (uεn )(x, t − ε2 ) + máx J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 ) . 2 2 Si tomamos el límite como n → ∞ en el lado derecho obtenemos 1 1 n o uεn (x, t) ≤ J1 (uε )(x, t − ε2 ) + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) . 2 2 Si tomamos el límite en el lado izquierdo llegamos a 1 1 n o u (x, t) ≤ J1 (u )(x, t − ε ) + máx J1 (u )(x, t − ε ), J2 (v )(x, t − ε ) . ε ε 2 ε 2 ε 2 2 2 De manera análoga, obtenemos 1 1 n o v ε (x, t) ≤ J2 (v ε )(x, t − ε2 ) + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) . 2 2 Por lo tanto, (uε , v ε ) es una subsolución del DPP (5.1.1). Ahora, usaremos ideas del cálculo empleado en la prueba del lema 5.4.4. Definamos n o Cn = máx kuεn − uεn−1 kL∞ (Ω×(0,T )) , kvnε − vn−1 ε kL∞ (Ω×(0,T )) . Comencemos con un : 1 1 (uεn+1 − uεn )(x, t) = J1 (uεn )(x, t − ε2 ) − J1 (uεn−1 )(x, t − ε2 ) 2 2 1 n o 1 n o + máx J1 (uεn )(x, t−ε2 ), J2 (vnε )(x, t−ε2 ) − máx J1 (uεn−1 )(x, t−ε2 ), J2 (vn−1 ε )(x, t−ε2 ) 2 2 1 1 n o ≤ Cn + máx J1 (un )(x, t−ε )−J1 (un−1 )(x, t−ε2 ), J2 (vnε )(x, t−ε2 )−J2 (vn−1 ε 2 ε ε )(x, t−ε2 ) 2 2 ≤ Cn . Aquí usamos nuevamente que máx{a, b} − máx{c, d} ≤ máx{a − c, b − d}. Ahora, para vnε tenemos 1 1 ε (vn+1 − vnε )(x, t) = J2 (vnε )(x, t − ε2 ) − J2 (vn−1 ε )(x, t − ε2 ) 2 2 1 n o 1 n o + mı́n J1 (uεn )(x, t−ε2 ), J2 (vnε )(x, t−ε2 ) − mı́n J1 (uεn−1 )(x, t−ε2 ), J2 (vn−1 ε )(x, t−ε2 ) 2 2 1 1 n o ≤ Cn + máx J1 (un )(x, t−ε )−J1 (un−1 )(x, t−ε2 ), J2 (vnε )(x, t−ε2 )−J2 (vn−1 ε 2 ε ε )(x, t−ε2 ) 2 2 ≤ Cn . Aquí usamos que mı́n{a, b} − mı́n{c, d} ≤ máx{a − c, b − d}. Por lo tanto, obtenemos Cn+1 ≤ Cn . 177 Consideremos nuevamente el conjunto n εo Γ1 = x ∈ Ω : d(x, ∂Ω) < . 2 Como antes, usando la regularidad asumida en el borde de Ω tenemos que |Bε (x) ∩ Ω| η1 = sup < 1. x∈Γ1 |Bε (x)| Dado x ∈ Γ1 obtenemos J1 (uεn )(x, t − ε2 ) − J1 (uεn−1 )(x, t − ε2 ) ≤ (α1 + (1 − α1 )η1 )Cn , y J2 (vnε )(x, t − ε2 ) − J2 (vn−1 ε )(x, t − ε2 ) ≤ (α2 + (1 − α2 )η1 )Cn . Por lo tanto (uεn+1 − uεn )(x, t − ε2 ) ≤ θ1 Cn ε y (vn+1 − vnε )(x, t − ε2 ) ≤ θ1 Cn donde θ1 = máx{α1 +(1−α1 )η1 , α2 +(1−α2 )η1 } < 1. Procediendo como antes, obtenemos k0 = k0 (Ω) ∈ N y θ0 < 1 tal que Cn+k0 ≤ θ0 Cn . Argumentando como antes obtenemos la convergencia uniforme uεn ⇒ uε y vnε ⇒ v ε . Entonces, obtenemos J1 (uεn )(x, t) → J1 (uε )(x, t) , J2 (vnε )(x, t) → J2 (v ε )(x, t). Finalmente, utilizando la definición (5.4.19) y tomando el límite obtenemos 1 1 uεn+1 (x, t) = J1 (uεn )(x, t − ε2 ) + máx{J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 )} | {z } 2 | {z } 2 | {z } | {z } ↓ ↓ ↓ ↓ 1 1 u (x, t) = J1 (uε )(x, t − ε2 ) + máx{J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 )} ε 2 2 y 1 1 ε vn+1 (x, t) = J2 (vnε )(x, t − ε2 ) + mı́n{J1 (uεn )(x, t − ε2 ), J2 (vnε )(x, t − ε2 )} | {z } 2 | {z } 2 | {z } | {z } ↓ ↓ ↓ ↓ 1 1 v ε (x, t) = J2 (v ε )(x, t − ε2 ) + mı́n{J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 )}. 2 2 Esto finaliza la demostración del teorema. Usando el Lema 5.4.1 obtenemos el siguiente resultado que usaremos en la siguiente sección. Corolario 5.4.2. Las funciones (uε , v ε ) que obtuvimos están uniformemente acotadas. Para nuestro DPP (5.1.1) hay una prueba alternativa de existencia de una solución basada en el hecho de que el lado derecho de las ecuaciones involucra u y v evaluados en t − ε2 . Esta prueba es más simple que la anterior, pero es menos flexible (por ejemplo, con esta demostración más simple no podemos tratar un sistema parabólico/elíptico, vea la última sección). 178 Prueba alternativa de existencia de una solución para el DPP (5.1.1). Buscamos un par (u, v) que re- suelva (5.1.1). Está claro que necesitamos imponer las condiciones de contorno ( ε u (x, t) = f (x, t), (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t), (x, t) ∈ (RN \Ω) × [0, T ), y las condiciones iniciales ( uε (x, 0) = u0 (x), x ∈ Ω, v ε (x, 0) = v0 (x), x ∈ Ω. Por lo tanto, nos queda determinar (u, v) en Ω × (0, T ) de tal manera que se satisfagan las ecuaciones en (5.1.1). Comencemos con t ∈ (0, ε2 ]. Como t − ε2 ≤ 0, para esos tiempos tenemos que  n o  1 1  uε (x, t) = J1 (u0 )(x) + máx J1 (u0 )(x), J2 (v0 )(x) , (x, t) ∈ Ω × (0, ε2 ], 2 2  1 1 n o  v ε (x, t) = J2 (v0 )(x) + mı́n J1 (u0 )(x), J2 (v0 )(x) , (x, t) ∈ Ω × (0, ε2 ], 2 2 resuelve las ecuaciones en el DPP. Una vez que hemos definido (u, v) en Ω × (0, ε2 ] buscamos t ∈ (ε2 , 2ε2 ] y obtenemos que el par de funciones dado por   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1  + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) , (x, t) ∈ Ω × (ε2 , 2ε2 ], 2  1  v (x, t) = J2 (v ε )(x, t − ε2 )   ε   2   n o   1 + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) , (x, t) ∈ Ω × (ε2 , 2ε2 ], 2 resuelve el DPP en Ω × (ε2 , 2ε2 ]. Iterando este procedimiento [T /ε2 ] veces obtenemos un par de funciones (u, v) que es una solución de (5.1.1) en todo el Ω × (0, T ). Demostremos ahora que la solución del DPP (5.1.1) es el valor del juego. Teorema 5.4.2. El par de funciones (uε , v ε ) que verifica el DPP (5.1.1) da el valor del juego definido en la Sección 5.3. Es decir, la función (x,t,j) (x,t,j) ω ε (x, t, j) = ı́nf sup ESI ,SII [pago total] = sup ı́nf ESI ,SII [pago total] SII SI SI SII verifica que ω ε (x, t, 1) = uε (x, t) y ω ε (x, t, 2) = v ε (x, t) para cualquier par (uε , v ε ) que resuelva el DPP. 179 Demostración. Solo incluimos un esbozo de la prueba. Nos remitimos a [50] (Teorema 18) donde los autores demostraron un resultado similar para el caso elíptico. Fijemos δ > 0, y tomemos (uε , v ε ) solución para el DPP (5.1.1). Supongamos que empezamos en un punto en el primer tablero, (x0 , t0 , 1). Entonces, elegimos una estrategia SI∗ para el jugador I usando la solución de (DPP) (5.1.1) de la siguiente manera: Siempre que jk = 1 el jugador I decide quedarse en el primer tablero si n o máx J1 (uε )(xk , tk − ε2 ), J2 (v ε )(xk , tk − ε2 ) = J1 (uε )(xk , tk − ε2 ), y en este caso el jugador I elige un punto  δ xIk+1 = SI∗ (xk , tk , jk ) tal que sup uε (y, tk − ε2 ) − ≤ uε (xIk+1 , tk − ε2 ), y∈Bε (xk ,tk −ε2 ) 2k+1 para jugar Tug-of-War. Por otro lado, el jugador I decide saltar al segundo tablero si n o máx J1 (uε )(xk , tk − ε2 ), J2 (v ε )(xk , tk − ε2 ) = J2 (v ε )(xk , tk − ε2 ), y en este caso el jugador I elige un punto  δ xIk+1 = SI∗ (xk , tk , jk ) tal que sup v ε (y, tk − ε2 ) − ≤ v ε (xIk+1 , tk − ε2 ), y∈Bε (xk ) 2k+1 para jugar Tug-of-War en el segundo tablero. Dada la estrategia SI∗ para el jugador I, y SII cualquier estrategia para el jugador II, consideramos la sucesión de variables aleatorias X k−1  δ Mk = wε (xk , tk , jk ) − ε2 h1 (xl , tl − ε2 )χ{j=1} (jl+1 ) − h2 (xl , tl − ε2 )χ{j=2} (jl+1 ) − k . 2 l=0 donde wε (xk , tk , 1) = uε (xk , tk ), wε (xk , tk , 2) = v ε (xk , tk ) y ( 1 j = i, χ{j=i} (j) = 0 j 6= i. Se cumple que (Mk )k≥0 es una submartingala. Esto es (x ,t ,1) ES ∗0,SII0 [Mk+1 |M0 , . . . , Mk ] ≥ Mk . I Para demostrar este hecho, debemos considerar varios casos. Supongamos que jk = 1 y jk+1 = 1 (es decir, la ficha permanece en el primer tablero en el k y juega el k + 1). Entonces 180 (x ,t ,1) ES ∗0,SII0 [Mk+1 |M0 , . . . , Mk ] I h X k  (x ,1) = ES ∗0,SII uε (xk+1 , tk+1 )−ε2 h1 (xl , tl )χ{j=1} (jl+1 )−h2 (xl , tl )χ{j=2} (jl+1 ) I l=0 δ i − k+1 |M0 , . . . , Mk 2 h X k−1  (x ,1) = ES ∗0,SII uε (xk+1 , tk+1 )−ε2 h1 (xk , tk )−ε2 h1 (xl , tl )χ{j=1} (jl+1 )−h2 (xl , tl )χ{j=2} (jl+1 ) I l=0 δ i − |M0 , . . . , Mk 1  Z 2 k+1 1 = α1 uε (xIk+1 , tk+1 ) + uε (xII , k+1 k+1 t ) + (1 − α 1 ) uε (y, tk+1 )dy − ε2 h1 (xk , tk ) 2 2 Bε (xk ) Xk−1  δ −ε2 h1 (xl , tl )χ{j=1} (jl+1 ) − h2 (xl , tl )χ{j=2} (jl+1 ) − k+1 2 1 l=0  Z δ 1 ≥ α1 sup u (y, tk+1 ) − k+1 + ε ı́nf u (y, tk+1 ) + (1 − α1 ) ε uε (y, tk+1 )dy 2 y∈Bε (xk ) 2 2 y∈Bε (xk ) Bε (xk ) Xk−1  δ −ε2 h1 (xk , tk ) − ε2 h1 (xl , tl )χ{j=1} (jl+1 ) − h2 (xl , tl )χ{j=2} (jl+1 ) − k+1 2 1 l=0 1 n o = J1 (uε )(xk , tk − ε2 ) + máx J1 (uε )(xk , tk − ε2 ), J2 (v ε )(xk , tk − ε2 ) 2 2 X k−1  δ −ε2 h1 (xl , tl )χ{j=1} (jl+1 ) − h2 (xl , tl )χ{j=2} (jl+1 ) − k 2 l=0 X k−1  δ uε (xk , tk ) − ε2 h1 (xl , tl )χ{j=1} (jl+1 ) − h2 (xl , tl )χ{j=2} (jl+1 ) − k = Mk . 2 l=0 Aquí usamos que jk+1 = 1, tk+1 = tk − ε2 y máx{J1 (uε ), J2 (v ε )} = J1 (uε ). Omitimos la prueba de los casos, jk = 1 y jk+1 = 2, jk = 2 y jk+1 = 1, jk = 2 y jk+1 = 2, porque los cálculos son similares. Por lo tanto, obtenemos que Mk es una submartingala. Usando el OSTh obtenemos (x ,t ,1) ES ∗0,SII0 [Mτ ∧k ] ≥ M0 para cualquier k ∈ N. I Si tomamos el límite cuando k → ∞ obtenemos (x ,t ,1) ES ∗0,SII0 [Mτ ] ≥ M0 . I Si tomamos ı́nf SII y luego supSI llegamos a (x ,t ,1) sup ı́nf ESI0,SII0 [Mτ ] ≥ M0 . SI SII Esta desigualdad dice que (x ,t ,1) sup ı́nf ESI0,SII0 [pago total] ≥ u(x0 , t0 ) − δ. SI SII 181 Para demostrar la desigualdad en la dirección opuesta, fijamos una estrategia para el jugador II de la siguiente manera: Siempre que jk = 2 el jugador II decide quedarse en el segundo tablero si n o mı́n J1 (uε )(xk , tk − ε2 ), J2 (v ε )(xk , tk − ε2 ) = J2 (v ε )(xk , tk − ε2 ), y el jugador II decide saltar al primer tablero cuando n o mı́n J1 (uε )(xk , tk − ε2 ), J2 (v ε )(xk , tk − ε2 ) = J1 (v ε )(xk , tk − ε2 ). ∗  Si jugamos Tug-of-War (en ambos tableros), el jugador II elige xII k+1 = SII (xk , tk , jk ) tal que δ ı́nf wε (y, tk − ε2 , jk+1 ) + ≥ wε (xII k+1 , tk − ε , jk+1 ). 2 y∈Bε (xk ,tk −ε2 ) 2k+1 Dada esta estrategia para el jugador II y cualquier estrategia para el jugador I, utilizando cálculos similares a los que hicimos antes, podemos demostrar que la sucesión de variables aleatorias X k−1  δ Nk = wε (xk , tk , jk ) − ε2 h1 (xl , tl − ε2 )χ{j=1} (jl+1 ) − h2 (xl , tl − ε2 )χ{j=2} (jl+1 ) + k 2 l=0 es una supermartingala. Finalmente, utilizando el OSTh llegamos a (x ,t ,1) ı́nf sup ESI0,SII0 [pago total] ≤ uε (x0 , t0 ) + δ. SII SI Entonces, hemos obtenido (x ,t ,1) (x ,t ,1) uε (x0 , t0 ) − δ ≤ sup ı́nf ESI0,SII0 [pago total] ≤ ı́nf sup ESI0,SII0 [pago total] ≤ uε (x0 , t0 ) + δ SI SII SII SI para cualquier δ > 0. Análogamente, podemos demostrar que (x ,t ,2) (x ,t ,2) v ε (x0 , t0 ) − δ ≤ sup ı́nf ESI0,SII0 [pago total] ≤ ı́nf sup ESI0,SII0 [pago total] ≤ v ε (x0 , t0 ) + δ. SI SII SII SI para cualquier δ > 0. Esto finaliza la demostración. Observación 5.4.2. Nótese que este teorema demuestra que el juego tiene un valor. Es decir, (x ,t ,1) (x ,t ,1) sup ı́nf ESI0,SII0 [pago total] = ı́nf sup ESI0,SII0 [pago total], SI SII SII SI y (x ,t ,2) (x ,t ,2) sup ı́nf ESI0,SII0 [pago total] = ı́nf sup ESI0,SII0 [pago total]. SI SII SII SI Puesto que existe una solución para el DPP (5.1.1), y cualquier solución para el DPP coincide con el valor del juego (que es único), obtenemos la unicidad de las soluciones para el DPP. De esta forma hemos demostrado existencia y unicidad de la solución del DPP, concluyendo esta sección. 182 5.5. Convergencia cuando ε → 0 En esta sección demostraremos que existe una subsucesión (uεj , v εj ) que converge uniformemente a un par de funciones (u, v). Para ello utilizaremos el siguiente lema de tipo Arzela-Ascoli. Para su demostración, véase el Lema 4.2 de [44]. Lema 5.5.1. Sea {wε : Ω × [0, T ] → R}ε>0 un conjunto de funciones tales que 1. existe C > 0 tal que |wε (x, t)| < C para todo ε > 0 y todo (x, t) ∈ Ω × [0, T ), 2. dado δ > 0 existen constantes r0 > 0 y ε0 > 0 tales que para todo ε < ε0 , cualquier x, y ∈ Ω con |x − y| < r0 y |t − s| < r0 se cumple |wε (x, t) − wε (y, s)| < δ. Entonces, existe una función uniformemente continua w : Ω × [0, T ) → R y una subsucesión, que llama- remos {wε }, tal que wε → w uniformemente en Ω × [0, T ), cuando ε → 0. Nuestra tarea ahora es mostrar que uε y v ε satisfacen las hipótesis del lema anterior. Primero, vale la pena notar que ya hemos la acotación uniforme en el Corolario 5.4.2. Luego, nos enfocaremos en la segunda hipótesis. Para ello, empecemos por una estimación del tiempo de parada. Es evidente que en este juego que se juega en cilindros RN × [0, T ) el juego termina después de un número finito de jugadas. De hecho, vale la desigualdad ε2 τ ≤ T. Sin embargo, esta estimación carece de precisión. De hecho, es necesario que si el juego comienza en (x, t) ∈ Ω × (0, T ) cerca del borde parabólico, exista una estrategia para alguno de los dos jugadores tal que el juego termine en un número relativamente pequeño de jugadas. Hay dos posibilidades, t es pequeño y/o x cerca de ∂Ω. En el primer caso, ε2 τ ≤ t, que es pequeño. El siguiente lema proporciona una estimación de la esperanza del tiempo de parada en el segundo caso. Recordemos la condición geométrica sobre el dominio Ω: existe 0 < δ < R tal que para todo y ∈ ∂Ω existe z ∈ RN tal que Ω ⊂ BR (z)\Bδ (z) y vale que y ∈ ∂Bδ (z). Sin pérdida de generalidad podemos suponer que Ω ⊂ BR (0)\Bδ (0) e y ∈ ∂Bδ (0) ∩ ∂Ω. En estas condiciones tenemos el siguiente resultado. Lema 5.5.2. Existe una estrategia S ∗ , para el jugador I, o para el jugador II tal que si el juego comienza en (x, t) ∈ Ω × (0, T ) y τ es el tiempo de parada obtenemos (x,t) R ε2 ES ∗ ,S [τ ] ≤ C( )dist(∂Bδ (0), x) + o(1). (5.5.27) δ para cualquier estrategia S que use el otro jugador. 183 Este resultado fue demostrado en [15] (ver Lema 6.21) jugando al Tug-of-War with noise en un tablero. En nuestro caso (juego de dos tableros), el jugador que utiliza la estrategia S decide permanecer en el tablero correspondiente y apunta hacia el borde ∂Ω si se juega Tug-of-War. A continuación, derivamos una estimación de la continuidad uniforme asintópica del juego Tug-of-War with noise parabólico jugado en un tablero (un cilindro) con un pago por jugada, relacionada con las llamadas funciones p-Laplacianas parabólicas no homogéneas. Lema 5.5.3. Consideremos h : Ω × [0, T ) → R, F : (RN \Ω) × [0, T ) → R y µ0 : Ω → R, tres funciones de Lipschitz. Para 0 < β < 1 sea µε : RN → R una función que resuelve la siguiente formulación  1 1    µε (x, t) = β sup µε (y, t − ε2 ) + ı́nf µε (y, t − ε2 )   2 y∈Bε (x) 2 y∈Bε (x)   Z   +(1 − β) µε (y, t − ε2 )dy + ε2 h(x, t − ε2 ) (x, t) ∈ Ω × (0, T ),   Bε (x)   µε (x, t) = F (x, t) x ∈ (RN \Ω) × [0, T ),     ε µ (x, 0) = µ0 (x) x ∈ Ω. Entonces, dado η > 0 existen r0 > 0 y ε0 > 0 tales que |µε (x, t) − µε (y, s)| < η si |x − y| < r0 , |t − s| < r0 y ε < ε0 . Demostración. Empecemos con la siguiente definición: Sea w : [(RN \Ω × [0, T )) ∪ (Ω × {0})] → R dada por, ( F (x, t) if x ∈/ Ω, t ≥ 0, w(x, t) = (5.5.28) µ0 (x) if x ∈ Ω, t = 0. A partir de nuestras condiciones sobre los datos, la función w está bien definida, y es Lipschitz en ambas variables, es decir |w(x, t) − w(y, s)| ≤ L(|x − y| + |t − s|). (5.5.29) Procedamos con la demostración del lema.   Caso 1: Si (x, t), (y, s) ∈ RN \Ω × [0, T ) ∪ Ω × {0} tenemos |µε (x, t) − µε (y, s)| = |w(x, t) − w(y, s)| ≤ L(|x − y| + |t − s|) < η η si r0 < 2L . Caso 2: Supongamos ahora que (x, t) ∈ Ω × (0, T ) y (y, s) ∈ ∂Ω × [0, T ). Sin pérdida de generalidad podemos suponer que Ω ⊂ BR (0)\Bδ (0) y tal que y ∈ ∂Bδ (0). Llamemos (x0 , t0 ) = (x, t) a la primera posición del juego. Supongamos que el jugador I utiliza la estrategia de apuntar a 0, denotado por SI∗ . Es decir, para xk 6= 0 xk xIk+1 = SI∗ (x0 , . . . , xk ) = xk − ε . |xk | 184 Consideremos la secuencia de variables aleatorias usando SI∗ para el jugador I y cualquier SII para el jugador II, Mk = |xk | − Cε2 k. Si C > 0 es suficientemente grande, Mk es una supermartingala. De hecho Z (x ,t ) 1 1  ES ∗0,SII0 [|xk+1 ||x0 , . . . xk ] ≤ β (|xk | + ε) + (|xk | − ε) + (1 − β) |z|dz I 2 2 Bε (xk ) ≤ |xk | + Cε2 . La primera desigualdad se desprende de la elección de la estrategia, y la segunda de la estimación. Z |z|dz ≤ |x| + Cε2 . Bε (x) Usando el OSTh obtenemos (x ,t ) ES ∗0,SII0 [|xτ |] ≤ |x0 | + Cε2 ESI∗ ,SII [τ ]. I Ahora, utilizamos la estimación (5.5.27) para obtener (x ,t ) R ES ∗0,SII0 [|xτ |] ≤ |x0 | + C( )dist(∂Bδ (0), x0 ) + o(1) ≤ δ + C|x0 − y| + o(1). I δ Usando la propiedad de continuidad para w (5.5.29) tenemos  |w(xτ , tτ ) − w(0, s)| ≤ L |xτ | + |tτ − s| . Pero, tτ = t0 − ε2 τ . Por lo tanto, obtenemos (x ,t )  (x ,t ) (x ,t0 )  ES ∗0,SII0 [w(xτ , tτ )] ≥ w(0, s) − L ES ∗0,SII0 [|xτ |] + |t0 − s| + ε2 ES ∗0,SII [τ ] I I I   ≥ w(y, s) − Lδ − L 2(δ + C|x0 − y|) + |t0 − s| + o(1)   ≥ w(y, s) − L 3δ + 2Cr0 + o(1) . Entonces τ −1 X (x ,t )   ES ∗0,SII0 [w(xτ , tτ ) +ε 2 h(xj , tj )] ≥ w(y, s) − L 3δ + 2Cr0 − khk∞ Cr0 − o(1). I j=0 Por lo tanto, tomando ı́nf SII , y luego supSI obtenemos   µε (x0 , t0 ) ≥ w(y, s) − L 3δ + 2Cr0 − khk∞ Cr0 − o(1) > w(y, s) − η.  Tomamos δ > 0 tal que 3Lδ < η3 , luego tomamos r0 > 0 tal que 2LC + khk∞ C r0 < η3 y luego ε pequeño tal que o(1) < η3 . Análogamente, podemos obtener la estimación µε (x0 , t0 ) < w(y, s) + η si el jugador II utiliza la estrategia de apuntar a 0. Esto finaliza la prueba en este caso. 185 Caso 3: Supongamos ahora que (x, t) ∈ Ω × (0, T ), y ∈ Ω y s = 0. Ahora consideramos la estrategia SI∗ para el jugador I apuntando a y. Esto es y − xk xk+1 = SI∗ (x0 , . . . , xk ) = xk − ε |y − xk | si |y − xk | ≥ ε y xk+1 = y en otro caso. Supóngase que 0 < t = t0 < r0 para r0 > 0 chico (que se elegirá más tarde). Entonces, el tiempo de parada está acotado. De hecho, τ ≤ d εr02 e con probabilidad uno. Llamemos M = d εr02 e. Ahora probaremos la siguiente afirmación: Dado θ > 0 y a > 0, existen r0 > 0 y ε0 > 0 tales que si el jugador I usa SI∗ la estrategia definida antes, y el jugador II usa cualquier estrategia SII , obtenemos a P(τ ≥ )<θ y P(|xτ − y| ≥ a) < θ. ε2 Demostración de la afirmación: La primera desigualdad se cumple si r0 < a. Para obtener la otra des- igualdad definamos la siguiente sucesión de variables aleatorias. ( 1 si gana el jugador II, Xk = −1 si gana el jugador I, para k ≥ 1, y X k Zk = Xk . j=1 Observar que Xk son independientes con E[Xk ] = 0 y V[Xk ] = 1. Entonces, E[Zk ] = 0 y V[Zk ] = k. Si utilizamos el teorema de Chebyshev obtenemos a V[ZM ] 4M ε2 ( 4r ε2 0 + 1)ε2 4r0 ε2 P(|ZM | ≥ )≤ a 2 = ≤ ≤ + <θ 2ε ( 2ε ) a2 a2 a2 a2 2 si 4r a2 0 < 2θ y aε2 < 2θ . Esto dice que la probabilidad de que el jugador II gane a 2ε más veces que el jugador I es chica. Entonces, si tomamos r0 < a2 , deducimos que a P(|xτ − x0 | ≥ ) < θ. 2 Aquí usamos que la distancia máxima que la posición de la ficha puede alejarse de x0 es ε en cada paso. Ahora, consideremos a |xτ − y| ≤ |xτ − x0 | + |x0 − y| < |xτ − x0 | + . 2 Por lo tanto, tenemos n o n ao |xτ − y| ≥ a ⊆ |xτ − x0 | ≥ , 2 y luego concluimos que P(|xτ − y| ≥ a) < θ. 186 Esto concluye la prueba de la afirmación. Usando la definición (5.5.28) y el hecho de que s = 0, obtenemos   |w(xτ , tτ ) − µ0 (y)| = |w(xτ , tτ ) − w(y, s)| ≤ L |xτ − y| + |tτ | ≤ L |xτ − y| + r0 .  Definamos A = |xτ − y| ≥ a , Utilizando la afirmación, obtenemos (x ,t ) (x ,t ) (x ,t ) ES ∗0,SII0 [w(xτ , tτ )] = ES ∗0,SII0 [w(xτ , tτ )|Ac ]P(Ac ) + ES ∗0,SII0 [w(xτ , tτ )|A]P(A) I I I (x0 ,t0 )  ≥ ES ∗ ,SII [w(xτ , tτ )|A ](1 − θ) − kwk∞ θ ≥ µ0 (y)(1 − θ) − L a + r0 (1 − θ) − kwk∞ θ. c I Al usar los resultado obtenidos, llegamos a τ −1 X (x ,t ) ES ∗0,SII0 [w(xτ , tτ ) +ε 2 h(xj , tj )] I j=0  (x ,t0 ) ≥ µ0 (y)(1 − θ) − L a + r0 − kwk∞ θ − khk∞ ε2 ES ∗0,SII [τ ] I  ≥ µ0 (y)(1 − θ) − L a + r0 − kwk∞ θ − khk∞ Cr0 + o(1). Por lo tanto, tomando el ínfimo sobre todas las estrategias posibles SII , y luego el supremo sobre SI obtenemos µε (x0 , t0 ) ≥ µ0 (y)(1 − θ) − L(a + r0 ) − kwk∞ θ − khk∞ Cr0 + o(1) > µ0 (y) − η si a > 0, θ > 0, r0 > 0 y ε > 0 son suficientemente chicos. Análogamente, obtenemos µε (x, t) ≤ µ0 (y) + η. ∗ apuntando a 0. En este caso, utilizamos la estrategia SII Caso 4: Ahora, dados dos puntos (x, t), (y, s) ∈ Ω × (0, T ) con |x − y| < r0 , y |t − s| < r0 , acoplamos el juego que comienza en x0 = x y t0 = t, con el juego que comienza en y0 = y y s0 = s haciendo movimientos acoplados. Esto significa que xk+1 − yk+1 = xk − yk para k ≥ 0 (es claro que tk+1 − sk+1 = tk − sk ). Podemos pensar que las posiciones de los dos juegos se imitan entre sí. Este acoplamiento genera dos sucesiones de posiciones xi e yi tales que |xi − yi | < r0 y ji = ki . Está claro que ti = t − ε2 i y si = s − ε2 i, entonces |ti −si | < r0 . Esto continúa hasta que uno de los juegos termina. Aquí tenemos dos posibilidades: - Si el juego termina saliendo del dominio Ω (digamos, por ejemplo yτ ∈ / Ω) . En este punto, para el juego que comienza en (x0 , t0 ), llegamos a la posición (xτ , tτ ), con xτ cerca del punto exterior yτ 6∈ Ω (ya que tenemos |xτ − yτ | < r0 ) y, por lo tanto, podemos usar nuestras estimaciones anteriores para puntos cercanos al borde para concluir que |µε (x0 , t0 ) − µε (y0 , s0 )| < η. - Si el juego termina saliendo del dominio por abajo (digamos sτ = 0 ), tenemos que tτ ≤ r0 , entonces podemos usar la estimación obtenida en el caso 3 para concluir que |µε (x0 , t0 ) − µε (y0 , s0 )| < η. Esto termina la demostración. 187 Observación 5.5.1. Para la prueba del Lema 5.5.3 enfatizamos fuertemente que el supuesto de compati- bilidad en las condiciones de contorno y los datos iniciales es necesario. De hecho, supongamos que el juego comienza en (x0 , t0 ) ∈ Ω × (0, T ), donde x0 está cerca del borde ∂Ω y t0 está cerca de 0. Entonces, el resultado final debería ser similar ya sea que se salga del dominio parabólico por abajo o por los lados. Ahora estamos listos para demostrar la segunda condición del resultado de tipo Arzela-Ascoli, Lema 2.5.1. Lema 5.5.4. Sea (uε , v ε ) un par de funciones que es una solución de la (DPP) (5.1.1) dado por   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1   + máx J 1 (u ε )(x, t − ε 2 ), J 2 (v ε )(x, t − ε 2 ) (x, t) ∈ Ω × (0, T ), 2   1   v ε (x, t) = J2 (v ε )(x, t − ε2 )   2   n o   1  + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ), 2 con condiciones de contorno ( uε (x, t) = f (x, t) (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t) (x, t) ∈ (RN \Ω) × [0, T ), y condiciones iniciales ( uε (x, 0) = u0 (x) x ∈ Ω, v ε (x, 0) = v0 (x) x ∈ Ω. Dado η > 0, existen r0 > 0 y ε0 > 0 tales que |uε (x, t) − uε (y, s)| < η y |v ε (x, t) − v ε (y, s)| < η si |x − y| < r0 , |t − s| < r0 y ε < ε0 . Demostración. Vamos a proceder usando ideas similares a las usadas en el Lema 5.5.3. Empezaremos de nuevo con la siguiente definición: Consideremos w1 : (RN \Ω × [0, T )) ∪ (Ω × {0}) → R, ( f (x, t) si x ∈ / Ω, t ≥ 0, w1 (x, t) = u0 (x) si x ∈ Ω, t = 0, y w2 : (RN \Ω × [0, T )) ∪ (Ω × {0}) → R, ( g(x, t) si x ∈ / Ω, t ≥ 0, w2 (x, t) = v0 (x) si x ∈ Ω, t = 0. 188 Está claro que w1 (x, t) ≥ w2 (x, t). Además, de las condiciones de los datos tenemos que |wi (x, t) − wi (y, s)| ≤ L(|x − y| + |t − s|), para i = 1, 2. Prosigamos con la demostración del lema. Consideremos dos casos. Caso 1: Supongamos que (x, t), (y, s) ∈ [(RN \Ω × [0, T )) ∪ (Ω × {0})], entonces tenemos  |uε (x, t) − uε (y, s)| = |w1 (x, t) − w1 (y, s)| ≤ L |x − y| + |t − s| < η y  |v ε (x, t) − v ε (y, s)| = |w2 (x, t) − w2 (y, s)| ≤ L |x − y| + |t − s| < η si 2Lr0 < η. Caso 2: Empecemos con la estimación de uε . Supongamos ahora que (x, t) ∈ Ω × (0, T ) y (y, s) ∈ ∂Ω × (0, T ) en el primer tablero (denotamos (x, t, 1) y (y, s, 1)). Sin pérdida de generalidad, suponemos de nuevo que Ω ⊂ BR (0)\Bδ (0) y tal que y ∈ ∂Bδ (0). Llamemos x0 = x a la primera posición del juego. El jugador I utiliza la siguiente estrategia llamada SI∗ : la ficha siempre permanece en el primer tablero (el jugador I decide no cambiar de tablero) y apunta a 0 cuando se juega Tug-of-War. En este caso tenemos que uε es una supersolución de la DPP que aparece en el Lema 5.5.3 (con β = α1 ). Notar que el juego siempre se juega en el primer tablero. Como el Jugador I quiere maximizar el valor esperado, obtenemos que el primer componente para nuestro sistema, uε , satisface uε (x, t) ≥ µε (x, t) (el valor del juego cuando al jugador que quiere maximizar se le permite elegir cambiar de tablero es mayor o igual que el valor de un juego donde el jugador no tiene la posibilidad de hacer esta elección). De esta desigualdad y del Lema 5.5.3, se tiene una cota inferior para uε en puntos cercanos al borde. Es decir, de la estimación obtenida en ese lema, obtenemos uε (x, t) ≥ w1 (y, s) − η si |x − y| < r0 , |t − s| < r0 y ε < ε0 para unos r0 y ε0 . Ahora, la siguiente estimación requiere una estrategia particular para el jugador II, llamada SII ∗: cuando se juega Tug-of-War, el jugador II apunta a 0 (en ambos tableros) y si en algún paso el jugador I decide saltar al segundo tablero, entonces el jugador II decide quedarse siempre en ese tablero y entonces la posición nunca volverá al primer tablero. Usando que w1 ≥ w2 repetiremos las ideas usadas en el Lema 5.5.3: Supongamos que jτ = 1. Esto significa que jk = 1 para todo 0 ≤ k ≤ τ . Entonces obtenemos (x,t,1) ESI ,S ∗ [pago total] ≤ w1 (y, s) + η, II para r0 > 0 y ε0 > 0 suficientemente chicos. Por otro lado, si jτ = 2, tenemos (x,t,1) ESI ,S ∗ [w2 (xτ , tτ )] ≤ w2 (y, s) + η ≤ w1 (y, s) + η. II 189 En ambos casos, tomando supSI y luego ı́nf SII llegamos a uε (x, t) ≤ w1 (y, s) + η tomando δ > 0, r0 > 0 y ε > 0 suficientemente chicos. Caso 3: Ahora, dados dos puntos (x, t, j), (y, s, l) ∈ Ω × (0, T ) × {1, 2} con j = l (es decir, ambas posiciones están en el mismo tablero). También asumimos que |x − y| < r0 y |t − s| < r0 . Luego, acoplamos el juego que comienza en (x0 , t0 , j0 ) = (x, t, j), con el juego que comienza en (y0 , s0 , l0 ) = (y, s, l) haciendo los mismos movimientos y cambiando de tablero al mismo tiempo. Esto significa que, jk = lk , y xk+1 − yk+1 = xk − yk para k ≥ 0 (es claro que tk+1 − sk+1 = tk − sk ). Podemos pensar que las posiciones de los dos juegos se imitan entre sí. Este acoplamiento genera dos sucesiones de posiciones xi e yi tales que |xi − yi | < r0 y ji = ki . Es claro que ti = t − ε2 i y si = s − ε2 i, entonces |ti − si | < r0 . Utilizando el mismo cálculo que en el Lema 5.5.3 obtenemos |uε (x, t) − uε (y, s)| < η, si r0 > 0 y ε > 0 son suficientemente chicos. De manera análoga, podemos obtener las estimaciones para v ε y completar la demostración. Como corolario obtenemos el siguiente resultado. Teorema 5.5.1. Dadas las soluciones (uε , v ε )ε del DPP (5.1.1), existe una sucesión εj → 0 tal que uεj ⇒ u, v εj ⇒ v, uniformemente en Ω × [0, T ) y las funciones límite (u, v) son continuas en Ω × [0, T ). 5.6. El límite es una solución viscosa del el sistema de EDP En esta sección demostraremos el siguiente teorema. Teorema 5.6.1. Sean (u, v) funciones continuas que son un límite uniforme de una subsucesión de valores del juego, es decir, uεj ⇒ u, v εj ⇒ v, uniformemente en Ω × [0, T ) cuando εj → 0. Entonces, el par límite (u, v) es una solución viscosa de (5.1.7) en el sentido de la Definición 5.2.1. Demostración. Dividimos la prueba en varios casos. 1) u y v están ordenados: Del hecho de que uεj ≥ v εj , en RN × [0, T ) obtenemos u ≥ v, 190 en Ω × [0, T ). 2) Las condiciones de contorno laterales: Como tenemos que uεj = f, v εj = g, en RN \ Ω × [0, T ) obtenemos u|∂Ω×[0,T ) = f, v|∂Ω×[0,T ) = g. (3) Las condiciones iniciales: Como tenemos que uεj (x, 0) = u0 (x), v εj (x, 0) = v0 (x), obtenemos u(x, 0) = u0 (x), v(x, 0) = v0 (x). (4) La ecuación para u: Primero, demostremos que u es una supersolución viscosa para ∂u (x, t) − ∆1p u(x, t) = h1 (x, t) (5.6.30) ∂t para (x, t) ∈ Ω × (0, T ). Para esto, consideremos un punto (x0 , t0 ) ∈ Ω × (0, T ) y una función suave φ ∈ C 2,1 (Ω × (0, T )) tal que (u − φ)(x0 , t0 ) = 0 es un mínimo estricto de (u − φ). Entonces, de la convergencia uniforme existe una sucesión de puntos, que denotaremos {(xε , tε )}ε>0 , tal que xε → x0 y tε → t0 , y se cumple (uε − φ)(xε , tε ) ≤ (uε − φ)(y, s) + o(ε2 ), para todo (y, s) ∈ Ω × [0, T ), es decir, uε (y, s) − uε (xε , tε ) ≥ φ(y, s) − φ(xε , tε ) − o(ε2 ). (5.6.31) Del DPP (5.1.1) obtenemos 1 0 = J1 (uε )(xε , tε − ε2 ) − uε (xε , tε ) 2 1 n o + máx J1 (u )(xε , tε − ε ) − u(xε , tε ), J2 (v )(xε , tε − ε ) − u (xε , tε ) ε 2 ε 2 ε 2 ≥ J1 (uε )(xε , tε − ε2 ) − uε (xε , tε ). Usando (5.6.31) obtenemos 0 ≥ J1 (φ)(xε , tε − ε2 ) − φ(xε , tε ) − o(ε2 ), si sumamos y restamos φ(xε , tε − ε2 ) se llega a 0 ≥ φ(xε , tε − ε2 ) − φ(xε , tε ) + J1 (φ)(xε , tε − ε2 ) − φ(xε , tε − ε2 ) − o(ε2 ). (5.6.32) 191 Consideremos J1 (φ)(xε , tε − ε2 ) − φ(xε , tε − ε2 ) h1 1 i = α1 sup (φ(y, tε − ε2 ) − φ(xε , tε − ε2 )) + ı́nf (φ(y, tε − ε2 ) − φ(xε , tε − ε2 )) 2 y∈Bε (xε ) 2 y∈Bε (xε ) | {z } Z I +(1 − α1 ) (φ(y, tε − ε2 ) − φ(xε , tε − ε2 ))dy +ε2 h1 (xε , tε − ε2 ). Bε (xε ) | {z } II Analicemos I y II. Empecemos con I: Supongamos que ∇φ(x0 , t0 ) 6= 0. Definamos ∇φ(xε , tε − ε2 ) zε = 6= 0. |∇φ(xε , tε − ε2 )| Si ε > 0 es suficientemente chico, se cumple que sup φ(y, tε − ε2 ) ∼ φ(xε + εzε , tε − ε2 ) y ı́nf φ(y, tε − ε2 ) ∼ φ(xε − εzε , tε − ε2 ). y∈Bε (xε ) y∈Bε (xε ) Entonces, tenemos 1 1 I ∼ (φ(xε + εzε , tε − ε2 ) − φ(xε , tε − ε2 )) + (φ(xε − εzε , tε − ε2 ) − φ(xε , tε − ε2 )). 2 2 A partir de la expansión de Taylor concluimos que 1 1 (φ(xε + εzε , tε − ε2 ) − φ(xε , tε − ε2 )) + (φ(xε − εzε , tε − ε2 ) − φ(xε , tε − ε2 )) 2 2 1 = ε2 hD2 φ(xε , tε − ε2 )zε , zε i + o(ε2 ). 2 Dividiendo por ε2 en la primera desigualdad y tomando el límite cuando ε → 0 obtenemos 1 2 1 hD φ(xε , tε − ε2 )zε , zε i → hD2 φ(x0 , t0 )z0 , z0 i 2 2 ∇φ(x0 ,t0 ) con z0 = |∇φ(x0 ,t0 )| . Por lo tanto 1 I → ∆1∞ φ(x0 , t0 ). 2 Ver [47]) para más detalles. Cuando ∇φ(x0 , t0 ) = 0 volvemos a argumentar usando las expansiones de Taylor, para obtener 1 lı́m sup I ≥ λ1 (D2 φ(x0 , t0 )). ε→0 2 Ver [15] para más detalles. Ahora, veamos II: Usando nuevamente la expansión de Taylor obtenemos Z ε2 (φ(y, tε − ε2 ) − φ(xε , tε − ε2 ))dy = ∆φ(xε , tε − ε2 ) + o(ε2 ), Bε (xε ) 2(N + 2) 192 Dividiendo por ε2 y tomando límites cuando ε → 0 obtenemos 1 II → ∆φ(x0 , t0 ). 2(N + 2) Por lo tanto, si volvemos a (5.6.32), dividiendo por ε2 y tomando el límite ε → 0 obtenemos ∂φ α1 1 1 − α1 0≥− (x0 , t0 ) + ∆∞ φ(x0 , t0 ) + ∆φ(x0 , t0 ) + h1 (x0 , t0 ), ∂t 2 2(N + 2) cuando ∇φ(x0 , t0 ) 6= 0 y ∂φ α1 1 − α1 0≥− (x0 , t0 ) + λ1 (D2 φ(x0 , t0 )) + ∆φ(x0 , t0 ) + h1 (x0 , t0 ) ∂t 2 2(N + 2) cuando ∇φ(x0 , t0 ) = 0. Usando la definición del p−laplaciano normalizado hemos llegado a ∂φ (x0 , t0 ) − ∆1p φ(x0 , t0 ) ≥ h1 (x0 , t0 ). ∂t Así, hemos demostrado que u es una supersolución viscosa de (5.6.30). Ahora vamos a demostrar que u es una solución viscosa de ∂u (x, t) − ∆1p u(x, t) = h1 (x, t) (5.6.33) ∂t   en el conjunto Ω × (0, T ) ∩ {u > v}. Consideremos (x0 , t0 ) ∈ Ω × (0, T ) ∩ {u > v}. Sea η > 0 tal que u(x0 , t0 ) ≥ v(x0 , t0 ) + 3η. Entonces, usando que u y v son funciones continuas, existe δ > 0 tal que u(y, t) ≥ v(y, t) + 2η para todo (y, t) ∈ Bδ (x0 ) × (t0 − δ, t0 + δ), y, usando que uε ⇒ u y v ε ⇒ v tenemos uε (y, t) ≥ v ε (y, t) + η para todo (y, t) ∈ Bδ (x0 ) × (t0 − δ, t0 + δ) para 0 < ε < ε0 para algún ε0 > 0. Dado (z, t) ∈ B δ (x0 ) × (t0 − 2δ , t0 + 2δ ) y ε < mı́n{ε0 , 2δ } llegamos a 2 δ δ Bε (z) × {t − ε2 } ⊂ Bδ (x0 ) × (t0 − , t0 + ). 2 2 Usando uε ⇒ u obtenemos los siguientes límites: sup uε (y, t − ε2 ) → u(z, t), cuando ε → 0. (5.6.34) y∈Bε (z) 193 De hecho, de nuestras estimaciones anteriores tenemos que sup uε (y, t − ε2 ) − u(z, t) ≤ sup |uε (y, t − ε2 ) − u(y, t − ε2 )| + sup |u(y, t − ε2 ) − u(z, t)|. y∈Bε (z) y∈Bε (z) y∈Bε (z) Usando que uε ⇒ u, existe ε1 > 0 tal que si ε < ε1 θ |(uε − u)(x, t)| < para todo (x, t) ∈ Ω × (0, T ). 2 Ahora bien, usando que u es continua, existe ε2 > 0 tal que θ |u(y, t) − u(z, s)| < si |(y, t) − (z, s)| < ε2 , 2 por lo tanto, si tomamos ε < 1 2 mı́n{ε0 , ε1 , ε2 , 2δ } obtenemos sup uε (y, t − ε2 ) − u(z, t) < θ. y∈Bε (z) Esto demuestra (5.6.34). Además, con un argumento similar, obtenemos, lı́m ı́nf uε (y, t − ε2 ) = u(z, t). (5.6.35) ε→0 y∈Bε (z) Finalmente, también tenemos, Z lı́m uε (y, t − ε2 )dy = u(z, t). (5.6.36) ε→0 Bε (z) De hecho, calculemos Z Z u (y, t − ε )dy − u(z, t) ≤ ε 2 uε (y, t − ε2 ) − u(y, t − ε2 ) dy Bε (z) ZBε (z) + u(y, t − ε2 ) − u(z, t) dy. Bε (z) Ahora usamos nuevamente que uε ⇒ u y que u es una función continua para obtener Z Z θ θ |u (y, s) − u(y, s)|dy < ε y |u(y, t − ε2 ) − u(z, t)|dz < , Bε (z) 2 Bε (z) 2 para ε > 0 suficientemente chico. Por lo tanto, obtenemos Z uε (y, t − ε2 )dy − u(z, t) < θ. Bε (z) 194 Usando los límites anteriores, (5.6.34), (5.6.35) y (5.6.36) obtenemos J1 (uε )(z, t − ε2 ) → u(z, t) cuando ε → 0. De manera análoga, podemos demostrar que J2 (v ε )(z, t − ε2 ) → v(z, t), cuando ε → 0. Ahora, si recordamos que u(z, t) ≥ v(z, t) + 2η, obtenemos J1 (uε )(z, t − ε2 ) ≥ J2 (v ε )(z, t − ε2 ) + η, si ε > 0 es suficientemente pequeño. Entonces, usando el DPP y (4.2.30) tenemos 1 1 n o uε (z, t) = J1 (uε )(z, t − ε2 ) + máx J1 (uε )(z, t − ε2 ), J2 (v ε )(z, t − ε2 ) 2 2 = J1 (u )(z, t − ε ), ε 2 para todo (z, t) ∈ B δ (x0 ) × (t0 − 2δ , t0 + 2δ ) y para cada ε > 0 suficientemente pequeño. Demostremos 2 que u es una subsolución viscosa de la ecuación (5.6.33). Dado ahora φ ∈ C 2,1 (Ω × (0, T )) tal que (u − φ)(x0 , t0 ) = 0 es el máximo de u − φ. Entonces, de la convergencia uniforme existe una sucesión de puntos (xε , tε )ε>0 ⊂ B δ (x0 ) × (t0 − 2δ , t0 + 2δ ), tal que xε → x0 , tε → t0 y 2 (uε − φ)(xε , tε ) ≥ (uε − φ)(y, t) − o(ε2 ), para todo (y, t) ∈ Ω × (0, T ), es decir, uε (y, t) − uε (xε , tε ) ≤ φ(y, t) − φ(xε , tε ) + o(ε2 ). (5.6.37) A partir de la ecuación DPP (5.1.1) y utilizando (5.6.37) tenemos 1 1 n o 0 = J1 (uε )(xε , tε − ε2 ) + máx J1 (uε )(xε , tε − ε2 ), J2 (v ε )(xε , tε − ε2 ) − uε (xε , tε ) 2 2 = J1 (u )(xε , tε − ε ) − uε (xε , tε ) ≤ J1 (φ)(xε , tε − ε2 ) − φ(xε , tε ) + o(ε2 ). ε 2 Si sumamos y restamos φ(xε , tε − ε2 ) obtenemos 0 ≤ φ(xε , tε − ε2 ) − φ(xε , tε ) + J1 (φ)(xε , tε − ε2 ) − φ(xε , tε − ε2 ) + o(ε2 ). Pasando al límite como antes obtenemos ∂φ α1 1 (1 − α1 ) 0≤− (x0 , t0 ) + ∆∞ φ(x0 , t0 ) + ∆φ(x0 , t0 ) + h1 (x0 , t0 ) ∂t 2 2(N + 2) cuando ∇φ(x0 , t0 ) 6= 0 y ∂φ α1 (1 − α1 ) 0≤− (x0 , t0 ) + λN (D2 φ(x0 , t0 )) + ∆φ(x0 , t0 ) + h1 (x0 , t0 ) ∂t 2 2(N + 2) 195 si ∇φ(x0 , t0 ) = 0. Por lo tanto llegamos a ∂φ (x0 , t0 ) − ∆1p φ(x0 , t0 ) ≤ h1 (x0 , t0 ). ∂t Esto demuestra que u es una subsolución viscosa de la ecuación (5.6.33) dentro del conjunto abierto {u > v}. Como tenemos que u es una supersolución viscosa en todo Ω×(0, T ), concluimos que u es una solución viscosa para ∂u (x0 , t0 ) − ∆1p u(x0 , t0 ) = h1 (x0 , t0 ), ∂t en el conjunto {u > v}. (5) La ecuación para v: El caso en que v sea una subsolución viscosa de ∂v (x, t) − ∆1q v(x, t) = h2 (x, t) ∂t es análogo. Aquí usamos que n o 0 = mı́n J2 (v ε )(xε , tε − ε2 ) − v(xε , tε ), J1 (uε )(xε , tε − ε2 ) − v ε (xε , tε ) ≤ J2 (v ε )(xε , tε − ε2 ) − v ε (xε , tε ). Para demostrar que v es una solución viscosa de ∂v (x0 , t0 ) − ∆1q v(x0 , t0 ) = h2 (x0 , t0 ), ∂t  si (x0 , t0 ) ∈ Ω × (0, T ) ∩ {u > v} procedemos como antes. (6) Condición extra: Ahora demostremos la condición extra ∂u  ∂v  (x, t) − ∆1p u(x, t) + (x, t) − ∆1q v(x, t) = h1 (x, t) + h2 (x, t) ∂t ∂t para (x, t) ∈ Ω × (0, T ). Nótese que es necesario probar solo el caso u = v, porque en el conjunto {u > v} tenemos ∂u ∂v (x, t) − ∆1p u(x, t) = h1 (x, t) y (x, t) − ∆1q v(x, t) = h2 (x, t). ∂t ∂t Comencemos probando el caso de subsolución. Dados (x0 , t0 ) ∈ {u = v} y φ ∈ C 2,1 tales que (u − φ)(x0 , t0 ) = 0 es máximo de u − φ. Tengamos en cuenta que, dado que v(x0 , t0 ) = u(x0 , t0 ) y v ≤ u en Ω × (0, T ) también tenemos que (v − φ)(x0 , t0 ) = 0 es el máximo de v − φ. Entonces, de la convergencia uniforme existe una sucesión de puntos {(xε , tε )}ε>0 ⊂ B δ (x0 ) × (0, T ), tales que xε → x0 , tε → t0 , y 2 (uε − φ)(xε , tε ) ≥ (uε − φ)(y, t) + o(ε2 ), (5.6.38) para todo (y, t) ∈ Ω × (0, T ). Consideremos dos casos: 196 Caso 1: Supongamos que uε (xεj , tεj ) > v ε (xεj , tεj ) para una subsucesión tal que εj → 0. Observemos que, si J1 (uε )(z, t − ε2 ) < J2 (v ε )(z, t − ε2 ) tenemos que 1 1 1 1 uε (z, t) = J1 (uε )(z, t − ε2 ) + J2 (v ε )(z, t − ε2 ) y v ε (z, t) = J1 (uε )(z, t − ε2 ) + J2 (v ε )(z, t − ε2 ), 2 2 2 2 y entonces obtenemos uε (z, t) = v ε (z, t), en este caso. Esta observación implica que cuando uε (xεj , tεj ) > v ε (xεj , tεj ) tenemos J1 (uε )(xεj , tεj − ε2 ) ≥ J2 (v ε )(xεj , tεj − ε2 ). Si usamos la ecuación DPP (5.1.1) obtenemos 1  0= J1 (uε )(xεj , tεj − ε2j ) − uε (xεj , tεj ) 2 1 + máx{J1 (uε )(xεj , tεj − ε2j ) − uε (xεj , tεj ), J2 (v ε )(xεj , tεj − ε2j ) − uε (xεj , tεj )} 2 1  1  = J1 (uε )(xεj , tεj − ε2j ) − uε (xεj , tεj ) + J1 (uε )(xεj , tεj − ε2j ) − uε (xεj , tεj ) 2 2 = J1 (u )(xεj , tεj − εj ) − u (xεj , tεj ), ε 2 ε y usando (5.6.38) obtenemos 0 = J1 (uε )(xεj , tεj − ε2j ) − uε (xεj , tεj ) ≤ J1 (φ)(xεj , tεj − ε2j ) − φ(xεj , tεj ). Tomando como límite εj → 0 como antes, obtenemos ∂φ (x0 , t0 ) − ∆1p φ(x0 , t0 ) ≤ h1 (x0 , t0 ). (5.6.39) ∂t Hemos demostrado antes que v es una subsolución de ∂v (x, t) − ∆1q v(x, t) = h2 (x, t) ∂t en todo Ω × (0, T ). Por lo tanto, como (v − φ)(x0 , t0 ) = 0 es un máximo de v − φ obtenemos ∂φ (x0 , t0 ) − ∆1q φ(x0 , t0 ) ≤ h2 (x0 , t0 ). (5.6.40) ∂t Por lo tanto, de (5.6.39) y (5.6.40) concluimos que ∂φ  ∂φ  (x0 , t0 ) − ∆1p φ(x0 , t0 ) + (x0 , t0 ) − ∆1q φ(x0 , t0 ) ≤ h1 (x0 , t0 ) + h2 (x0 , t0 ). ∂t ∂t 197 Caso 2: Si uε (xε , tε ) = v ε (xε , tε ) para ε < ε0 . Usando la ecuación DPP (5.1.1) tenemos 1 1 uε (xε , tε ) = J1 (uε )(xε , tε − ε2 ) + J2 (v ε )(xε , tε − ε2 ), 2 2 1 1 v ε (xε , tε ) = J1 (uε )(xε , tε − ε2 ) + J2 (v ε )(xε , tε − ε2 ), 2 2 entonces obtenemos máx{J1 (uε )(xε , tε − ε2 ), J2 (v ε )(xε , tε − ε2 )} = J2 (v ε )(xε , tε − ε2 ), mı́n{J1 (uε )(xε , tε − ε2 ), J2 (v ε )(xε , tε − ε2 )} = J1 (uε )(xε , tε − ε2 ). Si usamos de nuevo (4.3.34) obtenemos φ(y, t) − φ(xε , tε ) ≥ uε (y, t) − uε (xε , tε ) + o(ε2 ) ≥ v ε (y, t) − v ε (xε , tε ) + o(ε2 ), aquí usamos que uε ≥ v ε y uε (xε , tε ) = v ε (xε , tε ). Por lo tanto 1  1  0= J1 (uε )(xε , tε − ε2 ) − uε (xε , tε ) + J2 (v ε )(xε , tε − ε2 ) − v ε (xε , tε ) 2 2 1  1  ≤ J1 (φ)(xε , tε − ε ) − φ(xε , tε ) + J2 (φ)(xε , tε − ε2 ) − φ(xε , tε ) . 2 2 2 Tomando el límite como ε → 0 concluimos que ∂φ  ∂φ  (x0 , t0 ) − ∆1p φ(x0 , t0 ) + (x0 , t0 ) − ∆1q φ(x0 , t0 ) ≤ h1 (x0 , t0 ) + h2 (x0 , t0 ). ∂t ∂t Entonces, obtenemos el caso de subsolución en el sentido viscoso (teniendo en cuenta las envolventes semicontinuas cuando el gradiente de φ vale cero). Acabamos de demostrar que la condición adicional se verifica con una desigualdad cuando tocamos u y v desde arriba en algún punto (x0 , t0 ) con una función de prueba suave. La prueba de que la otra desigualdad se cumple cuando tocamos u y v desde abajo es análoga y, por lo tanto, omitimos los detalles. 5.7. Observaciones finales A continuación describimos algunas posibles extensiones de nuestros resultados. 5.7.1. Sistema parabólico/elíptico Supongamos que proponemos un juego diferente en un tablero, digamos el segundo. En este tablero los jugadores juegan Tug-of-War with noise sin cambiar la variable tiemporal. Es decir, si la ficha permanece 198 en (xk , tk , 2) ∈ Ω × (0, T ) × {1, 2} y jk+1 = 2, la siguiente posición se elige jugando Tug-of-War with noise en el nivel tk . Es decir, tk+1 = tk . Por lo tanto, obtenemos un juego jugado en dos tableros. En el primer tablero jugamos cambiando t por t − ε2 , mientras que en el segundo tablero, la ficha permanece en el mismo nivel de tiempo. Este juego tiene asociado el siguiente DPP   1   uε (x, t) = J1 (uε )(x, t − ε2 )   2   n o   1  + máx J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t) (x, t) ∈ Ω × (0, T ), 2 (5.7.41)   1   v ε (x, t) = J (v ε )(x, t)   2 2   n o   1 + mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t) (x, t) ∈ Ω × (0, T ), 2 con las condiciones de contorno ( ε u (x, t) = f (x, t), (x, t) ∈ (RN \Ω) × [0, T ), v ε (x, t) = g(x, t), (x, t) ∈ (RN \Ω) × [0, T ), y condición inicial  uε (x, 0) = u0 (x), x ∈ Ω. Si repetimos los cálculos que utilizamos en este trabajo obtendremos un par de funciones continuas (u, v), obtenidas como límite uniforme de las soluciones del DPP (5.7.41). Estas funciones resuelven el siguiente sistema.    u(x, t) ≥ v(x, t) (x, t) ∈ Ω × [0, T ),       ∂u   (x, t) − ∆1p u(x, t) ≥ h1 (x, t) (x, t) ∈ Ω × (0, T ),   ∂t −∆1q v(x, t) ≤ h2 (x, t) (x, t) ∈ Ω × (0, T ),       ∂u   (x, t) − ∆1p u(x, t) = h1 (x, t) (x, t) ∈ (Ω × (0, T )) ∩ {u > v},   ∂t   −∆1q v(x, t) = h2 (x, t) (x, t) ∈ (Ω × (0, T )) ∩ {u > v}, con las condiciones de contorno ( u(x, t) = f (x, t), (x, t) ∈ ∂Ω × [0, T ), v(x, t) = g(x, t), (x, t) ∈ ∂Ω × [0, T ), y la condición inicial  u(x, 0) = u0 (x), x ∈ Ω. Nótese que no hay condición inicial para el segundo componente v tanto en el DPP como en el sistema de EDP límite. Esto se debe a las reglas del juego en el DPP y a la naturaleza de la ecuación elíptica en el sistema. Con respecto a las funciones v ε y v, la variable t actúa simplemente como parámetro. 199 Aquí observamos que para construir una solución al DPP (5.7.41) podemos usar los argumentos en la prueba del Teorema 5.4.1 construyendo una sucesión creciente de subsoluciones, iterando el DPP. 5.7.2. n membranas Podemos generalizar el juego a un sistema de n componentes. Supongamos que tenemos juegos de tipo Tug-of-war with noise para 1 ≤ k ≤ n h1 1 i Jk (w)(x, t) = αk sup w(y, t − ε2 ) + ı́nf w(y, t − ε2 ) 2 y∈Bε (x) 2 y∈Bε (x) Z +(1 − αk ) w(y, t − ε2 )dy − ε2 hk (x, t − ε2 ). Bε (x) Estos juegos tienen asociados los operadores Lk (w) = −∆1pk w + hk , donde αk pk − 2 = . 1 − αk N +2 Dado w1 ≥ w2 ≥ · · · ≥ wn definidas fuera de Ω × (0, T ), podemos considerar el DPP  n o n o  uε (x, t) = 1 máx J (uε )(x, t − ε2 ) + 1 mı́n J (uε )(x, t − ε2 ) , x ∈ Ω × (0, T ), k i i l l 2 i≥k 2 l≤k  ε uk (x, t) = wk (x, t), x ∈ (Ω × (0, T ))c . para 1 ≤ k ≤ n. Este DPP está asociado a un juego que se juega en n tableros. En el tablero k se lanza una moneda y el ganador puede cambiar de tablero, pero el jugador I solo puede elegir cambiar a un tablero con índice mayor o igual a k, mientras que el jugador II puede elegir un tablero con índice menor o igual a k. Las funciones (uε1 , · · · , uεn ) convergen uniformemente como ε → 0 (a lo largo de una subsucesión) a funciones continuas {uk }1≤k≤n que son soluciones viscosas de el siguiente problema de n membranas parabólicas,    uk (x, t) ≥ uk+1 (x, t) Ω × (0, T ),       Lk (uk ) ≥ 0 , Lk+l (uk+l ) ≤ 0 {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 },   Lk (uk ) + Lk+l (uk+l ) = 0 {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 },       Lk (uk ) = 0 {uk−1 > uk > uk+1 },     uk (x, t) = wk (x, t) (∂Ω × (0, T )) ∪ (Ω × {0}). para 1 ≤ k ≤ n. Nótese que aquí aparece la condición adicional Lk (uk ) + Lk+l (uk+l ) = 0, (x, t) ∈ {uk−1 > uk ≡ uk+1 ≡ · · · ≡ uk+l > uk+l+1 }. 200 5.7.3. Jugar con una moneda no equilibrada modifica la condición adicional También se puede tratar el juego en el que el lanzamiento de moneda que se utiliza para determinar si el jugador puede elegir cambiar de tablero o no no es una moneda equilibrada. Supongamos que se lanza una moneda en el primer tablero con probabilidades γ y (1−γ) y en el segundo tablero con probabilidades inversas, (1 − γ) y γ. En este caso las ecuaciones que intervienen en la DPP se leen como  n o   u ε (x, t) = γ máx J (u ε )(x, t − ε 2 ), J (v ε )(x, t − ε 2 )   1 2     +(1 − γ)J1 (uε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ),  n o   v ε (x, t) = (1 − γ) mı́n J1 (uε )(x, t − ε2 ), J2 (v ε )(x, t − ε2 )       +γJ2 (v ε )(x, t − ε2 ) (x, t) ∈ Ω × (0, T ).  En este caso, estas funciones convergen hasta una subsucesión de un par de funciones (u, v), solución viscosa de la ecuación (5.1.7) con la condición extra   γ − ∆1p u(x, t) + h1 (x, t) + (1 − γ) − ∆1q v(x, t) − h2 (x, t) = 0, (x, t) ∈ Ω × (0, T ). 201 202 Bibliografía [1] G. Akagi, P. Juutinen y R. Kajikiya, Asymptotic behavior of viscosity solutions for a degenerate parabolic equation associated with the infinity-Laplacian, Math. Ann. 343 (2009), no. 4, 921–953. [2] G. Akagi y K. Suzuki, On a certain degenerate parabolic equation associated with the infinity- Laplacian, Discrete Contin. Dyn. Syst. 2007 (2007), 18–27. [3] G. Akagi y K. Suzuki, Existence and uniqueness of viscosity solutions for a degenerate parabolic equation associated with the infinity-Laplacian, Calc. Var. Partial Differential Equations 31 (2008), no. 4, 457–471. [4] T. Antunovic, Y. Peres, S. Sheffield y S. Somersille. Tug-of-war and infinity Laplace equation with vanishing Neumann boundary condition. Comm. Partial Differential Equations, 37(10), 2012, 1839– 1869. [5] G. Aronsson, M.G. Crandall y P. Juutinen, A tour of the theory of absolutely minimizing functions. Bull. Amer. Math. Soc., 41 (2004), 439–505. [6] A. Azevedo, J. F. Rodrigues y L. Santos. The N-membranes problem for quasilinear degenerate systems. Interfaces Free Bound., 7(3), (2005), 319–337. [7] A. Arroyo y J. G. Llorente. On the asymptotic mean value property for planar p-harmonic functions. Proc. Amer. Math. Soc. 144(9), (2016), 3859–3868. [8] S. N. Armstrong y C. K. Smart. An easy proof of Jensen’s theorem on the uniqueness of infinity harmonic functions. Calc. Var. Partial Differential Equations, 37(3-4), (2010), 381–384. [9] G. Barles y J. Busca. Existence and comparison results for fully nonlinear degenerate elliptic equa- tions without zeroth-order term. Comm. Partial Differential Equations, 26(11-12), (2001), 2323–2337. [10] P. Blanc, F. Charro, J. D. Rossi y J. J. Manfredi. A nonlinear Mean Value Property for the Monge- Ampère operator. J. Convex Analysis JOCA. 28(2), (2021), 353–386. [11] P. Blanc, C. Esteve y J. D. Rossi. The evolution problem associated with eigenvalues of the Hessian. J, London Math. Soc. 102(3), (2020), 1293–1317. [12] P. Blanc, J. J. Manfredi y J. D. Rossi. Games for Pucci’s maximal operators. Jour. Dyn. Games, 6(4), (2019), 277–289. 203 [13] P. Blanc, J. P. Pinasco y J. D. Rossi. Maximal operators for the p−Laplacian family. Pacific J. Math. 287(2), (2017), 257–295. [14] P. Blanc y J. D. Rossi. Games for eigenvalues of the Hessian and concave/convex envelopes. J. Math. Pures et Appliquees. 127, (2019), 192–215. [15] P. Blanc y J. D. Rossi. Game Theory and Partial Differential Equations. De Gruyter Series in Nonlinear Analysis and Applications. Vol. 31. 2019. ISBN 978-3-11-061925-6. ISBN 978-3-11-062179- 2 (eBook). [16] L. Caffarelli, D. De Silva y O. Savin. The two membranes problem for different operators. Ann. l’Institut Henri Poincare C, Anal. non lineaire, 34(4), (2017), 899–932. [17] L. Caffarelli, L. Duque y H. Vivas. The two membranes problem for fully nonlinear operators. Discr. Cont. Dyn. Syst, 38(12), (2018), 6015–6027. [18] S. Carillo, M. Chipot y G. Vergara-Caffarelli. The N-membrane problem with nonlocal constraints, J. Math. Anal. Appl., 308(1), (2005), 129–139. [19] F. Charro, J. Garcia Azorero y J. D. Rossi. A mixed problem for the infinity laplacian via Tug-of-War games. Calc. Var. Partial Differential Equations, 34(3), (2009), 307–320. [20] M. Chipot y G. Vergara-Caffarelli. The N-membranes problem, Appl. Math. Optim., 13(3), (1985), 231–249. [21] M.G. Crandall. A visit with the ∞-Laplace equation, Calculus of variations and nonlinear partial differential equations, Lecture Notes in Math., Vol. 1927, Springer, Berlin, 2008, 75–122. [22] M.G. Crandall, H. Ishii y P.L. Lions. User’s guide to viscosity solutions of second order partial differential equations. Bull. Amer. Math. Soc. 27 (1992), 1–67. [23] L. Del Pezzo y J.D. Rossi Tug-of-War games and parabolic problems with spacial and time depen- dence. Diff. Int. Eq, 27(3-4), (2014). 269–288. [24] F. Del Teso y E. Lindgreen; A mean value formula for the variational p−Laplacian. Nonlinear Differential Equations and Applications NoDEA. 28, article 27, (2021). [25] J.L. Doob, What is a martingale ?, Amer. Math. Monthly, 78(5), (1971), 451–463. [26] J.L. Doob, Classical Potential Theory and Its Probabilistic Counterpart. Classics in Mathematics. Springer. 2001. [27] J.L. Doob, Semimartingales and subharmonic functions. Trans. Amer. Math. Sot. 77, (1954), 86–121. [28] P. A. Ferrari. Teoricas de Probabilidad y Estadistica Matematica, Universidad de Buenos Aires, 2017. [29] G. A. Hunt. Markoff processes and potentials I, II, III, Illinois J. Math. 1 (1957), 44–93, 316–369; ibid. 2 (1958), 151–213. 204 [30] M. Ishiwata, R. Magnanini y H. Wadade. A natural approach to the asymptotic mean value property for the p-Laplacian. Calc. Var. Partial Differential Equations, 56 (2017), no. 4, Art. 97, 22 pp. [31] R. Jensen. Uniqueness of Lipschitz extensions: minimizing the sup norm of the gradient. Arch. Rational Mech. Anal. 123(1), (1993), 51–74. [32] S. Kakutani, Two-dimensional Brownian motion and harmonic functions. Proc. Imp. Acad. Tokyo, 20, (1944), 706–714. [33] M. Kac. Random Walk and the Theory of Brownian Motion. Amer. Math. Monthly, 54(7), (1947), 369–391. [34] B. Kawohl, J.J. Manfredi y M. Parviainen. Solutions of nonlinear PDEs in the sense of averages. J. Math. Pures Appl. 97(3), (2012), 173–188. [35] A. W. Knapp. Connection between Brownian Motion and Potential Theory. Jour. Math. Anal. Appl. 12, (1965), 328–349. [36] M. Lewicka. A Course on Tug-of-War Games with Random Noise. Introduction and Basic Construc- tions. Universitext book series. Springer, (2020). [37] M. Lewicka y J. J. Manfredi. The obstacle problem for the p-laplacian via optimal stopping of tug-of-war games. Prob. Theory Rel. Fields 167 (1-2), (2017), 349–378. [38] P. Lindqvist y J. J. Manfredi. On the mean value property for the p−Laplace equation in the plane. Proc. Amer. Math. Soc. 144(1), (2016), 143–149. [39] F. Liu y F. Jiang. Parabolic Biased Infinity Laplacian Equation Related to the Biased Tug-of-War Adv. Nonlinear Stud (2019) [40] Q. Liu y A. Schikorra. General existence of solutions to dynamic programming principle. Commun. Pure Appl. Anal. 14(1), (2015), 167–184. [41] H. Luiro, M. Parviainen y E. Saksman. Harnack’s inequality for p-harmonic functions via stochastic games. Comm. Partial Differential Equations, 38(11), (2013), 1985–2003. [42] J. J. Manfredi, M. Parviainen y J. D. Rossi. An asymptotic mean value characterization for p- harmonic functions. Proc. Amer. Math. Soc. 138(3), (2010), 881–889. [43] J. J. Manfredi, M. Parviainen y J. D. Rossi. Dynamic programming principle for tug-of-war games with noise. ESAIM, Control, Opt. Calc. Var., 18, (2012), 81–90. [44] J. J. Manfredi, M. Parviainen y J. D. Rossi. On the definition and properties of p-harmonious functions. Ann. Scuola Nor. Sup. Pisa, 11, (2012), 215–241. [45] J. J. Manfredi, M. Parviainen y J. D. Rossi. An asymptotic mean value characterization for a class of nonlinear parabolic equations related to tug-of-war games. SIAM J. Math. Anal. 42(5), (2010), 2058–2081. 205 [46] J. J. Manfredi, J. D. Rossi y S. J. Somersille. An obstacle problem for tug-of-war games. Com. Pure Appl. Anal. 14(1), (2015), 217–228. [47] A. Miranda y J. D. Rossi. A game theoretical approach for a nonlinear system driven by elliptic operators. SN Partial Diff. Eq. Appl., 1(4), art. 14, pp 41, (2020). [48] A. Miranda y J. D. Rossi. A game theoretical approximation for a parabolic/elliptic system with different operators. Discr. Cont. Dyn. Sys., 43(3-4), (2023), 1625–1656. [49] A. Miranda y J. D. Rossi. A game theoretical approximation for solutions to nonlinear systems with obstacle-type equations. SeMA Journal. 80, (2023), 201–244. [50] A. Miranda y J. D. Rossi. Games for the two membranes problem. Orbita Mathematicae, 1, (2024), 59–101. [51] A. Miranda. A Game for the parabolic two membranes problem. Preprint. [52] H. Mitake y H. V. Tran, Weakly coupled systems of the infinity Laplace equations, Trans. Amer. Math. Soc. 369 (2017), 1773–1795. [53] Y. Peres, O. Schramm, S. Sheffield y D. Wilson, Tug-of-war and the infinity Laplacian. J. Amer. Math. Soc., 22, (2009), 167–210. [54] Y. Peres y S. Sheffield, Tug-of-war with noise: a game theoretic view of the p-Laplacian, Duke Math. J., 145(1), (2008), 91–120. [55] J. D. Rossi. Tug-of-war games and PDEs. Proc. Royal Soc. Edim. 141A, (2011), 319–369. [56] L. Silvestre. The two membranes problem, Comm. Partial Differential Equations, 30(1-3), (2005), 245–257. [57] G. Vergara-Caffarelli, Regolarita di un problema di disequazioni variazionali relativo a due membra- ne, Atti Accad. Naz. Lincei Rend. Cl. Sci. Fis. Mat. Natur. (8) 50, (1971), 659–-662 (Italian, with English summary). [58] H. Vivas. The two membranes problem for fully nonlinear local and nonlocal operators. PhD Thesis dissertation. UT Austin. (2018). https://repositories.lib.utexas.edu/handle/2152/74361 [59] D. Williams, Probability with martingales, Cambridge University Press, Cambridge, 1991. 206