El azar en los números primos: ¿Aleatoriedad sin más?
Trabajo preparado por J. Laurie Snell, Bill Peterson, Jeanne Albert y Charles Grinstead, con la ayuda de Fuxing Hou y Joan Snell (2002). Traducido al español por Alejandro Maturana (2024).
Hay dos hechos sobre la distribución de los números primos de los cuales espero convencerlos de forma tan contundente que quedarán grabados permanentemente en vuestros corazones.
La primera es que, a pesar de su simple definición y su papel como componentes básicos de los números naturales, los números primos pertenecen a los objetos más arbitrarios e intratables estudiados por los matemáticos: crecen como malas hierbas entre los números naturales, y no parecen obedecer ninguna otra ley que la del azar, y nadie puede predecir dónde aparecerá el próximo.
El segundo hecho es aún más sorprendente, porque afirma justo lo contrario: que los números primos exhiben una regularidad asombrosa, que existen leyes que gobiernan su comportamiento y que obedecen esas leyes con una sorprendente precisión.
Don Zagier
The First 50 Million Prime Numbers
The Mathematical Intelligencer, Vol. 0
Agosto de 1977
Aleatoriedad en los números primos
Casi nunca pensamos en los viejos números naturales como un lugar para el azar o la aleatoriedad. Gran parte de las matemáticas pueden parecer inescrutables, pero los números \(1,\ 2,\ 3,\ 4,\ldots\) se derraman, conocidos y familiares, granos que forman una sal matemática de la tierra. Sin embargo, el aspecto entendido de los números naturales es su estructura aditiva. Pasar de un número a otro mediante suma o resta no plantea ningún misterio. Sólo cuando empezamos a pensar en las cosas multiplicativamente comienzan los problemas y aparecen las sorpresas. En una reciente conferencia de MSRI, Sarnak analiza las formas en que la probabilidad, la estadística y el azar, están ayudando a desentrañar algunos de los principales misterios.
Los números primos son los componentes básicos de la multiplicación y todavía hay mucho trabajo en curso para comprender la forma en que se distribuyen entre los números naturales. Al enumerarlos, parecen caer por casualidad: \(2,\ 3,\ 5,\ 7,\ 11,\ 13,\ldots\) Desde la época de Euclides sabemos que hay un número infinito de primos. Su prueba es fácil de reformular. Dada cualquier colección finita de números primos \(p_1,p_2,\ ...,\ p_n\), entonces el número \(p_1\ast p_2\ast...\ast p_n+1\) no es divisible por ninguno de \(p_1\ast... \ast p_n\), por lo que debe ser divisible por números primos que no se encuentren en este conjunto. Entonces, dado cualquier conjunto finito de números primos, esto produce un número primo diferente, por lo que ningún conjunto finito de números primos puede ser completo, por lo que debe haber un número infinito.
Saber que existe un número infinito es sólo el comienzo; el siguiente paso es cuantificar esto. Más precisamente, definimos una función
\(\pi(x)=\) la cantidad de números primos menores o iguales a \((x)\)
Estudiamos las asintóticas de esta función. Basándose en cálculos extensos, Gauss primero conjeturó y finalmente de Vallée Poisson y Hadamard de forma independiente en (1896) demostraron el "Teorema de los números primos".
\(\pi(x)\) ~ \(\frac{x}{\ln{x}}\)
Eso es,
\(lim_{x \to \infty} \frac{\pi(x) \ln x}{x} \to 1\)
De hecho, Gauss había conjeturado (e implica el teorema de los números primos) una estimación más precisa, que
\(\pi(x)\) ~ \(Li(x)\)
Donde \(Li(x)\) es la integral logarítmica (desplazada) de \(x\)
\(Li\left(x\right)=\int_{2}^{x}\frac{dt}{\ln{t}}\)
Además, la comparación de \(\pi(x)\) y \(Li\left(x\right)\) es la fuente de uno de los números más grandes jamás escritos en un trabajo de matemáticas. Se sabe que \(Li\left(x\right)\) no siempre es mayor que \(\pi(x)\), pero el primer lugar donde sucederá puede ser alrededor de \({10}^{320}\)
Ahora bien, las asintóticas están bien, pero lo que interesa es obtener la estimación lo más correcta posible. Es decir, nos gustaría poder escribir eso.
\(\pi(x)\ =\ Li(x)\ +\ E(x)\)
Donde \(E(x)\) es el término de error en esta estimación. Comprender este término de error es una de las razones detrás del estudio de la Hipótesis de Riemann . Esta es una conjetura sobre el comportamiento de una función compleja llamada función zeta de Riemann y, en particular, comprender la naturaleza estadística de los argumentos para los cuales esta función es igual a cero, los "ceros" de la función zeta, un área animada en la intersección de la teoría de números, la física matemática, la probabilidad y la estadística. La Función zeta de Riemann, \(\zeta(s)\), para \(s=\sigma+it\) siendo \(i=\sqrt{-1}\), es la ligera generalización a una función compleja de una función real ideada por primera vez por el matemático suizo Euler. Se define como
\(\zeta(s)=\sum_{n=1}^{\infty}\frac{1}{n^s}\)
Para \((s=1)\) obtenemos la conocida serie armónica ( que es divergente), y para \((s=2)\), un hecho menos conocido, pero aún interesante (debido a Euler), da que \(\zeta( 2)=\frac{\pi^2}{6}\), también conocido en su momento como el "Problema de Basilea".
Una conexión obvia con los números primos es a través de la fórmula del producto de Euler.
\(\zeta(s)=\sum_{n=1}^{\infty}\frac{1}{n^s}=\prod_{p\ }\frac{1}{1-p^{-s}}\)
La fórmula resulta de expandir cada uno de los factores de la derecha.
\(\frac{1}{1-p^{-s}}=1+\frac{1}{({ p)}^s}+\frac{1}{({ p^2)}^s}+\frac{1}{({ p^3)}^s}+\frac{1}{({p^4)}^s}+\frac{1}{({p^5)}^s}+...\)
Y observando que su producto es una suma de términos de la forma
\(\frac{1}{\left( p_1^{n_1} + p_2^{n_2} + p_3^{n_3} + \cdots + p_r^{n_r} \right)^s}\)
Donde \(p_1,p_2,...,p_r\) son primos distintos y \(n_1,n_2,...,n_r\) son números naturales. Luego utilice el Teorema Fundamental de la Aritmética que establece que todos los números naturales tienen una factorización única en potencias primas.
La gran contribución de Riemann fue vincular los cero(s) de la función zeta con las asintóticas de \(\pi(x)\). Primero pudo demostrar que, aunque diverge \(\zeta(1)\) hasta el infinito, la función zeta tenía una definición consistente en todos los demás puntos del plano complejo. En otras palabras, si bien es fácil ver que \(\zeta(s)\) tiene sentido para cualquier \((s)\) con parte real mayor que \((1)\), pudo encontrar una continuación analítica de \(\zeta(s)\) para todo el plano complejo, fuera de una singularidad en \((s=1)\). Parte de este trabajo fue el descubrimiento de la "ecuación funcional" que relaciona los valores de \(\zeta(s)\) con los de \(\zeta(1-s)\) como algún tipo divertido de simetría especular respecto de la recta \(Re(s)=1/2\).
\(\zeta(s) = \frac{2^s \pi^s \sin\left(\frac{\pi s}{2}\right)}{\Gamma(1-s)} \zeta(1-s)\)
La ecuación funcional muestra inmediatamente que hay algunos ceros fáciles de encontrar: los números \(-2,\ -4,\ -6,...\) Estos se llaman ceros triviales. La ecuación funcional también muestra fácilmente que cualquier otro cero debe tener una parte real entre 0 y 1, ¡la llamada "franja crítica"! Son estos ceros no triviales los que están de moda. Riemann conjeturó (¡prepárate, ésta es la infame hipótesis!) que esos ceros no triviales deben dividir la franja crítica:
Todos los ceros no triviales de la Función Zeta tienen parte real igual a \(\frac{1}{2}\)
Esto se ha comprobado en millones de ceros, es decir, que todos los ceros con parte imaginaria en millones y en la franja crítica están realmente en la línea \(Re(s)=\frac{1}{2}\).
Para relacionar \(\zeta(s)\) con \(\pi(x)\) Riemann definió una función de conteo de primos ponderados
\(\Pi(x)=\sum_{p^m\le x}\frac{1}{m}\)
En otras palabras, mientras que \(\pi(x)\) es una función escalonada que suma uno por cada primo, \(\Pi(x)\) es una función escalonada que suma \(\frac{1}{m }\) para cualquier potencia \(p^m\) de un primo.
Tenga en cuenta que \(\pi(x)\) y \(\Pi(x)\) son funciones escalonadas cuyo valor en un punto de salto, cuando se representa gráficamente, es la altura del punto superior. Para la siguiente discusión redefinimos estas funciones para que tengan valor en un punto de salto el promedio de la altura de los puntos inferior y superior del salto.
La función \(\Pi(x)\) se puede obtener de \(\pi(x)\) mediante la serie infinita:
(1) \(\Pi(x)=\sum_{n=1}^{\infty}\frac{1}{n}\pi(x^\frac{1}{n})\)
Esta ecuación, a su vez, se puede invertir para calcular \(\pi(x)\) a partir de \(\Pi(x)\) como
(2) \(\pi(x) = \sum_{n=1}^{\infty} \frac{\mu(n)}{n} \Pi\left(x^{\frac{1}{n}}\right)\)
Donde \(\mu(n)\) es la función de Möbius que es \((0)\) si (n) es divisible por un cuadrado primo, \((1)\) si \((n)\) es un producto de un número par de primos distintos y \((-1)\) si \((n)\) es un producto de un número impar de primos distintos.
Riemann demostró que \(\Pi(x)\) se puede determinar a partir de los ceros \((\rho)\) de la función zeta mediante la ecuación
(3) \(\Pi(x) = \text{Li}(x) - \sum_{\rho} \text{Li}\left(x^{\rho}\right) - \log\left(2\right) + \int_{x}^{\infty} \frac{dt}{t\left(t^2 - 1\right)\log\left(t\right)}\)
Aquí la suma de \((\rho)\) en el segundo término se toma con valores crecientes del valor absoluto de la parte compleja de \((\rho)\).
Poner (3) en (2), \(\pi(x)\) se puede determinar a partir de los ceros de la función zeta. Para x fija, (2) es una serie finita. Así, si utilizamos los primeros \(k\) ceros de la función zeta en (3), obtendremos una aproximación a \(\Pi(x)\).
Entonces, a medida que usamos más y más ceros de la función zeta, eventualmente obtenemos una buena aproximación al número de primos menores o iguales a x. En el límite obtendríamos el valor exacto.
Hans Riesel y Gunnar Göhl muestran cómo se pueden realizar estos cálculos. Ilustramos esta aproximación en la Ilustración 2. La animación muestra cómo la aproximación mejora cuando aumentamos el número de ceros utilizados.
La demostración de Riemann de la fórmula (3) no estaba completa y H. von Mangoldt fue el primero en proporcionar una demostración rigurosa.
La función \(\Pi(x)\) introducida por Riemann ha sido prácticamente reemplazada, en los estudios modernos de números primos, por una función similar \(\Psi(x)\), introducida por Chebyshev, un matemático ruso famoso por realizar algunos de los primeros avances en el Teorema de los Números Primos y también por tener una cantidad aparentemente infinita de ortografías aceptadas de su nombre.
\(\Psi(x)\) es nuevamente una función escalonada que comienza en \((0)\) pero ahora tiene un salto de \(ln(\rho)\) en cada potencia primaria \(\rho^n\).
De este modo
(4) \(\Psi(x) = \sum_{\rho^n < x} \ln(\rho)\)
Redefinimos \(\Psi(x)\) en los puntos de salto de la misma manera que lo hicimos para \(\pi(x)\) y \(\Pi(x)\).
Chebyshev demostró que el teorema de los números primos es equivalente al enunciado de que \(\Psi(x)\)~\(x\). (Ver Ilustración 3). Y conocer el error al usar la aproximación de \(x\) para \(\Psi(x)\) es equivalente a conocer el término de error para nuestra aproximación \(Li(x)\) a \(\pi(x)\).
Se ha demostrado que la hipótesis de Riemann es equivalente a la siguiente estimación de la diferencia entre \(\Psi(x)\) y \((x)\).
\(\left|\Psi(x)-x\right|\le{cx}^\frac{1}{2}\ast{ln(x)}^2\)
Mangoldt demostró que \(\Pi(x)\) también se puede determinar a partir de los ceros de la función zeta mediante la siguiente ecuación
(5) \(\Psi\left(x\right)=\sum_{\rho^n<x} l n\left(\rho\right)\)
Nuevamente la suma se toma en orden creciente del valor absoluto de la parte compleja de \((\rho)\). Así, usando las primeras k raíces \((\rho)\) de la función zeta, podemos obtener de la ecuación (5) una aproximación para \(\Psi(x)\). Graficamos esta aproximación en la Ilustración 4 y nuevamente las animaciones muestran cómo la aproximación mejora cuando aumentamos el número de ceros utilizados.
Así, la fórmula del producto para \(\zeta(s)\) sugiere que la función zeta conoce los números primos y las fórmulas (3) y (5) sugieren que los ceros de la función zeta conocen la distribución de los números primos. Para mayor información te dejo los enlaces, saludos cordiales.
Fuentes: https://chance.dartmouth.edu/
Referencias:
2.- Hans Riesel and Gunnar Göhl, "Some Calculations Related to Riemann's Prime Number Formula,'' Math. Comp. 24 (1970), pp. 969-983
Comentarios
Publicar un comentario