El Azar, Simuladores, Loterias, Juegos de Azar y Generadores Aleatorios
El Azar, Simuladores, Loterias, Juegos de Azar y Generadores Aleatorios
http://calentamientoglobalacelerado.net
EL AZAR
ETERNO PARADIGMA
“El azar podría dar respuesta incluso a cuestiones que el hombre jamás llegará a plantearse”.
Dedicado a mis padres Rafael y Elena y a mis hijos Marien y Rafael, origen y destino todos ellos en la
trayectoria de mi vida y a Malika, mi mujer y fiel compañera de tan apasionante viaje que el azar nos
depara cada día.
índice
- INTRODUCCIÓN TEMÁTICA
- Conclusiones
- BIBLIOGRAFÍA.
Nota: los programas de ejemplo incluidos en este documento se ejecutan en pantalla completa, si desea ejecutarlos en modo ventana pulse
simultáneamente la combinación de teclas ALT + ENTER
INTRODUCCIÓN TEMÁTICA
Observe las siguientes series de números:
1ª serie) 2 – 4 – 6 – 8 – 10 - 12
2ª serie) 1 – 2 – 6 – 7 – 11 - 18
3ª serie) 1–2–3–4–5-6
Si tuviéramos que decidir de forma intuitiva cuál de estas reducidas series (compuestas sólo por seis
variables) es aleatoria, nos decantaríamos casi con total seguridad por la segunda, pero a la hora de
ofrecer alguna explicación y tratar de responder a la pregunta de ¿Porqué?, caeríamos en la duda y tras
una profunda reflexión llegaríamos a la conclusión de que cualquiera de las tres series puede ser
aleatoria. El azar, tan simple y tan complejo, tan exacto y tan impredecible, tan accesible y tan
inalcanzable. Matemáticos y filósofos prosiguen su búsqueda hacia el azar en estado puro, en busca de
su esencia.
No podemos obviar que algo tan intrascendente como lanzar una moneda al aire ha decidido en
ocasiones (y lo seguirá haciendo), el curso de la historia. En un acto tan aparentemente sencillo subyace la
esencia del azar. El azar está presente en nuestras vidas, en la sociedad, en la ciencia, pero ¿Es realmente
azar? ó ¿Se trata en realidad de sucesos en los que se ven involucradas un número de variables
imposibles de totalizar?
Capítulo I
Si bien existen diversos métodos para la generación de números aleatorios como por ejemplo el
lanzamiento de monedas o dados, ruletas, etc., estos sistemas manuales resultan, por razones obvias,
ineficaces en labores de investigación y aplicaciones informáticas, en cuyas tareas suelen emplearse
métodos informáticos basados en hardware o software.
1) Hardware: entre los métodos hardware encontramos los sistemas basados en excitación de átomos
radiactivos, el recuento de partículas emitidas, el ruido blanco producido por circuitos electrónicos, el
ruido térmico de un diodo semiconductor, etc. Un buen ejemplo de ruido aleatorio pueden ser los puntos
blancos y negros que muestra una televisión cuando no tiene sintonizado ningún canal, en tal caso, los
puntos negros podrían equivaler a ceros y los puntos blancos a unos. En todos estos métodos, las salidas
aleatorias suelen ser registradas por ordenador al objeto de poder recuperar la secuencia en un momento
determinado, así como someterla a los tests pertinentes que certifiquen la validez de dichos sistemas. A
pesar de poseer características propias inalcanzables por los generadores basados en algoritmos
determinísticos (principalmente período infinito en las series e impredecibilidad absoluta) que le
permiten rozar la aleatoriedad absoluta, sin embargo, y pese a que dichos fenómenos físicos puedan ser
considerados como verdaderamente aleatorios e incluso superar cualquier prueba de contraste a la que se
les someta, ¿creen realmente que dichos generadores pueden mostrarse absolutamente insensibles bajo
cualquier circunstancia? Seguramente no, algo distinto es que los factores condicionantes escapen de
nuestro control y la posibilidad de ser identificados. De hecho, existen trabajos en este sentido como “The
Logic of Statistical Interference” (I. Hacking 1967) que revelan sesgos e irregularidades en algunos de
estos mecanismos. Además, entre los principales inconvenientes para su uso en simulación, podemos
destacar:
• Una considerable lentitud de generación que dificulta la simulación de procesos complejos en los
que se requiera el cálculo con millones de variables aleatorias.
• La imposibilidad de reproducir la misma secuencia de variables en el caso que sea necesario para,
por ejemplo, la corrección de errores en un algoritmo.
2) Software: Los generadores aleatorios basados en software utilizan algoritmos determinísticos para la
generación de números “pseudoaleatorios” y constituyen un pilar básico en investigación, no en vano, el
campo de la simulación (aplicable a multitud de disciplinas) se alimenta de dichos generadores al contar
éstos con importantes ventajas frente a los generadores aleatorios basados en fenómenos físicos. Entre sus
ventajas más destacables cabe citar la enorme velocidad de generación que ofrecen, limitada
prácticamente a la capacidad de cálculo de los sistemas informáticos. Otra característica no menos baladí
que ofrecen al investigador es la posibilidad de reproducir la misma secuencia cuantas veces sea
necesario empleando el mismo algoritmo y la misma semilla. Las variables pseudoaleatorias generadas
mediante algoritmos numéricos determinísticos plenamente previsibles simulan de algún modo el azar,
sin embargo, y como era de esperar, los generadores algorítmicos no son perfectos: antes o después
suelen caer en ciclos infinitos (periodo finito) de repetición de la serie, en otros casos, pueden caer en
repetición periódica de un mismo número y en cualquier caso, podrían presentar sesgos y dependencias
que les aleja de los criterios de calidad óptimos deseables para un generador aleatorio.
Algunos sencillos generadores de ejemplo muy empleados en calculadoras científicas pueden ser del tipo
siguiente:
Pese a que pueden ser útiles en condiciones de poca exigencia, los algoritmos incluidos en los modernos
lenguajes de programación suelen ser de mayor complejidad consiguiendo así un período mayor (el
período es el tamaño máximo de la serie que puede ofrecer un determinado algoritmo determinístico
antes de volver a repetir los valores)
Entre las principales ventajas de los generadores algorítmicos en simulaciones complejas destacan:
• La enorme velocidad de generación limitada únicamente por la capacidad del hardware empleado
siendo posible la generación de series de millones de variables por segundo.
Existen al respecto numerosos modelos de pruebas de contraste encaminadas a evaluar la calidad del
algoritmo, evidentemente, no basta con que la secuencia parezca aleatoria y deben cumplirse las leyes de
la probabilidad. Los más sencillos tests que puedo ponerles como ejemplo, al margen de detectar el
período máximo que nos llevaría a repetir la serie de nuevo, serían:
• Media aritmética de los valores de la serie: Por ejemplo, si simulamos el lanzamiento de un dado
diez mil veces, debemos obtener una media global próxima a 3.5, que sería la media exacta de los
seis valores posibles del espacio muestral (1,2,3,4,5,6) partiendo del enunciado:
Media = (1+2+3+4+5+6)/6 así en nuestra prueba de contraste sumaríamos en un acumulador el
valor de los diez mil lanzamientos y lo dividiríamos por 6.
• Regularidad comprobable en las frecuencias absolutas de cada uno de los valores posibles durante
todo el período. Continuando con el ejemplo anterior, en los diez mil lanzamientos del dado,
comprobaríamos que cada uno de los valores posibles (1,2,3,4,5,6). En nuestro ejemplo, con 10000
lanzamientos simulados, la frecuencia absoluta esperada para cada uno de los valores posibles sería
10000/6.
Este podría ser más o menos el código en lenguaje BASIC (estándar) de un sencillo test para
comprobar si nuestro algoritmo cumple las leyes de la probabilidad:
CÓDIGO COMENTARIOS
PRUEBA DE CONTRASTE DESTINADA A LA EVALUACIÓN
DE GENERADORES ALEATORIOS BASADOS EN
rem TEST DE CALIDAD PARA ALGORITMOS ALEATORIOS
ALGORTIMOS DETERMINÍSTICOS. EN EL EJEMPLO SE
rem AUTOR: Rafael Lomeña Varo – 2006
EVALÚA EL ALGORITMO IMPLEMENTADO POR EL
rem http://calentamientoglobalacelerado.net
FABRICANTE DEL COMPILADOR A TRAVÉS DEL COMANDO
rem [ Hipótesis ciencias diversas ]
RND Y SE COMPRUEBAN VALORES SIGNIFICATIVOS DE LA
rem http://calentamientoglobalacelerado.net/ia/
SERIE COMO SON LA MEDIA ARITMÉTICA Y LA
rem [ Inteligencia Artificial ]
FRECUENCIA ABSOLUTA DE LOS VALORES POSIBLES DEL
rem * * * * * * * Concurso SMART 2007 * * * * * * *
ESPACIO MUESTRAL {1,2,3,4,5,6} AL SIMULARSE EL
LANZAMIENTO DE DADOS
Declara matriz de datos ‘f’ para contadores de
dim f(7) frecuencia absoluta, ‘d’ para valores posibles de 1 a 6.
dim d as integer ‘n’ y ‘nl’ para bucles y número de experimentos. Las
dim n, nl, media as double variables ‘nl’ y ‘media’ se declaran de tipo DOUBLE
para una mayor capacidad y precisión
? "SIMULADOR DE LANZAMIENTO DE DADOS"
? "=================================="
Solicita y almacena número de
input "NUMERO DE LANZAMIENTOS = "; nl
experimentos/lanzamientos en ‘nl’
Altera semilla del algoritmo RND mediante variable del
randomize (timer)
sistema TIMER
for n =1 to nl Inicializa bucle de experimentos/lanzamientos
Simula un experimento/lanzamiento y almacena
d = int (rnd (1) * 6) + 1
resultado en ‘d’
f (d) = f (d)+1 Acumula las frecuencias absolutas en matriz ‘f’
Incrementa acumulador global para cálculo de media
media = media + d
aritmética
Cierra el bucle de experimentos/lanzamientos y repite
next proceso si no se ha alcanzado el número máximo
establecido
Imprime media aritmética global de la suma de todos
? "MEDIA ARITMETICA GLOBAL = "; media / (nl – 1)
los lanzamientos
Bucle para imprimir contadores de frecuencia absoluta
for n=1 to 6 de cada valor almacenados en el vector ‘f(n)’. Las
? "frecuencia absoluta de "; n; " = "; f (n) frecuencias absolutas de cada uno de los valores deben
next ser más aproximadas en tanto en cuanto se aumente el
número de lanzamientos o experimentos
Pero, tal y como anotábamos con anterioridad, la variables pseudoaleatorias no dejan de ser una solución
a medias, por lo que a medida que aumenta la complejidad en los experimentos de simulación el
investigador puede no disponer de mecanismos fiables que le permitan garantizar la normalidad de la
simulación y la calidad suficiente del generador empleado.
Si bien en la actualidad existen diversos modelos de generación pseudoaleatoria empleados con cierto
éxito en procesos de simulación, siguen siendo los obtenidos mediante generadores electrónicos los
únicos procedimientos considerados puramente aleatorios, pese a que tampoco están exentos de
inconvenientes como hemos detallado con anterioridad.
La generación aleatoria de variables para las matemáticas es hoy una asignatura pendiente en pleno
vigor, una brecha abierta que probablemente jamás termine de cerrar. Como ustedes pueden ya imaginar
la cuestión no es baladí y las soluciones actuales al problema distan bastante de alcanzar la “verdad
absoluta” o un “estado definitivo”. Cualquier método conocido consiste en una solución a medias, un
subterfugio transitorio que nos conduce a la generación de las denominadas variables “pseudoaleatorias”
cuyo prefijo alude, de forma meridiana, a la falta de pureza en su génesis y a su predecibilidad.
Otras líneas de investigación han apuntado en sentidos distintos como por ejemplo la lista infinita de
decimales del número PI ó E (que surgen al ampliar la precisión de estas constantes), que si bien pueden
parecer aleatorias y podrían superar los test de probabilidad necesarios además de contar con un periodo
infinito, no debemos olvidar que este tipo de series siempre serán predecibles mediante un sencillo
cálculo.
El ingenio de ingenieros y matemáticos no cesa en la búsqueda de nuevas e inéditas fórmulas que nos
acerquen un poco más al azar puro, prueba de ello son algunos de los destacados trabajos con que cada
cierto tiempo nos sorprenden algunos expertos, como por ejemplo el trabajo conjunto de Pedro Mª
Alcocer Garau, José Mª García Carrasco y Luis Hernández Encinas, desarrolladores de un ingenioso y
efectivo generador de bits aleatorios basado en entradas por teclado. Sin embargo, y como ellos mismo
llegan a afirmar en su trabajo, “no se dispone de ninguna prueba matemática que asegure de forma
categórica la aleatoriedad de una secuencia de bits”.
Capítulo II
Tal y como hemos visto en el apartado de GNA’s, existen multitud de algoritmos destinados a tal fin y
aunque matemáticos y otros expertos continúan trabajando en nuevas soluciones, lo cierto es que
cualquiera de nosotros, incluso con escasos conocimientos de programación, puede acceder a estos
generadores algorítmicos de forma sencilla, ya que todos los intérpretes suelen integrar entre sus
comandos un generador aleatorio de calidad suficiente para la experimentación. El archiconocido RND,
implementado incluso en calculadoras científicas, consiste en un algoritmo determinístico que cada
fabricante decide incorporar.
El siguiente ejemplo nos acerca a la simulación por el conocido método de Monte Carlo y se trata de una
adaptación propia del modelo expuesto en el libro “investigación de operaciones” (Hamdy A. Taha – 1997)
por considerarla más flexible y de mayor sencillez de implementación (codificación).
La simulación de Monte Carlo nos permite alcanzar los resultados de un experimento de forma estimada
mediante el uso de un muestreo aleatorio y el análisis de los resultados obtenidos con dicho muestreo. Es
considerado el precursor por excelencia de la simulación moderna.
Así, en el programa del siguiente ejemplo, de forma estimada se calcula un área rectangular circunscrita
en un área mayor. Describo el código a grandes rasgos la zona de comentarios para intentar llegar, en la
medida de lo posible, a los profanos en la programación. No obstante, los lectores que deseen acceder al
código fuente completo pueden hacerlo en la web http://calentamientoglobalacelerado.net Yo he
utilizado para el desarrollo un potente compilador (con entorno integrado) llamado FreeBASIC (por el
tipo de sintaxis propia del lenguaje basic) que genera un código ejecutable de altísimo rendimiento. La
aplicación es de licencia pública y está disponible en (http://www.freebasic.net) .
CÓDIGO COMENTARIOS
rem CALCULO ESTIMADO DEL AREA DE UN RECTANGULO EL PRESENTE PROGRAMA CALCULA EL ÁREA DEL
rem MEDIANTE SIMULACION POR EL METODO DE RECTÁNGULO MENOR MEDIANTE SIMULACIÓN POR EL
rem MONTE CARLO MÉTODO DE MONTE CARLO.
rem AUTOR: Rafael Lomeña Varo – 2006 EL ÚNICO DATO CONOCIDO ES EL ÁREA RECTANGULAR
rem http://calentamientoglobalacelerado.net MAYOR , A PARTIR DE AHÍ, EL ALGORITMO INCLUIDO EN EL
rem [ Hipótesis ciencias diversas ] PROGRAMA ESTIMA EL ÁREA MENOR BASÁNDOSE EN EL
rem http://calentamientoglobalacelerado.net/ia/ PORCENTAJE DE PIXELS ALEATORIOS QUE CAEN EN EL
rem [ Inteligencia Artificial ] INTERIOR DE DICHA ÁREA DURANTE LA SIMULACIÓN.
X=80 SE ESTABLECEN LAS COORDENADAS DEL ÁREA MAYOR
Y=100 (ESQUINA SUPERIOR IZDA. EN X,Y E INFERIOR DERECHA EN
X1=300 X1,Y1)
Y1=240
CÓDIGO COMENTARIOS
bx = int (rnd (1) * 100) + 90 SE ESTABLECE ÁREA MENOR ACOTADA PERO ALEATORIA DE
by = int (rnd (1) * 50) + 110 FORMA QUE LA SIMULACIÓN SIEMPRE CALCULA ÁREAS
bx1 = int (rnd (1) * 100) + bx +30 DIFERENTES
by1 = int (rnd (1) * 50 ) + 180 (ESQUINA SUPERIOR IZDA. E INFERIOR DERECHA)
line (X, Y) - (X1, Y1),,b TRAZA ÁREA RECTANGULAR MAYOR
line (bx, by) - (bx1, by1),, b TRAZA ÁREA RECTANGULAR MENOR QUE DEBEMOS
CALCULAR
input "Entre tamaño de la muestra de la simulación: SE PIDE AL USUARIO QUE ESTABLEZCA EL NÚMERO DE
"; mues ITERACIONES
SENCILLA PERO EFICAZ. SE ESTABLECE LA SEMILLA PARA LA
SERIE PSEUDOALEATORIA QUE GENERARÁ EL ALGORITMO
DETERMINÍSTICO IMPLEMENTADO POR EL FABRICANTE DEL
COMPILADOR . SE TRATA DE UNA VIEJA ARGUCIA MUY
UTILIZADA EN PROGRAMACIÓN. TIMER ES UNA VARIABLE
DEL SISTEMA QUE ALMACENA UN VALOR SECUENCIAL
randomize (timer)
TOMADO DEL RELOJ INTERNO DEL SISTEMA Y CON UNA
PRECISIÓN DECIMAL MUY ALTA, LO CUAL OTORGA UNA
GARANTÍA “CASI” ABSOLUTA DE QUE CADA VEZ QUE SE
INICIA LA SEMILLA PARA EL COMANDO RND ESTA TENDRÁ UN
VALOR DIFERENTE, EVITÁNDOSE ASÍ LA POSIBLE REPETICIÓN
DE LA SERIE.
CALCULA EL ÁREA MAYOR REAL MEDIANTE LA FÓRMULA DE
GEOMETRÍA:
aremay= (X1 - X) * (Y1 - Y)
ÁREA= BASE x ALTURA.
CALCULA EL ÁREA MENOR REAL MEDIANTE LA FÓRMULA DE
aremen= (bx1 - bx) * (by1 - by)
GEOMETRÍA (IDEM) SOLO PARA CONTRASTAR CON EL ÁREA
ESTIMADA POR SIMULACIÓN
ESTAS VARIABLES ACTÚAN A MODO DE ACUMULADORES Y
dentro = 0 NOS SIRVEN PARA CONTABILIZAR LOS PIXELS QUE “CAEN”
DENTRO O FUERA DEL ÁREA RECTANGULAR MENOR. EN BASE
fuera = 0 A ESTAS VARIABLES SE CALCULA EL PORCENTAJE QUE
APLICAREMOS EN LA ESTIMACIÓN DEL ÁREA MENOR
INICIA EL BUCLE DE ITERACIONES QUE REPETIRÁ EL
for n = 1 to mues ALGORITMO Y QUE ESTABLECE EL NÚMERO DE
EXPERIMENTOS DE LA SIMULACIÓN
ESTABLECE LAS COORDENADAS X E Y DEL PIXEL EN EL ÁREA
sx = int (rnd (1) * (X1 - X)) + X
CIRCUNSCRITA POR EL RECTÁNGULO MAYOR DE FORMA
sy = int (rnd (1) * (Y1 - Y)) + Y
PSEUDOALEATORIA MEDIANTE EL COMANDO RND Y
pset (sx , sy )
POSICIONA EL PIXEL EN LAS COORDENADAS RESULTANTES
if sx>=bx and sx<=bx1 and sy>by and sy<by1 then SE COMPRUEBA SI EL PIXEL ESTÁ DENTRO O FUERA DEL
dentro = dentro + 1 ÁREA RECTANGULAR MENOR. SI ESTÁ DENTRO SE
else INCREMENTA LA VARIABLE ‘dentro’ ,
fuera = fuera + 1 SI NO LO ESTÁ
end if SE INCREMENTA LA VARIBLE ‘fuera’
CALCULA EL PORCENTAJE DEL TOTAL DE PIXELS QUE CAEN
porcen = (dentro * 100) / n
DENTRO DEL ÁREA MENOR RECTANGULAR.
CALCULA EL ÁREA MENOR EN FUNCIÓN DEL PORCENTAJE
amensim = ((porcen/100) * aremay)
OBTENIDO Y LO ALMACENA EN LA VARIABLE ‘amensim’
CIERRA EL BUCLE DE ITERACIONES. TODO EL CÓDIGO
next ENCERRADO ENTRE LAS ÓRDENES FOR … TO Y EL NEXT SE
REPITE N VECES
Captura del programa de simulación de Monte Carlo para el cálculo estimado del área.
Ejecutable y código fuente original disponible en http://calentamientoglobalacelerado.net/simulacion.exe
Capítulo III
La última versión que diseñé del programa Simula (software de experimentación aleatoria destinado al juego
de azar) es totalmente gratuita y se encuentra disponible en una de mis webs:
www.calentamientoglobalacelerado.net/ia/software (incluye sistema automatizado de
instalación/desinstalación, documentación completa integrada y es compatible con todas las versiones
Windows incluida XP. También corre fácilmente sobre sistemas linux mediante emulación tipo Wine, etc.)
Por otro lado, SIMULA me ha llevado (y puede conducir a cualquiera que trabaje con él) a conclusiones
drásticas sobre los juegos de azar, tal y como intentaré demostrar a continuación. Para conseguir clarificar
al máximo mis ideas, he preparado un pequeño programa de ejemplo que, pese a su sencillez, puede
resultar bastante esclarecedor. Consiste en un sencillo algoritmo formado por varios bucles anidados
capaz de desarrollar en algunos minutos (el ejemplo de la imagen está ejecutado en un “lento”
procesador Pentium III a 450 Mhz) todas las combinaciones posibles del juego de la lotería primitiva,
basado en variaciones con repetición de 49 elementos tomados de 6 en 6.
Captura del programa modelo de combinatoria compilado para plataformas Windows 32 bits
Ejecutable en http://calentamientoglobalacelerado.net/variaciones.exe
Al ejecutar este programa y si es usted el afortunado poseedor de un ordenador de última generación (de
no ser así tendrá que esperar un poco más), en pocos minutos desfilará ante sus ojos la combinación
ganadora del próximo sorteo de la lotería primitiva, sí una combinación que podría llevarle a ganar
varios millones de euros o incluso más. Ésta que hago es una afirmación categórica e incuestionable pero
la conclusión a la que pretendo llevarle no lo es menos, y es que haga usted lo que haga, juegue con el
sistema que juegue, utilice los medios que utilice (software, hardware) y aplique los métodos que aplique,
SIEMPRE deberá enfrentarse de forma irrefutable a los casi 14 millones de combinaciones posibles.
Con esta afirmación quiero rebatir algunas de las falsas “teorías” que se han desarrollado a lo largo la
historia sobre este tipo de juegos. Debemos así admitir que jugar un número determinado de
El programa SIMULA nos ofrece, siempre a través de la simulación y nunca mediante fórmulas de
combinatoria, la posibilidad de plantear diferentes situaciones en el juego de azar. Los resultados
arrojados por el programa son, en cualquier caso, determinantes.
Capítulo IV
El GCP (Proyecto
(Proyecto de la conciencia global) y los
GNA’s
A pesar de que algunos documentos de reconocida rigurosidad científica (Investigación de operaciones -
Hamdy A. Taha 1997) reconocen a los generadores electrónicos como puramente aleatorios, quizá
basando su criterio en la imposibilidad de duplicar la misma secuencia de números por su
impredecibilidad, lo cierto es que algunos investigadores han descubierto que la generación de
variables aleatorias mediante métodos electrónicos presentan sesgos y dependencias, es decir,
fluctuaciones irregulares en determinados puntos de una serie (The Logic of Statitistical Inference - I.
Hacking 1967) tal y como se citaba con anterioridad.
Al hilo de este tema y en relación con los generadores electrónicos de números aleatorios, curiosas
investigaciones como el Proyecto de la Conciencia Global - GCP ( www.noosphere.princeton.edu )
podrían llegar a arrojar luces sobre estos generadores aleatorios si los investigadores son capaces de
aislar e identificar las variables que provocan dichos sesgos y de qué modo interfieren en el azar,
siempre al margen del sensacionalismo que los medios y otros círculos profanos puedan atribuir a este
tipo de investigaciones.
A juzgar por el enfoque de ciertos medios e incluso del website oficial, no podemos negar que el
proyecto esté impregnado de cierto halo metafísico, pero tampoco debemos precipitarnos en un
dictamen carente de fundamento.
Resumen y citas literales del artículo de Eduardo Martínez del 20 de febrero de 2005 sobre el GCP.
“Una red mundial de generadores de números aleatorios muestra anomalías de funcionamiento cuando se
producen acontecimientos que afectan a millones de personas, según un experimento iniciado en 1998 y que hoy
tiene presencia en países de todos los continentes. La red se llama The Global Consciousness Project (GCP) y
representa el primer esfuerzo internacional para explotar si la atención social que comparten millones de personas
cuando ocurren determinados acontecimientos relevantes, puede ser medida y validada científicamente. La red
GCP lleva operando desde hace 35 años y tiene presencia en 65 países, desde Alaska a las islas Fidji. Funciona en
todos los continentes del globo y en todas las franjas horarias. En ella trabajan 75 investigadores, analistas e
ingenieros.
The Princeton Engineering Anomalies Research (PEAR) fue creado en 1979 por el decano de la Escuela de
Ingeniería y Ciencia Aplicada de la Universidad de Princeton, Robert G. Jahn
(http://www.princeton.edu/%7Epear/jahn.html), con la finalidad de estudiar científicamente la interacción entre la
conciencia humana y los instrumentos mecánicos y físicos. Entre los artículos explicativos de de esta experiencia
destaca el publicado por la revista Foundations of Physics Letters
(http://springerlink.metapress.com/app/home/contribution.asp?wasp=68gwvmvgmjcg6xxtwc2l&referrer=parent&b
ackto=issue,3,9;journal,14,44;linkingpublicationresults,1:105712,1). El texto integro ha sido difundido por GCP
(http://noosphere.princeton.edu/)
Robert G. Jahn ha dedicado un equipo de ingenieros, físicos, sicólogos y humanistas a desarrollar una serie de
experimentos y elaborar modelos teóricos que contribuyan a explicar el papel que juega la conciencia en el
establecimiento de la realidad física.
Los generadores funcionan constantemente, generando millones de números y gráficos segundo a segundo, día a
día, extraídos del ruido cuántico. La mayoría del tiempo, el gráfico que refleja los resultados de este juego aleatorio
se mantiene más o menos en una línea plana, que refleja la probabilidad. Sin embargo, el 6 de septiembre de
1996, cambió, el gráfico subió hacia arriba, registrando un cambio repentino. Los científicos lo achacaron a la
atención centrada de millones de personas en el entierro de Diana de Gales en la abadía de Westminster. En otros
momentos, importantes acontecimientos sucedidos en el mundo hicieron variar las fluctuaciones aleatorias
derivadas de las máquinas GNA: el bombardeo de la OTAN sobre Yugoslavia, la tragedia submarina del Kursk, las
vísperas de año nuevo
Sin embargo, lo más sorprendente estaba aún por llegar. El 11 de septiembre de 2001, cuatro horas antes de que
las torres gemelas sufrieran el ataque terrorista de dos aviones suicidas, los gráficos comenzaron a trastocarse,
como si la conciencia humana previera que algo terrible, impactante e importante para la comunidad global fuera a
suceder.
Las desviaciones registradas el 11S en las pulsiones aleatorias no pueden atribuirse a alteraciones electromagnéticas o excesivo
uso de los móviles, tal como explican los protagonistas de esta experiencia en el Journal of Scientific Exploration
http://noosphere.princeton.edu/papers/jseNelson.pdf.
En aquel momento, las variaciones en el orden numérico parecieron un fruto del mero azar, pero en diciembre de
2004, las máquinas parecieron volverse locas de nuevo. Veinticuatro horas antes de que sucediera el inmenso
terremoto del Océano Índico que tanto afectara al Asia suroriental, devastando las costas y matando a 250 mil
personas, los gráficos se trastocaron de nuevo.
Algunos científicos insisten en que todo puede ser casualidad, a pesar de que el equipo de Princeton señala que es
muy difícil cambiar el orden aleatorio de los números al azar, sin que haya causa de peso para ello.
La investigación, aunque tiene ya 35 años, está todavía en sus primeros pasos y no puede considerarse
concluyente, si bien sugiere que una relación todavía desconocida para la ciencia existe entre el mundo físico y el
mundo de la conciencia.
Al profundizar un poco más en el asunto y tras la búsqueda en La Red y lectura de varios artículos que
versaban sobre el tema, tuve la percepción de que parecía no tratarse de un grupo de astrólogos en
busca de la combinación ganadora del sorteo de la próxima semana y, pese a que debo confesar cierto
escepticismo sobre el enfoque a priori, también he de confesarles que el proyecto despertó en mí un
especial interés por abrazar el siempre apasionate mundo de la aleatoriedad. Es por ello que quiero
expresar algunas objeciones al respecto.
Para introducir al incrédulo absoluto en la saludable duda les contaré algo acerca del cerebro humano
y sus frecuencias de trabajo.
(*) No existen unos límites claros entre unas frecuencias y otras. La clasificación dada es
comúnmente aceptada, aunque los límites de frecuencias pueden variar de unos autores a otros.
+ info en: http://www.brainled.tk
La expectación, la inquietud, la ansiedad y el nerviosismo son estados que, de forma demostrada, pueden
producir variaciones en la frecuencia cerebral pasando de los 7-13 hz propios de un estado de relajación y
concentración a registros que pueden rebasar en ocasiones los 40 hz. Las frecuencias altas también se
caracterizan por su bajo voltaje (menor recorrido en la oscilación gráfica del electro encéfalo grama EGG)
frente a las frecuencias bajas o de alto voltaje.
También es sabido que es posible alterar la frecuencia predominante del cerebro mediante inducción. Este
sistema es el utilizado por curiosos trabajos como www.brainled.tk en el que mediante un software y unos
auriculares convencionales se aplican sonidos de diferente frecuencia a cada oído, consiguiendo que el
cerebro se ajuste por interpolación a la frecuencia intermedia de ambas señales.
Tampoco deberíamos obviar la característica del aire como elemento continuo (carente de vacío) y a
través del cual se vienen desarrollando continuamente nuevos sistemas de comunicaciones de señales
que aprovechan las cualidades de este medio. Con esto, no pretendo convencerles de que todos los
humanos disponen en su cerebro de un dispositivo bluetooth ó wi-fi formando una malla de conexión
global, ni mucho menos, pero en investigación creo que es importante no descartar posibilidades por
extrañas que puedan resultarnos si consideramos que pueden estar sustentadas en un fundamento lógico
por muy leve que sea nuestra intuición.
A tal efecto, se me ocurre que podríamos enumerar grosso modo posibles factores determinantes en la
influencia de fluctuaciones y a los que debería de someterse de forma prioritaria a estos generadores:
- Alteraciones anímicas colectivas provocadas (ansiedad, inquietud, miedo, stress, etc) mediante
simulacros sin conocimiento previo por parte de los sujetos experimentales, efectuándose en grupos
diversos y bajo diferentes condiciones.
- Pruebas experimentales de tipo térmicas sometiendo los generadores a temperaturas extremas así como
a ciclos.
- También deberían evaluarse por separado generadores aislados al vacío frente a otros sin aislamiento.
En definitiva, se trataría de someter a los GNAs a una batería de pruebas para lograr aislar las variables
implicadas en las fluctuaciones.
Acerca del GCP, con la escasa información que he podido recopilar y aprovechando el descubrimiento en
La Red de este potente compilador (freebasic32) gracias a un viejo amigo, he desarrollado una pequeña
aplicación que podría destinarse al análisis continuo del muestreo aleatorio de los GNAs. Su nombre es
pcgNORM y está disponible en mi web http://calentamientoglobalacelerado.net .
El programa simula de forma continua un muestreo aleatorio de 200 bits (ceros ó unos) por segundo
emitidos por un GNA (generador de números aleatorios), pero que en realidad son generados de forma
pseudoaleatoria, y elaborando una serie de pruebas básicas encaminadas a la detección de posibles
sesgos e irregularidades, como son la representación gráfica de los resultados y el análisis de desviaciones
medias en ventanas de 5 y 15 minutos.
El programa utiliza un algoritmo determinístico (el integrado en el propio compilador), por lo que
difícilmente podremos dedicarlo a la investigación de los generadores aleatorios electrónicos mientras no
pueda hacerme con el esquema de un GNA auténtico. Por ello, y al objeto de poder observar un sesgo en
la generación aleatoria, he desarrollado una versión modificada denominada pcgSIM (igualmente
disponible en la web) en la que se produce una fluctuación irregular provocada hacia el cero o el uno de
forma indistinta y en cualquier momento a lo largo de cada ciclo de 12 horas.
Captura del programa TEST-PGCSIM compilado para plataformas Windows 32 bits (9x/ME/NT/2000/XP) en el que se muestra
una fluctuación provocada en la generación de bits aleatorios.
Capítulo V
Conclusiones
Mi conclusión es determinante y en parte determinista, en ella caben y se fusionan dos niveles
conceptuales definidos y delimitados pero interconectados de forma subyacente.
1.- En un primer nivel conceptual, enmarcado en el plano filosófico, el azar puro como concepto
teórico no existe, es más un invento del ser humano, una especie de cajón desastre donde encajar
todos los sucesos que escapan de su control y de un análisis determinista en el que todas las
variables implicadas puedan ser identificadas, calibradas e interpretadas de forma tangible y
objetiva. Así, mi reflexión, como en otras muchas ocasiones, (
http://calentamientoglobalacelerado.net ), vuelve a conducirme hasta el mismo punto, principio
básico universal de la ciencia “Todo efecto posee una causa natural que lo provoca”, un enunciado
sobre el que recae, al menos para mí, el sentido absoluto de la existencia.
2.- Sin embargo, y situados ahora en el plano meramente práctico y material, aunque sólo sea de
forma objetiva lanzando un dado o una moneda al aire. Estos procesos aparentemente simples
encierran una complejidad tal que nos permiten afirmar que en dicho tipo de sucesos, por el
número y tipo de variables implicadas, la predecibilidad de los resultados escapan de forma
absoluta a cualquier tipo de control y estudio, accediendo de este modo, al menos en un plano
objetivo, práctico, matemático y material, a un azar “puro” contextualizado, es decir, en el marco
de su propio ámbito de aplicación.
Podemos afirmar que matemáticamente, en la mayoría de las situaciones, resulta posible “emular” el azar
y prueba de ello es que experimentos como los descritos con anterioridad funcionan de forma
convincente y parecen ajustarse con fidelidad a los dictados de las leyes de la probabilidad, pero el azar
continuará siendo apasionante y retorcido. Podremos acercarnos a él recurriendo a ingeniosas fórmulas
pero tal vez jamás consigamos alcanzar su plenitud.
¿Tú has encontrado alguna de esas cosas? ¿Me podrías decir el qué? Yo creo que es algo como el Número Pi, que
depende de cómo lo interpretes, te puede dar también algunas palabras.
Por cierto, madre mía lo incoherente que es la Biblia... hace años cuando hice la comunión mis padres me
regalaron una y hace unos años me deshice de ella... ahora recientemente estoy leyendo fragmentos como el
Génesis y vaya incoherencias que hay... es impresionante como millones de personas pueden estar engañadas. Me
dan ganas de hacer una página web para demostrar ese gran fraude al que llaman Dios... bueno, también existen
los Gnósticos para eso (mira en http://books.google.es/ el libro "La Religión Prohibida")
Y referente a la noticia vieja de kriptopolis.org... yo me apuesto 6000€ o mi coche a que este año 2006 no es el fin
del mundo.
Te explico esto, porque según he podido conocer acerca de los códigos secretos de la biblia, el tema es muy
parecido y mi respuesta se puede ajustar al dedillo a este caso.
Ahí va el copypaste....
Con motivo de un documento que escribí hace algunos meses para algunos
portales digitales de ciencia, estuve documentándome algo más sobre el tema
y la cuestión es muy controvertida. Es una lástima que mi falta de tiempo y
sobre todo de medios me impidiera llegar a una conclusión más concreta sobre
el proyecto GCP.
Solo puedo afirmarte una disyuntiva, podemos estar ante la mayor línea de
investigación científica de la historia del hombre o ante un proyecto sin
sentido de unos cuantos científicos que intentan darle forma a sus
experimentos y buscar causas y efectos que justifiquen sus tesis.
Desarrollé un programa como puedes ver en la una web personal que tengo:
http://inicia.es/de/elpatron/hipotesis , pero lo ideal hubiera sido sin duda
conectar el software que diseñé a un GNA auténtico, que por otro lado no resultaría
nada complicado de realizar y mucho menos costoso. De esta forma, podrían
realizarse experimentos de control y quizá llegar a concretar algo más las
causas de dichas alteraciones.
Bueno Carmen, espero haberte aclarado algo más sobre el tema, pero si
quieres información más detallada al respecto, te recomiendo que leas en mi web
el documento: EL AZAR, ETERNO PARADIGMA, ya que profundiza de forma
algo más técnica (no demasiado) que las noticias que puedas encontrar en
medios de difusión.
poder ayudarte.
Un saludo.
Volviendo al caso de los códigos secretos de la biblia, mi posición es bastante similar, es más, en mi web tengo
anunciado hace algún tiempo que iba a desmontar tal misterio, y creo que no sería demasiado difícil hacerlo, te
explico por donde iba encaminada mi línea argumental:
Según los defensores de este enigma cuasi divino y misterioso que alegan que todo nuestro futuro puede estar
encriptado en los libros sagrados (concretamente creo que en es del antiguo testamento (biblia judía) del que
hablan) mi experimento pasaba por desarrollar un software que sea capaz de extraer códigos secretos no sólo de la
biblia, sino de cualquier libro. En definitiva, porque los mecanismos que se utilizan para extraer dichos códigos son
siempre ambiguos, por ejemplo, si pensamos que en esta década puede desatarse un conflicto nuclear
internacional, buscamos los patrones:
IRAN
BOMBA
NUCLEAR
ARMA
todas estas palabras o algunas deben aparecer en una misma página o tabla de letras (estos extremos habría que
confirmarlos pero son básicamente así)
Para ello, el software rastrea los textos de la biblia dispuestos a modo de matrices o mallas (como en una sopa de
letras) y en cualquier dirección, después, comienza a arrojar las páginas donde se ha encontrado algo relevante,
por ejemplo,
- la palabra IRAN aparece en 40 páginas dispuesta de diferentes formas, en diferentes direcciones y sentido, de
este modo, la búsqueda se acota bastante y el software rastrea ahora todas sólo estas páginas en busca del resto
de palabras.
- con el resto de palabras se repite el proceso y finalmente se muestran los informes de resultados con las páginas
candidatas.
Pero no podemos obviar un dato relevante, y es que también se buscan palabras sinónimas o asociadas, por
ejemplo:
¿A dónde pretendo llegar con esto?? a que cualquier cosa que pensemos, es susceptible, en la gran mayoría de los
casos, de que encontremos códigos ocultos, o sea, el fin del mundo, la 3ª guerra mundial, el final de la
humanidad, grandes eventos pasados como atentados (11-s, 11-m, 7-j) y catástrofes (tsunami asiático) , etc.
Pero yo voy más allá, y es que, casi con total certeza, pese a no haber hecho ninguna prueba experimental al
respecto (no he podido meterle mano al código), probablemente nuestro magnífico y archipopular obra "El Quijote"
encierre dentro tantos códigos o más que la propia biblia.
Bueno Miguel, espero no aburrirte con estas historias, por ahora tengo que dejarte, pero seguiremos.
BIBLIOGRAFÍA Y FUENTES
Ed. MARCOMBO, S.A. 109 programas para ordenadores personales y calculadoras. Ramón
Ferrando Boix © 1983