Entrar  Registrarse

Re: Diseño inteligente (y II)

Posted by Z on Sep 20, 2016; 9:37am
URL: http://foro-crashoil.109.s1.nabble.com/Dise-o-inteligente-y-II-tp33161p33250.html

Hola, Fly.

Imagina que tienes que programar un "mundo" (3D) como en un juego de PS4 actual (un Minecraft o algo así). Te mostraré con un ejemplo que llevar la "cuenta" del estado actual de un "universo" simulado de este tipo sin el equivalente de un "borrado cuántico" necesita almacenar una enorme mayor cantidad de información para mantener la coherencia histórica conforme el tiempo avanza y los fenómenos acontecen. Es decir, que una eliminación activa de información es útil y necesaria para acotar y minimizar los recursos (de memoria y procesamiento) de un computador que lleve a cabo este tipo de simulaciones.

Para ponerlo en claro:

Supongamos por lo tanto que necesitamos programar un "mundo" como el nuestro simulado en una especie de PlayStation 10 (que en principio será miles de veces más potentes que la PS4) y donde vamos a realizar luego el experimento de poner aparatos Stern-Gerlach secuencialmente (más info en el artículo). Nos decidimos a usar las leyes clásicas de la física (sin borrado activo de información) y finalizamos el proyecto. Una vez todo listo encendemos la PS10 y ejecutamos esta especie de Minecraft mejorado que hemos realizado.

Dentro de este Minecraft mejorado, el "muñeco" fabrica por tanto un horno que lanza hacia fuera un haz de partículas de plata, y también monta aparatos Stern-Gerlach capaces de desdoblar el haz según sea el giro intrínseco de spin de cada partícula en cada coordenada del espacio (x,y,z).

Por último, el "muñeco" coloca secuencialmente varios de estos aparatos y enciende el horno que dispara el haz de partículas hacia el primero de ellos (imaginemos que el horno lanza un billón de partículas por segundo). En un "mundo" clásico, cada partícula del haz comienza al salir del horno con una rotación precisa del triplete de spin (Sx+ o Sx-, Sy+ o Sy-, y Sz+o Sz-). Y si colocamos el primer aparato Stern-Gerlach para dividir el haz en el eje-z, terminaremos con dos dos haces diferentes (uno con todas sus partículas con Sz+ y otro con Sz-). Si ahora colocamos otro aparato que mida por ejemplo el eje-x de spin (Sx), clásicamente los haces se separarán nuevamente, y tendremos cuatro haces con billones de partículas con estados bien determinadas Sz+Sx+, Sz-Sx+, Sz+Sx-, Sz-Sx-. Y si finalmente pasamos el haz por un aparato Sy, a la salida tendremos dos haces con la siguiente información: Sz+Sx+Sy+, Sz-Sx+Sy+, Sz+Sx-Sy+, Sz-Sx-Sy+, Sz+Sx+Sy-, Sz-Sx+Sy-, Sz+Sx-Sy-, Sz-Sx-Sy-.

Se puede ver por tanto que hay que mantener el estado preciso de millones de partículas (la historia de cada una de ellas), de manera que si ahora pasamos una partícula cualquiera por otro aparato en el eje-z (Sz) por ejemplo, la simulación debe "conocer" la historia previa de cada partícula independiente y saber si ya pasó antes  o no por un aparato Sz y en tal caso con qué rotación de spin salió de él. Es decir; que si antes la partícula salió por el haz  Sz-, en esta nueva medida que estamos haciendo en Sz debe seguir saliendo por Sz- (ya que lo contrario sería históricamente incoherente). Como ves, debemos almacenar el estado preciso (exacto) de cada triplete de spin para cada partícula en cada instante so pena de caer en incoherencias históricas.

Pero esto no es todo, puesto que si vamos a dejar intacta la información histórica exacta del spin en cada coordenada, esto nos obliga también a almacenar independientemente para cada partícula su posición, energía, velocidad, etc. Es decir, que como no hemos programado el equivalente a un borrado de información cuántica, se podría dividir el haz original de partículas una y otra vez con aparatos secuenciales de manera que terminaremos con un aparato que soltara a la salida únicamente partículas con un estado preciso y determinado para Sx,Sy,Sz. En otras palabras, que sin el borrado cuántico de información habría maneras prácticas de diferenciar y separar partículas individuales dentro de un haz inicialmente mezclado. Y esto es grave en cuanto a requisitos hardware, porque este hecho supondría la obligación por coherencia de llevar también la cuenta para cada partícula de su posición y movimiento preciso de traslación. Cada partícula tendría su registro particular de memoria donde se especificaría Sx, Sy, Sz, x, y, z, vx, vy, vz, etc.

Para aclarar un poco más, vamos a suponer que la simulación genera (crea) el primer billón de partículas que sale del horno. Eso supone ya necesitar (2^3)*(10^12) registros de memoria; pero como la información histórica clásicamente no se borra, al pasar el haz del horno secuencialmente por dos aparatos, ahora debemos "saber" (almacenar) además la información precisa del estado de cada partícula individual dentro de los 6 haces diferentes en que ha dividido el haz original del horno. Es decir; que por coherencia debemos especificar ahora en qué haz (de los 6) se encuentra cada partícula original que salió del horno. Esto supone la necesidad de especificar 3 estados precisos (exactos) más: la posición x,y,z para cada partícula; con lo que tenemos así que llevar la "cuenta" de 3 registros más para cada partícula: esto supone que sólo el primer chorro del horno requiere de 3*(2^3)*10^12 registros de memoria para llevar un cálculo coherente de la historia de este experimento en el Minecraft. Pero es que además, para conocer con certeza la posición x,y,z en el tiempo, deberemos meter en la ecuación la necesidad de saber continuamente la información necesaria para calcular dicha posición; lo que requiere conocer de continuo la velocidad, el momento lineal, el momento angular, el estado energético, etc. ¡de cada partícula independiente!

Resulta claro que la cantidad de memoria que necesitamos para llevar la coherencia histórica crece enormemente, y todo por culpa de no permitirse el borrado de información histórica (puesto que si se permitiera dicho borrado, nos podríamos ahorrar para empezar conocer el estado individual de cada partícula. No necesitaríamos ya ni siquiera poder diferenciar entre partículas, y podríamos trabajar globalmente de un modo estadístico y probabilista buscando la información mínima capaz de mantener coherencia cuando entra en acción los grandes números macroscópicos, que es precisamente lo que hace la MC).

Pero esto no es todo. Porque si suponemos, como hemos hecho, que el horno genera un billón de partículas cada segundo, al cabo de 1 minuto necesitamos (por simplicidad sólo muestro los registros necesarios para la posición y el spin individual): (3*(2^3)*10^12)*60 registros de memoria; y para simular un día sin apagar la PS4 haría falta llevar la "cuenta" con (3*(2^3)*10^12)*86400 registros, etc. Es decir, que con una memoria (recursos) finita, no es posible llevar por mucho tiempo la historia coherente "clásica" de este experimento en un computador (¡es necesario en algún momento comenzar a borrar información y aún así mantener la coherencia histórica, y hacerlo todo del modo más eficiente posible!).

Y aunque este borrado ya lo impone la ley de conservación de la energía (materia), vemos que en nuestro mundo este borrado activo de información sucede de un modo muy particular (especial): esto es, mediante el método matemático más eficiente imaginable (para el conjunto), regido fundamentalmente por la relación de Born y el principio de indeterminación. Estos principios ponen cota precisamente a la cantidad de información requerida para llevar esta historia coherente del mundo, y lo hacen simplemente determinando matemáticamente la cantidad de información máxima simultánea que se va a llevar sobre la historia del "mundo". Ya no se va a llevar la "cuenta" constante de este triplete completo de estados de spin (Sx+ o Sx-, Sy+ o Sy-, y Sz+o Sz-), y de posición x, y, z (lo que suponía a nuestra PS10 almacenar 3*(2^3)*10^12 registros de memoria cada segundo de simulación que el horno esté encendido), sino que se va a llevar sólo una "cuenta" aproximada (difusa) regida por la estadística de los grandes números y por distribuciones de probabilidad globales (solapadas) determinadas conforme, como decimos, a la relación de Born: QP-PQ=ih.

Esta h es precisamente la constante (el número) que acota y hace accesible los recursos de memoria y cómputo en el tiempo para la simulación. En el caso de nuestro Minecraft, la relación de Born y el relacionado principio de indeterminación  llevan precisamente a especificar por una parte la idea de observables incompatibles, y como consecuencia luego al hecho de conseguir la máxima destrucción de información posible capaz de mantener al mismo tiempo la coherencia a gran escala. Concretamente, esto lo consigue mediante un algoritmo que dice que (en el caso del spin) que: Sx·Sy - Sy·Sx = iħSz (para cada par de coordenadas). Es decir; que NO vamos a necesitar llevar la cuenta del estado completo para cada billón de partículas (por segundo), sino que vamos a llevar una distribución de probabilidad global dictada por el principio de incertidumbre generalizado, el cual relaciona los estados físicos de manera que sólo se almacena (se tiene en "cuenta") nueva información en la medida en que se elimina "vieja" información en proporción a la constante h.

Esta es la clave del asunto, la información se mantiene coherente en el tiempo al entrar en juego los grandes números trabajando sobre una distribución concreta de probabilidad pero al mismo tiempo que la cantidad de memoria requerida se mantiene acotada mediante el principio de incertidumbre generalizado basado en la relación de Born.

En el caso concreto que hemos puesto de la PS10 y los aparatos de Stern-Gerlach, se podría programar un Minecraft simulando las leyes cuánticas (en lugar de las clásicas), con lo cual evidentemente ya no se necesitaría (para llevar la posición y el spin) de 3*(2^3)*10^12 registros de memoria por segundo que esté encendido el juego, sino que meramente necesitaríamos programar funciones de probabilidad que se ciñan al principio de incertidumbre generalizado (trabajando así con estados determinados globalmente de manera lineal y solapada, y no trabajando sobre cada partícula individualmente como antes), y llevar también el cómputo del cambio de dichas funciones en el tiempo (en lugar de tenerse que computar individualmente el cambio en cada estado de cada partícula independientemente). Finalmente, cuando sea necesario mostrar por pantalla algo concreto (por ejemplo al ocurrir en este Minecraft un choque de estas partículas con un "detector"), simplemente se lanzaría un "dado" (aleatorio) siguiendo esta distribución de probabilidad global y se pintaría los puntos donde diga este "dado" (la distribución de probabilidad se encargaría precisamente de mantener la coherencia histórica de manera estadística a nivel macro sin necesitarse almacenar estados individuales para cada partícula y fenómeno). De hecho, ya no es necesario ni siquiera hablar de partículas individuales, sino de funciones de probabilidad que indican donde hay que pintar las cosas llegado el momento de lo que tradicionalmente se conoce como colapso.

Por último, mencionar de nuevo que le hecho de que el mundo a nivel microscópico se comporte de esta manera tan concreta capaz de ser computado (cuando podría realmente nuestro mundo funcionar a este nivel microscópico tranquilamente con una física no computable, como sería una física "clásica"), y que además todo aparezca de manera eficiente para que dicho hipotético cómputo pueda tener lugar mediante recursos finitos (de hecho, los mínimos posibles); hacen sospechar que lo más probable es que todo sea así porque realmente este cómputo trascendental tiene lugar (lo contrario sería una extraña casualidad).

A modo de resumen: el hecho de que la física de nuestro mundo se afane en borrar información y en usar además la mínima cantidad de información simultánea requerida para mantener coherencia a nivel macroscópico, indica que probablemente exista un sustento físico externo (de capacidad finita) que lleva a cabo la computación y el procesado de nuestra realidad. Lo contrario sería una rara casualidad que habría que explicar: y es que, si no existe o no es necesario un sustento externo y trascendente (finito) que compute nuestro mundo; ¿por qué todo parece a nivel microscópico buscar la finitud y la eficiencia computacional?

Un saludo.