El siglo XX destaca por su
importancia sobre el determinismo, con la aparición de la mecánica cuántica y el
principio de indeterminación de Heisenberg que implica que las leyes
deterministas se conviertan en leyes estadísticas. Simplificando Heisenberg
expresa que se puede medir la velocidad de una partícula ó se puede medir la
posición pero no se pueden medir ambas cosas. El físico Max Born en 1954 indicaba……”Todas las otras ramas de la física clásica se han construido a partir
del modelo de la mecánica newtoniana……El determinismo mecánico se convirtió
gradualmente en una especie de un artículo de fe: el mundo como una máquina….el
determinismo se convierte en indeterminismo desde el momento que se permite
cualquier imprecisión en los datos iniciales”….También Feynman era
consciente de uno de los aspectos más importante de la teoría del caos: la
dependencia sensible a las condiciones iniciales, que lleva como consecuencia
que los sistemas caóticos sean impredecibles a largo plazo.
También en matemáticas empezaba a ser importante la “indeterminación”. En matemáticas los axiomas son como los cimientos del edificio y los teoremas la estructura. Hasta los dos últimos siglos solamente la geometría estaba dotada de una base axiomática adecuada. Desde entonces el método axiomático se extendió a todos los campos de las matemáticas y K. Gödel en 1931 demostró que el método axiomático posee limitaciones intrínsecas, demostrando que la estructura matemática era algo “deficiente” y contenían “verdades que no se podían demostrar”.
Hemos estado aplicando la ciencia, mediante modelos deterministas, a la vida y al universo con resultados aceptables. El problema surge cuando se intenta estudiar la física de las partículas, el universo, series de datos complejos en tamaño, cuando se quiere hacer intervenir la variable tiempo en valores elevados, cuando no se tiene en cuenta la aleatoriedad, cuando no se analizan los factores humanos y su repercusión en los estudios, etc. En definitiva cuando nos apoyamos en el determinismo ó en la ciencia convencional para usos que no son los científicamente apropiados.
En la década de los sesenta el meteorólogo E. Lorenz haciendo correr un modelo determinista en un ordenador, con unas condiciones iniciales de la atmósfera terrestre idealizadas para un momento dado obtuvo unos valores de la evolución de algunas variables climáticas al cabo de un tiempo concreto. Con objeto de extender la simulación a un tiempo más lejano, se dedicó a tomar como variables de entrada de un modelo los datos de las variables de salida del modelo anterior. Operando de ésta forma se dio cuenta que los valores de las variables del tiempo divergían totalmente. La razón era que los datos en el ordenador tenían seis decimales y los volcados en la salida y los cuales eran introducidos en el siguiente modelo tenían tres decimales. En vez de que a pequeñas variaciones en las condiciones iniciales correspondiesen a ligeras alteraciones en las variables de salida, esas pequeñas oscilaciones daban lugar a resultados inesperados. Ha sido denominado “efecto mariposa” porque unos cambios atmosféricos que podían haber sido provocados por el aleteo de una mariposa podrían tener una gran influencia en los patrones de tiempo posteriores.
También en matemáticas empezaba a ser importante la “indeterminación”. En matemáticas los axiomas son como los cimientos del edificio y los teoremas la estructura. Hasta los dos últimos siglos solamente la geometría estaba dotada de una base axiomática adecuada. Desde entonces el método axiomático se extendió a todos los campos de las matemáticas y K. Gödel en 1931 demostró que el método axiomático posee limitaciones intrínsecas, demostrando que la estructura matemática era algo “deficiente” y contenían “verdades que no se podían demostrar”.
Hemos estado aplicando la ciencia, mediante modelos deterministas, a la vida y al universo con resultados aceptables. El problema surge cuando se intenta estudiar la física de las partículas, el universo, series de datos complejos en tamaño, cuando se quiere hacer intervenir la variable tiempo en valores elevados, cuando no se tiene en cuenta la aleatoriedad, cuando no se analizan los factores humanos y su repercusión en los estudios, etc. En definitiva cuando nos apoyamos en el determinismo ó en la ciencia convencional para usos que no son los científicamente apropiados.
En la década de los sesenta el meteorólogo E. Lorenz haciendo correr un modelo determinista en un ordenador, con unas condiciones iniciales de la atmósfera terrestre idealizadas para un momento dado obtuvo unos valores de la evolución de algunas variables climáticas al cabo de un tiempo concreto. Con objeto de extender la simulación a un tiempo más lejano, se dedicó a tomar como variables de entrada de un modelo los datos de las variables de salida del modelo anterior. Operando de ésta forma se dio cuenta que los valores de las variables del tiempo divergían totalmente. La razón era que los datos en el ordenador tenían seis decimales y los volcados en la salida y los cuales eran introducidos en el siguiente modelo tenían tres decimales. En vez de que a pequeñas variaciones en las condiciones iniciales correspondiesen a ligeras alteraciones en las variables de salida, esas pequeñas oscilaciones daban lugar a resultados inesperados. Ha sido denominado “efecto mariposa” porque unos cambios atmosféricos que podían haber sido provocados por el aleteo de una mariposa podrían tener una gran influencia en los patrones de tiempo posteriores.
Proseguiré
con los Sistemas Caóticos y su importancia de los modelos de predicción (más
adelante cuando me apetezca a mi escribir sobre el tema y a vosotros leer)..