Remove ads
proceso cuyo resultado no es previsible más que en razón de la intervención del azar De Wikipedia, la enciclopedia libre
La aleatoriedad se refiere a eventos, procesos o modelos en los que algunos de los resultados son esencialmente imprevisibles, por efectos relacionados con el azar. El concepto admite diferentes caracterizaciones en matemáticas, ciencia, filosofía o historia.
Por ejemplo, en matemáticas sólo una secuencia infinita puede ser realmente aleatoria (para secuencias finitas siempre es posible encontrar una fórmula determinista que la reproduzca). En física, se cree que existe una aleatoriedad profunda, como podría existir en física cuántica y una aleatoriedad práctica, como es el lanzamiento de dados (si bien macroscópicamente está gobernado por leyes de movimiento deterministas en la práctica es difícil de predecir el resultado). El resultado de todo suceso aleatorio no puede determinarse en ningún caso antes de que este se produzca. El estudio de los fenómenos aleatorios queda dentro del ámbito de la teoría de la probabilidad y, en un marco más amplio, en el de la estadística.
La palabra aleatorio se usa para expresar una aparente carencia de propósito, causa, u orden. En cambio, el término aleatoriedad se usa a menudo como sinónimo con un número de propiedades estadísticas medibles, tales como la carencia de tendencias o correlación, es decir, que no haya patrones que se puedan identificar. La aleatoriedad ocupa un lugar importante en la ciencia, la filosofía y la historia.
La especie humana se ha preocupado de la aleatoriedad y la imprevisibilidad aparejada desde tiempos prehistóricos. La creencia en la posibilidad de la adivinación (al leer mensajes siguiendo patrones aleatorios e imprevisibles), los juegos de azar y en parte la encomendación a deidades religiosas están conectadas con la preocupación por la imprevisibilidad y la aleatoriedad.
En tiempos históricos, la contraposición entre libre albedrío y determinismo ha sido una cuestión ampliamente discutida en la filosofía y la teología desde hace milenios, y documentada desde muy antiguamente en numerosas culturas.
A pesar de la prevalencia de los juegos en todas las épocas y culturas, por un largo período hubo una cierta investigación occidental sobre el tema, posiblemente debido a la desaprobación que la Iglesia católica mantenía en cuestiones de juegos y la adivinación. Si bien Gerolamo Cardano y Galileo escribieron sobre los juegos de azar, fueron Blaise Pascal, Pierre de Fermat y Christiaan Huygens quienes nos condujeron a lo que hoy se conoce como teoría de probabilidad.
Los matemáticos se centraron primero en aleatoriedad estadística y consideraron frecuencias de bloque (es decir, no solo las frecuencias de ocurrencias de elementos individuales, sino también bloques de longitudes arbitrarias) como la medida de la aleatoriedad, un acercamiento que se prolongará hacia la entropía de la información en la teoría de la información.
A principios de los años 60, Gregory Chaitin, Andréi Kolmogórov y Ray Solomonoff introdujeron la noción de aleatoriedad algorítmica, en la cual la aleatoriedad de una secuencia depende de si es posible comprimirla.
En la investigación científica, la aleatoriedad es estudiada por la estadística y la teoría de la probabilidad. En física, la mecánica estadística y la teoría del caos han servido para construir modelos científicos para sistemas que presentan un alto grado de imprevisibilidad y aleatoriedad aparente.
En teoría de la probabilidad, un experimento aleatorio es aquel que bajo el mismo conjunto aparente de condiciones iniciales, puede presentar resultados diferentes, es decir, no se puede predecir o reproducir el resultado exacto de cada experiencia particular. Un punto clave de la teoría de la probabilidad es que los resultados de un fenómeno aleatorio tiene una distribución de probabilidad bien definida.
El lanzamiento de un dado real se aproxima mucho a buen ejemplo de experimento aleatorio. El resultado de dicho lanzamiento se contrapone al de un fenómeno determinista previsible, donde es posible conocer todos los factores condicionantes de un experimento, prediciendo con bastante exactitud el resultado del mismo. Si bien el lanzamiento de un dado es proceso físico determinista, en condiciones prácticas es difícil observar los factores condicionantes o incluso calcular la trayectoria real porque es altamente caótica.
Esto contrasta típicamente con un experimento determinista, previsible y no caótico. Por ejemplo, conociendo la altura desde la que se arroja un móvil, es posible saber exactamente el tiempo que tardará en llegar al suelo en condiciones de vacío. Sin embargo, una colección de eventos estadísticos puede ser tratada como un fenómeno determinista en estadística. Por ejemplo, lanzando un dado de seis caras seiscientas veces, el resultado para cada una de las caras del mismo será aproximadamente cien.
En el mundo físico macroscópico la aleatoriedad se debe fundamentalmente a la existencia de sistemas físicos con evolución temporal caótica. La teoría del caos se ocupa de caracterizar muchos de dichos sistemas caóticos. En ellos, si bien los mecanismos físicos pueden ser incluso deterministas, pequeñas variaciones de los factores condicionantes conducen a resultados muy diferentes. Esa propiedad se llama «dependencia sensible de las condiciones iniciales» y es una característica básica de muchos sistemas llamados «caóticos».
A nivel microscópico muchos científicos postulan que existe un tipo de aleatoridad cualitativamente diferente, la asociada a los procesos de la mecánica cuántica. Si bien se han postulado modelos cuánticos deterministas, esencialmente mediante el establecimiento de teoría de variables ocultas, en la actualidad muchos físicos cuánticos aceptan interpretaciones como la interpretación de Copenhague o la interpretación del colapso objetivo que indican que en un nivel muy fundamental, la evolución temporal de los sistemas cuánticos sí presenta elementos de aleatoriedad. Sin embargo, esto sigue siendo discutido y parece que interpretaciones deterministas como la interpretación del Multiverso han ganado muchos adherentes entre los físicos cuánticos en las últimas décadas.
Durante el siglo XX surgieron nuevas ideas para modelizar la aleatoriedad que surge entre datos tomados del mundo real y dentro de las propias matemáticas. La complejidad de Kolmogórov engloba varios enfoques relacionados con las estructuras matemáticas y los conjuntos de datos, que inevitablemente han conducido a preguntas filosóficas profundas sobre la existencia de fenómenos aleatorios o la constructividad de objetos. El trabajo de Gregory Chaitin, por ejemplo, relaciona la aleatoriedad de números reales o el problema de la parada de Turing con la irreductibilidad o incompresibilidad algorítimica (ver constante de Chaitin).
Hay que notar que la predisposición a creer que «todo tiene un propósito o una causa» está de hecho implícita en la expresión «aparente carencia de propósito o causa». Los humanos están siempre buscando patrones en su experiencia, y el patrón más básico parece ser el patrón causa-efecto. Esto parece incorporado en el cerebro humano, y quizás en el de otros animales también. Al parecer la arquitectura cognitiva de los seres humanos ha sacado partido a lo largo de la evolución biológica de la predicción de patrones regulares. Esto también parece haberse encontrado en otros mamíferos. Por ejemplo, los perros y los gatos a menudo muestran establecer aparentemente una conexión de causa y efecto que nos parece divertida o peculiar, como puede ser la situación por la cual un perro que, después de visitar el veterinario cuya clínica tenga los suelos embaldosados de un azulejo concreto, rechace a partir de entonces acercarse a esa clase de suelos, estando o no en la clínica veterinaria.
Es debido a esta tendencia que la ausencia de una causa parece problemática.
Para resolver este problema, a veces se dice que los eventos aleatorios son causados por azar. Más que resolver el problema de la aleatoriedad, esto abre el enorme hueco de definir el azar. Es difícil evadir la circularidad al definir el azar en términos de aleatoriedad.
Algunos discuten que la aleatoriedad no debe confundirse con la impredecibilidad práctica, la cual es una idea que está relacionada con el uso ordinario. Algunos sistemas matemáticos, por ejemplo, pueden verse como aleatorios; sin embargo son de hecho impredecibles. Esto se debe a una dependencia sensible de las condiciones iniciales. Muchos fenómenos aleatorios pueden exhibir características organizadas a algunos niveles. Por ejemplo, mientras la media porcentual del incremento de la población humana es bastante predecible, en términos sencillos, el intervalo real de los nacimientos y muertes individuales no se pueden predecir. Esta aleatoriedad a pequeña escala se encuentra en casi todos los sistemas del mundo real. La ley de Ohm y la teoría cinética de los gases son estadísticamente descripciones reales de cálculos (por ejemplo, el resultado neto o la integración) de vastas cantidades de números de eventos individuales atómicos, cada uno de los cuales son aleatorios, y ninguno de ellos son individualmente predecibles.
Los sistemas caóticos son impredecibles en la práctica debido a su extrema dependencia de las condiciones iniciales. Si son o no impredecibles en términos de la teoría de la computabilidad es objeto de actuales investigaciones. Al menos en algunas disciplinas la teoría de la computabilidad, la noción de la aleatoriedad termina siendo identificada con impredecibilidad computacional.
Se requiere la impredecibilidad en algunas aplicaciones, tales como los múltiples usos de los números aleatorios en la criptografía. En otras aplicaciones, como el modelado o la simulación, la aleatoriedad estadística es esencial, pero la predictibilidad también sirve de ayuda (por ejemplo, cuando se ejecutan repetidamente simulaciones o pruebas de reconocimiento, puede ser muy útil poder volver a ejecutar el modelo con la entrada aleatoria exacta numerosas veces).
Lidiar sensiblemente con la aleatoriedad es un problema duro para la ciencia moderna, las matemáticas, la psicología y la filosofía. Meramente definirlo adecuadamente para los propósitos de una disciplina es dificultoso. Distinguiendo entre aparente aleatoriedad y la verdadera no ha sido más sencillo. En adición, asegurar imprevisibilidad, especialmente contra una grupo bien motivado, ha sido más difícil aún.
Algunos filósofos han discutido que no hay aleatoriedad en el universo, solo imprevisibilidad. Otros encuentran la distinción sin sentido (ver determinismo para más información).
Algunos teólogos han intentado resolver la aparente contradicción entre la deidad omnisciente y el libre albedrío usando la aleatoriedad, arguyendo que si la deidad omnisciente conoce pasado, presente y futuro, las personas no tendrían una libertad total, puesto que realmente todo su futuro —que incluye las decisiones humanas libres— estaría ya predestinado y sabido, y esto contradiría una propiedad del libre albedrío que implica que una acción humana libre debe poder realizarse de un modo, o de su contrario, sin poder predecirse. Por tanto, para un libre albedrío han intentado usar de la aleatoriedad en los principios intrínsecos de la acción humana libre. Los discordianistas tienen una fuerte creencia en la aleatoriedad, el caos y en la impredecibilidad.
Los números aleatorios fueron investigados primero en el contexto de las apuestas, y muchos dispositivos aleatorizados —tales como los dados, las cartas y las ruletas— fueron primero desarrollados para ser usados en apuestas. La habilidad de producir justamente números aleatorios es vital en la apuestas electrónicas, y como tal, los métodos usados para crearlas son usualmente regulados por las juntas de control de juego gubernamentales.
Los números aleatorios son también usados para otros propósitos, donde su uso es matemáticamente importante, tal como en muestras de urnas de opinión; y en situaciones donde la equidad es aproximada por aleatorización, tal como seleccionar jurados. Soluciones computacionales para algunos tipos de problemas usan extensivamente números aleatorios, tal como en el método de Montecarlo y en algoritmos genéticos.
En su libro Un nuevo tipo de ciencia, Stephen Wolfram describe tres mecanismos responsables de, aparentemente, la conducta aleatoria en los sistemas:
Las muchas aplicaciones de la aleatoriedad han llevado a muchos métodos diferentes para generar datos aleatorios. Estos métodos pueden variar dependiendo de cuán impredecible o estadísticamente aleatorios son, y cuán rápido pueden generar números aleatorios.
Antes del avance de los generadores computacionales de números aleatorios, generar grandes cantidades de números suficientemente aleatorios —importante en estadística— requería mucho trabajo. Los resultados podían ser algunas veces colectados y distribuidos como tablas de números aleatorios.
Las percepciones populares de la aleatoriedad están frecuentemente equivocadas, basadas en falacias lógicas. El seguimiento en un intento de identificar la fuente de tales falacias y corregir los errores lógicos.
Este argumento dice que ya que todos los números finalmente saldrán en una selección aleatoria, aquellos que todavía no hayan salido están «debidos» y es más probable que salgan pronto. Esta lógica es solo correcta si es aplicada a un sistema donde los números que salen son eliminados del sistema, así como cuando se barajan las cartas sin volver a ponerse en el mazo. Es verdad, por ejemplo, que una vez que una sota es eliminada de la baraja, la próxima carta es menos probable que sea una sota y más probable que sea otra. Sin embargo, si la sota es devuelta al mazo, y este es barajado de nuevo, hay una oportunidad igual de sacar una sota o cualquier otra carta la próxima vez. La misma verdad se aplica a cualquier otro caso donde los objetos son seleccionados independientemente y nada es retirado del sistema luego de cada evento, así como una tirada de dado, de moneda o la mayoría de las loterías.
Este argumento es prácticamente el inverso del anterior, y dice que los números que han salido de forma menos seguida en el pasado, continuarán viniendo con igual frecuencia en el futuro. Un argumento similar, «un número está bendito», puede estar diciendo que los números que han salido con mayor frecuencia en el pasado, lo harán en el futuro. Esta lógica es solo válida si la tirada es de alguna manera parcial y los resultados no tienen igual probabilidades —por ejemplo, con un dado pesado—. Si sabemos con seguridad que la tirada es justa, entonces eventos previos no tienen influencia en eventos futuros.
Nótese que en la naturaleza, eventos inesperados o inciertos raramente ocurren con frecuencias perfectamente iguales. De esta manera, el aprender qué eventos es posible que tengan probabilidades más altas observando los resultados, tiene sentido. Lo que es falaz es aplicar esta lógica a sistemas que son especialmente diseñados para que todos los resultados sean igualmente probables —tales como los dados, las ruletas, etc.—
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.