FASD
¿Quieres reaccionar a este mensaje? Regístrate en el foro con unos pocos clics o inicia sesión para continuar.
Buscar
Resultados por:
Búsqueda avanzada

Ir abajo
Gaston Broguett
Gaston Broguett
Asiduo/a
Valoración : 0
Actividad : 419
Cantidad de envíos : 127
Fecha de inscripción : 28/02/2021
Localización : Argentina
https://repositoriodeconfusiones-comentarios.blogspot.com/

¿Confusiones respecto del Determinismo e Indeterminismo? Empty ¿Confusiones respecto del Determinismo e Indeterminismo?

Dom Mar 07 2021, 03:53
Determinismo (1.1): (doctrina filosófica de la necesariedad)
Comulga con el principio de causalidad aunque, erróneamente se lo presume como comulgando, es decir se lo confunde, con el principio de uniformidad, independientemente del grado de previsibilidad (grado alcanzado respecto del principio de uniformidad) que podamos alcanzar – ej.: desde la mecánica cuántica hasta el demonio de Laplace –; básicamente, en ciencia: remite al determinismo científico.
 Problema de la medida: siendo, un sistema cuántico determinista (al menos, entre medidas), así como el medidor de su estado, entonces: ¿cómo es que su interacción resulta no serlo?
 ¿Determinismo, o qué?:
Si bien, suele ser común, confundir determinismo (principio de causalidad) con previsibilidad (principio de uniformidad). También, se suele confundir azar/aleatoriedad (determinista: teoría del caos, que presume, un determinismo científico y apela a una previsibilidad estadística – y ello, lo restringe al principio de uniformidad –), con azar/aleatoriedad (indeterminista/ontológico {imposible de probar (ausencia de regularidades) – puesto que: indefectiblemente, nos encontraríamos inmersos en una inducción incompleta e incluso, implicaría que, lo acontecido, seria necesariamente irrepetible. Lo cual, a su vez implicaría, la existencia de cierto grado de previsibilidad (sabríamos, al menos, aquello que no acontecería. Y si, sé que esto, no se condice con nuestras experiencias/observaciones, pero es que, a algunos, ni deletreándoselo). En cuyo caso: lo observado, refuta éste tipo de azar/aleatoriedad – e imposible de demostrar – al menos, que apelemos a replanteos improcedentes de términos y/o a lógicas para-consistentes –, y especialmente, estaríamos saltándonos, el problema de la potestad teórica respecto de la empíria, mismo que, vuelve irrelevante, cualquier presunta demostración}.
Hasta donde creo comprender. El azar/aleatoriedad, puede ser epistémico u ontológico – en lógica bivalente –. Según el anterior análisis, de ser ontológico, es indemostrable (teóricamente – por auto-refutatorio –) e inverificable (empíricamente – por auto-refutatorio entre otras limitaciones –) – y fundamentalmente: contrario, a lo observado (la realidad) –. Ahora. De ser éste, epistémico, el que se deba a: una presunta no-localidad – inexistencia del realismo local (presuntamente probada, mediante la observación experimental de violaciones tipo Bell) –, o a las limitaciones en las actuales herramientas experimentales – computacionales y/o mensurables (arbitraria precisión, en especial, respecto de la medición simultanea de observables/magnitudes conjugadas/complementarias {independientemente del sin sentido o no de la interpretación que de ella se proponga como paradigma}-{imposibilidad, al menos actual, de descubrir agentes físicos capaces de aumentar dicha precisión observacional}) –, resulta ser, para mí, respecto de la existencia o no del libre albedrío, irrelevante.
 Pregunta, dirigida a adoradores insuficientemente críticos del conocimiento científico: las fluctuaciones cuánticas (generación y aniquilación de pares partículas-antipartículas de partículas virtuales – relaciones de incertidumbre de Heisenberg –), las desintegraciones radiactivas (actualmente correlacionada con los neutrinos) las presuntas violaciones de las desigualdades tipo Bell, entre otras incertidumbres de la física modernas, son producto de: ¿leyes y constantes físicas actualmente desconocidas, caprichos divinos o del indeterminismo (azar/aleatoriedad ontológica)? {¿y según el fisicalismo?}.
La gran mayoría, de entre aquellos, asegurara que: se debe exclusivamente al indeterminismo (azar/aleatoriedad ontológica) – en forma alguna, confundible con: indeterminismo (azar/aleatoriedad epistemológica) –. A lo que, descartando la imposibilidad de probar un indeterminismo (azar/aleatoriedad ontológica), restaría por concluir que: por descarte, dicho indeterminismo (azar/aleatoriedad ontológica), se deberá exclusivamente al producto de caprichos divinos.
Y sí. Me gusta mucho, usar la mayéutica – mayéutica, dirigida a quien cree no saber al respecto de algo o, la ironía socrática, dirigida a quien cree en algo erróneo –. Aunque, para los estándares actuales de terquedad, en general, no logro ni siquiera mellar infinitesimalmente, la temeraria fe depositada en una afirmación flagrantemente inconsistente como: el cosmos, a escala cuántica, es indeterminista (azar/aleatoriedad ontológica).
 …
Nota (mi confusión, parece ser tal que, incluso puedo sembrar duda al respecto de lo anterior): me gustaría recalcar que: obviamente, si comulgamos con que, parecen existir objetos (por ej.: el cosmos, la auto-observación, etc.) cuyos modelos explicativos (por ej.: de su existencia) o descriptivos (por ej.: de sus características), remiten necesariamente a sistemas lógicos para-consistentes o, a lo menos, de mayor poder expresivo (descriptivo/explicativo) al de la lógica bivalente). En consecuencia, afirmar que: el indeterminismo ontológico/absoluto, resulta ser necesariamente inexistente, implica cierto grado de contradicción en el modelo explicativo elegido. Corolario: no debería restringirse, al ámbito de la lógica bivalente, la respuesta de si, resulta inexistente o no, el indeterminismo ontológico/absoluto.

Determinismo científico (1.1): (paradigma científico)
Postula que, el cosmos, evoluciona – temporalmente hablando –, en forma completamente condicionada, aceptando – a pesar de ello – cierto grado de imprevisibilidad.
 Aunque, no son pocos, los que no dudan en acotar: salvo, respecto de específicas mediciones cuánticas – la superposición de estados cuánticos y los sistemas cuánticos entrelazados –, la evolución física del cosmos resulta ser: determinista – ¿omnisciencia, quizás? –.
Critica: Ahora, haciendo a un lado lo auto-contradictorio de aceptar un indeterminismo/indeterminismo procedimental, el resultado de dichas específicas mediciones cuánticas, resulta ser: probabilísticamente determinista. Y, dado que, la estadística, a mi entender, implica un determinismo subyacente (cierto grado de uniformidad) – algo así como, presumir/necesitar la existencia de variables ocultas, que según, la interpretación de específicos experimentos de la actualidad: presuntas comprobaciones de violaciones, por parte de la mecánica cuántica (predicciones), de las desigualdades tipo Bell (respecto de un realismo local), deberían ser necesariamente superlumínicas, y consecuentemente, violarían el principio de localidad clásico/restringido (convirtiéndolo en un realismo no-local) –. Además, recordemos que: si bien, todo debería ser reducible a fenómenos del mundo cuántico – en consecuencia: dependiente del mismo –, la superposición de estados cuánticos y el entrelazamiento de estados cuántico, son fenómenos que, difícilmente mantienen su coherencia a nivel clásico. Por tal motivo, resultarían ser poco relevantes en dicho ámbito.
Incluso más. Si bien, lo intento precisar mucho más en otro post. Aun, confundiendo el principio implicado (principio de causalidad x principio de uniformidad), su ampliación al ámbito del cosmos (algunos, al menos, pretenden restringirlo al ámbito cuántico del cosmos), entre otros equívocos, no parecen preocupados por: los resultados experimentales de SGs(fuertes) secuenciales (configurados con un diferencial angular de 0°/180°) que, por alguna razón, no prueban la realidad (en este contexto: la existencia de valores – estados bien definidos – de las propiedades físicas, independientes – es decir: previos – de su medición). Menos aún, de la falsada equiprobabilidad angular y, aun así, injustificadamente presumida en estos SGs(fuertes).

Corolario: ¿Si, lo teorético no reviste necesaria potestad respecto de lo empírico, implicaría eso que: el determinismo/indeterminismo procedimental podría ser falso?
 …

Indeterminismo (1.1): (doctrina filosófica de la no-necesariedad)
Absurda hipótesis científico-filosófica confundida con una especie de azar/aleatoriedad – caos indeterminista – que, debiendo rechazar al principio de causalidad (lo que constituye el absurdo lógico/empírico antes mencionado) y excluirse del principio de uniformidad, erróneamente, se la suele referenciar (es decir: a la absurda hipótesis antes mencionada) a éste – más precisamente: a cierto grado de imprevisibilidad en el conocimiento científico mismo que, se remite injustificada y absurdamente a: cierto grado de indeterminación (en principio local) – en los valores de algunas (aunque, ese , se totaliza injustificadamente) magnitudes físicas – presente en la Naturaleza (lo físico) –.
Nota: considero, a dicha condición excluyente: inverificable. Puesto que: probar/afirmar, la inexistencia de uniformidad alguna, implica necesariamente probar/afirmar la existencia de cierta uniformidad – por ej.: dado (A), (B) acaece en una única ocasión; además de implicar que los posibles resultados de (A) deben necesariamente ser infinitos menos uno (condición inobservable incluso a escala cuántica) –; salvo, en alguna lógica para-consistente en donde, a dicha auto-contradicción no se le otorgue el valor de verdad: (falso), o se dé, a mi entender, un replanteo improcedente de la definición del principio de uniformidad, volviéndolo inmune a dicha auto-contradicción.

Azar/Aleatoriedad/Caos (determinista) (1.1):
Remite, al grado de desconocimiento de los estados físicos de un sistema.
Trata, respecto de sistemas (dinámicos) deterministas (comportamiento completamente condicionado) y muy sensibles a las variaciones en las condiciones iniciales (pequeñas variaciones, en dichas condiciones iniciales pueden implicar, grandes diferencias en el comportamiento futuro).
Lamentablemente, según mi experiencia, o se desconocen o se infravaloran o se mal entienden (peor se comprenden) todos o algunos de los siguientes puntos:
1) Confundir azar/aleatoriedad/caos (determinista) – es decir: cierto grado de imprevisibilidad – con indeterminismo (independientemente de si: es epistémico u ontológico). Siendo que (cansado de repetirlo): el azar/aleatoriedad/caos (determinista) – es decir: cierto grado de imprevisibilidad –, remite exclusivamente al principio de uniformidad – a saber: en idénticas circunstancias – es decir: sin alteraciones significativas y obviamente, con dependencia del grado de precisión experimental actualmente alcanzable –, una causa tiene siempre el mismo efecto –. Mientras que (cansado de repetirlo): el determinismo/indeterminismo – es decir: la necesaria secuenciación de sucesos –, remite exclusivamente al principio de causalidad – a saber: todo efecto tiene causa –. Confusión está, fuente de todo tipo de rebusques y falsos dilemas.
2) La inexactitud del conocimiento sensible (producto de una relación: desconozco observaciones, en última instancia, independientes de algún observador (es decir: mediante un agente/mensajero físico/no-físico)) – sea ésta, superable en cierto grado o no –.
Nota: no hay azar/aleatoriedad, en las relaciones de incertidumbres (puesto que: tratan, exclusivamente, de la incertidumbre en la medición simultanea de observables/magnitudes conjugadas/complementarias {independientemente del sin sentido o no de la interpretación que de ella se proponga como paradigma} – es decir: ni tan siquiera, debería extenderse su aplicabilidad hasta abarcar todo el ámbito de la mecánica cuántica –).
3) El déficit computacional (potencia de cálculo).
4) La recursión infinita (cálculos que se auto-implican).
5) Confundir azar/aleatoriedad en la medida con indeterminación ontológica.
6) Confundir determinismo científico con previsibilidad – y, consecuentemente: nuevamente confundir causalidad con uniformidad –.
7) Y lo obvio (aunque, dado el número de veces que lo he expresado de forma diferente sin, por los dichos de mis interlocutores, siquiera haber sido entendido, me da que…). Bueno. A saber (repito): el azar/aleatoriedad, remite a un experimental proceso/mecanismo – lo restrinjo al ámbito de lo experimental, pues en lo abstracto (es decir: en lo teórico), el azar/aleatoriedad es solo aparente (es decir: lo pseudo-aleatorio). A sabiendas de que: existen algoritmos que introducen valores experimentales presumidos como aleatorios (es decir: en última instancia, una presunción/verificación circular – ej.: usar, como semillas del algoritmo, las polarizaciones de específicos fotones provenientes de astros muy lejanos –). Y, a fin de cuentas: el resultado, deviene siendo determinado por los valores de sus variables y las operaciones en ellas aplicadas (F(x)=y) –.
Éste, a su vez, remite esencialmente a una específica secuenciación de propiedades y operaciones – es decir: a especificas entidades, leyes y constantes físicas –. En consecuencia. Derivar de ello, un azar/aleatoriedad – sea ontológica o epistémica –, resulta ser: un oxímoron en el ámbito teórico y un indemostrable – dado que: se auto-refutaría al siquiera pretender demostrarse (físicamente) – en el ámbito físico – yo lo extendería al ámbito no-abstracto, pero eso parece ser para otra década –. ¿Algún atisbo de entendimiento? Bien. A ver qué pasa con lo siguiente.
Según, la casi totalidad de físicos teóricos/experimentales y sus devotos, resulta obvio y en ello indiscutible – es decir: experimentalmente demostrado hasta el hartazgo el azar/aleatoriedad ontológica {en forma alguna, una absurda interpretación del modelo manifiesta su seguridad divulgativa} – el carácter intrínsecamente aleatorio (es decir: intrínseco de lo físico) de la naturaleza – si bien, algunos, al menos, lo restringen a cierto ámbito de la naturaleza –. Con descripciones/explicaciones como por ej.: una partícula (entidad física elemental), se presume regida por específicas leyes y constantes físicas (deterministas y, en ello, su evolución también se presume como determinista) mientras no se la observe (mida); en cuyo caso, se presume regida por específicas leyes y constantes físicas (estadísticas y, en ello, su evolución también se presume como estadística – es decir: aleatoria/no-previsible respecto de los casos particulares pero, con cierto grado de regularidad/previsibilidad respecto del grupo –). Acto seguido y sacándose de la manga, se afirma que: estos resultados experimentales, demuestran indiscutiblemente – ahora sí, ya no hay posibilidad alguna de variables ocultas (locales o no), es decir: de algún grado de desconocimiento experimental o impotencia de cálculo (inexactitud del conocimiento sensible, déficit computacional, regresión infinita, etc.); que va, actualmente poseemos la suficiente, como para decretar infalible y coherentemente {si, sarcasmo}, su inexistencia – la aleatoriedad intrínseca de lo físico. Como si: la partícula en cuestión, posteriormente a tener un comportamiento determinado por ciertas reglas, pasase a tener un comportamiento indeterminado por regla alguna y, al mismo tiempo – es decir: sin siquiera despeinarse intelectualmente {si, sarcasmo} –, determinado por ciertas reglas estadísticas – como si éstas, no fuesen reglas en absoluto, pero de alguna forma reglaran –.
Parodiando esta absurda propuesta. La partícula en cuestión, espera (condición de cambio de sumisión) hasta que se la observe (mida) para, en dicho instante, cambiar su sumisión al paradójico (aunque, irreconocido como tal) mecanismo de la moneda-virtual consistente en: virtual/mágica/fantástica/divinamente, arrojar una “moneda”, siendo su “cara” contrapuesta al “piso” alcanzado, lo que determina su comportamiento/resultado (inmediata evolución pos medida) – siendo, a su vez lo anterior, de alguna no-paradójica forma, un condicionamiento incondicionado (es decir: de alguna forma, está regida por el mecanismo de la moneda-virtual y, al mismo tiempo, no lo está {recordemos que, se presume un resultado indeterminado, basado en una indiscutiblemente probada aleatoriedad intrínseca de lo físico/lo ontológico}. Y así, hemos finalmente alcanzado los misterios de los físicos/de lo mágico/de lo fantástico/de lo divino, ¡que así sea! {si, parodiando el oxímoron}) –. ¿Alguna luz en la distancia? Que va. O los milagros no existen o están restringidos a otros.
Finalmente: espero, aunque probablemente será sentado o ya estirado, que los científicos trasnochados (es decir: de insuficiente conocimiento epistémico) y filósofos trasnochados (es decir: de insuficiente capacidad de análisis) – obviamente, descarto a los divulgadores y devotos, por considerarlos casos perdidos o hipócritas del “ya lo sabía” cuándo el paradigma cambie –, se den cuenta de lo idiotas e inútiles que han sido aquellos que aseguraban/demostraban/probaban/juraban/etc. la existencia de un indeterminismo procedimental – por ej.: la, recontra probada experimentalmente, aleatoriedad intrínseca (ontológica) de la naturaleza –. La de años de física y epistemología desperdiciado en la creación de fabulas respecto del “mundo cuántico” – agárrate, la realidad cuántica supera a la ficción e incluso, a tu imaginación. Estudia física chaval y serás tan guay como yo –.

Nota: ¿Orden o desorden, irreversible?
Los desarrollos recientes de la física y de la química de no-equilibrio, muestran que: la flecha del tiempo puede ser fuente de orden. Ya era así en ciertos casos clásicos simples, como la difusión térmica. Por supuesto que las moléculas – de hidrógeno y nitrógeno, digamos, dentro de una caja hermética – evolucionarán hacia una mezcla uniforme. Pero, calentemos una parte de la caja y enfriemos la otra. El sistema evoluciona entonces hacia un estado estacionario en que la concentración de hidrógeno es más elevada en la parte caliente y la de nitrógeno en la parte fría. La entropía producida por el flujo de calor (fenómeno irreversible) destruye la homogeneidad de la mezcla. Por lo tanto, se trata de un proceso generador de orden, un proceso que sería imposible sin el flujo de calor. La irreversibilidad conduce a la vez al desorden y al orden. Lejos del equilibrio, el papel constructivo de la irreversibilidad se torna aún más sorprendente.
o El fin de las certidumbres (Ilya Prigogine).
Critica: no me parece un ejemplo valido de una irreversibilidad que conduzca al orden, pues, difiere del enfoque tradicional en que: dicho sistema físico, no resulta ser cerrado/aislado, dado que, se necesita de un constante diferencial de temperatura en los límites de su volumen (energía no contabilizada) para que “dicho orden” se mantenga.

Superdeterminismo (1.1):
En mecánica cuántica, el superdeterminismo, es una hipótesis científica que pretende evadir el teorema de Bell. El teorema de Bell, depende de la asunción del libre albedrío, que no se aplica a las teorías deterministas. Es concebible que, alguien pueda explotar esta laguna para construir una teoría local de variables ocultas que reproduzca las predicciones de la mecánica cuántica.
Los superdeterministas, no reconocen la existencia de oportunidades o posibilidades reales en el cosmos. El teorema de Bell, supone que los tipos de mediciones realizadas en cada detector pueden ser elegidos independientemente entre sí y de la variable oculta que se está midiendo.

Determinismo procedimental (1.1): (licencia de autor: secuencialidad intrínseca)
Hipótesis de inevitabilidad de lo acaecido. Remitida incluso, al proceso de toma de decisión (consciente). Y, fundamentada exclusivamente, en el principio de causalidad – más precisamente: en su necesaria secuenciación (inevitabilidad metodológica) {una especie de principio de precedencia: la causa, antecede al efecto} –, resultando así, independiente del principio de uniformidad – que remite a que: en idénticas circunstancias (es decir: sin alteraciones significativas y obviamente, con dependencia del grado de precisión experimental actualmente alcanzable), una causa tenga siempre un mismo efecto. Es decir: del grado de previsibilidad (determinismo Laplaciano) –.
Sintéticamente: el inevitable resultado de un proceso – al actual estado del cosmos, le antecede un, metodológicamente necesario (que, dada la innecesaria potestad de la teorética respecto de la empíria, no debería extenderse, al menos incuestionablemente al ámbito empírico, aunque, de no hacerlo, terminaría por ser disruptivo respecto de todo modelo descriptivo/explicativo de lo empírico), previo estado –.
 Epicuro: el que dice que todo acontece por necesidad nada puede objetar al que niega que todo acontece por necesidad, pues esto mismo, afirma que acontece por necesidad.
Critica: aforismo – el anterior –, que resulta irrelevante, como contra argumento del determinismo.
 …En (La Lógica de la investigación científica), como también en los trabajos posteriores, Popper considera que todo el tema se centra en la predictibilidad. La tarea de la ciencia, como sostiene, consiste en proponer leyes a partir de las cuales se puedan deducir predicciones. En este sentido hay dos tipos de leyes en la física. Las primeras trabajan con variables causales y permiten predecir con toda precisión un suceso. Las segundas, lo hacen con variables estadísticas y permiten predecir una probabilidad. En el primer caso la predicción es un valor preciso para una variable, en el segundo una frecuencia estadística (indeterminismo y democracia, K. R. Popper, Manuel Pavón).
 …
Nota: así como, el cosmos/universo es (entre otras limitantes descriptivas/explicativas, como ser: la, empíricamente, innecesaria (por inverificable) potestad teorética respecto de la empíria – FLC –) cosmogónicamente contradictorio/auto-contradictorio y, en consecuencia, la sensación (qualia) de inevitabilidad de su existencia (física, no-física y lógica), podría ser tan solo, otra ilusión que algún fabulador (personal/impersonal) nos condiciona completamente a sentir. El determinismo procedimental (que implica, la inexistencia del indeterminismo procedimental (así como, del indeterminismo/indeterminación, que se pretende como paradigma interpretativo de la cuántica, por ser éste, auto-contradictorio), podría ser otra –  –. En tal caso: ¿cuáles serían sus consecuencias?

Indeterminismo procedimental (1.1): (licencia de autor: no-secuencialidad intrínseca)
Hipótesis de evitabilidad de lo acaecido – aunque auto-contradictoria (una no-secuencial secuenciación) –. Remitida incluso, al proceso de toma de decisión (consciente). Y, fundamentada exclusivamente, en la negación del principio de causalidad – más precisamente: en la negación de su secuenciación (evitabilidad metodológica – es decir: en el ámbito teórico –) {una especie de negación del principio de precedencia: la causa, no antecede al efecto. Sintéticamente: remite a lo inconcebible/lo auto-contradictorio (una no-secuencial secuenciación)} – y, excluyéndose completamente del principio de uniformidad – negación del mismo, con lo cual, se la suele confundir –.
Nota: haciendo a un lado el obvio absurdo de esta hipótesis. Considero, a dicha condición excluyente (es decir: del principio de uniformidad), como: inverificable (a sabiendas, de la existencia de los (FLC), entre otras limitantes descriptivas/explicativas como por ej.: la, empíricamente, innecesaria (por inverificable) potestad teorética respecto de la empíria). Puesto que, además de que, incluso en el modelado de específicos sucesos cuánticos – por ej.: entrelazamiento cuántico de estados –, subyace cierto grado de previsibilidad estadística. Comprobar la inexistencia de regularidades en un sistema dinámico, remite fundamentalmente al argumento dirigido al silencio. Es decir:
 Al grado de eficacia con que intentamos constatarla: sin lograrlo {resultando significativo ese silencio de rastros – obviamente su validez esta además temporalmente condicionada –}.
 A nuestra capacidad de detectarla (rastros).
Lo que, finalmente, nos remite a una dependencia del grado de confianza depositado en esas dos premisas – es decir: a nuestra presunta responsabilidad y capacidad inmejorable (presunción implícita en la afirmación de ausencia de rastros) –.
En consecuencia. Afirmar, haber comprobado la inexistencia de regularidades en un sistema dinámico, resulta ser procedimentalmente imposible en ciencia. Es más. Dicha afirmación, paradójicamente implicaría, la existencia de cierta regularidad en el sistema dinámico – a saber: la imposibilidad de que, una específica causa, repita un específico efecto –. Obviedad esta última que, al parecer, es insufriblemente negada/ninguneada por expertos teóricos y prácticos en física/ciencia (y, por consiguiente, por sus adoradores), apelando a frases como: “eso es filosofía/metafísica”, y su corolario: “la filosofía, ha muerto” – como si, los absurdos lógicos/físicos (modelo lógico/físico), dejaran de serlo, tan solo por pertenencia (principio de autoridad) –. Y, bue….
Nota: haríamos bien, en resaltar que: confundir el modelo (o, más precisamente, alguna de sus interpretaciones) con lo modelado, no implica necesariamente, que dichas interpretaciones sean inexistentes, al menos, en el ámbito de la realidad – dado: el inevitable (a menos que, apelemos a sistemas lógicos para-consistentes), grado antinómico intrínseco de toda explicación/descripción ultima –.

Previsibilidad (1.1): (predictibilidad)
Remite al grado de conocimiento de los estados de un sistema.
Contrariamente a lo que he leído. No comulgo con la idea de separarlo en clases la predictibilidad (clásica: precisión arbitraria y cuántica: precisión estadística), sino más bien, en clases de precisión – ver manejo de datos experimentales –: mayor precisión, implica menor certidumbre.
[…]

PD: quedo largo pues todavía no puedo poner links.
Volver arriba
Permisos de este foro:
No puedes responder a temas en este foro.