lunes, 23 de enero de 2017

Certeza vs Incertidumbre

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

¿El entrelazamiento cuántico, implica necesariamente la existencia de interacciones superlumínicas – descartando atajos extra-dimensionales –?
Bien, podríamos concluir que: siendo las partículas adimensionales (en ocasión de salvar ese límite de velocidad infranqueable de la RE), bajo circunstancias específicas; éstas están conectadas (a través de cualquier distancia). Conformando, lo que denominaremos como: sistema entrelazado. Debiendo aclarar, que tal unión-fantasmal-a distancia (correlación no-local) no implica: ni que las componentes del sistema dejen de ser adimensionales (hasta cierta precisión: localmente coordenable), ni un nexo dimensional (tentáculo) entre ellas. Para ello, solo necesitamos aceptar que: la distancia entre los componentes del sistema, es cero; independientemente de la separación (distancia mayor a cero), en que dispongamos los dispositivos de medición. Parafraseando: son uno, cualquier similitud con la new age; es mera coincidencia).
Según mi experiencia, es más fácil para los físicos actuales aceptar que: lo-separado, en ocasiones está unido a pesar de la distancia (apelando a una entidad matemática: no-separabilidad), a preocuparse por lo contradictorio de la descripción. Además, ¿qué relevancia puede tener, el que nos carguemos una circunstancial separación (distancia); con tal de salvar ese límite de velocidad infranqueable de la RE? E incluso, podríamos considerarla: una solución ad-hoc y listo.
Siento que, por alguna razón, los contrasentidos no limitan a la ciencia. Y congruentemente, ésta no desvaloriza otros modelos por contenerlos. ¿O estaré siendo demasiado ingenuo?

La evolución científica, fue acotando ese límite de velocidad infranqueable de la RE, a:
§  Partículas usadas en la transmisión de datos (vía de comunicación (señal: influencia física, en su acepción pragmática) que pueda ser utilizada, en la transmisión de datos).
§  Partículas que deban acelerar hasta dicho límite (contraejemplo: taquión, hipotética partícula superlumínica).

¿La causalidad relativista está en problemas?
§  En problemas, puesto que según la interpretación Einsteniana de la causalidad relativista, ninguna influencia física puede propagarse superlumínicamente.
§  Temporalmente a salvo, puesto que según la interpretación pragmática de la causalidad relativista, estas influencias físicas que se propagan superlumínicamente; no entran en conflicto con la causalidad relativista. Dado que, los fenómenos donde se viola la separabilidad; no permiten la transmisión de señales superlumínicas (utilizables).

Interacción física:
Consiste en una acción recíproca entre componentes físicos (relación).
§  Interacción: Acción que se ejerce recíprocamente entre dos o más objetos, agentes, fuerzas, funciones, etc.

Señal:
Alteración que se introduce o surge en el valor de una magnitud física, que sirve para la transmisión de datos.

No-separabilidad:
La no-separabilidad (entidad matemática) que representa: la imposibilidad de factorizar la distribución de probabilidad de dos variables, como producto de distribuciones independientes.
§  En el contexto físico:
Dado que, básicamente la función de onda de probabilidad (entidad físico-matemática) describe el estado físico de un sistema (cuántico); mediante la distribución de probabilidades de sus observables (magnitudes físicas). En los casos donde los estados de dos o más partículas, se expresen como: una superposición lineal de dos o más estados, que no sea factorizable como producto de estados independientes. Las distribuciones de probabilidad para observables de ambas partículas serán en general dependientes (redundantemente: no-separable).

¿Cómo determinar (experimentalmente) que las correlaciones de los componentes de un sistema entrelazado son instantáneas?

¿Cómo determinar (experimentalmente) que el colapso de la función de onda de un sistema entrelazado es instantáneo?
§  Experimento 1.0: usar dos locaciones muy separadas (cada una con una componente de un sistema entrelazado) y efectuar las mediciones (en ambas locaciones) de forma sincronizada (simultáneamente). De mantenerse las correlaciones típicas (violaciones de las desigualdades de Bell – estadísticamente hablando) de un sistema entrelazado, dicha correlación (representada como un colapso de la función de onda del sistema) al menos debería ser superlumínica – aunque no necesariamente instantánea. Claro que actualmente usan el eufemismo-cuántico: correlación no-local (probablemente instantánea).
§ 

P.D.: Los términos: correlación no-local, dependencia estadística, no-separabilidad y violación de una desigualdad de Bell, son sinónimos en este contexto. Puesto que son denominaciones diferentes, para un mismo tipo particular de vínculo (correlación independiente de la distancianecesariamente superlumínica –).

---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------

Higgs y el efecto masa:
Tengamos en cuenta que, para la física actual existen dos propiedades medibles diferenciables (efectos) denominados masa: la masa gravitacional y la masa inercial – diferenciación que obviamente no remite al principio de equivalencia –. Y dado que, en la actualidad la gravedad no forma parte del modelo estándar de física de partículas elementales – y en consecuencia del campo de Higgs – remitiré el termino masa exclusivamente a: la masa inercial.
Siendo la consecuencia del mecanismo de Higgs – establecido para explicar lo que denominamos: ruptura espontanea de la simetría electrodébilel (efecto) masa de las partículas fundamentales. Más precisamente de:
§  Bosones de la interacción débil: W+/- y Z^0.
§  Quarks: Up, Down, Charm, Strange, Top y Bottom.
§  Leptones: Electrón, Muón, Tauón y Neutrino (electrón, Muón y Tauón).
Dado que, estas partículas elementales son los constituyentes fundamentales del átomo, cabría de esperar que dieran cuenta de toda su masa. Lamentablemente no parece ser el caso. Según datos experimentales – acarreando las dificultades de su medición –, la masa del quark Up oscila entre (1,7 y 3,1 MeV) y la del quark Down oscila entre (4,1 y 5,7 MeV), siendo la masa del protón aprox. de (939 MeV). Bien, según nuestro modelo, el protón está constituido por tres quarks (dos Up y un Down – denominados: [quarks de valencia] –); por lo tanto, a lo mucho estaríamos rondando el [1% de su masa] – desestimando obviamente al electrón, puesto que su masa es solo de aprox. (0,51 MeV) –. Entonces, ¿y el resto? Bueno, no se preocupen, puesto que se considera actualmente que el resto – [99% de su masa] –, se debe a la [energía de su interacción fuerte (campo de gluones)], y a la [energía cinética y potencial de sus quarks y antiquarks]ver nota siguiente –.

Nota: en la interacción fuerte, existe una zona donde los quarks y antiquarks están tan próximos entre sí que la energía de confinamiento resulta insignificante: libertad asintótica. Pero, a medida que se alejan unos de otros, esta crece indefinidamente: confinamiento de color. Es común, representar esta interacción con la analogía de un resorte – dado que, la energía de confinamiento (resistencia en nuestra analogía) crece con la distancia (estiramiento en nuestra analogía) –. En condiciones normales, los quarks y antiquarks que componen un nucleón intentan constantemente alejarse entre sí, aunque sin lograr escindirse. Dado que, la energía de escisión resulta ser enorme, y el proceso de alcanzarla implicaría la creación de pares de partícula-antipartícula – energía que así empleada resta energía cinética al quark/antiquark –, el quark/antiquark no logra escindirse: confinándolo.

Nota: <actualización> un nucleón está conformado por un número no especificado de quarks y gluones. La masa de un nucleón – por ejemplo el protón –, según la cromodinámica cuántica (QCD) está conformada – aproximadamente – de la siguiente forma:
1)    [H(m)≈(1/8) de su masa] – siendo la mitad de ésta debido a la masa de sus quarks extraños (que conforman solo una parte de los quarks de no-valencia) –, corresponde a la masa de sus quarks y antiquarks – valor derivado del mecanismo de Higgs –.
2)    [H(q)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus quarks y antiquarks.
3)    [H(g)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus gluones.
4)    [H(a)≈(1/4) de su masa], corresponde a la anomalía de traza de sus gluones – básicamente representa el confinamiento de los gluones –.
Técnicamente, la energía total del protón – responsable de su masa –, se compone mediante los Hamiltonianos anteriores: [H(QCD)=H(m)+H(q)+H(g)+H(a)].
Lo que en (MeV) seria:
§  Masa de sus quarks de valencia ≈ (10 MeV).
§  Masa del resto de quarks y antiquarks ≈ (110 – 160 MeV).
§  Energía cinética y potencial de sus quarks y antiquarks ≈ (270 – 300 MeV).
§  Energía cinética y potencial de sus gluones ≈ (320 MeV).
§  Anomalía de traza de sus gluones ≈ (190 - 210 MeV).


Nota:
Gravedad y mecánica cuántica: https://www.youtube.com/watch?v=eIMUQB0rfdE.

---------------------------------------------------------------------------------------------

Afirma que: ninguna teoría física de variables ocultas locales, puede reproducir, todos los resultados experimentales de la mecánica cuántica.
Nota: aunque, con la intención de restringirme lo más posible a mi (fuente principal: Wikipedia) y siendo ambos, superiores a la predicción clásica, tomaré como técnicamente idénticos – sin serlo, incluso en el mismo artículo –, a: (resultados experimentales y predicciones cuánticas) –.

El teorema de Bell, se sustenta en tres no dos, como suelo encontrar – premisas fundamentales:
1)   La realidad: (Re)
Los valoresestados bien definidos – de las propiedades físicas, existen independientemente de su medición – nota: tomemos en consideración que: aun, la oscilación de neutrinos, remite a un realismo, y aunque, indiferente para esta premisa, es incluso local –.
2)   La localidad: (Lo)
Las interacciones físicas, son dependientes de la distancia.
3)   La equiprobabilidad angular: (Eº) {Revisión personal}
Los valores de las propiedades físicas – al menos respecto: del spin (experimentos de Stern-Gerlach) y de la polarización electromagnética (experimentos de Polarización electromagnética) –, son angularmente equiprobables (precisamente del 50%) – aun sin medirlas –, implicando: la existencia de un máximo de predicción clásica (aprox. del 50%).

Experimento que estadísticamente comprobaría este teorema:
§  (VOL: variables ocultas locales).
§  (PME: puntuación media esperada).
§  (Corr: correlación).
Medimos, el spin – (momento angular intrínseco: S) – de partículas “presuntamente entrelazadas”, en los siguientes ángulos y obtenemos:
§  Predicción cuántica – 180º entre si (ej.: 0º,180º; 180º,0º)® (Corr de +1.00) {correlación cuántica}
Obtenemos los mismos resultados, el 100% de las veces.
§  Predicción cuántica – 90º entre si (ej.: 0º,90º; 90º,180º;…)® (Corr de 0.00) {correlación cuántica}
Obtenemos los mismos resultados, aproximadamente el 50% de las veces.
§  Predicción cuántica – 45º entre si (ej.: 0º,45º; 45º,90º; 90º,135º;…) ® (Corr de +0.71) {correlación cuántica}
Obtenemos los mismos resultados, aproximadamente el 71% de las veces.
§  Predicción cuántica – mismo (q) (ej.: 0º,0º; 45º,45º; 90º,90º;…) ® (Corr de -1.00) {correlación cuántica}
Obtendremos diferentes resultados, el 100% de las veces.
§  Predicción clásica – VOL por (q) (ej.: 0º,0º; 45º,45º; 90º,90º;…) ® (Corr de +0.50) {correlación clásica}
Obtendremos los mismos resultados, aproximadamente el 50% de las veces.
§ 
   



Nota: con la intención, de reducir variables estadísticas respecto de diferencias angulares que no sean de 45ºcritica: puesto que, medir el valor de la propiedad angular de algo a 45º (P1^45º y P2^45º), resulta experimentalmente diferente de hacerlo a 45º entre sí (P1^90º y P2^135º), es que, este enfoque de medir ángulos entre sí, entiendo, tiene la finalidad (a la vista de los resultados experimentales sin diferencia angular), de introducir incertidumbre en la medida (resultados experimentales), para posteriormente, determinar si, la correlación cuántica en estas específicas configuraciones experimentales, resulta ser idéntica a la correlación clásica –, propondría: contar con el mismo algoritmo pseudo-aleatorio, en ambas locaciones de detección, que variará el ángulo del respectivo detector, de forma que, siempre fuesen 45º entre sí.

Dado que, se agrupan los resultados experimentales altamente correlacionados y los menormente correlacionadosa mí entender actual, injustificadamente [G] –, tenemos que:
§  Puesto que, para VOL (altamente correlacionadas), obtenemos una (PME= (3(+)-(1-)/4(+,-) =+0.50) por columna del gráfico; implicando que: (Corr= 6(+)/8(+,-) y {2(-)/8(+,-)} =+0.75% y -0.25%).
§  Puesto que, para VOL (menormente correlacionadas), obtenemos una (PME= (3(-)-(1+)/4(+,-) =-0.50) por columna del gráfico, implicando que: (Corr= 6(-)/8(+,-) y {2(+)/8(+,-)} =-0.75% y +0.25%).
§ 

Conclusión:
En consecuencia y desestimando por completo [G], concluimos: puesto que, la predicción cuántica – (45º entre si ® (PME=+0.71=coseno(45º))) –, para estas específicas configuraciones experimentales, supera a la predicción clásica – (VOL por (q) ® (PME=+0.50)) –, la desigualdad de Bell resulta violada. Implicando, a su vez, que la predicción clásica, que se presume máxima, para cualquier teoría de variables ocultas locales, no resulta ser tal.
Finalmente. Dado que, se viola la desigualdad de Bell – es decir: es posible, predecir estadísticamente, con una probabilidad mayor al 50% (predicción clásica) –, implica que: al menos, una de las premisas fundamentales del teorema de Bell, resulta no ser verdadera – por ej.: existe, alguna forma de comunicación superlumínica (señal actualmente no-utilizable), entre las componentes del sistema entrelazado que alcanza una correlación de +0.71 –.
Nota: este teorema de la física, no prueba la completitud de la mecánica cuántica – (MC) –. Puesto que, en el futuro, se podrían construir:
§  una (MC’=   R +   L + Ø).
§  una (MC’=   R + ØL +   Eº).
§  una (MC’=   R + ØL + Ø).
§  una (MC’= ØR +   L +   Eº).
§  una (MC’= ØR +   L + Ø).
§  una (MC’= ØR + ØL +   Eº).
§  una (MC’= ØR + ØL + Ø).

[G]: si, se pretende justificar dicha agrupación, apelando a que: solo esas, poseen una (PME=+0.50) – y de entre estos, calcular el porcentaje de coincidencias: (+0.75%) –, en consonancia, con la máxima predicción clásica; sería como: seleccionar mayoritariamente las coincidencias y minoritariamente las discrepancias. Es decir: sesgar la muestra. Evitando así, que sea válido transformar la, en principio, proposición de Bell, en un teorema de la física.

Oscilación de neutrinos (1.1):
Los neutrinos, poseen las siguientes características mensurables:
§  Tres tipos: (electrónico: e), (muónico: m), (taúnico: t) y sus respectivas antipartículas.
§  Un spin de (1/2).
§  La interacción electromagnética, no les afecta por carecer de carga eléctrica.
§  La interacción fuerte, no les afecta – no los confina –.
§  La interacción débil, resulta ser su creador – desintegración radiactiva –.
§  La interacción gravitatoria, los condiciona muy débilmente – dada su insignificante masa (entre 2eV y 18MV) –.
§  Un proceso de oscilación de tipo – denominado: oscilación de neutrinos –, que transforma un tipo en otro, desde su creación – fuente –. En consecuencia, el tipo detectado depende del emitido y de la distancia recorrida hasta su detección.
§ 
Nota: según la (MC), este proceso de oscilación, no puede darse, si la diferencia entre las masas de las partículas fuese nula. Por lo que, deducen que: al menos uno de los tipos de neutrinos es masivoactualmente se acepta que los tres tipos lo son –.

Objeciones++:
§  Hipótesis del muestreo justo – juego limpio –: (loophole)
Afecta exclusivamente, a experimentos donde los resultados posibles son: (0, 1 y no-detectado) – por ej.: aun con los mejores fotodetectores disponibles, se pierden una fracción de estos –. Así como, una eficacia estadística, de la creación de los componentes entrelazados alejada del 100%.
§  Hipótesis de localidad o causalidad relativista: (loophole)
Afecta exclusivamente, a experimentos donde la medición de los componentes entrelazados, no se realiza, con una separación que elimine la posibilidad de una señal a (c) entre estos.
§  Posibles variaciones estadísticas debidas a cierta Decoherencia-selectiva:
Con la intención de descartar o disminuir, posibles variaciones estadísticas no tomadas en consideración –, debidas a interacciones físicas en el trayecto – recuérdese que, por alguna razón, no se da la decoherencia en el trayecto, a pesar de atravesar, entre otros sistemas físicos, el vacío cuántico –, se debería variar progresivamente, tanto la distancia como el medio transitado. Máxime, a sabiendas de que: los valores (resultados experimentales) de las propiedades físicas medidos, no son intrínsecos.
Puesto que, tanto en los experimentos de spinexperimentos secuenciales de Stern-Gerlach – así como, en los de polarización electromagnéticaexperimentos secuenciales de Polarización electromagnética (0º, 45º y 90º) –, reaparecen valores (resultados experimentales) de las propiedades físicaspreviamente filtrados –, es que, como mínimo, dichos valores (resultados experimentales) no pueden ser intrínsecos. Es decir: como mínimo, se deberán a una específica interacción física entre, el actual estado físico de lo por medirse (fundamentalmente: su spin y su ángulo de ataque) – resultado de posibles variaciones en su trayecto {desestimamos, de momento, las posibles interacciones con el resto de componentes del sistema entrelazado} – y la actual configuración física del aparato de medida – presumiblemente, conocida con precisión (aunque, a mi entender actual, existan fluctuaciones indetectables/incontrolables en el sistema) –.





Experimento de Stern-Gerlach: (sintéticamente)
Dado que, lo de (spin arriba: +1/2) y (spin abajo: -1/2), es solo una convención física – donde (1/2), referencia la probabilidad de deflexión de cualquiera de los dos ángulos (+ o -) –. En consecuencia. Lo de spin (+) o (-), en estos experimentos, remite exclusivamente al ángulo de deflexión – por convención física: orientado hacia el (polo norte: (+)) y (polo sur: (-) del dispositivo Stern-Gerlach) – del último campo magnético no-homogéneo que atravesó – desestimando alteraciones del mismo, en su trayectoria –. De ahí, que parezca como si misteriosamente, reaparecieran valores medibles de spin, previamente filtrados.
Se presume – descripción clásica –, que: como el electrón de valenciapartícula cargada eléctricamente – de por ejemplo, los átomos de plata (Ag), se encuentra en movimiento en torno a su núcleo – orbitándolo –, induce una corriente eléctrica en torno al átomo. Produciendo, al estar inmersa dicha corriente eléctrica, en un (campo magnético del dispositivo: B), un efecto de torque en el electrón de valencia (único), que tiende a alinear el (momento magnético del electrón de valencia (orbital): m) con (B). Efecto, que produce una variación de la energía del sistema (siendo (­.eje z: gradiente de B), Si (m.­=B.­) V:®E=(-m*B) {el átomo, tenderá a desplazarse en la dirección en la que (B) aumenta y terminando en (+)} F:®E=(+m*B) {el átomo, tenderá a desplazarse en la dirección en la que (B) disminuye y terminando en (-)}), por lo que: una partícula cargada, que atraviesa un campo magnético no-homogéneo, perderá o ganará energía, dependiendo de la variación que (B) produzca en la orientación de (m) – esencialmente: los campos magnéticos, ejercen fuerzas sobre objetos que poseen momentos magnéticos –.
En los experimentos de Phipps y Taylor, donde se emplearon átomos de hidrógenos (H) – por tener un único electrón, se esperaba observar una (única franja (ecuador) de detección: 0 {siendo el estado fundamental (L=0) y sus autovalores (2L+1), entonces: 1 única franja}), como cuando (B=0: deflexión nula); pero, se observaron las dos características –, los resultados fueron idénticos {aunque, en ambos experimentos, se termine empleado: un átomo eléctricamente neutro (Ag y H), con un electrón de valencia (único)}.
Bien. Pero, ¿cómo se determina que su deflexión, depende exclusivamente de la interacción entre el momento angular intrínseco del electrón de valencia y el campo magnético no-homogéneo externo? A ver. Si su fuente, fuese exclusivamente el (momento magnético nuclear: m), los resultados experimentales (ángulos de deflexión) de Phipps y Taylor, deberían ser aproximadamente: tres órdenes de magnitud mayor (masa(p)»masa(e-)*10^4). Además. Según la teoría del átomo de hidrógeno, encontrándose éste, en su estado fundamental y en ausencia de un momento magnético diferente al del proveniente del momento angular intrínseco (S) de un electrón de valencia (único) – (1s1/5s1), puesto que, de ser más de uno {¿incluso electrones, protones o neutrones libres?}, los electrones de valencia, se fastidiaría el cálculo de la deflexión {¿será que, se llevaría puesto hasta la cuantización (magnitudes físicas discretas), al menos, en estos específicos experimentos?} –, un campo magnético externo no-homogéneo (B), no afectaría su trayectoria – dato: en 1927, Ronald Fraser, recalculo el momento magnético nuclear de (Ag), resultando ser (m=0); en consecuencia, si fuese exclusivamente por (m), no se observaría deflexión alguna –.



Nota: cada vez, que considero aumentado mi conocimiento en mecánica cuántica, más me convenzo de que: resulta excluyente, la forma no-homogénea del campo magnéticono así su orientación –, creada por el dispositivo Stern-Gerlach, el que, se manifiesten o no fenómenos cuánticos – al menos, en estos específicos experimentos (obviamente, debemos determinar el grado de injerencia de las dimensiones y demás magnitudes físicas de los elementos del haz {por ej.: átomos de plata, que son eléctricamente neutros}) –, y no necesariamente, debido a cierto grado de discreción (discontinuidad) intrínseca en específicas propiedades y estados físicos de estos sistemas físicos la deflexión de los elementos del haz, resulta ser proporcional al spin y a la magnitud del gradiente de campo magnético (si aumenta la intensidad del campo magnético, aumenta el ángulo de deflexión) –. Quiero creer, que el uso de campos magnéticos no-homogéneos – siendo que: los átomos de plata, no son desviados por un (campo magnético homogéneo: (∂Bx/∂x=0, ∂By/∂y=0 y ∂Bz/∂z=0)) –, no tiene la exclusiva finalidad de introducir cuantización (discontinuidad) y consecuentemente incertidumbre (aleatoriedad) en la medida en estos específicos experimentosa excepción de dispositivos Stern-Gerlach consecutivos, idénticamente configurados –. Sino que, enfrentados con este nuevo suceso físico, se dispusieron a modelarlo, alcanzando tan solo, una precisión estadística. Ahora, si no podemos alcanzar una precisión no-estadística, ni tan siquiera, en el experimento de arrojar una moneda al aire y predecir la orientación en la que se detendrá; en principio, debido a insuficiente precisión y capacidad de cálculo – es decir: solo alcanzando una precisión estadística –. ¿Sería experimentalmente consistente, pretender alcanzar una precisión no-estadística, cuando las insuficiencias en ambos experimentos, resultan ser similares?

Sintéticamente. Puesto que, existen específicas configuraciones experimentales – incluso a escala cuántica (dispositivos Stern-Gerlach consecutivos idénticamente configurados) –, donde alcanzamos experimentalmente una precisión no-estadística:
La incertidumbre (aleatoriedad) en la medida, al menos, la remitida a estos específicos experimentos, no debería atribuirse a cierto grado de incertidumbre (aleatoriedad) intrínseca en específicas propiedades y estados físicos de estos sistemas físicos, sino exclusivamente, a limitaciones teórico-experimentales actuales.
Así como, cierto grado de cuantización (discontinuidad) en la medida, al menos, la remitida a estos específicos experimentos – en principio, introducida artificialmente, al emplear campos magnéticos no-homogéneos –, no debería atribuirse a cierto grado de cuantización (discontinuidad) intrínseca en especificas propiedades y estados físicos de estos sistemas físicos – al menos, hasta obtener resultados experimentales comprobatorios, empleando haces de partícula elementales de spin (1/2), así como, de compuestos de spin diferente a (1/2) –, sino, hasta entonces, a limitaciones teórico-experimentales actuales.
De hecho, inmersos en una concepción infinitamente reduccionista de la realidad – misma, que pondría de manifiesto estas limitaciones experimentales –, resulta imposible conocer/medir con precisión arbitraria una magnitud física (ni tan siquiera en sistemas físicos de escala clásica) – dada la imposibilidad de alcanzar una precisión infinita en el ámbito físico. nota: la existencia de magnitudes físicas complementarias y con ellas, las relaciones de incertidumbre de Heisenberg, remite exclusivamente, a la imposibilidad de medir sin alterar imprevisiblemente un sistema físico; y no, a la inexistencia de específicas propiedades y estados físicos en estos sistemas físicos (por ej.: posición, velocidad, energía y tiempo) –.
§  Aplicabilidad limitada: (haciendo a un lado la premisa fundamental (3))
Algo, que por experiencia, se pasa por alto en la divulgación científica – incluso corregida por expertos en la materia –, de este presunto teorema de la física, es su equivocada extensión a todo el mundo cuánticocosmos –. Es decir: puesto que, en apariencia, hemos descubierto una violación, sea de realidad y/o de localidad, en específicas configuraciones experimentalessistemas cuánticos entrelazados –, afirmamos, en forma inconducentemente a mi entender, que: el cosmos, o carece de realidad y/o de localidad. Afirmación que, aun de ser verdaderamente este un teorema de física, resulta ser inconducente. Esencialmente, porque: no todo el cosmos, se encuentra en un cosmológico estado de entrelazamiento cuántico, y menos aún, ha podido mantenerlo desde el BB.
§ 
Nota: debido, a una cantidad nada despreciable de objeciones en pos de: las demostraciones matemáticas, son apodícticas – ¿cómo puedes, siquiera dudar de un teorema? –. Argumentando, que hacerlo, implicaría caer en contradicciones como que: 1+1¹2 –. Es que, siento que debo acotar la siguiente opinión: lo teorético, no reviste potestad sobre lo empírico. Y hasta donde creo entender, la física construye conocimientos mediante: la observación de sucesos físicos y su posterior modelización. Que dicha modelización, contenga o no entidades y relaciones matemáticasherramienta eficiente –, resulta ser contingente. Es decir: no es que, las matemáticas provoquen o impidan, específicos resultados experimentales, lo que los provocan o impiden, son las propias interacciones físicas, que modelamos empleando matemáticas. Máxime, siendo, como creo que es, “El corolario del método científico”: puesto que, el conocimiento seguro resulta inverificable en el método científico, en última instancia, tan solo podemos aspirar a modelizar circunstancialmente lo observado; mismas que, de variar, terminará por provocar una variación en consonancia de su modelo representativo – otro ejemplo, aunque menos representativo, podría ser: la utilización de una misma ley científica, en diferentes marcos explicativos teóricos (teorías científicas), que en ocasiones, hasta llegan a ser antagónicos – {descartando errores humanos en las demostraciones matemáticas, así como en su ámbito de aplicación}.

Según el fisicalismo, ¿ciertos resultados de experimentos secuenciales de Stern-Gerlach y de polarizaciones electromagnéticas, dan indicios de que ciertos valores de las propiedades físicas no son intrínsecos?

Actualizaciones:
Puesto que, la desigualdad CHSH–Bell, para una teoría relista local implica que (S≤2). Y la mecánica cuántica predice (S=(2*√2)=2.83). Ronald, afirma que su experimento, ha demostrado (S=2.42 ±0.20). Lo que implicaría verificar la violación de la desigualdad con (2.1 sigmas de confianza estadística=78.5%).
Nota: la afirmación de Ronald, de que su experimento está libre de loopholes, queda, a la fecha de este artículo, por confirmarse.
§   http://francis.naukas.com/2015/08/28/un-experimento-tipo-bell-libre-de-loopholes/
§  Carsten Robens, experimento tipo Bell, presuntamente bajo en loopholes: (2015)
La desigualdad de Leggett–Garg, se cumple en un sistema físico que tiene estados macroscópicos bien definidos, y donde es posible medir en instantes de tiempo diferentes. Estos sistemas físicos, se denominan: macrorrealistas. La mecánica cuántica, viola la desigualdad de Legget–Garg. Carsten y sus colegas, afirman haber verificado la violación de esta desigualdad a (6 sigmas de confianza estadística=99.9997%), empleando átomos de cesio atrapados en redes ópticas.
§   http://francis.naukas.com/2015/01/22/violacion-de-la-desigualdad-de-leggett-garg-seis-sigmas/
§ 


---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------