---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------
¿El entrelazamiento cuántico, implica necesariamente la existencia de interacciones
superlumínicas – descartando atajos extra-dimensionales –?
Bien, podríamos
concluir que: siendo las partículas adimensionales (en ocasión de salvar ese límite de velocidad infranqueable de
la RE), bajo circunstancias específicas; éstas están conectadas (a través de
cualquier distancia). Conformando, lo que denominaremos como: sistema entrelazado. Debiendo aclarar,
que tal unión-fantasmal-a distancia (correlación
no-local) no implica: ni que las componentes del sistema dejen de ser
adimensionales (hasta cierta precisión:
localmente coordenable), ni un nexo dimensional (tentáculo) entre ellas. Para ello, solo necesitamos aceptar que: la
distancia entre los componentes del sistema, es cero; independientemente de la separación (distancia mayor a cero), en que dispongamos los
dispositivos de medición. Parafraseando: son
uno, cualquier similitud con la new
age; es mera coincidencia).
Según mi experiencia, es más fácil para los
físicos actuales aceptar que: lo-separado,
en ocasiones está unido a pesar de la distancia (apelando a una entidad matemática: no-separabilidad), a preocuparse por lo contradictorio de la
descripción. Además, ¿qué relevancia puede tener, el que nos
carguemos una circunstancial separación (distancia); con tal de salvar ese límite de velocidad infranqueable de
la RE? E incluso, podríamos considerarla: una
solución ad-hoc y listo.
Siento que, por
alguna razón, los contrasentidos no
limitan a la ciencia. Y congruentemente, ésta no desvaloriza otros modelos
por contenerlos. ¿O estaré siendo demasiado
ingenuo?
La evolución
científica, fue acotando ese límite de velocidad infranqueable de la RE, a:
§ Partículas
usadas en la transmisión de datos
(vía de comunicación (señal: influencia física, en su acepción
pragmática) que pueda ser utilizada, en la transmisión
de datos).
§ Partículas
que deban acelerar hasta dicho límite (contraejemplo:
taquión, hipotética partícula
superlumínica).
¿La causalidad
relativista está en problemas?
§ En problemas, puesto que según la
interpretación Einsteniana de la
causalidad relativista, ninguna influencia
física puede propagarse superlumínicamente.
§ Temporalmente a salvo, puesto
que según la interpretación pragmática
de la causalidad relativista, estas influencias físicas que se propagan superlumínicamente;
no entran en conflicto con la causalidad
relativista. Dado que, los fenómenos donde se viola la separabilidad; no
permiten la transmisión de señales
superlumínicas (utilizables).
Interacción física:
Consiste
en una acción recíproca entre componentes
físicos (relación).
§ Interacción: Acción que se ejerce
recíprocamente entre dos o más objetos, agentes, fuerzas, funciones, etc.
Señal:
Alteración que se
introduce o surge en el valor de una magnitud
física, que sirve para la transmisión
de datos.
No-separabilidad:
La no-separabilidad
(entidad matemática) que representa: la imposibilidad de factorizar la
distribución de probabilidad de dos variables, como producto de distribuciones
independientes.
§ En el contexto
físico:
Dado
que, básicamente la función de onda de
probabilidad (entidad físico-matemática) describe el estado físico de un sistema (cuántico); mediante la distribución de probabilidades de sus
observables (magnitudes físicas). En los casos donde los estados de dos o
más partículas, se expresen como: una
superposición lineal de dos o más estados, que no sea factorizable como
producto de estados independientes. Las distribuciones de probabilidad para
observables de ambas partículas serán en general dependientes (redundantemente:
no-separable).
¿Cómo determinar (experimentalmente) que las correlaciones de los componentes
de un sistema entrelazado son instantáneas?
¿Cómo determinar (experimentalmente) que el colapso de la función de
onda de un sistema entrelazado es instantáneo?
§ Experimento
1.0: usar dos locaciones muy separadas (cada una con
una componente de un sistema entrelazado) y efectuar las mediciones (en ambas
locaciones) de forma sincronizada (simultáneamente). De mantenerse las
correlaciones típicas (violaciones de las desigualdades de Bell –
estadísticamente hablando) de un sistema entrelazado, dicha correlación
(representada como un colapso de la función de onda del sistema) al menos
debería ser superlumínica – aunque no necesariamente instantánea. Claro que
actualmente usan el eufemismo-cuántico: correlación
no-local (probablemente instantánea).
§ …
P.D.: Los
términos: correlación no-local, dependencia
estadística, no-separabilidad y violación de una desigualdad de Bell,
son sinónimos en este contexto. Puesto que son denominaciones diferentes, para
un mismo tipo particular de vínculo (correlación independiente de la distancia
– necesariamente superlumínica –).
---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------
Higgs y el efecto
masa:
Tengamos en cuenta
que, para la física actual existen dos propiedades medibles diferenciables (efectos)
denominados masa: la masa gravitacional
y la masa inercial – diferenciación
que obviamente no remite al principio de
equivalencia –. Y dado que, en la actualidad la gravedad no forma parte del modelo
estándar de física de partículas elementales – y en consecuencia del campo de Higgs – remitiré el termino masa exclusivamente a: la masa inercial.
Siendo la
consecuencia del mecanismo de Higgs –
establecido para explicar lo que denominamos: ruptura espontanea de la simetría electrodébil – el (efecto) masa de las partículas
fundamentales. Más precisamente de:
§ Bosones de la interacción débil: W+/-
y Z^0.
§ Quarks: Up,
Down, Charm, Strange, Top y Bottom.
§ Leptones: Electrón, Muón, Tauón y Neutrino (electrón, Muón
y Tauón).
Dado que, estas
partículas elementales son los constituyentes fundamentales del átomo, cabría de
esperar que dieran cuenta de toda su masa. Lamentablemente no parece ser el
caso. Según datos experimentales – acarreando las dificultades de su medición –,
la masa del quark Up oscila entre (1,7
y 3,1 MeV) y la del quark Down oscila entre (4,1 y 5,7 MeV), siendo la masa del protón aprox. de (939 MeV). Bien, según
nuestro modelo, el protón está constituido
por tres quarks (dos Up y un Down – denominados: [quarks de valencia] –); por lo tanto, a lo mucho estaríamos
rondando el [1% de su masa] –
desestimando obviamente al electrón,
puesto que su masa es solo de aprox. (0,51
MeV) –. Entonces, ¿y el resto?
Bueno, no se preocupen, puesto que se considera actualmente que el resto – [99% de su masa] –, se debe a la [energía de su interacción fuerte (campo de
gluones)], y a la [energía cinética y potencial de sus quarks
y antiquarks] – ver nota siguiente
–.
Nota: en la interacción
fuerte, existe una zona donde los quarks y antiquarks están tan próximos
entre sí que la energía de confinamiento resulta insignificante: libertad asintótica. Pero, a medida que
se alejan unos de otros, esta crece indefinidamente: confinamiento de color. Es común, representar esta interacción con
la analogía de un resorte – dado que, la energía
de confinamiento (resistencia en nuestra analogía) crece con la distancia (estiramiento
en nuestra analogía) –. En condiciones normales, los quarks y antiquarks que componen
un nucleón intentan constantemente alejarse entre sí, aunque sin lograr
escindirse. Dado que, la energía de escisión
resulta ser enorme, y el proceso de alcanzarla implicaría la creación de pares de
partícula-antipartícula – energía que así empleada resta energía cinética al quark/antiquark –, el
quark/antiquark no logra escindirse: confinándolo.
Nota: <actualización> un nucleón está conformado por un número no
especificado de quarks y gluones. La masa
de un nucleón – por ejemplo el protón –, según la cromodinámica cuántica (QCD)
está conformada – aproximadamente – de la siguiente forma:
1) [H(m)≈(1/8) de su masa] – siendo la mitad de ésta debido a la masa de sus quarks extraños (que conforman solo una parte de los quarks de no-valencia) –, corresponde a
la masa de sus quarks y antiquarks –
valor derivado del mecanismo de Higgs
–.
2) [H(q)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus quarks y antiquarks.
3) [H(g)≈(1/3) de su masa], corresponde a la energía cinética y potencial de sus gluones.
4) [H(a)≈(1/4) de su masa], corresponde a la anomalía de traza de sus gluones – básicamente representa el confinamiento de los gluones –.
Técnicamente, la
energía total del protón – responsable de su masa –, se compone mediante los Hamiltonianos anteriores: [H(QCD)=H(m)+H(q)+H(g)+H(a)].
Lo que en (MeV)
seria:
§ Masa de sus quarks de valencia ≈ (10
MeV).
§ Masa del resto de quarks y antiquarks ≈ (110
– 160 MeV).
§ Energía cinética y potencial de sus quarks y antiquarks ≈ (270
– 300 MeV).
§ Energía cinética y potencial de sus gluones ≈ (320 MeV).
§ Anomalía de traza de sus gluones ≈ (190
- 210 MeV).
Nota:
Gravedad
y mecánica cuántica: https://www.youtube.com/watch?v=eIMUQB0rfdE.
---------------------------------------------------------------------------------------------
Afirma que: ninguna teoría física
de variables ocultas locales, puede reproducir, todos
los resultados experimentales de la mecánica cuántica.
Nota: aunque, con la intención de restringirme lo
más posible a mi (fuente principal: Wikipedia) y siendo ambos, superiores a
la predicción clásica, tomaré como técnicamente idénticos – sin serlo,
incluso en el mismo artículo –, a: (resultados
experimentales y predicciones
cuánticas) –.
El teorema de Bell, se
sustenta en tres – no dos, como suelo encontrar – premisas fundamentales:
1)
La realidad: (Re)
Los valores
– estados bien definidos – de las propiedades físicas, existen independientemente de su medición – nota:
tomemos en consideración que: aun, la oscilación
de neutrinos, remite a un realismo,
y aunque, indiferente para esta premisa, es incluso local –.
2)
La localidad: (Lo)
Las interacciones
físicas, son dependientes de la
distancia.
3)
La equiprobabilidad angular: (Eº)
{Revisión personal}
Los valores
de las propiedades físicas – al menos respecto: del spin (experimentos de Stern-Gerlach) y de la polarización electromagnética (experimentos
de Polarización electromagnética) –, son angularmente equiprobables (precisamente del 50%) – aun sin medirlas
–, implicando: la existencia de un máximo de predicción clásica (aprox. del 50%).
Experimento que estadísticamente comprobaría
este teorema:
§ (VOL:
variables ocultas locales).
§ (PME:
puntuación media esperada).
§ (Corr:
correlación).
Medimos, el spin – (momento angular intrínseco: S) – de partículas “presuntamente entrelazadas”, en los siguientes
ángulos y obtenemos:
§ Predicción cuántica – 180º entre si (ej.: 0º,180º; 180º,0º) – ® (Corr
de +1.00) {correlación cuántica}
Obtenemos los mismos resultados, el 100%
de las veces.
§ Predicción cuántica – 90º entre si (ej.: 0º,90º; 90º,180º;…)– ® (Corr
de 0.00) {correlación cuántica}
Obtenemos los mismos resultados, aproximadamente
el 50% de las veces.
§ Predicción cuántica – 45º entre si (ej.: 0º,45º; 45º,90º; 90º,135º;…) – ® (Corr
de +0.71) {correlación cuántica}
Obtenemos los mismos resultados, aproximadamente
el 71% de las veces.
§ Predicción cuántica – mismo (q) (ej.: 0º,0º; 45º,45º; 90º,90º;…) – ® (Corr
de -1.00) {correlación cuántica}
Obtendremos diferentes resultados, el 100%
de las veces.
§ Predicción clásica – VOL por (q) (ej.: 0º,0º; 45º,45º; 90º,90º;…) – ® (Corr
de +0.50) {correlación clásica}
Obtendremos los mismos resultados, aproximadamente
el 50% de las veces.
§ …
Nota: con la intención, de reducir variables estadísticas respecto de diferencias angulares que no sean de 45º – critica: puesto
que, medir el valor de la propiedad angular de algo a 45º (P1^45º y P2^45º), resulta experimentalmente
diferente de hacerlo a 45º entre sí
(P1^90º y P2^135º), es que, este enfoque
de medir ángulos entre sí, entiendo, tiene la finalidad (a la vista de los resultados experimentales sin diferencia angular), de introducir incertidumbre en la medida
(resultados experimentales), para
posteriormente, determinar si, la correlación
cuántica en estas específicas configuraciones experimentales,
resulta ser idéntica a la correlación clásica
–, propondría: contar con el mismo algoritmo
pseudo-aleatorio, en ambas locaciones de detección, que variará el ángulo del respectivo detector,
de forma que, siempre fuesen 45º entre
sí.
Dado que, se agrupan los resultados
experimentales altamente correlacionados
y los menormente correlacionados – a mí entender actual, injustificadamente
[G] –, tenemos que:
§ Puesto que, para VOL (altamente
correlacionadas), obtenemos una (PME=
(3(+)-(1-)/4(+,-) =+0.50) por
columna del gráfico; implicando que: (Corr=
6(+)/8(+,-) y {2(-)/8(+,-)} =+0.75%
y -0.25%).
§ Puesto que, para VOL (menormente
correlacionadas), obtenemos una (PME=
(3(-)-(1+)/4(+,-) =-0.50) por
columna del gráfico, implicando que: (Corr=
6(-)/8(+,-) y {2(+)/8(+,-)} =-0.75%
y +0.25%).
§ …
Conclusión:
En consecuencia y desestimando por completo [G], concluimos: puesto que, la predicción
cuántica – (45º entre si ® (PME=+0.71=coseno(45º))) –, para estas específicas configuraciones
experimentales, supera a la predicción
clásica – (VOL por (q) ® (PME=+0.50))
–, la desigualdad de Bell resulta
violada. Implicando, a su vez, que la predicción
clásica, que se presume máxima,
para cualquier teoría de variables
ocultas locales, no resulta ser tal.
Finalmente. Dado que, se viola la desigualdad de Bell – es
decir: es posible, predecir
estadísticamente, con una probabilidad mayor al 50% (predicción clásica) –, implica que: al menos, una de las premisas fundamentales del teorema de Bell,
resulta no ser verdadera – por ej.: existe,
alguna forma de comunicación
superlumínica (señal actualmente no-utilizable), entre las componentes del sistema entrelazado que
alcanza una correlación de +0.71
–.
Nota: este
teorema de la física, no prueba la
completitud de la mecánica cuántica – (MC)
–. Puesto que, en el futuro, se podrían construir:
§ una (MC’= R + L
+ ØEº).
§ una (MC’=
R + ØL + Eº).
§ una (MC’= R + ØL + ØEº).
§ una (MC’=
ØR + L + Eº).
§ una (MC’=
ØR + L + ØEº).
§ una (MC’=
ØR + ØL + Eº).
§ una (MC’=
ØR + ØL + ØEº).
[G]: si, se pretende justificar dicha agrupación, apelando a que: solo esas, poseen una
(PME=+0.50) – y de entre estos, calcular el porcentaje de coincidencias: (+0.75%)
–, en consonancia, con la máxima
predicción clásica; sería como: seleccionar mayoritariamente las coincidencias y minoritariamente las discrepancias. Es decir: sesgar la muestra. Evitando así, que sea válido transformar la, en
principio, proposición de Bell, en
un teorema de la física.
Oscilación de neutrinos (1.1):
Los
neutrinos, poseen las siguientes características mensurables:
§ Tres tipos:
(electrónico: e), (muónico: m), (taúnico: t) y sus respectivas antipartículas.
§ Un spin de (1/2).
§ La interacción electromagnética, no les
afecta por carecer de carga eléctrica.
§ La interacción fuerte, no les afecta – no los
confina –.
§ La interacción débil, resulta ser su
creador – desintegración radiactiva
–.
§ La interacción gravitatoria, los
condiciona muy débilmente – dada su insignificante masa (entre 2eV y 18MV) –.
§ Un proceso de oscilación de tipo –
denominado: oscilación de neutrinos
–, que transforma un tipo en otro, desde su creación – fuente –. En consecuencia, el tipo detectado depende del emitido y
de la distancia recorrida hasta su detección.
§ …
Nota: según la
(MC), este proceso de oscilación, no puede darse, si la diferencia entre las
masas de las partículas fuese nula. Por lo que, deducen que: al menos uno de los tipos de neutrinos es
masivo – actualmente se acepta que
los tres tipos lo son –.
Objeciones++:
§ Hipótesis del muestreo justo – juego limpio –: (loophole)
Afecta exclusivamente, a experimentos donde los resultados posibles son: (0,
1 y no-detectado) – por ej.: aun con los mejores fotodetectores disponibles, se pierden una fracción de estos –. Así como, una eficacia estadística, de la creación de los componentes
entrelazados alejada del 100%.
§ Hipótesis de localidad o causalidad relativista: (loophole)
Afecta exclusivamente, a experimentos donde la medición de los componentes entrelazados, no se realiza, con una
separación que elimine la posibilidad de
una señal a (c) entre estos.
§ Posibles variaciones estadísticas debidas a cierta Decoherencia-selectiva:
Con la intención de descartar o disminuir, posibles variaciones estadísticas – no tomadas en consideración –,
debidas a interacciones físicas en el trayecto – recuérdese que, por alguna
razón, no se da la decoherencia en
el trayecto, a pesar de atravesar, entre otros sistemas físicos, el vacío
cuántico –, se debería variar progresivamente,
tanto la distancia como el medio transitado. Máxime, a sabiendas de que: los valores (resultados experimentales) de
las propiedades físicas medidos, no son intrínsecos.
Puesto que, tanto en los experimentos de spin – experimentos secuenciales de Stern-Gerlach – así como, en los de polarización
electromagnética – experimentos
secuenciales de Polarización electromagnética (0º, 45º y 90º) –, reaparecen valores (resultados
experimentales) de las propiedades físicas – previamente
filtrados –, es que, como mínimo, dichos
valores (resultados experimentales) no pueden ser intrínsecos. Es decir:
como mínimo, se deberán a una específica
interacción física entre, el actual
estado físico de lo por medirse (fundamentalmente: su spin y su ángulo de ataque) – resultado de posibles variaciones
en su trayecto {desestimamos, de momento, las posibles interacciones con el
resto de componentes del sistema
entrelazado} – y la actual
configuración física del aparato de medida – presumiblemente, conocida con
precisión (aunque, a mi entender actual, existan fluctuaciones indetectables/incontrolables en el sistema) –.
Experimento de Stern-Gerlach: (sintéticamente)
Dado que, lo de (spin arriba: +1/2) y (spin abajo: -1/2), es
solo una convención física – donde (1/2), referencia la probabilidad de deflexión de cualquiera
de los dos ángulos (+ o -) –. En consecuencia. Lo de spin (+) o (-), en estos experimentos, remite
exclusivamente al ángulo de deflexión
– por convención física: orientado
hacia el (polo norte: (+)) y (polo sur: (-) del dispositivo Stern-Gerlach) – del último
campo magnético no-homogéneo que atravesó – desestimando alteraciones del mismo, en su trayectoria –. De ahí,
que parezca como si misteriosamente, reaparecieran
valores medibles de spin, previamente filtrados.
Se presume – descripción clásica
–, que: como el electrón de valencia
– partícula cargada eléctricamente – de
por ejemplo, los átomos de plata (Ag), se encuentra en movimiento en
torno a su núcleo – orbitándolo –,
induce una corriente eléctrica en
torno al átomo. Produciendo, al estar inmersa dicha corriente eléctrica, en un (campo
magnético del dispositivo: B),
un efecto de torque en el electrón de valencia (único), que tiende a alinear el (momento magnético del electrón de valencia
(orbital): m) con (B).
Efecto, que produce una variación de la
energía del sistema (siendo (.eje z:
gradiente de B), Si (m.=B.) V:®E=(-m*B) {el átomo, tenderá a desplazarse en la dirección en la que (B) aumenta y terminando en (+)} F:®E=(+m*B) {el átomo, tenderá a desplazarse en la dirección en la que (B) disminuye y terminando en (-)}), por lo que: una partícula cargada, que atraviesa un campo magnético no-homogéneo, perderá o
ganará energía, dependiendo de la variación que (B) produzca en la orientación de (m) – esencialmente: los campos magnéticos, ejercen fuerzas sobre objetos que poseen
momentos magnéticos –.
En los experimentos de Phipps y
Taylor, donde se emplearon átomos de
hidrógenos (H) – por tener un único electrón, se
esperaba observar una (única franja (ecuador)
de detección: 0 {siendo el estado fundamental (L=0) y sus autovalores (2L+1),
entonces: 1 única franja}), como
cuando (B=0: deflexión nula); pero, se observaron las dos características –, los
resultados fueron idénticos {aunque, en ambos experimentos, se termine
empleado: un átomo eléctricamente neutro
(Ag y H), con un electrón de valencia (único)}.
Bien. Pero, ¿cómo se determina que su deflexión, depende exclusivamente de
la interacción entre el momento angular
intrínseco del electrón de valencia y el campo magnético no-homogéneo externo? A ver. Si su fuente, fuese
exclusivamente el (momento magnético
nuclear: m), los resultados experimentales (ángulos de deflexión) de Phipps y Taylor, deberían ser
aproximadamente: tres órdenes de
magnitud mayor (masa(p)»masa(e-)*10^4). Además. Según la teoría del átomo de hidrógeno, encontrándose éste, en su estado fundamental y en ausencia de un momento magnético diferente al del
proveniente del momento angular
intrínseco (S) de un electrón de valencia (único) – (1s1/5s1), puesto que, de ser más de uno
{¿incluso electrones, protones o neutrones libres?}, los electrones
de valencia, se fastidiaría el cálculo
de la deflexión {¿será que, se llevaría puesto hasta la cuantización (magnitudes
físicas discretas), al menos, en estos específicos
experimentos?} –, un campo magnético
externo no-homogéneo (B), no afectaría su trayectoria – dato: en
1927, Ronald Fraser, recalculo el momento magnético nuclear de (Ag), resultando
ser (m=0); en consecuencia, si fuese
exclusivamente por (m), no se observaría
deflexión alguna –.
Nota: cada vez, que considero aumentado mi
conocimiento en mecánica cuántica,
más me convenzo de que: resulta excluyente, la forma no-homogénea del campo magnético – no así su orientación –, creada por el dispositivo Stern-Gerlach, el que, se manifiesten o no fenómenos cuánticos – al menos, en estos
específicos experimentos (obviamente, debemos determinar el grado de injerencia de las dimensiones y
demás magnitudes físicas de los elementos del haz {por ej.: átomos de plata, que son eléctricamente
neutros}) –, y no necesariamente, debido a cierto
grado de discreción (discontinuidad) intrínseca en específicas propiedades y
estados físicos de estos sistemas físicos – la deflexión de los elementos del haz, resulta ser proporcional al spin
y a la magnitud del gradiente de campo magnético (si aumenta la intensidad
del campo magnético, aumenta el ángulo de deflexión) –. Quiero creer, que el
uso de campos magnéticos no-homogéneos
– siendo que: los átomos de plata,
no son desviados por un (campo magnético
homogéneo: (∂Bx/∂x=0, ∂By/∂y=0 y
∂Bz/∂z=0)) –, no tiene la exclusiva
finalidad de introducir cuantización
(discontinuidad) y consecuentemente incertidumbre (aleatoriedad) en la medida
en estos específicos experimentos – a excepción de dispositivos Stern-Gerlach consecutivos, idénticamente configurados –. Sino que, enfrentados con este nuevo suceso físico, se dispusieron a modelarlo, alcanzando tan solo, una precisión estadística. Ahora, si no
podemos alcanzar una precisión
no-estadística, ni tan siquiera, en el experimento de arrojar una moneda al
aire y predecir la orientación en la que se detendrá; en principio, debido a insuficiente precisión y capacidad de
cálculo – es decir: solo alcanzando una precisión estadística –. ¿Sería experimentalmente consistente,
pretender alcanzar una precisión
no-estadística, cuando las insuficiencias en ambos experimentos, resultan
ser similares?
Sintéticamente. Puesto que, existen específicas
configuraciones experimentales – incluso a escala cuántica (dispositivos Stern-Gerlach consecutivos idénticamente configurados) –, donde alcanzamos experimentalmente una precisión no-estadística:
La incertidumbre (aleatoriedad) en
la medida, al menos, la remitida a
estos específicos experimentos, no debería atribuirse a cierto grado de incertidumbre (aleatoriedad)
intrínseca en específicas propiedades y
estados físicos de estos sistemas físicos, sino exclusivamente, a limitaciones teórico-experimentales
actuales.
Así como, cierto grado de
cuantización (discontinuidad) en la medida, al menos, la remitida a estos específicos experimentos – en principio, introducida
artificialmente, al emplear campos
magnéticos no-homogéneos –, no debería atribuirse a cierto grado de cuantización (discontinuidad)
intrínseca en especificas propiedades y estados físicos de estos sistemas
físicos – al menos, hasta obtener resultados
experimentales comprobatorios, empleando haces de partícula elementales de spin (1/2), así como, de compuestos de spin diferente a (1/2) –,
sino, hasta entonces, a limitaciones
teórico-experimentales actuales.
De hecho, inmersos en una concepción
infinitamente reduccionista de la realidad – misma, que pondría de manifiesto
estas limitaciones experimentales –,
resulta imposible conocer/medir con precisión
arbitraria una magnitud física (ni tan siquiera en sistemas físicos de escala clásica)
– dada la imposibilidad de alcanzar una
precisión infinita en el ámbito físico. nota: la existencia de magnitudes
físicas complementarias y con ellas, las relaciones de incertidumbre de Heisenberg, remite exclusivamente, a
la imposibilidad de medir sin alterar
imprevisiblemente un sistema físico; y no, a la inexistencia de específicas propiedades y estados físicos en estos sistemas
físicos (por ej.: posición,
velocidad, energía y tiempo) –.
§ Aplicabilidad limitada: (haciendo a un lado la premisa fundamental (3))
Algo, que por experiencia, se pasa por alto en la divulgación científica – incluso corregida por expertos en la materia –, de este presunto teorema de la física, es su equivocada extensión a todo el mundo
cuántico – cosmos –. Es decir: puesto
que, en apariencia, hemos descubierto
una violación, sea de realidad y/o
de localidad, en específicas configuraciones experimentales
– sistemas cuánticos entrelazados –, afirmamos,
en forma inconducentemente a mi entender,
que: el
cosmos, o carece de realidad y/o de localidad. Afirmación que, aun de
ser verdaderamente este un teorema de
física, resulta ser inconducente.
Esencialmente, porque: no todo el cosmos,
se encuentra en un cosmológico estado de
entrelazamiento cuántico, y menos aún, ha podido mantenerlo desde el BB.
§ …
Nota: debido, a una cantidad nada despreciable de objeciones en pos de: las demostraciones matemáticas, son
apodícticas – ¿cómo puedes, siquiera dudar de un teorema? –. Argumentando,
que hacerlo, implicaría caer en contradicciones como que: 1+1¹2 –. Es que, siento que debo acotar la siguiente opinión: lo teorético, no reviste potestad sobre lo
empírico. Y hasta donde creo entender, la
física construye conocimientos mediante: la observación de sucesos físicos y su posterior modelización. Que
dicha modelización, contenga o no entidades y relaciones matemáticas – herramienta eficiente –, resulta ser contingente. Es decir: no es que, las matemáticas provoquen o impidan,
específicos resultados experimentales, lo que los provocan o impiden, son
las propias interacciones físicas,
que modelamos empleando matemáticas.
Máxime, siendo, como creo que es, “El corolario
del método científico”: puesto que,
el conocimiento seguro resulta inverificable en el método científico,
en última instancia, tan solo podemos aspirar a modelizar circunstancialmente lo observado; mismas que, de variar, terminará
por provocar una variación en consonancia de su modelo representativo – otro
ejemplo, aunque menos representativo, podría ser: la utilización de una misma ley científica, en diferentes marcos explicativos teóricos (teorías científicas), que en ocasiones, hasta llegan a ser
antagónicos – {descartando errores humanos
en las demostraciones matemáticas, así como en su ámbito de aplicación}.
Según el fisicalismo, ¿ciertos resultados de experimentos secuenciales de Stern-Gerlach y de polarizaciones electromagnéticas, dan
indicios de que ciertos valores de las propiedades físicas no son intrínsecos?
Actualizaciones:
Puesto que, la desigualdad
CHSH–Bell, para una teoría relista local
implica que (S≤2). Y la mecánica cuántica predice (S=(2*√2)=2.83). Ronald,
afirma que su experimento, ha demostrado (S=2.42
±0.20). Lo que implicaría verificar
la violación de la desigualdad con (2.1
sigmas de confianza estadística=78.5%).
Nota: la afirmación de Ronald, de que su
experimento está libre de loopholes,
queda, a la fecha de este artículo, por confirmarse.
§ http://francis.naukas.com/2015/08/28/un-experimento-tipo-bell-libre-de-loopholes/
§ Carsten Robens,
experimento tipo Bell, presuntamente bajo en loopholes: (2015)
La desigualdad
de Leggett–Garg, se cumple en un sistema
físico que tiene estados
macroscópicos bien definidos, y donde es posible medir en instantes de tiempo diferentes. Estos sistemas físicos, se denominan: macrorrealistas. La mecánica
cuántica, viola la desigualdad de
Legget–Garg. Carsten y sus
colegas, afirman haber verificado la
violación de esta desigualdad a (6 sigmas de confianza estadística=99.9997%),
empleando átomos de cesio atrapados en
redes ópticas.
§ http://francis.naukas.com/2015/01/22/violacion-de-la-desigualdad-de-leggett-garg-seis-sigmas/
§ …
---------------------------------------------------------------------------------------------
---------------------------------------------------------------------------------------------