Todas las entradas de: jcuesta

Dinámica de fluidos (I). Movimiento estacionario sin viscosidad.

Escalas manejadas en el modelo de fluido en movimiento

En Estática de Fluidos se hace referencia continuamente a las fuerzas intermoleculares entre las moléculas del líquido, pues explican las propiedades macroscópicas observables como por ejemplo la nula resistencia al corte de un líquido ideal, o la cohesión, la tensión superficial  o la capilaridad de un líquido real. Cuando estudiamos los fluidos en movimiento en cambio apartamos de momento el modelo molecular y adoptamos un punto de vista intermedio entre el molecular y el macroscópico, considerando “elementos de fluido” que imaginamos mucho mayores que el diámetro molecular (por ejemplo, una molécula de agua tiene un diámetro de unos 3 Ångstroms, o sea unos 3·10⁻⁶ milímetros) pero mucho menores que un objeto macroscópico como por ejemplo un grano de sal (aproximadamente 1 mm de diámetro), entre esos dos extremos imaginaremos nuestros “elementos de fluido” por ejemplo ocupando longitudes de centésimas de mm: són muy pequeños, pero enormes comparados con las moléculas del fluido.

Fig. 0: factor de escala entre molécula típica, “elemento de fluido” y objeto macroscópico pequeño. La escala vertical es logarítmica, cada paso representa un factor x10.

El flujo líquido estacionario: líneas y tubos de corriente

Quizá recordemos de niños la curiosidad que se nos abría al darnos cuenta de las propiedades de los líquidos en movimiento, de cómo el agua se escurre entre nuestras manos al tiempo que las moja, los remolinos que se forman en un rio, cómo el agua rodea los obstáculos … Obtener las leyes físicas expresadas en ecuaciones que modelen ese comportamiento se ha revelado de una dificultad muy elevada, tanto que algunas cosas importantes permanecen no resueltas (al menos hasta febrero del 2020).

Fig.1: Cascadas de agua, formando espuma y torbellinos

Cuando el líquido está en movimiento, en cada posición del líquido pueden haber velocidades distintas; imaginemos por ejemplo agua bajando por una canal que tiene pendiente variable. Para caracterizar el movimiento de todo el fluido en conjunto deberemos dar su velocidad v en cada punto (x, y, z) y en cada instante t; ¿de qué dependerá esta velocidad? La presión en el interior del fluido es variable y determinará las fuerzas internas ejercidas, además estará la gravedad; si la densidad es variable por ejemplo por la temperatura distinta en distintos puntos las aceleraciones también los serán. En esta primera aproximación al flujo, supondremos que la densidad es constante (son fluidos incompresibles), esto es lícito de suponer si las presiones no son grandes.

Cuando en cada punto (x,y,z) de las trayectorias que traza el fluido las velocidades v(x,y,z) son constantes el movimiento es estacionario; decimos también que se mueve en régimen permanente. Matemáticamente, las velocidades en cada punto geométrico determinado dado por sus coordenadas respecto a un punto de referencia fijo nos proporcionan un campo de velocidades, (estrictamente, un campo vectorial) o sea una función v(x,y,z) que asigna a cada (x,y,z)  un vector  velocidad v. En teoría de campos a las tangentes a los vectores de campo en cada punto se les llama líneas de fuerza, y en el caso concreto de los fluidos, líneas de corriente; como siguen en cada punto la dirección de la velocidad, se sigue que esas líneas coinciden con la dirección del flujo en cada punto. Además, por cada punto del espacio ocupado por el fluido ha de pasar una y sólo una línea de corriente, que es la trayectoria única de cada partícula de fluido en movimiento estacionario cuando pasa por ese punto concreto. En la figura 3 a la izquierda representamos algunas líneas de corriente; si dibujamos dentro del fluido una curva cerrada cualquiera (S en la figura 3 a la derecha) por cada uno de sus puntos pasará una linea de corriente, y el conjunto de S y esas líneas forman un tubo de corriente.

Fig. 3 líneas y tubos de corriente

Si una partícula fluida entra por el tubo en la sección S, seguro que seguirá moviéndose por dentro del tubo pues seguirá una de las líneas de corriente que lo conforman. El tubo de corriente es pues imaginario, pero contiene un flujo como si fuera real.

Ecuación de continuidad: conservación de la masa

En la figura 3 imaginemos la masa de fluido, en un cierto instante t, contenida en la parte del tubo de corriente delimitada por AA’-CC’ y supongamos que al cabo de un tiempo “corto” dt ese fluido ocupe la sección de tubo BB’-DD’; tomemos v como el módulo de la velocidad media en la sección AA’ y como v’ el de la sección BB’

La masa de fluido incompresible m(AA’-CC’) puede descomponerse en dos secciones, la m(AA’-BB’) y la m(BB’-CC’); de la misma forma, la masa m(BB’-DD’) se compone de la m(BB’-CC’) más la m(CC’-DD’):

m(AA’-CC’) = m(AA’-BB’) + m(BB’-CC’)

m(BB’-DD’) = m(BB’-CC’) + m(CC’-DD’)

Pero por conservación de la masa, las contenidas en AA’-CC y en BB’-DD’ son las mismas masas que se han movido, así pues:

m(AA’-BB’) + m(BB’-CC’) = m(BB’-CC’) + m(CC’-DD’)

y simplificando,

m(AA’-BB’) = m(CC’-DD’)   [1]

El cilindro AA’-BB’ tiene una altura dada por v·dt, y si su sección es S, su volumen será S·v·dt; para el cilindro CC’-DD’ tendremos S’·v’·dt; llamando ρ y ρ‘ a las densidades en S y S’ respectivamente, y sustituyendo todo en [1] obtenemos la ecuación de continuidad:

Svρ = S’v’ρ’  = cte  [2]

que para el caso de densidad constante ρ = ρ’ se simplifica más:

Sv = S’v’  = cte    [3]

y nos dice que en un tubo de corriente la velocidad es inversamente proporcional a la sección del tubo: a más sección menos velocidad. El producto de la velocidad [m/s] por la sección [m²] es el caudal del flujo en [m³/s].

Teorema de Bernoulli: conservación de la energía

Consideremos un elemento de fluido que es una  sección de un tubo de corriente, tal como la de la figura 3, pero con una longitud dl muy corta (o sea cortamos las líneas de corriente en un tiempo dt) y una sección también pequeña dS; la masa contenida será dm = ρ·g·dS·dl.  El movimiento de esa masa seguirá la 2a ley de Newton: F = m·a, donde el elemento de fluido seguirá una linea de corriente; las fuerzas que actúan serán debidas a la diferencia de presión entre las caras del elemento y a la gravedad. dp será la diferencia de presión que causará una fuerza dS·dp (suponemos que el tubo tiene sección idéntica en sus dos extremos por ser su longitud dl muy pequeña), en cuanto al peso lo descompondremos según la dirección de la línea de corriente, que supondremos tiene una inclinación de α respecto a la vertical (figura 4, izquierda).

Fig. 4: elemento de fluido y fuerzas que actúan

La fuerza total será pues, según la figura 4,  -dp·dS – ρ·g·dS·dl·cos(α),

En la figura 4 a la derecha detallamos la geometría del problema, y definimos una cantidad dy = dl·cos(α), que representa el incremento de altura del elemento de fluido al pasar de AA’ hasta BB’;  sustituyendo en la expresión de la fuerza total:

dF = -dp·dS – ρ·g·dS·dy    [4]

y aplicando la 2º ley de Newton, igualamos a la masa x aceleración, siendo ésta (dv / dt)

dF = -dp·dS – ρ·g·dS·dy = ρ·dS·dl·(dv/ dt) [5]

tengamos en cuenta que la velocidad v = dl /dt, entonces  dl = v·dt -y sustituyendo en [5]:

-dp\cdot dS\;-\;\rho\cdot g\cdot dS\cdot dy\;=\;\rho\cdot dS\cdot v\cdot dv\Rightarrow\\\frac{\operatorname dp}\rho+gdy+v\cdot dv=0\Rightarrow\\\boxed{\int\frac{\operatorname dp}\rho+gy+\frac12v^2=cte.}  [6]

El 2º término es la energía potencial gravitatoria por unidad de masa y el 3º es la energía cinética por unidad de masa; en cuanto al primero ha de ser también una energía por unidad de masa de la cual derivan las presiones internas del fluido. Considerando la densidad constante, nos queda:

\p+\rho gy+\frac12\rho v^2=cte  [7]

que es el teorema de Bernoulli de conservación de la energía para fluidos incompresibles.

Ecuaciones de estado del flujo incompresible

Las ecuaciones del estado de un sistema especifican totalmente los estados y sus variaciones en el tiempo; ya hemos obtenido estas ecuaciones, para un líquido incompresible la primera ecuación de estado establece que al densidad  \rho es constante: \rho=cte. La siguiente ecuación expresa la conservación de la materia y es la ecuación de continuidad: cuando el fluido se mueve “se va” de un sitio para otro pero no desaparece ni cambia su masa: Sv = S’v’  = cte , La tercera ecuación expresa la conservación de la energia y es la de Bernouilli \triangle p+\rho gy+\frac12\rho v^2=cte. Las tres juntas proporcionan solución al problema de determinar las velocidades de un fluido incompresible en cada punto:

\left\{\begin{array}{l}\rho=cte.\;(fluido\;incompresible)\\Sv\;=\;S'v'\;\;=\;cte.\;(continuidad,\;masa\;se\;conserva)\\\triangle p+\rho gy+\frac12\rho v^2=cte.\;(Bernouilli,\;energia\;se\;conserva)\end{array}\right.   [8]

Ejemplo. Por una tubería de sección circular, horizontal, circula agua en régimen estacionario con un caudal de 0,9m³ /minuto. En el punto A el diámetro de la tubería es de 10,8cm y la presión 1,2atm. ¿Cuál será la presión en otro punto B con un diámetro de 4,6cm?

Solución: El caudal Sv nos dicen que es igual a 0,9 [m³/min] = 3/200 [m³/s]. El caudal se define por el producto Sv siendo S el área de la tubería y v la velocidad del fluido, y tenemos que el área S vale

\mathrm S=\mathrm{πr}^2=\mathrm\pi\left(\frac{10.8\cdot10^{-2}\mathrm m}2\right)^2=0.092\mathrm m^2,

y entonces la velocidad v en S es

\mathrm v=\frac{\mathrm{Sv}}{\mathrm S}=\frac{3/200}{0.092}=1.64\frac{\mathrm m}{\mathrm s}.

Para el otro lado de la tubería procedemos igual pues la ecuación de continuidad [3] nos asegura que el caudal es el mismo, Sv = S’v’:

\mathrm S'=\mathrm{πr}'^2=\mathrm\pi\left(\frac{4.6\cdot10^{-2}\mathrm m}2\right)^2=0.002\mathrm m^2;\\\mathrm v'=\frac{\mathrm{Sv}}{\mathrm S'}=\frac{\mathrm S'\mathrm v'}{\mathrm S'}=\frac{3/200}{0.002}=9.03\frac{\mathrm m}{\mathrm s}.

Aplicando ahora Bernoulli  [7] (con y = 0 pues la tubería es horizontal) se cumple que

p+\frac12\rho v^2=p'+\frac12\rho v'^2

Sustituimos valores:

121590+\frac121000\cdot164^2=p'+\frac121000\cdot9.03^2\Rightarrow p'=82165\;Pa

equivalente a 0.81 atm.

Aplicación práctica: pulverizador

En la figura 5 se representa el esquema de un pulverizador simple de líquidos. En C tenemos un émbolo que empuja el aire hacia la izquierda, forzándolo a salir por un estrecho orificio en A. Según la ecuación de continuidad como el área S’ en el punto A es mucho menor que la S en C, la constancia del caudal total implica que la velocidad de salida del aire v’ en A será mucho mayor que la velocidad v del émbolo, en la  proporción inversa a las areas: v’/v = S/S’, por ejemplo si apretamos bruscamente el émbolo dándole una velocidad v  = 1 m/s y las áreas son S = 10cm², S’ = 0.005cm², entonces v’ = (10/0.005)·1 = 2.000m/s.  En realidad esta velocidad es irreal, pues el aire es un fluido compresible y las ecuación de continuidad no vale para este caso, pero lo que sí se cumple es que la valocidad de salida será muy elevada.

Fig. 5: pulverizador simple de líquidos

Aplicando Bernoulli entre A y C:

101325+\;\frac121,225\cdot1^2=p'+\frac121,225\cdot v^2\Rightarrow\\p'=101325\;+\;\frac121,225\left(1-v^2\right),

y como el término 1-v^2 de la derecha se hace muy grande, la presión p’ en el la salida A es mucho menor que la atmosférica, produciendo un vacío relativo en el tubo AB que succiona el líquido contenido y lo impulsa hasta A, donde la corriente de aire a alta velocidad pulveriza el líquido.

Estática de fluidos (II): Cohesión y tensión superficial

Fuerzas intermoleculares

En el artículo Estática de fluidos decíamos que en los líquidos sus moléculas  muestran propiedades de cohesión, que son fuerzas atractivas entre moléculas  que causan que los líquidos no se expandan hasta ocupar todo el espacio libre como ocurre en los gases, pero en cambio se puede deformar el líquido sin modificar su volumen sin resistencia alguna simplemente introduciéndole en recipientes diferentes. Estas fuerzas de cohesión tienen origen molecular: las denominadas fuerzas de Van der Waals aún siendo comparativamente débiles comparadas con las fuerzas de enlace internas de las moléculas del líquido al ser de carácter eléctrico siguen siendo mucho más fuertes que la gravedad y por ello la fuerza atractiva que generan puede ser superior a la del peso.

Fig.1: las moléculas del líquido, libres de moverse, se orientan según su atracción eléctrica, atrayéndose

Además algunos líquidos como por ejemplo el agua presentan otro tipo de fuerzas atractivas más fuertes debido a que sus moléculas se comportan como dipolos eléctricos (presentan una distribución asimétrica de los electrones negativos debido a que la molécula está formada por átomos de distinta afinidad electrónica) creando el denominado enlace de hidrógeno entre moléculas. Entonces cuando dos moléculas que estaban lejos se van acercando, se sienten atraídas la una a la otra debido a las fuerzas de Van Der Waals y quizá además a los enlaces de hidrógeno si es que las moléculas son polares, pero a partir de cierto punto la repulsión entre los electrones de las moléculas es más fuerte y las moléculas se repelen.

Recordando el concepto de Energía Potencial U que es igual al trabajo realizado sobre una molécula contra la fuerza del campo eléctrico al acercarla desde muy lejos hasta muy cerca de otra realizando una fuerza F(x) que depende de la distancia x, y llamando x_0 al punto donde la repulsión supera a la atracción, F_1 a la fuerza atractiva y F_2 a la repulsiva, podemos expresar U(x) como:

U\left(x\right)=\int_\infty^xF\left(x\right)\operatorname dx=\int_\infty^{x_0}-F_1\left(x\right)\operatorname dx+\int_{x_0}^xF_2\left(x\right)\operatorname dx

Representando U(x) en ejes coordenados vemos que la energía U es negativa hasta la distancia x = x_0 pues hasta ahí la fuerza es atractiva y siendo U el trabajo realizado contra la fuerza, al ir a favor de la fuerza U resulta negativa; entre x_0 y 0 en cambio la fuerza es repulsiva y entonces sí debemos hacer trabajo contra esa fuerza para acercar las moléculas.

Fig. 2: Potencial U(x) entre dos moléculas de líquido

A una cierta distancia intermolecular d encontramos el mínimo de energía potencial U(x); la Naturaleza siempre “busca” situaciones con energía mínima potencial, y por eso la distancia d es la separación media estable entre moléculas del líquido.  A distancias superiores la fuerza disminuye rápidamente y a inferiores aumenta exponencialmente, siendo claramente repulsiva para x < x_0. Llamando D > d a una distancia tal que la fuerza atractiva sea ligeramente inferior a cero, la zona d < x < D se llama esfera de acción de la molécula, que es la zona donde si se acercan otra moléculas se verán claramente atraídas, formando un enlace débil:

  • En los gases  considerados perfectos las separaciones típicas intermoleculares suelen ser mucho más grandes que la esfera de acción molecular como consecuencia no presentan enlaces ni fuerzas de cohesión. En los líquidos “perfectos” tampoco se consideran importantes.
  • En los líquidos reales en cambio en las esferas de acción de una  molécula pueden haber muchas otras moléculas “capturadas”.

Energía superficial de cohesión

Fig. 3: las fuerzas intermoleculares sólo se compensan en moléculas en el interior del líquido

Una molécula cualquiera A (figura 3) en el interior del líquido estará por término medio dentro de la esfera de acción de otras muchas moléculas en todas las direcciones, de forma que en promedio las atracciones se anulan entre ellas. En cambio en moléculas cercanas a la superficie (la C) o en la superficie (la B) “faltan” moléculas por arriba que compensen el tirón de las moléculas del interior del líquido, por lo que resulta una fuerza resultante neta que tira hacia abajo de tales moléculas: las moléculas de la superficie están sometidas a una fuerza neta pequeña pero no despreciable que las “engancha” a la superficie e impiden que se escapen del fluido, además de ser las responsables de que la superficie del líquido sea plana. Para llevar una molécula desde el interior del líquido hasta la superficie habrá pues que “empujar” contra las fuerzas netas superficiales, y una vez allí la molécula habrá adquirido una energía potencial superficial igual al trabajo realizado sobre ella.  La superficie será plana pues es la de superficie mínima, y por tanto será la opción, de entre todas las formas posibles, de energía potencial mínima, que de nuevo es lo preferido por la Naturaleza para sus estados de equilibrio: cualquier ondulación en la superficie aumenta su área, por tanto aumenta el número de moléculas superficiales y también aumente la energía potencial superficial: seria un estado inestable.

Tensión superficial

Si dejamos un objeto suficientemente ligero en la superficie del líquido para que no se hunda (por ejemplo un hilo de algodón) éste produce un “hueco” en la superficie apartando algunas moléculas y deformando la superficie que ya no es plana y pasa a ser cóncava (fig. 4). Esto aumenta la superficie libre del líquido, y por tanto aumenta la energía potencial superficial U.

Fig. 4.: deformación de la superficie del líquido por un objeto ligero

El objeto realiza un trabajo W sobre el fluido, debido al peso del objeto, que es igual a ese aumento de energía potencial; tal trabajo será proporcional al aumento del área  de la superfície :

\triangle U=W\propto F\cdot\triangle S\Rightarrow F=\frac{\triangle U}{\triangle S}

A esta fuerza F que aparece al aumentar el área superficial y aumentar la energía potencial superficial la llamamos tensión superficial, y la definimos con precisión como el trabajo que hay que realizar para aumentar en una unidad la superficie libre del líquido. Sus unidades son las de energía / superficie, en unidades internacionales son Julios / m² o equivalentemente en Newton / m (o sea, una fuerza por unidad de longitud). En la figura 5 vemos que tales tensiones tienen componentes horizontales opuestas que efectivamente “tensan” la superfície, y pueden lograr que ese objeto liviano quede en la superficie sin hundirse.

Fig. 5: al abombar la superficie del líquido, aparecen fuerzas horizontales opuestas que tensionan la superficie

Ejemplo: en el caso del agua, que tiene moléculas polares y por tanto muestra mucha cohesión,  encontramos una tensión superficial de 72,75 · 10⁻³ N/m, mientras que en el alcohol etílico baja a 22,75 · 10⁻³ N/m, será pues más fácil hacer flotar un objeto pequeño en la superficie del agua que en alcohol.

Formación de meniscos entre sólido y líquido

El líquido contenido en un recipiente abierto al aire tiene contacto con el material del recipiente y con el aire; si las moléculas de ese material y del líquido mantienen fuerzas atractivas (como por ejemplo el agua y el vidrio) entonces se forma una superficie cóncava de contacto entre ellos (figura 6): el líquido “sube” por la pared del recipiente mojándolo, formando un menisco cóncavo, el equilibrio se consigue al igualarse el peso del líquido, la tensión superficial líquido-pared y líquido-aire y la fuerza de reacción de la pared del recipiente. El ángulo α se llama ángulo de contacto, y será α < 90⁰ para la situació descrita.

Fig. 6: menisco cóncavo y equilibrio de fuerzas

Si la tensión superficial recipiente-líquido resulta ser menor que la de líquido-aire,  o resulta ser una fuerza repulsiva, se formará un menisco convexo con  α >90⁰ y el líquido no moja la pared.

Capilaridad

Si introducimos un tubo muy estrecho que supondremos de sección circular en un recipiente con líquido observamos que éste asciende por el tubo hasta una altura h (figura 7); la tensión superficial que hemos visto que provoca los meniscos cóncavos  aquí tira de los dos extremos de la superficie del líquido. La componente vertical de la tensión será T·cos(α) y la suma de esas componentes alrededor de la sección circular del tubo deberá compensar el peso de la columna de líquido de altura h.

Fig. 7: capilaridad

Recordemos ahora que la tensión superficial se puede expresar como una fuerza por unidad de longitud: T = F / l, mirando la sección del tubo desde arriba vemos que cada elemento dL del círculo formado por la sección del tubo tiene asociada una fuerza dF = T·cos(α) · dL, integrando a lo largo de toda la circunferencia obtenemos la fuerza total: F=\oint_CT\cos\left(\alpha\right)\cdot\operatorname dL=T\cos\left(\alpha\right)\cdot\oint_C\operatorname dL=T\cos\left(\alpha\right)\cdot2\pi r.

Fig. 8: deducción de la ley de Jurin

Igualamos la fuerza con el peso del cilindro de líquido y obtenemos la ley de Jurin: la altura a la que asciende el líquido es proporcional a la tensión superficial e inversamente proporcional a su densidad y al radio del tubo:

T\cos\left(\alpha\right)\cdot2\pi r=\pi r^2h\rho g\Rightarrow h=\frac{2T\cos\left(\alpha\right)}{r\rho g}.

En el laboratorio, usando distintos líquidos y tubos de distinto diámetro, es fácil comprobar la ley de Jurin midiendo experimentalmente los ángulos α y las alturas h para formar una tabla como esta:

fig. 7: tabla experimental para la ley de Jurin, alturas h en función de distintos líquidos y radios capilares

Gráficamente se ve que para cada líquido se cumple que la altura h es inversamente proporcional al radio:

fig. 7: verificación gráfica de la ley de Jurin, el radio (eje Y) es inversamente proporcional al radio del tubo capilar (eje X)

 

Estática de Fluidos

A diferencia de los sólidos, las moléculas de los fluidos no ocupan posiciones estáticas sino que pueden moverse más o menos libremente; en los líquidos la concentración de moléculas por unidad de volumen se mantiene alta, mientras que en los gases es mucho menor. Por ello las moléculas de los líquidos muestran propiedades de cohesión, fuerzas atractivas entre moléculas, que causan que los líquidos no se expandan hasta ocupar todo el espacio libre como ocurre en los gases, pero en cambio se puede deformar el líquido sin modificar su volumen sin resistencia alguna simplemente introduciéndole en recipientes diferentes.


La Estática de fluidos trata el tema del equilibrio estático de un fluido desde el punto de vista macroscópico, sin tener en cuenta el nivel molecular. Además, consideraremos que son fluidos perfectos, que significa que podemos deslizar una porción de fluido sobre otra sin encontrar resistencia tangencial (fig. 1).

Fig. 1: Fluido perfecto. Esquemáticamente, una capa de fluido se mueve paralelamente a otra sin resistencia.

Presión en el interior de un fluido estático

Sea dS un elemento de superficie en el interior del fluido, situado según una orientación cualquiera, y razonemos sobre las fuerzas que actúan; sea dF la resultante de todas esas fuerzas sobre dS, seguro que dF será perpendicular a dS, de otro modo habría una componente de fuerza tangencial y como el fluido ideal no ofrece resistencia el fluido se deslizaría y no estaría estático.

El cociente p = dF/dS es la presión sobre la superficie elemental dS; tomando el punto central de dS diremos que p es la presión sobre el punto P. Estamos suponiendo que dS tiene dimensiones despreciables desde el punto de vista macroscópico. Hemos dicho que el elemento dS puede tomar cualquier orientación en el sentido de que la presión resultante p en su centro P será siempre la misma; esa presión sólo dependerá de la posición de P. Si la orientación influyera, entonces la presión sobre el mismo punto P seria distinta según la dirección que lo miramos, eso equivale a considerar un fluido anisótropo (con propiedades físicas distintas según la dirección) que no consideraremos, y en todo caso no seria un fluido ideal.

Equilibrio del fluido en el campo gravitatorio

Consideremos un elemento de fluido con forma de caja alargada de dimensiones a, db, dc (db y dc mucho menores que a) que alineamos con los ejes cartesianos X, Y, Z.

Fig. 2: Elemento diferencial de fluido en equilibrio estático

Sobre él actúa la presión interna del fluido, que es variable según la posición (x, y, z), y la gravedad. Hagamos coincidir el eje Z con la dirección de la gravedad pero en sentido contrario.  En la dirección del eje X tenemos dos caras separadas por la distancia a, sobre la cara en la posición x = 0 consideremos que actúa la presión p(x=0) igual en toda la cara (por ser la cara un elemento de dimensiones pequeñas, db·dc) y sobre la cara opuesta una presión p(x=1) también igual en toda la cara; como el fluido está en equilibrio, según el eje X las fuerzas deben de anularse:

p(x=0)\;\cdot\;db\cdot dc\;-\;p(X=a)\cdot\;db\cdot dc\;=\;0;

implica que

p(X=0) = p(X=a).  [1]

Esta igualdad nos dice que en todos los puntos del fluido del mismo nivel Z (respecto a la vertical de la gravedad) existe la misma presión.

Con este resultado podemos considerar una caja de fluido de dimensiones cualesquiera a, b, c;

Fig. 3: elemento de fluido en equilibrio de dimensiones arbitrarias

En efecto, las presiones sobre las caras izquierda y derecha van a ser las mismas;

p(x=0)=\int_0^bP(z)\cdot c\cdot\operatorname dz=c\int_0^bP(z)\cdot\operatorname dz,\\p(x=a)=\int_0^bP(z)\cdot c\cdot\operatorname dz=c\int_0^bP(z)\cdot\operatorname dz.

Consideremos ahora las caras superior e inferior de la caja; están separadas por una distancia b y tienen una área a·c; la presión sobre la cara superior es constante pera toda la cara, p(Z=b) y ejercerá una fuerza dirigida hacia abajo -p(Z=b)·a·c; sobre la cara inferior la presión es P(z=0), constante, y la fuerza será dirigida hacia arriba e igual a +p(Z=0)·a·c. Sumando esas fuerzas con el peso de la caja de fluido que tomamos como g·ρ·V, siendo ρ la densidad del fluido y V el volumen de la caja, o sea V = a·b·c, obtenemos:

-p(z=b)\cdot ac\;+\;p(z=0)\cdot ac\;-\;g\rho abc\;=\;0;

simplificando términos:

-p(z=b)\;+\;p(z=0)c\;-\;g\rho b\;=\;0. [2]

El incremento de presión según Z, Δp, se define como la diferencia de presión según aumentamos z: Δp= p(Z = b) – p(Z = 0), por ello, [2] nos da el incremento de presión negativo;

-\triangle p\;-\;g\rho z\;=\;0\Rightarrow\boxed{\triangle p=-\;g\rho z} [3]

Esta es la ecuación de la Estática de los fluidos en el campo gravitatorio para fluidos incompresibles (la presión no afecta a la densidad del fluido).

Para fluidos compresibles la densidad ρ es variable según la presión, y ésta sólo depende de la profundidad z; diferenciando [3]  respecto z obtenemos

\operatorname dp=-\;g\rho\left(z\right)\operatorname dz [4]

que es es la ecuación de la Estática de los fluidos en el campo gravitatorio para fluidos compresibles. Si conocemos como varia la densidad con la altura (o con la presión) entonces podemos integrar la ecuación [4] para todo el volumen del fluido:

\int dp\;=\;-\int g\cdot\rho\left(z\right)\cdot dz\Rightarrow\triangle p=-g\int\rho\left(z\right)dz [5]

Para los líquidos, que son prácticamente incompresibles emplearemos [4]. En cambio para fluidos compresibles necesitaremos conocer como varia la densidad ρ para poder integrar [4].

  • Pregunta: ¿Qué condiciones debería cumplir un fluido para que su presión fuera la misma en todos sus puntos?
  • Respuesta: Hemos visto que la presión varia con la profundidad debido al peso del líquido, o sea a la gravedad; si queremos una presión constante, debemos estar en gravedad cero, o alternativamente, la densidad del fluido debe de ser despreciable. Por ejemplo el gas hidrógeno a 0⁰C es un fluido compresible que tiene un densidad de 0.071 gr/litro = 0,071kg/m³, si una botella de 1litro de gas hidrógeno tiene una altura de h = 0.25m, aplicando [3] (o sea despreciando la compresión del gas debido a su peso) tenemos una diferencia de presión entre la parte superior y la inferior de:

\triangle p=-\;g\rho z=-9,81\cdot0.071\cdot0,25=0.174\frac N{m^2}

La presión se expresa en Newtons por m², o sea en Pascales (unidad de presión en el sistema internacional). Una presión de 0.174Pa es bastante baja, equivale a la presión ejercida sobre nuestro dedo (aproximadamente con una área de 1cm²) por un peso de 17 miligramos, equivalente al peso de 3 granos de arena sobre el dedo índice. Así pues la presión en todos los puntos de la botella con gas hidrógeno puede considerarse bastante constante.

Principio de Pascal

 Según la expresión [3] la diferencia de presión en el seno de un líquido debe depender sólo de la diferencia de profundidad, sin importar la presión interna del líquido; entonces si aumentamos la presión en un punto cualquiera del líquido, seguirá cumpliéndose [3]; ellos sólo es posible si la presión ejercida sobre ese punto se transmite por el líquido a todo su volumen. Esto es consecuencia de la propiedad de los fluidos de no soportar esfuerzos cortantes (el fluido se movería) y si el fluido es un líquido que no se comprime por la presión y además está estático entonces debe transmitir esa presión por igual a todos los puntos para mantener el equilibrio. Este es el principio de Pascal:

Las presiones ejercidas en un líquido estático se transmiten por igual a todos sus puntos.

La aplicación práctica clásica es la prensa hidráulica (fig. 4): dos émbolos de áreas bien distintas cierran un volumen de líquido de tal forma que si ejercemos una fuerza F sobre el émbolo menor, presionamos el fluido en una cantidad p = F/S donde S es la superficie de ese émbolo menor; esa presión se transmite a todo el líquido, y en particular llegará al émbolo mayor. Si ese émbolo tiene una superficie n veces mayor que el menor, entonces la fuerza que el líquido ejercerá sobre el embolo será F’ = p·nS = (F/S)·nS = nF, vemos que se ejerce una fuerza F’ tanto mayor como o son las areas de los émbolos.

fig. 4: Aplicación práctica del principio de Pascal, prensa hidráulica.

Por ejemplo si los émbolos son  cuadrados de lado l = 0.2m el menor y L = 2m el mayor, la razón de superficies será  L² / l² = 2² / 0.2² = 100, luego aplicando una fuerza F = 10kg en el émbolo pequeño obtendremos una fuerza de 10·100 = 1.000kg en el émbolo mayor. Como la energía se mantiene constante, se deduce que el desplazamiento d que hagamos en el émbolo menor producirá un desplazamiento d/n en el mayor, donde n es la proporción F’/F. En efecto, el trabajo realizado sobre el émbolo menor es W = F·d y debe de ser igual al trabajo realizado por el émbolo mayor W’ = F’·d’; como F’/F = n se sigue que F·d = F’·d’ -> d/d’ = F’/F = n -> d’ = d/n.

 Gases perfectos. Ley de Boyle-Mariotte

En condiciones de temperatura y presión tales que un gas se encuentre lejos de licuarse (pasar de gas a líquido) todos los gases suelen cumplir muy bien la condición de los gases perfectos:

pV\propto T [5]

que nos dice que el producto de la presión por el volumen del gas  es siempre proporcional a la temperatura; en particular si la temperatura se mantiene constante, entonces también los será el producto de la presión por el volumen:

pV = cte  a T =cte [6]

ley denominada de Boyle-Mariotte: cuando se comprime o dilata un gas perfecto a temperatura constante, el producto de su presión por su volumen se mantiene constante. Hay que precisar que al comprimir o dilatar un gas éste se calienta o enfría respectivamente, de forma que en general en la práctica no se cumple exactamente la condición de temperatura constante;  si la expansión o compresión se hace muy lentamente la aproximación se hace bastante buena (se denominan expansión o compresión isotermas). Para saber más sobre variaciones isotermas ver el artículo Trabajo, calor y 1r principio de la Termodinámica.

Principio de Arquímedes

Fig. 6: Esquema para modelar el Principio de Arquímedes

Imaginemos un cuerpo sólido sumergido en parte en líquido, que está flotando en equilibrio. Para lograr ese equilibrio, las presiones ejercidas por el líquido sobre su superficie, más las presiones ejercidas por el fluido aire, más el peso del cuerpo, deben compensarse mútuamente. Además, las fuerzas resultantes de las presiones deben generar una única resultante que esté alineada con la fuerza de la gravedad, vertical y que pasa por el centro de gravedad del cuerpo (de otro modo, se crearía un par de fuerzas de giro entre el peso y la resultante de las presiones y el cuerpo giraría).

Esta resultante E de las presiones que es vertical y pasa por el centro de gravedad se denomina empuje y debe de se igual y de signo opuesto al peso P (figura 6).

Imaginemos ahora que sustituimos la parte sumergida del cuerpo sólido por un volumen idéntico de líquido; las presiones que había sobre el sólido no cambian, el empuje sobre el líquido será el mismo y se transmitirá por todo el seno del líquido añadido, quedando en equilibrio con su peso. Así pues, el empuje será igual el peso del líquido con el que hemos sustituido el cuerpo sólido, este es el principio de Arquímedes:

Todo cuerpo sumergido en un líquido experimenta un empuje vertical igual al peso del líquido desalojado.

Es interesante señaĺar que el principio se aplica también al aire: el cuerpo sólido experimentará un empuje hacia abajo debido al volumen de aire que desplaza su parte no sumergida; en la práctica se desprecia ese empuje hacia abajo del aire en comparación con el empuje hacia arriba del líquido (pues la densidad del aire es unas 1.000 veces menor que la del agua) y se suele enunciar la versión ampliada del principio:

Todo cuerpo sumergido total o parcialmente en un líquido experimenta un empuje vertical igual al peso del líquido desalojado.

  • Pregunta: ¿Varía con la altura la fuerza ascensional de un globo?
  • Respuesta: El empuje que hace subir al globo se basa en el principio de Arquímedes, pues el globo se llena con un gas de densidad inferior al aire (1,225 kg/m3 a la presión atmosférica normal y a 15 ºC), normalmente con Helio (0.1785 kg/m3), el globo desaloja un volumen de aire que produce el empuje ascencional, como pesa meno que ese aire desalojado, el globo “flota” y se eleva. A medida que va ganando altura, la densidad del aire desciende, a 11.000 metros ya es sólo de 0,3629 kg/m³, por tanto a medida que el globo asciende, el empuje será menor.
  • Pregunta: Si variase la densidad media de la Tierra (5,51 g/cm³), ¿variaría también la densidad del aire atmosférico?
  • Respuesta: En efecto. La atmósfera es una capa de aire con un peso debido a la gravedad de la Tierra, un volumen y una presión. La presión es expansiva, pero el aire no se difunde por el espacio debido a la gravedad. Si la densidad de la Tierra cambia, su peso también, y también la gravedad, por ello se rompería el equilibrio actual y la presión del aire o bien expandiría la atmósfera (caso de una densidad menor de la Tierra) o bien la comprimiría (caso de una densidad mayoir de la Tierra); en ámbos casos, como la masa total de aire no cambia, al cambiar su volumen, cambiaría su densidad.

 

Estadística Aplicada -> Contrastes de Hipótesis

Supongamos que hemos comprado un saco de nueces que contiene unas 1000, y que al llegar a casa cogemos una al azar, resultando que está seca, incomestible. Un optimista pensará, “¡bah! he ido a coger la única que está pasada, no importa”, mientras que un pesimista pensará “buenoo … este saco estará lleno de nueces podridas”.  Cualquiera de los dos puede tener razón. Para saberlo, sin tener que vaciar todo el saco, podemos tomar una muestra representativa, esto es, suficientemente grande (por ejemplo, 20 nueces) y bien tomada (mezclamos bien las nueces, cogemos una de arriba, otra del lado derecho, otra de abajo, etc., cambiando de sitio cada vez de forma aleatoria). Después, observando el número de nueces buenas de la muestra, podemos intentar inferir cuantas nueces buenas habrá en el saco. Este procedimiento de comprobación de un producto comercial es parte del proceso de control de calidad, que se hace tanto por parte del fabricante (control de calidad de producción) como del comprador (control de calidad a la recepción del producto). La herramienta estadística que permite, con cierto grado de certeza (denominado nivel de confianza), decidir si una compra como la del saco de nueces es acertada o por el contrario debemos reclamar al fabricante es el contraste de hipótesis estadísticas. Por supuesto, como siempre en Estadística, no podremos saber realmente cuantas nueces están estropeadas a menos que las miremos una por una: aceptar las conclusiones del contraste conllevan un riesgo, como vemos en el siguiente apartado.

Problemas y  errores que podemos cometer en los contrastes

Supongamos que el fabricante, a través de su control de calidad de producción, está convencido de que sólo un 1% de sus nueces envasadas pueden llegar en mal estado al consumidor, y que el consumidor acepta este máximo, y quiere comprobarlo a la recepción del producto, así que aceptará como máximo ese 1% defectuoso. El comprador entonces extrae una muestra para comprobarla … pero puede suceder que esa muestra resulte ser peor de lo que realmente es la producción (el término estadístico correcto sería la población), con lo cual reclamará al fabricante sin motivo real, erróneamente; este error se denomina error-α o  error de tipo I.  También puede suceder lo contrario, que por azar la muestra resulte ser mucho mejor que la población, el comprador aceptará erróneamente la compra siendo defectuosa, es el error-β o error de tipo II.

Por ejemplo si los pesos de un dulce tienen una media de 20gr y sólo uno de cada 100 se desvía de ese peso más de 1gr, en una muestra de tamaño n = 30, el comprador podría pensar de rechazar su pedido si encuentra un sólo dulce que se desvíe más de 1gr del peso medio, pues 30·1/100 = 0.3, la proporción en la muestra no llega a la unidad. Si cada dulce, al ser pesado, tiene una probabilidad 1/100 de salirse de la tolerancia, cuando pesamos uno por uno los 30 dulces de la muestra, la probabilidad de que uno se salga de la tolerancia viene dada por la distribución de probabilidad binomial, y vale 0.2242, que es un valor alto (un 22,42%), peor aún, la probabilidad de que encontremos uno o más de uno fuera de tolerancia es  α = 26%. Y eso que hemos supuesto que el fabricante dice la verdad. Vemos que este procedimiento de control en la recepción del producto produce un alto error tipo I, con un valor de α = 0.26.

Veamos ahora que pasa con el caso contrario: el fabricante no dice la verdad, y realmente está produciendo un 5% de dulces fuera de tolerancia; ¿qué probabilidad hay de que el comprador no se de cuenta y acepte la compra realizada? Según la distribución binomial, con un 5% de probabilidad de dulce “erróneo”, la probabilidad de que no aparezca ninguno en la muestra de 30 dulces es β = 21,5%, que seria la probabilidad de cometer error de tipo II. Este ejemplo muestra claramente que se necesita un procedimiento eficaz para realizar un control de calidad correcto que no perjudique al fabricante con errores de tipo I ni al comprador con errores de tipo II.

En la figura 1 se muestra el aspecto de las probabilidades de aceptación de una muestra en función de la fracción defectuosa en la población; la línea vertical simboliza la tolerancia anunciada por el fabricante, si la fracción defectuosa es menor, la producción es mejor de lo que anuncia, y si es mayor, la producción resulta peor de lo anunciado. Por supuesto, si la fracción defectuosa es cero (producción perfecta) seguro que aceptaremos cualquier muestra, y no hay error posible. Pero entre el valor de cero y la tolerancia de 0,01 vemos que la probabilidad de no aceptar (rechazar) la muestra va aumentando, en esa región se produce el error de tipo I o α. Por otro lado, cuando la producción es más defectuosa de lo anunciado, sigue habiendo una probabilidad significativa de aceptar la muestra (región β).

Fig. 1: Curva de aceptación de una muestra, dependiendo de la proporción real de defectos en la población

Así, la curva divide el cuadrante XY en cuatro regiones: las de error I y II, y las otras dos regiones que corresponden a cuando acertamos en el control: aceptamos la muestra que proviene de una población correcta, o bien rechazamos la muestra que proviene de una población incorrecta.

La matemática del contraste de hipótesis

La Estadística teórica proporciona modelos matemáticos de distribuciones de probabilidad: funciones con ciertas propiedades que nos permiten calcular probabilidades de forma sistemática. Los contrastes de hipótesis usan estos modelos para poder decidir si un control de calidad es o no es válido, y lo hacen del siguiente modo:

  1. Dado un problema real en el que extraemos una muestra de una población para comprobar si un cierto valor (un parámetro de la población) es correcto, identificamos qué modelo matemático es el más adecuado para esa situación, atendiendo al tipo de población y al tamaño de la muestra.
  2. Planteamos dos hipótesis: la denominada hipótesis nula, hipótesis de trabajo, o H0, y la hipótesis alternativa, o H1. La H0 supone que los parámetros dados para la población son correctos, que el modelo de distribución de probabilidad escogido en el paso anterior es también correcto, y que la muestra que tenemos pertenece efectivamente a la población; la hipótesis H1 supone que las afirmaciones anteriores no son correctas (una, algunas o todas)
  3. Suponiendo que la hipótesis de trabajo es cierta, calculamos, usando el modelo de distribución de probabilidad, un valor numérico, denominado estadístico de contraste, que es una variable aleatoria función de la muestra.
  4. Usando las probabilidades dadas por el modelo de distribución de probabilidad, comprobamos si el valor anterior es “creíble” o por el contrario es francamente poco probable que suceda; en el primer caso, damos por verificada la hipótesis H0, en el segundo, rechazamos H0 por ser poco probable y aceptamos la alternativa H1.

Ejemplo 1: comprobar si una moneda es simétrica. Queremos averiguar si, en el lanzamiento al aire de una moneda, realmente el número de caras y de cruces obtenidas son iguales o no. Para ello lanzamos al aire la moneda n = 100 veces y anotamos el número de caras y de cruces, que ha resultados ser 52 y 48, respectivamente. Para decidir si la moneda es simétrica respecto al número de caras y de cruces procedemos sistemáticamente.

  1. Cada lanzamiento de la moneda nos da un valor binario, cara o cruz, cada uno con una cierta probabilidad que llamamos P(cara) = p, P(cruz) = q. Si repetimos el lanzamiento n veces, y nos preguntamos el número de caras X (o de cruces) obtenidas en esos lanzamientos, esa variable X es, por definición, una variable aleatoria con distribución de probabilidad binomial. Tenemos pues el modelo matemático.
  2. En principio, suponemos (hay que comprobarlo) que la moneda es simétrica, o sea que las probabilidades p y q son iguales a 1/2: p = q = 1/2. Nuestra hipótesis H0 será: la variable X número de caras sigue la distribución de probabilidad binomial con p = 1/2. La hipótesis H1 será: o bien X no sigue la distribución de probabilidad binomial, o bien p no es igual a 1/2.
  3. Suponiendo H0 cierta, la proporción de caras obtenidas en la muestra n = 100 lanzamientos, que llamaremos p’ = 52/100, debería no estar muy alejada de p = 1/2. Nuestro estadístico de contraste en este caso será simplemente p’.
  4. Suponiendo H0 cierta, ¿cuál es la probabilidad de obtener p’ = 0.52 en n = 100 lanzamientos de la moneda? Este planteamiento es demasiado estricto, pues dará una probabilidad baja, concretamente da P(X = 52) = 0.07, porque obtener precisamente 52 caras es totalmente aleatorio, si volvemos a lanzar la moneda otras 100 veces seguramente obtendremos otro valor distinto, así que si seguimos este método estaremos trabajando con una probabilidad grande de cometer  error de tipo I: rechazar una hipótesis que era verdadera. Lo que se hace en contrastes de hipótesis es trabajar siempre con intervalos aceptables de valores, no con valores puntuales; por ejemplo, ¿en qué intervalo de valores esperamos encontrar el número de caras X, en n = 100 lanzamientos, con una probabilidad del 95%? Calculamos el intervalo [a, b] tal que  P(a <= X  <= b) = 0.95; siendo n bastante grande, el cálculo se simplifica aproximando la binomial por una distribución normal, concretamente aplicamos el siguiente resultado:

Teorema 1: Si H0 es cierta, y n es grande, entonces el estadístico de contraste

Z=\frac{p'-p}{\sqrt{\displaystyle\frac{p\left(1-p\right)}n}}

sigue una distribución de probabilidad Normal estándard.

O sea que para nuestra moneda tendremos

Z=\frac{0.52-0.5}{\sqrt{\displaystyle\frac{0.5\left(1-0.5\right)}{100}}}=\frac25=0.4

¿Entre qué valores esperamos que Z esté, con una probabilidad del 95%, siendo Z una variable normal estándar? Consultando las tablas de la Normal encontramos que P(-1.96 < Z < 1.96) = 0.95. Vemos que el valor obtenido del estadístico de contraste, Z = 0.4,  cae dentro de este intervalo, por tanto “todo cuadra”, es lo que esperábamos al suponer H0 cierta, por lo que concluimos que, efectivamente, la moneda es simétrica.

Intervalos de aceptación de H0 y H1, p-valor

En el ejemplo 1, el intervalo que hemos obtenido, [-1.96, 1.96], se llama intervalo de aceptación de la hipótesis H0. En seguida deducimos que existe otro intervalo de aceptación de la hipótesis alternativa, que será el complementario: \left(-\infty,-1.96\right)\cup\left(1.96,+\infty\right), es el intervalo de aceptación de la hipótesis H1. Decidir con qué hipótesis nos quedamos, con H0 o H1, es simplemente ver en cual de estos dos intervalos “cae” el estadístico de contraste.

Claro que estos intervalos son bastante arbitrarios: en el ejemplo 1 lo hemos obtenido a partir de una probabilidad del 95%: el estadístico de contraste Z, debe de estar en [-1.96, 1.96] en un 95% de los casos, siempre que la hipótesis H0 sea cierta; pero, ¿por qué 95%, y no 80%, 70% o 100%? En la siguiente tabla vemos otras elecciones para la probabilidad, su intervalo de aceptación de H0, y la conclusión obtenida al comparar el estadístico de contraste Z = 0.4 con el intervalo:

Probabilidad intervalo aceptación H0   Conclusión
100,00% -∞ +∞ H0 cierta
99,00% -2,5758293035 2,5758293035 H0 cierta
95,00% -1,9599639845 1,9599639845 H0 cierta
90,00% -1,644853627 1,644853627 H0 cierta
80,00% -1,2815515655 1,2815515655 H0 cierta
70,00% -1,0364333895 1,0364333895 H0 cierta
60,00% -0,8416212336 0,8416212336 H0 cierta
50,00% -0,6744897502 0,6744897502 H0 cierta
40,00% -0,5244005127 0,5244005127 H0 cierta
30,00% -0,3853204664 0,3853204664 H0 falsa
20,00% -0,2533471031 0,2533471031 H0 falsa
10,00% -0,1256613469 0,1256613469 H0 falsa
0,00% 0 0 H0 falsa

Sea cual sea la probabilidad escogida, se le llama nivel de confianza del contraste, y se le denota por (1 – α); la probabilidad α también tiene nombre: es el nivel de significación del contraste. Así, en el ejemplo 1 hemos elegido un nivel de confianza del 95%, o equivalentemente, un nivel de significación del 5%.

Recordemos que en todo contraste, al decidir con qué hipótesis nos quedamos, podemos cometer errores, de tipo I o II; el error de tipo I, rechazar H0 cuando era cierta, sería el caso de haber obtenido con una moneda simétrica, por ejemplo, 60 caras en 100 lanzamientos, ya que en este caso obtenemos un estadístico Z = 2, que cae fuera del intervalo de aceptación de H0, [-1.96, 1.96]. Es difícil que esto ocurra, pero no imposible: la probabilidad de obtener un Z fuera del intervalo [-1.96, 1.96] es precisamente del 5%, el nivel de significación, y al mismo tiempo, es ésta la probabilidad de cometer el error de tipo I:

El nivel de significación α es la probabilidad de cometer, en un contraste, el error de tipo I

 Así pues, al escoger la probabilidad (1 – α) del intervalo de aceptación, al mismo tiempo estamos escogiendo con que probabilidad vamos a cometer el error de tipo I. Evidentemente, queremos que sea baja, por lo que los valores de la tabla 0%, 10%, etc para (1 – α) quedan descartados. En la práctica suelen usarse de forma estándar niveles de confianza del 90%, 95% o 99%, equivalentes a niveles de significación de 10%, 5% o 1%. ¿Y por qué no tomamos (1 – α) con lo cual α = 0 y seguro que no cometemos error de tipo I? En la tabla vemos que el intervalo de aceptación de H0 es toda la recta real: sea cual sea el valor del estadístico Z aceptaremos H0: el contraste no hace nada, siempre responde lo mismo, que H0 es cierta, !incluso siendo falsa!. Si lo queremos de otro modo:

Al reducir mucho la probabilidad α de cometer error de tipo I, aumentamos mucho la probabilidad β de cometer error de tipo II.

Dada esta arbitrariedad de elección del nivel de confianza (o del de significación), es útil otra forma alternativa de decidir entre H0 y H1, que consiste en, dado el estadístico z, y la variable aleatoria Z de la población, calcular la probabilidad P(Z > z) = P(z < Z < +∞). Esperamos que esta probabilidad no sea “demasiado pequeña” para aceptar H0, concretamente la comparamos con los niveles de significación habituales, 10%, 5% o 1%. A la probabilidad P(Z > z) se la conoce con el nombre de p-valor del contraste asociado al estadístico Z, o simplemente, el p-valor.

Ejemplo 2: siguiendo con el caso de la moneda, el p-valor correspondiente a z = 0.4 es P(Z > 0.4)  = 0.3446 = p-valor, o expresado en %, es de 34,46%; comparando con los niveles 10%, 5% o 1% vemos que es mayor que todos ellos, así que aceptamos H0 tanto para la significación 10% como para  5% o 1%.

En la realidad sucede a menudo que no está tan claro si aceptar H0 o no, pues depende del nivel de significación finalmente elegido. Por ejemplo, si en el lanzamiento n = 100 veces de la moneda hubiéramos obtenido 60 caras, con lo cual es estadístico z = 2, y el p-valor = 0.0227, o 2.27%, es un valor pequeño, menor que α = 10% o α =5%, pero mayor que α = 1%; entonces, ¿qué decidimos? Diríamos: con unas probabilidades de cometer error I del 10% o del 5%, rechazamos que la moneda sea simétrica, pero con una probabilidad de cometer error I de sólo 1%, lo aceptamos. Todo depende de hasta que punto queramos evitar caer en el error de tipo I: rechazar H0 cuando era cierta.

El p-valor nos informa de la probabilidad de cometer error de tipo I en el contraste: para significaciones α > p-valor, aceptamos H1, para α < p-valor, aceptamos H0.

Contrastes unilaterales y bilaterales

Volvamos al ejemplo de los dulces, sus pesos tienen una media de 20gr y según el fabricante sólo uno de cada 100 se desvía de ese peso más de 1gr. El comprador quiere saber cómo proceder, en una muestra de tamaño n = 30, para decidir si la compra es aceptable o bien si ha de reclamar. Además, nos dice que no le preocupa que el peso real esté por encima de la media ya que en ese caso estará comprando más barato, tendrá más dulce por el mismo precio, lo que le preocupa es pagar por dulces a los que les falte peso para llegar a la media.

En seguida planteamos las hipótesis que darán respuesta al problema planteado:

  • H0: El peso de los dulces, que tiene una distribución de probabilidad normal, tiene una media de al menos 20gr,
  • H1: El peso de los dulces no llega a los 20gr, o bien la distribución real del peso no sigue una distribución normal

Hemos supuesto que la distribución teórica del peso de los dulces es normal, pues así suele suceder. Cuando en la hipótesis de trabajo H0 planteamos una desigualdad respecto a la media, como ahora que hacemos media 20, diremos que hacemos un contraste unilateral, mientras que si trabajamos con una igualdad, como en el caso de la moneda simétrica en el que suponíamos que p = 1/2, es un contraste bilateral.

  • H_0:\;\mu=\mu_0 contraste bilateral
  • H_0:\;\mu\geq\mu_0,\;H_0:\;\mu\leq\mu_0 contraste unilateral a la derecha o a la izquierda, respectivamente

Simbólicamente escribimos:

\begin{array}{l}\left.\begin{array}{r}H_0:\;\;\mu\geq20\\H_1:\;\mu<20\end{array}\right\}\\\;\end{array}

También tenemos contrastes unilaterales cuando H0 es una igualdad, pero H1 es una desigualdad estricta:

\begin{array}{l}\left.\begin{array}{r}H_0:\;\;\mu=\mu_0\\H_1:\;\mu\neq\mu_0\end{array}\right\},\left.\begin{array}{r}H_0:\;\;\mu=\mu_0\\H_1:\;\mu>\mu_0\end{array}\right\},\;\left.\begin{array}{r}H_0:\;\;\mu=\mu_0\\H_1:\;\mu<\mu_0\end{array}\right\}\\\;\end{array}

El primer contraste es bilateral, los otros dos son unilaterales a la derecha o a la izquierda, respectivamente. Aunque no hay unanimidad la corriente mayoritaria considera, por motivos formales, que lo correcto es mantener la igualdad en la hipótesis H0 y en todo caso manejar desigualdades en la hipótesis H1. Siguiendo este convenio, el contraste sobre los dulces quedaría:

\begin{array}{l}\left.\begin{array}{r}H_0:\;\;\mu=20\\H_1:\;\mu<20\end{array}\right\}\\\;\end{array}

entendiendo que si aceptamos H0 significa que el peso es como mínimo de 20gr, ya que se ha rechazado la hipótesis alternativa.

En la práctica el que el contraste sea bilateral o unilateral afecta a los intervalos de aceptación de H0 y H1. Resolvamos ahora el problema del control de calidad a la recepción de los dulces.

Ejemplo 3: Un comprador de dulces al por mayor quiere saber, al tomar una muestra de n = 20 dulces, qué criterio ha de seguir para saber si aceptar o rechazar la compra, con una probabilidad de error tipo I del 10%, suponiendo que los pesos de los dulces siguen una distribución normal de media 20gr.

Ya sabemos que la forma del contraste será

\begin{array}{l}\left.\begin{array}{r}H_0:\;\;\mu=20\\H_1:\;\mu<20\end{array}\right\}\\\;\end{array}

Para calcular el estadístico de contraste en este caso particular necesitamos el siguiente resultado:

Teorema 2: Si la población es normal y H0 es cierta, sabemos la media μ de la población pero desconocemos su desviación típica σ, entonces el estadístico

T=\frac{\overline x-\mu}{s/\sqrt n}

es una variable aleatoria que sigue una distribución de probabilidad t-Student con n-1 grados de libertad, siendo s la desviación típica de la muestra.

Conocemos la media y el valor de n, así que:

T=\frac{\overline x-20}{s/\sqrt{20}}

Para aceptar H0 con una significación de α = 10%, el intervalo de aceptación de H0 ha de “abarcar” un 100% – 10% = 90% de probabilidad, y el de H1 el 10% restante. Pero siendo que sólo nos interesa el caso \mu<20 para H1, no consideraremos que valores grandes de la media afecten a H1, en otras palabras, el intervalo de aceptación de H1 ha de ser del tipo (-∞, t), siendo t un valor tal que P(-∞ < T < t) = 0.1. Este valor, buscado en las tablas de la distribución t-Student, resulta ser t = -1.328, con lo cual el intervalo de aceptación de H1 es (-∞, -1.328) y  el de H0 será [-1.328, +∞). Para aceptar H0 por tanto debe de cumplirse que

T=\frac{\overline x-20}{s/\sqrt{20}}\in\lbrack-1.328,+\infty)\Leftrightarrow\frac{\overline x-20}{s/\sqrt{20}}\geq-1.328\Rightarrow\boxed{\frac{\overline x-20}s\geq\frac{-1.328}{\sqrt{20}}}

Así que nuestra recomendación al comprador de dulces será:

“Calcule usted la media \overline x y la desviación típica s de la muestra de 20 dulces, y sustituya esos valores en la expresión \frac{\overline x-20}s; si le resulta un valor mayor o igual a -0.2969, acepte la compra, de lo contrario, podrá reclamar al fabricante, con una probabilidad del 10% de error de equivocarse al hacerlo.”

Supongamos que nos hace caso y le resulta \overline x=19.5, s = 1.1; entonces resultará \frac{19.9-20}{1.1}=-0.09\;> -0.2969 y le recomendamos aceptar el pedido.

Ejemplo 4: El comprador de dulces se da cuenta de que no ha usado una información importante: el fabricante afirma que sólo uno de cada 100 dulces se desvía de ese peso más de 1gr; con este dato podemos estimar cual es la desviación típica de la población, y afinar más el contraste. La afirmación equivale a decir que P(20 – 1 < X < 20 + 1) = 99/100, siendo la población normal, podemos hacer un cambio de variable para convertirla en normal estándar Z=\frac{X-\mu}\sigma:

P\left(19<X<21\right)=P(\frac{19-20}\sigma<Z<\frac{21-20}\sigma)=P\left(\frac{-1}\sigma<Z<\frac{1}\sigma\right)=0.99

Mirando en las tablas de la normal estándar vemos que para que se cumpla la desigualdad anterior ha de ser \frac1\sigma=2.576\Leftrightarrow\sigma=0.3882. Para utilizar esta información sobre la población en el contraste necesitamos otra propiedad matemática:

Teorema 3: Si la población es normal y H0 es cierta, sabemos la media μ de la población y su desviación típica σ, entonces el estadístico

z=\frac{\overline x-\mu}{\sigma/\sqrt n}

es una variable aleatoria que sigue una distribución normal estándard.

Calculamos el valor del estadístico: z=\frac{19.9-20}{0.3882/\sqrt{20}}=-1.15. Buscamos en las tablas de la normal estándar la probabilidad P(Z > z), que es, según hemos definido, el p-valor, y resulta ser p = 0.12507, la situación se representa en la figura

Intervalos de aceptación de H0 y H1 según el p-valor
Intervalos de aceptación de H0 y H1 según el p-valor

Entonces, para una significación de 0.01 < p-valor, concluimos que no rechazamos H0, la conclusión no ha cambiado respecto al ejemplo anterior.  Si en vez de usar el p-valor usamos el método de buscar en las tablas el intervalo de aceptación de H0, tendremos que encontrar un z tal que P(Z > z) = 0.90 que resulta ser -1.282, el intervalo de aceptación de H0 es [-1.282, +∞), como z = -1.15 cae dentro del intervalo, aceptamos H0.

Potencia de un contraste

Si comparamos los intervalo para H0 de los eje del ejemplos 3 y 4, que son   [-1.328, +∞) y [-1.282, +∞), vemos que el ejemplo 4 es algo más estrecho; por ejemplo, para un valor del estadístico de contraste de -1.3, en el ejemplo 3 aceptaríamos H0 pero en el ejemplo 4 no. Siendo que en los dos ejemplos la significación es la misma, del 10% (que recordemos que es la probabilidad de cometer error de tipo I), ¿porqué hay esta diferencia?

Recordemos que el error de tipo II es: aceptar H0 cuando realmente es falsa; diremos que, a igualdad de significación, un contraste es más potente que otro, si tiene menor probabilidad \beta de cometer el error de tipo II. Lo que sucede con los ejemplos 3 y 4 es que el contraste de este último es más potente que el del primero; esto es así porque en el ejemplo 4 usamos más información que en el 3: sabemos la desviación típica de la población. En general, interesa maximizar la potencia del contraste a utilizar, usando toda la información disponible.

Otros contrastes de hipótesis

En los ejemplos anteriores hemos visto como se contrasta el valor de la media (el peso medio de los dulces) y el de la proporción (en el problema de la moneda y las caras y cruces). Otros contrastes de hipótesis decidirán sobre otros parámetros: sobre la varianza, sobre la diferencia de medias entre dos poblaciones, o la diferencia de proporciones.

Ejemplo 5: Nuestro comprador de dulces decide probar con otro fabricante que asegura que sus dulces tienen un peso medio de 22gr con una desviación típica de 1.3gr. La pregunta que nos hace es: ¿con base a una muestra de n_1 = 20, n_2 = 20 dulces del fabricante 1 y del fabricante 2, cómo puedo estar seguro de que efectivamente el fabricante 2 produce dulces con un peso 2gr superior al fabricante 1, con un 10% de posibilidad de error tipo I?

Formalmente, suponiendo que los pesos de las dos poblaciones de dulces de los dos fabricantes siguen una distribución de probabilidad normal, el contraste se establece como sigue:

  • H0: no hay diferencias entre los pesos medios, \mu_1=\mu_2
  • H1: \mu_1>\mu_2

Para cada tipo de contraste se necesita un teorema que nos proporcione el estadístico de contraste a utilizar, tal como hemos visto en los ejemplos anteriores; para esta comparación de medias de dos poblaciones normales con desviaciones típicas conocidas usaríamos:

x=\frac{\left(\overline{x_1}-\overline{x_2}\right)-d_0}{\sqrt{\displaystyle\frac{\sigma_1^2+\sigma_2^2}{n_1+n_2}}}

Contrastes no paramétricos

En muchos casos prácticos interesa formular hipótesis estadísticas en las que no tenemos conocimiento teórico de la población (no tenemos sus parámetros); por ejemplo, queremos comparar las calificaciones obtenidas en una prueba de idiomas por los alumnos antes y después de un viaje a Inglaterra, para saber si ha surtido algún efecto, la muestra es:

Alumno 1 Alumno 2 Alumno 3 Alumno 4 Alumno 5
Antes viaje 7,25 8,00 6,00 8,00 9,00
Después viaje 8,25 7,82 6,36 9,69 8,59

A simple vista parece que sí que ha surtido efecto, pero queremos saber si las diferencias observadas son estadísticamente significativas y que no sean producto del azar. Si no podemos suponer normalidad en la variable, necesitamos aplicar un contraste no paramétrico, por ejemplo uno muy sencillo es el de los signos: observamos los signos de las diferencias entre notas:

Alumno 1 Alumno 2 Alumno 3 Alumno 4 Alumno 5
Antes viaje 7,25 8,00 6,00 8,00 9,00
Después viaje 8,25 7,82 6,36 9,69 8,59
Diferéncia 1 -0,18 0,36 1,69 -0,41
Signo + + +

Establecemos el contraste:

  • H0: no hay diferencias en las calificaciones obtenidas en la prueba de idiomas de los alumnos antes y después del viaje a Inglaterra
  • H1: sí hay diferencias en las calificaciones obtenidas en la prueba de idiomas de los alumnos antes y después del viaje a Inglaterra

 

Si H0 es cierta, esperaríamos que los signos de las diferéncias fueran por igual positivos que negativos, la proporción para ambos ha de ser 1/2 ; tenemos 3 positivos y 2 negativos.

Física – > Relatividad -> Diagramas de Minkowski

Las transformaciones de Lorentz pueden ser a veces algo laboriosas de utilizar en cierto problemas, dando lugar a largos cálculos; H. Minkowski introdujo en 1908 unos diagramas en donde se representa el espacio-tiempo de forma que permite obtener las transformaciones de Lorentz de forma gráfica. En el eje de abscisas se representa el espacio unidimensional, x, y en el eje de abscisas el tiempo, pero multiplicado por c.

Para resolver transformaciones de Lorentz entre dos sistemas inerciales S y S’, éste último moviéndose a velocidad v con respecto al primero, se considera que los ejes x, ct de S son rectangulares, y en ese caso los ejes x’, ct’ de S’ serán oblicuos. La línea punteada en la figura 1 representa la trayectoria en el espacio-tiempo de una señal luminosa que en el tiempo t = 0 parte del origen de coordenadas, y es la bisectriz de los ejes x, ct, pues la luz recorre en un tiempo ct = 1 -> t = 1/c una distancia x = c·t = c/c = 1, de hecho se escoge la escala de tiempos ct por esta razón.

Además, cualesquiera otros ejes x’, ct’ relacionados con una referencia S’ que se mueve a velocidad v < c tendrán también como bisectriz a la línea punteada de la señal luminosa, ya que c es la misma para todos los sistemas de referencia. Como mayor sea v, más cercanos estarán los ejes x’ , ct’ la la línea bisectriz. En efecto, en un tiempo ct = 1 -> t = 1/c el sistema S’ recorrerá una distancia x = vt = v/c; el ángulo \theta entre el eje ct’ y el eje x cumplirá

\tan\left(\theta\right)=\frac1{v/c}=\frac cv [1]

Supondremos que en t=0 los orígenes de ambos sistemas de referencia coinciden. Siendo c la velocidad límite, cualquier otra referencia móvil tendrá unos ejes más cercanos a la bisectriz.

Ejemplo 1: Si el sistema de referencia S’ se mueve a v = c/2 con respecto a S’, entonces

\theta=\tan^{-1}\left(\frac c{c/2}\right)=tan^{-1}\left(2\right)=63.4^\text o

Aunque para dibujar los ejes es más sencillo simplemente dibujar primero ct’ usando la ratio “una unidad según el eje de abscisas corresponde a 1/2 del eje de ordenadas”.

Minkowski1c
Fig. 2: tres sistemas de referencia, el S’ con v = c/2, el S” con v = c/3

En general, si S’ se mueve a velocidad v, entonces su recta ct’ pasará por los puntos (0, 0) y (v/c, 1). En cuanto a la recta x’, pasará por los puntos (0, 0 ) y (1, v/c). No es necesario calcular el ángulo \theta para dibujarlos. En la figura 3 vemos un S’ con v=c/2 y otro S” con v=c/3.

Unidad de medida en las referencias móviles

Es importante recordar que la escala de los ejes no es la misma para la referencia S que para las S’, S”, etc. No podemos usar la misma regla de medir en S que en los demás sistemas. Para definir la distancia unidad en cada referencia se usa el denominado invariante espacio-tiempo:

x^2-\left(ct\right)^2=1 [2]

Haciendo una tabla de valores (x, ct) para esta ecuación, encontramos los puntos que la cumplen, que resultan formar una hipérbola (en amarillo en la figura 3):

x ct
1 0
1,1180339887 0,5
1,4142135624 1
1,8027756377 1,5
2,2360679775 2
2,6925824036 2,5
3,1622776602 3
Fig. 3: hipérbola de calibración x² - (ct)² = 1
Fig. 3: hipérbola de calibración x² – (ct)² = 1

Vemos que la hipérbola corta al eje x en el punto 1, use acerca asintóticamente a la línea espacio-tiempo de la luz; los puntos de corte con los ejes x’, x”, etc, de las otras referencias determinan la unidad de longitud en esas referencias vistas desde la referencia x en reposo. Claramente se ve que la longitud unidad, en cualquier sistema en movimiento, vista desde el reposo, es mayor que la unidad del sistema en reposo, tendiendo a infinito para referencias que se muevan a velocidades cercanas a la de la luz, esto es una consecuencia de la fórmula de la contracción de longitudes de Lorentz:

\triangle x=\gamma\triangle x'=\gamma\cdot1\xrightarrow{v\rightarrow c}\infty

Ejemplo 2: Si el sistema de referencia S’ se mueve a v = c/2 con respecto a S’, dibujar la hipérbola de calibración para obtener la distancia equivalente a x = 2 en el sistema S’ en el instante t = 0.

Fig. 4: determinar una longitud x'=2 vista desde el sistema S en reposo
Fig. 4: determinar una longitud x’=2 vista desde el sistema S en reposo

Con la hipérbola obtenemos su punto de corte del eje x’, la distancia entre el origen y ese punto será la distancia unidad, la duplicamos sobre el eje x’ para llegar al punto A’ de coordenadas en el sistema S’ (x’=2, t’ = 0).

Ejemplo 3: con los mismos sistemas S, S’ del ejemplo anterior, situar en el diagrama los sucesos A: x = 1, ct = 1 y B: x’ = 1, ct’ = 1.

Fig. 4: diagrama de Minkowski para situar los sucesos B, C
Fig. 5: diagrama de Minkowski para situar los sucesos A, B

 El punto A es inmediato: estará sobre la línea espacio-tiempo de la luz. Para el punto B usamos la hipérbola de calibración que nos da la coordenada (x’=1, ct’=0) sobre el eje x’. Esta misma distancia la medimos sobre el eje ct’ (con una regla o la trasladamos con un compás) para obtener el punto (x’=0, ct’=1); entonces trazamos por estos puntos paralelas a los ejes (líneas punteadas en rojo en la figura), la intersección de estas líneas nos da el punto B(x’=1, ct’=1).

Ejemplo 4: Mediante el diagrama obtener las coordenadas en S’ del punto A, y las coordenadas en S del punto B del ejemplo anterior.

Fig. 6: Diagrama para obtener las coordenada de los puntos del ejemplo anterior en otro sistema
Fig. 6: Diagrama para obtener las coordenada de los puntos del ejemplo anterior en otro sistema

Para el punto A trazamos paralelas a los ejes x’, ct’, los puntos de corte con esos ejes (rombos azules en la figura) nos dan las coordenadas, vemos que son, aproximadamente, x’ = 0.6 (recordar que hay que comparar con la unidad de longitud en el sistema S’, dada por la hipérbola de calibración) y ct’ = 0.5. Si trazamos el gráfico en papel milimetrado y usamos herramientas de dibujo lineal la precisión mejorará bastante.

Para el punto B trazamos paralelas a los ejes x,  ct, obtenemos aproximadamente x = 1.6, ct = 1.6.

Para comparar procedimientos y comprobar resultados, vamos a calcular las coordenadas analíticamente. Para pasar de A: x = 1, ct = 1 a una referencia que se mueve a velocidad v = 0.5c usamos:

\begin{array}{l}\gamma=\left(1-\frac{v^2}{c^2}\right)^{-1/2}=\left(1-\frac{\left(c/2\right)^2}{c^2}\right)^{-1/2}=\left(\frac34\right)^{-1/2}=\frac2{\sqrt3};\\x'=\gamma\left(x-vt\right)=\frac2{\sqrt3}\left(1-0.5c\cdot\frac1c\right)=\frac1{\sqrt3}\approx0.58;\\t'=\gamma\left(t-vx/c^2\right)=\frac2{\sqrt3}\left(\frac1c-0.5c\cdot1/c^2\right)=\frac1{c\sqrt3}\approx\frac{0.58}c\end{array}

Recordemos que en el diagrama de Minkowski el tiempo viene multiplicado por c; así, el valor ct = 1 implica que t = 1/c. De la misma forma, en el resultado final para t’, si multiplicamos por c para obtener ct’, el resultado es el mismo que en el diagrama, ct'=\frac{c\cdot0.58}c=0.58.

Ejemplo 5: El siguiente diagrama representa una nave espacial moviéndose a velocidad v = 0.5c, en el punto-suceso A se produce una explosión, propagándose la radiación en todas direcciones a velocidad c. La nave despliega un escudo anti-radiación en el punto-suceso B. La pregunta que nos hacemos es, ¿cuando la radiación alcance la nave, estará protegida por el escudo, o por el contrario lo habrá desplegado demasiado tarde?

Fig. 6: dos sucesos A, B, el primero representa una explosión, el segundo el despliegue de un escudo
Fig. 7: dos sucesos A, B, el primero representa una explosión, el segundo el despliegue de un escudo

La radiación viajará a velocidad c tanto en el sentido positivo como en el negativo; las dos trayectorias opuestas estarán a 90⁰ entre sí, y a 45⁰ con los ejes x, ct

Fig. 8: la radiación (líneas naranja) viajan a velocidad c (45⁰ con los ejes de S) en los dos sentidos posibles
Fig. 8: la radiación (líneas naranja) viajan a velocidad c (45⁰ con los ejes de S) en los dos sentidos posibles

La radiación que viaja en el sentido negativo de x alcanza al eje ct’ en el punto marcado en rojo, ese punto tiene coordenada x’=0, lo que significa que la radiación ha alcanzado a la nave, pero además lo ha hecho un poco antes de que se despliegue el escudo (suceso B), por tanto la nave ha tenido mala suerte con este diagrama. Ejercicio para el lector: ¿cómo se resolvería este problema usando transformaciones de Lorentz?

Física -> Mecánica relativista

En este artículo nos introducimos en la cinemática y dinámica relativistas a partir de ejemplos, buscando la máxima comprensión en detrimento del rigor, para exposiciones rigurosas podemos acudir a la bibliografía.

La relación entre masa y energía, E=mc^2

Según la mecánica cuántica, un fotón de frecuencia f tiene una energía asociada E=hf, donde h es la constante de Planck; por otro lado, De Broglie propuso que toda partícula de masa m en movimiento con velocidad v, y cantidad de movimiento p=mv, tenía asociada una “onda de materia” de longitud de onda \lambda=\frac hp (dualidad onda-partícula). Teniendo en cuenta que la relación entre longitud de onda, frecuencia y velocidad de la luz es \lambda f=c, operamos y obtenemos E=hf=h\frac c\lambda=h\frac c{h/p}=cp.

Entonces un haz de luz conteniendo un número muy elevado de fotones transportará una cantidad de movimiento p=E/C, donde E es la energía del haz; incluso sin tener masa, pues la luz es inmaterial, posee una cantidad de movimiento, por lo que cuando “choque” (más usualmente se dice que incide sobre …) con un objeto material, por la ley de la conservación de movimiento, transferirá una parte de p al cuerpo material, de la misma forma que cuando chocan dos cuerpos materiales. es la denominada “presión de radiación“. Todo esto es consecuencia de la Física cuántica básica, desarrollada a principios del siglo XX. En vez de luz, podemos llegar a la misma conclusión pensando en cualquier radiación. Dado que la radiación, en sí inmaterial (caso de la radiación electromagnética) es emitida y absorbida por la materia, nos encontramos que materia y energía radiante pueden “chocar” e intercambiar energía.

Ejemplo 1: Emisión de radiación dentro de una caja aislada.

relativitat1
Fig. 1: caja ideal dentro de la cual hay una emisión y absorción de radiación

Imaginemos una caja aislada, en reposo, de masa M, dentro de la cual hemos hecho el vacío, que contiene un material radiactivo (fig.1, parte superior); en un momento dado (t = 0) el material emite una haz de radiación de energía E, el cual viaja por el interior de la caja hasta llegar al otro extremo donde es reabsorbida por la pared de la caja. Al emitirse la radiación, se genera una cantidad de movimiento p=E/c; siendo el sistema aislado, la cantidad de movimiento total se conserva, así que la caja deberá adquirir una cantidad de movimiento igual e opuesta -p=-E/c, pero para la caja p=Mv luego -E/c=mv\Rightarrow v=-\frac E{mc}, la caja retrocede con esta velocidad. Despues de un tiempo t, se habrá desplazado una distancia x=vt=\frac E{mc}t.

Cuando la radiación alcance el otro extremo, habrá transcurrido un tiempo que será, aproximadamente, t=L/c; estamos suponiendo que x<<L pues de hecho la radiación ha de recorrer la distancia L-x. Entonces tenemos que el desplazamiento x es igual a x=\frac E{mc}t\approx\frac E{mc}\frac Lc=\frac{EL}{mc^2} [1], que efectivamente ha de ser despreciable respecto a L pues tenemos el valor c² en el denominador, siendo c = 3·10⁹ m/s.

Pero observando el sistema “desde fuera”, está aislado, no actúa nada sobre él, así que no si fuerzas que actúen no puede moverse en absoluto … x debería ser exactamente cero,  ¿tenemos una contradicción?  Afinando un poco más el argumento, lo que no puede moverse en un sistema aislado es su centro de masas; la caja de masa M se ha movido una distancia x a la izquierda, pero al mismo tiempo se ha emitido una masa m (la masa asociada a la radiación) a la derecha una distancia aproximadamente igual a L. Para que el centro de gravedad del sistema caja-radiación no se mueva, ha de cumplirse mL=Mx, sustituyendo el valor del desplazamiento x obtenemos:

mL=Mx\Leftrightarrow mL=M\frac{EL}{Mc^2}=\frac{EL}{c^2}\Leftrightarrow\boxed{E=mc^2} [2]

Hemos obtenido la famosa ecuación de Einstein que relaciona masa con energía, en este caso relaciona la masa m inercial de la radiación con su energía, pues masa material hemos supuesto que no tiene. También se puede ver como la afirmación de que toda energía radiante lleva asociada una masa inercial.

Energía cinética relativista

Si [2] implica que toda energía radiante tiene una masa inercial asociada, nos podemos preguntar si, dado un cuerpo material de masa en reposo M, al comunicarle energía cinética al cuerpo, podemos asociarle a esa energía cinética una masa inercial m, con lo cual la masa total del cuerpo en movimiento será M + m, habrá aumentado. Dado que hemos visto que la materia y la energía radiante pueden “chocar” e intercambiar energía y momento, esta suposición de asignar masa inercial a la energía ya no radiante sino cinética parece fundamentada.

De la dinámica clásica sabemos que el incremento de energía cinética \triangle E al trabajo producido: \triangle E=F\cdot x=W, para el caso de masa variable, la expresión a usar para la fuerza es F=\frac{\operatorname dp}{\operatorname dt}. Tomando una fuerza F que actúa en un pequeño intervalo dx, obtenemos \operatorname dE=\operatorname dW=\frac{\operatorname dp}{\operatorname dt}\operatorname dx=\operatorname dp\frac{\operatorname dx}{\operatorname dt}=v\cdot\operatorname dp [3].

Por otro lado, en Física clásica no relativista la cantidad de movimiento es p=mv, luego la masa cumple m=p/v. Si sustituimos esta masa en la expresión [2] obtenemos E=mc^2=\frac pvc^2 [4].

Multipliquemos las ecuaciones [3] y [4] y operemos:

 \left.\begin{array}{r}\operatorname dE=v\cdot\operatorname dp\\E=mc^2=\frac pvc^2\end{array}\right\}\Rightarrow E\operatorname dE=\cancel v\cdot\operatorname dp\cdot\frac p{\cancel v}c^2\Rightarrow\int E\operatorname dE=\int c^2p\operatorname dp

integrando llegamos a E^2=c^2p^2+E_0^2. Pero usando [4] resulta que cp=Ev/c, sustituyendo:

E^2=\left(\frac{Ev}c\right)^2+E_0^2\Leftrightarrow E^2\left(1-\frac{v^2}{c^2}\right)=E_0^2\Leftrightarrow\boxed{E=\frac{E_0}{\sqrt{1-\frac{v^2}{c^2}}}} [5]

que es la expresión de la energía total de un cuerpo en movimiento, siendo E_0 la energía en reposo, cuando v = 0.

Masa relativista

Suponiendo que la ecuación E=mc² nos da la energía total de la partícula tanto si está en reposo como si está en movimiento, el incremento de energía ha de ser debido al incremento relativista de la masa inercial \triangle E=\triangle\left(mc^2\right)=c^2\triangle\left(m\right), pues c es una constante; entonces:

mc^2=\frac{m_0c^2}{\sqrt{1-\frac{v^2}{c^2}}}\Leftrightarrow m=\frac{m_0}{\sqrt{1-\frac{v^2}{c^2}}} [6]

expresión que nos permite calcular la masa inercial total de un cuerpo en movimiento.

Velocidad límite

Si en la expresión de la energía [5], o equivalentemente, en el de la masa [6], hacemos que la velocidad del cuerpo se acerce a la velocidad de la luz c, obtenemos valores infinitos:

\underset{v\rightarrow c}{lim}m=\underset{v\rightarrow c}{lim}\frac{m_0}{\sqrt{1-\frac{v^2}{c^2}}}=\frac{m_0}{\sqrt{1-1}}=+\infty

Con una masa inercial tendiendo a infinita, la fuerza necesaria para acelerarla tenderá también a infinito, sin llegar nunca al límite v = c. Por tanto los desarrollos anteriores nos llevan a afirmar que c es el límite superior absoluto de la velocidad, no superable por nada, y sólo alcanzable por la energía con masa “material” en reposo nula.

Transformación de velocidades entre sistemas de referencia

Fig. : dos sistemas de referencia inerciales
Fig. : dos sistemas de referencia inerciales

En la figura tenemos el conocido esquema que muestra dos sistemas de referencia inerciales: el LAB que representa el del laboratorio, que suponemos estático, y el Ref, con una velocidad u relativa al laboratorio. Hay un móvil en la posición x’ que se mueve con una velocidad v’ respecto a Ref. En la referencia LAB la posición es x y la velocidad v. En estas condiciones se cumple:

v=\frac{v'+u}{1+v'u/c^2};\;\;v'=\frac{v-u}{1-vu/c^2}

Al usar estas fórmulas han de tenerse en cuenta los signos de v, v’, u a partir de la representación de la figura.

Ejemplo: dos cuerpos se acercan el uno al otro con una velocidad relativa entre ellos de 0.89c. Un observador exterior los ve moverse uno hacia el otro a la misma velocidad; hallar esta velocidad.

Fig. : dos móviles acercándose uno al otro
Fig. : dos móviles acercándose uno al otro

En la figura representamos la situación: desde el punto de vista del laboratorio estático los dos móviles se mueven a la misma velocidad u, desde el punto de vista de uno de los móviles (referencia Ref) el otro móvil se acerca a una velocidad 0.89c.  Comparando este esquema con el de transformación de velocidades, identificamos variables: u: velocidad en la ref. LAB de la referencia Ref (el móvil de la izquierda), v: velocidad del móvil de la derecha respecto a LAB, que cumple v = -u, v’: velocidad del móvil de la derecha respecto a Ref (móvil de la izquierda) que cumple v'=-0.89c. Aplicamos la ley de transformación de velocidades para obtener u, y operamos:

\begin{array}{l}v=-u=\frac{-0.89c+u}{1+\left(-0.89c\cdot u\right)/c^2}=\frac{-0.89c+u}{1-0.89u/c}=c\frac{-0.89c+u}{c-0.89u}\Rightarrow\\-cu+0.89u^2=-0.89c^2+cu\Rightarrow\\0.89u^2-2cu+0.89c^2=0\Rightarrow\\u=\frac{2c\pm\sqrt{4c^2-4\cdot0.89^2c^2}}{2\cdot0.89}=c\frac{1\pm\sqrt{1-0.89^2}}{0.89}\approx c\frac{1\pm0.46}{0.89}\end{array}

De las dos soluciones descartamos la que da un resultado mayor que c por imposible físicamente, nos queda: u\approx0.61c.

Como comprobación, si encontramos la velocidad relativa v’  a una referencia que se mueve a velocidad u=0.61c, sabiendo que el móbil se mueve a velocidad v=-0.61c respecto del sistema LAB, encontramos:

v'=\frac{0.61c-(-0.61c)}{1-0.61c\cdot(-0.61c)/c^2}=\frac{2\cdot0.61c}{1+0.61^2}=0.89c

que es la velocidad dada en el enunciado.

Estadística -> Estadística Aplicada -> Análisis Multivariante

En esta entrada sólo pretendemos dar una introducción breve a un tema extenso y complejo como es el análisis estadístico multivariante, y lo haremos de forma constructiva, partiendo de un ejemplo simple pero real que iremos desarrollando. No se incluyen demostraciones matemáticas, sólo nos centramos en el “para qué sirve?” y en el “cómo se hace?”. Espero que sea de utilidad para los estudiantes no especialistas en Estadística que necesitan tener las ideas claras en esta materia sin perderse en detalles técnicos. En este primer artículo sólo introducimos conceptos, y luego aplicamos dos técnicas relacionadas con la simplificación y reducción de datos: componentes principales y factores; en un segundo artículo trataremos de la otra posibilidad del análisis multivariante: la detección de grupos y clasificación de los individuos.

Contenidos:

  1. Análisis Multivariante: ¿para qué sirve?
  2. Reducir el número de variables: análisis de componentes principales
  3. Reducir el número de variables: análisis factorial

separador2

Análisis Multivariante: ¿para qué sirve?

En los estudios estadísticos de casos reales es frecuente encontrarse con que tenemos que manejar no sólo muchos datos, sino también muchas variables; el tener un gran número de variables dificulta la comprensión del problema así como la interpretación de los resultados estadísticos. En el siguiente ejemplo vemos un caso multivariante típico:

Ejemplo 1: En un centro educativo han estado experimentando en los tres últimos cursos académicos con una nueva técnica pedagógica, que se ha aplicado a cinco grupos distintos de alumnos de bachillerato en distintas asignaturas, un total de 125 alumnos. Se quiere realizar un estudio estadístico para averiguar hasta qué punto la nueva técnica ha sido efectiva en términos no sólo de mejora de calificaciones, si no también de otras variables como la participación activa del alumno en la clase, la mejora de habilidades atencionales y de estudio, y la satisfacción en general del alumno en la clase. Además, se considera importante tener en cuenta en el estudio otras variables que pueden condicionarlo, como por ejemplo la edad, la clase social, la asignatura en la que se utilizó la técnica, el nivel de estudios de los padres, y el profesor que la aplicó. Para comparar resultados, se toman también los datos de otros 125 alumnos con los que no se aplicó la nueva técnica. Se trabajará por tanto con una muestra de 250 alumnos y 11 variables. A continuación se muestran las primeras filas de esta tabla, que puede descargarse de aquí.

TEC CAL PAR ATE EST SAT EDAD CLA ASIG PROF ESTP
0 1 0 1 0 3 16 0 2 3 0
0 1 0 1 0 1 17 0 3 5 0
0 1 0 0 1 7 18 2 2 4 3
0 2 1 1 0 2 19 2 3 5 0
0 2 0 1 2 5 18 2 1 1 0

Los significados de cada variable son:

TEC 1: aplicamos nueva técnica, 0: no lo hacemos
CAL Calificación obtenida
PAR Medida de la participación activa en clase
ATE Medida de la atención en clase
EST Medida de las técnicas de estudio personales
SAT Medida de la satisfacción en clase
EDAD Edad del alumno
CLA Clase social: 0 baja, 1 media, 2 alta
ASIG Asignatura en la que se aplicó la técnica: 1 MAT, 2 CIENCIAS, 3 HISTORIA
PROF Profesor que la aplicó, valores 1,2 (MAT), 3,4 (CIENC), 5 (HIST)
ESTP Nivel de estudios padres: 0 sin estudios, 1 básicos, 2 medios, 3 superiores

Sucede a menudo que las variables consideradas no son independientes entre si, al contrario, hay relaciones entre ellas. También a menudo se pueden clasificar los individuos estudiados (los estudiantes en el ejemplo 1) en grupos homogéneos, y realizar un estudio detallado para cada grupo: en el ejemplo 1 podríamos descubrir que agrupando los alumnos según el profesor que aplicó la técnica hay grandes diferencias entre los grupos y resultados parecidos dentro de los grupos. De todo este análisis se ocupan los métodos multivariantes, concretamente lo que hacen es:

  1. investigar si las variables tienen relaciones entre ellas;
  2. dado un gran número de variables, posiblemente relacionadas entre ellas, reducirlas a un número menor de variables, mostrando las posibles relaciones entre las variables originales, para así simplificar el problema y poder sacar conclusiones;
  3. dado un conjunto de datos individuales, asociados con ciertas variables, formar grupos de individuos parecidos usando las variables para clasificarlos.

Veamos a continuación ejemplos y técnicas para estas aplicaciones.

Reducir el número de variables: análisis de componentes principales

Usaremos el método de análisis de componentes principales; una vez cargados los datos en el entorno R, accedemos a Estadísticos -> Análisis dimensional -> análisis de componentes principales. Seleccionamos todas las variables y en Opciones marcamos “Añadir componentes principales al conjunto de datos“; cuando nos pregunta cuantos componentes vamos a incluir, estamos diciendo a cuantas variables queremos reducir las 11 originales, pondremos 3 (idealmente reduciremos a 4 como máximo, para que los datos sean manejables), y aceptamos. R efectúa el análisis y nos proporciona este informe:

multivariant1
Fig. 1: Componentes principales: coeficientes de las combinaciones

R siempre generará tantos componentes principales como variables originales, 11 en este caso. En la figura 1 no se muestran las columnas 4, 5, … 11, pues nos interesa estudiar sólo 3. Lo que ha hecho R es crear nuevas variables Comp.1, Comp.2, …, por combinación lineal de las originales, siendo los coeficientes de las combinaciones los que vemos en la figura 1. O sea que se cumple que:

Comp.1\;=\;0.06\cdot ASIG\;-\;0.453\cdot ATE\;-\;0.558\cdot CAL\;+\;...\;-\;0.187\cdot TEC

Para el componente principal 2:

Comp.2\;=\;-0.686\cdot ASIG\;-\;0.012\cdot ATE\;+\;0.029\cdot CAL\;+\;...\;\;+0.264\cdot TEC

etc. En el mismo informe de R encontramos esta otra sección:

Fig. 2: importancia de cada componente principal
Fig. 2: importancia de cada componente principal

Nos fijamos en la fila Cumulative Proportion: nos da la “representatividad” acumulada de las nuevas variables, en tanto por uno; vemos que tomando los tres primeras componentes quedan representados en un 0.50 todas las variables, o en un 50%, por tanto si pasamos de 11 a tres variables perdemos la mitad de la información. Parece una pérdida importante … si cogemos más componentes principales, perdemos menos información, pero ampliamos de nuevo el número de variables, por ejemplo ampliando a 5 llegamos al 69% de representatividad, con 6 llegamos al 77% y con 7 componentes cubrimos hasta el 85% de la información original, pero la reducción de número de variables es ya escasa:

Fig. 3: ampliando el número de componentes con los que trabajar
Fig. 3: ampliando el número de componentes con los que trabajar

La elección del número de componentes principales con los que trabajar es una elección del experimentador; los problemas “de clase” suelen venir preparados de forma que con pocos componentes principales, 2 o 3, se resumen bien los datos, pero en los problemas reales no suele ser tan evidente.

Para saber cómo se relacionan las nuevas variables con las originales podemos usar la matriz de correlaciones entre pares de variables: en R haremos Estadísticos -> Resúmenes -> Matriz de correlación, escogemos todas las variables, y marcamos la opción Parejas de datos. En la matriz de correlaciones resultante nos fijamos en la columna correspondiente al componente principal PC1, para el cual las correlaciones son:

PC1
ASIG 0.009634422
ATE -0.690929281
CAL -0.8508779590
CLA 0.0891672163
EDAD 0.233171700
EST -0.67173527
ESTP 0.093915413
PAR -0.712555990
PC1 1.000000e+00
PC2 1.006389e-17
PC3 -5.316147e-17
PROF 0.006182726
SAT -0.120799459
TEC -0.28527228

Analizemos estas correlaciones: vemos que PC1 está fuertemente correlacionada (más de un 0,5 por uno, o 50%) con las variables ATE (Medida de la atención en clase, valor negativo), CAL (Calificación obtenida, valor negativo, es la correlación más fuerte), EST (Medida de las técnicas de estudio personales, valor negativo) y PAR (Medida de la participación activa en clase, valor negativo), débilmente correlacionada (entre 10-50%) con EDAD (valor positivo), SAT (Medida de la satisfacción en clase, valor negativo) y TEC (1: aplicamos nueva técnica, 0: no lo hacemos, con valores negativos), y prácticamente nada con las demás.

Los valores negativos de correlación indican que si aumentan esas variables disminuye PC1, y viceversa. A la vista de estas correlaciones podemos interpretar que los valores reducidos de PC1 se consiguen sobre todo con valores altos de atención en clase, técnicas de estudio personales y participación activa en clase, y más marginalmente con la elevada satisfacción en clase y la aplicación de la nueva técnica de estudio, de forma que podemos relacionar valores altos de PC1 con la la falta de buenos hábitos (atención en clase, técnicas de estudio, participación activa)  y bajas calificaciones; la edad tiene signo contrario. a más edad más valor de PC1, y peores resultados. Hay que recordar que PC1 sólo recoge un 21% de la información original (figura 2). Si tuviéramos que dar un nombre a PC1, podría ser “altas calificaciones y buenos hábitos de estudio”. El mismo análisis se haría para los componentes PC2 y PC3: PC2 tiene un -0.97 de correlación con la variable ASIG (asignatura) y con las demás variables casi es nula, por tanto PC2 viene a representar a ASIG. En cuanto a PC3 tiene -0.65 con ESTP (nivel de estudios padres) y 0.38 con CLA (clase social), o sea que se relaciona con la familia del estudiante.

Recordar que este método produce variables (los componentes principales) que, a diferencia de las variables originales, no estan correlacionadas entre sí; por ejemplo, el diagrama de dispersión de PC1-PC2 no muestra ninguna tendencia:

Fig. 5: de diagrama de dispersión de dos componentes principales cualesquiera no mostrará ninguna relación
Fig. 4: de diagrama de dispersión de dos componentes principales cualesquiera no mostrará ninguna relación

Hemos podido realizar este diagrama de dispersión gracias a haber seleccionado la opción  , que añade a la hoja de datos original las nuevas variables como columnas adicionales.

Fig. 5: R añade 3 nuevas columnas a la hoja de datos, son los componentes principales elegidos por el usuario
Fig. 5: R añade 3 nuevas columnas a la hoja de datos, son los componentes principales elegidos por el usuario

Como conclusión de este estudio con componentes principales podemos decir:

la nueva técnica de enseñanza sí que parece tener cierta influencia, pues su variable asociada está incluida en el componente PC1 de “buenas prácticas y buenas calificaciones”, aunque su efecto parece ser menor (29% de correlación) en comparación a las otras buenas prácticas: atención en clase, etc. Por otro lado la asignatura donde se ha probado el método, que es el componente PC2, no tiene ninguna relación (no hay correlación) con PC1, esto es bueno, nos dice que en cualquier asignatura las “buenas prácticas” tienen los mismos efectos. Lo mismo podemos decir del entorno familiar, representado por PC3.

Reducir el número de variables: análisis factorial

El análisis factorial es otra técnica diseñada para reducir el número de variables, creando unas de nuevas, llamadas factores, por combinación lineales de las originales, que intentan mostrar condiciones que directamente no son fácilmente reconocibles. El software estadístico de análisis factorial permite realizar las llamadas “rotaciones” de variables, una transformación matemática que pretende simplificar al máximo la nueva descripción de variables. Los resultados no son los mismos que usando componentes principales, pues el método matemático es distinto.

En R, vamos a Estadísticos -> Análisis dimensional -> Análisis factorial, y escogemos todas las variables originales del problema. Nos pregunta el número de factores a retener, probamos con 3. El resultado es este resumen:

Uniquenesses:
 ASIG   ATE   CAL   CLA  EDAD   EST  ESTP   PAR  PROF   SAT   TEC 
0.077 0.541 0.262 0.983 0.952 0.722 0.986 0.293 0.005 0.995 0.956 

Loadings:
     Factor1 Factor2 Factor3
ASIG  0.961                 
ATE           0.672         
CAL           0.769   0.381 
CLA                  -0.116 
EDAD                 -0.198 
EST           0.456   0.258 
ESTP                        
PAR           0.289   0.789 
PROF  0.997                 
SAT                         
TEC                   0.158 

               Factor1 Factor2 Factor3
SS loadings      1.947   1.356   0.925
Proportion Var   0.177   0.123   0.084
Cumulative Var   0.177   0.300   0.384

Test of the hypothesis that 3 factors are sufficient.
The chi square statistic is 22.73 on 25 degrees of freedom.
The p-value is 0.593

Nos proporciona los coeficientes de las combinaciones lineales para cada factor (tabla Loadings) que siempre están en el intervalo [-1, 1], la variabilidad explicada por cada factor, la acumulada (para los tres factores sumados tenemos un 38.4% de variabilidad explicada) y un contraste de hipótesis Chi² donde H0: los tres factores son suficientes, H1: no lo son. Vemos que el resultado del contraste es que el p-valor = 0.593, lo que significa que, para los niveles de significación estándar de aceptación de H0,  10%, 5% y 1%, aceptamos H0 (recordemos que H0 se acepta si la significación es menor que el p-valor). Si se hubiera rechazado la hipótesis nula, hubiéramos repetido el análisis con un factor más.

También, para las conclusiones, podemos mirar los datos denominados “Uniquenesses“: nos da la proporción de variabilidad no explicada por los factores de la variable en cuestión. Por ejemplo, para la variable ASIG es de 0.077, un 7.7% no explicada por los factores, o sea que está bien resumida con los tres factores. En cambio para CLA vale más del 90%, por lo cual los factores no informan bien de esta variable. También los coeficientes (en valor absoluto) de las combinaciones lineales nos informan de la importancia de cada variable en la composición del factor: entre 0% y 100%; por ello hemos destacado en negrita los coeficientes más importantes (más del 50%).

Así pues, resumimos las 11 variables por tres factores, con la siguiente composición:

  • F1 = 0.961· ASIG + 0.997·PROF; este factor considera la asignatura y el profesor que la imparte como un factor importante en el estudio.
  • F2 = 0.672·ATE + 0.769·CAL + 0.456·EST + 0.289·PAR;este segundo factor tiene en cuenta la atención en clase, la calificación, las técnicas de estudio y la participación activa en clase, de forma parecida al componente principal PC1 del apartado anterior.
  • F3 = 0.381·CAL - 0.116·CLA - 0.198·EDAD + 0.258·EST + 0.789·PAR + 0.158·TEC; el tercer factor considera la relación entre calificación, clase social, edad, técnicas de estudio, participación activa en clase y la aplicación de la nueva técnica de estudio, en éste último caso con un peso más bien bajo, 0.158.

Las conclusiones que podemos obtener son:

en este análisis la variable TEC que estudiamos no parece desempeñar ningún papel, sólo entra en el factor 3 con un peso del 15.8%, y además queda no explicada en un 95.6% (Uniquenesses). Las variables relacionadas que tienen más peso son CAL y ATE en el factor 2, lo que sugiere que la atención en clase es la variable mas correlacionada con la calificación obtenida; en el factor 3 la variable dominante es PAR, participación activa, que tiene una relación más bien débil con la calificación (38.1%) y aún más débil con las otras variables.

 

Física -> Magnetismo

Magnetismo

Fig. 1: Magnetita (By Rob Lavinsky, iRocks.com – CC-BY-SA-3.0, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=10139390)
Fig. 1: Magnetita (By Rob Lavinsky, iRocks.com – CC-BY-SA-3.0, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=10139390)

Antiguamente ya se conocía la propiedad de la magnetita o piedra imán para atraer el hierro, y se utilizó en la primeras brújulas para navegación marítima. También se había observado que la atracción tenía una dirección y también un sentido: la aguja de la brújula se orienta siempre en la misma dirección y sentido.

El primero que dio una explicación al fenómeno de la brújula fue el investigador Willliam Gilbert hacia 1600 en su obra “De Magnete“, en la que postula que toda la Tierra es un imán gigante que actúa sobre cualquier brújula, orientándola.

Coulomb experimentó con imanes hasta encontrar, empíricamente, la ley a la que obedecía la fuerza experimentada entre imanes, encontrando que era idéntica  a la ley de Coulomb para la electrostática, F=K·q·q'/d^2, sustituyendo las cargas eléctricas q, q’ por “cargas magnéticas” m, m’, i la constante K toma un valor distinto dependiendo de las unidades que tomemos (Coulomb consideró K=1). Ello parecía indicar que había alguna relación entre electrostática y magnetismo, pero no fue hasta 1820 que Oersted observó que una aguja imantada colocada cerca de una corriente eléctrica era afectada, como si hubiera un imán cerca; al comunicar su descubrimiento, Ampère propone que el magnetismo observado es creado por el movimiento de cargas eléctricas (o sea, por la corriente eléctrica); en el caso de los materiales magnéticos, como la magnetita, propone que deben haber corrientes eléctricas permanentes en esos materiales. Además postula que no existen las “cargas magnéticas”, sólo las eléctricas.

Campo magnético creado por inducción

En Física un “campo” es una magnitud física, como por ejemplo la fuerza o la velocidad, que está distribuida en el espacio según alguna ley. Por ejemplo, las velocidades de un fluido en una corriente de una tubería definen un campo de velocidades.

Un conjunto de corrientes eléctricas producirán magnetismo a su alrededor, por lo que diremos que las corrientes inducen un campo magnético. Si consideramos que cualquier carga eléctrica en movimiento produce efectos magnéticos, también sucederá que quedará afectada por el campo magnético inducido. Así pues, si por esa región del espacio en la que hay un campo magnético de inducción pasa una pequeña carga eléctrica q con velocidad v, experimentará una fuerza F debida al campo magnético B. Experimentalmente se encuentra que la fuerza es siempre perpendicular a v, pero su magnitud depende de la dirección de v: hay una dirección en la que la fuerza es máxima, en las demás es inferior, y en la dirección perpendicular a la de fuerza máxima, la fuerza se anula.

Fig. 2: la fuerza de inducción magnética sobre una carga en movimiento siempre es perpendicular a la velocidad de la carga
Fig. 2: la fuerza de inducción magnética sobre una carga en movimiento siempre es perpendicular a la velocidad de la carga, su módulo depende de la dirección de la velocidad.

Matemáticamente esta relación entre los vectores v, F y sus direcciones se puede expresar diciendo que existe un vector B campo magnético, tal que:

\boldsymbol F=q\cdot\boldsymbol v\wedge\boldsymbol B [1]

donde “^” representa el producto vectorial de los vectores.

Producto Vectorial según el angulo entre vectores
Fig. 3: El producto vectorial de los vectores a, b siempre es otro vector perpendicular a los dos, pero no en el mismo plano que los contiene. Además, el módulo del producto es variable entre un valor máximo y cero. Fuente: https://es.wikipedia.org/wiki/Producto_vectorial

Tal como “funciona” el producto vectorial, si el campo B resulta ser paralelo a la velocidad v, la fuerza resultante vale cero, y si B y v son perpendiculares, entonces F toma su valor máximo. El producto a x b es perpendicular al plano que contiene a los vectores a, b.

Concretamente, la magnitud de F viene dada por

F=qvB·\sin\left(\alpha\right)

donde \alpha es el ángulo que forman el campo B y la velocidad v.

Como consecuencia de esta fuerza la carga móvil q variará su trayectoria, girando, pero sin perder velocidad, pues la fuerza es siempre perpendicular a la velocidad; entonces la carga describirá una trayectoria curva en el campo, esta curva dependerá de como varía B en el espacio. En el caso más simple, si suponemos que B es constante en todo el espacio, la fuerza también será constante, y cuando la carga “entre” en el campo, describirá una trayectoria circular, con una aceleración normal a_n=F/m=v^2/R, siendo m la masa de la partícula y R el radio del círculo. Si además el campo B es perpendicular a v tendremos fuerza máxima F=qvB, sustituyendo tenemos qvB/m=v²/R y por tanto el radio de giro es R=\frac{qB}{mv}.

Fig. 4: la carga q con velocidad v curva su trayectoria al entrar en una región con campo magnético perpendicular al plano (aquí B se saldría de la pantalla apuntando hacia nosotros)
Fig. 4: la carga q con velocidad v curva su trayectoria al entrar en una región con campo magnético perpendicular al plano (aquí B se saldría de la pantalla apuntando hacia nosotros)

Ecuación de Laplace para la fuerza magnética ejercida sobre un elemento de corriente

Fig. 4: sección de un conductor recorrido por una corriente de electrones
Fig. 4: sección de un conductor recorrido por una corriente de electrones

Pensemos en un cable eléctrico recorrido por una corriente de intensidad I; en su interior se desplazan cargas eléctricas: electrones, de los que tomaremos su velocidad media como v. Si nos fijamos en una pequeña sección longitudinal del cable de longitud dL, si el cable tiene una área transversal S, entonces el número de electrones en la sección de longitud dL y área S será proporcional al producto S·dL que es un volumen (superficie x longitud). Por otro lado la intensidad de corriente I es proporcional al producto S·v, sección recta x velocidad media, y vale

I=\frac{\triangle q}{\triangle t}=\frac{eNSv\triangle t}{\triangle t}=eNSv

siendo N la densidad de electrones por m³, y e la carga del electrón.

Supongamos ahora que el cable está situado en una región del espacio en el que hay un campo magnético B. Entonces en cada una de las cargas en movimiento actuará una fuerza dada por la ecuación [1]. La fuerza total ejercida sobre el elemento de cable será la suma de fuerzas sobre cada electrón, un total de NSdL:

\boxed{\mathbf d\mathbf F}=\operatorname dq\cdot\boldsymbol v\wedge\boldsymbol B=\left(eNS\operatorname dL\right)\cdot\boldsymbol v\wedge\boldsymbol B=\left(eNSv\right)\cdot\boldsymbol d\boldsymbol L\wedge\boldsymbol B=\boxed{\mathbf I\boldsymbol\cdot\mathbf d\mathbf L\boldsymbol\wedge\mathbf B} [2]

Aquí la “d” significa “diferencial” y la “L” longitud: en Física la diferencial de una magnitud es una fracción muy pequeña de ella, y tiene relación con la diferencial y la derivada de una función, conceptos de análisis matemático, ver por ejemplo Uso de diferenciales en Física. Hemos definido el vector dL como el vector que tiene la dirección de v y la longitud dL, de esta forma en el sustituimos el vector velocidad por  el módulo de la velocidad.

Fuerza ejercida por un campo magnético B sobre la corriente I que circula por una espira cerrada

Fig.5: Espira rectangular de lado d por la que circula una corriente I, sometida a un campo magnético B
Fig.5: Espira rectangular de lado d por la que circula una corriente I, sometida a un campo magnético B

En la figura 5 vemos un circuito cerrado cuadrado de lado d por el que circula una corriente continua I; el circuito está en una región del espacio en el que hay un campo magnético B uniforme, que forma un cierto ángulo con la normal al plano del circuito. En estas condiciones, cada elemento diferencial del circuito estará sometido a una fuerza diferencial dada por la ecuación de Laplace [2]. En cada lado del rectángulo, la fuerza diferencial tendrá el mismo sentido y dirección, por lo que la suma total de fuerzas, en cada lado, será un vector fuerza resultante, dibujado en rojo en la figura 5, y que por simetría se aplicará en el punto medio de cada lado. En los lados superior e inferior las fuerzas resultantes  tienen sentidos opuestos, por lo que anulan entre sí, pero en los laterales las resultantes aunque son iguales en módulo, IBd\sin\left(\alpha\right) no son opuestas, están giradas un ángulo, por lo que forman un par de fuerzas de valor  IBd^2\sin\left(\alpha\right). Si definimos el vector momento magnético de la espira por \boldsymbol M=IBS\cdot\boldsymbol n, donde A=d² es el area de la espira y n es el vector unitario normal a la espira, entonces el par de fuerzas resultante se expresa como \boldsymbol P\boldsymbol=\boldsymbol M\boldsymbol\times\boldsymbol B, el producto vectorial del momento magnético de la espira por el campo magnético. Este par tenderá a hacer girar la espira, alineando los vectores M y B (al estar paralelos su producto vectorial será cero). Usando [2] y cálculo integral, puede mostrarse que este resultado se cumple para espiras de cualquier forma, incluso circulares u ovaladas. (Fernandez-Pujal, 1973)

Ley de Ampère

 

Bibliografia

  • Julián Fernandez y Marcos Pujal: Iniciación a la Física, volumen II, 1973

Física -> Uso de diferenciales en Física

Frecuentemente encontramos en los libros de texto y apuntes de clase, en las demostraciones de leyes físicas, que aparecen “cantidades diferenciales”. Estas diferenciales tienen relación con el concepto de diferencial de una función y con su derivada en Matemáticas, pero a veces puede quedar un poco oscura esta relación. En este breve artículo pretendemos aclarar conceptos con algunos ejemplos.

Magnitudes diferenciales en Física

Definición 1: Dada una magnitud X denotamos por \triangle X la variación de esa magnitud, o equivalentemente, un intervalo en la magnitud.

Ejemplo 1: Si la magnitud es el tiempo t, entonces \triangle t es un intervalo de tiempo.

Ejemplo 2:  Si la magnitud es una longitud L, entonces \triangle L es un intervalo de longitud, un segmento.

Definición 2: Dada una magnitud X que supondremos continua, denotamos por \operatorname dX su diferencial, y el concepto asociado es un intervalo \triangle X “infinitesimal”, esto es , un intervalo prácticamente nulo. A pesar de que matemáticamente es demasiado ambiguo hablar de “intervalo prácticamente nulo”, el concepto es muy útil en Física, y es usado muy frecuentemente.

Ejemplo 3: El número de electrones N que circulan por segundo por un conductor no es una magnitud continua, sino entera, así que en principio no podemos definir su diferencial; ahora bien, en los casos prácticos, este número es tan elevado que podemos suponer que sí es contínuo, y pensar en diferenciales de N, dN.

Ejemplo 4: Sea un cable que está conduciendo corriente eléctrica

Fig. 4: sección de un conductor recorrido por una corriente de electrones
Fig. 4: sección de un conductor recorrido por una corriente de electrones

El número de electrones que se estan moviendo por el cable es muy elevado, del orden de 10^{20} por cm^3; queremos considerar aquellos que se hallen en una cierta posición x, medida desde el extremo del cable. Si consideramos que los electrones estan distribuidos de forma más o menos uniforme y contínua por el cable, podemos definir la densidad de electrones N por cm^3, pero exactamente en la posición x no podemos calcular cuantos hay; el artificio que se usa consiste en considerar un elemento infinitesimal (muy corto pero no nulo) de longitud \operatorname dL, que empieza en la posición x y termina en la posición x+dL, que tendrá un volumen infinitesimal dV=S·dL (donde S es el área de la sección transversal del cable), y por tanto un número de electrones N·dV=NS·dL. Entonces aproximamos el número de electrones en la posición x por NS·dL.

Relación con la derivación de funciones

Nos podemos encontrar también con que a veces se relacione el cociente de diferenciales con la derivación. Para la descripción matemática de la derivada podemos consultar mi post Cálculo ->Funciones derivables → Introducción al estudio local de una función, del que reproduzco aquí un párrafo:

derivada-incrementos

Ejemplo 5:  La intensidad de corriente se define como la cantidad de carga que pasa por una sección S por unidad de tiempo, I=\frac{\triangle q}{\triangle t}, si la intensidad es variable, entonces se define en un intervalo de tiempo infinitesimal, tan corto que podemos considerar que la intensidad es prácticamente constante (“no la da tiempo” a cambiar), o sea I=\frac{\operatorname dq}{\operatorname dt}.

Ejemplo 6: siguiendo con el ejemplo 5 del cable eléctrico, la carga que está contenida en una sección de longitud L y sección S, teniendo una densidad de N electrones por m^3, será eNSL, siendo e la carga del electrón.  Entonces la intensidad será

I=\frac{\operatorname dq}{\operatorname dt}=\frac{\operatorname d\left(eNSL\right)}{\operatorname dt}=\frac{eNS\operatorname dL}{\operatorname dt}=eNSv

 Fijémonos que la diferencial de eNSL se ha igualado a eNS·dL, pues no estamos considerando intervalos en la magnitudes e (una constante universal) ni N o S (constantes del cable) sinó solo de L (un desplazamiento longitudinal).

Física -> Problemas de Mecánica -> Dinámica: campo gravitatorio

1 – Un objeto se aleja de la Tierra a una velocidad radial de 5 m/s; observamos que 20 minutos después su velocidad ha pasado a ser de 4.5 m/s. ¿Cuál es la intensidad media del campo gravitatorio terrestre en ese intervalo?

Solución:

Llamando g(r) a la intensidad del campo gravitatorio a una distancia r de la Tierra, la fuerza gravitatoria sobre una masa m será F=mg(r); sabemos que en t=0 la velocidad era de 5 m/s, y en t=20·60=1200s era de 4.5 m/s, luego la aceleración media ha sido

a=\frac{\triangle v}{\triangle t}=\frac{4.5-5}{1200}=-\frac1{2400}\frac m{s^2}

Aplicando la 2ª ley de Newton F=ma, e igualando con la fuerza gravitatoria, obtenemos

F=ma=\frac m{2400}=mg\Rightarrow\boxed{g=\frac1{2400}\frac m{s^2}}

separador2

2. Dos objetos de masas m y M se atraen con una fuerza gravitatoria de 80N cuando están a una cierta distancia d; ¿con que fuerza se atraerán dos objetos de masa 10m y M situados a una distancia de 4d?

Solución:

En el primer caso la fuerza gravitatoria será F=G\frac{mM}{d^2}=80N y en el segundo será F'=G\frac{10mM}{\left(4d\right)^2}=G\frac{10mM}{16d^2}=\frac{10}{16}\left(G\frac{mM}{d^2}\right)=\frac58F=\frac5880=\boxed{50N}

separador2

3. Calcular a que altura la intensidad del campo gravitatorio terrestre se reduce a la mitad del que tiene en la superficie,

Solución:

La intensidad del campo gravitatorio es g=GM_T/R^2; en la superficie tenemos R=R_T, el radio de la Tierra, y a una altura h tenemos R=R_T+h. La proporción entre intensidades es

\frac g{g'}=\frac{GM_T/R_T^2}{GM_T/\left(R_T+h\right)^2}=\frac{1/R_T^2}{1/\left(R_T+h\right)^2}=\frac{\left(R_T+h\right)^2}{R_T^2}=\left(\frac{R_T+h}{R_T}\right)^2

Como esa proporción queremos que valga g/g'=g/(0.5g)=1/0.5=2, sustituimos y despejamos h:

\begin{array}{l}\frac g{g'}=2=\left(\frac{R_T+h}{R_T}\right)^2\Leftrightarrow\frac{R_T+h}{R_T}=\sqrt2\Leftrightarrow R_T+h=\sqrt2R_T\Leftrightarrow\\h=\sqrt2R_T-R_T=\left(\sqrt2-1\right)R_T\approx\left(\sqrt2-1\right)\cdot6371Km\approx\boxed{2639\;Km}\end{array}

Este resultado es fácilmente generalizable a cualquier proporción p>1: h=\left(\sqrt p-1\right)R_T

separador2