Buscar este blog

viernes, 25 de noviembre de 2011

Péndulos

Os muestro un vídeo que me mandó Pablo. El vídeo muestra múltiples péndulos de igual masa pero con diferente longitud con respecto al eje. Tal efecto se puede explicar fácilmente mediante el análisis del movimiento armónico simple de cada uno. El periodo, el tiempo en realizar un recorrido completo de ida y vuelta, está dado por la siguiente fórmula matemática:




Así que, cuanto mayor es la longitud "l", mayor es el periodo. Pero no crece proporcionalmente a "l" sino a su raíz cuadrada, lo que es importante para determinar el incremento del tamaño de la cuerda en cada péndulo, con el fin de conseguir el efecto de continuidad entre los sucesivos péndulos en su movimiento y conseguir tales oscilaciones. Las oscilaciones, aunque independientes, por tener el periodo distinto entre sí, entran en ciclos de fase y desfase mientras los péndulos se mueven. Gracias Peich. Estaría bien llevarlo a cabo.

sábado, 12 de noviembre de 2011

Música y fractales

Otra remesa de fractales con algo de música. Súbido youtube y creado por mathgeek007. Música de Legend of Zelda. Gracias al autor.

miércoles, 2 de noviembre de 2011

Peso del volumen del fluído desalojado.

El principio de Arquímedes es un principio algo complejo en los problemas prácticos. A priori parece entenderse bien pero cuando luego se quiere aplicar a los problemas surgen las dudas y las controversias a la hora de aplicarlo. ¿Por qué se entiende bien a priori? Porque asumimos sin dificultad la existencia de un empuje cuando nos sumergimos en agua. Sin embargo, no es un entendimiento completo del fenómento sino más bien, una evidencia del efecto.

Leyendas a parte, el principio de Arquímedes es el punto fundamental del tratado "sobre la flotabilidad de los cuerpos", y establece el valor del empuje hacia arriba que experimentan los objetos al sumergirse. Sin embargo, el enunciado es algo complejo: "el empuje (fuerza hacia arriba) tiene como valor, el peso del volumen del fluído desalojado. Demasiados conceptos en una sóla frase, que hay que detenerse en etender. Se me ha ocurrido un método didáctico más visual que ayuda a comprender mejor el fenómeno de la flotabilidad. Es el siguiente:

Para resolver la problemática de si determinado cuerpo va a flotar, podríamos hacer la siguiente comparación ideal de pesos, utilizando una balanza. Por ejemplo vamos a ver si determinado cuerpo sólido cúbico y macizo va a flotar, para ello lo ponemos encima de una balanza y en el otro plato de la balanza el mismo cubo, pero de otro material, del material del fluido en que lo sumergimos, en este caso, el cubo de las mismas dimensiones pero de agua, ya que el cubo sólido ha sido sumergido completamente.

Las dos situaciones que se presentan en este caso son:

Situación 1:

Situación 2:

Situación 1: El cubo sólido (amarillo) pesa menos que el cubo hecho del fluído en el que se sumerge, por lo que el cubo amarillo sube, es decir, flota.

Situación 2: El cubo hecho de sólido (amarillo) pesa más que el cubo hecho del fluído en el que se sumerge, por lo que baja, es decir, se hunde.

Esto es, la balanza nos sirve de metáfora para entender el fenómeno de la flotabilidad, ya que los objetos sumergidos se moverán como si estuvieran en la balanza, tras haberlos comparados con objetos hechos del mismo fluido en el que son sumergidos.

Pero esto no acaba aquí ya que podríamos plantearnos el porqué del empuje hacia arriba. El empuje hacia arriba que sufren los objetos al sumergirse en un fluído es debido a la existencia del campo gravitatorio terrestre. Como todas las sustancias, los fluidos tienden a estar en una conformación mínima de energía y por tanto, bajo un campo gravitatorio caen adaptándo su volumen al recipiente que los contiene. Al sumergir el objeto sólido, el nivel del fluido sube. Como todos los sistemas físicos tienden a la mínima energía, una fuerza aparece para oponerse a que el cuerpo se sumerja, que es como una reacción del fluido debido a su peso, que quiere que éste este en la situación de mínima energía. El peso del fluido, es justo el peso de la masa de agua desalojada, cuyo volumen coincide con la parte del objeto, o su totalidad sumergida.

martes, 25 de octubre de 2011

La divulgación de la ciencia a través de la red social

La semana pasada estuve en un curso sobre redes sociales. El curso no trataba tanto del manejo de las aplicaciones sino de cómo están administradas y gestionadas, para qué y cómo se puede hacer un uso de ellas interesante con fines divulgativos. Las redes sociales se están empezando a utilizar para hacer llegar información a una gran multitud de usuarios de internet. Para el usuario, es una revolución social de medios,que no de fines. El usuario recibe un servicio gratuito a costa de ser un punto de conectado con el resto,y así, el administrador envía información publicitaria a través de él, propagándose a los demás y llegando casi instantáneamente a multitud de personas. Aunque el usuario no es un cliente sino un producto (una vía conexa), tiene cierta libertad según la red social de utilizar para sus propios fines el servicio.Puede utilizar las mismas vías virtuales como medios de comunicación con los demás.

Así llegamos a un estadio primitivo de revolución social moderna, donde los medios para informar y ser informado, no necesitan un intermediario entre las personas y los sucesos. Todos podemos ser informantes de un acontecimiento vivido en primera persona y ser informados de la misma manera. En particular, en el ámbito de la divulgación de la ciencia,y extendido a cualquier tipo de conocimiento, las redes sociales pueden ser una herramienta potente de información y de formación horizontal, sin clases ni elitismos. Bien es cierto, que son herramientas de doble filo, por donde puede circular información tendeciosa, información engañosa, en definitiva, la desinformación.
No se debe confundir la desinformación con la contrainformación. La desinformación trata de ocultar una realidad informando parcialmente o utilizando argumentos no falsables en la descripción del hecho informado. La contrainformación intenta ser una crítica objetiva de una información, completando el análisis informativo o, incluso, generando un análisis completamente diferente. En muchas ocasiones la contrainformación se convierte en complementaria, mientras que la desinformación es siempre excluyente. La contrainformación induce reflexión y la desinformación genera dogmas de fe. La desinformación pretende la creencia sin observación y la contrainformación,pretende la observación complementaria o la creación de un nuevo paradigma de la información, consituyendo de esta manera la revolución informativa.¿Cómo evitar la desinformación? No se puede ni se debe suprimir la libertad de todo el mundo de explicar sus teorías o los hechos a su manera, sin embargo, la propia gente que quiere un conocimiento objetivo, es decir directo, sin intereses transversales,puede crear sellos de calidad,que por ser horizontales, no son elitistas ni tienen intereses económicos, sino que su único fin es el de representar un apoyo democrático de las ideas expuestas. El conocimiento real, es por supuesto un conocimiento abierto. La información real, es por supuesto, una herramienta por la que el informado crea y construye una realidad, y no es y no puede ser, que la génesis de la opinión pública esté mezclada con la información. ¿Para qué se necesitan generadores de opinión pública si en realidad, podríamos tener datos observados sin intermediarios y medios de comunicación horizontales? ¿Realmente queremos que las ideas nos vengan ya diseñadas o queremos tener nuestras propias ideas?

Con estos medios de comunicación que disponemos, ya no dependemos de instituciones más o menos poderosas para que nos informen. Tenemos la posibilidad de desarrollar la acción directa de informar y de ser informado por quienes nos interesa que nos informen. Cada profesional de la ciencia puede publicar y explicar los resultados de sus experimentos a sus colegas de la red, y de esta manera, las personas que accedan de manera directa pueden a su vez divulgar. Esto conlleva la democratización de la ciencia, que corresponde en parte, a una revolución socialista, el socialismo del conocimiento científico. No es que se pretenda hacer de la ciencia un conocimiento único. Por supuesto la ciencia tiene sus limitaciones,siendo a veces poco flexible y elitista, y sin un método fuera de toda controversia. Sin embargo, es obvio, que las instituciones más poderosas tienen la posibilidad de gestionar el avance científico a su manera y siendo éstas muchas veces poco transparente, debido a la gran desconocimiento y despreocupación de la ciencia por la inmensa mayoría. Los avances científicos son precursores de avances tecnológicos. La democratización de la ciencia pretende que las personas estén formadas e informadas sobre los avances científicos. La comunidad científica no elitista, tiene la posibilidad de abrir vías de investigación según los intereses de la gente. La generación de tecnología, en vez de ser un producto comercial, puede convertirse en un servicio para la gente. Por ejemplo, si en vez de estar gastando dinero público para la fabricación de armamento y para la generación de nuevas armas se consultase a la gente, aparecerían nuevas alternativas del gasto público en ciencia e innovación. Pero como siempre, el estado se hace cómplice de los intereses privados en su idea obsoleta de naciones, centralismo tecnocrático. Es evidente, que a lo largo de la historia, el avance científico y tecnológico ha sido utilizado por las jerarquías con fines bélicos, imperialistas o amenazantes, y realmente, por lo que se palpa en la calle que todos sabemos, la gente no quiere guerra. La acción directa de divulgar y enseñar, desde nuestra formación es un deber heredado. Como Koprotkin decía, la herencia de la propiedad privada, es una visión parcial muy acotada, y con fines egoistas, de algo mucho mayor, que es la herencia del conocimiento y del trabajo histórico. Todos nos hemos beneficiado de las ideas y del trabajo que otros realizaron en el pasado. Si el conocimiento y las ideas fueran privadas, patentadas, no hubieramos alcanzado el desarrollo actual tecnológico (al menos para la mayoría), sino que tendríamos minorías que tendrían acceso al conocimiento. Una situación que podría parerse a la etapa anterior a la invención de la imprenta en 1490 por Gutemberg, donde el conocimiento, por no tener medios de comunicación e información masivos, estaba en manos de muy poca gente. El que piensa sólo en la herencia como su propiedad, está obviando que esa misma propiedad fue creada a través del conicimiento, de ingenio y del trabajo ageno. Esta por supuesto, adquiriendo una visión parcial e interesada de la realidad. El que ha sido formado, es porque ha heredado conocimiento y no tiene por tanto a hacerse dueño de él. El conocimiento se genera con aportes infinitesimales de cada investigador, formalizados posteriormente. Pero esta formalización no debe competer a las élites con intereses privados, puesto que de esa manera se adueñan de la herencia de la humanidad para sus fines. Los que han sido formados,los herederos del conocimiento, tienen las herramientas para crear, para informar de manera objetiva con los medios de los que ahora disponemos. Tienen la responsabilidad también de que los medios no sean utilizados, acaparados por aquellos que intentan dirigir según sus intereses a las masas. Es tiempo de hacer divulgación horizontal, anímate a ello.

martes, 31 de mayo de 2011

Mayo de tormentas

Cuando cae lluvia y se genera un charco, hay una vida latente que se empieza a desarrollar. Pasado un día, dos días hasta una semana, se puede observar al microscopio como el charco es un ambiente propenso a la vida.

martes, 26 de abril de 2011

La cámara oscura

Se puede construir una cámara oscura con un tubo alargado. El extremo lo tapamos con una cartulina negra y le hacemos un orificio pequeño. A unos 20 centímetros del extremo tapado se ha colocado una pantalla de papel cebolla. La luz al atravesar el orificio proyecta la imagen en la pantalla. Si la pantalla, en vez de papel cebolla, fuera una sustancia que reaccionase con la luz, habríamos fabricado una cámara de fotos.



lunes, 25 de abril de 2011

Polen de Margarita

Vemos a continuación imágenes de microscopio a difrentes aumentos de polen de margarita extraído de la parte central del capullo.


Parace ser que los granitos de polen están unidos unos a otros con unos pinchos de su coberturba, los cuales,se enganchan entre ellos.


jueves, 14 de abril de 2011

Acción y reacción.

Con toda acción ocurre siempre una reacción igual y contraria. Es la famosa tercera Ley de Newton que puede explicar la propulsión por ejemplo de cohetes.


En la experiencia que se observa en el vídeo, los cohetes son propulsados por efecto de la reacción que es suficientemente intensa como para propulsar el cohete a una altura considerable. La acción es la salida a presión del aire y está dirigida hacia abajo. Se introduce agua para aumentar la inercia (masa) de la materia eyectada hacia el exterior, aumentando la intensidad de la acción, por lo tanto la fuerza de reacción será mayor y el cohete se elevará más. Esto se puede observar en la última parte del vídeo donde se propulsa la botella sin agua, y se aprecia claramente que el vuelo es más corto.

lunes, 4 de abril de 2011

Un sábado nublado.

Imagen de telescopio del Sol que lucía a través de una fina cortina de nubes, el pasado sábado 2 de Abril a las 13:20 h.

lunes, 28 de marzo de 2011

Viviendo en mierda

Estuve observando con un amigo Alexandre Pardo (ingeniero) imágenes de fango de depuradora, a través de un microsopio. Aproveché para hacer este vídeo y así observar, como para ciertos seres vivos, la mierda es el paraiso. Para depurar el agua se cultivan bacterias que se se alimentan de los residuos disueltos que no son posibles de separar en una primera decantación. Estos microrganismos comos rotíferos, amebas y demás se alimentan de excrementos y demás residuos disueltos, lo que permite, decantando las bacterias (más grandes y sólidas que lo que hay en disolución del fango), depurar el agua.

miércoles, 23 de marzo de 2011

La energía y su transferencia

Cuando no se conocían los aspectos microscópicos de la materia se distinguían varios tipos de energía según se percibían los fenómenos que se producían. La divisióin que se hacía era en dos grandes grupos:

- La energía mecánica: asociada al movimiento y que comprendía la suma de dos energías.La energía cinética gravitatoria que es la que porta un objeto por ir a una determinada velocidad. La energía potencial gravitatoria surge de estar inmersos en un potencial gravitatoria que dota de potencia de cambio de movimiento (aceleración).

- La energía no mecánica: el calor, la energía química (utilizada y obtenida de las reacciones químicas), eléctrica, la radiación,etc...

Hoy en día no tiene sentido esta división. Para los físicos actuales sólo existe la energía cinética y la energía potencial, teniendo esta última diferentes expresiones según la naturaleza del campo que crea esa energía. (Alonso-Finn. Fundamentos Cuánticos y estadísticos)

El calor, es un efecto promedio de transmisión de las energías cinéticas de las partículas que conforman la materia a otro cuerpo, cuyo efecto global no resulta un desplazamiento promedio claro del conjunto macroscópico. Es decir, cierto estado mecánico interno microscópico se transmite de un cuerpo a otro en determinadas condiciones.

El calor y la radiación son dos formas de transmisión de energía que hemos adoptado para cuantificarla de una manera y que obedece a comportamientos diferentes.

viernes, 4 de marzo de 2011

El espacio isótropo. El mundo al revés.

El espacio es considerado por definición como homgéneo e isótropo. Estas propiedades son generales del espacio, es decir, no podemos imaginarnos en la situación particular en la que estamos nosotros. Hay que idealizar la situación de un espacio vacío que no esté perturbado ni por cargas ni por masas. En tal situación, que el espacio sea homogéneo viene a experesar la idea de que si realizásemos un experimento, el resultado de éste es independiente del lugar del espacio donde se realize. De igual manera, la isotropía del espacio es una propiedad que indica que no hay dirección privilegiada en el espacio. Las orientaciones son una elección arbitraria, por tanto, norte, sur, oeste y este son pura convención. Si se realiza un experimento, el resultado es independiente de la orientación en la que se realice. Claro está, que tal situación no resulta bajo la influencia, por ejemplo, de un campo gravitatorio. Pero en la situación hipotética de estar aislado del resto del universo, el experimento no distinguiría entre ninguna de las posibles orientaciones.

En nuestro mundo, lo que ha establecido una direccionalidad de los sucesos es el campo gravitatorio terrestre. Esté tiene una dirección radial, hacia el centro de la Tierra, y cuya consecuencia es una direccionalidad en los sucesos, y que los experimentos no sean independientes de la orientación bajo este campo.

Sin embargo, si imaginamos la Tierra desde fuera, se puede visualizar orbitando en el mismo plano que los demás planetas en torno al sól, y el Sistema Solar en su conjunto inmerso en una galaxia plana espiral, rotando en una halo galáctico respecto al centro de la galaxia. Más aún, se puede imaginar nuestra galaxia como una más entre las muchas que exiten en el espacio con una orientación relativa respecto a las demás, sin que ninguna pueda ser la orientación absoluta que fuese referencia de las demás. Y esto no es posible porque no existe argumento plausible alguno para la eleccion de este sistema de referencia absoluto.





Teniendo en cuenta todo esto, resulta clara que la orientación habitual con que representamos el globo terráqueo y los mapas es una convención que tiene razones históricas. Para la ciencia, es igual de válido ver el mundo alrevés.

jueves, 17 de febrero de 2011

Fenómenos Ópticos: El disco de Newton

El disco de Newton es un instrumento que inventó Newton para simular la mezcla de colores luz. La mezcla de colores luz es aditiva, esto quiere decir que al combinar todos los colores del espectro visible, da lugar al color blanco. Newton demostró que la luz solar es blanca y contiene todo el espectro electromagnético visible. Cuando hacía pasar un haz de luz blanco por un prisma especial para ello, observaba la dispersión de la luz en colores. EL efecto inverso lo reprodujo Newton girando el disco pintado por muchos colores. Posteriormente tal efecto se pudo producir con espejos se dirigían rayos de los diferentes colores para juntarlos en un mismo haz, resultando un haz de luz blanca.

martes, 15 de febrero de 2011

Las escalas de la existencia. Múltiples realidades de un mismo objeto.

De dos maneras se han descrito todos los fenómenos. Un fenómeno es un intercambio de información. Por definición, en un sistema aislado no puede haber intercambio de información con el exterior, por lo que no pueden ocurrir fenómenos que involucren la interacción entre objetos de dentro del sistema aislado y los de fuera. Esto es una trivialidad inherente a la definición de sistema aislado que reconoce a su vez el concepto de fenómeno como interacción donde se intercambia información.

Las dos formas de interacción se han descrito según dan lugar a cambios discretos (partículas, paquetes de energía) o a cambios continuos y periódicos (ondas). Los diversos campos de la física han procurado explicar diferentes fenómenos resultando teorías como la del estudio de la luz (óptica), estudio del movimiento y las fuerzas que lo originan (mecánica), estudio de intercambios de calor (termodinámica),de los campos eléctricos y magnéticos (electromagnetismo),etc...Aunque traten de fenómenos totalmente diferentes, todos ellos tienen algo en común, siempre se describen con tratamientos similares. Partículas u ondas pero con una salvedad, un mismo fenómeno no admite ambos tratamientos, por ello, se excluyen entre sí. "Comprender en ciencia es buscar y encontrar lo común entre lo diverso" (Jorte Wagensberg "Ideas sobre la complejidad del mundo". Y lo que encontramos común en todos los fenómenos en una similitud entre sus tratamientos.

EL ser humano entiende el mundo mediante el lenguaje. El lenguaje idealiza el objeto asociando una palabra a la idea, sobre la que reside los principios que la definen, esto es, lo inmutable, su esencia. En ciencia, el mismo objeto tiene distinta esencia, distintas realidades según si lo observamos a pequeña, mediana o gran escala. La pequeña escala seria como acercarnos mucho al objeto y ver que ocurre, la mediana es quedarnos a una distancia en la que el tamaño del objeto es comparable con la nuestra y la gran escala, sería como alejarnos tanto del objeto que lo observaríamos como un punto. Pues bien, las palabras que idealizan propiedades que describen la esencia de un objeto en una escala, no tienen sentido o se modifican para describir lo que ocurre en otra. Pongamos dos ejemplos:

LA ESCALA DEL TAMAÑO

- La temperatura:

Definición macroscópica: Es una palabra que describe la idea de que un objeto origina en su interacción con el observador un efecto medible, una forma de cambio de estado del detector, que se asocia con una particular sensación humana,la de caliente o frío. Es curioso que la temperatura es una palabra que surgió a partir de la medición de lo caliente o frío de un objeto, más allá de simple comparación. Parte de lo que es "medir", es asignar un valor numérico sobre una propiedad en una escala universal para poder comparar cuantitativamente las propiedades de un objeto, en este caso las térmicas, con las del resto de objetos del universo. La ciencia intenta encontrar la ley de cambio de esos números cuando interaccionan dos objetos, medir el cambio de las propiedades. Cuando medimos con un termómetro de mercurio la temperatura, el mercurio al estar en contacto con nosotros interacciona con nosotros, intercambiamos información con él.La información que se intercambia se denomina "calor". Este intercambio produce un efecto sobre las propiedades de volumen del mercurio que se dilata y asciende hasta un valor numérico. El valor numérico es parte de una escala definida tomando de referencia el cambio sobre un "objeto universal", fija las constantes que aparecen en las leyes de la termodinámica. El calor puede medir en caloría (cal), que es la cantidad de energía que hay que suministrar a un gramo de agua a 1 atmósfera de presión para elevar su temperatura 1 °C. Vemos el cambio , como cambio de la propiedad de temperatura del agua y la teoría de la física correspondiente, establecerá leyes que describen como cambian los valores de calor con los cambios de presión y temperatura.

Escala Microscópica: No tiene sentido la temperatura de una molécula, ya que la propiedad macroscópica de temperatura esta asociada con movimientos vibratorios, rotacionales y traslacionales de las moléculas que conforman la materia del objeto. Por tanto la temperatura es un efecto promedio de estos movimientos que individualmente, solo son descritos por propiedades a las que el lenguaje asocia palabras relacionadas con la esencia del movimiento.

En definitiva, la temperatura es un concepto asociado a la escala de tamaño en cuanto promedia los movimientos de los cuatrillones de moléculas que componen los objetos de tamaños comparables con el nuestro y que por tanto producen efectos medibles (que se pueden medir) en ella. No hay manera de evitarlo, el diccionario para los dos mundos no es el mismo.

LA ESCALA DE LAS VELOCIDADES

EL tiempo:

Definición a velocidades normales: Las velocidades normales son las velocidades que no son comparables con la velocidad de la luz. Lo que es reconocible a primera vista en nuestro mundo circula a velocidades lentas con respecto a la luz. El tiempo es un invento de la razón para establecer un orden en los sucesos. Podríamos decir que la existencia del tiempo tiene el mismo peso que la existencia de campo electromagnético. Son, porque son medibles. Para establecer un orden a la razón de cambio de los objetos, es útil y necesario tomar la referencia de un suceso que involucre efectos de duración constante, es decir, un reloj. El tiempo es sinónimo homogeneidad, en el sentido que suponemos un discurrir constante sobre el que cobran sentido los cambios de posición de los objetos y su velocidad de cambio. El tiempo-homogeneidad resulta de la idea querer establecer un orden de sucesos que surge al estar incluidos en el movimiento de movimientos globales del universo y querer comprenderlos. El reloj sería la regla que utilizamos para medir, que supone que la idea sobre la que esta construida es homogénea y se cierra el círculo para establecer que tiempo y homogeneidad es lo mismo. Es fácil comprender esta idea dando respuesta a la cuestión sobre la simultaneidad de los sucesos. Es decir la medición de la duración temporal de esos sucesos según diferentes observadores que se mueven a velocidades distintas. Si ambos miden lo mismo, podemos establecer la definición de tiempo absoluto e imaginarnos un discurrir homogéneo de él.

Definición a velocidades altas: Esto es velocidades cercanas a la luz. Un observador que se mueve a velocidades cercanas a la luz no mediría el mismo tiempo de un mismo suceso que un observador que se moviese a velocidades bajas. El carácter absoluto de tiempo se pierde y se transforma en relativo al observador. Es un resultado de la Teoría de la Relatividad Especial comprobada mediante experimentos. Por tanto la esencia absoluta del tiempo-homegenidad como cambia a relativa, y la palabra "tiempo" modifica su significado.


Como conclusión, reconocemos primero los sucesos que ocurren a nuestra escala. LA escala es un rango numérico en la que ciertos sucesos producen efectos medibles sobre ella y es óptima para cuantificar los cambios que producen. Los fenómenos determinan la escala y los que más fácilmente se miden son los que producen cambios lo suficientemente notables sobre otro objeto de la misma escala tomado de referencia. Los significados desaparecen o cambian en las diferentes escalas, por tanto, cambia la esencia de las cosas sobre las que apoyamos su definición. Temperatura y movimiento molecular son dos descripciones de un mismo objeto apoyándose en esencias distintas. Entonces, hemos construido diferentes realidades de un mismo objeto. Las teorías se encargan de establecer leyes en el marco de una escala. Imponen nuevas definiciones que descansan sobre los principios de la nueva teoría. Son una enciclopedia de los mundos.

Para poder entedender diferentes mundos viviendo en uno solo, la ciencia ha construido su propia "Piedra Rossetta" para poder detectar lo común entre lo diferente. Este intérprete son las matemáticas utilizadas que dan expresión lógica y relacionan las variables (principios a los que previamente se les asocia la idea de poder darles un valor numérico (medición))que definen las cosas. Vemos en fenómenos matemáticas comunes en diversas escalas, que ayudan a comprender y ha modificar el significado de las palabras que describen dichos fenómenos. Y vemos en la misma escala diversos fenómenos que son descritos por las mismas matemáticas. La Piedra Rossetta permite hacer correspondencia signos diferentes sobre una misma esencia para poder entender el lenguaje, en esa dirección, las matemáticas establecen la correspondencia entre nuestro conocimiento científico y el mundo.

lunes, 14 de febrero de 2011

Fenómenos Ópticos: Imágenes en movimiento

El praxinoscopio es un instrumente o juguete clásico de la segunda mitad del siglo XIX. Se le considera uno de los antecesores del cine junto con otros juguetes de la época como el zoótropo, mutoscopio, fenaquistiscopio, etc. Por ser parte de los antecesores del cine son denominados juguetes "pre-cinema". El cine es la comunión de dos fenómenos, el primero, la proyección de luz a través de una imagen traslúcida o transparente (linterna mágica), el segundo, pasar imágenes en movimiento (praxinoscopio).
El tambor giratorio del praxinoscopio contiene una tira en su contorno interior, la cual, tiene un dibujo secuenciado. Al girar el tambor, se puede observar la animación en el espejo central. El praxinoscopio, por tanto, se convierte en un "animador" de dibujos.


A continuación se observa tal efecto en un vídeo que grabé hace unos días, espero que os guste:

martes, 8 de febrero de 2011

Fenómenos Ópticos: La luz no brilla, brillan las imágenes.

La óptica es la parte de la física que trata sobre los fenómenos relacionados con la luz. Una parte de ella "la óptica geométrica", trata sobre los fenómenos cotidianos de la luz. Por ejemplo como atraviesa distintos medios transparentes, como se refleja y como las lentes forman imágenes. La Óptica Geométrica es una aproximación de la "Óptica Ondulatoria". Esta última es la que trata la luz como una oscilación de campo eléctrico y magnético que oscilan en planos perpendiculares y ambos transversales a la dirección de propagación:


La Óptica Geométrica aproxima estas ondas a rayos que se desplazan en línea recta. Esta aproximación es plausible si suponemos que:

- la longitud de onda de la luz visible es mayor que la distancia media entre átomos. Esta aproximación permite utilizar parámetros promedio que simplifican el análisis ondulatorio, se define el índice de refracción un indicador macroscópico, donde reside la información promediada de las particularidades microscópicas del material que atraviesa la luz.

- las distancias típicas en los que los campos varían son mucho mayores comparados con la longitud de onda de la luz visible. Esto físicamente pretende decir que los campos no varían su amplitud ni fase en pocos picos de onda. Hay que recorrer "bastantes" picos de onda para notar cambios en los campos.

Además, la luz emitida por una fuente puntual crea frentes de onda esféricos, pero si nos separamos lo suficiente, estos frentes de onda se aproximan a un plano. Por tanto la se trabaja con frente de ondas planos lo que simplifica su estudio.

Si comparamos la longitud de onda media de la luz visible, la distancia interatómica promedio y la distancia típica en la que los campos de la luz varían, podemos observar que son consideraciones asumibles para experiencias cotidianas que involucren experimentos donde se propaga la luz una distancia "normalmente grande", es decir, no demasiado pequeña con respecto nuestro tamaño.

- distancia típica de variación de los campos de la luz: 0.5 mm
- longitud de onda promedio del espectro visible : 0.5 micrómetro (µm): 10-6 metros
- distancia promedio interatómica: 0.5 nanómetro (nm): 10-9 metros

Finalmente la Óptica geométrica aproxima que la luz se propaga como rayos en línea recta en un medio homogéneo. Esto es un resultado exacto válido tras aproximar las ecuaciones de Maxwell de las ondas electromagnéticas con las consideraciones anteriores.

Veamos que predice la Óptica Geométrica sobre el comportamiento de la luz al atravesar una lente convergente:


Echemos un vistazo ahora a las fotos que hice de un experimento que se puede considerar como cotidiano:




La Óptica geométrica es una buena manera de describir los fenómenos de propagación de luz en situaciones cotidianas, primero porque es un instrumento potente que predice buenos resultados y segundo, porque describe de manera simple la formación de imágenes. Sin embargo, las trayectorias de luz no brillan. Cuando vemos la luz entrar por la ventana como un haz, tan solo es el reflejo disperso de las partículas de polvo suspendidas en el aire. Desconocemos por tanto la naturaleza sobre la que se sustenta la luz, naturaleza de la que Óptica Geométrica no pretende decir nada. Sólo podemos observar sus efectos sobre los objetos que dan lugar a imágenes brillantes tras reflejarse la luz en ellos y llegar a nuestros ojos. No creo que sea necesario pedirle más a este punto de partida de la óptica moderna.

lunes, 24 de enero de 2011

Mirando a través de una doble rendija. El significado dual de las cosas.

El experimento original de la doble rendija fue ideado y puesto en práctica a principios del siglo XIX por Thomas Young para discernir entre la dos posibles descripciones excluyentes de la naturaleza de la luz, corpuscular u ondulatoria. Fue cerca de 150 años después cuando el mismo experimento fue encargado de transformar la disyuntiva fundamental en copulativa otorgando como esencia de la luz y de la materia, su dualidad. Desde los antigüos griegos se han discernido dos maneras excluyentes de interacción y de propagación en el universo, como unidades discretas de información o como pulsos continuos. Los fenómenos ondulatorios se han relacionado con procesos continuos de absorción, emisión y transporte de energía. El entendimiento de los principios básicos de una onda, la compresión de lo fundamental y trivial de las ondas como una representación continua de un cambio son los que darán lugar a las propiedades comunes ondulatorias y su caracterización. La naturaleza corpuscular, informa sobre aquellos aspectos discretos de la naturaleza y explica cambios no contínuos de estado de la materia y sus interacciones. El entendimiento de los principios básicos de una partícula, la compresión de lo fundamental y trivial de las partículas como una representación discreta de un cambio son los que darán lugar a las propiedades comunes corpusculares y su caracterización. Por tanto, dos son las maneras que tiene la naturaleza de expresarse habitualmente, como un fenómeno ondulatorio contínuo o como un fenómeno corpuscular discreto. Es el propio concepto de ellos, su raíz, la que los hace excluyentes entre sí y no se podía esperar hasta el siglo XX, que ciertas cosas compartiesen ambas naturalezas. Lo que se descubrió con el desarrollo de la Mecánica Cuántica en la primera parte del siglo XX es que entre ambas descripciones que deberían ser excluyentes se deben complementar para tener una explicación completa del comportamiento de la materia y de la luz. Sin embargo, los problemas filosóficos que pudieran plantearse a partir de la aceptación de una doble naturaleza en el marco de un paragdigma probabilístico de los sucesos, podían evitarse, no culpando a la naturaleza de dual, sino culpando a la teoría y a la capacidad limitada de observación de fenómenos. Es decir, la teoría cuántica era la responsable de la dualidad, y se prefirió entender que la teoría era un instrumento potente para predecir resultados del mundo microscópico, pero no describía la esencia del mundo y no se podía entender la naturaleza a partir de ella. Nuestra incapacidad para poder observar ciertos fenómenos era la causante de que se tuviese que recurrir a dicha teoría cuántica. Después de experimentos como la doble rendija, que fue repetido y mejorado durante la segunda mitad del siglo XX, se demostró la que la dualidad de la luz y de la materia, no tenía origen en la teoría utilizada como una herramienta de cálculo, sino que es característica esencial e intrínseca a la propia naturaleza.

Dualidad, significa simultaniedad de dos naturalezas excluyentes, significa que nuestro entendimiento y sentido común está basado en leyes que son solo aproximaciones probables de los principios básicos de existencia de las cosas. Estas aproximaciones son producto de aplicar la probabilidad de los fenómenos aislados a la totalidad de los sistemas complejos. Ejemplos de comportamientos fuera de nuestra lógica convencional serían los ejemplos del mundo cuántico, donde son más probables ciertos sucesos que consideramos imposibles. El suceso imposible, deja de tener una probabilidad nula en el mundo macroscopico, y quizás, en referencia a la teoría cuántica, le podríamos asignar una probabilidad despreciable. En cambio, en el mundo cuántico, ciertos sucesos que en el mundo macroscópico se consideran imposibles, tienen una probabilidad significativa. Ejemplos de ello son, la superposición de estados (que permite a una partícula estar en dos sitios a la vez), el efecto túnel (la mecánica cuántica predice que existe una probabilidad no nula de que una partícula atraviese una pared sin que posea la energía suficiente para ello) y la doble rendija (la propia observación de los fenómenos altera el estado en el que se encuentran).

lunes, 17 de enero de 2011

Dibujar la naturaleza

Seguimos intentando entender los fracatales:



El vídeo muestra la creación de árboles a partir de la repetición sucesiva en diferentes escalas de un simple patrón inicial. Vemos que con la geometría fractal se entiende mejor el crecimiento de los árboles.

jueves, 13 de enero de 2011

La Naturaleza Fractal.

Los fractales son elementos geométricos que se van repitiendo sucesivamente en las diferentes escalas y esta repetición es infinita. Estas geometrías se consideran de dimensión matemática no entera, así que los fractales existen entre dos mundos de dimensiones enteras.La propiedad fundametal y primera de los fractales, es la autosimilitud en las diferentes escalas, de lo que derivan el resto de propiedades, Históricamente, la naturaleza se ha intentado describir en función de figuras regulares, líneas rectas y círculos perfectos. Esta forma de mirar la naturaleza nos ha proporcionado instrumentos para su descripción, pero la mayoria de las cosas que hay en el entorno, no responden a estos modelos regulares. Durante siglos hemos dado la espalda a las rugosidades, no tomándolas en cuenta porque no nos parecía fundamental su esencia. Las protuberancias e irregularidas han sido hasta estos últimos años, imperfecciones de lo ideal. Sin embargo, la naturaleza es rugosa y hemos encontrado una forma de medir y simular estar irregularidades utilizando esta nueva geometría de fractales. Un mundo caótico de irregularidades y ramificaciones que aparentemente no ofrece ninguna manera de entenderlo y reproducirlo,nos ha revelado ciertos patrones que se esconden dentro del caos, los fractales. Ejemplos de ellos son las ramas de un árbol, el copo de nieve, el aparato circulatorio de los humanos, la topología de la costa de Gran Bretaña con sus fiordos, etc...Próximamente hablaremos más de ellos.


The Nest That Sailed The Sky from Glenn Marshall on Vimeo.

viernes, 7 de enero de 2011

El colador de sonidos de Koenig.

Este aparato cuya imagen se presenta a continuación fue inventado por Rudolph Koenig (1832-1901), físico, acústico e inventor de instrumentos musicales:


Fundamentalmente es un aparato que hace un análisis de Fourier de frecuencias del sonido compuesto que le llega. Al llegar un sonido compuesto por varias frecuencias al aparato, éste "cuela" mecánicamente el sonido por medio de tubos de diferente diámetro, pudiendo observar las frecuencias que componen el sonido. Para colar el sonido utiliza las propiedades ondulatorias del sonido. La onda sonora al atravesar un tubo puede amplificarse o reducir su amplitud (volumen) al atravesarlo. Que se amplifique o se reduzca depende de la frecuencia del sonido y del diámetro del tubo. Cuanto más grave es el sonido, de mayor diámetro debe ser el tubo para su amplificación. Koenig seleccionó distintos diámetros de los tubos y cuando el sonido compuesto por muchas frecuencias se dirigiese al la parte frontal del analizador (la parte opuesta a la que se ve la foto), cada sonido de distinta frecuencia amplificaría en uno sólo de los tubos y en los demás se atenuaría. Para saber las frecuencias que componen el sonido tan sólo tenía que saber por qué tubos había conseguido atravesar el sonido con mayor facilidad. Para ello, encendió una vela detrás de cada tubo esperando poder observar la llama que se movía. Eso quería decir que el sonido había pasado por el tubo al que le correspondía esa llama. Sin embargo los efectos no eran visibles hasta que colocó un espejo giratorio y vio la imagen reflejada de las llamas. Cuando se daba vueltas al espejo, las llamas que no se movían aparecían reflejadas como líneas, y las llamas que se estaban perturbando por el sonido mostraban intermitencias e irregularidades, por lo que el aparato conseguía analizar las frecuencias de un sonido compuesto. Con las relaciones matemáticas entre los diámetros de los tubos y frecuencias hacía un cálculo de las frecuencias que componían el sonido.

Obsesión por los cubos

Hay de todo en la vida, como gente obsesionada con los cubos:

One Perfect Cube from Florian Jenett on Vimeo.

Obra de Florian Jenett, más información en http://florianjenett.de/one-perfect-cube-making-of/
Tres relojes de aguja sincronizados cada 12 horas forman un cubo perfecto durante un segundo representado en dos dimensiones. Es una pena que en el vídeo no se aprecie bien tal efecto, pero la idea está graciosa.




¡Cosas de la perspectiva!

jueves, 6 de enero de 2011

Supernova

Las estrellas son objetos celestes muy masivos y por ello, debido al efecto gravitatorio tienden a colapsarse sobre sí mismas. Este intento de colapso provoca que en el núcleo existan grandes presiones y muy altas temperaturas favoreciendo las reacciones nucleares de explosión hacia el exterior, que compensan el efecto gravitatorio otorgando estabilidad a la estrella. Cuando los elementos del núcleo que intervienen en las reacciones se acaban, la estrella se colapsa y finalmente explota. Si la estrella fue lo suficientemente masiva, a este acontecimiento se le llama Supernova:

Supernova from Glenn Marshall on Vimeo.

Vídeo y gráficos creados por Glenn Marshall (http://glennmarshall.wordpress.com/) inpirándose en imágenes de Supernovas observadas por medio del telescopio Hubble.

La Supernova, está compuesta por gases y elementos pesados creados en las estrellas que se esparcen por el universo durante millones de años. Esos elementos pueden servir para la formación de nuevos sistemas planetarios como el nuestro. Si el sistema solar fue creado a partir polvo de estrellas, en consecuencia, los elementos de los que estamos formados los seres vivos, también lo fueron. Estamos hechos del mismo tipo de materia que las estrellas, generadoras de los elementos químicos, estamos inmersos en el eterno ciclo de creación y destrucción. Observar una Supernova, es observar materia esparcida utilizada para la próxima creación.

miércoles, 5 de enero de 2011

Descomponiendo el sonido. La transformada de Fourier.

A la hora de analizar el sonido podemos decir que es una vibración del aire tratable como un fenómeno ondulatorio. Los valores cuantitativos que caracterizan una onda son su amplitud y frecuencia íntimamente relacionados con los valores cualitativos de volumen y tono. Sin embargo esta manera de describir el sonido no podría diferenciar por ejemplo el tono "Do" de un piano del tono "Do" de un violín, es decir, diferenciar el timbre de estos instrumentos. Realmente el sonido creado por un instrumento musical es una compleja maraña de pequeñas ondas a lo largo de una onda fundamental y con correspondiente frecuencia fundamental. Esa frecuencia fundamental es la que corresponde al tono del sonido producido por el instrumento. Las frecuencias de las "pequeñas ondas" que viajan a lo largo de la fundamental producen el timbre del sonido.

El movimiento de las moléculas de aire debido a los cambios de presión y el retorno a sus posiciones iniciales (elasticidad del medio) tiene la dirección de la perturbación generada, por ello, la onda sonora se denomina longitudinal. Las podemos diferenciar de ondas transversales como las de la vibración de una cuerda, o sobre las creadas en la superficie de un fluido con el vídeo siguiente:



Para las ondas longitudinales la representación gráfica espacial de los desplazamientos en las distintas direcciones en un instante de tiempo, no es tan intuitiva como para las ondas transversales. Sin embargo, el tratamiento matemático es análogo, ya que las funciones que representan los cambios periódicos son las mismas. En la interpretación que se hacen de ellas, es donde reside la física de estas ecuaciones de onda.

El sonido de una pieza musical, compuesto por una superposición de ondas de los distintos instrumentos según el paso del tiempo se puede analizar mediante la "Transformación de Fourier". Si visualizásemos las ondas de un sonido complejo como una pieza musical, no podríamos reconocer en la superposición final, de qué instrumento procede cada frecuencia. Con esta transformación matemática conseguimos a partir de una señal sonora que varía en el tiempo (frecuencias y amplitudes), representarla como sumas de ondas independientes de distintas frecuencias. Por tanto, obtenemos las frecuencias que conforman el sonido que estamos escuchando.

En la actualidad se utilizan estos resultados matemáticos para desarrollar programas que varían imágenes a partir del sonido que están reproduciendo. Básicamente, para que el sonido "fabrique" estos gráficos, se procede de la siguiente manera:

1. Diseñar un algoritmo gráfico que apartir de unas variables de entrada, vaya variando el gráfico. Estas variables de entrada serían las amplitudes y frecuencias del sonido de la música.

2. Idear una forma de convertir una señal de audio en unas variables de análisis como frecuecias y amplitudes. Esto se puede realizar mediante un análisis de Fourier de la señal.

3. Conectar las variables al algoritmo gráfico y observarlas.

Se pueden combinar distintos algoritmos gráficos que cambian en el tiempo según los deseos del programador. Así éste, puede ajustar el cambio a una canción particular. Esto es un resultado de ello: