Ya está disponible mi libro sobre Mecánica Cuántica!!

August 29th, 2016

El Parto fue largo, pero finalmente mi libro sobre mecánica cuántica se publicó!! Nació como continuación de éstos Blogs por pedido de los lectores y gracias al apoyo incondicional de la gran escritora Ana Von Rebeur. A aquellos interesados, está disponible en el siguiente link:

http://autoresdeargentina.com/2016/08/23/mecanica-cuantica-la-fuente-del-combustible-espiritual-daniel-klau/

La idea es que sea accesible a todos, para que puedan entender una de las áreas más importantes del estudio científico de hoy y su insospechada conexión con lo espiritual, pudiendo encontrar ahora respuestas a hechos que hasta hace poco eran inexplicables. Espero que lo disfruten!!

Física ,

La Gran Máquina de Dios Parte VI (La Radiación del Cuerpo Negro)

April 24th, 2010

Negro, que pasa?

El origen de la teoría cuántica proviene del lugar más inesperado posible. Se conecta con un fenómeno bien conocido, que no pertenece a la parte central de la física atómica: cuando cualquier fragmento de materia se calienta, ésta comienza a brillar, poniéndose roja y luego blanca a más altas temperaturas.  

Quién podría imaginar, que un fenómeno tan corriente podría minar los cimientos de toda la estructura de la física clásica?

 

Todos los cuerpos brillantes, desde una brasa en el fuego al hierro fundido en una acería pasando por el filamento de una bombilla incandescente, tienen un comportamiento muy semejante. Casi independientemente del material que esté hecho el cuerpo, el color que toma depende sólo de su temperatura (en un cuerpo Negro, el color depende sólo de su temperatura y no del material que esté hecho*). Esto significa que si todos esos cuerpos tuvieran la misma temperatura brillarían con el mismo color. Es un hecho sorprendente y fue objeto de la investigación científica tratando de encontrar una explicación simple en términos de las leyes conocidas de radiación y calor.

 

A fines del siglo XIX Lord Rayleigh y Sir James Jeans llegaron a una ley utilizando argumentos clásicos que condujo hacia un serio conflicto entre la teoría y los resultados experimentales:

 

 

 

 

 

 

Este comportamiento tan grotescamente irreal que da como resultado la teoría clásica a altas frecuencias se conoce en física como la “Catastrofe Ultravioleta”, siendo este término sugestivo de la importancia de la falla de la teoría.

 

Este problema atrajo la atención de un buen número de físicos durante la última década del siglo XIX. Uno de ellos fue Max Planck, un científico alemán de la vieja escuela.

Durante el verano de 1900, el físico alemán Heinrich Rubens había realizado en Berlín nuevas mediciones muy precisas del espectro de la radiación del calor. Cuando Planck escuchó de estos resultados, intentó representarlos por fórmulas matemáticas sencillas y encontró que la forma completa de la curva podía describirse con una fórmula matemática simple.

Un día Planck y Rubens se encontraron para tomar un te en la casa de Planck y compararon los últimos resultados de Rubens con la nueva fórmula sugerida por Planck y esta fórmula constituyó un gran éxito ya que la ecuación de Planck concordaba perfectamente con las observaciones de la radiación emitida por el cuerpo negro, aunque carecía aún de una explicación física. 

 

Fue el comienzo de un intenso trabajo teórico para Planck. Cual era la correcta interpretación física de la nueva fórmula?

 

En 1900 antes de que se creara el modelo planetario del átomo, los físicos se lo figuraban como un núcleo que tenía un aspecto parecido a una sandía, es decir, como una esfera relativamente grande donde se encontraban esparcidas todas las cargas positivas y en cuyo interior, como si de semillas se tratase, aparecen empotrados los pequeños electrones cada uno con su carga negativa particular.

Si se le daba una sacudida al átomo eso hacía que sus electrones oscilaran. Se pensaba que esos electrones oscilantes emitían energía radiante y ésa era la causa de que los objetos calientes brillaran. Los físicos pensaban que al calentar los átomos de un metal se les hacía entrar en estado de agitación y eso, a su vez, hacía oscilar a sus electrones y emitir luz en el proceso.

 

Para poder explicar su fórmula, Planck tuvo que postular lo siguiente:

 

1)     Los átomos radiantes se comportan como osciladores que oscilan c/u a su frecuencia ? de oscilación mecánica.

2)     Cada oscilador puede absorber o emitir energía electromagnética sólo en cantidades discretas o paquetes de energía proporcionales a su frecuencia o sea:

 

Paquete de Energía (DE) = Constante (h) X Frecuencia (? )

(A la constante h se la denominó constante de Plank y su valor es  6.6256 x 10-34 J.seg).

 

Esto significaba que la energía no se intercambiaba en forma continua sino en paquetes finitos que llamo “Cuantos” siendo el cuanto de energía DE la menor cantidad de energía que se puede intercambiar entro dos cuerpos.

Este resultado era tan diferente a todo lo conocido en física clásica, que Planck se rehusaba a creerlo al principio. Pero en el período de más intenso trabajo en el verano de 1900 él finalmente se convenció a si mismo que no había forma de escapar de su conclusión. El hijo de Planck dijo que su padre habló con él sobre sus ideas en un largo paseo a través del Grunewald, el bosque en los suburbios de Berlín. En este paseo él le explicó que sentía que posiblemente había hecho un descubrimiento de primera línea comparable quizá sólo con los descubrimientos de Newton. Por lo que Planck se debe haber dado cuenta en ese momento que su fórmula había tocado los fundamentos de nuestra descripción de la naturaleza y esos fundamentos comenzarían a mover de su presente posición tradicional a una nueva y aún desconocida posición de estabilidad.

La idea de que la energía solo puede ser emitida y absorbida en cuantos discretos de energía era tan nueva que no podía enmarcarse en el marco tradicional de la física.

 

La fórmula de Planck fue hecha pública en una reunión de la Sociedad de Física de Berlin en Octubre de 1900. Él mismo estaba molesto con las implicaciones de su tesis y confiaba en que sus colegas estarían en condiciones de hacer lo que él no había logrado: explicar su contenido en términos de la física de Newton. Pero en el fondo de su corazón sabía que eso no era posible, que ni ellos ni nadie podría hacerlo. También presentía, y con toda razón, que su comunicado iba a conmover los auténticos cimientos de la ciencia.

 

Los intentos de Planck de conciliar su nueva hipótesis con las leyes antiguas de la radiación fallaron en puntos esenciales. Tomó 5 años hasta que pudo darse el próximo paso en la nueva dirección.

 

Esta vez fue el joven Albert Einstein, un genio revolucionario entre los físicos,  el que no tuvo miedo de ir más allá de los viejos conceptos. Habían dos problemas en los cuales él pudo hacer uso de las nuevas ideas: uno fue en el llamado efecto fotoeléctrico, el efecto de la emisión de electrones de los metales bajo el efecto de la luz. Y este es justamente el tema que vamos a tratar en el próximo post.

 

Continuará…….. 

 

  

 

_______________________________________________________________

 

* En el caso ideal imaginario de un perfecto absorbente o emisor de radiación, el color que toma el cuerpo no depende del material sino sólo de su temperatura. A este cuerpo ideal se lo denomina “cuerpo negro” ya que absorbe toda la radiación que le llega. Sin embargo esta denominación no es del todo adecuada porque un “cuerpo negro” puede muy bien presentarse al rojo o al blanco al calentarlo y constituye un modelo ideal físico para el estudio de la emisión de radiación)

 

Física , , , , ,

La Gran Máquina de Dios Parte V (introducción a la Mec. Cuántica)

February 11th, 2010

Pocos saben de que se trata, pero la Mecánica Cuántica hoy está de moda.

Desde la reciente película de Woody Alen “Si la Cosa Funciona” (título original

en Inglés “Whatever Works”), pasando por El Secreto y la mayoría de los libros

de espiritualidad hacen referencia a la Mecánica Cuántica. Incluso se la ha llegado

a comparar con el Zen y las filosofías Orientales (ver por ejemplo “El Tao de la Física”

de Fritjof Capra).

No es para menos. Sus predicciones escapan por completo a lo que es el sentido

común y aún hoy se continúan discutiendo sus implicancias filosóficas.

Voy a intentar transmitirles aquí algunos aspectos de esta fascinante teoría en

un lenguaje simple y lo más sencillo posible, aunque el estudio del mundo atómico

obligó a los físicos a admitir que nuestro lenguaje común no sólo es impreciso,

sino totalmente inadecuado para describir las realidades atómica y subatómica

de las que se ocupa esta teoría. La teoría cuántica y la teoría de la relatividad,

bases ambas de la física moderna, han puesto de manifiesto que esta realidad

trasciende la lógica clásica y que no se puede hablar de ella en el idioma

corriente. Por eso escribía Heisenberg:

 

El problema más difícil… en relación con el uso del lenguaje surge en la teoría cuántica.

En primer lugar nos encontramos con que no tenemos ni una sola guía que nos permita

correlacionar los símbolos matemáticos con conceptos del lenguaje ordinario, y lo único

que sabemos desde un principio es el hecho de que nuestros conceptos comunes no pueden

aplicarse a la estructura de los átomos (W. Heisenbcrg, Physics and Philosophy , Allen & Unwin,

Londres, 1963, pág. 177 ).

 

El objeto más pequeño que podemos ver, incluso bajo la lente de un microscopio,

contiene millones de átomos. Para ver los átomos en una pelota de tenis tendríamos

que dar a la pelota el tamaño de la tierra entera. Si la pelota tuviera el tamaño de

nuestro globo, sus átomos serían, aproximadamente como uvas.

El segundo paso hacia abajo nos lleva al nivel subatómico, donde nos encontramos con

las partículas que componen los átomos. La diferencia entre el nivel atómico y el nivel subatómico es mayor que la diferencia entre el nivel atómico y el nivel de las pelotas de

tenis y las raquetas. Sería imposible ver el núcleo de un átomo del tamaño de una uva.

Sería imposible, en realidad, ver el núcleo de un átomo del tamaño de una habitación.

Para poder ver el núcleo de un átomo, éste tendría que ser del tamaño de un edificio de

catorce pisos. El núcleo de un átomo que tuviera la altura de un edificio de catorce pisos, tendría el tamaño de un grano de sal. Puesto que una partícula nuclear tiene dos mil veces la masa de un electrón, el electrón que girara en torno a su núcleo sería como una partícula de polvo.

La cúpula de la Basílica de San Pedro, en el Vaticano, tiene el diámetro de un edificio de

catorce pisos. Imagínense entonces un grano de sal en medio de la cúpula de San Pedro

con unas cuantas partículas de polvo girando a su alrededor en los límites de la cúpula.

Esto nos da un ejemplo a escala de las partículas subatómicas. Es en este terreno, el

terreno de lo subatómico, donde la física de Newton se muestra inadecuada y la mecánica cuántica es necesaria para explicar la conducta de las partículas.

 

Se llama Mecánica al estudio del movimiento. Un Cuanto es una cantidad específica de

algo (del Latín Quantum).  Consecuentemente «Mecánica Cuántica» es el estudio del movimiento de las cantidades. La teoría del cuanto dice que la energía en la naturaleza no

es un continuo, sino que se presenta en porciones y pedazos (los cuantos) y la mecánica del cuanto es el estudio de este fenómeno.

 

 

Mi contacto inicial con la Mecánica Cuántica se remonta a 1982. En ese año comencé a

cursar el 3er año de Ingeniería y nunca imaginé que una materia, Fisica III

(Física Cuántica y de los Semiconductores), iba a producir un cambio tan profundo en mi forma de percibir el mundo. El Jefe de Trabajos Prácticos en ese entonces era el Ing. Jorge Perri y las clases teóricas eran dictadas por el Dr. Carlos Rosito (actual Decano de la Facultad de Ingeniería de la Universidad de Buenos Aires) que había sido mi jefe durante los años en que yo trabaje como Técnico recién recibido en el Centro de Investigaciones de Laser y Aplicaciones (CEILAP) en la provincia de Buenos Aires. Quedé tan maravillado con lo que estaba escuchando, que al año siguiente apliqué para el cargo de ayudante de segunda para trabajar “ad honorem” junto al Ing. Perri. Durante los siguientes 15 años me dediqué a enseñar y a aprender llegando a ocupar el cargo de Jefe de Trabajos Prácticos en la misma facultad.

 

 

 

Mucho antes que esto, a mediados del siglo XIX, la mecánica de Newton se hallaba

en su cénit. Parecía no existir ni un solo fenómeno que no pudiera ser explicado en

términos de este modelo. En esa época el director del Departamento de Física de Harvard trataba de desanimar a aquellos que querían prolongar sus estudios, basándose en que, a su entender, eran muy pocas las cosas importantes que quedaban por resolver 1 (cuantas veces han escuchado en su vida el “No te calientes que ya está todo inventado” ?!!).  

En un discurso dirigido a la Royal Institution en 1900 (institución dedicada a la educación e investigación científica basada en Londres), Lord Kelvin expresó la idea de que sólo quedaban dos puntos oscuros por resolver en el horizonte de la física: el problema de la radiación de los cuerpos negros y el experimento de Michelson-Morley 2. No había duda, dijo Kelvin, de que pronto serían aclaradas.

Sin embargo se equivocaba. Las dos «nubes» de Kelvin minaron los pilares fundamentales

de la mecánica clásica y señalaron el fin de la era que comenzó con Galileo y con Newton.

El problema de la radiación de los cuerpos negros condujo a Planck a postular que la energía no era un continuo que podía tomar cualquier valor, sino que era discontinua y estaba formada por paquetes (a los que se llamó cuantos). El experimento de Michelson-Morley condujo a las famosas teorías de la relatividad de Einstein.

 

Esta revolución tuvo lugar entre 1900 y 1930, y pasados ya más de 80 años, aún truena la polémica sobre qué es exactamente lo que se ha descubierto.

 

La mecánica cuántica no reemplaza a la física de Newton, sino que la incluye en su teoría. La física de Newton sigue siendo válida dentro de sus límites.

En palabras de Einstein:

«… crear una nueva teoría no consiste en destruir el viejo granero y levantar un rascacielos

en su lugar. Es más bien como escalar una montaña, ganando perspectivas nuevas y más amplias, descubriendo contactos inesperados entre nuestro punto de partida y el rico paisaje que se revela a su alrededor. Pero el punto del que partimos sigue existiendo y puede ser visto, aun cuando aparezca más pequeño y haya pasado a ser una pequeña parte de nuestra más amplia perspectiva que hemos ganado al superar los obstáculos de nuestro camino, pleno de aventuras, hacia la cumbre»

La física de Newton sigue siendo aplicable al mundo a gran escala, pero no tiene validez en el mundo subatómico. La mecánica cuántica es el resultado del estudio de ese mundo subatómico, de ese universo invisible que está por debajo, incluido en, y formando el tejido de todo lo que existe en torno a nosotros.

 

La visión Newtoniana nos describe un universo en el que la materia es fácilmente identificable moviéndose dentro de un espacio de 3 dimensiones y en el tiempo de acuerdo a ciertas leyes fijas. Pensó al universo como si fuera una gran máquina.

Antes de que Newton formulara sus leyes del movimiento, el filósofo francés René Descartes, enunció lo que en su tiempo era una noción revolucionaria: que nosotros – representados por nuestras mentes- estábamos separados de esta materia inerte y sin vida de nuestros cuerpos, que no eran sino otra máquina bien engrasada. El mundo estaba compuesto por una serie de pequeños objetos discretos que se comportaban de manera previsible. El más separado de ellos era el ser humano. Nosotros estábamos fuera del universo y lo observábamos. Hasta nuestros cuerpos estaban separados de algún modo y eran otra cosa que nosotros mismos, las mentes concientes que realizaban la observación. El enorme engranaje del mundo seguiría adelante tanto si nosotros estábamos presentes como si no.

 

La mecánica cuántica barre con estos pensamientos e instala una visión completamente distinta del universo. A medida que los pioneros de la física cuántica entraban en el corazón mismo de la materia lo que veían los dejaba anonadados. Las partículas más pequeñas de la materia ni siquiera eran materia tal como la conocemos, ni siquiera un algo establecido, sino que a veces eran una cosa y otras veces otra completamente diferente. Y lo que es aún más extraño, a menudo eran varias cosas diferentes a la vez. Pero lo más significativo de todo es que estas partículas subatómicas no tienen sentido aisladas unas de otras, tan sólo en relación con todo lo demás. Al nivel más fundamental, la materia no puede ser dividida en pequeñas unidades autocontenidas, sino que es completamente indivisible. Sólo podemos entender el universo como una trama de interconexiones.

Las cosas que estuvieron alguna vez en contacto siguen estando en contacto a lo largo del espacio y del tiempo. Evidentemente, el espacio y el tiempo mismo parecen construcciones arbitrarias, inaplicables a este nivel de realidad. De hecho el tiempo y el espacio no existen tal como los conocemos. Todo lo que aparece – hasta donde el ojo puede ver – es el gran paisaje del aquí y ahora.

Los pioneros de la física cuántica – Erwin Schrödinger, Werner Heisenberg, Neils Bohr y Wolfang Pauli – tuvieron algunos atisbos del territorio metafísico en el que estaban adentrando. Si los electrones están conectados simultáneamente con todo, esto implica algo profundo respecto a la naturaleza del mundo en general. En su intento de entender la verdad profunda del extraño mundo subatómico que estaban observando, se dirigieron a los textos filosóficos clásicos. Pauli estudió psicoanálisis, los arquetipos y la cábala; Bohr el tao y la filosofía china; Schrödinger la filosofía hindú, y Heisenberg las teorías platónicas de la antigua Grecia. No obstante seguían sin llegar a una teoría coherente sobre las implicaciones espirituales de la física cuántica.

Los pioneros cuánticos descubrieron que nuestra relación con la materia era crucial. Las partículas subatómicas existían en un estado abierto a todas las posibilidades hasta que nosotros las alterábamos – al observarlas o medirlas – y en ese momento se convertían, por fin en algo real. Nuestra observación – nuestra conciencia humana – era fundamental para que este flujo subatómico se convirtiera en una cosa fija, pero nosotros no estábamos incluidos en las fórmulas matemáticas de Hesenberg o Schrödinger. Ellos se dieron cuenta que, en cierto sentido, nosotros somos la clave, pero no sabían como incluirnos. En lo tocante a la ciencia, seguíamos siendo observadores externos.

La nueva física ha otorgado al observador un papel central en la naturaleza de la realidad física.

Si no estamos separados necesitamos redefinir lo que designamos como “yo” y “no-yo” y reformar la manera en que interactuamos con nuestro alrededor.

Para que esto que estamos diciendo no suene tan abstracto, vayamos entonces a lo concreto.

Continuará…..

(en el próximo post me ocupare del inicio de la Mecánica Cuántica)

 

 

1.- Werner Heisenberg, Physic and Philosophy, Harper, Torchbooks. Nueva York, Harper and Row, 1958, pág. 52

2.- Lord Kelvin «Nineteenth Century Clouds over the Dynamical Theory of Heat and Light», Philosophical Magazíne, 2, 1901, 140

 

Física , , , , ,

La Gran Máquina de Dios – Parte IV (Será que todo se expande?)

July 21st, 2009

El trabajo de Galileo Galilei (1564-1642) nos proporciona una ecuación muy útil para los cuerpos que caen hacia la tierra. Estos lo hacen a una aceleración constante llamada g de aproximadamente 9.8m/s2 independientemente de la masa que tengan. Esta ecuación es puramente geométrica y no explica la causa de este efecto.

La Gravedad es uno de los fenómenos más familiares e importantes en la naturaleza. A pesar que era sabido que algo obviamente hace a los objetos caer, no fue hasta Isaac Newton (1642-1727) que tuvimos un modelo claro de este algo como una fuerza de atracción que emana de toda materia en una manera que es precisamente descripta por una ecuación.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Newton también afirmó que esta misma fuerza de atracción era responsable de las órbitas observadas en el cielo haciendo a nuestro universo tan comprensible y predecible como un mecanismo de relojería por primera vez en la historia. De ese modo estableció una mecánica celeste racional. Lo que hasta entonces habían sido los poderes de los dioses, o de Dios, pasó a entrar de lleno en el campo de los conocimientos comprensibles a los mortales.

Este fue un logro tan monumental en la época de Newton que sentó base para otros modelos de fuerzas descriptos por ecuaciones en forma similar desde entonces.  

 

También tuvo sus implicancias filosóficas: el mundo Newtoniano era un enorme engranaje regido por leyes bien definidas y que seguiría adelante tanto si nosotros estábamos presentes como si no. Al ser el hombre también parte de esa maquinaria, su libre albedrío desaparecía. Gary Zukav en su libro Los Maestros Wu Li Danzantes, escribe:

“Si aceptáramos la determinación mecanicista de la física newtoniana –si el universo es una gran máquina-entonces desde el momento en que el universo fue creado y puesto en marcha, todo lo que debía suceder en él ya estaba determinado. Según esta filosofía, pudiera parecer que tenemos una voluntad propia y la habilidad de alterar el curso de los sucesos en nuestras vidas, pero no era así. Todo, desde el principio de los tiempos, había sido predeterminado, incluyendo nuestra ilusión de tener un libre albedrío. El universo sería una cinta pregrabada que se reproduce a si misma de la única manera posible. La condición de los hombres sería inmensurablemente más desconsoladora que lo que fue antes del advenimiento de la ciencia. La Gran Máquina seguiría funcionando ciegamente, y todas las cosas en él serían sólo dientes de la rueda de un engranaje”  

Esta visión cambió radicalmente con el advenimiento de la  Mecánica Cuántica a ppios del siglo XX.

La primera publicación de la Ley de Gravitación Universal de Newton apareció en su famoso trabajo “Philosophiae naturalis principia matemática” o “Principios matemáticos de la filosofía natural”  publicado en 1687.

 

En resumen, fue Galileo Galilei quien, saliendo de la Edad Media, cuantificó por primera vez el mundo físico. Midió el movimiento, la frecuencia, la velocidad y la duración de todo, desde las piedras que caían al suelo a los movimientos del péndulo (como el candelabro de su catedral). Fue Descartes quien desarrolló muchas de las técnicas fundamentales de las matemáticas modernas y nos ofreció la imagen del universo como una Gran Máquina. Pero sería Isaac Newton quien formulara las leyes que hacían que esa Gran Máquina se moviera.

 

Problemas con la teoría de la gravedad de Newton:

 

  • La teoría de la gravedad de Newton, no explica porqué los objetos se atraen unos a los otros ni cual es la fuente de energía que sustenta esta fuerza de atracción.

          Newton sintió con claridad que la comprensión auténtica de la naturaleza de la

gravedad estaba por encima de todo entendimiento. En una carta dirigida a Richard Bentley, un universitario clasicista, escribió:

«…que un cuerpo pueda actuar sobre otro a distancia, a través del

vacío y sin ninguna otra mediación, y que su acción y fuerza puedan

pasar de uno al otro, es para mí un absurdo tan grande que creo que

nunca estará de acuerdo con ello ningún hombre que sea intelectualmente competente en materia filosófica.» (Proceedings of the Royal Society of London, vol. 54, 1893, pág. 381, que se refiere a la Correspondence of R. Bentley, vol. I, pág. 70. Hay también una explicación sobre la acción-a-distancia de Clerk Maxwell, en Nature, volumen VII, 1872, pág. 325)

En resumen: «la acción-a-distancia» podía ser descrita, pero no explicada.

  • Otro asunto problemático en la teoría de la gravedad newtoniana que se debe considerar es el tema de su velocidad de propagación en el espacio.

Empezando por recordar que el límite de velocidad universalmente aceptado por la ciencia es la velocidad de la luz  (la velocidad de la luz en el vacío es el límite de velocidad superior para todos los objetos y también para la propagación de todos los campos y formas de energía a través del espacio), la teoría gravitacional de Newton no trae un límite de velocidad. Si el Sol de repente desapareciera, mientras nosotros lo veríamos aparecer aún por unos 8 minutos hasta que los últimos rayos alcanzan la tierra a la velocidad de la luz, el campo gravitacional del sol desaparecería inmediatamente junto con la desaparición del sol. La tierra no experimentaría 8 minutos adicionales de la atracción gravitacional del sol que la mantiene en órbita, sino que abandonaría de inmediato su órbita saliendo disparada hacia el espacio. Esto se debe a que la pérdida de gravedad del sol se sentiría de inmediato a cualquier distancia a través del sistema solar y ciertamente a través de todo el universo de acuerdo a la teoría de Newton. Esta transmisión a una velocidad mayor que la de la luz de la fuerza gravitacional y su transmisión instantánea a través de cualquier distancia en el universo es una violación que no tiene explicación en la teoría de la Física clásica.

 

Por siglos la Teoría de la Gravitación de Newton ha sido la única explicación razonable e intuitiva para los objetos que caen y las lunas orbitando. Aunque hoy día existe otra explicación viable aunque para nada intuitiva que es la que da la Teoría de la Relatividad General de Einstein  que explica el fenómeno debido a una curvatura del espacio-tiempo. También ésta teoría resuelve el problema de la propagación instantánea de la fuerza gravitacional ya que incluye al tiempo en sus ecuaciones. Sin embargo la velocidad real de propagación de la gravedad es aún desconocida ya que no se han podido realizar hasta ahora pruebas definitivas que la puedan determinar.

 

Otra teoría de la gravedad reciente, alternativa a la de Einstein y Newton, es la Teoría de la Expansión. Esta teoría considera que los átomos tienen una propiedad intrínseca que es la de expandirse a una velocidad idéntica y universal. Dado que todo objeto material está compuesto por átomos, si cada átomo se expande a la misma velocidad universal de expansión, entonces también lo harán todos los objetos materiales, incluidos nosotros. Esto significa, que no sólo no vamos a notar a los objetos alrededor nuestro crecer, sino que también vamos a estar fundamentalmente imposibilitados de observar su crecimiento en forma directa – aún si deliberadamente buscamos hacerlo. Nosotros estaríamos “atrapados” en el mismo universo de materia expansiva como cualquier otro objeto atómico, y estaríamos fundamentalmente incapacitados para salir “fuera” de este universo para observar su materia expandiéndose. Seres hechos de átomos que se expanden en un universo compuesto enteramente de estos átomos que se expanden, nunca notarán otros objetos o átomos individuales crecer relativamente a ellos o a otros objetos. Aún los metros y otros dispositivos de medición crecerán de la misma manera, e indicarán por lo tanto tamaños constantes.

Sin embargo, sí habrá un efecto notable debido a toda esta expansión subyacente: los objetos tomarán más y más del espacio que los rodea y, en consecuencia, del espacio entre uno y otro a medida que crezcan, llegando eventualmente a tocarse y a empujarse uno en contra del otro en forma continua debido a su expansión en curso. Pero esto ocurre en realidad en nuestro mundo? Efectivamente sí ocurre. Esta es justamente la mismísima razón por la cual Newton introdujo la noción de una fuerza gravitacional de atracción, para explicar el hecho que todos los objetos parecen atraerse unos a otros y experimentan una fuerza que los mantiene unidos una vez que se tocan. Newton explicó este efecto considerando una misteriosa fuerza de atracción que emana de todos los objetos, pero la Teoría de Expansión muestra que no se requiere ninguna fuerza para explicar este fenómeno una vez que se considera la expansión de los átomos.

Un escenario donde todo parece mantener su tamaño constante pero el espacio entre todos los objetos continuamente disminuye puede ser más sencillamente descripto como una situación donde los objetos ordinarios son atraídos unos a otros por alguna inexplicable razón subyacente.

 

 

 

 

 

 

 

 

 

 

 

 

 

Consideremos el caso de un objeto cayendo a la tierra. Se dice que el objeto cae debido a la fuerza de atracción gravitacional de Newton que emana de la Tierra. Sin embargo, consideremos que esta fuerza no existe. En este caso el objeto quedaría simplemente flotando sobre la tierra. Que pasaría ahora si tanto el objeto como la tierra se expanden? Aún cuando ambos se expandan en una pequeña proporción, debido al tamaño enorme de la tierra aún este pequeño porcentaje será una cantidad enorme, haciendo que rápidamente se expanda hacia el objeto que está flotando golpeándolo con gran fuerza y empujándolo continuamente contra él a medida que el planeta continúa expandiéndose. Desde nuestra perspectiva parados en el planeta expandiéndose, veríamos efectivamente el objeto caer con una aceleración hacia el suelo, donde parece quedar “varado” en su superficie como si lo mantuviera pegado una fuerza de atracción a medida que el planeta continúa expandiéndose contra él. De hecho, mientras estemos parados en este planeta que se expande, nosotros también experimentaríamos la misma fuerza de expansión en curso contra nosotros como si el planeta nos estaría empujando hacia abajo a medida que forcejeamos contra él para mantenernos parados, efecto que resulta en lo que llamamos nuestro peso. Mientras tanto, mantendremos el mismo tamaño comparado tanto con el objeto que cae y con el planeta, debido a que todo, incluyendo nosotros nos estaríamos expandiendo a la misma velocidad de expansión atómica universal.

 

 

Esta teoría explicaría porqué no fue posible detectar aún el Gravitón (partícula elemental hipotética que sería la transmisora de la interacción gravitatoria en el modelo de gravedad cuántica), simplemente porque no existiría. También explica el hecho que aún no se haya podido fabricar un escudo antigravedad para poder levitar, ya que no tendría sentido intentar bloquear el campo gravitatorio debido a que no existe tal campo gravitatorio. 

 

Para más información sobre esta teoría consultar el libro “The Final Theory” de Mark McCutcheon.

 

 

 

 

Física , , , ,

La Gran Máquina de Dios – Parte III (La gravedad de la Gravedad)

June 19th, 2009

Lo que ocurre con la gravedad es grave. Es sabido que utilizando distintos materiales somos capaces de aislarnos de la electricidad, campos eléctricos, campos magnéticos, luz, ondas de radio y radioactividad. Porque no del campo gravitatorio también? La ciencia nunca ha tenido un claro entendimiento de la gravedad y ha sido imposible concebir ni idear el desarrollo de algún material o dispositivo que nos escude de la gravedad. Un invento como éste permitiría a un objeto levitar en el medio del aire simplemente insertando este escudo gravitatorio entre el objeto y el piso. Si la fuerza de atracción de la gravedad no puede pasar el escudo gravitatorio para alcanzar al objeto, entonces cualquier objeto sobre el escudo flotaría y no sería empujado hacia abajo. Sin embargo hasta ahora esto no se ha podido lograr.

 

Veamos un poco de historia:

Read more…

Física , , , , , , , ,

La Gran Máquina de Dios – Parte II (La Teoría del Todo)

June 4th, 2009

Para poder analizar la naturaleza del universo es necesario tener claro lo que es una teoría científica. En Ciencia, una teoría es simplemente un modelo con un conjunto de reglas que relacionan las magnitudes del modelo con las observaciones que realizamos. Esto sólo existe en nuestras mentes, y no tiene ninguna otra realidad. 

Albert Einstein escribió en 1938 (Albert Einstein y Leopold Infield, The Evolution of Physics, Nueva York, Simón and Schuster, 1938, pág. 31.):

«Los conceptos físicos son creaciones libres de la mente humana,

y no están, aunque pueda parecerlo, determinados en forma única por el

mundo exterior. En nuestro esfuerzo por comprender la realidad somos

algo así como un hombre que tratara de entender como funciona un reloj

encerrado en su caja. Ve la esfera, las agujas que se mueven y hasta

puede ser que escuche su tic-tac, pero no tiene los medios para abrir la

caja. Si se trata de un hombre de ingenio, puede formarse una idea del

mecanismo responsable de todas las cosas que está viendo, pero nunca

podrá estar seguro de que el modelo, la imagen que se formó en su

mente, sea la única capaz de explicar las cosas que está observando.

Nunca podrá estar en condiciones de comparar el mecanismo real con la

imagen que él se ha formado y ni siquiera imaginar las consecuencias

de tal comparación.»

 

 

 

 

 

Una teoría es una buena teoría siempre que satisfaga dos requisitos:

1)     Debe describir con precisión un amplio conjunto de observaciones sobre la base de un modelo que contenga sólo unos pocos parámetros arbitrarios.

2)     Debe ser capaz de predecir positivamente los resultados de observaciones futuras.

 

Cualquier teoría física es siempre provisional, en el sentido de que es sólo una hipótesis: nunca se puede probar. A pesar que los resultados de los experimentos concuerden muchas veces con la teoría, nunca podremos estar seguros que la próxima vez el resultado no vaya a contradecirla.

Sin embargo, se puede rechazar una teoría en cuanto se encuentre una única observación que contradiga sus predicciones. Cada vez que se comprueba que un nuevo experimento esta de acuerdo con las predicciones la teoría sobrevive y nuestra confianza en ella aumenta. Pero si por el contrario se realiza alguna vez una nueva observación que contradiga la teoría, tendremos que abandonarla o modificarla.

 

Es muy difícil construir una única teoría capaz de describir todo el universo. En vez de ello nos vemos forzados, de momento, a dividir el problema en varias partes, inventando un cierto número de teorías parciales. Cada una de estas teorías parciales describe y predice una cierta clase restringida de observaciones, despreciando los efectos de otras cantidades, o representando estas por simples conjuntos de números. Puede ocurrir que esta aproximación sea completamente errónea. Si todo el universo depende absolutamente de todo el resto de él de una manera fundamental, podría resultar imposible acercarse a una solución completa investigando partes aisladas del problema. Sin embargo, este es ciertamente el modo en que hemos progresado en el pasado. El ejemplo clásico es la teoría de la Gravedad de Newton, la cual nos dice que la fuerza gravitacional entre dos cuerpos depende únicamente de un número asociado a cada cuerpo, su masa, siendo por lo demás independiente del tipo de sustancia que forma el cuerpo. Así, no se necesita tener una teoría de la estructura y constitución del sol y los planetas para poder determinar sus órbitas.

 

La mayor parte de los científicos cree que la búsqueda de una teoría que pueda explicar todo es una búsqueda por entender y unificar lo que hoy día se consideran las 4 fuerzas fundamentales separadas de la naturaleza:

 

Ø       La Gravedad: La atracción familiar entre toda la materia, descripta en primer lugar por Isaac Newton.

Ø       El Electromagnetismo: unifica los fenómenos eléctricos y magnéticos en una sola teoría formulada por primera vez de modo completo por James Clerk Maxwell. Además describe la naturaleza ondulatoria de la luz, mostrándola como una onda electromagnética.

Ø       La Fuerza Nuclear Fuerte: una poderosa fuerza de corto alcance que se piensa es la que mantiene unida a los núcleos atómicos. Los núcleos atómicos tienen muchos protones de carga positiva muy próximos entre sí, lo que debería hacer que se repelan fuertemente haciendo que el núcleo se desintegre de acuerdo con la teoría de la carga eléctrica. Por lo tanto fue necesario introducir el concepto de una fuerza nuclear fuerte entre los protones en el núcleo para explicar como el núcleo no se desintegra en aparente violación con la teoría de la Carga Eléctrica.

Ø       La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.

 

Una de las teorías más populares que intenta esta unificación es la Teoría de Cuerdas (ver video al final).

 

Muchos científicos reconocen que aún carecemos de un entendimiento profundo de nuestro universo, y debido a esto es que hay en marcha esfuerzos para aumentar nuestro conocimiento usando herramientas como los aceleradores de partículas de alta energía (como el Gran Colisionador de Hadrones LHC construido en Suiza) y potentes telescopios espaciales, como el Hubble puesto en órbita en 1990, o más recientemente el 14 de Mayo de este año fue lanzado el Europeo Herschel que tiene una lente de 3.5m de diámetro, un 45% más grande que el del Hubble (ver http://www.esa.int/SPECIALS/herschelplanck/index.html para más información).

 

Sin embargo, hay una pregunta vital e inquietante: así como es imposible que un perro entienda como funciona una radio, estará el ser humano capacitado para entender como funciona el Universo?

 

Continuará…..

(en el próximo post me ocupare de la Gravedad)

 

 

Física , , , , , ,

La Gran Máquina de Dios – Parte I (Introducción)

May 22nd, 2009

Se han percatado que estamos atrapados en este mundo obligados a adaptarnos a leyes de la Naturaleza que quien sabe quién las ha impuesto? Porqué son así las leyes? Podrían ser distintas?

Así solía comenzar mis clases en el Ciclo Básico Común de la Universidad de Buenos Aires para captar la atención de mis alumnos que provenían de carreras tan diversas como ser Kinesiología, Fonoaudiología, Arquitectura e Ingeniería.

Una hipótesis razonable es que fue Dios su autor, aunque esto obviamente queda librado a la fe que cada uno profesa.

Al nacer nos topamos con la inevitable ley de la gravedad que se extiende por todo el universo y que sus buenos dolores de cabeza nos trae (literalmente). Nos toma 2 o 3 años comenzar a movernos correctamente en este hábitat.  

Así, desde la ley de la gravedad hasta los principios fundamentales detrás de los más pequeños átomos, nuestras vidas están inmersas en las leyes de la naturaleza.

Sin embargo, mientras los animales inferiores sólo se limitan a estar en el mundo, el hombre trata de entenderlo: como seres inteligentes es natural para nosotros preguntarnos sobre el mundo que nos rodea, y parecería razonable que fuéramos capaces de llegar a una comprensión del mismo en su totalidad. La herramienta fundamental que utilizamos en este difícil emprendimiento es la Física.

 

Esta gran “Máquina de Dios” denominada Universo, se generó hace 13 mil 700 millones de años según el último consenso al que arribaron los Cosmólogos hace poco tiempo y está formada por un 4% de átomos, 22% de una llamada Materia Oscura de identidad desconocida y un 74% de algo que tampoco se sabe a ciencia cierta que es y se la denomino Energía Oscura, no habiendo relación entre la materia oscura y la energía oscura más que el nombre, pero nunca se sabe….

Esto muestra la deficiencia existente en las teorías actuales que sólo tienen “certeza” sobre un 4% (¡!) del total del universo. En este sentido, la física hoy no está muy alejada de la religión, ya que cree en algo que no puede ver ni puede detectar con ningún instrumento.

 

 

Tratando de explicar la rotación de las galaxias espirales aplicando la ley de Gravitación Universal de Newton, se encontró que faltaba materia para obtener los resultados observables. A esta “materia perdida” se la denominó Materia Oscura que también se introduce para poder explicar la atracción existente en cúmulos de galaxias ya que la materia observable no es suficiente para mantenerlas unidas.  

 

 

 

 

 

 

 

 

 

 

                                                                                                                             

                                                                                                                          

 

 

 

 

 

Las galaxias en el universo normalmente se agrupan en cúmulos que para mantenerse unidos necesitan de la fuerza de atracción gravitacional producida por una gran cantidad de masa. La masa requerida no se observa. ¿Dónde está?

 

 

 

 

La energía oscura en cambio se debe introducir para explicar lo que se descubrió en 1998 que la expansión del universo se estaba acelerando.

No se sabe nada del origen físico fundamental de la materia oscura ni de la energía oscura, y en ese sentido no son más que simplemente una parametrización útil de la ignorancia.

 

Esto nos lleva a pensar que estamos entrando en una era fascinante similar a la que se vivió a fines del siglo XIX y principios del siglo XX donde las diferencias entre las teorías reinantes y las observaciones hizo surgir nuevas teorías como el Electromagnetismo, la Mecánica Cuántica y la Relatividad General que produjo un salto enorme en el campo tecnológico trayendo avances como la televisión, las computadoras, el celular, los viajes al espacio, etc. Las nuevas teorías que surjan ahora nos conducirán a un salto igual o mayor que el experimentado en el siglo pasado como puede ser el control de la gravedad (levitación), comunicación vía telepática, transporte sin uso de combustible y otras, como veremos más adelante.

 Continuará…….

(En el próximo post me ocupare de las Teorías Científicas)

Recomiendo ver los siguentes videos de la BBC que profundizan los temas tocados en este post.

 

 





Física , ,

Las Telecomunicaciones – Parte VI (Conmutación)

February 4th, 2009

 

 

 

Conmutación : Significado y necesidad (Manual, Mecánica y Centrales digitales) 

 

Si dos personas A y B usaran el  teléfono elemental visto en el capítulo anterior  para comunicarse sólo entre ellas y no con ninguna otra persona, sería suficiente una única línea que una ambos teléfonos para que se puedan comunicar. Esto se ilustra en la siguiente figura:

 

______________________________________________________
Nota (no de lectura obligatoria, se puede saltear) : El esquema indicado arriba es una forma simplificada de dibujar un circuito básico que une dos teléfonos como el siguiente: 

 

 

Los transformadores aparecen para reducir la resistencia de la línea que ve la batería. Si no se colocaran los transformadores, la resistencia de la línea sería substancialmente mayor que la del micrófono y por lo tanto, este no sería capaz de producir fluctuaciones de corriente suficientemente grandes a través de la variación en su resistencia. Cuanto mayor sea el número de espiras del secundario de c/transformador ( respecto del primario) menor será el efecto de la resistencia de la línea y por lo tanto mayor la influencia de la resistencia del micrófono en el establecimiento de la corriente del circuito.

Un circuito telefónico real, normalmente es más complejo que el mostrado arriba y esto se debe a la introducción de elementos para evitar el eco y la diafonía (a los efectos de nuestro estudio, estos elementos no serán considerados).

_____________________________________________________________________

 

Si una tercera persona C quisiera interconectarse para  poder hablar telefónicamente con A y B, el esquema resultante podría ser el siguiente:

 

 

 

De esta manera, tenemos 3 personas interconectadas a través de líneas telefónicas independientes. Esta configuración a pesar de funcionar bien no resulta económica cuando el número de personas que desea conectarse aumenta. Tampoco es eficiente, ya que en esta configuración de 3 personas, se necesitan 6 teléfonos y 3 líneas de las cuales sólo 2 teléfonos y 1 línea pueden utilizarse simultáneamente ( si A está hablando con B, C no puede entablar conversación ni con A ni con B ya que ambos están ocupados hablando entre ellos). Si quisiéramos enlazar a 100 personas para comunicarse entre si necesitaríamos 5000 líneas y 10000 teléfonos ( cada persona necesitaría 100 teléfonos para comunicarse con el resto).

En lugar de utilizar tantos teléfonos y cables, la red telefónica se organizó de manera que cada abonado tenga sólo un teléfono y un par de cables para comunicarse con los demás. Para lograr esto fue necesario introducir un mecanismo de “conmutación” que permita seleccionar la línea apropiada para hablar con la persona deseada, como se indica en la siguiente configuración   :

 

                                                                                 Figura 1

Utilizando este mecanismo logramos que al tener que conectar una nueva persona para comunicarla con las demás no es necesario llevar un cable y un teléfono a c/u del resto sino que es suficiente con agregar un teléfono y un único cable que lo conecte al mecanismo de conmutación. Se entiende ahora como mecanismo de conmutación al área encerrada entre las líneas de puntos del dibujo anterior, que podrán estar concentradas en un sitio.

 

 

En la figura 1, para que A pueda hablar con B es necesario llevar las llaves indicadas como ‘La’ y ‘Lb’ a las posiciones mostradas. A este procedimiento de modificar la posición de las llaves para enrutar la llamada entre dos personas es a lo que se denomina “conmutación”. La primera entidad de conmutación fue , por supuesto, el operador que era la persona encargada de cerrar las llaves necesarias para establecer el vínculo y que fue supremo durante unos 16 años luego de la invención del teléfono. La persona que deseaba hacer una llamada debía informar a la oficina central, donde estaba el operador, de la necesidad de servicio. Para ello los primeros teléfonos venían equipados con un generador eléctrico a manivela (parecido al dínamo de las bicicletas) el cuál se hacía girar  vigorosamente para notificar al operador del deseo de servicio. Más tarde, esta manivela se reemplazó por una corriente continua que se hacía correr al levantar el teléfono y que encendía una lámpara de un tablero en la posición del operador. El operador respondía al llamado pidiendo el número con el cual la persona se quería comunicar haciendo luego las conexiones correspondientes para establecer la vía de comunicación. La conexión se realizaba insertando una clavija en un tablero de conexiones como se indica en la figura siguiente :

 

 

 

 Las primeras máquinas automáticas de conmutación, tenían que emular la tarea del operador, en espíritu, pero no en detalle. Se tuvo que hacer un agregado al aparato telefónico ( el discado ) para permitir la comunicación en una forma aceptable con la máquina automática de conmutación. Se tuvieron que proveer medios para comunicar información al usuario sin utilizar la voz ( por ej. tono de discado en lugar de  “número por favor” , tono de llamado en lugar de “estoy llamando a dicho número” tono de ocupado versus “dicho número está ocupado” ). Se tuvieron que proveer medios para seleccionar el trayecto y establecer la vía de comunicación cerrando conmutadores primero mecánicos y luego electrónicos en lugar de insertar clavijas en un tablero.

Las máquinas automáticas nacieron por necesidad. Una de las primeras en aparecer y lejos el diseño que tuvo más éxito es la atribuida a Almond B. Strowger de la ciudad de Kansas en los Estados Unidos. Patentada en 1889 e instalada por primera vez en La Porte ( Indiana) el 3 de Noviembre de 1892, el concepto es bastante sencillo y continúa siendo usado en varias partes del mundo aún en estos días.

Strowger tenía una funeraria, y la historia cuenta que una compañía rival acaparaba casi todo el negocio gracias a que la esposa del dueño era la operadora del sistema telefónico. De esta forma, cualquier persona acongojada que llamaba para ser conectada con alguna funeraria nunca era derivada a la de Strowger! Molesto por la cantidad de negocios que se perdía de esta forma, decidió inventar un sistema que elimine la necesidad de utilizar a los operadores telefónicos y patentó así el primer selector automático de teléfonos.

El sistema diseñado por Strowger era completamente electromecánico. Estaba formado por electroimanes y relés electromagnéticos. Los llamados eran enrutados bajo el completo control del discado del usuario. A las llaves Strowger se las denomina selectores de dos movimientos: los contactos que llevan la llamada pueden moverse hacia arriba verticalmente o hacer barridos horizontalmente. Este es el movimiento que encamina la llamada a través del sistema. No existe ningún control central. Cada numero discado opera una llave diferente, y cada llave puede ocuparse únicamente de una única llamada a la vez. El control se va moviendo a través de toda la central a medida que se establece la llamada. Es un sistema distribuido, y la central Strowger es denominada con frecuencia central paso a paso. Esto es una buena descripción de su forma de trabajar: si el usuario que llama disca un “2” la llave Strowger da dos pasos hacia arriba subiendo dos niveles, luego, busca la siguiente llave que este libre barriendo a través de todos los terminales posibles. El contacto se detiene en el terminal conectado a la primer llave libre que encuentra y esta llave es la que recibe el siguiente número discado. De esta forma, la llamada se enruta a si misma a través de toda la central.

 

 

En el ejemplo de la figura, el abonado llamante desea conectarse con el abonado cuyo número es el 7584. Al levantar el teléfono su línea es conectada automáticamente a través de un selector a un circuito libre el cual le envía un tono invitándolo a discar. Este circuito a su vez está conectado a otro selector de manera que cuando el abonado disque el primer dígito del número deseado, cada pulso del discado hace que el selector suba un nivel. Este se para en el nivel 7, y durante la pausa interdígito, es decir, mientras el discado vuelve a su posición de reposo , el selector rota automáticamente alrededor de su eje vertical ( no indicado en la figura ) y se para en la primer salida que encuentra libre de las que están presentes en el nivel 7. Este nivel a su vez también está conectado a un selector  que procede de la misma forma que el anterior al recibir el segundo dígito. El proceso así se repite hasta que el último dígito completa la conexión con el abonado deseado.

Las centrales Crossbar, que fueron inventadas por L.M. Ericsson de Suecia, son más recientes que las equivalentes de Strowger. Tienen en común que ambas usan llaves electromecánicas. Sin embargo en los sistemas crossbar  cada llave puede manejar mas de una llamada a la vez y todos los números discados son almacenados en un registro de enrutamiento antes del posicionamiento de la llave. De esta forma, vemos que el sistema Crossbar tiene una forma de control central a pesar que también es electromecánica.

El termino “crossbar” o “barras cruzadas” proviene de la utilización de barras horizontales y verticales cruzadas para seleccionar inicialmente los contactos. Una vez establecidos, estos contactos son mantenidos a través de electroimanes alimentados con corriente continua que pasa a través del circuito establecido.

Los diseños modernos han evolucionado a partir de la Crossbar. En primer lugar, las llaves fueron miniaturizadas inicialmente a través del uso de relés de lengueta ( reed relays) y mas tarde mediante el uso de dispositivos de estado sólido. En segundo lugar, el área de control se ha ido convirtiendo paulatinamente a estado sólido de manera tal que un controlador moderno es muy similar a , y a veces lo es , una computadora digital.

Esta combinación constituye una central telefónica electrónica moderna. Su evolución podría verse como debida principalmente a la disponibilidad de nueva tecnología, pero de hecho lo inverso es cierto en muchas áreas. Las telecomunicaciones han sido las que manejaron a la tecnología en lugar de ser manejadas por ella. Basta con recordar que el transistor, el elemento fundador de la industria electrónica moderna, fue descubierto en los Laboratorios Bell de Telefonía.

La siguiente y última etapa en esta evolución es la conversión de la llave en si misma a tecnología digital (usando, por ejemplo, un pequeño transistor).

Si pensamos que hoy en día se pueden incluir millones de transistores en un chip del tamaño de la yema de un dedo, comprenderemos la impresionante diferencia de tamaño entre una central primitiva (Strowger) y una electrónica.

 

MATRICES DE CONMUTACIÓN

 

Una forma mas simplificada de representar la Figura 1 anterior es la indicada a continuación:

 

En esta figura, se representan con un circulo los puntos de cruce entre las distintas líneas telefónicas. Un punto de cruce abierto es aquel en el que no existe contacto eléctrico. Un punto de cruce cerrado o activo es aquel en el que existe un contacto eléctrico. De esta forma, en esta figura queda establecido el vínculo para que pueda hablar A con B.

Las otras dos combinaciones que se pueden dar en este sistema son las siguientes:

 

Vemos que son necesarios 3 puntos de cruce para comunicar a tres teléfonos entre si.

Los puntos de cruce son agrupados en matrices con puntos de acceso que se multiplican a lo largo de filas y columnas ( m entradas y n salidas) como se muestra en la siguiente figura:

 

Cada conexión se establece entre un punto de acceso vertical ( una columna ) y un punto de acceso horizontal ( fila ) cerrando el contacto ( punto de cruce ) en la intersección de la fila y la columna correspondientes a los puntos de acceso. Durante la llamada, un único punto de cruce está activado ( cerrado ) por fila y por columna.

Este tipo de matriz, es utilizada para conectar cualquiera de las m entradas con cualquiera de las n salidas. El número de puntos de cruce es m x n.

Normalmente, no es económico ( excepto en centrales muy pequeñas) tener todas las salidas y entradas interconectadas a través de una única y gran matriz de conmutación con tantos puntos de cruce.

En este tipo de matriz el bloqueo interno es cero, esto significa que si una de las n salidas está libre, siempre podrá ser accedida por una de las m entradas. En una matriz con bloqueo interno se acepta que aún cuando la salida a la que se quiere acceder está libre, existe una probabilidad de que no exista un trayecto disponible para conectar a la salida con la entrada llamante.

Para reducir el número de puntos de cruce en una red de conmutación, también es posible diseñar estructuras en la cual hay entradas que no tienen acceso a todas las salidas. En este caso, se dice que la accesibilidad es limitada, sino, se dice que es completa.

Utilizando una matriz de conmutación para conectar a 8 abonados entre sí nos llevaría al siguiente esquema:

Si nos ponemos a pensar un poco, nos daremos cuenta que el peor caso posible se da cuando la mitad de los abonados se encuentra hablando con la otra mitad. Este hecho se considera en la figura siguiente, donde se ve que el número de puntos de cruce de conmutación se reduce en un factor de 2 y aún así es posible conectar a cualquier abonado con cualquier otro en cualquier instante (esto es, la red continúa siendo  sin bloqueo).

Así, para 8 teléfonos vamos a necesitar 28 puntos de cruce (8×7/2 = 28) como se indica a continuación:

El máximo número posible de conversaciones es 4 ( la mitad de los abonados hablando con la otra mitad ). En la práctica, es poco probable que todos los abonados estén usando el teléfono al mismo tiempo (la probabilidad se aproxima a cero a medida que crece el número de abonados), y sería extravagantemente innecesario e impracticable proveer un equipo con dicha capacidad. En lugar de esto, es suficiente en la práctica proveer el equipamiento necesario  para satisfacer el pico promedio de tráfico ( generalmente, en el orden del 10% de las líneas activas).

Si decidiéramos proveer un máximo de 2 conversaciones entre los 8 abonados, deberíamos utilizar el siguiente arreglo en donde los puntos de cruce se reducen de 28 a 16:

La figura muestra al abonado B hablando con el F y al E con el C. Cualquier otro abonado que en ese momento desee conectarse no podrá ya que no existen puntos de cruce disponibles para efectuar la conexión.

Sin embargo, para un número práctico de líneas, una red de conmutación se organiza en tres etapas para economizar puntos de cruce (aunque para el caso particular de 8 abonados los puntos de cruce aumentan de 16 a 20). Para el ejemplo anterior, la red nos quedaría así:

La etapa que se encuentra más a la izquierda es la etapa de concentración, que concentra 8 líneas a 2 enlaces. La etapa central, es la etapa de distribución, que provee acceso completo desde cualquier entrada a cualquier salida. La etapa que se encuentra más a la derecha es la etapa de expansión, en la que se expanden 2 enlaces a 8 líneas .

 

 

ABONADOS Y TRAFICO

Un abonado no utiliza su teléfono todo el tiempo, y su teléfono ( y línea ) puede estar ya sea libre u ocupado. La actividad de una línea se puede medir en base a la proporción de tiempo durante el cual está ocupada y a esta proporción se la denomina tráfico del abonado ( o con mayor exactitud, intensidad media de tráfico).

Las centrales de conmutación telefónicas son dimensionadas de acuerdo a cargas de tráfico estimadas con anticipación. A pesar de que estas no se pueden predecir en detalle, existe una colección bastante amplia de datos estadísticos que permiten a los ingenieros en telecomunicaciones hacer suposiciones razonables sobre la carga de tráfico diaria y en consecuencia sobre la performance que se requiere en el controlador.

 

El problema con el tráfico telefónico es que es absolutamente aleatorio. Por otro lado, esta dificultad puede ser traducida en un beneficio debido a que, suponiendo que es verdaderamente aleatorio es posible desarrollar una teoría estadística que permita predecir el comportamiento del sistema telefónico con bastante precisión. La fórmula que engloba a esta teoría se denomina Formula de Erlang debida a su inventor, un matemático Dinamarqués. La fórmula no es repetida aquí ya que se encuentra disponible en cualquiera de los muchos libros que se ocupan del tema ( por ej. Bear, D., Principles of Telecommunication Traffic Engineering, Peter Peregrinus, 1980).

Lo importante es analizar como se mide el tráfico.

La intensidad del tráfico telefónico es una medida que combina el número de llamadas y su duración. Para hacer una apreciación práctica debe referirse a un período fijo de tiempo.

Este período es el denominado “hora cargada” y esta va a variar según sea la naturaleza del negocio en particular.

La unidad de medida Americana es el CCS. Para determinar el número de CCSs generados en un sitio en particular, se suman todas las llamados y su duración ( en segundos) en la hora cargada y se lo divide por 100. De esta forma, una llamada que dure una hora es equivalente a 360 CCSs.

La medida Europea y que se usa también aquí en Argentina es el erlang. La cantidad de tráfico en erlangs se define como el número de llamadas que ocurren durante la hora cargada multiplicada por el tiempo medio de duración de las llamadas. De esta forma, una llamada mantenida durante una hora es equivalente a 1 erlang. Luego, 1 erlang es equivalente a 360 CCSs.

Ambas mediciones por lo tanto proveen una representación de la duración total de las llamadas para un grupo de teléfonos, troncales, o lo que fuera. Así, por ejemplo, si un grupo de 30 teléfonos genera c/u 2 llamadas en la hora cargada, y el tiempo promedio de duración de las mismas es 2’, la intensidad de tráfico en erlangs será simplemente 30x2x2, todo dividido 60 para pasarlo a horas, resultando 2 erlangs.

Si los 30 teléfonos están conectados a una misma central y todas las llamadas se deben enrutar hacia otra central, cuantos troncales hacen falta para conectarlas? Lo más sencillo sería conectar 30 troncales. Esto daría accesibilidad total, pero sería prohibitivamente caro y los troncales serían raramente usados. De hecho c/u estaría siendo usado solo 4’ en la hora cargada! Por lo tanto suministramos menos troncales, lo que tendrá su efecto colateral: si se suministran menos troncales, entonces habrá una probabilidad que todos los troncales estén siendo usados cuando alguien quiera hacer una llamada. La formula de Erlang es utilizada para determinar esta probabilidad, llamada normalmente probabilidad de bloqueo o grado de servicio. El grado de servicio es expresado normalmente en llamadas perdidas. Un grado de servicio de 1 en 100 significa que una  llamada en 100 serán perdidas. Esto es lo mismo que decir una probabilidad de bloqueo de 0.01.

 

 

 

ORGANIZACIÓN GENERAL DE LA RED

 

El 28 de Enero de 1878 , solo 2 años después de la invención del teléfono, se estableció la primer oficina de conmutación en New Haven, Connecticut con 21 líneas telefónicas.Al ir creciendo la cantidad de clientes, y al estar estos más distantes, aparece así la necesidad de poner oficinas en otros lugares para prestar el servicio a estos nuevos clientes.
Tanto la primer oficina como las demás que le siguieron eran ubicadas en el centro del área de servicio y proveían de conexiones conmutadas a todos los abonados del área. Debido a su ubicación en las áreas de servicio, a estas oficinas de conmutación se las refiere normalmente con el nombre de centrales telefónicas.

Al aumentar la utilización del teléfono y querer los clientes de una zona conectarse con los de otra se hace necesaria la interconexión de las áreas de servicio individuales a través de troncales entre las centrales telefónicas.

Cuando la cantidad de centrales creció mucho, cada nueva central que se agrega se debe conectar con  el resto lo cual complica el crecimiento de la red. Surge así la necesidad de agregar un conmutador que conecte a estas oficinas, de manera que cada nueva central que se agregue sólo necesite conectarse a ese punto. De esta forma se evoluciona hacia un segundo nivel de conmutación. El primer nivel conmuta a abonados y se la denomina Central Local y el segundo nivel conmuta a centrales y se la denomina Centro de Tránsito o Tándem.

La continua demanda por conexiones de distancias cada vez más largas, junto con la mejora en los medios de transmisión de larga distancia, estimulo aún más niveles de conmutación. De esta forma la red de telefonía pública en los Estados Unidos ha evolucionado a un total de 5 niveles, como se indica en la siguiente tabla:

 

 

En términos generales, una red de comunicación conmutada está compuesta por nodos de conmutación y enlaces de transmisión entre los nodos. En una representación simbólica de una red de telefonía pública, los nodos de conmutación representan a las diferentes oficinas de conmutación, y los enlaces de transmisión representan a los troncales entre oficinas. La figura siguiente describe una red de conmutación jerárquica como la que constituye la columna vertebral de la red pública, con la salvedad de que aquí se muestran solo tres niveles  de conmutación:

 

 

Una deficiencia significativa de la estructura jerárquica mostrada arriba es que sólo existe un camino entre cualquier par de oficinas de conmutación siendo así muy vulnerables a las fallas tanto en los enlaces de transmisión como en las oficinas de conmutación. Para delimitar esta vulnerabilidad y para proveer interconexiones más económicas entre pares de oficinas de conmutación con altos volúmenes de tráfico, la columna vertebral de la red es reforzada con varios troncales de alto uso. Estos troncales de alto uso son empleados para conexiones directas entre oficinas de conmutación con altos volúmenes de tráfico entre ellas. Normalmente el tráfico entre dos de estas oficinas se enruta a través de los troncales directos. Si estos se encuentran ocupados ( lo que puede ocurrir frecuentemente si son altamente utilizados ) la columna vertebral de la red jerárquica aun está disponible para un enrutamiento alternativo.

El tráfico se enruta siempre a través del nivel más bajo disponible de la red. Este método no solo emplea menos recursos de la red, sino que también implica una mejor calidad del circuito establecido debido al empleo de un camino más corto y menos puntos de conmutación.

Además de los troncales de alto uso, la columna vertebral de la red jerárquica se refuerza con centrales Tándem empleadas en los niveles más bajos de la red para proveer conmutación entre centrales locales.  La función básica de una central Tándem es interconectar aquellas centrales locales cuyo volumen de tráfico entre ellas no justifica la instalación de un troncal directo.

En términos generales cualquier máquina de conmutación colocada entre dos centrales locales cumple la función de tándem. Así, las centrales interurbanas o de larga distancia ( en inglés toll switch: toll tiene su origen en la abreviatura de “transmision over long lines” o “transmisión por líneas largas”) proporcionan un servicio tándem también. Sin embargo en la jerga telefónica se reserva el término tándem específicamente para los conmutadores intermedios dentro de un área local.

 

 

 

Bibliografía

1.- Aidarous/Plevyak, Telecommunication Network Management into the 21st Century, IEEE, 1994.

2.- Bellamy John C., Digital Telephony, John Wiley & Sons Ltd., 1982 .

3.- Briley Bruce E., Introduction to Telephone Switching, Addison-Wesley, 1983.

4.- Clark Martin P., Network and Telecommunications-Design and Operation, John Wiley & Sons Ltd., 1991.

5.- GRINSEC ( Groupe des Ingénieurs du Secteur Commutation du CNET), Electronic       Switching, Elsevier Science Publishers B.V.,1993.

6.- Kitahara Yasusada, Information Network System- Telecommunications in the Twenty First Century, The Telecommunications Association, 1982.

7.- Mc Donald John C., Fundamentals of Digital Switching, Plenum Press, 1990.

8.- Nellist John G., Understanding Telecommunications and Lightwave Systems-An Entry Level Guide, IEEE Press, 1992.

9.- Noll Michael A., Introduction to Telephones & Telephone Systems, Artech House Inc., 1991.

10.- Randall Neil, Discover the World Wide WEB, Sams.Net, 1995.

11.- Rubin/Haller, Communication Switching Systems, Reinhold Publishing Corporation 1966.

12.- Sysky Ryszard, Introduction to Congestion Theory in Telephone Systems, ITC, 1986.

13.- Young Peter, Power of Speech – A History of Standard Telephones and Cables 1883-1983, George Allen & Unwin Ltd., 1983 ( ISBN 0-04-382039-5)

 

 

 

 

 

 

 

 

 

 

Telecomunicaciones ,

Las Telecomunicaciones – Parte V (La Telefonía y sus Ppios)

January 14th, 2009

 Que es un teléfono? Como funciona?

 

El Teléfono fue inventado por Alexander Graham Bell y fue patentado en los Estados Unidos en 1875-7 (aunque, como vimos en la Parte II,  muchos dan crédito de esta invención a Antonio Meucci quien desarrolló un aparato de comunicación por voz en 1857). Permite la transmisión de sonido, en particular la voz, entre lugares distantes. La traducción literal de ‘tele-fono’ en griego es ‘larga distancia-voz’. 

La conversación telefónica se logra transformando las ondas de sonido emitidas por uno en una señal eléctrica equivalente. Consideremos por un momento las características del sonido de manera que Read more…

Telecomunicaciones

Las Telecomunicaciones – Parte IV (Rol en la sociedad)

December 12th, 2008

 

Seguramente, a muchos de nosotros nos castigaron de chicos dejándonos sin ver televisión. Sin embargo, para lograr el mismo efecto en alguno de nuestros hijos, tendríamos que privarlos también del PC, el MP3, el celular, entre otros. Esto ocurre debido a que las comunicaciones y los contenidos han convergido tecnológicamente y pueden ser reproducidos en miles de formatos.

El uso de servicios convergentes en las relaciones familiares o de otros grupos afectan los flujos de comunicación, pues han eliminado las fronteras. El uso de la tecnología modifica la propia sociedad y genera una nueva cultura. Esta cultura cuenta con una lógica propia y, al mismo tiempo, condiciona Read more…

Telecomunicaciones