Los Números Primos

Origen del Helado Historia de los Primeros Helados

Historia y Origen del Helado

Esa golosina que tanto apreciamos en los calurosos meses de verano tiene una historia y un pasado ilustres. Entre los ricos egipcios y los persas estuvieron de moda las bebidas heladas; gustaban especialmente del jugo de frutas y del agua azucarada, a la que agregaban distintas esencias aromáticas, enfriando el refresco con hielo. Según podemos apreciar examinando antiguos grabados, los persas daban a estos helados la forma de un huevo y los lamían al igual que suelen hacerlo los niños de hoy.

Los romanos fueron muy afectos a las bebidas heladas; se cuenta que Julio César tomaba grandes cantidades para reponerse de las fatigas de sus expediciones militares. Los árabes gustaron a tal punto de ellas, que nuestra actual palabra sorbete deriva precisamente de su lengua.

Empero, la crema helada, esto es, lo que en la actualidad llamamos helado, data del siglo xvi y nació en la ciudad de Florencia; su invención se debe a Bernardo Buontalenti. Este delicioso manjar tuvo sus enemigos y sus apasionados defensores; entre estos últimos contó con Catalina de Médicis (1519-1589), quien lo introdujo en la corte de Francia e hizo venir de Florencia a dos expertos en la fabricación de helados.

En la antigua Grecia se practicaba ya la costumbre de mejorar ciertos postres, frutos, golosinas y bebidas mediante su enfriamiento. El griego alejandrino Ateneo refiere en su libro «El banquete de los sofistas» —en el cual describe la vida y las costumbres del siglo III antes de Cristo— los procedimientos empleados para conservar la nieve durante el verano, en cuevas o sótanos subterráneos, existentes entonces en las casas ricas.

Un siglo más tarde encontramos en Florencia, en Napóles, en Venecia, en Palermo, gran número de fabricantes de helados, quienes trataban de hallar nuevas recetas para su especialidad, nuevos adornos, nuevos gustos; entre éstos merecen destacarse la espuma florentina, las tortas heladas napolitanas y sicilianas, la bomba napolitana, el arlequín o helado mixto de origen veneciano.

En 1660, el florentino Procope Coltelli abrió en París el primer establecimiento en que se servían helados; fue el famoso Café Procope, al que concurrían, hasta el siglo pasado, la gente elegante, los literatos, los artistas y los políticos.

Procope fue también el inventor de la máquina para fabricar helados que aún hoy se usa en muchos hogares, y que consta de un receptáculo con una espátula batidora, colocado en un recipiente mayor que contiene hielo. Además del Café Procope, ubicado enfrente de la Comedie Francaise, que había sugerido a su propietario la idea de dar a cada variedad de helados el nombre de un artista de moda, también adquirió renombre el Café Napolitano. Su primer propietario fue Tortoni.

Florentinos, venecianos, sicilianos y napolitanos llevaron a todos los países de Europa la afición por los helados, aunque hasta el siglo pasado éstos quedaron reservados para las mesas de los ricos. Existen a este respecto numerosas anécdotas; las crónicas de la época relatan frecuentes querellas entre damas de la alta sociedad que trataban de lograr para sí, ofreciéndoles un mayor salario, a tal o cual heladero italiano.

//historiaybiografias.com/archivos_varios5/helados.jpg

La auténtica crema helada, tal como la conocemos hoy, fue servida por primera vez en Florencia en el siglo XVI. Catalina de Médicis llevó a París a dos heladeros expertos, introduciendo así el uso de los helados en la corte de Francia. Aquí vemos a Catalina de Médicis, durante una recepción que ofreció en su palacio de Florencia, recibiendo de manos de su servidor una copa de crema helada. El delicioso manjar constituía, entonces, un exótico ofrecimiento para los invitados.

Tal uso de los helados fue introducido en Inglaterra en 1860 por un cocinero de Catania quien, en un banquete celebrado en el corazón político y comercial de Londres, habría presentado una enorme torta helada, tan artísticamente decorada que suscitó la envidia de los demás cocineros del Reino Unido. También se cuenta que Carlos I de Inglaterra asignó la fabulosa remuneración de 20 libras esterlinas anuales a su cocinera y especialista de helados en forma de huevo, con cucurucho de vainilla, relleno de pasta de grosella.

El Renacimiento, junto con otros refinamientos en las costumbres nacidos en el mundo antiguo, volvió a usar de esta práctica culinaria. Fueron reposteros árabes quienes introdujeron en la Europa medieval el sorbete, servido primero en los palacios de los grandes señores, y más tarde ofrecido al público por los pasteleros de Siria, Egipto y la España musulmana. Reposteros italianos tienen el mérito de haberlo introducido en las cortes de los príncipes, y de haber creado no pocos de los tipos de helados y refrescos todavía en uso.

Las recetas secretas que utilizaban los heladeros italianos pudieron al fin ser descubiertas por un chef francés, llamado Clermont, a fines del siglo XVII. Clermont emigró a los Estados Unidos y estableció allí una fábrica de helados; esta industria prosperó en muy poco tiempo.

helado cucuruchuLa forma cónica de los helados y otras modalidades que han facilitado su consumición en todo momento y en cualquier lugar son debidas a los americanos del Norte, cuyo espíritu práctico hizo de esta golosina un manjar popular.

Mas no sólo lo colocaron al alcance de todos (quedando desprovista su fabricación del sello especial que le dieron sus inventores), sino que confeccionaron nuevas recetas y convirtieron los helados en parte integrante de la alimentación diaria, para felicidad de los niños y de los que ya no lo son.

Sin embargo, los helados italianos seguían teniendo el mayor éxito. En 1850, el veneciano Sartorelli organizó un pintoresco desfile de 900 carritos de heladeros ambulantes a través de la ciudad de Londres.

Diez años más tarde, en Nueva York, otro italiano imitaba su ejemplo, desafiando de este modo a quienes ya creían entrever el declinar de esa pequeña industria, que no cesa de progresar acelerada y entusiastamente.

Ya dijimos que, en nuestros días, los helados no son considerados como una golosina sino como un alimento; en los Estados Unidos existen escuelas en las que se imparte enseñanza especial a los futuros fabricantes de helados; estos establecimientos poseen laboratorios químicos perfectamente equipados.

Una estadística de 1980 demuestra que cada habitante consume por año, en los Estados Unidos, unos 70 kilogramos de icecream. América latina, por su parte, es una gran consumidora de helados; aunque no disponemos de estadísticas, basta observar los quioscos, los carritos ambulantes, los innumerables vendedores con conservadoras de frío de distintos tipos, que en los meses de verano se instalan en los lugares de gran afluencia de público, o recorren los parques, plazas y paseos, y hasta los apartados barrios de las ciudades y de los más alejados suburbios.

Para concluir esta breve reseña, transcribiremos el elogio que escribió Giuseppe Parini, uno de los grandes poetas italianos del siglo XVIII:

A un mismo tiempo la nieve se apresa
y la fresa gentil con su suave perfume
que de lejos traiciona su ansiada presencia,
el limón saludable y la más dulce crema.

Parini, autor de poesías de tono austero, hallaba, pues, motivo de inspiración en las deliciosas y aromáticas cremas de frutas heladas.

Fuente Consultada:
LO SE TODO Tomo I Historia del Helado – Editorial CODEX

Curas Carismaticos Sanadores Historia, Origen y Misión

Curas Carismáticos: Maestro de la Sanación

Para el Movimiento de Renovación Carismática, ser cura es ser sanador. El que sana es Dios, y los sacerdotes son su instrumento. Para ellos, el secreto está en la oración y el amor, dos principios que imparten con dedicación.

Los renovadores caris-máticos comenzaron a organizarse en 1967 en los Estados Unidos. Se trataba de un grupo de estudiantes universitarios católicos, que hicieron la imposición de manos por primera vez en mucho siglos. Cuando se la practicaron a un enfermo y éste se curó, decidieron que debían hacer algo.

Reunidos en torno a la Universidad de Fordham, en la ciudad de Pittsburg, pronto sus prácticas comenzaron a llamar la atención de religiosos y laicos: los jóvenes formaban grupos de oración, y organizaban retiros espirituales en los que ya no se reflexionaba sobre Dios, sino que se hablaba sobre Él.

curas sanadores

Los estudiantes proponían un tratamiento manos racionalista y más amoroso de las Sagradas Escrituras, planteaban la necesidad de una vivencia más personal y auténtica de la religión, es decir, recuperar el espíritu comunitario y ritual de los primeros cristianos.

Practicaban una liturgia (el orden y la forma determinados por la Iglesia para la celebración de los oficios) de carácter vivencial, que promovía la participación activa en los ritos por parte de los fieles, lo que, aseguraban, facilitaba la obra del Espíritu Santo. Sin embargo, lo que más molestaba a las autoridades de la Iglesia, en un principio, era la familiaridad escandalosa que los jóvenes de Fordham tenían hacia la figura de Cristo.

En realidad, no se trataba de un fenómeno genuinamente nuevo. Durante siglos, la Iglesia católica se había visto ante situaciones similares y las había tolerado, siempre tratando de mantenerlas bajo control. El último antecedente databa de 1958, cuando en la Iglesia de Notre Dame de París se formaron grupos de oración cuyos integrantes tomaban estampitas con la imagen de Cristo y rezaban lo que les venía a la mente de manera espontánea. Contrariamente a lo que pasó con los carismáticos, este movimiento pasó casi inadvertido. Aún no era el momento.

Pero en los años sesenta el periodismo dedicó mucho espacio a las actividades de los jóvenes de Fordham en diversos diarios y revistas de actualidad. Así fue como la prensa fue la encargada de dar a conocer al mundo la existencia de los primeros carismáticos y muchos católicos encontraron en este mensaje algo que desde hacía mucho tiempo estaban esperando.

El Movimiento de Renovación Carismática comenzó a postular la sanación por medio de la fe mucho antes que las Iglesias evangélicas pentecostales. Cada grupo es independiente y tiene sus propias normas y dinámica.

La liturgia carismática, que incluye diálogos espontáneos, canciones, aplausos y vivas al Señor, implica un regreso al Cristo vivo, cuando encomendó a los doce apóstoles que predicaran el Evangelio por el mundo y que curaran a los enfermos.

Otro aspecto que diferencia a los carismáticos es su rechazo al culto de las imágenes, que fuera expresamente prohibido por Cristo. En realidad, éste es un viejo problema teológico no del todo resuelto, pues la adoración de imágenes se remonta a las prácticas paganas, plagadas de fetiches. Aunque la Iglesia ha elegido no prescindir de las imágenes, teniendo en cuenta que son una necesidad de la psiquis humana, los carismáticos prefieren obedecer al mandato cristiano original.

Para comprender qué es lo que caracteriza a los sacerdotes carismáticos hay que remitirse a la fe, pues el carisma es un don del Espíritu Santo. El don por el que son más reconocidos los curas de este movimiento es el de la sanación, aunque también suelen tener el don de lenguas (que los hace comunicarse con Dios por medio de idiomas que desconocen) y el de profecías.

La palabra «apóstol» deriva de una palabra hebrea que quiere decir «predicador itinerante». Por esto, muchos de los sacerdotes de la renovación se dedican a llevar la palabra y el carisma a distintas partes del mundo, especialmente a toda América Latina.

Los unos y los otros
¿La renovación carismática divide a la Iglesia católica? Los sacerdotes pertenecientes al movimiento sostienen que la Iglesia es una sola, la Santa Católica Apostólica, como sostiene el Credo. Ellos no hacían otra cosa que volver realidad un pedido del papa Juan XXIII, que en una de las oraciones previas al Concilio Vaticano II decía: «Dígnese el Espíritu Santo a escuchar de la forma más consoladora la plegaria que asciende a Él desde todos los rincones de la Tierra. Renueve en nuestro tiempo los prodigios como en un nuevo Pentecostés (…)».

A mediados de 1967, los muchachos de Fordham oraban para pedirle a Dios que les diera la gracia de evangelizar con poder, como lo hacían los apóstoles.

Según la tradición católica, el décimo día después de la Ascensión de Cristo, el Pentecostés, se produjo el nacimiento de la Iglesia y el Espíritu Santo descendió de los cielos sobre los apóstoles para santificarlos. Fue entonces cuando derramó sus dones o carismas sobre ellos, para su propio bien y el de la Iglesia.

En la catequesis actual se menciona a siete de ellos: la piedad, la sabiduría, la fortaleza, el entendimiento, el con-
sejo, la ciencia y el temor de Dios. Pero había otros que, con el paso de los siglos, la Iglesia fue dejando de lado, por considerarlos irrelevantes una vez que logró asentarse. Estos dones eran el de la profecía, el de sanación y el de lenguas, aquel que había permitido a Pablo de Tarso predicar en idiomas que no conocía.

El grupo de Fordham buscaba ese nuevo Pentecostés del que hablaba Juan XXIII, no en el sentido de una nueva fundación de la iglesia sino de su revitalización.

Aquellos muchachos se sintieron llenos del Espíritu Santo y consideraron que todos los cristianos, por el bautismo, tienen carisma. La misión del cristianismo es descubrirlo.

La sanación
Para los carismáticos, sanación y salvación son casi sinónimos. El que sana, se salva, y el que quiere salvarse, debe estar sano. Primero en su corazón para luego, si es voluntad de Dios, estarlo en su cuerpo también.

La imposición de manos es, en ese contexto, un acto de fe. El Evangelio según San Marcos, 618, dice que hay que poner las manos sobre los enfermos y éstos sanarán. Además, lo consideran un signo de fraternidad cristiana.

La multiplicación de las gracias, fundamentalmente de curaciones físicas inexplicables desde el punto de vista médico, atrajo cada vez a más fieles y también a un sector de la jerarquía eclesiástica. También se produjeron transformaciones espirituales y otros fenómenos que hasta entonces parecían circunscriptos a las páginas de la Biblia o los relatos de vidas de santos.

Pero además de personas con problemas de salud, se acercan al Movimiento de Renovación Carismática los que tienen problemas de vivienda, falta de trabajo o dificultades espirituales como tristeza o depresión.

Resulta apabullante la cantidad de fieles que así han venido a escuchar misa, la palabra de Dios, a confesarse y a comulgar. Los carismáticos dicen que cuando se predica a Jesús, su Padre da signos de satisfacción, que son las curaciones de los enfermos.

Pero aclaran que no se apartan de la medicina y sostienen que Dios cura a través de los remedios, así como también lo hace por medio de la oración, valiéndose de ellos. Y acotan que no sólo un sacerdote puede rezar por la sanación sino toda persona bautizada. Siempre señalan que cuando los padres oran por sus hijos y les imponen las manos, también sanan.

Los carismáticos valoran la oración y la plegaria comunitaria, a diferencia del silencio de los rezos individuales, y entienden que la alegría es más valiosa que el pesar y la culpa. Opinan que la Iglesia debe cambiar para no quedar reducida a grupos que no parecen ser hijos de Cristo, y que la liturgia es una manifestación alegre de la fe. Desde este punto de vista, si los cristianos no expresan su sentir hacia los demás, es como si no fueran hermanos.

La Renovación se considera un movimiento laico, no clerical, del que el sacerdote no es dueño sino un simple asesor. Se sienten definidos por el amor y la lectura constante de la Biblia, además de la oración espontánea y grupal, la recepción frecuente de la eucaristía, el interés por el otro y la práctica del amor sincero y la paz auténtica, no en forma nominal, sino con el corazón y el espíritu. En su prédica dicen que sólo el amor permite encontrar al otro, reconocerlo, rezar por él, meterse en el otro sin dejar de ser uno mismo.

El veredicto de Paulo VI
La renovación descubre los carismas que cada cristiano tiene, para ponerlos a disposición del bien común, para gloria de Dios y de la Iglesia. Los carismáticos no se apartan del Papa; por el contrario, se basan en las palabras de
Paulo VI, quien dijo: «Hoy día se habla mucho de carisma, ojalá que haya una lluvia de carismas que llamen la atención al poder del Evangelio, que atraigan a la gente al poder del Evangelio».

Y en otras de Juan Pablo II: «El nacimiento de la renovación carismática después del Concilio Vaticano II ha sido un don especialísimo del Espíritu Santo para la Iglesia».

Cuando el fenómeno de los carismáticos fue empezado a tratar en los más altos niveles de la Iglesia, Paulo VI participó de esta inquietud y decidió recibir a un grupo de líderes del movimiento en el Vaticano. Al darles la bienvenida, puso en claro el interés que sentía: «Estamos sumamente interesados en lo que ustedes están haciendo. Hemos oído mucho de lo que sucede entre ustedes y nos regocijamos».

El espaldarazo final al movimiento llegó en mayo de 1975, cuando se celebró en Roma, sobre las catacumbas de San Calixto, el Primer Congreso Mundial Carismático. Más de diez mil fieles provenientes de los cinco continentes se reunieron alrededor de la tumba de San Pedro.

Fue entonces cuando Paulo VI tuvo un gesto inequívoco: cedió el Altar de San Pedro al carismático cardenal Suenens para que celebrara la Eucaristía. Nadie podía dejar de entender el mensaje. La más alta jerarquía daba un reconocimiento pleno a la Renovación que, en menos de una década, había atraído a miles de fieles a la Iglesia. El sueño de los estudiantes de Fordham se había cumplido. Así como alguna vez pasó con los primitivos cristianos, los carismáticos abandonaron definitivamente las catacumbas.

El primer carismático de la Argentina
A una de aquellas primeras reuniones estudiantiles había asistido un jesuíta español radicado en la Argentina, cuyo interés excedía la simple curiosidad. Hacía mucho tiempo que el padre Alberto Ibáñez Padilla estaba a la caza de las manifestaciones del Espíritu Santo.

A fines de la década del ’50, de paso por París, conoció a los grupos de Notre Dame. Más tarde realizó un curso de liturgia pastoral en Medellín, Colombia. Encontraba que la liturgia católica, al igual que la mayoría de los otros cultos cristianos, resultaba muy pesada y monótona a sus fieles. En ese sentido (y a pesar de reconocer sus errores doctrinales) admiraba a los pentecostales, cuyos rituales vivos lograban que la gente participara intensamente. Por eso, cuando escuchó hablar de los jóvenes de Fordham, decidió ver de qué se trataba.

El padre Ibáñez Padilla regresó a la Argentina dispuesto a difundir lo que había experimentado. Organizó charlas y publicó artículos en distintos medios católicos.

Uno de esos artículos, titulado «¿Sabía usted que existen pentecostales católicos?» y publicado en mayo de 1969, llamó la atención de los pentecostales no católicos. Éstos exhibieron el artículo en la cartelera de un templo de la calle Hidalgo, en la ciudad de Buenos Aires. Cuando se enteró, el sacerdote decidió averiguar de quiénes se trataba.

El templo estaba a cargo del pastor Juan Carlos Ortiz que, desde hacía aproximadamente un año, venía organizando reuniones con pastores de distintos cultos no católicos y no pentecostales. Dispuesto a investigar más, el jesuíta se hizo pasar por laico y logró que lo invitaran a uno de esos encuentros, que se organizaban en casa de un gerente de Coca-Cola, Alberto Darling.

Ibáñez Padilla participó de varias de aquellas reuniones, hasta que finalmente se dio a conocer como sacerdote católico. «Ya me parecía que el aire estaba impregnado de olores católicos», dijo Darling. Enseguida    simpatizaron con él e incluso le hicieron un reportaje titulado «¿Católicos pentecostales?», en la revista Primicia Evangélica. El sacerdote, entretanto, prosiguió con su tarea de difusión entre los católicos y publicó una serie de artículos en Esquiú, al tiempo que comenzaba a organizar grupos de oración.

Poco a poco fue introduciendo la oración espontánea a la vez que proponía una mayor apertura a lo bíblico y al Espíritu Santo.

Los carismáticos sostiene que su prédica no tiene nada en común con las sectas, ni constituye una batalla espiritual contra ellas. Para ellos, la renovación carismática atrae al pueblo de Dios a la fe. Su idea no es competir con otros cultos, ni siquiera imponer algo nuevo, pues los carismas existieron desde el comienzo mismo de la Iglesia.

Poco a poco, en la Argentina otros sacerdotes también comenzaron a formar sus grupos. Entre los más destacados estaban los padres Inocencio Iacobellis, Paco Muñoz y José Torres. En escasísimo tiempo, los primeros cuatro grupos de oración se transformaron en ciento veinte, extendidos no sólo en la Argentina sino también en Uruguay y Paraguay.

En 1971, los carismáticos de los grupos del padre Ibáñez Padilla, institucionalizados bajo el nombre de Aín Ka-rim, publicaron un manual que, llamativamente, recibió la bendición del cardenal Antonio Caggiano y del obispo coadjunto, Juan Carlos Aramburu.

El movimiento creció de manera carismática. Los testimonios de sacerdotes y laicos que aseguraban haber recibido los dones del Espíritu Santo comenzaron a hacerse públicos. Uno de los más impactantes fue el del párroco de Montevideo, padre Julio Elizaga, que explicó cómo había recibido el don de lenguas mientras le imponían las manos: «Comenzaron a brotar de mis labios, mientras oraba, cánticos en un lenguaje desconocido.Yo no lo podía controlar. No lo producía conscientemente, aunque tenía plena consciencia de lo que estaba sucediendo. Creo que fueron varios minutos que pasé en esta maravillosa experiencia; un deseo de alabanza y agradecimiento a Dios me hacía alabarlo como jamás antes lo había sentido», relató.

Carismáticos en el banquillo de los acusados Sin embargo, con el éxito del movimiento llegaron las crisis. En mayo de 1973, el padre Ibáñez Padilla terminó sentado en el banquillo de los acusados. Supuestamente por haberse convertido en pente-costal. Tuvo que dar explicaciones al provincial de los jesuítas y fue examinado a fondo por una suerte de tribunal de la compañía.

En la reunión, llamada de «discernimiento espiritual», el padre hizo una larga exposición sobre el desarrollo y la espiritualidad del movimiento, tratando de aclarar los puntos que más se le cuestionaban: el bautismo en el Espíritu Santo, el don de lenguas y otros carismas considerados excepcionales. Como remate, puso énfasis en distinguir entre las gracias místicas y los fenómenos psicológicos que pudieran acompañarlas o ser confundidas con ellas. El tribunal quedó satisfecho con las explicaciones pero le pidió prudencia, mucha prudencia.

El 19 de agosto de 1973 se realizó en la Argentina la Asamblea Fundacional del Movimiento de Renovación Espiritual. Aquellos pocos grupos de cuatro años antes se habían convertido en una organización de alcance nacional, con sedes y coordinadores en casi todas las provincias. De todos modos, la lucha interna no había terminado sin heridas. No fueron pocos los que se alejaron escandalizados con la sensación de que habían estado participando de algo que la Iglesia no veía con buenos ojos.

En cierto modo no se equivocaban. Un sector de la jerarquía eclesiástica estaba muy alarmado por las prácticas de los carismáticos, y sobre todo por su gran inserción en la comunidad católica.

Los carismáticos se vieron ubicados de pronto en el umbral de la clandestinidad. Los vínculos entre las autoridades de la Iglesia argentina y los renovadores habían llegado al máximo de tirantez. Mientras el padre Ibáñez Padilla intentaba recomponer las relaciones sin resignar los principios, los grupos de oración siguieron delante de manera casi subterránea. Cualquier error podía desencadenar una catástrofe. Los renovadores tenían enemigos muy poderosos dentro de la Iglesia.

Cuando todo parecía perdido, Paulo VI tuvo un gesto que obligó a la jerarquía eclesiástica argentina a dar un paso atrás y suavizar su posición: «Para un mundo así, cada vez más secularizado, no hay nada más necesario que el testimonio de esta renovación espiritual, que el Espíritu Santo suscita hoy visiblemente en las regiones y ambientes más diversos». Los carismáticos suspiraron aliviados.

Fenómeno masivo: A fines de 1976, monseñor Aramburu convocó a los sacerdotes de la renovación y les dijo que continuaran con su obra, pero que lo hicieran con prudencia: «Ustedes van a una parroquia y le ofrecen al párroco formar un grupo de oración. Si el párroco los acepta, bueno, lo fundan. Y si no los acepta, no insisten, se van a otra parroquia».

Fuente Consultada:
Revista Vivir en Armonía N°4 -Los Curas Carismáticos-
Trabajo Enviado por el Colaborador Abel M. Gimenez

 

Anexo: Algunos link a Youtube con videos sobre la obra carismática

Lo que dicen los papas de la Renovación Carismática Católica
http://www.youtube.com/watch?v=PpY8KcvnKPY

Padre Tardif (Fallecido) http://www.youtube.com/watch?v=w4zLm3GtYao

Padre Moisés Larraga http://www.youtube.com/watch?v=vXv0Y12-C5Q

Padre Mauricio Cuesta http://www.youtube.com/watch?v=msR-4qGlPok

Padre Cancelado http://www.youtube.com/watch?v=3B5ldPYQveM

Padre Wilson Salazar http://www.youtube.com/watch?v=CnjU3_5D9yA

Padre Ignacio Peries http://www.youtube.com/watch?v=dRJuQAAdEvU

Padre Teodoro http://www.youtube.com/watch?v=QjgO8f1Nnpg

Padre Isaac Ramirez http://www.youtube.com/watch?v=xaxIRMlRJjI

Padre Guadalupe Santos http://www.youtube.com/watch?v=cVsieOMoVU8

Padre Salvador González  http://www.youtube.com/watch?v=YJlHnMOqWQ4

Padre Ignacio Larrañaga http://www.youtube.com/watch?v=b-hU-CGF3OY

Padre Dario Betancour http://www.youtube.com/watch?v=tHrTkcGYtYk

Padre Adolfo Bertinelli http://www.youtube.com/watch?v=O28szrlgcQ8

Padre Manuel Acuña http://www.youtube.com/watch?v=SCXL9pDULnQ

Padre Daniel Molina http://www.youtube.com/watch?v=HulZ9tFPXVk

Padre Aicardo http://www.youtube.com/watch?v=IdwfLyoD3rU

Padre Alberto Linero http://www.youtube.com/watch?v=xrF3ukG1Wz0

Padre David Hurtado http://www.youtube.com/watch?v=wiJnNbCZI6M

 

 

Primeros Huevos de Dinosaurios Encontrados Fosilizados

Primeros Huevos de Dinosaurios Encontrados Fosilizados

En 1923, un miembro de la expedición del Museo Americano de Historia Natural de Estados Unidos, dirigida por el doctor Roy Chapman Andrews, a la zona de areniscas rojas del desierto de Gobi, en Mongolia, encontró un nido completo de huevos de dinosaurios fosilizados.

Los huevos habían sido puestos a fines del período cretácico, hace unos 80 millones de años. Estaban enterrados cerca de la superficie, que había estado expuesta a los efectos de la erosión durante millones de años también. Los dinosaurios fueron animales dominantes —es decir, de gran importancia por su influencia sobre todas las restantes formas de vida— en la era Mesozoica. Se los divide en dos grandes órdenes, siendo, por una parte, parientes de los cocodrilos y, por otra, antecesores de los pájaros.

Los primeros representantes de los dinosaurios que aparecieron en escena eran de tamaño pequeño, pero, en conjunto, se observa en ellos una evolución gradual hacia dimensiones cada vez más gigantescas. Algunos constituyeron los mayores animales terrestres que han existido. Unos eran carnívoros y otros, la mayoría, herbívoros.

Los primeros dinosaurios se caracterizaron por ser bípedos (marchaban de pie sobre las patas posteriores). Sin embargo, se ha observado que a lo largo de su evolución muchos tendieron a adquirir la postura cuadrúpeda, sobre todo los herbívoros. Bastantes carnívoros conservaron la posición bípeda.

La clasificación que se ha hecho de los dinosaurios se basa en las afinidades de su esqueleto y de la estructura de los huesos con los reptiles o los pájaros. Aquellos que presentaban semejanzas con los reptiles se clasifican en el orden de los saurisquios.

huevos de dinosaurios hallados en Gobi Mongolia

El descubrimiento de los huevos de dinosaurio es uno de los raros hallazgos (como el de las impresiones de las membranas interdigitales momificadas) que nos ilustran sobre el modo de vida de estos seres. Quizá si los detalles de su biología estuviesen más claros, podrían conocerse las causas de la desaparición repentina de los dinosaurios, después de un período de florecimiento espectacular. Se ha pensado, fundamentalmente, en cambios climáticos que afectaron de tal modo a la flora, que las especies herbívoras, demasiado especializadas, no, pudieron adaptarse a un cambio de régimen alimenticio. La desaparición de los herbívoros trajo consigo la de los carnívoras que vivían a costa de ellos. La imposibilidad de los dinosaurios de evolucionar, y adaptarse a las cambiantes condiciones, parece radicar en la extremada especialización de su forma de vida. De hecho, es una regla; comprobada por el estudio de los fósiles, que las formas de animales se adaptan mejor a las condiciones cambiantes cuanto menos evolucionadas están, es decir, cuanto menos especializadas se hallan   en   una   forma   de  vida   determinada.

A pesar de los abundantes datos existentes sobre la morfología de los dinosaurios, nuestros conocimientos sobre su biología y costumbres se apoyan, en muchos aspectos, solamente en conjeturas. Se sabe que la médula espinal presentaba, en algunas formas, un ensanchamiento a la altura de la cintura pelviana (caderas), que podía tener un tamaño mayor que el del cerebro (ganglios cerebroides).

Este ganglio actuaría como un centro local de reflejos en las formas gigantes, dado el tiempo considerable que los reflejos habían de tardar en recorrer el largo camino existente entre el cerebro y las patas. Desde que se comenzó a estudiarlos, se supuso que estos antecesores de animales realmente ovíparos (que ponen huevos), fueron ovíparos también, pero no se tuvo una prueba material hasta dicho hallazgo de huevos fosilizados del Protoceratops, pequeño reptil antecesor de los dinosaurios cornúpetas a que nos hemos referido.

El mismo no presenta, sin embargo, traza de cuernos, pero sí el citado repliegue posterior de la cabeza. En una expedición previa a Mongolia ya se había encontrado parte de la cascara de un huevo, pero el descubrimiento, realizado después, del nido entero, en una zona desértica —a cientos de kilómetros de distancia de los habitantes más próximos— sobrepasó las esperanzas.

Por fin se había conseguido la prueba de que, al menos, algunos dinosaurios ponían huevos. Además, este dinosaurio (Protoceratops) los ponía (en cantidad de 15 o más) en un nido, de la misma forma que los ponen las tortugas y muchas aves actuales. Las rocas de color rojo ladrillo donde, se encontraron los huevos se componen de granos de arena fina y roja. Son blandas y se desmenuzan e, indudablemente, fueron formadas por la arena arrastrada por el viento. Mongolia debe de haber sido un desierto muy seco y cálido cuando el Protoceratops vivía.

Probablemente, los huevos fueron enterrados a demasiada profundidad por la arena movediza, de forma que los rayos solares no pudieron incubarlos. Poco a poco se fueron hundiendo cada vez más, a causa de la continua presión ofrecida por la gran carga de arena que soportaban encima y, a su vez, la arena que los rodeaba fue comprimiéndose y trasformándose en roca arenisca.

Entretanto, los huevos mismos fueron rellenándose de arena, al fosilizarse, y conservaron su estructura. Las condiciones de Mongolia resultaban ideales para la formación de fósiles, y de hecho el país es el lugar perfecto para buscarlos. Había muy poca humedad, y el aire, indudablemente, velaba por los restos animales, arrastrando la arena, que los enterraba en enseguida, lo que evitaría su descomposición. Además, desde que se extinguióle! Protoceratops, se ha sumergido uña pequeña extensión de Mongolia,, por lo que las rocas sedimentarias (rocas formadas bajo el agua) se han depositado sobre la arenisca sólo en contados lugares.

El Protoceratops vivía en condiciones desérticas. Sin embargo, debió de haber algunos ríos o lagunas cerca del nido, ya que se han encontrado fósiles de tortugas en los alrededores, y el esqueleto de la cola del Protoceratops hace pensar que este animal pasaba parte de su vida en el agua. Su pico córneo y la escasez de dientes sugieren que era herbívoro, y quizás arrancaba las hojas y las ramas de las plantas o arbustos del desierto.

Además de abandonar el agua para ir a comer, ponía sus huevos en hoyos que cavaba en la arena de las dunas. Colocaba los huevos en círculos, con el extremo más alargado dirigido hacia el centro del nido. La cascara era dura. Los huesos que se encontraron cerca del nido fueron después cuidadosamente conjuntados. Es curioso el hecho de haberse hallado cierta cantidad de esqueletos de jóvenes animales, próximos unos a otrosflo que hace pensar en la existencia de una especie de «colonia infantil», o de un lugar de cría.

También se han encontrado esqueletos de adultos, que no tenían más qué unos dos metros de longitud. La placa o expansión de la cabeza que protege el cuello está muy desarrollada, y en ella van insertos los músculos de la mandíbula y de la cabeza.

El notable descubrimiento de parte del esqueleto de un dinosaurio con forma de avestruz, el Oviraptor («ladrón de huevos»), en el nido del Protoceratops, hace pensar que dicho ser estaba realmente robando los huevos del nido. Por desgracia, sólo se ha conservado una pequeña parte de este esqueleto, pero es tan semejante al de otros dinosaurios con forma de avestruz, que el Oviraptor, probablemente, presentaba el aspecto que se le da en el grabado.

SIEMPRE SIGUIERON LOS DESCUBRIMIENTOS EN EL MUNDO

Huevos Hallados en China, Cuando Se Excavaba Para Una Zanja

La ciudad de Heyuan, en China, es conocida popularmente como “la ciudad de los dinosaurios”, debido a los constantes descubrimientos de fósiles en su territorio. Esta vez, unos obreros han descubierto 43 huevos de dinosaurio mientras instalaban un nuevo sistema de cañerías, y muchos están intactos.

Fuente Consultada:
Revista TECNIRAMA N° 67
Enciclopedia de la Ciencia y La Tecnología

Otros Temas Tratados en Este Sitio

Big Bang

Origen de la Vida

Origen del Hombre

Teoría de la Evolución

Muerte de una Estrella Los Pulsares Enana Blanca

Peso de Una Estrella de Neutrones

La Vida del Sol Tiempo de Vida Hidrogeno del Sol

La Luna Muestra Siempre la Misma Cara

Origen del aire que respiramos El Oxigeno

Hechos Mas Importantes de la Historia de la Humanidad Acontecimientos

Hechos Mas Importantes de la Historia

https://historiaybiografias.com/linea_divisoria6.jpg

hechos y acontecimientos de la historia

https://historiaybiografias.com/linea_divisoria6.jpg

GRANDES HECHOS Y ACONTECIMIENTOS DE LA HISTORIA

1-Diez Fechas

2-Diez Documentos

3-Grandes Teorías

4-Grandes Inventos

5-Grandes Científicos

6-Hechos Destacados

7-Grandes Tragedias

8-Principales Guerras

9-Grandes Ideologías

10-Grandes Ideas

11-Línea del Tiempo

https://historiaybiografias.com/linea_divisoria6.jpg

SIGLO XV: La imprenta, la revolución de las letras
La idea de imprimir imágenes con bloques de madera o metal no era nueva, pero la idea de utilizar letras individuales hechas a mano para crear las diferentes páginas del texto era revolucionaria. Fue introducida por primera vez en Europa por Johannes Gutenberg de Maguncia, Alemania, a partir de 1450.

Aunque se podían requerir 50.000 caracteres para formar un libro extenso como la Biblia, una vez armada, la misma obra podía ser reproducida-miles de veces. Para 1520 había más de 200 diferentes ediciones impresas de la Biblia en varios idiomas, que representaban en total, tal vez, 50.000 copias individuales.

No obstante, aunque la imprenta ya estaba bien establecida en Europa, los trastornos religiosos de la Reforma transformaron su comercio en una gran industria: en Alemania aparecieron un total de 150 publicaciones distintas en 1518, 570 en 1520 y 935 en 1523, alcanzando sus ventas totales quizás 500.000 copias.

Aunque algunas de ellas estaban en latín, el idioma tradicional del debate erudito, la mayoría estaba impresa en lengua vernácula. Podían ser leídas, o escuchadas y comprendidas por casi todos. Un número considerable de estas nuevas obras fue escrito por un solo hombre: Martín Lutero. De los 935 libros publicados en Alemania en 1523, 183 provenían de su pluma y algunas de sus publicaciones posteriores fueron impresas en tiradas de 100.000 ejemplares.

SIGLO XVIII: La Revolución Industrial en Inglaterra

Esta revolución productiva marca un hito fundamental en la era moderna que comenzó en el siglo XVIII. Antes de 1800, regiones como West Riding de Yorkshire, Lancashire sur y West Midlands presentaban muy poco desarrollo urbano. La industrialización en el siglo XVIII no se caracterizó por conurbaciones -que son un fenómeno del siglo XIX— sino por un aumento gradual de los asentamientos industriales todavía rurales.

La localización de la industria estaba sólo comenzando en 1800. La manufactura de textiles de lana estaba muy dispersa, aunque existía cierta especialización local, fundamentalmente ligada a la disponibilidad de agua. Los paños finos y las sargas requerían procesos industriales que demandaban grandes cantidades de agua; no ocurría lo mismo con la fabricación de frazadas, franelas y telas de lana peinada.

La industria del algodón se estableció en Lancashire porque el clima era húmedo, los gremios eran menos poderosos, los puertos por los que se traía el algodón en bruto desde ultramar estaban próximos y existía una mano de obra experimentada en trabajar el lino y la lana. Tanto en las industrias algodoneras como en las laneras, las nuevas máquinas requerían de la energía hidráulica para impulsarse.

La llegada de las máquinas de vapor, además de incrementar la producción, permitió elegir ubicaciones menos dependientes de la cercanía del agua.

En 1700, la densidad de población fuera del área de Londres estaba determinada principalmente por la industria de la lana. Hacia 1750, incluso antes del establecimiento de los canales y caminos de peaje, la distribución de la población estaba cambiando con celeridad. Los textiles se desplazaron hacia el norte, y las áreas ricas en carbón y hierro comenzaron a poblarse densamente. Entre 1700 y 1800, la población total de Gran Bretaña aumentó de casi seis millones a nueve millones, es decir, tuvo un crecimiento promedio de 30.000 habitantes al año. De allí en adelante el incremento fue mucho más rápido.

Entre 1811 y 1821 subió de diez a doce millones, una tasa de aumento cinco veces más elevada que en el siglo anterior. En los principales centros industriales el cambio fue incluso más impactante. Manchester tenía 90.000 habitantes en 1801; 237.000 en 1831 y 400.000 en 1861.

Este aumento sin precedentes fue una razón para el auge de la producción industrial y agrícola durante los siglos XVIII y XIX. Debían satisfacerse las necesidades de millones de personas adicionales. Otra razón era la guerra, un prodigioso consumidor de hierro y sus derivados. En 1790, la producción británica de hierro no superaba las 79.000 toneladas. En 1820, como resultado de las guerras napoleónicas, había llegado a 400.000 toneladas.

Con una población en aumento, creció la demanda por productos manufacturados. Los salarios eran bajos, por lo que se necesitaban nuevas invenciones para permitir a los fabricantes producir más y lograr así bajar los precios. La lanzadera volante de Kay en 1733, la hiladora con varios husos de Hargreaves en 1770, la máquina de hilar intermitente (selfactina) de Crompton en 1778 y el telar mecánico de Cartwright en 1785 estuvieron entre los avances que transformaron la industria textil.

En la elaboración de hierro, los pioneros más destacados fueron Abraham Darby, que en 1709 logró descubrir cómo utilizar carbón de piedra en vez de carbón de leña para fundir el hierro, y Henry Cort, que en 1784 introdujo el proceso de pudelación para elaborar hierro fundido. La minería y todas las formas de fabricación se beneficiaron con la invención y perfeccionamiento de la máquina de vapor, a través de una serie de progresos desde la máquina atmosférica de Newcomen de 1712, hasta las máquinas de Watt de las décadas de 1770 y 1780 y las máquinas de alta presión de Trevithick, introducidas durante los primeros 20 años del siglo XIX.

No servía de mucho ser capaz de producir bienes en mayores cantidades a menos que éstos pudieran llevarse en forma expedita y a bajo precio a sus clientes y se pudieran entregar oportunamente las materias primas alas fábricas. La Revolución Industrial fue también la revolución del transporte. Durante los siglos XVII y XVIII, los caminos se deterioraron tanto a causa del aumento del tráfico sobre ruedas, que prácticamente sólo podían ser transitados por caballos de montar o columnas de caballos de carga.

Antes de la aparición del ferrocarril en la década de 1830, la única manera confiable de transportar cargas pesadas era la navegación. Durante la segunda mitad del siglo XVIII, se hicieron inversiones considerables en la construcción de canales, pero el ímpetu decayó tan pronto como se comenzó a descubrir el potencial de los ferrocarriles.

LA CIENCIA Y TECNOLOGÍA UN HECHO DESTACADO DE LA HISTORIA DE LA HUMANIDAD

La difusión del conocimiento
Aun cuando sea borroso, el límite entre ciencia y tecnología existe, por lo que es necesario considerar la manera en que la información lo atraviesa. El principal camino son las publicaciones. El científico académico no desea ocultar sus trabajos: las publicaciones son el medio para que su investigación llegue a sus colegas de todo el mundo y, tanto en el aspecto de formarse una reputación como en el de avanzar en la carrera, lo importante es haber sido el primero.

En consecuencia, existe un volumen cada vez mayor de conocimientos científicos que todo el mundo puede aprovechar libremente. Hasta hace relativamente poco tiempo, la mayor parte de los conocimientos nuevos se comunicaban a través de periódicos publicados por instituciones científicas. Sólo después de la Segunda Guerra Mundial entraron en este campo las editoriales comerciales, que sin embargo siempre habían editado libros científicos.

A propósito de este tema, es interesante señalar que a mediados del siglo XX el material publicado era tan vasto y crecía con tanta rapidez, que una de las principales preocupaciones entre los científicos era encontrar la forma de utilizarlo con eficacia, ya que el día no les alcanzaba para mantenerse al tanto de las últimas novedades.

Después de la Segunda Guerra Mundial, la aplicación de la informática al archivo y la recuperación de la información permitió solucionar el problema. Este enorme volumen de conocimientos de libre acceso para todos puede conducir directamente a importantes aplicaciones tecnológicas. Por ejemplo Marconi, precursor de la comunicación por radio, se inspiró para sus trabajos en una casual referencia a los experimentos de Heinrich Hertz que encontró en una revista. Casi medio siglo más tarde, el gigantesco proyecto Manhattan, que produjo la primera bomba atómica, fue el resultado directo de los artículos publicados sobre experimentos en física atómica, el más importante de los cuales apareció en 1939, apenas dos días antes de que estallara la guerra.

Sin embargo, a finales del siglo XIX, la industria comenzó a considerar que esta fuente de información era insuficiente para sus necesidades. Como complemento, y para asegurarse de que las investigaciones realizadas tuvieran que ver con sus necesidades (e indirectamente con las de sus dientes), las principales empresas fundaron sus propios laboratorios. Entre las primeras en hacerlo figura la United Alkali Company, de Gran Bretaña, cuyos laboratorios Widnes comenzaron a funcionar en 1892. Resulta significativo que su equipo de investigaciones, entonces reducido, estuviera compuesto casi exclusivamente por químicos formados en el extranjero, en Giessen, Heidelberg y Zurich.
Investigación nacional e internacional. En general, las investigaciones desarrolladas en ese tipo de laboratorios estaban directamente vinculadas con las actividades de la empresa madre.

Por razones comerciales, gran parte de los resultados obtenidos no se publicaban o sólo se comunicaban una vez protegidos por patentes.

Quedaban, sin embargo, áreas de investigación de importancia nacional general, pero sin relación directa con ninguna empresa en concreto, por ejemplo, la investigación sobre corrosión y metrología. Para rellenar este vacío, sólo se podía recurrir a laboratorios patrocinados por el Estado. Entre las primeras grandes instituciones de este tipo figuran el National Physical Laboratory del Reino Unido (1900), la National Bureau of Standars (actualmente National Institute of Standards and Technology) de Estados Unidos (1901) y el Instituto Kaiser Guillermo (luego Max Planck) de Alemania.

Así pues, durante los primeros años del siglo XX se fomentaba el progreso de la ciencia en tres frentes: en las universidades, con una fuerte inclinación hacia la investigación pura en las más antiguas y una mayor tendencia hacia la ciencia aplicada en las más nuevas, en los laboratorios de las grandes empresas industriales con base técnica y en las grandes instituciones estatales. Si bien estas divisiones eran bastante reales y estaban bien establecidas, había una buena cantidad de interrelaciones, aunque su naturaleza y alcance variaba de un país a otro.

Así pues, los científicos universitarios de mayor prestigio eran consultados por sus colegas de la industria. A menudo no sólo les ofrecían sus consejos, sino que desarrollaban investigaciones concretas para la industria con la ayuda de sus estudiantes. También había contactos entre las universidades y los laboratorios nacionales.

Aunque el equilibrio de fuerzas cambiaría con el paso de los años, esta pauta se mantuvo esencialmente hasta mediados de este siglo. Surgió entonces un cuarto frente, cuando el coste y la complejidad de la investigación en algunos campos llegaron a superar los recursos de casi todos los países, a excepción de los más poderosos. A esta fase pertenecen instituciones como el CERN (actualmente, Centro Europeo para la Investigación de las Partículas), con sede en Ginebra, dedicado a la investigación nuclear; el Laboratorio Europeo de Biología Molecular, en Heidelberg; la Agencia Espacial Europea , y el JET, que se dedica a la investigación sobre fusión.


La imagen popular de la ciencia y la tecnología
Hasta aquí hemos tratado las amplias interrelaciones dentro de la propia ciencia. Ahora debemos considerar las no menos importantes relaciones entre la ciencia y el ciudadano comente. Durante la primera mitad de este siglo, al igual que ahora, la ciencia tuvo más repercusiones que los científicos. Unos pocos nombres, pero no necesariamente los más destacados, lograron fama mundial: Roentgen, Marconi, Edison, Einstein y Zeppelin figuran entre los más recordados. Pero, en general, la población advirtió sobre todo las consecuencias sociales de los avances científicos y tecnológicos. Durante la primera década del siglo, las novedades fueron el automóvil, la radio, la luz eléctrica, el cine, el gramófono, los alimentos congelados, la aspiradora y la limpieza en seco.

En la cara opuesta de la moneda, el ciudadano corriente fue testigo de la desaparición de elementos que formaban parte de la vida desde los tiempos más remotos. La llegada del automóvil, por ejemplo, determinó el abandono casi total del caballo como medio de transporte. La medida de la velocidad y alcance del cambio la da el hecho de que relativamente poca gente puede recordar un mundo en el que la radio y la televisión no fueran poderosos medios informativos.

Sin embargo, hasta pasada la Primera Guerra Mundial ninguno de los dos existía siquiera, y los principales medios de difusión de la información eran las conferencias en vivo y los artículos publicados por los periódicos y revistas. En cuanto a la ciencia, la prensa popular dedicaba poco espacio a los temas científicos y tecnológicos, situación que no cambiaría sustancialmente durante más de medio siglo. La situación era diferente, en cambio, en el caso de las conferencias.

Durante el siglo XIX, la mayoría de las grandes ciudades y muchas de las pequeñas en Europa y América tenían sociedades locales para el fomento de una amplia gama de intereses intelectuales, como la música, la literatura, el arte y también la ciencia. Las conferencias de los viernes por la tarde en la Royal Institution de Londres atraían a un refinado público y contaban a menudo con la asistencia de miembros de la familia real, y la Sociedad Literaria y Filosófica de Manchester tenía su homologa en la Sociedad Literaria y Filosófica de Nueva York.

Este tipo de sociedades, que todavía florecen en las comunidades pequeñas, se contaban por cientos. Aunque individualmente eran pequeñas, en conjunto tenían probablemente decenas de miles de miembros y representaban, por lo tanto, un medio importante para que los legos se mantuvieran al tanto de los acontecimientos y pudieran discutir los últimos avances conseguidos por la ciencia.

Por encima de estas organizaciones locales, había además una serie de importantes instituciones nacionales. El prototipo de estas instituciones era la Asociación Británica para el Progreso de la Ciencia, fundada en 1831 como foro para que los científicos no sólo se comunicaran entre sí, sino que informaran al público, labor que en opinión de muchos la Royal Society estaba descuidando enormemente.

La asociación celebraba sus reuniones anuales en diferentes ciudades de Gran Bretaña y, muy esporádicamente, en otros países de la Commonwealth. Atraía audiencias de miles de personas y sus actividades aparecían ampliamente reflejadas en la prensa, una excepción a la general indiferencia periodística hacia los asuntos científicos. La asociación todavía funciona, pero en los últimos años ha dejado de prestar atención a la ciencia en sí misma para concentrarse en sus repercusiones sociales. También en otros países había instituciones similares. La Asociación americana para el Progreso de la Ciencia, fundada en 1848, sigue celebrando reuniones anuales sumamente concurridas. Una asociación francesa de estas características se fundó en 1878, una india en 1876 y otra en Australia y Nueva Zelanda en 1888.

Especialización creciente
Los primeros científicos consideraban que su campo de estudio era todo el mundo natural, desde los cuerpos celestes descubiertos a principios del siglo xvn por los telescopios de Galileo, hasta el mundo de los microorganismos que Antony van Leeuwenhoek observó con sus microscopios a finales del mismo siglo. Sin embargo, el siglo XIX marcó el fin de esta era. La expansión de los conocimientos hizo que la especialización, al menos en cierto grado, resultara inevitable. Hacia 1900 habían surgido ya cuatro grandes ramas de las ciencias naturales: la química, la física, la biología y la geología.

Las dos primeras, que recibían el nombre de ciencias físicas, se ocupaban del mundo inanimado; uno de sus rasgos distintivos era la naturaleza esencialmente cuantitativa de sus resultados, expresados en términos matemáticos. Esta relación queda sucintamente reflejada en el aforismo según el cual la matemática es la doncella de la ciencia. Pero éste no era básicamente el caso de la biología, que abarcaba todo el mundo vegetal y animal y se basaba más bien en observaciones y descripciones.

La geogología resultaba ligeramente anómala. Si bien se ocupaba sobre todo de la materia inanimada (las rocas y minerales de la corteza terrestre), gran parte de sus investigaciones dependían de la observación y clasificación de los restos fósiles de los organismos que vivieron en el pasado.
Con el transcurso del siglo XX, esta divergencia en campos especializados se volvió todavía más pronunciada, hasta el punto de que los especialistas de las diferentes ramas dejaron de comprenderse claramente entre sí. La química, por ejemplo, se dividió en química inorgánica y fisicoquímica. Paradójicamente, sin embargo, surgió al mismo tiempo una complicada red de interconexiones, cuando cada una de las especialidades descubría que tenía algo en común con las otras. Los biólogos y los químicos, por ejemplo, encontraron un ámbito común durante los años 20, período en que apareció la bioquímica, el estudio de los procesos vitales. Después de la Segunda Guerra Mundial, la bioquímica produjo una importante rama: la biología molecular, que estudia la naturaleza de los organismos vivos en el nivel molecular.

Así pues, el siglo XX heredó y profundizó estas pautas sociales internas, en las que los diferentes grupos reconocen y aceptan la existencia de los otros pero encuentran difícil comprender sus trabajos. Sin embargo, sobre esta estructura había además otro sistema de castas de diferente tipo. Los científicos académicos, con sus investigaciones «puras», seguían adoptando con frecuencia una postura de superioridad con respecto a los que aplicaban la ciencia a fines prácticos. Aun así, eran cada vez más estos últimos los que realizaban los descubrimientos que estaban cambiando las economías del mundo occidental y, en último término, los que proporcionaban los recursos para que la investigación académica pudiera desarrollarse. Entre los inventos y descubrimientos realizados por la industria figuran las sulfamidas (medicamentos), la baquelita, el nilón, el poliéster y el polietileno (materiales), el láser y el transistor.

El reconocimiento del importante papel de los técnicos queda implícito en la palabra «tecnocracia» (y más adelante «tecnócrata»), que indica una sociedad en la que los recursos industriales son desarrollados para el bien común por expertos técnicos. El término fue acuñado en Estados Unidos y se utilizaba ya en 1919, aunque no se generalizó en Europa hasta después de la Segunda Guerra Mundial.

Fuente Consultada:
El Estallido Científico Trevor I. Williams
Atlas de la Historia Universal – The Times
Civilizaciones de occidente Tomo B Jackson J. Spielvogel

Construccion de Carreteras Técnicas, Compactación y Materiales

Construcción de Carreteras
Técnicas, Compactación y Materiales

La superficie de una carretera constituye sólo una pequeña parte de la obra total necesaria para su construcción.

Debajo de ella debe existir una base sólida, preferiblemente roca, de la que depende la vida futura de la carretera. Si no existe un plano de fundación bueno o resistente, la superficie se agrietará y acabará cuarteándose.

Los mejores planos de fundación son las rocas, las gravas apisonadas o simplemente, la base de un camino antiguo

En tales casos, el resto de la carretera (el pavimento) puede construirse directamente sobre esas bases. Pero esto no es frecuente, y los terrenos sobre los que se va a construir la carretera no tienen condiciones apropiadas para soportar el tránsito.

En efecto, bajo el peso del tráfico, el terreno suele ceder, comprimiéndose, y entonces aparecen grietas en el pavimento.

En tiempo seco, el suelo se comprime y se cuartea, con resultados desastrosos; en tiempo húmedo, las filtraciones de agua son causa de que el suelo se debilite y no resista las cargas a que está sometido.

Antes de construir una nueva carretera es necesario   tomar  muestras   del   suelo,   a   lo largo de la ruta proyectada.

Las muestras, debidamente empaquetadas en envases herméticos, se envían al laboratorio para proceder a su análisis.

Allí se investiga la composición del suelo, junto con otras propiedades, tales como su compresibilidad, su cohesión, su permeabilidad y su plasticidad.

Teniendo en cuenta estos resultados, el ingeniero de caminos decide entonces el modo de mejorar la calidad del plano de fundación.

Por otra parte, mediante muchos otros experimentos se averigua el espesor necesario del pavimento, para soportar el tránsito previsto. De este modo, se construye una carretera eficaz con el mínimo costo.

Antiguamente, también se tomaban distintas medidas con arreglo a la variedad de planos de fundación que podían encontrarse.

Así, era de sentido común poner un pavimento de mayor espesor sobre un suelo arcilloso que sobre una superficie de granito.

Estas variaciones de espesor se hacían, sin embargo, «a ojo».

En la actualidad, la precisión con que pueden calcularse los espesores correspondientes a los distintos terrenos permite, junto a un mayor grado de confianza en la carretera, una evidente disminución de los costos de construcción y mantenimiento.

corte de una carretera

ESTABILIZACIÓN  Y APISONAMIENTO DE SUELOS
Los terrenos arcillosos no son recomendables como planos de fundación de carretera, puesto que suelen comprimirse con la humedad.

Bajo una carga determinada, estos terrenos se hacen más compactos, y se producen deformaciones en la superficie de la carretera.

En cambio, un suelo arenoso presenta mayor resistencia a la deformación, por lo que no es tan compresible. Las contracciones que sufre en tiempo seco, comparadas con las del suelo arcilloso, son mucho más pequeñas.

Los ingenieros de caminos pueden recurrir a dos procedimientos para mejorar un plano de fundación: estabilizarlo o hacerlo más compacto.

La estabilización consiste en preparar un subsuelo que no resulte afectado por los cambios de humedad; es decir, que el terreno no se deseque ni se inunde.

Para corregir los excesos de agua se realiza un eficaz sistema de drenaje. Los suelos débiles pueden reforzarse mezclándolos con otros materiales: por ejemplo, arena y grava mezclados con arcilla.

En algunos casos se añade un material de unión, tal como alquitrán o cemento, lo que proporciona excelentes resultados desde el punto de vista de la permeabilidad y de la resistencia a la deformación.

Para hacer más compacto el subsuelo se utilizan, como es bien conocido por todos, las apisonadoras, que comprimen el terreno, haciendo que sus partículas se junten, con lo que se consigue un plano de fundación más resistente.

No es probable que el tráfico ocasione luego una compresión mayor que la sufrida inicialmente.

Es muy importante que el terreno que constituye el fundamento de una carretera presente propiedades uniformes.

Cualquier carga trasmitida al pavimento debe repartirse por igual, de forma que no aparezcan puntos  débiles.

Si se han de añadir materiales de aporte para la estabilidad del subsuelo, deben mezclarse bien con él.

La mezcla debe hacerse con una máquina apropiada, operación que requiere mucho trabajo mecánico.

Usualmente, este proceso se efectúa sobre la obra: se remueve el subsuelo, se añaden los materiales de aporte, se mezcla bien, y se extiende la mezcla  de modo uniforme.

carretera suelo y compacatcion

EL PAVIMENTO
Una vez que el plano de fundación ha sido debidamente preparado, puede procederse a la construcción del pavimento, del que hay dos tipos: pavimentos rígidos de hormigón y pavimentos flexibles bituminosos.

La elección de uno u otro tipo depende, en especial, de factores económicos.

Si junto a la obra existe buena piedra, son preferibles los pavimentos bituminosos. En su defecto, han de preferise los pavimentos de hormigón.

Los pavimentos rígidos se construyen con hormigón reforzado de primera calidad.

El hormigón no va directamente sobre el plano de fundación, fino que se construye primero una base cuyo material es duro, compacto y resistente a los reactivos químicos.

La piedra molida, la arena compacta, la escoria, etc., son buenos materiales de partida.

Esta base presta a la carretera un soporte adicional y, además, la protege de las heladas; es un material tan compacto que resiste los efectos del agua.

Cualquier movimiento que se produzca por debajo, debido a la expansión del agua al helarse, queda amortiguado  en esa  capa.

A partir de las investigaciones efectuadas previamente acerca de la resistencia del plano de fundación y conociendo el volumen de tráfico probable, el ingeniero debe calcular el nivel de la base y del hormigón, de forma que pueda construirse una carretera eficiente con el mínimo costo. Si el plano de fundación es malo, y la carretera deberá soportar el paso de 4.500 vehículos al día, el pavimento puede tener unos 28 cm. de espesor, y la base, unos 15 cm.

Con un plano de fundación normal se necesita una base de sólo 8 cm., y una capa de hormigón de 25 cm.

Los pavimentos bituminosos flexibles constan de un plano de fundación, una sub-base, una base y, finalmente, la superficie, pero les falta la rigidez de las carreteras de hormigón.

El peso del tránsito se distribuye con uniformidad a través de las distintas capas. A partir de la resistencia del plano de fundación se calcula aquí, igualmente, el espesor necesario.

La sub-base equivale, en realidad, a la base de las carreteras de hormigón.

El material que la integra se compone de grava, piedra molida, etc.; es decir, material muy duro, resistente a la acción de las heladas.

La base está formada por partículas granulares, unidas con cemento o alquitrán.

Evolución de las carreteras con el paso del tiempo: sistema romano (A); primitivo sistema francés (B); sistema de Trésaguet (C); sistema de Telford (D), y sistema de McAdam (Ej. el más económico.

LA SUPERFICIE DE LA CARRETERA Y SU MANTENIMIENTO
La superficie de una carretera no debe ser deslizante, sino que, por el contrario, los neumáticos deberán agarrarse sobre ella.

Debe estar limpia y ha de ser uniforme. Antes, las carreteras de hormigón eran inferiores a las bituminosas, respecto de las condiciones enumeradas.

Actualmente, con los modernos procesos de deposición y acabado del hormigón, se ha superado esta dificultad.

La contextura necesaria para evitar el deslizamiento se le comunica a la superficie al tiempo de su construcción.

Si la superficie se vuelve demasiado lisa por el uso, con varios tratamientos se regenera su textura primitiva.

Las carreteras flexibles llevan una capa de asfalto o de «macadam» (tarmac). El asfalto se prepara con piedras relativamente grandes, embebidas en alquitrán.

El «macadam» se hace con piedras más pequeñas, en contacto unas con otras y unidas a la carretera por una capa de alquitrán.

Aunque el «macadam» es más económico, la resistencia elástica del asfalto se suma a la resistencia total de la carretera.

Por otra parte, el asfalto es más resistente al agua. Una investigación cuidadosa de los más pequeños detalles mejora la calidad de las superficies de las carreteras.

La elección de la piedra a utilizar es muy importante; ciertos tipos de piedra se desgastan con facilidad y no proporcionan un buen agarre a   la  superficie.

El  espesor  correcto  de  alquitrán resulta también importantísimo: si es pequeño, las piedras de la superficie se separan pronto; si es demasiado grande, la superficie resulta pegajosa en verano.

El hielo sobre las carreteras es una amenaza muy peligrosa, principalmente en las curvas pronunciadas y en las pendientes.

Aquellos lugares que representan un excesivo peligro pueden calentarse en invierno, para impedir que se forme hielo sobre su superficie.

Para ello, se dispone en su base una red de resistencias eléctricas, que funciona  por métodos automáticos.

Feymann Richard Fisico Premio Nobel Teoría Electrodinámica Cuántica

Feymann Richard Físico Premio Nobel
Teoría Electrodinámica Cuántica

El físico norteamericano Richard Phillips Feynman mereció el Premio Nobel en 1965  por sus estudios en el campo de la electrodinámica cuántica. Fue uno de los teóricos  más originales de la posguerra, ya que contribuyó de manera fundamental en muchos campos de la física.

Su genial visión de fabricar productos en base a un  reordenamiento de átomos y moléculas dio pie al nacimiento de una de disciplinas científicas más prometedoras de la era moderna: la nanotecnología

Feymann Richard Físico

«Para la existencia de la ciencia son necesarias mentes que no acepten que
la naturaleza debe seguir ciertas condiciones preconcebidas.»

NUEVAS FRONTERAS
Con una curiosidad ilimitada ante los fenómenos de la naturaleza, Richard Feynman hizo contribuciones relevantes en diversos campos de la física y también fue un excelente divulgador, capaz de transmitir su pasión por la ciencia.

De una intuición extraordinaria, buscaba siempre abordar los problemas de la física de manera diferente de la de sus colegas, quería presentar las cuestiones conocidas fuera de los caminos ya trillados.

La historia cuenta que durante una reunión de la Sociedad Americana de Física de la división de la Costa Oeste, en 1959, Feynman ofreció por primera vez una visión de la tecnología totalmente nueva, imaginando enciclopedias escritas en la cabeza de un pin.

«Hay mucho sitio al fondo», dijo en aquella célebre conferencia. Pero el fondo al que se refería no era el de la abarrotada sala de actos. Hablaba de otro fondo: el de las fronteras de la física, el mundo que existe a escala molecular, atómica y subatómica.

Un Visionario: Por primera vez, alguien pedía investigación para hacer cosas como escribir todos los libros de la Biblioteca del Congreso en una pieza plástica del tamaño de una mota de polvo, miniaturizar las computadoras, construir maquinarias de tamaño molecular y herramientas de cirugía capaces de introducirse en el cuerpo del paciente y operar desde el interior de sus tejidos.

La conferencia de Feynman está considerada como una de las más importantes y famosas de la historia de la física, que hoy cobra una vigencia no prevista en aquel entonces.

Por eso muchos científicos consideran que Richard Feynman marca de algún modo el nacimiento de la nanotecnología, ciencia que se aplica a un nivel de nanoescala, esto es, unas medidas extremadamente pequeñas, «nanos», que permiten trabajar y manipular las estructuras moleculares y sus átomos. (ver: nanotecnologia)

El futuro es impredecible: A pesar de que Feynman ignoraba en aquel entonces la capacidad de los átomos y las moléculas de unirse en estructuras complejas guiadas por sus interacciones físicas y químicas (algo muy presente hoy en día a escala nanométrica), queda su impresionante clarividencia en saber identificar en la naturaleza un abundante depósito de recursos, poniendo de manifiesto al mismo tiempo su confianza en el carácter ilimitado de la creatividad humana.

PORQUE SE LO RECUERDA:

    1. Es considerado una de las figuras pioneras de la nanotecnología, y una de las primeras personas en proponer la realización futura de las computadoras cuánticas.
    1. Su forma apasionada de hablar de física lo convirtió en un conferencista popular; muchas de sus charlas han sido publicadas en forma de libro, e incluso grabadas para la televisión.
    1. Feynman fue asignado al comité de investigación de la explosión en vuelo del transbordador de la NASA Challenger, en 1986. Demostró que el problema había sido un equipo defectuoso y no un error de un astronauta.
  1. Entre sus trabajos se destaca la elaboración de los diagramas de Feynman, una forma intuitiva de visualizar las interacciones de partículas atómicas en electrodinámica cuántica mediante aproximaciones gráficas en el tiempo.

Cronología:
NACIMIENTO: Richard Feymann nació el 11 de mayo en Nueva York. Descendiente cíe judíos rusos y polacos, estudiu física cu el Instituto Tecnológico de Massa-chusetts v se doctoró en la Universidad de Priiiceton.

PROYECTO MANHATTAN Participó en el proyecto Manhattan, que dio origen a la primera bomba atómica. Posteriormente, en 1950, fue nombrado titular de la cátedra de física teórica en el California Institute of Technology (foto).

PREMIO NOBEL: Recibió el Nobel de Física junto con J. Schwinger y S. Tomonaga, por sus trabajos en electrodinámica cuántica. Se mostró cómo abordar el estudio cuántico y relativista de sistemas con cargas eléctricas.

INTRODUCCIÓN AL CONCEPTO DEL QUARK: Trabajó en el acelerador de partículas de Stanford, período en el que introdujo la teoría de I partones, hipotéticas partículas localizadas en el núcleo atómico que daría pie más tarde al concepto de quark.

MUERTE: Tras luchar denodadamente durante cinco años con un cáncer abdominal, Feynman falleció el 15 de febrero, dos semanas después de dictar su última exposición como docente: su última clase versó sobre la curvatura espacio-temporal.

Fuente Consultada:Gran Atlas de la Ciencia La Materia National Geographic – Edición Clarín –

Historia de Ciencia Tecnica Tecnologia y Sus Avances

Historia de la Ciencia ,Técnica y Tecnología
Curiosidades y Avances Científicos

INTROUDUCCIÓN: Si consideramos la ciencia como la investigación sistemática de la realidad a través de la observación, la experimentación y la inducción (conocido como método cientí

Sin duda, se realizaron descubrimientos, pero de forma fragmentaria. La mitología y la religión dominaron como formas de explicar el mundo.

Esto empezó a cambiar con las especulaciones de los primeros filósofos griegos, que excluían las causas sobrenaturales de sus explicaciones sobre la realidad.

Al llegar el s. III a.C. la ciencia griega era muy elaborada y producía modelos teóricos que han dado forma desde entonces al desarrollo de la ciencia.

Con la caída de Grecia ante el imperio Romano, la ciencia perdió su estado de gracia. Se lograron pocos avances importantes, salvo en medicina, y el trabajo realizado estaba firmemente enraizado en las tradiciones y los marcos conceptuales griegos.

Durante varios siglos, desde la caída del imperio Romano en el s. V d.C, la ciencia fue prácticamente desconocida en Europa occidental. Sólo la civilización islámica conservó los conocimientos griegos , y los transmitió más tarde de nuevo a Occidente.

Entre los s. XIII y XV se lograron algunos avances en el campo de la mecánica y la óptica, mientras que algunos hombres como Roger Bacon insistieron en la importancia de la experiencia y de la observación personal.

El s. XVI señaló la llegada de la llamada «revolución científica», un período de progreso científico que empezó con Copérnico y culminó con Isaac Newton.

La ciencia no sólo logró descubrimientos conceptuales sino que consiguió también un enorme prestigio.

La ciencia y todo lo que la rodeaba llegaron a estar muy de moda a finales del s. XVII, y atrajeron una gran cantidad de patrocinios reales y gubernamentales.

Dos hitos de esta nueva moda fueron la fundación de la Académie de Sciences por Luis XIV en Francia y de la Royal Society por Carlos II en Inglaterra.

En el curso del s. XIX la ciencia se profesionalizó y se estructuró en carreras y jerarquías emergentes, centradas en universidades, departamentos de gobierno y organizaciones comerciales.

Esta tendencia no se interrumpió con la llegada del s. XX, que ha visto cómo la ciencia dependía cada vez más de los avances tecnológicos, avances que no han escaseado.

La ciencia moderna es inmensa y extremadamente compleja. Es virtualmente imposible llegar a tener una visión global consistente de lo que ocurre en la ciencia.

Por este motivo, mucha gente la ve con algo de suspicacia. Sin embargo, la civilización occidental está completamente sometida a la creencia de que el progreso científico es un valor positivo y una fuerza que contribuye al bien de la humanidad.

Aunque algunos de los mayores peligros y horrores del mundo tienen sus raíces en el esfuerzo científico, también existe la esperanza de que, con el tiempo, la ciencia proporcionará soluciones viables para ellos.

Marie Curie (1867-1934) cientifica

Ejemplo de científico abnegado y apasionado por el descubrimiento y estudio de la naturaleza. Marie Curie (1867-1934). La científica polaca que, con su marido francés Pierre (1859-1906) y Henri Becquerel (1852-1908), recibió el premio Nobel de física de 1903 por el descubrimiento de la radioactividad. También recibió el de química de 1911 por el descubrimiento de dos elementos, el radio y el polonio.

MENU DE LOS PRINCIPALES TEMAS CIENTÍFICOS TRATADOS EN EL SITIO

bullet-historia1 Teoría Especial de la Relatividad
bullet-historia1Concepto de Palanca y Máquinas Simples
bullet-historia1 Concepto de Cantidad de Calor-Caloría-Equilibrio Termico
bullet-historia1 Anécdotas Matemáticas
bullet-historia1Las Radiaciones de un Núcleo Atómico
bullet-historia1 Tres Grandes Matemáticos
bullet-historia1 Ideas Geniales De Las Ciencias
bullet-historia1 Inventos Geniales
bullet-historia1 Medición Radio Terrestre En La Antigüedad
bullet-historia1 El Número Pi
bullet-historia1 El Átomo
bullet-historia1 La Partículas Elementales del la Materia
bullet-historia1 El Sistema Solar
bullet-historia1 Astronomía Para Principiantes
bullet-historia1 Conceptos Informáticos
bullet-historia1 La Vida de las Estrellas
bullet-historia1 El Genoma Humano
bullet-historia1 Estudio del Cuerpo Humano
bullet-historia1 Seres Humanos en el Espacio
bullet-historia1 Humanos en el Fondo del Mar
bullet-historia1 Los Tres Problemas Griegos
bullet-historia1 La Misión Apolo XI
bullet-historia1 El Big Bang
bullet-historia1 SQL Para Bases de Datos
bullet-historia1 Los Efectos de Una Explosión Nuclear
bullet-historia1 El Agua Potable
bullet-historia1 Hidrógeno: El Combustible del Futuro
bullet-historia1 El Planeta Sedna o Planetoide Sedna?
bullet-historia1La Energía Nuclear y Sus Usos
bullet-historia1El Petróleo:Una Noble Sustancia
bullet-historia1El Movimiento De Los Satélites Artificiales
bullet-historia1Porque hay rozamiento entre dos superficies?
bullet-historia1Consultas En Un Diccionario Medico Etimológico
bullet-historia1 Internet y la WEB
bullet-historia1La Inteligencia Humana (Con Un Test)
bullet-historia1Dos Bellos Teoremas (La Raíz de 2 y Los 5 Sólidos Pitagóricos)
bullet-historia1Tres Conceptos Físicos Modernos
Efecto Fotoeléctrico-Radiación Cuerpo Negro-El Cuanto de Energía
bullet-historia1Conceptos Básicos de Cohetería Moderna
bullet-historia1 Curiosas Cuestiones Físicas Explicadas Por Yakov Perelman
bullet-historia1 Tres Principios Físicos Básicos
Pascal-Arquímedes-Bernoulli
bullet-historia1 Hormigones y Morteros-Cálculo de Materiales por m3
bullet-historia1 Centrales Generadoras de Energía
bullet-historia1 Los Combustibles Fósiles
bullet-historia1 La Célula y La Clonación
bullet-historia1 Experimento De Las Esferas de Maldemburgo
bullet-historia1 Teoría del Campo Unificado
bullet-historia1 La Presión Atmosférica y La Experiencia de Torricelli
bullet-historia1 La Teoría Cinética de los Gases
bullet-historia1Fórmula Matemática de la belleza Universal
bullet-historia1Método Gráfico (árabe) Para Resolver Una Ecuación de 2° Grado
bullet-historia1 La Inteligencia Artificial
bullet-historia1 La Inmunidad Humana
bullet-historia1Motores de Combustión Interna y Eléctricos
bullet-historia1 Pilas y Baterías – Principio Físico de Funcionamiento
bullet-historia1Bell o Meucci Quien inventó el teléfono?
bullet-historia1 Las Vacunas
bullet-historia1Las Vitaminas
bullet-historia1 La Poliomielitis
bullet-historia1La Leyes de Kepler
bullet-historia1 Eclipses de Sol y de Luna
bullet-historia1 La Medición del la velocidad de la Luz
bullet-historia1 Nuestra Querida Estrella: El Sol
bullet-historia1 Las Leyes de la Mecánica Clásica de Newton
bullet-historia1 Las Leyes del Péndulo Físico
bullet-historia1 La Matemática en el Siglo XX – Desafíos Sin Resolver
bullet-historia1 Aprende a Resolver Una Ecuación de 2do. Grado
bullet-historia1 A que llamamos el pensamiento lateral? Problemas
bullet-historia1 Desalinizar El Agua de Mar
bullet-historia1 La Economía Como Ciencia
bullet-historia1 Conceptos Básicos Sobre La Ciencia
bullet-historia1 Teoría de la Deriva de los Continentes
bullet-historia1 La Lucha contra las infecciones: los antibióticos
bullet-historia1 Últimos avances científicos en medicina (2007)
bullet-historia1 La Era Espacial: Las Misiones Espaciales
bullet-historia1 Teorías Físicas Que Fracasaron
bullet-historia1 Descubriendo Nuevos Metales en el Siglo XVII
bullet-historia1 El Experimento del Siglo XXI: «La Máquina de Dios»
bullet-historia1 Enanas Blancas, Neutrones y Agujeros Negros

Cristobal Colon y el Diametro de la Tierra Escala y Distancias

Cristobal Colón y el Diametro de la Tierra

Suele creerse que Colón fue el explorador europeo con más éxito y el que descubrió lo que ahora es América del Norte. En realidad, ninguna de las dos cosas es cierta. No encontró ni oro ni plata en grandes cantidades, y lo único que vio del continente fue un tramo de América Central y del Sur en su cuarto y último viaje. Pero bien, ahora hablaremos respecto a la idea que tenía este navegante sobre la forma y medidas del Planeta.

La seguridad que mostraba Colón de que se podía encontrar fácilmente una ruta hacia la China de Marco Polo y las especias de la India navegando hacia el oeste a través del Atlántico se basaba en un error de cálculo elemental.

Cristobal Colón

Tras estudiar las obras de antiguos exploradores fenicios y cartógrafos árabes, llegó a la errónea conclusión de que la distancia entre Asia y Europa era de sólo 3.600 kilómetros (la distancia real entre España y China navegando hacia el oeste es de unos 24.000 kilómetros). Colón tenía buenas razones para dar a entender que la travesía sería corta, puesto que ningún patrocinador sufragaría un viaje con un tiempo de navegación tan largo que impidiera proporcionar suficiente comida y agua a la tripulación.

En 1492 Colón consiguió finalmente el apoyo financiero que necesitaba. Ese mismo año los reyes españoles, Isabel y Fernando, que con su matrimonio habían unido las coronas de Castilla y Aragón, y este gobierno español deseaba encontrar una nueva ruta hacia las riquezas de Oriente, no sólo para arrebatar a los mercaderes musulmanes su dominio comercial, sino para competir con la exploración portuguesa de la Costa Dorada de África. Ahora dos de las principales potencias europeas, Portugal y España, compartían los mismos objetivos estratégicos: basar su crecimiento económico en la exploración marítima y destruir así el control que ejercían los otomanos sobre el mar Mediterráneo.

Respecto a este tema, el divulgador científico Leonardo Moledo, dice:

«….Colón jamás sostuvo que la Tierra era redonda. O mejor dicho, jamás discutió tal cosa: la polémica que enfrentó a Colón con los geógrafos de la corte de Portugal primero y de Castilla después no tuvo nada que ver con la redondez de la Tierra. Más aún, en esas polémicas —y también en contra de la leyenda popular— lo que los geógrafos argüían contra Colón era perfectamente atinado y la postura de Colón era un disparate.

Ocurre que en la época de Colón la esfericidad de la Tierra ya era un hecho perfectamente establecido (en el mismo año 1492 ya se hizo un globo terráqueo). Es más: no sólo todo el mundo (o por lo menos todo el mundo ilustrado) sabía perfectamente que la Tierra era esférica, sino que los geógrafos tenían una idea aproximada de sus dimensiones. Y eso, desde hacía dieciséis siglos, ni más ni menos: ya Aristóteles había establecido la redondez de la Tierra y 230 años a. de C. Eratóstenes de Cirene había calculado su circunferencia en unos cuarenta mil kilómetros (cifra muy aproximada a la verdadera). Por otra parte, el sistema astronómico de Tolomeo (siglo II), que reinó omnipotentemente hasta el siglo XVI, daba por supuesta esa redondez; Tolomeo mismo estimó la circunferencia terrestre en 30.000 km (cifra ligeramente menor a la verdadera).

Hasta tal punto se confiaba en la redondez de la Tierra, que en el año 1487 el rey Juan II de Portugal —y de acuerdo con una comisión de expertos— autorizó a dos navegantes, Fernando Dulmo y Joáo Estreito, para que navegaran hacia el oeste intentando descubrir la isla de la Antilla. Aunque la expedición de Dulmo y Estreito jamás regresó, sobre la redondez de la Tierra todo el mundo estaba de acuerdo: el punto de conflicto entre Colón y los “sabios de la época” era muy otro.

Colón basaba su idea en una estimación completamente falsa —o por lo menos totalmente especulativa— sobre la distancia a cubrir entre Europa y las Indias navegando hacia el oeste: el Gran Almirante sostenía que se trataba, a lo sumo, de 4.300 kilómetros, y los geógrafos le contestaban que esa cifra era un disparate, en lo cual estaban mucho más cerca de la verdad que Colón: la verdadera distancia es de diecinueve mil quinientos kilómetros.

En realidad, Colón había llegado a esa cifra (4.300 km) por métodos un tanto tortuosos. Por empezar, había un viejo argumento teológico: la cartografía medieval aceptaba sin mayores discusiones una afirmación del profeta Esdras: “El secó seis partes de la Tierra”, y en consecuencia, entre los ultraortodoxos era un axioma que la Tierra estaba compuesta por seis partes de tierra firme y sólo una séptima parte de agua, de donde los océanos no podían ser tan grandes y las distancias marítimas tampoco.

Por otra parte, es verdad que las estimaciones de la circunferencia de la Tierra variaban entre las del Atlas Catalán de 1375 —treinta y dos mil kilómetros— y las de Fra Mauro (1459), treinta y ocho mil kilómetros, en todos los casos menores que el tamaí~o real. También variaban las estimaciones de la extenSión del Asia hacia el este, medida desde Portugal:

desde un mínimo cte 116 grados (según Tolomeo) hasta 225 grados según otros cartógrafos (la verdadera es 131 grados). Obviamente, cuanto más se extendiera el Asia hacia el este, más cerca estaría por el oeste.

Ahora bien: es posible que durante sus viajes anteriores Colón hubiera oído hablar de las tierras encontradas al oeste por los vikingos, pero lo cierto es que acomodó los juegos de cifras para que se ajustaran a lo que más le convenía. Usó un mapa dibujado por el cosmólogo florentino Toscanelli y basado en afirmaciones un tanto arbitrarias de Marco Polo según las cuales Japón estaba a dos mil quinientos kilómetros de la costa de China, modificó los cálculos de Tolomeo hasta obtener una estimación de 4.780 kilómetros para la distancia marítima entre Europa y Asia.

Pero no conforme con esto, Colón, para decirlo suavemente, “afinó el lápiz” y tomando cálculos y mapas de Alfrageno, científico musulmán del siglo IX, logró autoconvencerse de que Japón se encontraba sólo a 4.300 kilómetros al oeste de las Islas Canarias, cifra completamente ridícula, porque según ella Japón estaba ubicado más o menos donde está Cuba. Esto era forzar demasiado la geografía de la época, y no es de sorprender que los cosmógrafos consultados por los reyes de Portugal y Castilla consideraran irrazonable la empresa.  Naturalmente, ellos no podían adivinar que en el medio se iba a interponer la elegante figura de América. Pero tampoco lo adivinó Colón que, además, cuando la tuvo delante, fue incapaz de dar-se cuenta de que estaba en un nuevo continente y no en el Japón, como sostuvo hasta el final de su vida.

Así, pues, Colón no fue un visionario sino solamente un mal geógrafo —y buen navegante— al que ayudó la suerte. Basándose en un conjunto de datos falsos —y manipulados— llegó a un lugar que no era el que buscaba y ni siquiera fue capaz de darse cuenta.»

El metro y la revolución francesa Historia el Metro Patron

Historia el Metro Patrón

En los agitados años que siguieron a la Revolución Francesa de 1789, por fin se autorizó a la Academia de Ciencias de Francia efectuar una urgente reforma: el establecimiento de un sistema de medidas sencillo y lógico. Urgía establecerlo para simplificar tanto el comercio internacional como el local, pues aun dentro de Francia las medidas variaban mucho de una población a otra.

Un comité (entre cuyos miembros estaban dos reputados científicos, el químico Antoine Laurent de Lavoisier y el matemático Joseph-Louis Lagrange) acordó que, para facilitar los cálculos, el nuevo sistema debía basarse en el número 10, y que la unidad básica de longitud debía equivaler a la diezmillonésima parte de una línea que atravesara París desde el Polo Norte hasta el ecuador. Se estimó que tal línea medía 10 000 km, y se llamó metro a dicha unidad básica.

Tomó ocho años completar las mediciones y los cálculos requeridos, y no fue hasta 1799 que la joven República de Francia adoptó formalmente el nuevo sistema métrico decimal de pesas y medidas.

En 1989 Francia celebró con bombos y platillos el segundo aniversario de la Toma de la Bastilla, que se ha constituido en el símbolo convencional que marca el inicio  de la Revolución Francesa. Ya había empezado en realidad desde el 5 de Mayo de 1789 cuando estaban reunidos en Versalles los Estados Generales , que el día de la inauguración se separaron al giro de Viva el Rey!. Los distintos Estados se mandaron embajadores: el Estado Llano invitó a los dos restantes (el Clero y la Nobleza) a unirse con él.

revolucion francesa

Algunos diputados sueltos de los Estados privilegiados respondieron; con ellos, el 17 de junio, el Estado Llano se proclamó Asamblea Nacional, y decidió que el día en que se disolviera cesaría en toda Francia la percepción de impuestos que no hubieran sido votados por ella.

Los diputados retomaban el viejo principio: “No hay impuesto sin representación”.

Era una medida audaz, que marcaba el ritmo de los tiempos en curso.

El 23 de junio Luis XVI quiso cerrar la Asamblea: el Estado Llano resistió, el rey terminó por ceder y dispuso la reunión de los tres órdenes. Pero el 11 de julio, un nuevo tour deforce en la Corte impuso al partido de la Reina y destituyó al ministro de Hacienda, Necker. Un día más tarde la noticia llegó a París. El pueblo temía un golpe de Estado y la ciudad se llenó de rumores.

El pan escaseaba. En los jardines del Palais Royal. Camille Desmoulins se trepó a una silla y anticipándose a La Marsellesa, gritó: ¡a las armas! El 13 de julio el pueblo saqueó las armerías, trató de forzar los arsenales, sacó del Palacio de los Inválidos veintiocho mil fusiles y cinco cañones y, habiéndose enterado de que los depósitos de pólvora habían sido trasladados a la Bastilla, empezó a concentrarse a su alrededor. El 14 de julio comenzaba.

Mientras la Revolución empezaba a desplegar su violenta y temible dinámica, se retomaba un viejo sueño de la Academia Francesa de Ciencias: basar los sistemas de medida en un standard permanente. En 1790, la Asamblea Constituyente aprobó la propuesta de Talleyrand de que se estudiara un sistema de nuevas unidades de pesas y medidas que sirviera para todas las naciones.

Muy francesamente, se decidió adoptar como unidad de longitud una diez millonésima de la distancia entre el Polo Norte y el Ecuador, calculada sobre el meridiano que cruza París: el metro. Dos ingenieros, Jean Delambre y Pierre Méchain, se esforzaron por medir rigurosamente la distancia entre Dunkerque y Barcelona, a partir de la cual la Academia podría calcular lo demás.

Los avatares de la Revolución destruían el antiguo orden: la Asamblea Constituyente dio paso a la Legislativa, y ésta a la Convención; Francia se transformaba en República. Luis XVI y María Antonieta subieron al cadalso.

La tarea de Delambre y Méchain fue larga y penosa: llevó seis años. Cayó Danton; luego Robespierre (27 de julio de 1794). El nuevo orden necesitaba una nueva manera de medir el mundo. Por ley del 7 de abril de 1795 (18 Germinal del año III), la República adoptó el sistema métrico decimal; el metro sería la nueva vara de medir: libertad, igualdad, fraternidad.

El Directorio, y más tarde el Consulado, prepararon el camino del Imperio. Se fabricó una barra de platino e iridio, que fue depositada en la Oficina Internacional de Pesas y Medidas de Sévres, cerca de París. Sobre la barra, se grabaron dos finísimas marcas: la distancia entre esas dos marcas definía el metro. Este metro patrón sobrevivió a la República, al Imperio y a la Restauración. En verdad, reinó indiscutido durante casi doscientos años.

En 1983, en la Conferencia Internacional de Pesas y Medidas, en París, el metro patrón fue derrocado y redefinido como !‘la distancia recorrida por la luz en el vacío durante 1/299.792.458 de segundo”. Así, la unidad de longitud queda subordinada a la unidad de tiempo, bajo la férrea vigilancia de una de las constantes universales: la velocidad de la luz en el vacío, que según la teoría de la relatividad de Einstein es la misma, medida desde donde se mida, desde cualquier sistema de referencia posible en el universo.

Dista de ser una curiosidad. El deseo de universalidad de quienes quisieron basar el sistema de medidas en las dimensiones de la Tierra, el metro de la República Francesa —Una e Indivisible— calculado en función del meridiano de París, cedió al anhelo cósmico de una época que considera haber descifrado una de las claves maestras de la naturaleza, y a la que el standard del siglo XVIII le parece poco: el metro debe ser definido en función de algo verdaderamente universal como la velocidad de la luz en el vacío. El propio Napoleón había dicho: “Las conquistas serán olvidadas, pero el sistema métrico pasará a los siglos venideros.”

El 14 de julio de 1789, el rey de Francia se dedicó a la caza durante todo el día; luego, fatigado, se fue a acostar. El 15 por la mañana el duque de Liancourt lo despertó y le relató los acontecimientos de París. Es una revuelta?”, preguntó Luis XVI. “No, Majestad”, contestó el duque, “es una revolución”.

el metro patron

Ver: Historia del Sistema Metrico Decimal y Sus Unidades

Fuente Consultada:
Basado en el libro Curiosidades de la Ciencia de Leonardo Moledo

Los números perfectos Curiosidades Matematicas

Los Números Perfectos
Curiosidades Matemáticas

LOS NÚMERO PERFECTOS: El número que es igual a la suma de todos sus divisores recibe el nombre de número perfecto. Por ejemplo, el 28 es un número perfecto porque:

28 = 1 + 2 + 4+ 7 + 14

Euclides demostró que todo número primo n engendra un número perfecto N por aplicación de la fórmula:

2n-1(2n-1) = N

Si escribiéramos este número todo seguido, nos daría materia para el libro más voluminoso, más insípido, más inútil y más aburrido del mundo.

Respecto a este tema, el divulgador científico Leonardo Moledo, dice:

 «Los números perfectos impresionaron mucho a los matemáticos de la Antigüedad, muy acostumbrados a jugar con los números. Los griegos y los judíos (antiguos naturalmente) usaban letras para escribir las cifras, con lo cual cada número se podía asociar con una palabra y permitía sacar conclusiones esotéricas que harían palidecer a cualquier adicto a la quiniela. Por ejemplo’ el número 666 asociado con “la bestia” en el Apocalipsis porque la manera de estar escrito alude al emperador Nerón, que para los primeros cristianos era (y con razón) poco menos que un monstruo. Sin embargo, 666 no es un número perfecto.

En cambio, el pálido 6 sí lo es. Un “número perfecto” es aquel que coincide con la suma de todos sus divisores, exceptuado él mismo. Y el 6 cumple con el requisito: sus divisores son 1, 2 y 3, y 1+2+3 es exactamente igual a 6. Los comentaristas tanto del Antiguo como del Nuevo Testamento no dejaron de asombrarse de que el número de días que a Dios le tomó crear el mundo (descartando el séptimo día de descanso) fuera, precisamente un número perfecto.

Esta coincidencia no quedó simplemente en perplejidad sino que llegó a usarse como argumento teológico. Según San Agustín no obstante haber podido crear Dios el mundo en forma instantánea, prefirió emplear seis días porque “la perfección del número 6 significa la perfección del

Y si se tiene en cuenta que el siguiente número perfecto es el 28 (suma de 1+2+4+7+14), más o menos el tiempo que toma el ciclo de la Luna, es de suponer que durante mucho tiempo los calculistas se lanzaran a la caza de números perfectos. Pero los números perfectos son difíciles de cazar. Y son pocos. Después del pequeño 6 y el vigoroso 28, el número perfecto siguiente (el tercero) es 496,el cuarto es 8.128 y el quinto…  ¡33.550.336!

El sexto ya anda por los ocho mil millones. El octavo ya es un número de diecinueve cifras. Hoy se conocen veinticuatro “números perfectos”, de longitudes verdaderamente inverosímiles: el vigésimo cuarto número perfecto tiene más de doce mil cifras. Naturalmente, estos números se manejan e investigan mediante computadoras.

Y hay misterios, misterios sin resolver. Por empezar, no se sabe si existe algún número perfecto impar. Tampoco se sabe si existen infinitos números perfectos. Nadie debería extrañarse si mañana mismo alguien anuncia haber descubierto el vigésimo quinto número perfecto: no lo intente el lector, ya que es una tarea ingrata.

Y vale lo dicho en 1811 por el descubridor del noveno número perfecto (demasiado largo para escribirlo aquí, ya que tiene treinta y siete cifras). “Los números perfectos son meras curiosidades sin utilidad alguna”. «

Los Números Primos

La Conjetura de Goldbach
Fuente Consultada: Basado en el libro Curiosidades de la Ciencia de Leonardo Moledo

El enigma de Pigafeta en la vuelta al mundo con Magallanes

El Enigma de Pigafeta en la Vuelta al Mundo con Magallanes

CUENTA LA HISTORIA: Era Pigafetta, natural de la ciudad de Venecia, en la que nació a fines del siglo XV; su padre, de nombre Mateo, según algunos biógrafos, persona de posición, doctor y caballero, trató de darle educación esmerada e hizo que viajase y visitara los más importantes centros de instrucción italianos, en aquel entonces.

Pigaffeta, Cronista

Según algunos, Pigafetta conoció a Magallanes antes de que éste ofreciera sus servicios a España; y lo cierto es que en cuanto llegó a su noticia la empresa que el gran navegante portugués organizaba bajo los auspicios de España, abandonó la ciudad de los Dux y se trasladó a Barcelona, donde a la sazón estaba Carlos V.

Habíase conseguido algunas recomendaciones para personajes de la corte, a fin de que se le permitiera agregarse a los expedicionarios, consiguiendo autorización para que se le admitiera en clase de sobresaliente en una de las naos que se estaban alistando en Sevilla, a donde marchó sin demora para reunirse con el personal que había de formar la tripulación de la armada.

Sin que pueda sostenerse que Antonio Pigafetta fuera «famoso en toda Europa por sus conocimientos en filosofía, matemáticas y astrología», como supone el historiador veneciano Marzari, no hay motivo para creerle un aventurero ignorante y presuntuoso, como gratuitamente le califican muchos que murieron sin haber conocido el libro en que relata su viaje en la escuadra de Magallanes, y contiene además un tratado de navegación escrito por él; lo que demuestra que debió poseer conocimientos no vulgares en astronomía y náutica.

Tuvo la fortuna de ser de los pocos que disfrutaron salud durante todo el viaje, y uno de los diez y siete que con Sebastián del Cano llegaron a España en la Victoria, habiendo dado La vuelta al mundo. Desde el principio de la navegación puso en práctica la idea que concibiera antes de emprenderla, de escribir un Diario de la misma, trabajo que había más tarde de concederle un puesto preeminente en la historia de los grandes descubrimientos geográficos.

EL ENIGMA DE PIGAFETA: Para un navegante que vaya de este a oeste, los días son más largos porque sigue la dirección del Sol. Cuando cruza la línea de cambio de día, no cambia la hora, pero debe adelanta r en un día la fecha de su diario de a bordo.

Para un navegante que vaya de oeste a este, los días son más cortos. Cuando cruza la línea de cambio de día, debe retroceder en un día la fecha de su diario de a bordo.

En 1522, Juan Sebastián Elcano llegó a Sanlúcar de Barrameda (Cádiz) con 18 de sus compañeros y 4 malayos a bordo de la nave Victoria.

Estos supervivientes de la expedición, emprendida por Magallanes el 20 de septiembre de 1519 con 265 marinos a bordo de cinco naves, acababan de dar la primera vuelta al mundo (en dirección oeste).

Elcano llegaba a puerto el sábado 6 de setiembre de 1522, pero en su diario de navegación constaba «viernes 5». Ignoraba el fenómeno del cambio de fecha. Posteriormente, Julio Verne utilizó este detalle en su novela La vuelta al mundo en ochenta días. El Servicio Internacional de Rotación Terrestre, establecido en París, regula por radio las señales horarias de todo el mundo.

También este enigma medieval, lo explica el divulgar científico Leonardo Moledo, de la siguiente manera:

«….[el enigma se produjo] fue cuando regresó la expedición de Magallanes y se llevaron la sorpresa de su vida al ver que les faltaba un día. Y es así: el ocho de septiembre de 1522, en el puerto de Sevilla, desembarcaron los dieciocho sobrevivientes de la expedición que al mando de Magallanes —muerto durante el viaje— había partido tres años antes (el 10 de agosto de 1519) con cinco naves y 250 tripulantes.

Y esos dieciocho sobrevivientes habían dado la vuelta al mundo. Fue una hazaña monumental, que despierta admiración no sólo por su magnitud, sinO porque se hizo sin la habitual violencia que los “descubridores” solían ejercer sobre los pueblos “descubiertos” y más débiles.

Ahora bien: entre los dieciocho sobrevivientes estaba Antonio Pigafetta, cronista de la expedición que había llevado un cuidadoso diario consignando los pormenores del viaje. Y hete aquí que al desembarcar se encontró con que las fechas de su diario y la de España, increíblemente, no coincidían: el día que en España era 8 de septiembre 8 sábado, en su diario era 7 de septiembre viernes. Pigafetta creyó que se trataba de un error y revisó una y otra vez el diario sin encontrar falla alguna. Al final, tuvo que rendirse a la evidencia: durante el viaje, un día ente­ro se había esfumado como por arte de magia.

La noticia causo sensación en toda Europa: un día entero desaparecido! ¿Adónde se había ido? ¿Cómo podía desaparecer un día? Finalmente, fueron los astrónomos de la corte papal quienes aclararon el fenómeno: explicaron que si se viaja alrededor de la Tierra hacia el oeste se pierde forzosamente un día, del mismo modo que si se cir­cunnavegara la Tierra hacia el este se ganaría un día.

Y la razón es ésta: cada “día” se debe a una rotación de nuestro planeta; si uno se mueve alrededor de la Tierra en el sentido de la rotación dará una vuelta más, silo hace al revés (como en el caso de Pigafetta) dará una vuelta menos.

Del mismo modo que si arriba de una calesita uno camina en el senti­do de la rotación, y da una vuelta completa, verá pasar el palo de la sortija una vez más que quienes se quedaron quietos; y si uno camina en sentido contrario, dando una vuelta completa, verá pasar el palo de la sortija una vez menos.

Lo interesante es que no importa la velocidad a la que se haga el viaje, ni lo que se tarde en hacerlo, ni el recorrido que se siga: siempre, al circunnavegar la Tierra, se perderá (o se ganará) un día: uno puede hacer el trayecto que quiera, ya sea una complicada poligonal en zigzag o ir derecho, puede hacerlo en una semana, en tres años o en diez siglos, pero siempre perderá (o ganará) un día y nunca más que un día al volver al punto de partida.

Julio Verne se aprovechó de este fenómeno en La vuelta al mundo en ochenta días, y Saint-Exupéry de alguna manera lo usa en El principito cuando éste relata de qué manera en su pequeño planeta podía ver cuantas puestas de sol se le ocurriera. Uno podría decir, pues, que el jet­lag es un concepto típicamente renacentista. Aunque esto sea forzar un poco las cosas, es agradable remontar hasta el Renacimiento un fenómeno tan moderno.

Fuente Consultada:
Libro Curiosidades de la Ciencia de Leonardo Moledo

Doblar un papel mas de siete veces al medio 7 veces Curiosidades

Curiosidad: Doblar un papel mas de siete veces al medio 7 veces

Supongamos que tiene un papel del tamaño de una hoja de periódico y con un espesor de 0,1 mm., o sea 1 décima de milímetro, propia del fino papel Biblia. ¿Cuántas veces cree que podrá doblarlo por la mitad? ¿Cinco, diez, veinte?,…inténtelo. ¿Ha logrado hacer el décimo pliegue? Felicidades, es usted un fortachón, porque ha conseguido doblar un grosor de papel de 10,24 cm, más ancho que el lomo de cualquier enciclopedia.

doblar un papel 7 veces

Cada vez que doblamos el papel por la mitad, duplicamos su grosor en progresión geométrica. Imagínese llegar al vigésimo pliegue, significaría que había conseguido una doblez de 104,86 m de altura.

Un elemento para la reflexión: cada vez que doblamos el papel es más evidente que pasamos de una situación en la que empezamos con un objeto plano, prácticamente de sólo dos dimensiones (anchura x longitud), a un objeto en tres dimensiones. O sea, que sin modificar el material, hemos alterado, mediante la simple duplicación, su representación en el espacio; en definitiva, un modo diferente de ver el mismo objeto.

Imagine un cubo de 1 cm. de lado, su volumen será: 1 x 1 x 1= 1cm3, ahora duplique el lado, osea vale 2, entonces ¿cuánto valdrá ahora el volumen?. Calculando es 2 x 2 x 2 = 8 cm3, es decir, que duplicando el lado de un cubo su volumen se octuplica. Muchas veces vemos una botella no mas grande que otra de medio litro, y resulta que su volumen es 2 litros, bien es consecuencia de los que acabamos de comprobar.

Respecto al doblado de un papel , el divulgador científico Leonardo Moledo, dice:

«….Es difícil imaginarse con qué pasmosa velocidad aumentaría el espesor de papel silo siguiéramos doblando y doblando: con sólo 20 dobleces llegaría a tener cincuenta metros. Pero eso no es nada: con 28 dobleces superaría los 8800 metros de altura del monte Everest y con 38 dobleces los doce mil kilómetros que mide el diámetro de la Tierra. Y eso tampoco es nada: si seguimos doblando el papel, después de 43 dobleces el espesor superaría los 380 mil kilómetros que nos separan de la Luna, y después de 52 dobleces, los ciento cincuenta millones de kilómetros que nos separan del Sol.

Pero aun así, no estamos más que al principio: después de haberlo doblado 58 veces, el espesor del papel será superior al ancho del sistema solar (que es aproximadamente doce mil millones de kilómetros) y con 70 dobleces llegaría más allá de Alfa Centauro, que es la estrella más cercana a la Tierra y que se encuentra a 4 años luz (un año luz, la distancia que la luz recorre en un año, equivale a diez millones de millones de kilómetros). Con 86 dobleces el papel sería más ancho que nuestra galaxia y con 90 dobleces alcanzaría Andrómeda, la galaxia más cercana a la Tierra y que se encuentra a dos millones de años luz. Con 100 dobleces, se encontraría a mitad de camino de los objetos más lejanos observados en el universo, a diez mil millones de años luz, y con un doblez más, sería más ancho que todo el universo conocido.

Estos sorprendentes resultados se deben al rápido crecimiento de las progresiones geométricas (1, 2, 4, 8, 16, 32, etc.), que aumentan a una velocidad pasmosa y anti-intuitiva: hay una leyenda que vincula este fenómeno al origen del ajedrez. Según esta leyenda, cuando Sissa, el inventor hindú del gran juego, se lo presentó al rey y éste le preguntó qué quería como recompensa, Sissa pidió “algo muy simple: un grano de trigo en la primera casilla, dos en la segunda, cuatro en la tercera, ocho en la cuarta y así siguiendo hasta completar el tablero”. El rey se asombró por la modestia de Sissa, accedió inmediatamente, ordenó que trajeran un poco de trigo y se empezara a llenar las casillas.»

Explicación de la Leyenda del juego de ajedrez
No se ha podido determinar el origen del juego de ajedrez. Se sabe que fue introducido en Occidente por los árabes, quienes lo habían aprendido de los persas. El califa Harún al-Rashid le regaló uno de marfil a Carlomagno. Ideado por un pueblo guerrero, dio pie a la anécdota que sigue.

Se atribuye su invención al brahmán hindú Sissan ben Daher, que presentó el juego al rey Shirham. Éste, embelesado, quiso compensar al brahmán y le pidió que formulara un deseo. Sissan le respondió que le bastaría con un grano de trigo para la primera casilla, 2 granos para la segunda casilla, 4 granos para la tercera y así sucesivamente, doblando la cantidad hasta la casilla 64 del tablero. Al monarca le sorprendió la modestia de semejante petición y dio la orden de satisfacerla. «Imposible —le respondió su ministro tras haber efectuado los cálculos correspondientes— ¡habría que sembrar toda la Tierra de trigo y esperar la cosecha de varios años!»

El soberano ignoraba el alcance de una progresión geométrica de razón 2 hasta 263: colocando en la la 1° casilla  1 grano de trigo; en la 2° casilla 2 granos (21), en la 3° casilla 4 granos (22), en la 4° casilla 8 granos (23), en la 5° casilla 16 (24) granos, y al hasta la casilla 64°, donde  habría que colocar 263 granos. Este total representaría:

263 = 18.446.744.073.709.551.614 granos, lo que equivale a unos 9.557.898.400.000 m3 de trigo.

Si hubiera que almacenar toda esta cantidad de trigo, haría falta un silo de 5 m de altura, 8 m de ancho y 238.947.460 Km. de largo. Una alternativa sería ir suministrando al audaz inventor del juego la cosecha entera de todo el mundo durante más de 5.000 años.

Los llamados «juegos en cadena» se basan en el mismo principio y son simples engañabobos. Utilizados como sistemas de venta, conocidos también como «la pirámide», han sido prohibidos en varios países por tratarse de un timo.

Consisten en ofrecer al público una mercancía a un precio muy módico para conseguir el reembolso y un beneficio sustancial a base de colocar bonos a 4, 6 u 8 nuevos clientes llamados «ahijados». La interrupción de la cadena es inevitable: en el escalón 13 de 6 nuevos ahijados, habría más poseedores de bonos (13.060.694.016) que habitantes en la Tierra.

Fuentes Consultadas:
Curiosidades de la Ciencia Leonardo Moledo

Rasputin Poderes Curativos Aspirina-Como curó la hemofilia

LOS PODERES CURATIVOS DEL MONJE RUSO

LA HISTORIA CUENTA QUE El Monje Rasputín cuando se instaló en San Petersburgo, mostró sus dones de sanador, hipnotizador y profeta entre miembros de la aristocracia. Su fama llegó hasta la zarina. Mas tarde una princesa montenegrina de la corte, lo presentó a los zares. Los emperadores vivían momentos aciagos: su hijo Alexis, hemofílico, estaba condenado a vivir aislado y protegido para no exponerse a morir prematuramente.

En octubre de 1906 Rasputín fue invitado a palacio. Entró, saludó a los zares y les dijo que el zarevich tenía hemofilia. Los zares, estupefactos -la enfermedad del heredero era secreto de Estado-, accedieron a la solicitud del campesino para orar junto a la cama del niño.

Rasputin el monje ruso

Se arrodilló, agachó la cabeza y estuvo una hora rezando. Poco después el pequeño se levantaba de la cama mientras sus padres lloraban de emoción. El zar Nicolás escribió aquel día una carta al primer ministro Stolypin, cuya hija, tras un grave accidente, llevaba meses sufriendo.

Al cabo de dos días, Rasputín se presentó en la casa del primer ministro y repitió la escena de la oración. Al día siguiente, la hija de Stolypin dejó de sufrir dolores y durmió bien. Nunca nadie encontró explicaciones científicas a estas reacciones.

La noticia corrió por San Petersburgo como el viento siberiano. Rasputín tuvo entrada libre al palacio y fue requerido por las familias nobles para pedirle consejos esotéricos, profecías y servicios curativos. Predijo, por ejemplo, el matrimonio desgraciado de Anna, una amiga de la zarina. Y la pareja se deshizo a los seis meses porque el marido borracho golpeaba a Anna. La zarina ya no dudó de los poderes de Rasputín.

Durante unas vacaciones en Polonia, en 1912, el zarevich sufría hemorragias en una pierna y las ingles. Se consumía en el dolor. Los médicos creían que le quedaba poco tiempo de vida Los sacerdotes ordenaron darle la extremaunción. Alejandra, desesperada, envió un telegrama a Rasputín. La respuesta no se hizo esperar. «Dios ha escuchado tus oraciones. No te aflijas. El niño no morirá», la calmaba el campesino. Al día siguiente, la hemorragia paró, sin que los médicos, descreídos de los poderes de Rasputín, hallaran explicación. (y aún hoy tampoco se la encuentran)

Respecto al tema el divulgador científico Leonardo Moledo, tiene una explicación sobre la cura milagrosa del monje y cuenta:

«La mágica curación del zarevich, sin embargo, tiene su explicación. Los médicos estaban tratando a su magno paciente con una droga novísima. Esa droga, según se sabe ahora, retarda indirectamente la coagulación de la sangre, y por lo tanto es contraindicada para los hemofílicos: no tiene nada de milagroso que el zarevich mejorara en cuanto dejó de tomarla.

A pesar de todo (y de Rasputín), la droga en cuestión más siguió una carrera ascendente y se hizo más popular que los cantares, los reyes y los políticos hasta el punto que hoy en día es el medicamento más utilizado (y probablemente el más barato) del mundo. Todos la conocen, y no tiene sentido seguir ocultando su nombre: ni más ni menos que “aspirina”, con el cual fue lanzada por un laboratorio alemán el 10 de febrero de 1899. En los posmodernos ‘GO, el mundo consume la increíble cifra de cien mil millones de comprimidos por año.

Y sin embargo, la aspirina es un medicamento muy antiguo. Desde el siglo I, se utilizaban ya las virtudes terapéuticas de la corteza, hojas y savia del sauce (que la contiene) para calmar fiebres y dolores, pero sólo en el siglo XIX se logró extraer y sintetizar el principio activo de los mejunjes tradicionales: primero la salicilina, luego el ácido salicílico, moléculas cíclicas y relativamente sencillas que presentaban, no obstante, serios problemas de intolerancia.

En 1853, el joven químico Gerhardt logró la acetilación del ácido salicílico y obtuvo el ácido acetisalicílico: la aspirina adquiría su forma actual y definitiva. El descubrimiento de Gerhardt, sin embargo, pasó desapercibido desde el punto de vista farmacéutico hasta que Félix Hoffmann (1867-1946) perfeccionó un método de acetilación a escala industrial, cuando el siglo XIX daba sus últimas boqueadas.

Probablemente, lo más notable de la historia de la aspirina es que, pese a su empleo masivo, hasta hace muy poco se ignoró (y todavía se ignora en parte) cuáles son sus mecanismos de acción. Recién en 1971 John Vane propuso una explicación satisfactoria al demostrar que la aspirina inhibe la síntesis de prostaglandinas, sustancias que acompañan y motorizan las inflamaciones.

De paso, como las prostaglandimis bajan el umbral de los receptores del dolor, éste disminuye. Debido a esos trabajos, Vane recibió en 1982 el Premio Nobel de Medicina. Pero con Premio Nobel y todo, el problema de la acción de la aspirina contra el dolor (salvo en el caso del dolor que acom­paña a las inflamaciones) sigue abierto.

Ahora:   aparte de estas acciones (contra las inflamaciones y el dolor), el simpático y vivaz ácido acetilsalicílico tiene muchas otras habilidades. No todas. recomendables por cierto: en el caso del síndrome de Reyes, de muy rara incidencia, que sólo ataca a los niños menores de un año y a los adolescentes, que se manifiesta por severos trastornos neurológicos y hepáticos, la aspirina puede agravar seriamente la situación, e incluso ser fatal (algunos países prohibieron la aspirina en ciertos medicamentos pediátricos).

También actúa retardando el proceso de coagulación de la sangre, lo cual la contraindica para los hemofílicos, como ilustra admirablemente el episodio de Rasputín. Pero en este caso equilibra los tantos: al retardar la coagulación sanguínea, ayuda disminuir el peligro de obstrucciones en las venas arterias y, por lo tanto, de embolias e infartos.

El espectro no termina allí: la aspirina actúa sobre tu cantidad enorme de afecciones, desde los resfríos hasta los reumatismos inflamatorios, la artrosis, migrañas, ciáticas, lumbagos, y la moderna investigación médica está echando el ojo a su aplicación en casos de cataratas y diabetes.

No es poco, por cierto. “El álamo crece, el sauce llora”, suele decirse, manera harto despectiva. Es muy injusto porque el sauce encierra el germen del ácido acetilsalicílico como lo muestra con su misma actitud. Al fin y al cabo todo el mundo sabe que, muchas veces, el llamado alivia el dolor.» (Ver Rasputín)

—————oooooooooooooooo——————-

ANTECEDENTES DEL NIÑO ENFERMO: La enfermedad del zarevitch, era heredada de su madre, la zarina Alejandra Feodorovna, cuyo nombre católico era Alice von Hesse-Darmastad, hija del gran duque Luis IV y nieta de la reina Victoria. Además de la locura de la familia Von Hesse, en la cual se contaban 21 enfermos mentales, la hermosa Alice había llevado a los Romanov la hemofilia, esa enfermedad hereditaria que transmiten las madres a los hijos varones. Presumiblemente, en el origen de la hemofilia, por la cual habían muerto un hermano y un tío de Alice, estaba la orgullosa reina de Inglaterra.

Los padres del zarevitch ya han renunciado a la impotente ciencia de los médicos que rondan cabizbajos por la oscura recámara. El pequeño Aliosha se queja desgarradoramente.

En su desesperación, la emperatriz confió la curación de su hijo a los más insólitos charlatanes. Entre ellos, el «doctor» Philippe Vachot, un aventurero parisiense, ex ayudante de carnicero, quien por un tiempo y sólo gracias a su sagacidad, pudo mantener la confianza de los zares. Una vez desenmascarado, Vachot fue devuelto sin honores a su Francia natal. Luego sería el turno de Mitya Kolyaba, un discípulo de la curandera Darya Osipova, epiléptico, que hacía pasar su histeria por estados de verdadera iluminación. Sus aullidos que más rozaban el histerismo, no hicieron más que asustar al doliente zarevitch.

Las razones de esta candidez en una mujer culta y enérgica como la zarina Alejandra Feodorovna, sólo pueden encontrarse en su encendido misticismo y su ardorosa fe, que rayaban en la superstición.

Descartada la ciencia (que en aquella época no tenía respuesta para la hemofilia), sólo le queda Dios, o más exactamente sus supuestos enviados, que pretenden curar al niño por medio de sus éxtasis místicos, ese fue el Monje Rasputín.

Fuentes Consultadas:
Rasputín y los últimos días del zar Cuadernillo N°7 National Geographic
Curiosidades de la Ciencia Leonardo Moledo

Calendarios Juliano y Gregoriano Sus Modificaciones

Calendarios Juliano y Gregoriano Sus Modificaciones

¿Qué es lo que uno le pide a un año por venir? Por empezar que sea bueno, pero además que coincida con el año astronómico (365 días, 5 horas, 48 minutos y 46 segundos).

Al fin y al cabo, un año es el tiempo que tarda la Tierra en completar una órbita entera alrededor del Sol y una de las mínimas exigencias que debe tener un año de buena calidad es que su duración y la del viaje de la Tierra en su órbita sean iguales.

No se trata de un mero capricho: es interesante que las estaciones empiecen más o menos siempre en la misma fecha: que el otoño y la primavera (equinoccios) se produzcan el 21 de marzo y el 21 de septiembre, y que el comienzo del verano y del invierno (solsticios), el 21 de diciembre y de junio respectivamente.

El asunto de las estaciones era de vital importancia para las antiguas sociedades agrícolas que debían determinar las fechas de siembra y recolección.

Los primeros y primitivos calendarios lunares no conseguían encajar en el año solar: las discrepancias se corregían de tanto en tanto agregando un mes o algunos días extra.

Pero en el siglo I antes de Cristo, en Roma, los errores acumulados habían logrado que el año civil y el solar estuvieran desfasados en tres meses: el invierno empezaba en marzo y el otoño en diciembre, lo cual sin duda era bastante incómodo.

Julio César

Julio César introdujo la primera gran reforma. Impuso el uso universal del calendario solar en todo el mundo romano, fijó la duración del año en 365 días y seis horas, y para que esas seis horas de diferencia no se fueran acumulando se intercaló un día extra cada cuatro años: los años bisiestos tienen trescientos sesenta y seis días.

La reforma entró en vigencia el 10 de enero del año 45 a. de C. —805 de la fundación de Roma—. Con el tiempo, se impuso la costumbre de tomar como bisiestos los años que son múltiplos de cuatro.

Pero aquí no acabó la cosa, ya que el año juliano de 365 días y seis horas era un poco más largo (11 minutos y 14 segundos) que el año astronómico real, y otra vez los errores empezaron acumularse: a fines del siglo XVI las fechas estaban corridas alrededor de diez días, y la primavera empezaba el 11 de septiembre: el Papa Gregorio XIII emprendió una nueva reforma para corregir las discrepancias y obligar a las estaciones a empezar cuando deben: por un decreto pontificio de marzo de 1582, abolió el calendario juliano e impuso el calendario gregoriano.

Se cambió la fecha, corriéndola diez días: el 11 de septiembre (día en que se producía el equinoccio de primavera) se transformó “de facto” en el 21 de septiembre, con lo cual se eliminó el retraso acumulado en dieciséis siglos y el año civil y el astronómico volvieron a coincidir.

Pero además se modificó la regla de los años bisiestos: de ahí en adelante serían bisiestos aquellos anos que son múltiplos de cuatro, salvo que terminen en dos ceros.

De estos últimos son bisiestos sólo aquellos que sean múltiplos de cuatrocientos (como el 1600).

Los otros (como el 1700) no. Así, ni el 1800 ni el 1900 fueron años bisiestos. El año 2000, sin embargo, lo será (porque aunque termina en dos ceros es múltiplo de cuatrocientos): la formula permite eliminar tres días cada cuatro siglos, que es la diferencia que acumulaba el calendario juliano en ese lapso.

Papa Gregorio

Sin embargo, aun el “año gregoriano” con todas sus correcciones es 26 segundos más largo que el año astronómico, lo cual implica un día de diferencia cada 3323 años.

Para corregir esta pequeña discrepancia se ha propuesto sacar un día cada cuatro mil años de tal manera que el año 4000, el 8000 o el 16000 no sean bisiestos (aunque les toca).

En todo caso, de la longitud del año ocho mil, o dieciséis mil, no necesitamos preocuparnos ahora: los años que estamos usando tienen una duración más que aceptable.

Fuentes Consultadas:
Rasputín y los últimos días del zar Cuadernillo N°7 National Geographic
Curiosidades de la Ciencia Leonardo Moledo

Teoría Especial de la Relatividad Explicacion Sencilla y Breve

La Teoría Especial de la Relatividad
Explicación Sencilla y Breve

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

Trataré de explicarte la Teoría de Einstein como a un principiante  que no tiene ni la menor idea de conceptos físicos. Supongo que sabes algo de matemática elemental y que sólo tienes un gran interés por las ciencias y que estás dispuesto a leer con pasión estas páginas para entender someramente lo que pensó este genio hace 100 años y que revolucionó todo el saber científico de aquella época. ¡Cuando estés listo puedes empezar!

TEORÍA DE LA RELATIVIDAD: A finales del siglo XIX la comunidad científica sabía que había mucho por crear e inventar, aplicando los diversos principios  físicos descubiertos, tales como la electricidad, magnetismo y mecánica, pero estaban convencidos de que ya casi no quedaba nada nuevo por explicar, la naturaleza había sido descubierta en su totalidad y ahora sólo tenía que comenzar a aplicarse esos conocimientos a las  actividades del ser humano para su propio beneficio y bienestar. 

Hasta ese momento los cimientos de la física eran dos grandes columnas construidas por dos de los científicos más grandiosos de la ciencia. Una, la teoría de la mecánica, donde todos los conocimientos de cinemática y dinámica desde Aristóteles hasta Galileo, fueron condensados en una sola teoría, conocida hoy como la Mecánica Clásica, o Mecánica Newtoniana. La otra columna sustentaba la otra mitad de la física, referente a los efectos magnéticos y eléctricos conocidos desde los griegos hasta los últimos avances de Oersted, Faraday y Lenz. Toda esta información técnica fue unificada en la Teoría del Electromagnetismo del genial científico inglés James Maxwell.

Pero en realidad algo andaba mal, pues fueron apareciendo algunos nuevos cuestionamientos o efectos físicos desconocidos, y se pensó que “puliendo” un poco los conceptos del momento podrían explicarlos fácilmente, así que  casi fueron subestimados por gran parte de los investigadores de esa época.

Esos nuevos fenómenos y cuestiones fueron:

  1. a)El efecto fotoeléctrico
  2. b)La fórmula de la radiación de un cuerpo caliente
  3. c)Las rayas en los espectros de emisión del Hidrógeno

(Nota: esos efectos los puedes estudiar en este sitio)

Amigo, sigamos con lo nuestro….

El concepto de relatividad ya existía y se conocía como la Relatividad de Galileo, y prácticamente consistía en la suma algebraica  de velocidades según sea el sistema de referencia que se adopte. Por ejemplo, suponte que estás parado en el andén de una estación de trenes y en un instante pasa moviéndose hacia la derecha un vagón de pasajeros a la velocidad de 60 km/h con respecto a ti, que te encuentras detenido al costado de las vías. Para un pasajero sentado adentro del mismo vagón dicho tren se mueve a 0 Km/h, es decir, se encuentra detenido con respecto a ÉL, pues ambos se mueven juntos. Ese pasajero con respecto a TI, a qué velocidad de desplaza?… no hay dudas, pasa a la misma velocidad que el vagón, o sea a 60 km/h.

Supongamos ahora que un segundo pasajero se levanta de su asiento y comienza a caminar hacia la derecha a 10 km/h respecto del vagón. A qué velocidad se mueve éste respecto del pasajero sentado, creo que tampoco hay dudas, y es de 10 km./h. pues vagón-pasajero sentado pertenecen al mismo sistema.

Bien, pero ahora ese pasajero a qué velocidad se desplaza respecto a TI que te encuentras sobre  el andén? Para este caso, la velocidad del pasajero será de 70 Km./h, es decir, que como ambos tienen el mismo sentido de desplazamiento dichas velocidades se suman: 60+10=70.

Si otro pasajero se levanta pero camina hacia la izquierda a 15 km/h, ahora la velocidad del mismo respecto a tu posición, será de: 60-15=45, porque tienen sentidos contrarios.

Si se quiere determinar la velocidad del primer pasajero que se paró, respecto del segundo, es de: 10+15=25 Km/h. Es como si se estuvieran alejando uno del otro a razón de 25 km/h adentro del mismo vagón. En el supuesto caso que ambos ahora se acercaran hacia sus asientos nuevamente a la misma velocidad, también la velocidad de uno respecto del otro será de 10+15=25 Km./h., pero ahora acercándose uno al otro. Se puede usar el signo (-) para indicar que se alejan y el signo (+) para indicar que se acercan, solo es una convención.

Qué pasa si uno de ellos, mientras camina hacia la izquierda a 15 km./h, saca una pelotita y la lanza hacia la derecha a razón de 50 km/h hacia la derecha?Cuál será la velocidad de la pelotita respecto a TI, que sigues detenido en el andén? Bien, ahora (será) el cálculo es así: 60+50-15=95 Km./h.

60 del vagón hacia la derecha + 50 de la pelota hacia la derecha – 15 del pasajero hacia la izquierda=95

… Amigo, me sigues el conceptoEstás de acuerdo?.

Es tal como indicaba al inicio, la relatividad de Galileo, solo consiste en sumar velocidades usando el signo (+) o (-) según sea el sentido de las mismas (en realidad la suma es vectorial, pero para el alcance de esta explicación alcanza con este definición)

Si se invierte la situación y ahora el pasajero  desea determinar tu velocidad (que estás sobre el andén) respecto a su posición En este caso la situación es  exactamente la misma, para el pasajero, es él quien se encuentra detenido y es el andén quien se mueve acercándose hacia él a la velocidad de 60 km/h, es decir son dos situaciones totalmente equivalentes, cada observador tiene su propia visión de la situación, y cada uno tomará los mismos valores antes calculados.

Para comenzar a darle propiedades a estos conceptos, en física se dice que cada objeto en movimiento o detenido, tiene su propio marco de medición o de coordenadas, es decir, que cada observador estudia y mensura  la situación desde su propio sistema de referencia.

Se puede decir que cada pasajero tiene un sistema de referencia, la pelotita tiene otro, y tú que te encuentras detenido también tienes el tuyo. En el caso del pasajero sentado, el sistema será el mismo que el del vagón, porque ambos se mueven simultáneamente. Cada uno observa al resto desde su propia ubicación, y sumará o restará las velocidades según sea el sentido del movimiento de los diversos objetos estudiados. Cuando todos los sistemas de referencia se mueven respecto de los demás a velocidades uniformes, se dice que esos sistemas son inerciales.

Resumiendo todo lo antedicho, significa que cada observador tiene su propio y único sistema de referencia. Por ejemplo tú que estás en este momento leyendo este apunte, te encuentras en reposo con respecto al sistema de referencia Tierra, es decir, que tú con respecto al piso estás a cero de velocidad. Pero imagina ahora que alguien te está mirando desde la Luna.

Este observador va a  concluir que túestás girando sobre un eje a la velocidad de 1vuelta/día. Si seguimos alejándonos, y alguien se detiene en el Sol, dirá que tienes dos movimientos, uno sobre tu eje y otro alrededor del sol, con una velocidad que tarda 365 días en recorrer toda la órbita. Como puedes observar, cada observador desde su propio marco de referencia tiene sus propias conclusiones.

Unas líneas más arriba cuando hablábamos de los sistemas inerciales, es importante destacar, una de sus principales características, y consiste en que cada uno de esos sistemas las leyes de la física, como la conservación de la energía, de la cantidad de movimiento lineal y angular, etc. se cumplen para cualquier observador que esté dentro o fuera del sistema de referencia en estudio.

Por ejemplo, si adentro del vagón armo un laboratorio y realizo una serie de investigaciones de principios físicos, TODOS ELLOS SE VERIFICARÁN TAL COMO SI LOS ESTUVIESE HACIENDO SOBRE LA TIERRA. Lo mismo ocurre con la pelotita, si armo sobre ella otro laboratorio y realizo más experiencias, las mismas responderán a los principios físicos conocidos. Y así sobre cualquier sistema de referencia inercial que utilice, siempre en cada uno de ellos se verificarán las leyes de la mecánica y del electromagnetismo. Si nos ponemos a pensar esto no tiene nada raro, pues nuestro laboratorio de la Tierra, no es más que otro laboratorio armado sobre una pelotita en movimiento en algún rincón del universo.

Seguramente  si pasa alguna nave espacial cerca del planeta, y nos observa y mide nuestros experimentos obtendrá otros valores numéricos distintos a los nuestros, pero sus conclusiones físicas serán exactamente iguales a las nuestras. De todo lo antedicho, se puede concluir que no existe ningún sistema de referencia ideal, que en física se llama sistema absoluto. Es decir no existe un sistema que se encuentre totalmente en reposo y podamos referenciar todas las mediciones a ese sistema especial. No hay en el universo un sistema que sea dueño de la verdad absoluta de todas las mediciones, pues todos están en movimiento y cada uno tiene su propia realidad.

Volviendo ahora al inicio de este apunte, por allá en los primeros años del siglo XX, los científicos estaban muy concentrados tratando de determinar las diversas propiedades de la luz, tales como su velocidad exacta, su naturaleza, su energía, su medio de propagación, etc. En realidad nadie sabíacómohacía para llegar de un lugar a otro. Así como el sonido usa el aire para desplazarse, la luz qué medio usa para moverse? La primera respuesta fue que utiliza un medio que se encuentra en todo el universo, que es transparente, de baja densidad e inunda todos los huecos del espacio, este medio se llamo: ÉTER

Desde su propuesta, los físicos se pusieron a tratar de encontrarlo, porque seria fantástico encontrar algo que se encuentre fijo en todo el universo para tener una  referencia fija. Los primeros encargados de buscar este medio fueron dos grandes físicos experimentales, conocidos como Michelson-Morley, y así se conoce hasta nuestros días al experimento realizado. Básicamente el experimento consistía en emitir un rayo de luz en un sentido, por ejemplo, en dirección al movimiento de la tierra, y otro en sentido contrario, de tal manera que en un sentido la velocidad de la tierra se sume a la de la luz  y para el otro caso se reste (el primer rayo es mas veloz que el segundo).

Esos haces de luz, luego de recorrer una misma distancia, se hacen reflejar en unos espejos para que retornen al punto de partida. Como un rayo es más rápido que otro, y deben recorrer la misma distancia, entonces llegarán al punto de partida con un retardo de tiempo, pues uno demorará más que otro en recorrer ese mismo espacio.

El experimento se hizo de diversas formas, perfeccionando los métodos de medición del sistema. Se efectuaron distintas mediciones durantes varios años, JAMÁS SE PUDO MEDIR UNA DIFERENCIA, los haces siempre llegaban al mismo tiempo, la velocidad de la tierra no les influenciaba para nada.

Conclusión: EL ÉTER NO EXISTÍA, y entonces en qué se apoyaba la luz para trasladarse?. (En este sitio: El Fin de Eter)

Es aquí donde entra en escena un jovencito alemán, estudiante avanzado de ciencias físicas en Zurich, dotado de una genialidad especial, que le permitió dar una explicación clara y correcta de lo que realmente pasaba con la luz, y los objetos que se mueven a velocidad cercanas. Ese genial hombrecito, fue Albert Einstein, que en los momentos libres que tenia en su trabajo en una  oficina de patentes,  reformuló toda la física clásica de Newton conocida hasta ese momento. De aquí en más la mecánica clásica sería solo un caso particular de una mecánica más amplia y general, llamada más tarde Física Relativista, y que se aplica a las partículas que se mueven a grandes velocidades. A partir de ese momento Albert Eisntein pasaría a ser el físico más grande de la comunidad científica de todos los tiempos.

Einstein partió para su teoría física desde dos postulados que parecen inofensivos pero tienen todo el poder para explicar la naturaleza del universo (los postulados son afirmaciones sin demostración) Más tarde dichos postulados fueron demostrados con la experiencia.

Ellos son: 

1-La luz se mueve siempre a velocidad constante de 300.000 Km/seg, independientemente de la velocidad de la fuente emisor. 

2-No existe ningún experimento posible en una nave que nos permita saber si nos estamos moviendo.

Observa que el primer postulado ignora la relatividad de Galileo, donde se suman las velocidades. Por ejemplo, si sobre el tren un pasajero saca una linterna y envía un haz de luz, cuál será la velocidad del haz respecto a ti que estás detenido en el andén?. Según Galileo seria: 300000+ la velocidad del tren.

Pues bien, Albert , pidiendo perdón a Newton, niega toda esa teoría y propone una nueva a partir de estos postulados. A partir de los postulados que Einstein había formulado, la velocidad de la luz siempre seria constante de 300.000 Km/s  “salga a la velocidad que salga”, no interesa la velocidad de la fuente. Además la luz no necesita de un medio material para transportarse, se mueve a través del vacío.

Si la velocidad de la luz dependiera de la velocidad del emisor, se tendría una forma de determinar el movimiento uniforme, experiencia que negaría al segundo postulado. Por ejemplo, si hacemos un ejercicio mental, que tanto le gustaba a Albert, suponte que vas sobre una nave que va aumentando rápidamente su velocidad y tú tienes un espejo en la mano donde te puedes ver reflejado.  Resulta que cuando viajes a una velocidad superior a la de la luz, tu cara desaparecerá del espejo porque ya la luz que tu rostro irradia no lo alcanzará.

Otra situación similar para reflexionar es la siguiente: suponte parado al fondo de una calle desde donde puedes observar la siguiente bocacalle a una cuadra de distancia. Hacia ti viene un auto a gran velocidad y por la calle perpendicular se le acerca una motocicleta en el mismo instante de cruzarse, de tal manera que el auto debe hacer una “S” para evitar la colisión. En este caso, si las velocidades se sumaran, la velocidad de la luz que emite el auto te llegaría antes que la de la moto ya que éste se dirige hacia ti. Por lo tanto verías al automóvil hacer una “S en el aire” si saber por qué, ya que la luz de la moto aún no te ha llegado.

Estos últimos ejemplos son creaciones mentales, pero hay casos reales en el universo, como el moviendo de estrellas,  donde se ha determinado fehacientemente que los postulados anteriores se cumplen y que la velocidad de una onda es siempre constante independiente del centro emisor.

En 1905, Einstein, que años mas tarde recordaría que pasó por  uno de los momentos másduros y pesados de su vida científica, tuvo que aceptar que cada sistema de referencia tiene su propio espacio-tiempo, y que la idea de un tiempo absoluto como lo había planteado dos siglos antes Newton estaba errada. Matemáticamente la velocidad es igual al espacio recorrido sobre el tiempo empleado. Pero ahora bien, si la velocidad de la luz siempre debía ser la misma, no quedaba duda que el núcleo de la cuestión estaba en esos dos rígidos conceptos,  y que el sentido común no nos dejaba analizarlos, porque eran obvios. Cómo la hora sería distinta, según  la mida detenido en la vereda o subido a una carreta?. No es eso ridículo, sin sentido.

Ahora bien apliquemos esos nuevos conceptos nacidos de los postulados de Albert, a otro ejercicio mental. Nuevamente recurriremos a dos naves espaciales en el medio del oscuro vacío en un rinconcito del universo, a miles de kilómetros de nuestra querida Tierra. Suponte que una nave tiene un reloj de luz, una especie de linterna que emite un rayo de luz hacia arriba y al llegar al techo se refleja en un espejo, para volver al punto de partida. Supongamos que el tiempo transcurrido desde la salida del rayo hasta su regreso es de 1 segundo. Para un astronauta adentro de esa nave, observará que la luz sale verticalmente hacia arriba, llega al espejo y regresa al origen, es decir, recorre dos veces la altura de la nave en un segundo. Ese astronauta puedes ser tú es este mismo momento, donde ves subir y bajar un rayo de luz, a razón de 1 seg. por ciclo.

Ahora la segunda nave también tiene instalado exactamente el mismo sistema de reloj, con igual tiempo por ciclo y ella pasa a tu costado a una velocidad v de por ejemplo 10.000 km/h.  Mi pregunta es la siguiente: cómo ves la trayectoria del rayo de luz desde tu nave? No crees que así como ves subir o bajar al rayo, también lo ves , simultáneamente, avanzar con la nave? Qué crees,… no tengo razón?. Realmente es así, el rayo sube y se desplaza horizontalmente, de tal forma que es movimiento compuesto es una línea inclinada hacia arriba que nace en el reloj.

Para el astronauta de la nave la luz sólo sube y baja, pero para ti “que estás fuera de su sistema de referencia” el rayo hace otro recorrido. Por lo antedicho, el rayo recorre “para ti que estás afuera” una distancia mayor que la doble altura que observa el astronauta interior a la nave. Si ahora aplicas el primer postulado de Einstein, donde afirma que la velocidad de la luz es siempre la misma, podrás concluir que  el tiempo que tarda la luz desde que sale del reloj hasta que regresa es mayor que el que tú mides en tu propia nave que sólo sube y baja verticalmente. Por lo tanto, cuando mides el tiempo en una nave que se mueve con respecto a ti podrás observar que dicho tiempo se hace más lento, porque cuando en tu nave mides un segundo en la otra pasa una fracción más. Resumiendo, el tiempo trascurrido en un sistema (nave) que se mueve es siempre más lento, es decir, los relojes atrasan.

Si analizas la situación, pero ahora invertida, notarás que el segundo astronauta, el que se mueve en el caso anterior, observará exactamente lo mismo que tú. Él observará que su rayo sólo baja y sube en un segundo, y que es el de la otra nave el que recorre más distancia, por lo tanto concluirá que es  su reloj el que anda bien, pero el de la otra nave está atrasando.

Algo parecido ocurre con la toma de mediciones de distancias, que es consecuencia del atraso del tiempo. Si el espacio recorrido es igual a la velocidad por el tiempo empleado, notarás fácilmente que cuando calculamos la distacia recorrida por un móvil, el espacio será distinto según se tome el tiempo de un sistema de referencia u otro.  Si estoy detenido y observo pasar la nave a cierta velocidad v, el espacio en mi sistema será igual a dicha velocidad por el tiempo t. Pero resulta que ese tiempo t es menor en el sistema en movimiento, por lo tanto la nave recorrerá menos distancia en su sistema, que el calculado para el nuestro.

Resumiendo, se dice que las distancias se acortan.

Explicacion Matemática de la Teoría:

Es sólo una consideración intuítiva, en realidad Albert inició sus deducciones apoyandosé en las transformaciones de Lorentz.

Sino entiendes las fórmulas y deducciones enviame un mail que recibirás mas explicaciones.

Nota que el tiempo Delta_t es mayor a Delta_t’ en un factor gamma.

Qué significa?

Que cuando la luz en tu reloj, demore por ejemplo 1seg. entre subir y bajar, tu observarás que la luz en la otra nave demorará más en recorrer esa trayectoria triangular. Cuando haces los cálculos observarás que ese tiempo se amplía en un factor gamma (que es mayor que 1) respecto a tu tiempo propio.

Este factor será cada vez mayor cuanto mayor sea la velocidad de la nave.

Suponiendo que v=0.8c (80% de c), el tiempo en la otra nave se incrementará en un 66%, respecto del tuyo, por lo tanto, medirás: 1.66 seg.

Cuando la velocidad llegue a la velocidad de la luz, gamma será infinito.

Un Caso Real:

En la atmósfera, a unos 10.000 m. aproximadamente de altura, aparecen partículas elementales llamada muones que se desplazan a una velocidad muy cercana a la de luz, a unos 0.998 de c. Esa partículas son muy inestables y en reposo tienen un tiempo de vida de 0,00000002 s. (2×10-8), es decir sumamente corto.

Bien, si se calcula sin tener en cuenta la física relativista, se observara que al multiplicar el tiempo de vida por su velocidad, los muones sólo recorrerían unos 600 metros, antes de desaparecer,  por lo que ninguno podría llegar a la superficie de la Tierra.

Experiencias realizadas en tierra, han confirmado la aparición de millones de ellos, contrariando a los cálculos físicos  aplicados. Justamente ahí surge el error, porque en el sistema del muon, a esa velocidad, el tiempo en el sistema Tierra es unas 15 veces superior, y ese es el tiempo que hay tomar para efectuar los cálculos (15 x 2 microsegundos=30).

Con ese nuevo tiempo los 600 m iniciales se transformarían en 9000 m. y explicaría por qué llegan a la superficie. Esos 9000 en el sistema Tierra, se reducen a 600 m. en el sistema muon, porque ahora se debe usar el tiempo del muon.

Como se puede observar las diferencias de tiempo y espacio están directamente relacionadas con la velocidad del sistema. A mayor velocidad mayores diferencias, pero sólo notables cuando la velocidad se aproxima a la de la luz. Cuando la velocidad es baja, inclusive, por ejemplo, la velocidad de un cohete al salir del planeta, es de unos 40.000 km/h se la considera baja y los efectos relativistas no pueden considerarse, porque prácticamente no existen.

Para estas velocidades la teoría de Newton se aplica con total eficacia, sin dudar en que podamos caer en errores. Las fórmulas que más abajo vamos a determinar cuando se aplican para ejemplos con bajas velocidades, se transforman automáticamente en las fórmulas obtenidas de la Mecánica de Newton, por lo que esta última pasa a ser un caso especial de unamás general, conocida hoy como la Teoría Especial de la Relatividad.

Matemáticamente, las fórmulas de Tiempo y Espacio se pueden obtener usando el ejemplo anterior de las naves en el espacio. Lógicamente Einstein no las obtuvo así, para ello se valió de unas transformadas conocidas como de Lorentz, que fue otro científico contemporáneo que estaba estudiando el tema. La matemática utilizada por el científico no fue tan elemental, pero tampoco se apoyó en la más avanzada matemática conocida en esa época.

No fue así para la resolución de las ecuaciones que explican la Teoría General de Relatividad, cuando el movimiento es acelerado, donde tuvo que auxiliarse de herramientas actualizadas del análisis matemático. Aplicar dichas ecuaciones a distintas situaciones físicas genera más de un dolor de cabeza a los avanzados estudiantes de ciencias exactas, cuando deben realizar sus prácticas.

Como te he dicho, Einstein encontró que la teoría de Newton «estaba mal» y eso no significó que las cosas comenzaran a caerse para arriba. Incluso si decimos que la teoría de Newton es «incorrecta», da la impresión de que entonces la teoría de Einstein es la «correcta».  Mañana mismo o dentro de algunos años, un hipotético físico, por ejemplo Jacob Newenstein, puede descubrir que la teoría de Einstein «está mal» en serio. Pero aunque eso pase, las cosas no van a empezar a caerse contra el techo, ni a moverse más rápido que la luz.  

Einstein simplemente elaboró una descripción de la naturaleza más precisa que la de Newton, y es posible que alguien halle una aún mejor. Pero la naturaleza no va a modificar su comportamiento para satisfacer la teoría de algún físico: es el científico quien deberá exprimir sus sesos para que su teoría describa a la naturaleza mejor que todas las teorías anteriores.

Corrección de Textos y Ortografía: Ernesto Eracher.

Experimento de Michelson Morley Resumen Explicación Buscando el Eter

Resumen del Experimento de Michelson Morley
Explicación de la Búsqueda del Éter

Todos oímos hablar alguna vez de Einstein y su teoría de la relatividad, que E=mc², que la velocidad de la luz es constante, y un montón de otras cosas que suenan lindo pero no significan nada. Para poder entender por qué estos términos siguen vigentes luego de casi 100 años de inventados, primero hay que hacer un poco de historia.

El año 1905 quedará como el annus mirabilis (año prodigioso) de Einstein, el año en que este físico de 26 años irrumpió en el mundo de la física, literalmente desde la nada, publicando cuatro importantísimos artículos científicos, cada uno de los cuales podría considerarse como un gran descubrimiento científico.

Estos artículos, de los que el más significativo fue el que exponía la teoría especial de la relatividad, aparecieron todos en Annalen der Physik, la principal revista de física de Alemania.

Todos los artículos que se enviaban debían ser evaluados antes de publicarse; puesto que las credenciales de Einstein como físico estaban en orden y como utilizaba el lenguaje de las matemáticas y la física para expresar sus ideas, los físicos que evaluaron su trabajo lo consideraron adecuado para su publicación, aunque algunos de ellos tuvieran dificultades para comprenderlo, y realmente creyeron que la teoría de la relatividad no era correcta.

Ver Biografía de Albert Einstein

Introducción Histórica:

La física clásica comenzó allá por el año 1688 con un libro publicado por el británico Isaac Newton (llamado Principia Mathematica o algo así), en el cual especificaba 3 leyes de movimiento (todo cuerpo se mueve en línea recta y a velocidad constante cuando no es afectado por ninguna fuerza, cuando se aplica una fuerza sobre un cuerpo este ejerce la misma fuerza pero en dirección contraria, y que la aceleración producida por una fuerza neta en un objeto es directamente proporcional a la magnitud de la fuerza e inversamente proporcional a la masa) y que también contenía la ley de gravitación de Newton (dos cuerpos son atraídos entre sí en proporción inversa al cuadrado de la distancia).

Esto que puede sonar complicado en realidad se puede resumir en unas pocas ecuaciones.

Con estas cuatro simples leyes se pudo explicar por primera vez hechos aparentemente tan variados como el por qué las manzanas se caen de los árboles y por qué la Luna gira alrededor de la Tierra.

Newton también realizó observaciones sobre la naturaleza de la luz, alegando que la misma estaba compuesta de partículas («corpúsculos») y rechazando la idea de que la luz estaba compuesta de ondas, ya que las ondas necesitan un medio por el cual desplazarse (por ejemplo, el sonido se desplaza por el aire, o cuando tiramos una piedra al agua se ve que se generan ondas en el agua justo en el lugar donde tiramos una piedra) y la luz se desplaza por el vacío del espacio.

Si deseas puedes continuar hacia abajo con las conclusiones de la teoría  

El experimento Michelson-Morley

Pero la ciencia fue avanzando, y los instrumentos de medición fueron mejorando. Los datos obtenidos por los científicos demostraban que la luz se comportaba como una onda, ero si esto ocurría, entonces debería haber una «cosa» no detectada hasta el momento, que cubre todo el universo, por la cual se desplaza la luz.

A esta cosa indetectable hasta entonces se la denominó éter lumínico. La tierra y todos los objetos, incluyendo la luz, se deberían desplazar a través del éter.

Un día de 1881, un señor llamado Michelson realizó un experimento con el fin de calcular la velocidad de la tierra cuando se mueve a través del éter (experimento de Michelson-Morley).

Para calcular esto, disparó varios rayos de luz en varias direcciones y calculó el tiempo que tardaban en regresar con un aparato inventado por él llamado interferómetro.

Teóricamente, los rayos de luz que menos tardaran en regresar indicarían la dirección en la que se mueve la tierra dentro del éter (o sea, indicarían el «adelante»), mientras que los que más tardaran en llegar indicarían el «arriba».

Grande fue la sorpresa de este tipo cuando no descubrió ninguna diferencia en los tiempos de recorrido de la luz: la velocidad de la luz era constante midiera como se la midiera.

Esto significaba una cosa: la luz se movía a una velocidad constante… ¿pero con respecto a qué? Según la teoría de newton, si yo voy corriendo a 20 km/h, la velocidad de la luz que yo emito sería 20km/h mayor de la luz que emitiría si estoy quieto. Pero no, la luz parecía tener siempre la velocidad de 299.792,458 km/s, independientemente de la velocidad de la tierra.

ESQUEMA DEL EXPERIMENTO: Demostrada ya la existencia de las ondas, quedaba pendiente el delicado problema del éter: el medio en el que, según Maxwell, se propagaban dichas ondas.

Como, por definición, era un medio inmaterial, no había forma de observarlo directamente. Fue entonces cuando se le ocurrió al físico norteamericano Albert Abraham Michelson (1852-1931) una idea realmente «cósmica»: puesto que la Tierra se halla en movimiento con relación a las estrellas (su velocidad orbital es de 30 km/s), este desplazamiento debería traducirse en la existencia de un «viento de éter», esto es, en

esquema experimento de michelson morley

Esquema del Experimento de Michelson-Morley.
Un rayo luminoso incide sobre un espejo semitransparente. El rayo reflejado va a parar a un segundo espejo; el que lo atraviesa sigue su trayecto rectilíneo y va a reflejarse en un tercer espejo. Ambos rayos, superpuestos, alcanzan el ojo del observador. Éste ve, en general, unas franjas de interferencias, alternativamente claras y oscuras. Como los dos brazos del dispositivo tienen la misma longitud, se puede utilizar el eventual desplazamiento de las franjas para detectar diferencias entre las velocidades de la luz en las dos direcciones. Michelson y Morley confiaban en que podrían medir alguna diferencia entre la velocidad de la luz propagándose en dirección norte-sur y la de la luz propagándose en dirección este-oeste. Pero no hallaron ninguna diferencia.

Teoría de la relatividad

Acá apareció un simple profesor alemán que trabajaba en una oficina de patentes en Suiza. En el año 1905 publicó un ensayo titulado «Sobre la electrodinámica de los cuerpos en movimiento» en el cual suponía que la velocidad de la luz es la misma desde donde se la mida: la velocidad de la luz es igual si la mido cuando estoy parado o cuando estoy yendo a una velocidad de 100.000 km/seg o a cualquier otra velocidad, un hecho que puede parecer antinatural. Decir esto contradecía las leyes de Newton, que estaban vigentes desde hacía más de doscientos años.

Esta es la base de la teoría de la relatividad: todos los fenómenos físicos se producen del mismo modo en un marco de referencia inerte (por «inerte» se quiere decir «a velocidad constante»). O sea, suponiendo que esté en una habitación sin ventanas ni otro contacto con el exterior, sería imposible determinar si estoy en movimiento o no, ya que cualquier experimento que realice dará el mismo resultado independientemente del movimiento. Obviamente asumir esto les costó a los científicos, la mayoría hasta se rehusaba a aceptar la teoría.

Pero Einsten no se inmutó, y en 1915 publicó una extensión a su teoría de la relatividad (conocida como la teoría general de la relatividad) en la que tomaba en cuenta los efectos de la gravedad y otras yerbas. Hasta ahí las teorías de Einstein eran sólo eso: teorías.

Las manzanas se seguían cayendo de los árboles, la luna seguía girando sobre la Tierra, lo demás poco importaba. Pero en 1919 un eclipse solar permitió comprobar que la luz era desviada por campos gravitatorios fuertes (en este caso el del Sol), justo como la teoría de Einstein y no la de Newton había predicho. El nombre Albert Einstein se volvió famoso de la noche a la mañana. Su teoría había logrado explicar la realidad mejor que la teoría de Newton.

Algunas consecuencias de la teoría de la relatividad

Para aceptar que la velocidad de la luz es constante desde donde se la mida, Einstein se vio obligado a aceptar algunas otras cosas raras, como por ejemplo:

     Nada puede viajar más rápido que la luz: La velocidad de la luz es el límite de velocidad del Universo.

A mayor velocidad, el tiempo pasa más lento: Si, esto suena muy extraño. Si tengo dos relojes perfectamente sincronizados, y pongo uno en un cohete supersónico, cuando el reloj vuelva a mis manos se notará que la hora que marca este reloj será inferior a la hora que marca el reloj que no se movió. Pero este paso más lento del tiempo es sólo aparente, si una persona viajara junto con el reloj no le sería posible percibir ninguna alteración en el paso del tiempo (el paso del tiempo en este caso es «relativo» al observador). El paso del tiempo se hace cada vez más lento a medida que uno se acerca a la velocidad de la luz, hasta hacerse 0 justo cuando se alcanza dicha velocidad. Por esto, se puede decir que la luz no envejeció ni un segundo desde el Big Bang.

A mayor velocidad, se produce un encogimiento en la dirección del movimiento: Por ej., si yo tengo una regla de 30 cm y de algún modo logro que viaje a 260.000 km/s (0,866 veces la velocidad de la luz) veré que la regla tiene ahora una longitud de… ¡15 cm!. De nuevo, este cambio es aparente: si yo pudiera propulsarme hasta alcanzar la misma velocidad de la regla, vería que vuelve a tener 30 cm.

e=mc2: Probablemente la ecuación más famosa de la física moderna. Esto quiere decir nada más y nada menos que la materia es una forma de energía y viceversa, donde e = energía, m = masa, c = velocidad de la luz. La masa y la energía se pueden transformar libremente. Este fue el principio de la reacción nuclear y la bomba atómica. Por ejemplo, si se convierte un gramo de masa en energía de acuerdo a la famosa ecuación, se estaría obteniendo suficiente energía como para darle a una familia entera electricidad suficiente por 10 años.   

Bueno, esta es una introducción a este interesante tema. Si algunas partes suenan confusas, entiéndanme, algunas cosas son realmente difíciles de explicar :

 Si quieren más información, acá les tiro un par de lugares donde pueden consultar:

– El libro «Nueva Guía para la Ciencia» de Isaac Asimov tiene una demostración de  e=mc2 que se entiende con conocimientos básicos de álgebra.

Esta es sola una de las miles que se encuentran explicando el tema, una gran mayoría son     muy buenas  y hacen que estos revolucionarios conceptos sean «digeridos» por los más profanos.

albert einstein

1905:Año Maravilloso El Efecto Fotoeléctrico El Movimiento Browiano Antecedentes de la Física – Implicancias de la Teoría  –  Explicación de la Teoría

La Conjetura de Goldbach Los Numeros Primos y los Pares

La Conjetura de Goldbach  – Relación: Números Primos y los Pares

El 7 de junio de 1742 , ósea, hace unos 260 años, Christian Goldbach le escribió una carta a Leonhard Euler (uno de los más grandes matemáticos de todos los tiempos), sugiriéndole que pensara una demostración para la siguiente afirmación porque a él no se le ocurría:

“Todo número par positivo, mayor que dos, se puede escribir como la suma de dos números primos.”

¿Qué es un número primo? Es aquel que sólo es divisible por sí mismo y por uno. Por ejemplo, 2, 3, 5, 7 y 11 son números primos. Pero 6 y 15 no lo son. Seis no es primo porque es divisible por 2 y por 3, mientras que 15 no lo es porque es divisible por 3 y por 5 (además de 1 y 15). Ah,… además, el número uno no se considera primo. 

Un matemático que cree que una afirmación es cierta, pero esa veracidad no se puede probar, tiene la opción de presentarla como una conjetura. El último Teorema de Fermat  no es una conjetura, pues Fermat había manifestado inequívocamente que poseía la prueba, aunque, claro está, pudo haberse equivocado.

Para la matemática, la expresión conjetura refiere a una afirmación que se supone cierta, pero que no fue probada ni refutada hasta la fecha,para una lista de conjeturas conocidas.

La más famosa conjetura real es la planteada por un matemático alemán que trabajaba en Rusia, Christian Goldbach (1690-1764). Para explicarla, volvamos a decir que un número primo es cualquiera mayor que 1 y sólo divisible por sí mismo y por 1. Existen infinitos números primos. Los primeros son 2, 3, 5, 7, 11, 13, 17, 19 y 23.

A Goldbach le parecía que cualquier número par mayor que 2 podía expresarse como la suma de dos primos (a veces de más de una manera).

Así, por ejemplo:

4 = 2+2; 6 = 3+3; 8 = 5+3; 10 = 5+5; 12 = 7+5; 14 = 7+7; 16 = 11+5;

18 = 13+5; 20 = 13+7; 22 = 11+ 11; 24 = 13+11; 26 = 13+13; 28= 23+5;

30 = 23+7; 32 = 19+13; 34 = 17+17; 36 = 23+13; 38 = 19+19;

40 = 23+17; 42 = 23+19; etc.

Ningún matemático ha hallado jamás número par alguno mayor que 2, que no pudiera expresarse mediante la suma de dos números primos. Todo matemático está convencido de que no existe tal número, y que la conjetura de Goldbach es cierta. Sin embargo, nadie ha sido capaz de probar la conjetura.

Para terminar, quiero dejar planteado otra conjetura también sugerida por Goldbach, conocida con el nombre de “La Conjetura Impar de Goldbach”, que dice que todo número impar mayor que cinco se escribe como la suma de tres números primos. Al día de hoy también permanece como un problema abierto de la matemática, aunque se sabe que se cumple hasta números impares de siete millones de dígitos.

Si bien toda conjetura puede resultar falsa, la opinión “educada” de los expertos en teoría de números es que lo que pensó Goldbach es cierto y sólo es una cuestión de tiempo hasta que aparezca la demostración. (Adrián Paenza de su libro Matemáticas Estas Ahi?)

Cristian Goldbach

Novedades 4/2014: Enlace de la publicación en la revista World Open Journal of Advance Mathematics, sobre la solución de la Conjetura de Goldbach, elaborado junto al Sr. CN y  PhD Carlos Andrade

 Demostración de la Conjetura de Goldbach
por José William Porras

Aplicaciones Energia Atomica despues de la Guerra Mundial Historia

Historia Evolución Tecnológica Post Guerra Mundial: La Energía Atómica

Aunque fue la culminación de varios años de intensas investigaciones, la explosión de las primeras bombas atómicas constituyó para el mundo entero un acontecimiento totalmente inesperado. De inmediato se hizo evidente, sin embargo, que era posible seguir dos líneas de desarrollo.

Una de ellas era puramente militar: cada una de las grandes potencias tenía que demostrar su capacidad de construir independientemente la nueva arma, si quería mantener su credibilidad militar. En aquel momento, la única forma de defensa parecía ser la capacidad demostrable de recurrir a represalias del mismo tipo.

La segunda línea de desarrollo era la posibilidad de utilizar esta fuente totalmente nueva de energía no de manera descontrolada, como en la bomba, sino mediante el desarrollo de tecnologías completamente innovadoras que la controlaran y la pusieran al servicio de la industria.

Aplicaciones Energia Atomica

De hecho, los dos aspectos estaban estrechamente interrelacionados, como lo demuestran los acontecimientos en el Reino Unido. En ese país, hasta 1951, el programa de energía atómica había estado orientado en gran medida a los aspectos militares, que imponían la necesidad de producir plutonio.

A partir del mencionado año, las dos líneas comenzaron a acercarse dado que las pilas atómicas diseñadas para producir plutonio también se podían utilizar para generar energía eléctrica. Una de ellas fue la denominada Pippa, que producía plutonio y generaba electricidad como subproducto. Esta pila fue la base de energía de Calder Hall, la primera central nuclear importante del mundo, que se inauguró en 1956.

Sorprendentemente, teniendo en cuenta la enorme cantidad de dinero y trabajo que habían dedicado al proyecto Manhattan, los norteamericanos demostraron escaso interés por el desarrollo de la energía atómica como fuente controlada de electricidad en los primeros años de la posguerra. Sólo la marina norteamericana se dedicó a estudiar seriamente el tema, al reconocer su enorme potencial para mantener a las naves indefinidamente en alta mar, sin necesidad de repostar.

En 1955 se construyó el submarino Nautilus, primero de una larga serie de naves subacuáticas propulsadas por energía atómica. En 1959, los soviéticos produjeron el rompehielos nuclear Lenin. Sin embargo, tan sólo en 1957 se inauguró la primera central nuclear de Estados Unidos, en Shippingport, Pennsylvania.

También en este caso, los soviéticos se habían colocado a la cabeza, con la entrada en funcionamiento en 1954, en Obninsk (cerca de Moscú), de una pequeña central nuclear que utilizaba uranio como combustible y grafito como moderador. El calor generado en el núcleo del reactor pasaba en primer lugar a un sistema de circuito cerrado de agua a alta presión y luego era transferido a un sistema independiente de agua, que generaba el vapor necesario para poner en marcha las turbinas.

Un sistema en cierto modo similar de refrigeración por agua fue desarrollado por Estados Unidos para el reactor de Shippingport y por Canadá para los reactores Candu, construidos en los años 50.

La refrigeración por agua tiene la ventaja de ser sencilla y barata, pero tiene también sus inconvenientes. En caso de emergencia (por ejemplo, demasiado calor generado en el núcleo), el agua se convertiría rápidamente en vapor y dejaría de cumplir con su vital función de refrigeración. Por este motivo, Francia y el Reino Unido se inclinaron por los reactores refrigerados con gas, ya que éste no cambia de estado por mucho que se caliente. El primer reactor del Reino Unido, el de Calder Hall, tenía un sistema de refrigeración a gas.

Mientras tanto, en los años 50, se estaba desarrollando un nuevo tipo de reactor que utilizaba como combustible una combinación de uranio-238 y plutonio-239. Los neutrones generados por el plutonio interactúan con el uranio y producen más plutonio; de esta forma se consigue varias veces más energía que en los reactores convencionales con una misma cantidad de uranio.

El primer reactor de este tipo fue inaugurado en la localidad escocesa de Dounreay en 1959, y la central nuclear Phénix, de características similares, entró en funcionamiento poco después en Marcoule, Francia. Al finalizar la década de los años 40, se había dedicado considerable atención a la posibilidad de utilizar otro tipo distinto de refrigerante para los reactores. Se trataba del metal sodio, que funde a 98 °C, ligeramente por debajo del punto de ebullición del agua y muy por debajo de la temperatura normal de operación de los reactores.

Esquema de un Reactor Nuclear

Desde el punto de vista termodinámico, viene a constituir un medio interesante de transferencia del calor, pero presenta varios inconvenientes. Es un elemento muy reactivo químicamente, capaz de provocar corrosión en la mayoría de los materiales con los que entra en contacto. Más concretamente, reacciona de forma explosiva con el agua.

Precisamente esta propiedad lo descartó como refrigerante para los reactores submarinos (tema que interesaba a la marina norteamericana), aunque los Laboratorios Argonne, cerca de Chicago, y General Electric, en Schenectady, habían realizado varios estudios.

La Conferencia atómica de 1955
Al final de la Segunda Guerra Mundial, Estados Unidos era la única nación que poseía la bomba atómica. Durante casi una década trató de mantener d «secreto» y, por medio de unas leyes draconianas y una reserva sin precedentes en tiempos de paz, intentó evitar que se propagaran los conocimientos de la tecnología nuclear. Sin embargo, en 1949 la Unión Soviética hizo estallar su primera bomba atómica.

Cuando Eisenhower ocupó el cargo de presidente de los Estados Unidos en 1952, al comprender que era inevitable que se propagaran los conocimientos nucleares, decidió adoptar dos iniciativas con el fin de internacionalizar la energía atómica y garantizar que la difusión de esta tecnología fuera aplicada con fines pacíficos y no militares.

En su famosa alocución titulada «Átomos para la paz», pronunciada ante la Asamblea General de las Naciones Unidas en 1953, propuso la fundación de la Agencia Internacional de Energía Atómica con el propósito de controlar la aplicación pacífica de dicha tecnología. La segunda iniciativa de los Estados Unidos llevó a la Conferencia Internacional sobre Usos Pacíficos de la Energía Atómica, celebrada en el Palais des Nations, en Ginebra, entre el 8 y el 20 de agosto de 1955.

En la conferencia fueron presentadas unas 450 ponencias científicas. Setenta y tres Estados y ocho agencias especializadas de las Naciones Unidas enviaron a sus respectivas delegaciones, las cuales estaban formadas por un total de 1.428 delegados, aparte de los 350 observadores procedentes en su mayor parte de universidades y empresas comerciales.

El extraordinario éxito de la conferencia, a la que asistieron 905 periodistas y en la que participaron numerosos expertos en ciencia nuclear, se debió a su carácter técnico más que político. Los científicos procedentes de diversos países, los cuales habían estado trabajando aisladamente, pudieron comprobar que básicamente habían llegado a las mismas conclusiones.

La ciencia y la tecnología han hecho grandes progresos desde 1955 y muchos países han comprobado que las ilimitadas perspectivas de una tecnología nuclear pacífica no eran tan benéficas como habían supuesto en un principio. Pero el intercambio de información entre Oriente y Occidente, el Norte y el Sur, contribuyó a aliviar las tensiones internacionales y sentó las bases para la creación de la Agencia Internacional de Energía Atómica, la cual está funcionando con éxito desde 1957, fecha de su fundación.

Hallar Coordenadas Geográficas de un Lugar Latitud y Longitud Terrestre

Hallar Coordenadas Geográficas de un lugar Latitud y Longitud

Coordenadas geográficas: latitud y longitud

Para conocer latitud y longitud de un punto de la superficie de la Tierra, primero tenemos que conocer algunos conceptos que nos ayudarán a comprender mejor el tema.

Observa en la figura que Tierra está recorrida por líneas imaginarias que forman una red como la de los pescadores; las líneas que corren en sentido vertical se llaman meridianos y las otras, en sentido horizontal, son los paralelos.

hallar las coordendas geograficas

De todos ellos interesa nombrar al Ecuador, que es el paralelo mayor y divide la Tierra en dos partes iguales llamadas hemisferios Norte (boreal o septentrional) y Sur (austral o meridional); el meridiano de Greenwich, que la divide en dos partes iguales, pero en este caso determina los hemisferios Este (oriental) y Oeste (occidental).

Hacemos referencia especial al Ecuador y a Greenwich porque con ellos se determina la latitud y longitud respectivamente.

Entonces ahora podemos definir que la latitud de un punto en la superficie terrestre, es la distancia que existe entre ese punto y el Ecuador.

Se mide en grados y varía de 0° a 90° Norte y de 0° a 90° Sur, siendo 0° el Ecuador y 90° los polos.

La longitud, en cambio, es la distancia que existe entre el punto de la superficie terrestre y el meridiano de Greenwich. También se mide en grados, y varía entre 0° y 180° Este y 0° y 180° Oeste.

Todos los puntos de la superficie terrestre pueden localizarse por su latitud y longitud. Los que se encuentran sobre un mismo paralelo tienen la misma latitud, por eso para localizarlos exactamente se debe establecer también

El Sistema de Coordenadas Geográficas determina todas las posiciones de la superficie terrestre utilizando las dos coordenadas angulares de un sistema de coordenadas esféricas que está alineado con el eje de rotación de la Tierra. Este define dos ángulos medidos desde el centro de la Tierra: 

La latitud mide el ángulo entre cualquier punto y el ecuador. Las líneas de latitud se llaman paralelos y son círculos paralelos al ecuador en la superficie de la Tierra.

La longitud mide el ángulo a lo largo del ecuador desde cualquier punto de la Tierra. Se acepta que Greenwich en Londres es la longitud 0 en la mayoría de las sociedades modernas. Las líneas de longitud son círculos máximos que pasan por los polos y se llaman meridianos.

Combinando estos dos ángulos, se puede expresar la posición de cualquier punto de la superficie de la Tierra.

Por ejemplo, Baltimore, Maryland (en los Estados Unidos), tiene latitud 39,3 grados norte, y longitud 76,6 grados oeste. Así un vector dibujado desde el centro de la tierra al punto 39,3 grados norte del ecuador y 76,6 grados al oeste de Greenwich pasará por Baltimore.