El Péndulo de Foucault

El Cobalto Propiedades, Características y Aplicaciones

El Cobalto Propiedades, Características y Aplicaciones

Algunos compuestos de cobalto constituyen pigmentos azules fijos, de gran calidad, que han sido empleados durante 4.000 años por diversas civilizaciones. Los asirio-babilonios usaron pinturas de cobalto en sus pequeñas estatuas talladas en madera, y, en tiempos más recientes, los compuestos de cobalto se han utilizado para decorar en azul la porcelana china de Delft, y para teñir de azul oscuro algunos vidrios.

Mineral de Cobalto

A pesar de que el cobalto es todavía valioso como pigmento, su valor en este sentido se ha visto eclipsado, durante los últimos años, por las propiedades del metal en sí, ya que el cobalto es ferromagnéticó, no tan intensamente magnético como el hierro, pero mucho más que la mayoría del resto de los metales.

Este hecho no es sorprendente, puesto que la estructura de los átomos de hierro y cobalto es muy similar. Los imanes fabricados de hierro dulce pierden rápidamente el magnetismo, pero si el hierro se alea con cobalto, la aleación resultante conserva esta propiedad durante un prolongado período de tiempo.

Ciertos imanes permanentes contienen hasta un 50 % de cobalto, empleándose en muchas piezas de aparatos eléctricos. Las aleaciones de cobalto tienen otra importante aplicación comercial basada en que conservan su dureza y filo (poder de corte), incluso a temperaturas elevadas.

De hecho, la mayoría de las herramientas de corte para trabajos a altas temperaturas contienen cobalto. Todavía más resistentes al efecto de ablandamiento de las temperaturas elevadas son las aleaciones de cobalto-cromo-volfranio-carbono, que se emplean también para fabricar herramientas de corte. La mayoría de la producción mundial de cobalto se destina a imanes o a aleaciones de “alta velocidad” (aceros rápidos).

A pesar de que menos de la quinta parte del cobalto producido se emplea bajo la forma de sus compuestos, éstos tienen demasiada importancia para no considerarlos. Los únicos compuestos de cobalto estables son los cobaltosos, en los que el metal presenta valencia 2. Las sales cobálticas (valencia 3) tienden a ser inestables.

La vitamina B12, de gran importancia, es una gran molécula, muy compleja, formada por 183 átomos, de los cuales sólo uno es de cobalto; pero, si falta este átomo resulta imposible que se produzca la vitamina Bu. La deficiencia de vitamina BJ2 en el ganado puede deberse a la ausencia de cobalto, y se corrige tratando el terreno, o los alimentos, con compuestos de aquél.

El óxido de cobalto se emplea en la industria cerámica no sólo como pigmento, sino también como agente de blanqueo. Los productos de alfarería fabricados con arcilla tienen con frecuencia impurezas de hiem , que les comunican un aspecto amarillento por lo que se les da un ligero tinte azul con óxido de cobalto, que oculta el color amarillo, de la misma forma que el añil agregado al lavado de ropa confiere a ésta un aspecto más blanco.

Las sales orgánicas de cobalto se emplean con profusión en pinturas, barnices y tintas para imprimir, a fin de que sequen con rapidez. Dichas sales absorben el oxígeno atmosférico para formar peróxidos, que polimerizan en una estructura de tipo celular, la cual actúa como el papel secante, absorbiendo el aceite remanente y transformando la masa total en un gel.

Los compuestos de cobalto son excelentes catalizadores de numerosas reacciones, hecho que se descubrió, por primera vez, al emplear este tipo de catalizador para obtener metano (CH4) a partir de monóxido de carbono e hidrógeno. En la actualidad, se emplean ampliamente en la industria del petróleo, para transformar moléculas inservibles en otras adecuadas para combustibles.

Debido a que el cobalto se presenta en una gran variedad de minerales y está, en general, mezclado con cobre, plata o níquel, existen diversos procesos para extraerlos, que dependen del tipo de mineral de partida. Los mayores productores de cobalto son Ka-tanga y Rhodesia, donde éste se encuentra asociado al cobre.

Fuente Consultada:
Enciclopedia de la Ciencia y la Tecnología Fasc. N°41 El Cobalto y sus propiedades

Segunda Etapa de la Revolucion Industrial: El Hierro y el Ferrocarril

La segunda etapa de la revolución industrial: la siderurgia y el ferrocarril

Cuando la industria algodonera parecía estar agotando sus posibilidades de engendrar nuevas transformaciones en el seno de la economía británica, la siderurgia vino a iniciar una segunda y más importante etapa de transformación, que tendría como con secuencia el que se formase una gran industria de bienes de producción.

Hemos dicho anteriormente que la siderurgia se presentaba ya en el siglo XVII en factorías relativamente grandes y avanzadas, en contraste con la pequeña industria textil artesanal.

Pero una serie de graves dificultades obstaculizaban su crecimiento; en contra de la opinión común, la historia de la siderurgia británica es un ejemplo de cómo unas condiciones naturales adversas pueden ser superadas por una industria dinámica, estimulada por la demanda de un mercado en expansión.

En primer lugar tenemos la carencia de combustible: el carbón vegetal escaseaba en Gran Bretaña y el carbón mineral no podía usarse en la siderurgia, ya que los gases sulfurosos desprendidos en la combustión dañaban la calidad del metal. Durante buena parte del siglo XVII la producción de hierro siguió efectuándose en hornos de carbón vegetal, lo que obligaba a establecerlos en zonas de bosques (general mente alejadas de los centros de consumo) y a cambiarlos de emplazamiento cuando el combustible se agotaba en un lugar.

A esto hay que añadir la baja calidad de los minerales de hierro británicos, que no podían, en modo alguno, competir con los suecos. Una y otra dificultad fueron superadas con la introducción del coque en la siderurgia, pero esta introducción no fue el resultado de un hallazgo técnico afortunado, sino de dos siglos de lucha, culminados en el siglo XVII en una serie de etapas que significaron sucesivas victorias parciales: los esfuerzos de la familia Darby (imagen izq.) por hallar el tipo de coque adecuado, la introducción de los procedimientos de pudelaje y laminado patentados por Core (1783-1784), y, sobre todo, la aplicación de la máquina de vapor de Watt, que solucionó no sólo los problemas de forja, sino el más vital de asegurar la inyección de aire necesaria para la combustión regular del coque.

El resultado final de toda esta serie de perfeccionamiento» fue de importancia trascendental, ya que permitió asentar establemente los hornos siderúrgicos junto a las minas de carbón (que solían coincidir con los yacimientos de mineral de hierro) y realizar todas las operaciones en un mismo lugar, desde la extracción del mineral hasta la elaboración final de las mercancías construidas en metal.

Esta concentración hizo nacer grandes imperios industriales, integrados por minas, hornos, fábricas y almacenes, como el de John Wilkinson, quien llegó a acuñar su propia moneda. Consecuencia mucho más importante fue, sin embargo, la de haber reducido extraordinariamente los costes de producción del hierro británico: sus precios bajaron espectacularmente, y a comienzos del siglo XIX eran ya mucho más bajos que los del hierro sueco.

Este conjunto de circunstancias favoreció el rápido crecimiento de la producción siderúrgica, que entre 1788 y 1806 llegó casi a cuadruplicarse. Inicialmente, esta expansión estaba ligada a la demanda derivada de las necesidades militares (aunque el abaratamiento del hierro estaba extendiendo paralelamente su uso a la construcción de máquinas y de utillaje agrícola) y el término de las guerras napoleónicas amenazó con yugular su crecimiento. Para remediar la crisis, se intentó emplear el hierro en las más diversas aplicaciones: construcción de puentes, edificación de viviendas, etc.

Se llegó incluso a experimentar la pavimentación de calles con hierro. Pero el gran estímulo que permitiría superar la crisis y abriría una nueva y mayor etapa de expansión hubo de venir de una actividad que inicialmente se había desarrollado para atender a las necesidades de la minería y de la siderurgia: el ferrocarril. El ferrocarril era conocido desde mucho antes, si bien reducido a la tracción animal o a trayectos en que fuese posible depender de la fuerza de un motor fijo, aplicada por medio de un cable, a la manera de los funiculares. Se habían establecido incluso líneas de pasajeros con vehículos de tracción animal.

La gran revolución se produjo con el perfeccionamiento de la locomotora de vapor: el éxito obtenido por la línea Liverpool-Manchester  (sus acciones doblaron de valor en menos de tres años) provocó una sucesión de «manías ferroviarias» entre 1830 y 1850, atrayendo a esta clase de empresas los capitales de multitud de pequeños inversores, absolutamente ajenos hasta entonces a cualquier actividad industrial.

En otro lugar hablaremos de la influencia que el ferrocarril ejerció en la integración de los mercados nacionales; lo que ahora nos interesa es que la construcción de líneas férreas motivó un gran aumento en la demanda de hierro, acero y carbón, y significó un nuevo y revolucionario estímulo para la expansión de la minería y de la siderurgia: entre 1830 y 1850, la gran etapa de la construcción ferroviaria en Gran Bretaña, la producción británica de hierro y de carbón se triplicó.

Cuando la red ferroviaria estuvo construida, nuevas actividades, suscitadas en su mayor parte por la propia revolución industrial, vinieron a absorber la producción siderúrgica, e incluso a inducir nuevas etapas de expansión en la misma.

También la industrialización de otros países (y la construcción de sus redes ferroviarias) presionó sobre la siderurgia británica,- ya fuese directamente, ya a través de las adquisiciones de maquinaria. Hacía 1850, el proceso de la revolución industrial británica había llegado a su culminación y el crecimiento económico podía considerarse asegurado.

Los setenta años transcurridos desde 1780 habían visto producirse una serie de reacciones en cadena que dieron lugar al nacimiento de una industria de tipo nuevo, surgió como parte integrante de un sistema económico cuyo crecimiento tenía su punto de partida en fuerzas engendradas en su mismo interior.

Fuente Consultada:
Enciclopedias Consultora Tomo 7
Enciclopedia del Estudiante Tomo 2 Historia Universal
Enciclopedia Encarta
La Aventura del Hombre en la Historia Tomo I “El Ateneo”
Historia Universal Gomez Navarro y Otros 5° Edición
Atlas de la Historia del Mundo Parragon

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Descubrimiento de Nuevos Metales: Fosforo Cobalto y Niquel

HISTORIA DEL DESCUBRIMIENTO DE NUEVOS METALES EN EL SIGLO XVII

A pesar de todas estas trampas, la «era del flogisto» produjo algunos muy importantes descubrimientos. Un alquimista de aquel tiempo descubrió un nuevo elemento: el primer (y último) alquimista que, de una forma definida, identificó un elemento y explicó exactamente cuándo y cómo lo había encontrado. El hombre fue un alemán llamado Hennig Brand.

Algunas veces se le ha llamado el «último de los alquimistas», pero en realidad hubo muchos alquimistas después de él. Brand, al buscar la piedra filosofal para fabricar oro, de alguna forma se le ocurrió la extraña idea de que debía buscarla en la orina humana.

Recogió cierta cantidad de orina y la dejó reposar durante dos semanas. Luego la calentó hasta el punto de ebullición y quitó el agua, reduciéndolo todo a un residuo sólido. Mezcló tampoco de este sólido con arena, calentó la combinación fuertemente y recogió el vapor que salió de allí.

Cuando el vapor se enfrió, formó un sólido blanco y cerúleo. Y, asómbrense, aquella sustancia brillaba en la oscuridad. Lo que Brand había aislado era el fósforo, llamado así según una voz griega que significa «portador de luz».

Relumbra a causa de que se combina, espontáneamente, con el aire en una combustión muy lenta. Brand no comprendió sus propiedades, naturalmente, pero el aislamiento de un elemento (en 1669) resultó un descubrimiento espectacular y causó sensación. Otros se apresuraron a preparar aquella sustancia reluciente. El propio Boyle preparó un poco de fósforo sin conocer el precedente trabajo de Brand.

El siguiente elemento no fue descubierto hasta casi setenta años después. Los mineros del cobre en Alemania, de vez en cuando encontraban cierto mineral azul que no contenía cobre, como les ocurría, por lo general, a la mena azul del cobre.

Los mineros descubrieron que este mineral en particular les hacía enfermar a veces (pues contenía arsénico, según los químicos descubrieron más tarde). Los mineros, por tanto, le llamaron “cobalto”, según el nombre de un malévolo espíritu de la tierra de las leyendas alemanas.

Los fabricantes de cristal encontraron un empleo para aquel mineral: confería al cristal un hermoso color azul y una industria bastante importante creció con aquel cristal azul. En la década de 1730, un médico sueco llamado Jorge Brandt empezó a interesarse por la química del mineral.

Lo calentó con carbón vegetal, de la forma comente que se usaba para extraer un metal de un mineral, y, finalmente, lo condujo a un metal que se comportaba como el hierro.

Era atraído por un imán: la primera sustancia diferente al hierro que se había encontrado que poseyera esta propiedad. Quedaba claro que no se trataba de hierro, puesto que no formaba  oxidación de tono pardo rojizo, como lo hacía el hierro.

Brandt decidió que debía de tratarse de un nuevo metal, que no se parecía a ninguno de los ya conocidos. Lo llamó cobalto y ha sido denominado así a partir de entonces. Por tanto, Brand había descubierto el fósforo y Brandt encontrado el cobalto (el parecido de los apellidos de los dos primeros descubridores de elementos es una pura coincidencia).

A diferencia de Brand, Brandt no era alquimista. En realidad, ayudó a destruir la Alquimia al disolver el oro con ácidos fuertes y luego recuperando el oro de la solución. Esto explicaba algunos de los, trucos que los falsos alquimistas habían empleado. Fue un discípulo de Brandt el que realizó el siguiente descubrimiento.

Axel Fredrik Cronstedt se hizo químico y también fue el primer mineralógolo moderno, puesto que fue el primero en clasificar minerales de acuerdo con los elementos que contenían. En 1751, Cronstedt examinó un mineral verde al que los mineros llamaban kupfernickel («el diablo del cobre»).

Calentó los residuos de este mineral junto con carbón vegetal, y también él consiguió un metal que era atraído por un imán, al igual que el hierro y el cobalto. Pero mientras el hierro formaba compuestos, pardos y el cobalto azules, este metal producía compuestos que eran verdes. Cronstedt decidió que se trataba de un nuevo metal y lo llamó níquel, para abreviar lo de kupfernickel.

Se produjeron algunas discusiones respecto de si el níquel y el cobalto eran elementos, o únicamente compuestos de hierro y arsénico. Pero este asunto quedó zanjado, en 1780, también por otro químico sueco, Torbern Olof Bergman.

Preparó níquel en una forma más pura que lo que había hecho Cronstedt, y adujo mi buen argumento para mostrar que el níquel y el cobalto no contenían arsénico y que eran, por lo contrario, unos nuevos elementos. Bergman constituyó una palanca poderosa en la nueva química y varios de sus alumnos continuaron el descubrimiento de nuevos elementos.

Uno de éstos fue Johan Gottlieb Gahn, que trabajó como minero en su juventud y que siguió interesado por los minerales durante toda su vida. Los químicos habían estado trabajando con un mineral llamado «manganeso», que convertía en violeta al cristal. («Manganeso» era una mala pronunciación de «magnesio», otro mineral con el que lo habían confundido algunos alquimistas.) Los químicos estaban seguros que el mineral violeta debía contener un nuevo metal, pero no fueron capaces de separarlo calentando el mineral con carbón vegetal.

Finalmente, Gahn encontró el truco, pulverizando el mineral con carbón de leña y calentándolo con aceite. Como es natural, este metal fue llamado manganeso. Otros discípulo de Bergman, Pedro Jacobo Hjelm, realizó mucho mejor este mismo truco con una mena a la que llamaron «molibdena».

Este nombre deriva de una voz griega que significa «plomo», porque los primeros químicos confundieron este material con mena de plomo. Hjelm extrajo del mismo un metal blanco argentado, el cual, ciertamente, no era plomo.

Este nuevo metal recibió el nombre de «molibdeno». El tercero de los discípulos de Bergman descubridores de elementos no fue sueco. Se trataba del español don Fausto de Elhúyar. Junto con su hermano mayor, José, estudió una mena pesada llamada «tungsteno» (palabra sueca que significa «piedra pesada»), o «volframio».

Calentando la mena con carbón vegetal, los hermanos, en 1783, aislaron un nuevo elemento al que, en la actualidad, según los países, se denomina tungsteno o volframio. Bergman tuvo todavía una conexión indirecta con otro nuevo metal.

En 1782, un mineralógolo austríaco, Franz Josef Müller, separó de una mena de oro un nuevo metal que tenía algún parecido con el antimonio. Envió una muestra a Bergman, como hacían los más importantes mineralógolos de su época. Bergman le aseguró que no era antimonio. En su momento, el nuevo metal recibió el nombre de telurio, de una voz latina que significaba “tierra”. Mientras todos estos elementos hablan sido descubiertos en Europa, también iba a ser descubierto uno en el Nuevo Mundo.

En 1748, un oficial de Marina español llamado Antonio de Ulloa, cuando viajaba de Colombia a Perú en una expedición científica, encontró unas minas que producían unas pepitas de un metal blanquecino. Se parecía algo a la plata, pero era mucho más pesado.

El parecido con la plata (y tomando como base esta palabra española) hizo que se diese a este nuevo metal el nombre de platino. Al regresar a España, Ulloa se convirtió en un destacado científico y fundó el primer laboratorio en España dedicado a la Mineralogía.

También se hallaba interesado por la Historia Natural y por la Medicina. Además, acudió a Nueva Orleáns como representante del rey español, Carlos III, cuando España adquirió la Luisiana, que antes pertenecía a Francia, tras la Guerra India, en Estados Unidos.

Incluso los antiguos metales conocidos por los alquimistas tuvieron una nueva trayectoria en aquellos primeros tiempos de la Química moderna. En 1746, un químico alemán, Andreas Sigismund Marggraff, preparó cinc puro y describió cuidadosamente sus propiedades por primera vez; por tanto, se le ha atribuido el descubrimiento de este metal.

Probablemente, Marggraff es más conocido, sin embargo, por encontrar azúcar en la remolacha. Con un microscopio detectó pequeños cristales de azúcar en aquel vegetal, y, al mismo tiempo, proporcionó al mundo una nueva fuente de azúcar.

Marggraff fue el primero en emplear el microscopio en la investigación química. Lo que Marggraff había hecho con el cinc, lo realizó un químico francés, Claude-François Geoffrey, con el antiguo metal del bismuto. En 1753, aisló el metal y describió cuidadosamente su comportamiento, por lo que, algunas veces, se le ha atribuido el descubrimiento de este elemento.

LISTA DE ELEMENTOS QUÍMICOS DESCUBIERTOS EN EL SIGLO XVII: (Era del Flogisto)

Fósforo                             1669 Brand
Cobalto                             1735 Brandt
Platino                              1748 Ulloa
Níquel                               1751 Cronstedt
Hidrogeno                          1766 Cavendish
Nitrógeno                           1772 Rutherford
Oxígeno                             1774 Priestley
Cloro                                 1774 Scheele
Manganeso                         1774 Gahn
Molibdeno                           1781 Hjelm
Telurio                               1782 MüIIer Juan José de
Tungsteno                          1783 Elhúyar Fausto de Elhúyar

Fuente Consultada: En Busca de los Elementos de Isaac Asimov

USO DE LOS METALES EN LA INDUSTRIA

Aluminio Se usa desde hace pocas décadas y ocupa el tercer tugar detrás del hierro y el cobre. Utensilios, aleaciones livianas para aviación, cables eléctricos de alta tensión.
Antimonio: Endurece el plomo de los tipos de imprenta, productos medicinales. Ignífugos. Se dilata al enfriar.
Arsénico Insecticidas, productos medicinales, industria química.
Berilio Pigmentos, cristales, fuegos artificiales. Berilio Único metal liviano con alto punto de fusión, ventana para rayos X, industrias atómicas, aleaciones con cobre, resistentes a vibraciones externas.
Bismuto Aleaciones de muy bajo punto de fusión (37°C); productos farmacéuticos.
Boro Ácido bórico. Endurecimiento del acero.
Cadmio Endurecimiento de los conductores de cobre. Aleaciones de bajo punto de fusión. Galvanoplastia.
Calcio Materiales de1 construcción, sales diversas.
Cesio Materiales refractarios livianos, semiconductores, aleaciones duras y refractarias. Cesio Células fotoeléctricas.
Cinc Galvanoplastia,- pilas.
Circonio Usos atómicos, aceros, lámparas-flash.
Cobalto Piezas de cohetes y satélites, herramientas para altas temperaturas, radioisótopos.
Cobre Conductores eléctricos, bronces diversos.
Columbio Sólo en laboratorio. Duro y pesado.
Cromo Acero inoxidable, galvanoplastia. Estaño Envoltorios, soldaduras, bronces.
Estroncio Fuegos artificiales, refinerías de azúcar.
Galio Termómetros para alta temperatura (funde antes de los 35° y hierve a más de 1.900°C.
Germanio Transistores, válvulas termoiónicas.
Hafnio Filamentos de tungsteno.
Hierro Acero, construcción. El metal por excelencia.
Indio Galvanoplastia, aleaciones resistentes a los esfuerzos y la corrosión. –
Litio Aleaciones ligeras, pilas atómicas, síntesis orgánica.
Magnesio Aleaciones ligeras, productos medicinales, síntesis orgánicas.
Manganeso Aceros especiales (extrae el oxígeno y el azufre de la mezcla, dando un metal limpio y sólido). Usos químicos y eléctricos.
Mercurio Termómetros, barómetros, aleaciones dentarias (amalgamas).
Molibdeno Aceros especiales.
Níquel Bronces blancos, monedas, revestimientos de metales.
Oro Alhajas, monedas, espejos telescópicos.
Osmio Metal pesado para aleaciones de la familia del platino.
Paladio Aleaciones con el platino, aceros, catálisis química.
Plata Espejos, alhajas, bronces.
Platino Catálisis, contactos eléctricos, alhajas.
Plomo Aleaciones para soldaduras, cañerías, pinturas.
Plutonio Radiactivo, bomba atómica.
Polonia Radiactivo, compuestos luminosos.
Potasio Metal alcalino, fertilizantes.
Radio Radiactivo, medicina, pinturas luminosas.
Renio Pares termoeléctricos, sustituto del cromo en los aceros.
Rodio Aleaciones, cátodos, pares termoeléctricos.
Rubidio Productos medicinales.
Selenio Células fotoeléctricas, baterías solares.
Silicio Vidrio, aleaciones duras y refractarias.
Sodio Jabones, sal de mesa, bicarbonato de sodio.
Talio Compuestos químicos venenosos, insecticidas, raticidas
Tántalo Filamentos para lámparas, aleaciones refractarias.
Tecnecio Primer elemento producido por él hombre.
Teluro Semiconductores, fotopilas, aleaciones diversas.
Titanio Pigmentos, compuestos muy refractarios, aceros especiales.
Torio Radiactivo, aleaciones.
Tungsteno Filamentos para lámparas, herramientas duras.
Uranio Radiactivo, pilas atómicas.
Vanadio: Aceros Especiales

AMPLIACIÓN DEL TEMA
ALGUNAS GENERALIDADES SOBRE EL FÓSFORO:

Fue descubierto por Brandt en 1669 mientras buscaba la piedra filosofal cuyo objeto era transformar cualquier sustancia en oro. Obtuvo fosfato a partir de la orina, luego de un proceso laborioso. Pero el primer trabajo publicado con cierto fundamento científico pertenece a D. Krafft. El fósforo, como elemento, fue reconocido por Lavoisier en 1777.

El fósforo no se encuentra libre en la naturaleza, pero sí combinado en forma de compuestos inorgánicos como la fosforita (fosfato de calcio) y la fluorapatíta (fluofosfato de calcio).

El fósforo es el principal constituyente de los huesos y dientes; además se encuentra formando parte de los tejidos animales y vegetales y constituye parte de las fosfoproteínas y otros compuestos orgánicos.

La sangre, la yema de huevo, la leche, los nervios y el cerebro contienen fósforo en forma de lecitinas. Por esta razón, los animales y las plantas necesitan fósforo para desarrollarse.
Una parte del fósforo contenido en el organismo se elimina diariamente por la orina y los excrementos, en la proporción de 2 gramos cada 24 horas.

El uso más común del fósforo consiste en la fabricación de cerillas, las cuales son de dos tipos: comunes y de seguridad. Las primeras encienden por frotamiento sobre cualquier superficie áspera y se componen de un pabilo de algodón, madera o cartón, cuya extremidad está recubierta por una sustancia combustible compuesta con fósforo o sulfuro de fósforo, como sustancia inflamable, bióxido de plomo o clorato de potasio, como materia oxidante, dextrina y una sustancia colorante.

Los fósforos de seguridad, llamados también cerillas suecas, sólo contienen una mezcla oxidante, sin fósforo. Este último elemento se coloca sobre la superficie del raspador de la caja, de modo que para producir la llama es imprescindible que ambas partes se pongan en contacto. La mezcla con que se recubre el palillo contiene clorato de potasio como sustancia oxidante, trisulfuro de antimonio, cofa y algo de creta para aumentar la masa. La superficie del raspador contiene fósforo rojo, trisulfuro de diantimonio y vidrio para aumentar la aspereza.

Los abonos fosfatados son muy útiles en la agricultura. Se trata de una serie de sustancias naturales o artificiales que se agregan a las tierras agotadas para reponer en ellas las sustancias desaparecidas. Generalmente esas tierras han perdido (por excesivo cultivo o por acarreos), algunos de los elementos químicos indispensables, como el nitrógeno, fósforo, potasio o calcio, lo que las imposibilita para la plantación o la siembra.

Uno de los abonos más importantes por su riqueza en fósforo y calcio, es el fosfato neutro de calcio. Lamentablemente el fosfato tricoideo (como los huesos) no puede utilizarse porque es prácticamente insolubfe y entonces las plantas no pueden asimilarlo. Debe por lo tanto tratarse con ácido sulfúrico para convertirlo en difosfato monocálcico soluble.

Los huesos molidos (fosfato tricálcico), tratados con ácido sulfúrico, se tornan en sustancias solubles, es decir en fosfatos y sulfatos. Mezclados constituyen el abono denominado superfosfato de calcio.

En los laboratorios de las cátedras de química, durante las lecciones acerca del fósforo, se realizan importantes experimentos. El profesor muestra un trozo de fósforo rojo y otro blanco y hace notar sus diferencias de color, consistencia, solubilidad en sulfuro de carbono, fusibilidad, etc. Para esta última propiedad, se corta debajo del agua con un cortaplumas, un pedazo de fósforo blanco y otro de fósforo rojo. Sometidos ambos a la temperatura de 55°C, el fósforo blanco funde, en tanto que el rojo permanece inalterable.

Para demostrar la oxidación del fósforo en presencia del aire, se disuelve un trozo de fósforo blanco en sulfuro de carbono, se impregnan papeles con esta solución y se dejan secar sobre un trípode; evaporado el solvente, el fósforo se inflamará y con él, los papeles.

La oxidación en presencia del oxígeno: se echa un trozo dé fósforo en agua y se funde al baño de María; se hace circular una corriente de aire y se comprobará la inflamación.

La fosforescencia del fósforo se comprueba de la siguiente manera: se toma un matraz de un litro, se llena con agua hasta la mitad, y se coloca en su interior un trozo de fósforo blanco. Se lleva el agua a ebullición, se oscurece el cuarto y se observará, especialmente en el cuello del matraz, el fenómeno de la fosforescencia.

La diferencia de inflamabilidad entre el fósforo blanco y el rojo se comprueba como sigue: sobre una chapa de cobre de 30 centímetros de largo, dispuesta sobre un trípode, se coloca en cada extremo un trocito de fósforo blanco y rojo, respectivamente; se calienta el centro de la chapa con llama baja de un mechero Bunsen y se podrá observar la inflamación casi espontánea del primero y tardía en el segundo. Para comprobar la acción del cloro sobre el fósforo, se introduce en un frasco lleno de cloro una capsulita que contenga un trozo de fósforo blanco; se observa la inflamación espontánea del fósforo.

Los envenenamientos por el fósforo blanco, constituyen un riesgo para los obreros que trabajan en las fábricas que preparan el producto y de los que lo manejan y transforman.

Las fábricas de cerillas deben estar .muy bien ventiladas, pues las emanaciones fosforadas que, sin esa precaución, podrían aspirarse, intoxicarían más o menos a los operarios. Éstos deben cuidar mucho de la higiene, no comer sin lavarse bien las manos y cambiarse las ropas de trabajo. Será preciso que no dejen su comida dentro del local de la fábrica y a la hora del almuerzo buscarán en el exterior un lugar aireado.
Una dolencia muy común en los que trabajan con el fósforo, es la denominada necrosis fosfórica, que ataca al hueso dé la mandíbula y que suele necesitar operación quirúrgica.

Cuando sobrevienen envenenamientos por ingestión de fósforo, mientras llega el médico, puede administrarse una solución de 2 gramos de sulfato de cobre en un litro de agua, con frecuencia y abundancia, pues el cobre se depositará sobre las partículas de fósforo haciéndolo inofensivo o debilitando considerablemente su acción. Suprímase en absoluto la leche, los aceites y las grasas.

La fosfamina, que es un fósforo gaseoso, se prepara como sigue: en un baloncito de unos 300 ce. se ponen 20 ce. de potasa cáustica en solución acuosa concentrada y seis u ocho blobuliílos de fósforo; se cierra el baloncito con un tapón bihoradado que trae dos tubos acodados, uno estrecho que se sumerge en la potasa y otro ancho y largo (de desprendimiento), cuyo extremo anterior está doblado en U y el interior termina junto al tapón. Se hace pasar una corriente de hidrógeno y el tubo ancho se sumerge en un recipiente con agua caliente. Se calienta el baloncito hasta una ebullición moderada. Se desprende fosfamina.

Grande es la importancia que tiene en todo el universo la fabricación del fósforo, no tan sólo aplicable a la preparación de cerillas, abonos, etc., sino también como agente reductor.

Pasos del Metodo Cientifico Etapas Metodo Experimental Caracteristicas

Pasos del Método Científico o Experimental

El método científico o experimental es una secuencia lógica de pasos que se siguen para que el trabajo del químico tenga validez. Luego de una observación exhaustiva y reiterada del fenómeno, surge el planteo del problema a investigar. El científico enuncia, según el análisis “a priori” del problema, cuál sería, a su criterio, la hipótesis, es decir, la respuesta más probable a la cuestión.

Antes efectúa una recopilación de datos, por ejemplo de trabajos de otros investigadores relacionados con el tema. A partir de allí, comienza a diseñar y comprobar la veracidad de la hipótesis. Si la hipótesis se cumple, el científico puede arribar a conclusiones de valor predictivo. Es decir que frente al mismo planteo puede anticipar cuál será la respuesta.

Muchas veces ocurre que la hipótesis no se cumple y debe reformularse. La validez de una o varias hipótesis permite, en muchos casos, enunciar leyes o teorías universales.

En la actualidad, el planteo de un problema científico surge a veces del análisis de trabajos anteriores referidos al tema. Éstos dejan casi siempre algún punto sin resolver, que es observado y tomado como punto de partida de una nueva investigación.

La ciencia sólo es posible cuando existe la libertad de cuestionar y de dudar de lo que siempre se ha considerado verdadero, y cuando ella misma es capaz de abandonar viejas creencias si contrarían los nuevos descubrimientos.

A modo de sintesis antes de entrar a explicar el método, vamos a indicar la secuencia ordenada de pasos para lograr el estudio científico de un fenómeno determinado. Podemos decir que hay 10 pasos fundamentales, y que mas abajo se explicarán, a saber:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO,

PASO 2. LA BÚSQUEDA DE INFORMACIÓN,

PASO 3. LA FORMULACIÓN DE HIPÓTESIS,

PASO 4. LA COMPROBACIÓN EXPERIMENTAL,

PASO 5. EL TRABAJO EN EL LABORATORIO,

PASO 6. EL TRATAMIENTO DE LOS DATOS,

PASO 7. EL ANÁLISIS DE LOS FACTORES,

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS,

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS,

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS

INTRODUCCIÓN: OBSERVACIÓN Y EXPERIMENTACIÓN

La ciencia comienza por observar, observación realizada con la máxima exactitud y la mayor frecuencia posible. Sólo así pueden discernirse claramente las características del problema que se estudia y ponerse en evidencia las incógnitas que plantea.

Luego de hacer las observaciones adecuadas, el paso siguiente es desarrollar alguna explicación de lo que se ha visto. Cada explicación recibe el nombre de hipótesis y por tanta es normal que haya varias hipótesis aparentemente encuadradas en los hechos observados. Todas ellas surgen por un proceso mental de deducción que, en cierto sentido no sería más que un ejercicio de imaginación.

En la vida diaria la gente muy a menudo se conforma con suposiciones ¡sólo porque las hace ella! En la ciencia es necesario suponer todas las explicaciones aceptables de los hechos, para luego seleccionar las mejor orientadas hacia la investigación propuesta.

Esta selección se efectúa de acuerdo con otro proceso mental estudiado por la Lógica, conocido por deducción. Cada hipótesis se examina por turno para ver qué consecuencias implicaría en caso de ser cierta, qué ocurriría si fuera correcta. Es como obligar a la hipótesis a que se pronuncie.

metodo experimetal

Luego, una etapa crítica del método científico: la verificación, o sea la comprobación de las diversas hipótesis mediante nuevas observaciones. Éste es un proceso real y concreto, manual y sensorio.

Siempre que sea posible, las comprobaciones se hacen en forma de experimentos, es decir, siempre por control del investigador. Si la hipótesis que se intenta probar no nos anticipa los acontecimientos registrados por la experimentación se la considera inútil y se la descarta. Si, en cambio, resultara correcta, sólo provisionalmente se la consideraría verdadera, esto es, mientras no aparezca algún hecho nuevo que obligue a modificarla.

Cuando las hipótesis no pueden ser comprobadas en las estrictas condiciones de un experimento habrá que esperar el resultado de nuevas experiencias cuando la evolución de los fenómenos naturales lo permita. En astronomía, por ejemplo, no es posible obligar a los cuerpos celestes a moverse y a ubicarse en situación de demostrar alguna hipótesis particular. pero, cuando se dan esas exposiciones, es posible controlar la efectividad de las hipótesis que se habían formulado.

A medida que se acumulan observaciones, sea durante experimentos o no, pueden aparecer casos que muestren la debilidad de la hipótesis anteriormente aceptada. Entonces resulta necesaria la formulación de otra hipótesis y se repite todo el procedimiento de nuestro método científico como si se tratara de un círculo, quizás una espiral, pues este nuevo ciclo se desarrolla en un nivel de mayor conocimiento.

Esto nos introduce en la idea de que la “verdad” científica es sólo relativa; es una aproximación y será abandonada y reemplazada por otra “verdad” nueva y mejor, cada vez que resulte necesario. Esto explica lo que para algunos es el obstáculo más grande referente a la ciencia: que sus conclusiones ¡no son definitivas! Los científicos están siempre dispuestos y aun entusiastas para aceptar nuevas explicaciones si éstas se acercan más a los hechos conocidos.

La verdad científica, entonces, no es definitiva. Representa las etapas alcanzadas en cada oportunidad en la búsqueda del conocimiento. El nivel de éxito obtenido en esta búsqueda se medirá siempre por el grado de correlación que exista entre teoría y realidad. La verdad científica representa lo mejor que pudo hacerse en un momento determinado. No tiene autoridad para juzgar futuras investigaciones en el campo en que se aplica.

La aceptación de una hipótesis científica como cierta no surge de su elegancia ni de la sinceridad o entusiasmo con que ha sido presentada; tampoco reposa en factor personal alguno, como podría ser respecto de nuestra propia hipótesis o de la de alguien a quien respetamos.

La única razón válida para aceptar una hipótesis como cierta es que apoyada en hechos conocidos, pueda anticipar otros. Esto es bastante distinto de la idea de verdad que se aplica en otros órdenes de la vida, y es una de las características distintivas de la actitud científica.

https://historiaybiografias.com/linea_divisoria5.jpg

LOS PASOS DEL MÉTODO CIENTÍFICO-EXPERIMENTAL:

PASO 1. LA OBSERVACIÓN DEL FENÓMENO
Una vez planteado el fenómeno que se quiere estudiar, lo primero que hay que hacer es observar su aparición, las circunstancias en las que se produce y sus características. Esta observación ha de ser reiterada (se debe realizar varias veces), minuciosa (se debe intentar apreciar el mayor número posible de detalles), rigurosa (se debe realizar con la mayor precisión posible) y sistemática (se debe efectuar de forma ordenada).

PASO 2. LA BÚSQUEDA DE INFORMACIÓN
Como paso siguiente, y con objeto de reafirmar las observaciones efectuadas, deben consultarse libros, enciclopedias o revistas científicas en los que se describa el fenómeno que se está estudiando, ya que en los libros se encuentra e conocimiento científico acumulado a través de la historia. Por este motivo, la búsqueda de información } la utilización de los conocimientos existentes son imprescindibles en todo trabajo científico.

PASO 3. LA FORMULACIÓN DE HIPÓTESIS
Después de haber observado el fenómeno y de haberse documentado suficientemente sobre el mismo, el científico debe buscar una explicación que permita explicar todas y cada una de las características de dicho fenómeno.

Como primer paso de esta fase, el científico suele efectuar varias conjeturas o suposiciones, de las que posteriormente, mediante una serie de comprobaciones experimentales, elegirá como explicación del fenómeno la más completa y sencilla, y la que mejor se ajuste a los conocimientos generales de la ciencia en ese momento. Esta explicación razonable y suficiente se denomina hipótesis científica.

PASO 4. LA COMPROBACIÓN EXPERIMENTAL
Una vez formulada la hipótesis, el científico ha de comprobar que ésta es válida en todos los casos, para lo cual debe realizar experiencias en las que se reproduzcan lo más fielmente posible las condiciones naturales en las que se produce el fenómeno estudiado. Si bajo dichas condiciones el fenómeno tiene lugar, la hipótesis tendrá validez.

instrumentos de presley cientifico

Lámina de «Observations on differents kinds of air» del gran científico Joseph Priestley, mostrando uno de sus experimentos para demostrar los efectos de la combustión, putrefacción y respiración en una planta de menta  y en ratones.

PASO 5. EL TRABAJO EN EL LABORATORIO

Una de las principales actividades del trabajo científico es la de realizar medidas sobre las diversas variables que intervienen en el fenómeno que se estudia y que son susceptibles de poder medirse. Si te fijas, en el experimento anterior no se ha podido tomar ninguna medida, por lo cual es conveniente repetir la experiencia en un lugar donde pueda tomarse, es decir, en el laboratorio.

Estas experiencias realizadas en los laboratorios se denominan experiencias científicas, y deben cumplir estos requisitos:

a) Deben permitir realizar una observación en la que puedan tomarse datos.

b) Deben permitir que los distintos factores que intervienen en el fenómeno (luminosidad, temperatura, etc.) puedan ser controlados.

c) Deben permitir que se puedan realizar tantas veces como se quiera y por distintos operadores.Habitualmente, en ciencias experimentales, los trabajos de laboratorio permiten establecer modelos, que son situaciones o supuestos teóricos mediante los que se efectúa una analogía entre el fenómeno que ocurre en la Naturaleza y el experimento que realizamos.

PASO 6. EL TRATAMIENTO DE LOS DATOS
Las medidas que se efectúan sobre los factores que intervienen en un determinado fenómeno deben permitirnos encontrar algún tipo de relación matemática entre las magnitudes físicas que caracterizan el fenómeno que se estudia. Para llegar a esa relación matemática, los científicos suelen seguir dos pasos previos: el análisis de los factores y la construcción de tablas y de gráficos.

PASO 7. EL ANÁLISIS DE LOS FACTORES
El estudio en profundidad de un fenómeno requiere en primer lugar la determinación de todos los factores que intervienen en él. Para que ese estudio se realice en la forma más sencilla, se fija una serie de magnitudes que no varían (variables controladas) y se estudia la forma en que varía una magnitud (variable dependiente) cuando se produce una variación de otra magnitud (variable independiente).

Así, por ejemplo, si lo que queremos es estudiar el alargamiento que experimenta un resorte cuando colgamos diversas pesas de uno de sus extremos, hay un conjunto de magnitudes que podemos considerar invariables (la temperatura del recinto donde hacemos el experimento, la presión atmosférica dentro del mismo, la humedad relativa del aire, etc.), que corresponden a las variables controladas. En este caso, la longitud del alargamiento del resorte será la variable dependiente, y el peso que colgamos de su extremo será la variable independiente.

PASO 8. LA CONSTRUCCIÓN DE TABLAS Y DE GRÁFICOS
La construcción de tablas consiste en ordenar los datos numéricos obtenidos sobre las variables independiente y dependiente. Siempre se han de especificar las unidades en las que se miden dichas variables, para lo cual se utilizan los paréntesis a continuación de sus nombres.

En el caso del resorte, la tabla podría ser así:
La representación gráfica consiste en representar los datos de las medidas en un sistema de ejes cartesianos, donde normalmente la variable independiente se hace corresponder con el eje X, mientras que la variable dependiente se hace corresponder con el eje Y.

Se llama ajuste de la gráfica al procedimiento mediante el cual se determina la línea que pasa por los puntos que se han representado o la más cercana a ellos.

En la mayoría de los casos, las gráficas que se obtienen son líneas rectas, lo que indica que la relación entre las magnitudes físicas representadas es de la forma y = k • x. donde k es una constante. En otros casos, la relación entre ambas magnitudes es de tipo parabólico, lo que matemáticamente representa que y = k • x2; o de tipo hiperbólico, cuya formulación es de la forma x • y = k.

PASO 9. LAS CONCLUSIONES Y LA COMUNICACIÓN DE RESULTADOS
El análisis de los datos y la comprobación de las hipótesis lleva a los científicos a emitir sus conclusiones, que pueden ser empíricas, es decir, basadas en la experiencia, o deductivas, es decir, obtenidas tras un proceso de razonamiento en el que se parte de una verdad conocida hasta llegar a la explicación del fenómeno.
Una vez obtenidas dichas conclusiones, éstas deben ser comunicadas y divulgadas al resto de la comunidad científica para que así sirvan como punto de arranque de otros descubrimientos, o como fundamento de una aplicación tecnológica práctica .

PASO 10. LA ELABORACIÓN DE LEYES Y TEORÍAS
El estudio científico de todos los aspectos de un fenómeno  natural lleva a la elaboración de leyes y teorías.

Una ley científica es una hipótesis que se ha comprobado que se verifica.

Una teoría científica es un conjunto de leyes que explican un determinado fenómeno.

Así, por ejemplo, la hipótesis comprobada de que el are iris se forma debido a la refracción que experimenta la li al atravesar las gotas de agua de la lluvia, es una ley que s enmarca dentro de un conjunto de leyes que rigen otros fenómenos luminosos (reflexión, dispersión, etc.). Este con junto se conoce como teoría sobre la luz.

Tanto las leyes como las teorías deben cumplir los siguientes requisitos:

1. Deben ser generales, es decir, no sólo deben explica casos particulares de un fenómeno.
2. Deben estar comprobadas, es decir, deben estar avaladas por la experiencia.
3. Deben estar matematizadas, es decir, deben pode expresarse mediante funciones matemáticas.

Las teorías científicas tienen validez hasta que son incapaces de explicar determinados hechos o fenómenos, o hasta que algún descubrimiento nuevo se contradice con ellas, a partir de ese momento, los científicos empiezan a plantearse la elaboración de otra teoría que pueda explicar eso; nuevos descubrimientos.

Rene Descartes

René Descartes creó la geometría analítica, también denominada «geometría cartesiana», en la que los problemas geométricos pueden traducirse a forma algebraica. Se trataba de un método extremadamente poderoso para resolver problemas geométricos y, a la postre, también dinámicos (el problema del movimiento de cuerpos), un método que conservamos más de tres siglos después.En más de un sentido la contribución de Descartes preparó el camino para el gran descubrimiento de Newton y Leibniz: el del cálculo diferencial (o infinitesimal) e integral, el universo de las derivadas y las integrales; un instrumento  incomparable para la indagación matemática y física.

Instrumentos de Boyle
Lámina donde se muestran los instrumentos del laboratorio de Boyle

La divulgación científica: Al científico no le basta con ver, debe convencer. Un descubrimiento científico sólo adquiere importancia si es comunicado en fomia inteligible. Las primeras publicaciones que se registran referidas a la Química provienen de los alquimistas.

Estos químicos de la Edad Media, que procuraban transmutar (convertir) cualquier metal en oro, escribieron dos tipos de manuscritos: míos, puramente prácticos, y otros, donde intentaban aplicar las teorías de la naturaleza de la materia a los problemas alquímicos. Aunque en ambos casos apelaron a una mezcla de magia y ciencia como metodología para sus investigaciones, muchas técnicas allí descriptas siguen utilizándose en la actualidad.

En 1597 un alquimista alemán, Andreas Libau (1540-1616), conocido como Libavius, escribió el que se considera el primer libro de Química, Alchemia, que resumía los hallazgos medievales en esta materia sin caer en el misticismo.

Recién a partir del siglo XVIII las publicaciones de libros y revistas se convirtieron en el vehículo usual para la transmisión científica.

La primera revista del mundo dedicada exclusivamente a la Química fue Annales de Chimie, de 1789. La versión española se publicó dos años después, en Segovia, y fue dirigida por Joseph Proust.

Entre los libros de la época cabe destacar el famoso Traite Élementaire, escrito por Lavoisier en 1789, en el que puede advertirse hasta qué punto Lavoisier se había adelantado a la ley de los volúmenes de combinación, enunciada veinte años después por Gay-Lussac.

En sus páginas se puede leer con claridad que la reacción para la formación de agua requiere exactamente dos volúmenes de hidrógeno para reaccionar por completo con un volumen de oxígeno. Sólo después de veinte años Gay-Lussac retoma estas ideas y, mediante el estudio de la reacción entre el cloro y el hidrógeno, deduce su ley. ¿Pero por qué Lavoisier no llegó a enunciar la ley de los volúmenes de combinación?.

Las respuestas probables a esta pregunta son dos. Primero, Lavoisier fue guillotinado apenas cinco años después de la publicación de su libro; segúndo, hasta el momento de su muerte el cloro no había sido identificado como tal.

En la actualidad, las publicaciones científicas son muy numerosas y se renuevan constantemente. Y, además, resulta fundamental el aporte de los medios informáticos. Gracias a ellos se ha logrado integrar textos, imágenes, sonidos y movimientos, y también es posible el intercambio de trabajos y opiniones científicas de grupos procedentes de todas partes del mundo.

https://historiaybiografias.com/linea_divisoria5.jpg

CONOCIMIENTO CIENTÍFICO: La ciencia puede extender enormemente el alcance de los sentidos humanos, como podemos ver en las páginas de este libro, que se ocupan de algunos de los extraordinarios instrumentos científicos disponibles hoy.

También puede aumentar su capacidad de prever los acontecimientos. Esto es de gran utilidad para el hombre porque le evita eventuales dificultades y porque le permite obtener los resultados previstos. De este modo la ciencia aumenta enormemente los medios a disposición del hombre para la consecución de sus fines, sean éstos constructivos o destructivos.

La ciencia, empero, no puede ocuparse de lo inobservable. Puede ocuparse de los electrones, que no son visibles directamente, porque éstos dejan huellas observables en la cámara de Wilson.

Pero aunque la ciencia se interese por los electrones no puede ocuparse de proposiciones sobre ángeles aunque se diera el caso de que fueran ángeles guardianes quienes orientaran nuestra conducta individual. Como por definición los ángeles no pertenecen al mundo natural, es evidente que no pueden ser estudiados por el método científico.

Tampoco reemplaza la ciencia a la sabiduría. No puede juzgar entre los distintos fines que nos fijamos individual o colectivamente, aunque puede darnos los medios para llegar a ellos con mayor facilidad. Por lo menos hasta el presente la ciencia no está en condiciones de decirle al hombre qué es lo mejor para ver, lo mejor para gustar. Algunos piensan que jamás podrá hacerlo aunque el conocimiento científico a menudo nos predispone a las consecuencias de nuestras elecciones.

La ciencia no es una mera acumulación de conocimientos enciclopédicos. Tampoco es exactamente sentido común —por lo menos en lo que se refiere a algunas de sus conclusiones— como nos habremos percatado luego de leer los artículos sobre la naturaleza física del mundo en que vivimos.

Es, sin embargo, completa y totalmente “sensata” en su dependencia del método de ensayo y error. No es un cuerpo de doctrina que se apoye en la autoridad de personas. No es la mera búsqueda de ingeniosos aparatos aunque éstos resulten una consecuencia del avance del conocimiento científico.

La ciencia es una manera de preguntar. Es un método para avanzar en el conocimiento de fenómenos que pueden ser observados y medidos. Es una aventura en lo desconocido, en pos de la comprensión buscada, comprensión a la que llegaremos mediante ensayos y errores, operando siempre que sea posible en las condiciones controladas de un experimento.

https://historiaybiografias.com/linea_divisoria5.jpg

PARA SABER MAS…
EXPERIMENTO CIENTÍFICO

Un buen ejemplo de investigación científica mediante experiencias sensatas  es el modo en que Galileo estudió la fuerza de gravedad, llegando a descubrir la ley del movimiento uniformemente acelerado de los graves: un mentís clamoroso a la teoría de Aristóteles, que consideraba la velocidad de la caída proporcional al peso.

El plano inclinado que construyó para el estudio del movimiento gravitacional es relativamente simple desde el punto de vista tecnológico: consiste en una viga de seis metros de largo, de buena madera (para impedir que se combe) y que puede inclinarse a voluntad, dotada de una acanaladura cuidadosamente alisada para reducir al mínimo la fricción de las bolas.

Este aparato tan sencillo tiene ya las características de un moderno instrumento científico, porque permite modular a voluntad cualquier parámetro notable de la experiencia. La inclinación, por ejemplo, puede reducirse haciendo más lentos los tiempos de caída, o bien aumentarse hasta rozar la verticalidad (de este modo, la caída libre se convierte en un simple caso límite).

metodo cientifico

El primer plano inclinado de Galileo estaba provisto de campanillas
para señalar los tiempos de caída de la bola.

Al principio, el científico afrontó el problema central (es decir, la comprobación exacta de los tiempos de caída) situando en el plano inclinado a intervalos regulares unas campanillas, de modo que sonasen al paso de la bola. Galileo, además de haber estudiado música, era también un avezado intérprete y contaba con la sensibilidad de su oído, muy entrenado para percibir ritmos e intervalos sonoros. Pero se trataba evidentemente de una solución aún primitiva, insuficiente para llegar a una cuantificación precisa de los tiempos.

El ingenio de Galileo resolvió brillantemente el problema con la construcción de un reloj de agua. Hacía coincidir el comienzo de la caída del grávido con la apertura de un grifo colocado bajo un tanque (mantenido a presión constante en todas las mediciones).

Al final de la caída, bastaba con cerrar el grifo y ocuparse de pesar el líquido almacenado; de este modo transformaba las cantidades de tiempo en cantidades de peso, mensurables y cotejables con gran precisión. Galileo descubrió así que, aunque una mayor inclinación del plano hacía aumentar la velocidad de caída, la relación entre espacios recorridos y tiempos empleados se mantenía constante para cualquier inclinación (por lo tanto, también en el caso límite de la caída libre).

Descubrió sobre todo que esta aceleración no depende del peso, en contra de lo que afirmaba Aristóteles.

Revolucion cientifica Trabajo de Galvani

Grabado mostrando diferentes experimentos de Luigi Galvani (Viribus Electricitatis in Motu Musculari Commentarius [Comentarios relativos a los efectos de la electricidad sobre el movimiento muscular] 1791) acerca de los efectos de la electricidad en ranas y pollos.

La observación, la experimentación y la construcción de teorías y modelos

La recolección de datos es una empresa importante para sostener cualquier trabajo científico. Estos datos pueden ser obtenidos por la observación sistemática de situaciones espontáneas o por la experimentación, que consiste en provocar el fenómeno que se quiere estudiar. Lo importante es ver cómo estos datos se utilizan para formular teorías o modelos.

En la actualidad, casi todos los filósofos de la ciencia están de acuerdo en que los datos por sí solos no explican nada, e incluso hay muchos que ponen en duda que existan datos puros, ya que la observación, sea espontánea o provocada, está siempre condicionada por el conocimiento del observador.

Así, por ejemplo, si un químico se encuentra cerca de una industria que produce acero, olerá dióxido de azufre y podrá inferir qué le puede ocurrir a su cuerpo o al ambiente ante la presencia de esta sustancia. En cambio, un niño que pase por el mismo lugar solo percibirá olor a huevo podrido. Como se puede notar, tanto uno como otro participan de la misma situación, pero la interpretación varía enormemente en función de los conocimientos que cada uno posee acerca del fenómeno que observan.

Además del papel decisivo que tienen los conocimientos del observador, no se debe olvidar que muchas de las observaciones que se realizan se hacen en forma indirecta, es decir, a través de la utilización de instrumentos, indicadores, etcétera, que, en muchos casos, distorsionan el fenómeno.

En la experimentación, el fenómeno es preparado por el mismo investigador, quien fija las condiciones, el sitio y el momento de su realización y, además, puede repetirlo numerosas veces.

Dentro de las ciencias de la vida, la mejor manera de poner a prueba las teorías que se relacionan con el funcionamiento de los organismos es con la ayuda de experimentos. Pero hay ciencias en las que los experimentos no son posibles, como es el caso de las ciencias que estudian la historia de los seres vivos (evolución, Paleontología), en las cuales es preciso hacer observaciones adicionales para corroborar una hipótesis.

Otra forma de comprobar una teoría en Biología consiste en utilizar datos provenientes de fuentes distintas; por ejemplo: si para establecer relaciones filogenéticas en distintos grupos de organismos se utilizan evidencias morfológicas, se pueden buscar pruebas adicionales para validar esa hipótesis recurriendo a evidencias bioquímicas, biogeográficas, etcétera.

Hay que destacar que, si bien el surgimiento del método experimental fue fundamental para el avance de la ciencia moderna, este no es el único método utilizado por los científicos. Las metodologías que se utilizan en las investigaciones son variadas, con lo que se descarta la existencia de un único método científico universal.

Laboratorio de Lavoisier

Lavoisier en su laboratorio, experimentando sobre la respiración de un hombre en reposo (dibujo de Marie Anne Lavoisier).

RESPECTO A LA HIPÓTESIS DE INVESTIGACIÓN

El paso que sigue a la formulación del problema de investigación es enunciar las hipótesis que guiarán la investigación. Sin embargo, antes de dar este paso, será necesario fijar algunos criterios que permitan enunciar hipótesis adecuadas.

Como ya saben, una hipótesis es una respuesta posible aun interrogante planteado, que aún no ha sido puesta a prueba. Sin embargo, no todas las respuestas posibles para un problema de investigación son hipótesis.

Requisitos de una hipótesis
Para ser una hipótesis, la respuesta al problema debe reunir determinadas condiciones. Éstas son algunas de ellas. * Ser formulada en un lenguaje preciso y claro. Supongamos, por ejemplo, que alguien enuncia la siguiente hipótesis: “Los científicos que violan el código de ética profesional de la ciencia tienden a mostrar comportamientos amorales en otros ámbitos sociales”. Así formulada, la hipótesis tiene dos problemas: por un lado, no es evidente a qué se llama comportamientos amorales, ya que la expresión no está definida y puede tener más de una interpretación; por otro lado, no es muy claro el sentido de la expresión tienden a (¿cuántos comportamientos amorales tendría que manifestar un científico para que se configure una tendencia?).

* Ser coherente con el conjunto de los conocimientos disponibles sobre el problema de investigación. Por ejemplo, no seria muy interesante formular la hipótesis de que “La ciencia no se enfrenta con ningún problema ético” cuando son conocidos los debates que se plantean continuamente en torno de cuestiones éticas en el ámbito científico. i Hacer avanzar el conocimiento existente. Una hipótesis que reprodujera una afirmación unánimemente aceptada y comprobada en la comunidad científica no sería muy útil para saber más sobre el tema.
Por ejemplo, hoy no tendría sentido indagar la hipótesis de que “La Tierra gira alrededor del Sol”.

* Ser coherente con los objetivos del proyecto de investigación y, por lo tanto, con el tipo de proyecto de que se trate. Por ejemplo, si el proyecto es de naturaleza exploratoria -es decir que sus objetivos también lo son-, no se puede construir una hipótesis explicativa para ese proyecto y esos objetivos.

* Poder ser corroborada o refutada por los datos que se reúnen durante el proceso de investigación. Éste es un requisito muy importante, que los filósofos de la ciencia han debatido y fundamentado extensamente. En el apartado que sigue, se analiza con mayor profundidad.

DIFUSIÓN: Cuando el científico ha comunicado un resultado, su conocimiento permite a los tecnólogos imaginar aplicaciones a distintos sectores de la técnica. Otras veces marcha adelante el tecnólogo y descubre una propiedad desconocida; y es trabajo del científico explicar esa propiedad elaborando una teoría. En espectroscopia hay ejemplos de situaciones como ésas: primero se observaron las líneas espectrales y más tarde se desarrolló la teoría que las explica.

En el campo de la Metalurgia hay innumerables ejemplos: desde hace siglos se conoce y se usa la operación de templar un acero; pero la teoría del fenómeno sólo se conoce desde apenas unas décadas.

Otras veces el tecnólogo presenta sus requerimientos al científico, y éste investiga hasta determinar las condiciones que deben cumplirse para satisfacer aquellos requerimientos.

Esto ha ocurrido con frecuencia en los últimos tiempos, por ejemplo en la resolución del problema de la reentrada en la atmósfera de una cápsula espacial: la alta temperatura desarrollada por la fricción con el aire funde cualquier material ordinario, y fue necesario desarrollar nuevos materiales con las propiedades adecuadas. Algunas veces los científicos responden satisfactoriamente a las demandas de los tecnólogos; otras, no. Los problemas y dificultades se renuevan continuamente: nunca estará todo resuelto, pues cada solución abre nuevos caminos, y recorrerlos crea a su vez nuevos problemas.

Experimento con plantas

Grabado reproduciendo un experimento sobre la respiración de plantas y animales, incluido en
Legons sur les phénoménes de la vie communs aux animaux et aux végétaux de Claude Bernard (1878).

¿Qué es cultura científica?
Cada persona que quiere ser útil a su país y a sus semejantes tiene, entre otras cosas, la responsabilidad de adquirir una educación en ciencia (en nuestro caso, a través de la Física y de la Química) que la transforma en una persona capaz de:

• conocer los principios, las leyes y las teorías más generales y sus aplicaciones prácticas más difundidas;

• interpretar fenómenos naturales frecuentes;

• advertir y comprender la incidencia del desarrollo científico y tecnológico sobre las estructuras económicas y sociales en todo el mundo;

• reconocer la universalidad de la ciencia, que por una parte no reconoce fronteras nacionales, y por otra constituye el medio necesario para que la comunidad que forma la nación atienda y resuelva problemas propios;

• detectar, en su región o en su país, problemas susceptibles de ser tratados científicamente, y reconocer la propia responsabilidad en su planteamiento y en la búsqueda de soluciones;

• distinguir entre una simple creencia o una opinión, o una superstición, y una verdad científica;

• comprender que una verdad científica no es una verdad inmutable sino modificable por avances científicos que elaboren una nueva verdad científica más general, que puede abarcar a la anterior;

• gustar del placer intelectual de advertir un fenómeno natural, hacer coherentes partes aparentemente inconexas, plantear una hipótesis plausible y verificarla experimental o teóricamente;

• gustar del placer intelectual de difundir conocimientos y actitudes científicas entre las personas que lo rodean;

• adquirir el amor por la verdad que caracteriza al auténtico pensamiento científico;

• relacionar las explicaciones científicas con otras manifestaciones de la cultura, tales como la filosofía o el arte.

El desarrollo científico y técnico de los últimos tiempos ha ampliado el concepto y las exigencias de “persona culta”, que ya no se limitan al campo de la literatura, las artes o las humanidades exclusivamente.

Fuente Consultada:
Atlas Universal de la Filosofía – Manual Didáctico de Autores, Textos y Escuelas
Biología y Ciencias de la Tierra Estructura – Ecología – Evolución Polimodal
Formación Ética y Ciudadana Ética, Ley y Derechos Humanos 3° EGB
Elementos de Física y Química Maiztegui-Sabato

Modelo Atómico de Bohr Niels Resumen de su Biografia y Trabajo

Modelo Atómico de Bohr
Resumen de su Biografía y Trabajo Científico

Bohr Niels

El nombre de Niels Bohr (1885-1962) se inscribe como uno de los nombres más ilustres de la física del siglo XX. En líneas generales, tuvo la idea de aplicar la teoría de los quanta de Planck al modelo atómico de Rutherford, consiguiendo, de este modo, explicar la emisión de rayos espectrales y, al mismo tiempo, interpretar muchas propiedades físicas y químicas de los cuerpos.

En el tercer congreso de Física Solvay, que tuvo lugar en Bruselas el año 1921, a Rutherford se le preguntó qué diferencia existía, en su modelo atómico, entre los electrones nucleares y los periféricos. Rutherford respondió con aquella frase que tanta popularidad alcanzó: «No man’s land.», que significa “tierra de nadie“.

Es decir, trató de sintetizar el concepto que había guiado a su escuela hasta el año 1911: el átomo está dividido en dos regiones, la interna y la externa, el núcleo y el sistema electrónico, separadas por una barrera infranqueable, en el sentido de que ni los electrones periféricos pasan al núcleo ni los constituyentes del núcleo pasan al sistema electrónico.

El mérito de Rutherford fue el de haber intuido que los fenómenos radioactivos tienen su sede en el núcleo, y que dedicándose al estudio de esta ciencia hizo desviar los problemas inherentes al sistema electrónico hasta la crítica fundamental que había expuesto. Ciertamente, el modelo de Rutherford está en contradicción con el electromagnetismo clásico, sobre cuyos pormenores no se entrará.

Sencillamente se remarcará, con el objeto de centrar el problema histórico que limita la biografía de Niels Bohr, que cuando Rotherford estaba sumido en dicha problemática, el entonces joven investigador Bohr pasó al laboratorio de este otro físico inglés.

EL FENÓMENO FÍSICO: Cuando un cuerpo sólido se calienta suficientemente, se pone incandescente, es decir, emite luz. Lo mismo sucedería si calentásemos gases o vapores, o si excitásemos sus moléculas con una descarga eléctrica.

Entre la luz emitida en uno u otro caso, existe, sin embargo, una importante diferencia. Si hacemos que la luz emitida atraviese un prisma, o una red de difracción, se obtiene su espectro, o conjunto de rayas o bandas de los distintos colores que componen la luz incidente.

El espectro de la luz (imagen abajo) que emiten los sólidos incandescentes es continuo y presenta bandas de diferentes colores que se funden unos con otros. Los gases y vapores dan lugar a un espectro que presenta líneas o bandas discretas.

espectro luz atomo

Un elemento dado presenta siempre un mismo espectro, lo que constituye un valioso método para su identificación. Por ejemplo, al excitar el hidrógeno contenido en un tubo de descarga, se obtiene su bien conocido espectro de líneas. Con el fin de explicar este espectro del hidrógeno. Niels Bohr propuso su modelo atómico, que se utiliza todavía, aunque con algunas modificaciones, para describir los fenómenos atómicos básicos.

Niels Henrik David Bohr nació en octubre de 1885. Su padre era profesor de fisiología en la Universidad de Copenhague.

En 1903, ingresó Bohr en dicha Universidad, y, ocho años después, salía de ella con el título de doctor y un enorme interés por los problemas teóricos relativos al átomo. Bohr es un sabio de nuestro tiempo.

Murió el 18 de noviembre de 1962. Desde muy joven hasta los últimos días de su existencia, Niels Bohr mostró un enorme interés y una incansable actividad en la solución de los problemas más importantes de la física moderna.

En 1911, Bohr llegó a Inglaterra para trabajar en el laboratorio Cavendish de Cambridge, bajo la dirección de J. J. Thomson. Por entonces, los físicos que trabajaban en aquel laboratorio concebían el átomo, de acuerdo con otros muchos físicos del mundo, como una esfera cargada positivamente, que contenía los electrones (cargas eléctricas negativas), los cuales se movían dentro de la esfera, y en número tai que el átomo quedaba eléctricamente neutro.

Al cabo de pocos meses, Bohr se trasladó a Manchester, en donde Rutherford, uno de los mejores físicos del momento, era profesor de física. Rutherford había demostrado, experimentalmente, que el átomo tenía un núcleo pesado de pequeño volumen y cargado positivamente, el cual estaba rodeado por los electrones. Pero las características de los espectros atómicos no podían ser explicadas sobre la base del átomo de Rutherford.

 Cuando Bohr regresó a Copenhague después de haber trabajado con J. J. Thomsom, el descubridor del electrón, en el Laboratorio Cavendish de la Universidad de Cambridge, Inglaterra, como discípulo y colaborador de Rutherford, ya estaba convencido de que las teorías clásicas de la física no eran capaces de representar adecuadamente los movimientos orbitales de los electrones. Bohr combinó el núcleo de Rutherford y la teoría de los quanta de Plank y produjo la primera imagen matemática satisfactoria de la estructura del átomo, su teoría cuántica de las partículas fundamentales y de sus interacciones.

De acuerdo con su modelo, los electrones giraban alrededor del núcleo, cargado positivamente, y la atracción electrostática compensaba la fuerza centrífuga. La teoría electromagnética clásica exigía, sin embargo, que toda carga eléctrica acelerada debería emitir radiación continua.

Si esta radiación continua tuviese lugar, los electrones, entonces, describirían una espiral descendente y caerían al núcleo. El átomo de Rutherford era, por tanto, inestable, de acuerdo con los principios de la mecánica clásica.

Por otro lado, la emisión espontánea que predecían las leyes de la teoría electromagnética no tenía, de hecho, lugar. Bohr se dedicó a plantear y estudiar los problemas teóricos que el átomo de Rutherford llevaba consigo, con el objeto de proponer un modelo atómico que se ajustase a los hechos experimentales conocidos entonces, y, particularmente, a la evidencia que con el empleo del espectroscopio se había acumulado empíricamente, analizando los espectros de elementos conocidos.

SU MODELO ATÓMICO PROPUESTO:

La teoría de Bohr puede resumirse en los dos puntos siguientes:

1) Los electrones sólo pueden ocupar ciertas capas en órbitas, dentro del átomo. A los electrones de una determinada órbita les corresponde una energía bien definida.

2) Cuando un electrón salta desde una a otra de las órbitas permitidas de un átomo, éste emite luz. Puesto que cada órbita representa un determinado estado energético, a la transición producida le corresponde un incremento de energía bien definido. Este cambio en la energía del electrón conduce a la emisión de luz de una determinada frecuencia, la cual es proporcional a la diferencia entre las energías de los niveles inicial y final.

Cuando se aplicaron estas ideas al átomo de hidrógeno, que es el átomo más simple, ya que está constituido por un solo electrón girando alrededor del  núcleo, se encontró que proporcionaban, exactamente, el mismo espectro que se había medido de un modo experimental.

Nueve años después, en 1922, Bohr recibía el Premio Nobel de física, por su interpretación del espectro del hidrógeno, basada en su modelo atómico. La importancia de este revolucionario modelo atómico no necesita ser comentada, y su inmediata aplicación para explicar el espectro del hidrógeno ha sido calificada como uno de los mayores triunfos de la física.

En su laboratorio de Copenhague trabajaban la refugiada judía Lise Meitner y su sobrino Otto Frisch. Cuando los alemanes Hahn y Strassman publicaron los resultados de sus investigaciones sobre el bombardeo de átomos de uranio con neutrones, descubriendo con asombro que aparecían pequeños indicios de bario y criptón, sin determinar su origen, Bhor se entusiasmó con la idea propuesta por Meitner y Frisch de que tal vez el uranio absorbía un neutrón que se dividiera en dos fragmentos más o menos iguales.

Bohr viajó a Estados Unidos donde se reunió con Einstein y Fermi. Allí recibió una comunicación de sus colaboradores Meitner y Frisch quienes le avisaban que al repetir el experimento comprobaron que el núcleo de uranio se había dividido. Lo que fue discutido entre los tres sabios, sacando las consecuencias en cuanto a la enorme obtención de energía según este proceso

Desde 1913, y con sólo unas modificaciones efectuadas en la tercera década de este siglo, el modelo atómico de Bohr ha sido fundamental en la descripción de los procesos atómicos.

Durante estos años, fueron explicándose, progresivamente, muchos fenómenos no totalmente comprendidos o interpretados: la estructura de los espectros de otros elementos, los procesos de absorción y emisión luminosa, la formación del sistema periódico de los elementos, las propiedades periódicas de las 92 especies atómicas entonces conocidas, etc.

En 1920, fue fundado el Instituto de Física Teórica de Copenhague, del que Niels Bohr fue nombrado director, centro que desde entonces ha permanecido a la vanguardia de la física teórica nuclear.

Los mejores físicos del mundo hacían frecuentes visitas a este instituto, para discutir con Bohr las modificaciones de su teoría. Niels Bohr, el modesto físico danés que nació antes de que la radiactividad fuese descubierta y que llegó a ser una máxima autoridad en el estudio de las leyes fundamentales del átomo, murió en noviembre de 1962.

esquema modelo atomico bohr

En el modelo atómico propuesto por J. J. Thomson en 1904, se suponía que los electrones estaban contenidos en una esfera cargada positivamente, y que la masa del átomo era fundamentalmente debida a los electrones.

En el modelo del átomo de hidrógeno propuesto por Bohr, el electrón puede moverse a lo largo de ciertas órbitas situadas alrededor del núcleo: cuando un electrón salta de una órbita a otra más cercana al núcleo, el átomo emite luz de un cierto color, que depende de las órbitas que entran en juego.

Así, si un átomo de hidrógeno no está excitado, se encuentra en su estado normal y los electrones están situados en la órbita más cercana al núcleo, con lo que no puede producirse emisión de luz alguna.

https://historiaybiografias.com/linea_divisoria3.jpg

UNA VIDA DE TRABAJO: Un hombre dedicado totalmente al trabajo, nos recuerda la clásica imagen del hombre que en las profundidades de su laboratorio sabe encontrar las verdades de la naturaleza. Poco amigo de los reconocimientos, carácter sencillo y afable, profundiza en sus primeros hallazgos. En 1922, cuando contaba treinta y siete años, recibió el Premio Nobel de Física. En estos seis años, sobreponiéndose a las consecuencias de la primera gran guerra, había demostrado que el edificio atómico se complica progresivamente a medida que uno se eleva en la escala de Mendeléiev.

Niels Bohr sacó una serie de conclusiones en lo tocante a los lechos y niveles de electrones intraatómicos, así como también sobre las correlaciones existentes entre esta edificación progresiva y la variación concomitante de las propiedades de los elementos; estas investigaciones tan importantes tuvieron una gran resonancia y la ley de saturación de los niveles electrónicos que condujo a precisar, tal como apunta Louis de Broglie, puede ser puesta en relación estrecha con el principio de exclusión poco más o menos enunciado por W. Pauli.

Gracias al esfuerzo de Niels Bohr, pues, la nueva mecánica nació alrededor del año 1925. Apareció bajo dos formulaciones, equivalentes y digamos por azar simultáneas, que fueron la mecánica de matrices de Heisenberg, Born y Jordán y la mecánica ondulatoria de Schródinger. El primero de estos principios había partido del análisis de la teoría de los quanta formulado por Niels Bohr.

La segunda proposición, en cambio, se originó sobre las ondas de la materia y gracias a los trabajos de Louis de Broglie. Siguiendo este proceso histórico, la equivalencia de ambas formulaciones la demostró Schródinger. Pero la formulación coherente de la teoría, su extensión y aplicación al campo electromagnético, o sea la mecánica quántica relativista del electrón, fue llevada a cabo por Dirac.

Es decir, Niels Bohr, que al parecer era un matemático mediocre, no participó, esto es de un modo directo, en la creación definitiva de la nueva mecánica; su colaboración fundamental se sitúa en lo que hace referencia a la interpretación física de la teoría, o, si se quiere, a través de una de las intuiciones más geniales que podemos registrar en la ciencia contemporánea.

El trabajo científico de Bohr se vio interrumpido por la invasión alemana, que le obligó a dejar su país. Con anterioridad, aun en Copenhague, se convirtió en el protector de los judíos expulsados.

Muchas son las muestras que jalonan su espíritu generoso, con una gran dureza crítica, enfrentándose éticamente contra la ideología nazi. Pues bien, a la entrada de los alemanes, en 1943, a través de Suecia se dirigió a Inglaterra y, finalmente, a los Estados Unidos; con un renombre universal, los norteamericanos le dieron toda clase de facilidades, prácticamente dirigiendo uno de los principales centros de investigación, aunque en aquel entonces las búsquedas en este campo sufrían la presión de las necesidades bélicas.

Niels Bohr trabajó en Los Álamos, contribuyendo a la fabricación de la bomba atómica. Consciente de las consecuencias que ello podía reportar, en el mes de julio de 1944 escribió un Memorándum dirigido a Roosevelt y Churchill, advirtiendo de las consecuencias y proponiendo la colaboración para la búsqueda y control de las armas nucleares. Pero no dio ningún resultado. 

Niels Bohr regresó a su ciudad natal en 1945, siendo nombrado presidente de la Academia de Ciencias danesa. Trabajando en relación con el CERN de Genova, hizo cuanto pudo para tratar de perfeccionar, y llevar a límites pacíficos, las búsquedas teóricas de este importante centro de estudios nucleares.

 Su fin estaba próximo, aunque la actividad científica seguía suscitando, orientando y comentando los trabajos de sus discípulos. Pero el 18 de noviembre de 1962 de una forma súbita falleció; hay quien dice, con razón profunda, sintiendo el drama de conciencia —como también lo sintieron Einstein y Op-penheimer— de haber hecho posible la bomba atómica; realmente, de sus setenta y siete años de vida, los veinte últimos fueron un esfuerzo para evitar el desastre.

https://historiaybiografias.com/linea_divisoria3.jpg

ALGO MAS SOBRE LA BIOGRAFÍA DE NEILS BOHR: Fue Niels Bohr, quien llevó a los Estados Unidos la noticia de que en 1939, Lise Meitner y O. R. Frisch habían dividido el átomo de uranio. No mucho después de que Bohr regresó a Copenhague, de aquel importante viaje, los nazis ocuparon Dinamarca.

Bohr ordenó inmediatamente que todo el trabajo se detuviera en su instituto de física teórica. Después, en 1943, cuando se enteró de que iba a ser arrestado, escapó a Suecia con su esposa y su hijo Aage. Pronto se encontró de nuevo en los Estados Unidos.

A mediados del año de 1940, un cierto Mr. Nicholas Brown iba, a menudo, a Los Álamos, Nuevo México, donde se construía la primera bomba atómica. Para mucha gente era sólo un científico más del proyecto, pero para otros era probablemente, una figura familiar.

Los que le reconocían debían preguntarse, “¿Mr. Brown? —Se parece a . . .”, y se callaban, porque no debían circular las noticias de que el gran Niels Bohr estaba ayudando a los Estados Unidos a desarrollar La energía atómica.

Bohr estaba angustiado con la bomba. Incluso antes de que fuera usada por primera vez, intentaba persuadir a la gente de la necesidad de regular esta nueva forma de energía. En 1950, escribió a las Naciones Unidas sobre la importancia del control internacional de la energía atómica. En 1955, ayudó a organizar en Ginebra la Conferencia de Átomos para la Paz. En 1957, —treinta y cinco años después de haber recibido el Premio Nobel de Física— se le concedió el primer Premio de Átomos para la Paz.

Bohr fue, probablemente, el más grande de todos los físicos atómicos. En 1913, utilizó la teoría cuántica para explicar las líneas espectrales del hidrógeno. Sabía que su teoría atómica no era aplicable para otros elementos y continuó mejorándola. Desarrolló importantes teorías sobre la naturaleza del núcleo. Tal vez, tan importante como sus investigaciones, fue su trabajo de maestro.

Muchos grandes físicos nucleares estudiaron con él. En una serie de tributos a Bohr, en su cumpleaños, algunos de sus antiguos discípulos famosos, le presentaron parodias sobre informes de importantes investigaciones. Se pueden ver algunas de estas divertidas narraciones en el número de marzo de 1956 del Scienfifíc American.

Fuente Consultada:
Revista TECNIRAMA N°56
El Estallido Científico en el Siglo XX Trevor Williams
FÍSICA Fundamentos y Fronteras Stollberg-Hill

Primeros Barcos de Acero Historia de la Construcción y Evolución

Primeros Barcos de Acero – Historia de su Construcción

LAS ULTIMAS EMBARCACIONES DE MADERA: Hasta que, al influjo de la civilización moderna, comenzó a agitarse el espíritu de las naciones europeas de la costa del Atlántico, no se hicieron progresos suficientes en la construcción de barcos que dotasen a los hombres de medios para realizar largos viajes a través del océano, con relativa seguridad.

Durante siglos, Gran Bretaña ha estado tristemente retrasada, con relación a los países continentales, en lo que se refiere a la construcción de barcos; solamente en la época de ‘Pudor parecieron revivir las tradiciones de los sajones y daneses como constructores de barcos y navegantes. Pero su positiva supremacía en el arte naval, muy diferente de su potencia naval guerrera, es de fecha reciente.

Dos ingenieros navales ingleses no han sido notables por la ciencia encerrada en sus proyectos. Dejaron a los portugueses y españoles, y más tarde a los franceses y americanos, mejorar la forma y líneas de los barcos. Fue más bien la sana y honrada labor de sus obreros y la valentía y audacia de sus marinos lo que hizo a Inglaterra la dueña de los mares.

Sus ingenieros navales no fueron más que perseverantes imitadores de otros más emprendedores proyectistas extranjeros, cuyos barcos capturaban sus marineros. Por otra parte, los éxitos conseguidos por Inglaterra en las numerosas guerras sostenidas con los países continentales fueron de tal naturaleza que el desarrollo de su marina mercante se retrasó notablemente por las operaciones de su escuadra. Y la extraordinaria expansión de su comercio en la primera mitad del siglo XIX permitió retener, durante la paz, la supremacía en la marina mercante que, en parte, había conseguido con la guerra.

Sin embargo, en la segunda mitad de dicha centuria, encontró serias dificultades para sostener su situación. Talados sus bosques de robles, la madera nacional para construcción de barcos, comenzó a escasear, siendo además costosa y defectuosa; a esto había que agregar la pasividad de sus proyectistas que, en general, se conformaban con copiar las antiguas y poco estudiadas líneas de los navíos construidos en el siglo XVIII.

La aparición del clipper americano, de construcción económica y velocidad sin rival

En cambio, se ofrecían brillantes oportunidades y extenso campo de acción a los ingenieros navales y constructores de los países ricos en madera. El resultado fue que el clipper americano, construido bajo líneas más nuevas, permitiendo alcanzar mayor velocidad y en un país con enorme cantidad de madera, fuerte y barata, triunfó completamente sobre el barco construido en Inglaterra.

Fue una de las más sorprendentes y rápidas revoluciones industriales que hasta entonces se habían presenciado. No tenía competencia detrás de ella, como la máquina de vapor en el sistema moderno industrial. Sencillamente, por el minucioso estudio de sus planos, el ingeniero naval americano creó un barco cuya velocidad ningún otro podía igualar, y los constructores de barcos de aquel país, que tenían detrás de sí millares de kilómetros cuadrados de selvas, se aprovecharon de las ventajas que éstas les ofrecían y de las que sus técnicos habían alcanzado para ellos.

Muchas casas inglesas hicieron bancarrota y parecía imposible que el país recobrase la posición que había perdido, pues aunque los ingleses trataron de copiar las líneas generales del clipper, el elevado coste de la madera no les permitía competir con los constructores americanos, cuya producción era más perfecta y económica.

clipper americano

La industria naval es la más antigua de las americanas. En 1845, Estados Unidos era la segunda nación en cuanto a la importancia de la marina, y en 1855 el mayor buque a flote era norteamericano, así como en aquel tiempo la construcción naval era doble que en 1913. Desde 1855 los navieros de aquel país continuaron siendo los más importantes en este comercio, pero la transición de la madera al hierro en la construcción, y de la vela al vapor, hizo que la marina americana fuera perdiendo terreno en la lucha.

Gran Bretaña fue la primera potencia en la producción de hierro y en su preparación científica, y en su progreso en las artes mecánicas sobrepasaban a los americanos. Estos adoptaron más despacio el hierro en sus construcciones navales. Sobrevino el pánico de 1857, que hizo paralizar las empresas industriales de todas clases, y antes que el país pudiera reponerse, estalló la guerra civil.

Cuando la guerra terminó, volvieron a reanimarse los negocios en general, pero no ocurrió lo mismo con los navieros, debido en parte a que, por aquel entonces, llamaban más la atención los de ferrocarriles, que absorbían todo el capital americano disponible. Pero la guerra de tarifas, siempre en aumento, y, finalmente, la ley de Underwood, fueron el golpe de gracia para la marina mercante de los Estados Unidos.

Se elevó el coste de los materiales y mano de obra en los astilleros, creándose con ello trabas que comprometían la existencia de la marina comercial. El trabajo aumentó de valor y las exigencias de los marineros americanos llegaron a tal punto, que se hacía imposible la navegación si se quería competir con barcos manejados por tripulaciones extranjeras económicas. Cuando los rápidos veleros de madera comenzaron a ser sustituidos por barcos de vapor, de hierro y acero, Inglaterra, gracias a sus minas de carbón y hierro, pudo recobrar su antigua posición en la construcción naval.

En 1776 fue botado al agua un barco de hierro en el río Foss, Yorkshire; pero el primero de que se tiene una descripción algo detallada, ha sido la lancha para transportes en canales «Irial», construida en 1787 por un fundidor de Lancasbire, Juan Wilkinson. Tenía 21,30 metros de longitud y se construyó con planchas de palastro de unos ocho milímetros de grueso, cosidas con remaches como las calderas de vapor.

Pesaba ocho toneladas, y comenzó su servicio transportando 23 toneladas de hierro, sin ningún tropiezo, hasta Birmingham. Después se construyeron muchos barcos de hierro que navegaban por el Severn y los canales deStaffordshire. Más tarde, en 1817, Tomás Wilson, un carpintero del valle, en el Clyde, fue el iniciador, en unión de un herrero, de la enorme moderna industria de aquella región, construyendo un barco de pasajeros llamado elVulcano.

Tenía 18,60 metros de largo, 3,35 de ancho y un calado de 1,50 metros. Construido su casco con planchas de hierro y su armazón interior formado con barras planas forjadas a mano en el yunque, el pequeño barco de pasajeros navegó en el Forth y en el canal de Clyde durante setenta años de duro servicio.

A estos ensayos siguieron los del Aaron Manby, el primer barco de hierro movido a vapor; fue construido enTipton, Staffordshire, en 1820, y tenía 36,50 metros de largo, 5,50 de ancho y llevaba dos máquinas de 80 caballos.

Este barco se transportó desarmado hasta el Támesis, y allí se botó al agua, enviándose con un cargamento de hierro al Havre. Remontando el Sena, llegó hasta París, donde causó enorme sensación. Después continuó navegando en el Shannon, durante treinta y cuatro años. La vida de estos primeros barcos de hierro era mucho más larga que la de los mejores de madera de la misma época. Un barco de esta clase de la Compañía de las Indias Orientales, por ejemplo, sólo podía hacer cuatro viajes, para los que precisaba ocho años.

Frecuentemente quedaban después inservibles, y aun cuando fueran completamente reparados, su vida se agotaba en seis viajes; es decir, en doce años. Y mientras esto se conseguía de la suave y tranquila fuerza del viento sobre las velas, la potencia de una máquina de vapor era capaz de convertir rápidamente en astillas toda la madera de un barco.

Y aunque Symington adoptó el vapor para la locomoción en 1801, y Fulton instaló su famosa máquina en el Clermont en 1807, el barco de madera impedía que se desarrollase debidamente la máquina de vapor aplicada a la navegación.

Así, en 1850, las cuatro quintas partes de los barcos ingleses eran aún de madera. Pero empujados por la competencia del clipper americano, bien pronto se inició un gran cambio, y en 1860 cinco sextas partes de los barcos más importantes ingleses eran ya de hierro. Debido a esta sustitución de la madera por el hierro, los astilleros y navieros ingleses consiguieron alcanzar la supremacía que aun conservan.

Sus constructores tienen ahora tras sí más de sesenta años de experiencia, y sus obreros continúan dándose cuenta de los cambios continuos que es preciso introducir en los métodos y organización de una industria tan progresiva y competidora.

La introducción de maquinaria para economizar la mano de obra, mucha de ella inventada por americanos o alemanes, ha hecho disminuir la persistente lucha entablada, y en la cual intervenía, como elemento desfavorable a los americanos, el elevado coste de sus jornales; pero los ingleses, adoptando los nuevos métodos de trabajo, han logrado retener las ventajas que habían conseguido.

Esto dio lugar a descontento considerable, pues la introducción en la industria de las herramientas neumáticas, hidráulicas y eléctricas, obligó a reducir el número de obreros de extensa y reconocída práctica. Pero desde los lejanos tiempos en que los tejedores manuales trataron de impedir la introducción en la industria de las máquinas de hilatura, quedó demostrado que, con las nuevas invenciones no se restringe el campo de aplicación del obrero, sino que, por el contrario, se le da mayor extensión.

La construcción naval ha estado siempre en continua revolución, pero hubo un momento, en 1875, en que se ofreció una gran oportunidad a los proyectistas para demostrar su competencia, cuando los astilleros ingleses estaban aún produciendo barcos de hierro en gran número.

Planeando en el suelo con una tiza las piezas en escala 1:1Planeando en el suelo con una tiza las piezas en escala 1:1

En 1873 los franceses, que a menudo habían demostrado su saber en la ciencia naval, comenzaron a emplear el acero dulce en la construcción de sus barcos. Sin embargo, pasaron algunos años antes que su uso fuese aprobado por el Lloyd, y en 1880 sólo se habían clasificado como construidas con este material 35.400 toneladas.

A mitad del siglo XX las cifras correspondientes al registro alcanzan a 18 millones de toneladas. Hay registrados muy pocos barcos de madera o mixtos, y es despreciable el número de los de hierro. El acero dulce es el que transporta todos los pasajeros, cargamentos de mercancías, cañones y tripulaciones de guerra que cruzan los mares.

A pesar de que el hierro forjado es más barato, más fácil de trabajar y, como material de construcción es más seguro que la madera, el acero dulce reúne las mismas ventajas, y aun pueden señalarse otras que le hacen muy superior a aquél. Donde una barra o una plancha de hierro se rompe en una colisión o por un golpe, el acero sólo se dobla.

En otras palabras, su fuerza de tensión es mucho mayor así como su ductilidad. Un barco de acero que pese 8.000 toneladas es tan fuerte como uno de hierro de 10.000; así, pues, necesitándose menos material para construirle, resulta mucho más barato; y, a causa de su mayor ligereza, puede llevar un cargamento más pesado, siendo mayor su rendimiento económico.

Los primeros barcos que se construyeron en acero costaron doble que los de hierro, pero a partir de 1930, su coste es menor. Si en los últimos setenta años los constructores de otras naciones hubieran conseguido, por sí mismos, esta notable mejora, hubieran triunfado sobre los astilleros ingleses.

Pero, felizmente para éstos, la fábrica de acero Siemens, en Landore, condado de Gales del Sur, consiguió en 1875 producir excelente acero dulce por el proceso de hornos abiertos, alcanzándose como resultado que, cuando se comenzó a emplear este nuevo material, los ingleses pudieron construir sus barcos de acero, ligeros, de poco coste y capaces para navegar con seguridad por todos los mares.

remachadora de barcos
Màquina Remachadora

Casi todos los países que precisan buenos barcos mercantes tienen que encargarlos a los astilleros del Reino Unido, y un gran número de barcos de guerra extranjeros se han construido también por firmas inglesas. Así ha acontecido que en una fecha, relativamente reciente, y sólo con el empleo eficaz del acero, los arquitectos navales ingleses hicieron de su país la nación más importante en la industria naval.

Y es digno de notar que uno de sus más famosos astilleros—el de Harland y Wolff—produce en la más desfavorable de las condiciones. Estos astilleros irlandeses tienen que importar todo el carbón y el metal que emplean; pero la perfección de sus procedimientos y organización ha creado un enorme centro industria!, donde todas las condiciones, excepto una, son adversas. Belfast es un puerto a donde pueden transportarse los materiales económicamente, no sólo desde la Gran Bretaña, sino también desde tan espléndidos centros mineros como España y Suecia.

Los grandes distritos para construcción naval en el Clyde tampoco han sido dotados por la Naturaleza con las condiclones precisas para ser el lugar de donde viniesen al mundo los grandes buques. Pues aunque están próximos a las minas de carbón y de minerales, tienen por acceso una extensa y tortuosa ruta marítima. Y únicamente, gracias al persistente trabajo de dragado de la ría se ha. conseguido conservar un canal donde se pueden botar los grandes navíos.

Costillas de un casco de un barco
Costillas de acero de un barco en construcciòn

Al estallar la guerra, la marina mercante americana apenas existía más que en el nombre, La necesidad de construir un gran número de barcos mercantes para cubrir las pérdidas debidas a los submarinos hizo cambiar la situación en asombroso breve espacio de tiempo. Los astilleros ya de antiguo establecidos, se transformaron, ampliándose con nuevas instalaciones.

El más interesante de los modernos fue el de Hog Island, cerca de Filadelfia; en realidad, en aquel tiempo, sólo era una instalación para montar las distintas piezas que constituyen un barco; porque con objeto de utilizar, en toda su capacidad, las facilidades industriales del país, se adoptaron dos tipos de barcos mercantes, y las diversas partes que forman el casco y la maquinaria de estos navíos se construían en muchos talleres y fábricas metalúrgicas, transportándose a Hog Island donde se hacía el montaje y acoplamiento de ellas. Esta ha sido, sin duda, la tentativa mayor que se ha hecho en construcciones de esta clase, en la que se alcanzó un completo éxito.

La producción de este y otros astilleros dio a los Estados Unidos una gran marina mercante, y aunque muchos de los barcos construidos durante la guerra fueran de inferior calidad, la mayoría estaban bien hechos y muchos eran de gran tonelaje. Con la terminación de la guerra, esta gran actividad en la construcción de barcos se paralizó por completo. Hog Island y muchas otras instalaciones similares fueron desmontadas y vendidas, en tanto que los astilleros particulares volvieron a la situación en que se encontraban antes de la guerra.

ALGO MAS…
LA SOLDADURA
Desde medidos del siglo XX, la soldadura eléctrica y autógena ha desalojado casi totalmente a la roblonadura (remaches) en la unión de las planchas de acero con que se construye el barco, y esto ha permitido la aplicación de una nueva técnica, llamada de prefabricación. Antes, cada plancha, luego de ser preparada en el taller, era llevada a su posi ción y allí, tal vez a muchos metros del suelo, los remachadores debían unirla a las demás.

Hoy se fabrican secciones enteras de hasta 40 toneladas que luego se transportan a su posición y se sueldan al resto. Como gran parte del trabajo se hace en talleres bajo techo, el mal tiempo influye mucho menos en el progreso de éste, al par que han mejorado notoriamente las condiciones del mismo para los operarios.

Gran parte del trabajo de soldadura lo efectúan soldadores individuales, que utilizan equipo manual, especialmente en la parte de estructura del barco que se lleva a cabo en la rampa de deslizamiento. Pero el trabajo en talleres se presta a la aplicación de la soldadura automática; así que los astilleros modernos poseen una cantidad de máquinas de soldar, completamente automáticas, en continuo uso.

MÁXIMA PRECISIÓN
Es imperativo que los materiales y métodos empleados en la construcción de un barco estén libres de todo defecto, porque la falla en alta mar de una plancha, una soldadura, una pieza de fundición o forjada, puede tener graves consecuencias.

Por eso, se comienza por efectuar las comprobaciones habituales sobre muestras representativas de los materiales a utilizar, para verificar que cumplen o superan los mínimos establecidos de resistencia a la tracción, fatiga e impacto. Luego, durante la construcción, se utilizan los instrumentos científicos más modernos para examinar las planchas de acero en busca de grietas superficiales o defectos internos.

También se examinan así las piezas forjadas o de fundición, y todas las soldaduras. Los equipos empleados comprenden radiografías por medio de rayos X y por rayos gamma, ensayo con ultrasonidos para encontrar defectos internos (la transmisión de ondas sonoras de alta frecuencia a través del material), y la determinación de grietas superficiales mediante aparatos magnéticos.

ENSAMBLAMIENTO Y BOTADURA
Cuando todo está preparado, los andamios en posición, se comienza el trabajo colocando en su lugar las placas de la quilla, previamente cortadas y dobladas como corresponde.

A medida que las secciones prefabricadas van siendo terminadas y las planchas laterales cortadas y dobladas, según las suaves curvas del casco, son llevadas, puestas en posición y soldadas a sus vecinas. Gradualmente el barco crece; la quilla, los lados, los mamparos, que, a intervalos, se extienden de lado a lado y de arriba abajo a todo lo largo del barco, dividiéndolo en compartimientos estancos; las planchas que forman los sucesivos puentes o cubiertas; la superestructura, hasta que todo el trabajo que puede ser efectuado en la rampa de lanzamiento queda terminado.

 Se prepara la botadura y se aseguran cables al barco para frenarlo cuando entra al agua. La nave está lista para la botadura, ceremonia en la cual se le da nombre mientras una botella de champagne se rompe contra su proa. Se quitan las últimas cuñas y el barco se desliza suavemente en el agua.

EL BARCO SE COMPLETA
Mientras el casco ha ido progresando en el astillero, otros talleres han estado construyendo la maquinaria (las turbinas de vapor y calderas para impulsarlo, los motores auxiliares que proveen la energía para los servicios necesarios: iluminación, calefacción, aire acondicionado, manejo del barco, radio y radar, accionamiento de guinches y cabrestantes, y muchas otras necesidades).

Después de la botadura se remolca el barco hasta el muelle, donde se le instala la maquinaria pesada. Mediante gigantescas grúas se bajan lentamente las máquinas y calderas. Esas grúas pueden llegar a levantar cargas de hasta 350 toneladas. Viene luego el turno de los electricistas, plomeros, carpinteros y pintores, que completan las instalaciones y dejan al barco listo para los primeros ensayos en mar abierto.

También en esta etapa se aplican nuevos materiales y técnicas. En lugar de limpiar la superficie del acero con cepillos especiales, se les envía arena a presión con un soplete. Los plásticos juegan un papel importantísimo en las terminaciones interiores. Casi todos los equipos accesorios, como ventiladores, lavatorios, roperos, etc., se envían en forma de unidades completas listas para colocar.

Después que ha sido colocada toda la maquinaria principal y accesoria, y mientras se dan los últimos toques a las cabinas y camarotes, se efectúan, ante las autoridades oficiales de control, las pruebas en dársena, para comprobar que todo ha sido completado satisfactoriamente. Cuando estas pruebas han finalizado, el barco pasa al dique seco para limpiar y pintar el fondo, y queda lisio para las pruebas en mar abierto.

Éstas son la culminación de todo el trabajo que ha sido realizado en el navio desde el momento en que el ingeniero naval hizo los primeros croquis sobre papel, en base a las ideas del propietario, alrededor de tres años antes.

Las pruebas se realizan en un circuito abierto, sobre una longitud previamente medida que se recorre en ambas direcciones para comprobar la velocidad, a favor y en contra de las corrientes y vientos, y se hacen toda clase de pruebas para verificar su maniobrabilidad.

Cuando éstas quedan completadas, se arría la bandera del astillero, se iza la del propietario, se firman los documentos necesarios y se entrega el barco. Es bueno destacar que no todas las construcciones navales responden a la forma clásica en que se describe en este post, las técnicas y materiales van cambiando mucho día a día y se aplican modificaciones constructivas al mismo ritmo, que mejoran la calidad y el tiempo de ejecución.

Como toda realización industrial, tiene sus rarezas, de las que muchas veces surge un nuevo camino, la solución a una emergencia, o la revolución de los métodos existentes.

Cuadro Comparativo De Los Barcos en la Edad Moderna

Fuente Consultada:
Historia de las Comunicaciones Transportes Terrestres J.K. Bridges Capítulo “Puentes en la Antigüedad”
Colección Moderna de Conocimientos Tomo II Fuerza Motriz W.M. Jackson , Inc.
Revista TECNIRAMA N°19 Enciclopedia de la Ciencia y la Tecnología
Lo Se Todo Tomo III

Navios Romanos y Griegos Trirremes Galeras Romanas Barcos Fenicios

Navíos Romanos y Griegos: Trirremes y Galeras

¿Ha pensado alguna vez en el coraje del primer hombre que, a bordo de una primitiva balsa, se lanzó al mar desconocido y amenazador? Nuestros antepasados demostraron un valor admirable, pues, al contrario de casi todos los animales, el hombre no sabe nadar cuando nace: debe aprender a hacerlo, a veces con grandes esfuerzos.

Para esos hombres de épocas tan remotas, los lagos y los ríos eran barreras infranqueables. Quizás, alguno de ellos, mientras estaba sobre el tronco de un árbol, se vio arrastrado por la corriente y comprendió que tenía a su alcance un medio de transporte práctico y relativamente seguro. Varios troncos paralelos atados entre sí fueron las primeras balsas utilizadas por los habitantes de los palafitos para llegar hasta su casa levantada sobre estacas.

¿Cuánta paciencia y cuántas generaciones de hombres fueron necesarias para descubrir instrumentos adecuados, antes de poder cortar un tronco y ahuecarlo en forma de piragua? En algunos poblados de Asia y África se utilizan aún canoas idénticas a las primitivas. En el archipiélago de Sonda y en las islas Filipinas. los indígenas construyen piraguas con cañas y pieles. Son embarcaciones livianas, perfectamente manejables, que tienen a veces una gran vela triangular y un ingenioso sistema de balancines para estabilizarlas. Se deslizan sobre las aguas, rozándolas apenas, como silenciosas gaviotas.

DE MENFIS A CARTAGO: Acerquémonos ahora al Mediterráneo, cuna de los primeros marinos. Estamos en la orilla occidental del Nilo, alrededor del año 2000 antes de nuestra era. Vemos el puerto de Menfis, donde hay grandes barcos con inmensas velas triangulares.

Son navíos de transporte mucho más sólidos que las embarcaciones que recorren el Nilo entre Tebas y el mar: de una longitud de treinta o cuarenta metros, con un palo central y una vela más ancha que alta; su calado, apropiado para las aguas poco profundas del delta, no excede de un metro.

En los primeros tiempos de su civilización, los egipcios habían construido barcos iguales a los usados por los polinesios, es decir, un armazón de madera revestida con pieles de animales. Después utilizaron exclusivamente madera, que traían del Sudán: en Egipto no hay bosques y tal vez por ese motivo la patria de los faraones fue una potencia terrestre que prefería no correr aventuras en el mar. Sin embargo, fueron egipcios los primeros navíos importantes 4ue cruzaron el Mediterráneo.

Casi en la misma época, aparecieron a lo largo de las costas asiáticas unos navíos de aspecto muy distinto. No eran muy altos y su proa estaba armada con un espolón cónico. Los tripulaban habilísimos marinos qué, desde Tiro, Sidón y Cartago, navegaban hacia las islas lejanas y misteriosas- Esos hombres audaces eran los fenicios, extraordinarios comerciantes que desarrollaron una gran civilización; pero su imperio, basado en la fuerza movediza del viento y de los mares, naufragó como una frágil embarcación.

Algunos bajorrelieves asirios y griegos nos muestran navíos iguales a los que vemos en las figuras. Pero Ej. modelo asirio fue completamente transformado gracias a los constructores navales de Tarsis y de Cartago, que diseñaron barcos rapidísimos, especiales para largas travesías y para ataques por sorpresa. Como no se atrevieron a construir naves de gran tamaño por temor de que fueran menos sólidas, pensaron en colocar tres filas de remeros en tres pisos, uno encima de otro.

Surgieron así los trirremes, que se conservaron sin grandes cambios durante siglos y se emplearon tanto en la paz como en la guerra. Los dorios (que eran uno de los pueblos helénicos) aprendieron el arte de navegar de estos mercaderes-piratas, cuyos navíos estaban armados para expediciones de corsarios y recorrían las costas del Ática o del Peloponeso. Existen antiguos vasos griegos que reproducen trirremes y barcos comerciales análogos a los cretenses y fenicios.

Estos barcos tenían velas cuadradas, con un castillete de popa muy alto y tres filas de remeros. Los timones eran dos remos, anchos y chatos, ubicados en la parte posterior del barco, y los maniobraban dos marineros a las órdenes de un piloto. Por estas características los trirremes podían emprender largos viajes costeando el Mediterráneo, sin riesgos excesivos y libres del temor de ser atacados por los fenicios, fundadores de Cartago, que desde esa ciudad dominaban el mar cercano.

Al contrario de los cartagineses, los romanos no tenían gran experiencia en los combates navales; sus huestes, eran vencibles en tierra, no se sentían seguras sobre las cubiertas de los trirremes. Añadiremos que el poderío de la flota romana era inferior al de la fenicia.

Pero ése no era obstáculo para detener a los guerreros de Roma, que con sus barcos equipados con el invento de Cayo Duilio (consistente en un puente levadizo provisto de garfios, para facilitar el abordaje) habían derrotado ya a las pequeñas flotas de las colonias griegas. Sin embargo, para enfrentar a los cartagineses necesitaban naves más poderosas.

Tomando entonces como modelo un quinquerreme arrojado por el mar sobre la costa de Ostia, aliada de Roma, Cayo Duilio ordenó la construcción de cien de ellos. El quinquerreme era el último invento de los fenicios: parecido al trirreme por su forma, pero de mayor tamaño y con cinco filas de remeros.

Los ingenieros romanos los hicieron más completos agregándoles un castillo en la proa, desde donde se manejaba un puente levadizo con poderosos ganchos; al bajar el puente, los ganchos sujetaban fuertemente al barco enemigo; entonces los guerreros se lanzaban al abordaje.

Al aproximarse la flota romana, seguros de lograr como siempre la victoria, los cartagineses se aprestaron a la lucha. ¿Qué podían hacer contra el poderío de Cartago esos campesinos tan poco acostumbrados a la furia del mar? Dos horas después, las escuadras estaban tan cerca que podían oírse las voces de los cómitres de las naves que marcaban el ritmo a los remeros.

Resplandecían al sol los cascos y las espadas de los hombres dispuestos a la batalla. Cuál no seria la sorpresa de los cartagineses al ver que sus adversarios se acercaban como verdaderos maestros en el arte de entablar la lucha! A fuerza de remos, ejecutando una maniobra de sorprendente precisión, los barcos romanos se acercaron a los cartagineses según un plan rigurosamente estudiado. El choque se produjo con un ruido ensordecedor.

Los garfios inventados por Cayo Duilio, arrojados desde los puentes, se aferraron como aves de presa a losquinquerremes cartagineses, y, con rapidez increíble, los legionarios se precipitaron en los barcos enemigos. Ese día, envuelta en llamas, la flota pánica se hundió en el Mediterráneo, arrastrando consigo el poderío de la orgullosa Cartago.

MARE NOSTRUM: Durante siglos los romanos dominaron el Mediterráneo al que llamaron Mare Nostrum (mar nuestro). La perfección alcanzada por los constructores navales ha sido comprobada con las naves que hace pocos años se sacaron del lodo después del desecamiento del lago Nemi. Esos navíos se asemejan más a los modernos que los de la Edad Media.

En la época imperial, Roma construyó cuadrirremes de 150 metros de largo. Estaban armados con decenas de piezas de guerra ubicadas en torres y su tripulación alcanzaba a mil hombres. Pero cuando desaparecieron todos los adversarios dignos del poderío de Roma, los grandes navíos de guerra se hicieron inútiles; la marina romana construyó entonces embarcaciones livianas y rápidas, como las liburnias, de velamen reducido y tonelaje muy inferior a los cuadrirremes, para el servicio de policía contra los piratas y contrabandistas del Mediterráneo.

En cambio, aumentó considerablemente el tamaño de las naves mercantes (llamadas “barcos redondos” por su forma), que tenían un velamen más abundante, sostenido por un palo mayor y una especie de trinquete indinado sobre la proa.

LOS VIKINGOS: Llegamos al siglo IX de nuestra era. Mientras en el mar Egeo y en el Jónico las galeras bizantinas se enfrentan con los sarracenos, en el mar del Norte aparecen largas y gallardas embarcaciones. Un monje deSaint Call, autor de las Gestas de Carlomagno, afirma haberlas visto a lo largo de las costas del norte de Francia. Las tripulaban los vikingos, piratas despiadados que asolaban las costas de Europa.

Los navíos de los vikingos tenían dos velas, proa puntiaguda y quilla plana. Esos “dragones del mar” podían cruzar mares y remontar ríos. Existe incluso la teoría de -que, arrastrados por algunas tormentas, pudieron llegar a Groenlandia.

Llegaron hasta Francia y el sur de Italia, donde se los llamó normandos, nombre derivado de “nor” y “man”, que significa hombres del norte. Y así era, pues venían de Escandinavia. Existen todavía iglesias y castillos edificados bor ellos, porque muchos de esos paganos se convirtieron al cristianismo.

GALERAS DE LA EDAD MEDIA: En la cuenca mediterránea, los dromones bizantinos se habían modificado lentamente. Después del año mil las flotas de Bizancio, Venecia y Génova, estaban integradas por navíos de alrededor de setenta metros de largo, impulsados los remos y por dos velas latinas que se utilizaban cuando viento era favorable.

Estos barcos, aptos para la guerra y para las expediciones de corsarios, eran muy angostos. Se llamaron galeazas, y todas las embarcaciones construidas hasta el siglo XVII los tomaron como modelo.

Su armamento consistía en dos catapultas colocadas a proa. Más adelante fueron reemplazadas por cañones. Además de la tripulación corriente, llevaban un centenar de hombres armados. Los remeros estaban protegidos por dos hileras de escudos, colocadas una encima de otra a lo largo del barco. Dos grandes plataformas sostenían las máquinas de guerra, y allí estaban también los combatientes.

Al recordar las antiguas galeras pensamos en horrendas cárceles flotantes. Los remeros se llamaban galeotes y eran elegidos entre los condenados a prisión que por su fortaleza física podían soportar el trato cruel que les daban. Encadenados a sus bancos y apaleados por los cómitres, su condena terminaba únicamente con la muerte.

Los barcos mercantes medievales, construidos según el modelo de los navíos romanos, empezaron a realizar largos viajes en el siglo XII , escoltados por galeras ligeras. Estos navíos tenían un castillete en la proa y otro en la popa; su velamen, hábilmente dispuesto, podía aprovechar hasta los vientos más leves.

Se transformaron después en carabelas de poco tonelaje, como la Niña y la Pinta de Colón, o en enormes naves de tres palos. Durante las cruzadas se abrieron anchas puertas en los costados de las suaves para poder embarcar o desembarcar caballos.

Observemos que la existencia del Occidente cristiano se debe en buena parte a las galeras y a todos los barcos impulsados a remo. En efecto, después de un millar de años de guerras inútiles, los occidentales comprendieron que debían unirse contra el poderío turco, cada vez más amenazador.

El 7 de octubre de 1571, en aguas de Lepanto (Grecia), la flota cristiana, al mando de don Juan de Austria, se enfrentó con más de doscientas naves turcas. Españoles, venecianos, genoveses y pontificios, unidos ahora por una causa común, lanzaron sus galeras al ataque; los cañones tronaron durante largas horas y, al atardecer, cincuenta barcos turcos estaban en el fondo del mar y 117 habían sido apresados. La derrota de Lepanto debilitó el poder del Sultán. Europa tomó el impulso hacia la supremacía mundial que debía conservar durante siglos.

La navegación a vela era un arte muy difícil; reclamaba rapidez en el cálculo, conocimiento del mar y de los vientos, inteligencia y coraje.

En el siglo, XIV el descubrimiento de la brújula y su perfeccionamiento por Flavio Gioja, de Amalfi, alrededor del año 1300, inauguraron el segundo ciclo de la navegación. Gracias a ese instrumento maravilloso, Europa podía aventurarse a descubrir tierras desconocidas. Se empezó por las Canarias, Maderas, las Azores, las islas del Cabo Verde, y se concluyó con las Indias Orientales y América.

Cuando en la noche del 15 de marzo de 1493 la Niña ancló de regreso en aguas de Palos, nadie tuvo una clara visión de la importancia del hecho. El mismo Colón no se había dado cuenta de que el voluminoso cuaderno de bitácora que llevaba bajo el brazo abría una nueva era para la humanidad.

En 1497, Vasco de Gama dobló el cabo de Buena Esperanza. En 1520, Magallanes y Elcano encontraron, en el extremo sur de América, un estrecho que les conduciría al Pacífico. Las grandes rutas del mundo quedaban abiertas, Pero la navegación de alta mar, sin puertos donde recalar, tornaba inadecuado el empleo de los remos. El uso de las velas cuadradas se difundía cada vez más, y el velamen, al disminuir sus dimensiones, acrecentaba la posibilidad de mejores maniobras, más rápidas y de mayor seguridad.

En el siglo XVI, el invento de la corredera (instrumento para medir la velocidad de los barcos) y de las nuevas cartas de navegación, permitieron a los marinos calcular su ruta con mayor exactitud. Los progresos realizados en los instrumentos de la astronomía náutica y en los cronómetros aumentaron la seguridad.

Al final del siglo XVIII , gracias a los sextantes, aparatos que sirven para medir ángulos y distancias, a los relojes marinos y a las cartas de marear, los barcos siempre podían establecer su posición con exactitud.
Entre tanto las carabelas, las galeras, las grandes carracas y las naves ligeras llamadas caiques habían desaparecido o se las había transformado.

Los galeones españoles que realizaban un activo comercio entre América y España fueron construidos según el modelo de los antiguos navíos y tenían una arboladura —artimón, palo mayor y trinquete— que soportaba un velamen poderoso. El viento los impulsaba gracias a la eficaz disposición de las velas. Esas naves tenían un castillo de popa donde estaba el puente de mando; iban fuertemente amadas para hacer frente a cualquier peligro.

Francia, España, Inglaterra y Holanda estuvieron casi continuamente en guerra durante 200 años. Piratas y corsarios se aventuraban a través de los mares y se ensañaban con los barcos que apresaban y saqueaban. Los jefes musulmanes consideraban esa clase de bandolerismo como una profesión.

Después del galeón, demasiado pesado y sobrecargado, se construyeron naves más esbeltas, que hoy se llamarían hidrodinámicas. El velamen era más alto y facilitaba las maniobras; gracias a él, las embarcaciones se deslizaban más velozmente. Pero los constructores navales no habían sido nada más que buenos carpinteros y desconocían muchos problemas de la arquitectura náutica.

En el siglo XVIII , la Academia de Ciencias de Francia llamé a concurso a los grandes estudiosos de la geometría para mejorar la forma, el velamen, la distribución de la carga y la propulsión. El ingeniero Sané, francés, construyó los mas perfectos navíos de alta mar. Durante las guerras de la Revolución Francesa, varios de ellos cayeron en manos de los ingleses que los utilizaron como modelo.

Generalmente las velas toman el nombre del palo que las sostiene. Hay velas cuadradas (como la gran vela y el trinquete), trapezoidales o cangrejas como las gavias del mastelero mayor y los perroquetes, y triangulares como los foques y las latinas. Relativamente sencilla en las goletas o en los bergantines, la navegación era un arte muy difícil en los barbos de gran calado. Cada una de sus velas debía ser orientada exactamente según la dirección y las variaciones del viento, para alcanzar el máximo de velocidad con el mínimo de riesgo.

En la época de la navegación a vela, la vida de los marinos era muy penosa. De noche o de día, a menudo en plena tormenta, los gavieros (grumetes de vigía) debían trepar y aferrarse a la arboladura, orientar o amurar las velas, mientras otros tripulantes debían maniobrar los pesados palos horizontales cada vez que la nave cambiaba de rumbo.

En los navíos del Estado la alimentación no era buena y a menudo se echaba a perder en los largos cruceros por los mares cálidos. Sin embargo, la pasión por el mar era tan fuerte que hacia olvidar todas las penurias.

Los barcos se clasificaban en primera, segunda y tercera categoría, según el tonelaje y el armamento. En el siglo XVIII , los navíos de línea estaban artillados con cien cañones y desplazaban seis mil toneladas, y las fragatas estaban armadas con piezas de artillería cuyo número oscilaba entre treinta y sesenta. Para escolta y exploración se empleaban naves más pequeñas como las corbetas, los bergantines y las embarcaciones ligeras de un solo palo llamadas cuteres”.

A principios del siglo XIX, la navegación a vela alcanzó su apogeo con los grandes barcos rápidos y seguros que a gran velocidad cruzaban los océanos con su velamen desplegado.

En ese entonces se creía que los barcos de vapor—se los llamaba aún “piróscafos”— sólo podrían servir para la navegación fluvial. En nuestros días, únicamente por depone navegamos, corremos regatas y realizamos cruceros en barcos a vela.

¿Acaso podemos comprender, de este modo, los sacrificios, angustias y penurias de los antiguos navegantes? … Para tener una leve idea, espiemos un poco en el libro de viajes de Colón: “En ochenta días de espantable tormenta no vi el sol ni las estrellas del mar: los navíos tenían rumbos abiertos, rotas las velas, perdidas anda y jarcia, y barcas y bastimentos. La gente enferma. Ahí estaba Fernando, mi hijo, con sus trece años. De verlo, el dolor me arrancaba el alma”

Cuadro Comparativo De Los Barcos en la Edad Moderna

Fuente Consultada: Lo Se Todo Tomo III

Historia del Uso del Vapor en los Barcos Navegacion Maritima

Historia del Uso del Vapor en los Barcos

La Revolución Industrial, que comenzó en Inglaterra a fines del siglo XVIII, utilizó el vapor como su principal fuente de energía. El descubrimiento se aplicó, en un primer momento, a las máquinas mineras y a las textiles, consiguiendo en ambos casos un aumento notable en la producción. Pronto, sin embargo, los inventores orientaron sus esfuerzos a mejorar los transportes tanto terrestres como marítimos.

El ferrocarril, en el primer caso, y el barco de vapor, en el segundo, fueron los dos principales productos de aquellos afanes y los que revolucionaron las comunicaciones en el siglo XIX. Una de las consecuencias directas de esos inventos fue el acortamiento de las distancias y la posibilidad de hacer más efectivo el control de los países centrales sobre sus colonias.

Aunque los primeros intentos de aplicación del vapor a la navegación fueran tan antiguos como los primeros ensayos de locomotoras, la difusión y el triunfo de la propulsión por vapor fueron mucho más lentos en el mar que en tierra firme. La próxima evidencia de progreso fue la aparición de barcos sin vela que comenzaron a surcar en ambos sentidos todos nuestros ríos.

Los espectadores apiñados a lo largo de los ríos Delaware, Hudson, y a veces el Ohio y Misisipí, se asombraban de ver barcos que avanzaban velozmente contra el viento y la corriente. Los horarios diarios de los nuevos barcos, que navegaban a una velocidad fija, nos dieron nueva conciencia del tiempo. El hombre empezó a acelerar sus actividades para no perder terreno ante la puntualidad de la máquina. Fue el amanecer de la era de la velocidad.

Ya en 1783 el francés Claude Francpis había obtenido éxito al crear su “Pyroscaphe”, un barco de vapor con ruedas de paletas. Pese a ello, su logro no tuvo futuro. El impulso prosiguió en Estados Unidos, donde John Stevens botó en 1809 el “Phoenix” en aguas del Atlántico, y en 1811 el primer barco de vapor surcó el Ohio, un río afluente del Missouri.

La construcción naval tradicional de madera fue sustituida por la de hierro y el acero. En 1822, los norteamericanos botaron el primer barco de hierro, el “Aarón Mamby”. Y, entre 1838 y 1844, estadounidenses y británicos se lanzaron a una carrera de competencia naval y botaron, respectivamente, el “Iron Side” y el “Great Britain”, este último dotado de propulsión a hélice. Esos barcos batieron récords de velocidad e impulsaron el comercio mundial a gran escala.

https://historiaybiografias.com/linea_divisoria4.jpg

PRIMERAS EXPERIENCIAS: El barco de vapor que cumplió la hazaña más espectacular fue construido por Oliver Evans, un cafetero de Philadelfia. Sus esfuerzos se encaminaron en lograr un vehículo que pudiera marchar tanto en el agua como en la tierra. Necesitaba una máquina que pudiera accionar de igual modo ruedas de paleta y las ruedas de un carro, y que fuese más pequeña que una máquina de Watt. ¿Pero cómo conseguir suficiente energía de una máquina más pequeña?.

Para la solución bastó con determinar los principios básicos. La máquina atmosférica de Newcomen utilizaba vapor para crear un vacío en un cilindro pero no para empujar los pistones. La máquina di movimiento alternativo de Watt usaba vapor pan empujar el pistón. Evans pensó que cuanto más alfa fuese la temperatura, más fuerte sería el bombar deo de vapor sobre las cabezas de los pistones.

La idea de Evans fue darle más presión al vapor me dianíe elevación de la temperatura y la inyecciói del vapor á cada extremo del cilindro. De esta ma ñera podría acelerar el movimiento del pistón, muí tiplícando la energía disponible hasta el punto de lograr que la máquina fuese más pequeña y propor cionase mayor potencia.

Evans anunció luego que pondría su nueva má quina sobre ruedas para hacerla ir a vapor desde el centro de la calle del Mercado a la orilla del río Delaware, donde las paletas movidas por el vapor se transformarían en un barco de vapor. Miles de curiosos de Filadelfia acudieron a presenciar este sensacional espectáculo de un carro anfibio de vapor que realmente andaba tanto por tierra como en el agua. Pero fue verlo y olvidarlo.

El monstruo era demasiado raro para que el público lo aceptara. Con sus eruptos, el humo daba más la impresión de peligro que de utilidad. A Oliver Evans debe reconocérsele el honor de haber obtenido la primera patente estadounidense por un coche de autopropulsión. El monstruo de 21 toneladas fue el prime automóvil.

Si observamos la composición de la marina británica (que en el siglo XIX era la más importante y la más avanzada del mundo) veremos que en 1820 había sólo 34 vapores frente a unos 22.000 veleros y en 1850 poco más de un millar de vapores contra más de 25.000 embarcaciones de vela: el número de vapores no sobrepasó al de velero: hasta la primera década del siglo XX.

Robert Fulton estaba en París, tratando de vender a Napoleón su submarino que acababa de inventar. El embajador de Estados Unidos convenció finalmente al joven Fulton, a la sazón un conocido pintor y a la vez aprendiz de James Watt, de que debía construir un buque de vapor en el Sena. Discononforme con su obra, Fulton viajó a Escocia para estudiar un nuevo barco de vapor que acababa de iniciar sus viajes diarios por el río Clyde.

Fortificado con su nuevo conocimiento, Fulton regreso a Nueva York y construyó el “Clermont”, que marcó una etapa en la historia de la navegación de por con su memorable viaje por el Hudson. Esta vezel público aceptó la navegación de vapor sin reservas, convirtiéndola en una lucrativa actividad mercantil.

Robert Fulton A finales de 1803, Robert Fulton lanzó al Sena un barco cuyo propulsor era una rueda con paletas, movida por una máquina de vapor, fue mal acogido en Francia, y Fulton prosiguió sus experimentos en Estados Unidos, en 1807 bota su vapor Clermont.

Fulton recorrió en él los 240 Km. que separan Nueva York de Albany surcando el río Hudson. Con este mismo barco, se establecería el primer servicio regular a vapor.

Sena barco a vapor

Los inconvenientes del vapor aplicado a la navegación eran evidentes. Las calderas resultaban peligrosas para los cascos de madera de los barcos, tanto por el riesgo de incendio como por las consecuencias de sus vibraciones.

Por otra parte, eran de funcionamiento harto irregular y requerían una gran carga de combustible: en uno de sus primeros viajes, el Real Fernando, el primer buque de vapor español, consumió más carbón del que se había calculado y hubo de detenerse en medio del Guadalquivir y enviar una barca a buscar combustible a una venta cercana al río. Y en cuanto a la marina de guerra, el vapor no fue aplicable más que un vez que se hubo perfeccionado la hélice, ya que las ruedas propulsoras eran muy vulnerables a la artillería.

Las primeras líneas de navegación con buques de vapor se destinaron a cubrir trayectos fluviales, donde las embarcaciones de vela resultaban de escasa utilidad, o pequeñas travesías en mares interiores, donde la relativa regularidad que el vapor prestaba su independencia de las condiciones meteorológicas era un factor estimable (lo que explica que se le confiase el correo).

En 1821 se emplearon vapores para la travesía de Dover a Calais y en 1823 para la de Londres a Rotterdam; también en España se destinó el primer buque de vapor a una línea fluvial: el Real Fernando, construido en los astilleros de Triana para la Real Compañía del Guadalquivir, inauguró en el verano de 1871 la línea Sevilla-Sanlúcar-Cádiz.

En las grandes distancias, la vela seguía dominando ampliamente el panorama. En 1839, el Savannah, movido por vapor y velas, viajó de los Estados Unidos a Liverpool en 25 días, pero éste era también el tiempo que invertía normalmente un velero sin el auxilio del vapor, y los clípers lo redujeron todavía a la mitad. El clíper, que vivió su época dorada entre 1850 y 1870, era un tipo de velero muy ágil y veloz, que alcanzaba espléndidos resultados en travesías largas, como las de Gran Bretaña a América, a la India o a Australia.

Savannah primer barco de vapor que cruzó el Atlántico
En 1819, el Savannah fue el primer barco de vapor que cruzó el Atlántico, en 25 días.

El último de ellos, el Culty Sark, construido en 1869 y activo hasta 1922, se conserva en un dique seco próximo a Londres: era un buque compuesto, con una armazón de hierro y planchas de madera. Recordarlos también que el segundo tercio del siglo XIX vio producirse un renacimiento de la marina de vela catalana, dedicada precisamente a efectuar travesías transatlánticas; el primer buque de vapor construido en Barcelona, botado en 1849, fue destinado como remolcador en su puerto.

Pero aunque pareciera que la vela podía competir con el vapor, había varias circunstancias que determinarían su derrota en el futuro. En primer lugar, los perfeccionamientos sucesivos en la propulsión de vapor permitieron una rápida mejora de sus posibilidades, que no estaba al alcance de los constructores de veleros: en 1858, losclípers cruzaban el Atlántico en un tiempo de 12 a 14 días, pero en 1862 el vapor Scotia, de Cunard, lo hizo en 8 días.

En segundo lugar, los buques de madera tenían unas limitaciones insalvables en cuanto a sus posibilidades de aumento de tonelaje, aunque empleasen una armazón de hierro; esto era un grave inconveniente en unos momentos en que se estaba produciendo un fuerte incremento en el tráfico de productos pesados. Puede apreciarse la importancia de esta diferencia si observamos que el tonelaje medio de un carguero de vapor en la primera mitad del siglo XX venía a ser seis veces vapor que el de los veleros de cien años antes.

Añadamos aún que la construcción de buques metálicos venía a costar de un 70 a un 15 % menos que los construidos de madera, y que los que empleaban el vapor para la propulsión necesitaban tripulaciones más reducidas, lo que condujo a una supresión gradual de las velas auxiliares.

Pero el golpe mortal lo recibirían los veleros en la apertura del canal de Suez, en 1869, ya que esta ruta, que acortaba notablemente los viajes entre Europa y la India o Australia, sólo era utilizable por buques de vapor.

Los veleros trataron hasta el último momento de mantener la competencia, aunque fuese limitándose a tráficos en que no importase mucho la velocidad, perdida ya toda esperanza de superar en esto a los vapores.

En 1902 se botó en Hamburgo el Preussen, un velero gigante (el único que haya llevado cinco palos con seis velas cuadradas en cada uno) que tenía unos 130 m de eslora y necesitaba máquinas auxiliares de vapor para levantar las anclas y manejar la carga. Pero a comienzos del siglo XX la batalla estaba inmediatamente perdida para los veleros, relegados progresivamente a pequeñas rutas de cabotaje.

El carguero de vapor dominaba todas las rutas del globo, ya que su gran tonelaje le permitía desempeñar en el mar funciones equivalentes a las del ferrocarril en las rutas terrestres. Los continentes quedaban enlazados por rutas regulares, rápidas y económicas, al mismo tiempo que el tendido de los cables telegráficos submarinos completaba la unidad del mercado mundial.

A fines del siglo XIX el descenso del coste del transporte de los cereales norteamericanos a Europa (combinándose el abaratamiento de las tarifas ferroviarias y el de los fletes) motivó que el trigo de las praderas americanas llegase a los mercados europeos en condiciones de competir con la producción local.

Costaba menos transportar el grano por mar desde Nueva York a Barcelona que llevarlo en tren desde Zaragoza hasta el puerto del Mediterráneo. Era el signo de una situación enteramente nueva: de la aparición de un mercado mundial, representado por los buques cargueros y los ferrocarriles transcontinentales, que haría surgir una división del trabajo a escala planetaria.

Y, sin embargo, a comienzos del siglo XX, la revolución de los transportes no había hecho más que empezar, ya que en las décadas siguientes se sumarían a ella cambios aún más espectaculares: la aplicación de la electricidad a los ferrocarriles, el desarrollo del motor de combustión interna que permitiría que la carretera recuperase una vida propia e independiente, la aparición de un sistema de comunicación que no precisaban del cable o del alambre, el crecimiento de la aviación, etc.

Pero con todo, como ha dicho el profesor Girard, «el siglo del ferrocarril y el buque de vapor ha significado un período decisivo en la historia del transporte y aun en la historia del mundo».

Cuadro Comparativo De Los Barcos en la Edad Moderna

Teoría del Campo Unificado Teorias Fisicas Explicar La Naturaleza

Teoría del Campo Unificado: Teorías Físicas Explicar La Naturaleza

FÍSICA MODERNA: LAS FUERZAS DEL CAMPO UNIFICADO

¿Qué es la teoría del campo unificado?

A mediados del siglo XIX se conocían cuatro fenómenos que eran capaces de hacerse notar a través del vacío. Eran

1) gravitación

2) luz,

3) atracción y repulsión eléctrica y

4) la atracción y repulsión magnéticas.

Al principio parecía que los cuatro fenómenos completamente independientes, que no tenían necesariamente ninguna conexión entre sí. Pero entre 1864 y 1873 el físico teórico escocés J. Clerk Maxwell analizó matemáticamente los fenómenos eléctricos y magnéticos, en ciertas relaciones básicas las “ecuaciones de Maxwell” describían tanto los fenómenos eléctricos como los magnéticos y que demostraban que los unos dependían de los otros.

No había ningún efecto eléctrico que no fuese acompañado de un determinado efecto magnético, y viceversa. En otras palabras, podía hablarse de un «campo electromagnético», que se extendía a través del vacío y que, por contacto, influía sobre los cuerpos de acuerdo con la intensidad del campo en ese punto del espacio.

gravdeda general, accion de una masa en espacio

Maxwell demostró también que haciendo oscilar de manera regular a este campo se originaba una radiación que se alejaba de la fuente de oscilación a la velocidad de la luz en todas direcciones. La luz propiamente dicha era una de esas «radiaciones electromagnéticas» y Maxwell predijo la existencia de formas de luz con longitudes de onda mucho más pequeñas y mucho más grandes que la de la luz ordinaria. Esas otras formas de luz fueron descubiertas a lo largo de los veinte años siguientes, y hoy día se habla de todo un «espectro electromagnético».

Así pues, de los cuatro fenómenos mencionados al principio, tres (electricidad, magnetismo y luz) quedaron fundidos en un único campo. Pero quedaba aún la gravedad por explicar.

Estaban 1) el campo electromagnético y 2) el campo gravitatorio, que al parecer seguían siendo dos campos independientes.

Los físicos, sin embargo, pensaban que sería mucho más bonito que hubiese un solo campo (así nació la idea de la «teoría del campo unificado»); y así empezaron a buscar la manera de describir los efectos electromagnéticos y los gravitatorios de modo que la existencia de unos pudieron utilizarse para describir la naturaleza de la existencia de los otros.

Pero aunque se descubriesen unas ecuaciones que combinaran los efectos electromagnéticos y los gravitatorios, no lograría del todo proporcionar —según los criterios actuales— Un campo auténticamente unificado, porque después de 1935 se descubrieron dos nuevos tipos de campo que sólo afectan a las partículas subatómicas y, además, sólo a distancias inferiores a un diámetro de un núcleo atómico. Son la «interacción nuclear fuerte» y la «interacción nuclear débil».

La fuerza o interacción nuclear fuerte es la que mantiene unidos los componentes de los núcleos atómicos, y actúa indistintamente entre dos nucleones cualesquiera, protones o neutrones. Su alcance es del orden de las dimensiones nucleares, pero es más intensa que la fuerza electromagnética.

La fuerza o interacción nuclear débil es la responsable de la desintegración beta de los neutrones; los neutrinos son sensibles únicamente a este tipo de interacción. Su intensidad es menor que la de la fuerza electromagnética y su alcance es aún menor que el de la interacción nuclear fuerte.

Un auténtico campo unificado tendría explicar fehacientemente la naturaleza  de estos cuatro campos que hoy se conocen. Hoy se sigue investigando la posibilidad de encontrar una teoría física que relacione matemáticamente los distintos comportamientos de la naturaleza, seria como encontrarse “cara a cara con Dios”, y la más acertada hasta el momento es la “teoría de la supercuerdas”

Todo lo que sucede en el Universo es debido a la actuación de una o varias de estas fuerzas que se diferencian unas de otras porque cada una implica el intercambio de un tipo diferente de partícula, denominada partícula de intercambio o intermediaria. Todas las partículas de intercambio son bosones, mientras que las partículas origen de la interacción son fermiones.

En la actualidad, los científicos intentan demostrar que todas estas fuerzas fundamentales, aparentemente diferentes, son manifestaciones, en circunstancias distintas, de un modo único de interacción. El término “teoría del campo unificado” engloba a las nuevas teorías en las que dos o más de las cuatro fuerzas fundamentales aparecen como si fueran básicamente idénticas.

La teoría de la gran unificación intenta unir en un único marco teórico las interacciones nuclear fuerte y nuclear débil, y la fuerza electromagnética. Esta teoría de campo unificado se halla todavía en proceso de ser comprobada. La teoría del todo es otra teoría de campo unificado que pretende proporcionar una descripción unificada de las cuatro fuerzas fundamentales.

Caida Libre de Cuerpo Experiencias de Galileo Galilei Historia Ciencia

Caída Libre de un Cuerpo: Experiencias de Galileo Galilei, Historia – Ciencia

Caída Libre de los cuerpos

Aristóteles había establecido que cuanto más pesado era un cuerpo, más rápidamente caía. Esa afirmación parecía razonable. ¿Por qué un cuerpo más pesado no había de caer con más rapidez? Está claro que la Tierra lo atrae con más fuerza; de otro modo no sería más pesado. Y si uno ve caer una pluma, una hoja o una piedra, al punto se percata de que la piedra cae con más rapidez que la hoja y ésta con más que la pluma.

El problema radica en que los objetos ligeros son frenados por la resistencia del aire; no deben, por tanto, considerarse sólo relativamente pesados. Si se observa la caída de dos piedras, una que pese medio kilo y otra que pese cinco, la resistencia del aire es insignificante en ambos casos. ¿Cómo percatarse entonces de que la piedra de cinco kilos cae, pese a todo, más aprisa que la de medio kilo?

texto de GalileoSe cree que en 1586 Simon Stevin (véase 1583) dejó caer dos piedras a la vez, una considerablemente más pesada que la otra, y demostró que ambas golpeaban el suelo al mismo tiempo. Relatos posteriores pretenden que fue Galileo quien realizó esta demostración, dejando caer simultáneamente diversos pesos desde la Torre inclinada de Pisa. Una y otra historia pueden ser o no ciertas. (imagen: texto de Galileo)

Pero sí es cierto que en 1589 Galileo emprendió una serie de meticulosas pruebas con caída de cuerpos. Estos caían con demasiada rapidez como para facilitar la medición de la velocidad de caída, en especial porque aún no había manera adecuada de medir períodos breves de tiempo.

Galileo dejó rodar bolas por planos inclinados, y cuanto menos pronunciada era la pendiente, más despacio se movían las bolas, impulsadas por la gravedad, y más fácilmente podía ser medida su velocidad de caída con métodos primitivos, como el goteo del agua a través de un orificio.

De este modo, Galileo encontró muy fácil demostrar que mientras las bolas eran lo bastante pesadas como para que la resistencia del aire fuera inapreciable, rodaban por un plano inclinado a la misma velocidad.

También fue capaz de demostrar que las bolas rodaban plano abajo con una aceleración constante, o sea que ganaban velocidad de manera constante en una unidad de tiempo, bajo el empuje asimismo constante de la gravedad.
Dejó sentado otro punto importante. Aristóteles había sostenido que a fin de mantener en movimiento un cuerpo, debía aplicársele una fuerza continua.

Esto también parecía corroborarlo la observación. Si se dejaba deslizar un objeto por el pavimento, no tardaría en perder velocidad hasta detenerse. Para que continuara moviéndose, era necesario seguir empujándolo.

Por esta razón, se creía que los planetas, en su eterno movimiento en torno a la Tierra, debían ser continuamente impulsados por ángeles.

Las observaciones de Galileo demostraron que no era necesario ese empuje continuo para mantener un objeto en movimiento, si se suprimía la fricción. Si la gravedad ejerciera un empuje constante, por ejemplo, un objeto se movería a una velocidad constantemente creciente. En consecuencia, no eran necesarios los ángeles para que los planetas siguieran moviéndose.

Los experimentos de Galileo sobre el movimiento de los cuerpos impresionaron a tal punto, que si bien no fue el primero en llevarlos a cabo — Pedro Peregrino le precedió en más de tres siglos —, por lo general, se le atribuye el mérito de ser el fundador de la ciencia experimental.

LA EXPERIENCIAS DEL CIENTÍFICO RENACENTISTA GALILEO GALILEI SOBRE LA CAÍDA LIBRE DE LOS CUERPO