Graficar Polinomios

Software Para Calcular Momentos de Inercia Centro de Gravedad

Software Para Calcular Momentos de Inercia centro de Gravedad

USO DEL SOFTWARE ULISES II PARA PÓRTICOS

  1. Debes descomponer tu figura en varias figuras elementales (triang, rectan., cuadr.,etc)
  2. Ingresas las medidas aproximadas a los efectos de establecer una escala de trabajo
  3. Eliges en la barra inferior el tipo de figura geométrica
  4. Ingresas las coordenadas de esa figura.
  5. Repites los pasos 3 y 4 hasta completar la figura a determinar el c.d.g.
  6. Ingresas las coordenadas de los perfiles y su altura en cm.
  7. Pulsas sobre el botón calculadora y tendrás el c.d.g. y los mtos. de inercia principales
  8. Puedes visualizar e imprimir los datos obtenidos

 centro de gravedad de perfiles

centro de gravedad de un perfil

Los Archivos de Ambas Descargas Se Deben Colocar Adentro de una Misma Carpeta
Descargar SoftwareDescargar Complementos

Ver También: Método de Cross Para Vigas

CREAR UNA PC VIRTUAL PARA CORRER SOFTWARE DE 32 BITS

//historiaybiografias.com/archivos_varios5/virtual_box.jpg

Haz «clic» para descargar  VirtualBox en forma gratuita, luego se instala y configura como una máquina virtual

Volver a Ingeniería Civil

Software Calculo de Esfuerzos en Vigas Corte y Momento Flector

USO DEL SOFTWARE ARQUIMEDES

  • Debes ingresar la longitud de la viga
  • Elegir el tipo de carga e ingresar los datos de la misma
  • Puedes ir sumando cargas o distintos estados
  • Si es un tramo de una viga continua, puedes ingresar los momentos en los extremos
  • Pulsando sobre los botones de mto. flector y corte puede ver los diagramas
  • Puedes visualizar e imprimir los diagramas

Picar aquí para comenzar la descarga

Bajar Complementos

Es una versión de prueba, pero ideal para estudiantes de ingeniería
(en las vigas simplemente apoyadas puede aparecer un mínimo momento flector en uno de los extremos, pero debes considerarlo como cero)

Los Archivos de Ambas Descargas Se Deben Colocar Adentro de una Misma Carpeta
Descargar SoftwareDescargar Complementos

Ver También: Método de Cross Para Vigas

Esfuerzos en una Viga Isotática Online

Volver a Ingeniería Civil

 

Ver Tambien: Cross Para Vigas

Resolucion Ecuacion de Segundo Grado Aplicar la Resolvente

RESOLUCIÓN ECUACIONES DE 2º GRADO

CALCULO DE LAS RAÍCES EN ECUACIONES CUADRÁTICAS
Por Silvia Ele Profesora de Matemáticas

RESOLVER UNA ECUACIÓN DE SEGUNDO GRADO CON UNA INCÓGNITA 1ra. Parte

Una ecuación de segundo grado es aquella en la cual la incógnita

(generalmente simbolizada por x ) aparece elevada a la segunda potencia.

En general, puede simbolizarse como

MATH

donde $a$ representa al coeficiente del término cuadrático, y nunca puede

ser$=0$ , pero sí puede ser igual a cualquier otro número real.

MATH es el coeficiente del término lineal, es decir aquel en que $x$ aparece elevada

a la primera potencia. Puede o no ser igual a $0$. Y

MATH es el término independiente, pues es el coeficiente del término donde

$x$ aparece elevada a la potencia $0$, o sea, $x$ no aparece porque $x^{0}=1$.

Según los valores de $\ \ a$, $b$ y $c$, las ecuaciones de segundo grado se clasifican en

1.Completas, cuando $a,b$ y $c$ son distintas de $0$.

2.Incompletas, cuando

2.1 $b=0$, o sea, no contiene término lineal,

o bien $\ $cuando 2.2 $c=0,$ es decir, no existe término independiente.

Veamos 2.1. La forma general sería

MATH

En este caso, la resolución es fácil:

MATH $\ \ \ \ \ \ $de donde MATH

Por lo tanto

MATH MATH y MATH

Por ejemplo:

$4x\U{b2}-25=0,$

se resuelve así: $\ $

de $\ 4x\U{b2}=25$, es MATH, y MATH

Por lo tanto, MATH $\ \ \ \ \ \ \ \ $ y MATH

2.2Si $\ \ \ c=0$, es $\ \ \ ax^{2}+bx=0$

En este caso, para resolver, extraemos el factor común, y nos queda

MATH $si$ $a=1$

Que es lo mismo que $(x-0)(x+b)=0,$

y este producto dará $=0$ sólo si $x\U{2081} =0$ , (porque el primer factor será $0$,

y multiplicado por lo que sea que valga el otro, dará producto $0$), o bien si

$x\U{2082} =-b$ (ya que $-b+b=0$ ).

Por ejemplo, $\ x^{2}-4x=0$ se puede pensar como

MATH o sea $x(x-4)$ $=0$ , que tendrá

como raíces $x\U{2081} =0$ y $x\U{2082} =4.$

Volviendo al caso general, si $\ \ a=1$, se dice que las ecuaciones son Reducidas.

Veamos cómo se resuelve una de estas joyitas cuando $a=1$, y $b$ y $c$ son

distintas de $0$.

Su forma sería MATH

Pensémoslo en un ejemplo: $\ x^{2}-6x-16=0$ .

Si hacemos un conveniente pasaje de miembro ( el viejo truco ),

nos queda $x2-6x=16$ [1]

Si observamos el primer miembro, vemos que podría corresponder a los dos

primeros términos de un trinomio cuadrado perfecto ( o sea, el cuadrado de un

binomio), donde

MATH es el cuadrado del primer término del binomio,

MATH sería el doble producto del primero por el segundo,

pero nos faltaría el cuadrado del segundo.

Ahora bien, si $\ x$ es el primer término del binomio, $\ $

$-6$ sería el producto de $2$ (doble producto, dijimos) por el segundo.

Si llamamos $q$ al segundo, donde

$2q=-6$ implica que $q=-3$.

Y el binomio sería $(x-3)$

Entonces, apelando al otro viejo truco: «sumo y resto lo mismo y no altero

la suma», puedo escribir

MATH (porque $9-9=0$)

Y, asociando convenientemente, queda

MATH

o sea, MATH

Entonces, reemplazando en [1], queda MATH

y, resolviendo, será

MATH

y

MATH

o sea MATH de donde $\ x\U{2081} =8$

y $x\U{2082} =-5+3,$ $x\U{2082} $ $=-2$

Generalizando lo anterior, se ve que este mismo proceder es aplicable a

cualquier ecuación general de 2º grado con una incógnita. O sea, si:

MATH

será $\ x^{2}+bx=-c.$

Y si utilizamos el recurso del trinomio cuadrado perfecto, veremos que

$\ bx=2.x.q$ .

Entonces, es $q=\frac{b}{2}.$

y, si sumamos y restamos $\ q^{2}$ en ambos miembros (nuestro querido y

viejo truco), será MATH

Luego, antes de caer en el colpaso cerebral, hacemos el conveniente

pasaje de miembro y el factoreo del trinomio, y nos quedará

MATH 

De donde, MATH

y

MATH ; MATH ; MATH ;

MATH; MATH

que es lo mismo que

MATH .

esto es lo mismo que

MATH 

Y si aún queda alguien que desconfíe de este razonamiento, veamos si,

aplicando esta fórmula en la ecuación anterior, llegamos a las mismas

raíces. (Atención: un ejemplo no es una demostración válida, pero si el ejemplo

no coincide con la conclusión, vale para demostrar la no validez de la misma.)

Recordemos que era:

$a=1$; $\ \ b=-6$; $\ \ c=-16$

entonces MATH

de donde

MATH,

pero $36+64=100$, entonces

MATH o sea MATH entonces

$\ x\U{2081} =8$ ( que coincide con una de las que hallamos antes)

y

MATH entonces $\ x\U{2082} =-2$ (y que también coincide con la otra que hallamos)

APLICACIÓN ONLINE

Una vez aceptado esto, es una buena idea proponernos, para cuando

egresemos de la sala de terapia intensiva para cerebros exhaustos,

preguntarnos si esta fórmula sirve para todos los casos. O sea,

¿sirve tanto para completas como para las incompletas y para las

que no son reducidas?.

También nos queda para después el análisis de la relación entre el

valor y la «realidad» de las raíces, y el signo de la expresión sub-radical

en la fórmula.

Estos desarrollos los dejamos para otro día, cuando la convalescencia

esté avanzada, y nuestras neuronas hayan recuperado su actividad.

Por hoy, les deseo feliz terapia.

Y les digo «¡Hasta el próximo suplicio!»

«Silvia Ele, la autora de esta colaboración, es una profesora de matemática de muchos años, con quien podés comunicarte enviándole un mensaje a  [email protected] «

Curiosa Situacion Física-Vuelo en Globo-Yakov Perelman

CURIOSA SITUACIÓN FÍSICA PARA VOLAR ECONÓMICO

vida en condicones extremas

El procedimiento mas barato de viajar:
El ingenioso escritor francés del siglo XVII, Cyrano de Bergerac cuenta en su «Historia Cómica de los Estados e Imperios de la Luna» (1652), entre otras cosas, un caso sorprendente que, según dice, le ocurrió a él mismo.

Un día, cuando estaba haciendo experimentos de Física, fue elevado por el aire de una forma incomprensible con sus frascos y todo. Cuando al cabo de varias horas consiguió volver a tierra quedó sorprendido al ver que no estaba ni en Francia, ni en Europa, sino en América del Norte, ¡en el Canadá!

¿Se puede ver desde un aeróstato cómo gira la Tierra? (El dibujo no se atiene a escala)

No obstante, el escritor francés consideró que este vuelo transatlántico era completamente natural. Para explicarlo dice que mientras el «viajero a la fuerza» estuvo separado de la superficie terrestre, nuestro planeta siguió girando, como siempre, hacia oriente, y que por eso al descender sentó sus pies no en Francia, sino en América.

¡Que medio de viajar más fácil y económico! No hay más que elevarse sobre la superficie de la Tierra y mantenerse en el aire unos cuantos minutos para que al descender nos encontremos en otro lugar, lejos hacia occidente.

¿Para qué emprender pesados viajes por tierra o por mar, cuando podemos esperar colgando en el aire hasta que la misma Tierra nos ponga debajo el sitio a donde queremos ir?.

Desgraciadamente este magnífico procedimiento es pura fantasía.

En primer lugar, porque al elevarnos en el aire seguimos sin separarnos de la esfera terrestre; continuamos ligados a su capa gaseosa, es decir, estaremos como colgados en la atmósfera, la cual también toma parte en el movimiento de rotación de la Tierra alrededor de su eje.

El aire (o mejor dicho, su capa inferior y más densa) gira junto con la Tierra y arrastra consigo todo lo que en él se encuentra: las nubes, los aeroplanos, los pájaros en vuelo, los insectos, etc., etc.

Si el aire no tomara parte en el movimiento de rotación de la Tierra sentiríamos siempre un viento tan fuerte, que los huracanes más terribles parecerían ligeras brisas comparadas con él (La velocidad del huracán es de 40 m por segundo o 144 km por hora.

Pero la Tierra, en una latitud como la de Leningrado, por ejemplo, nos arrastraría a través del aire con una velocidad de 240 m por segundo, es decir, de 828 km por hora, y en la región ecuatorial, por ejemplo, en Ecuador, esta velocidad sería de 465 m por segundo, o de 1.674 km por hora).

Porque lo mismo da que estemos nosotros fijos en un sitio y que el aire pase junto a nosotros o que, por el contrario, sea el aire el que está quieto y nosotros los que nos movemos dentro de él; en ambos casos el viento será igual de fuerte. Por ejemplo, un motociclista que avance a una velocidad de 100 km por hora sentirá un viento fuerte de frente aunque el aire esté en calma.

En segundo lugar, aunque pudiéramos remontarnos hasta las capas superiores de la atmósfera o la Tierra no estuviera rodeada de aire, el procedimiento de viajar económicamente ideado por el satírico francés sería también irrealizable.

Efectivamente, al separarnos de la superficie de la Tierra en rotación continua seguiríamos, por inercia, moviéndonos con la misma velocidad que antes, es decir, con la misma velocidad a que se movería la Tierra debajo de nosotros.

En estas condiciones, al volver a la Tierra nos encontraríamos en el mismo sitio de donde partimos, de igual manera que cuando damos saltos dentro de un vagón de ferrocarril en marcha caemos en el mismo sitio. Es verdad que por inercia nos moveremos en línea recta (tangencialmente a la superficie terrestre), mientras que la Tierra seguiría un arco debajo de nosotros, pero tratándose de lapsos de tiempo pequeños esta diferencia no se nota.

Fuente Yakov Perelman Física Recreativa

Ir al Menú de Cuestiones Físicas

Ver: Descarga de los Libros de Física y Matemática Curiosa de Perelman

 

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

Metodo de Cross Cálculo de Esfuerzos en Pórticos

USO DEL SOFTWARE COLUMBIA PARA ESFUERZO EN PÓRTICOS

1Ingresas las cantidad de pisos y tramos de tu pórtico (ver ejemplo mas abajo)
2Ingresas las rigideces de cada barra según corresponda sus vínculos
3Ingresas los vínculos de las barras externas (empotradas o apoyadas)
4Ingresas las cargas verticales y horizontales
5Calculas los momentos finales de empotramiento (picas sobre un botón)
6Ingresas la altura de cada piso
7Calculas los esfuerzos de sujeción por piso (picas sobre un botón)
8 Puede visualizar e imprimir los datos obtenidos

(*) El programa tiene un mini manual online de uso para consulta

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

Metodo de Cross Calculo de esfuerzos en Porticos Calculo de Esfuerzos

Los Archivos de Ambas Descargas Se Deben Colocar Adentro de una Misma Carpeta
Descargar SoftwareDescargar Complementos

Ver También: Método de Cross Para Vigas

CREAR UNA PC VIRTUAL PARA CORRER ESTOS SOFTWARE DE 32 BITS EN 64 BITS

//historiaybiografias.com/archivos_varios5/virtual_box.jpg

Haz «clic» para descargar  VirtualBox en forma gratuita, luego se instala y configura como una máquina virtual

Volver a Ingeniería Civil

Interseccion Circunferencia y Recta Geometria Analitica Conicas

CALCULADORA DE INTERSECCION DE CIRCUNFERENCIA Y RECTA

CIRCUNFERENCIA: Un circunferencia está formada por una sucesión de puntos que están a la misma distancia de un punto que se llama centro. Existen muchas partes en un círculo.  El radio es un segmento con un extremo en el centro y el otro en el círculo. La cuerda es cualquier segmento con ambos extremos en el círculo. Eldiámetro es una cuerda que pasa por el centro del círculo.

La secante es una línea que interseca dos veces el círculo, y la tangente interseca el círculo en exactamente un solo punto. La tangente es perpendicular al radio en su punto de tangencia. El perímetro de un círculo se llama circunferencia y es igual a la distancia alrededor del círculo.

La figura de abajo muestra unas cuantas partes más del círculo que se emplearán posteriormente.

interseccion circulo y recta

El ángulo central es un ángulo con el vértice en el centro del círculo. El arco es una sección de un círculo y a menudo se le describe en términos del tamaño de su ángulo central. Entonces, podríamos referirnos a un arco de 20° o un arco de Pi/9 rad. (Pi=3.14)  Aclaramos que 1 rad=57° 18´ aprox. y es el ángulo correspondiente para que la longitud del arco sea igual al radio.

Un arco de longitud igual al radio es 1 rad. Un ángulo central divide el círculo en un arco menor y un arco mayor. También nos podemos referir a un arco por sus puntos extremos. En la figura, el arco menor se identifica como AB. El arco mayor se identifica como ABC, donde A y B son los puntos extremos y C es cualquier otro punto sobre el arco mayor. La longitud de un arco se denota colocando una m enfrente del nombre del arco. Entonces, mAB es la longitud de AB. Un sector es la región en el interior del círculo y está limitado por un ángulo central y un arco.

interseccion de circunferencia y recta

Ejemplo de una intersección entre una recta y una circunferencia, usando la aplicación de mas arriba:

Encontrar los puntos en los que la recta y = 2x – 10 corta al círculo con centro en punto de coordenadas (4, -2) y radio 4.472136. (este valor equivale a la raíz cuadrada de 20).

La ecuación del circulo es:

Y entonces se debe resolver el sistema de ecuaciones siguiente:

Resolviendo se obtiene que hay dos puntos de intersección de coordenadas: A (6,2) y B(2,-6)

Para hacerlo desde esta pagina usando el software de arriba, debe ingresar en Circunferencia C1 los valores en el siguiente orden:
radio= 4.47
x = 4
y = -2

Puede hacer clic en el Botón Graficar y observarás la circunferencia , y si deseas puedes cambiar el valor de la escala y volver a hacer clic en graficar para observar como se adapta al plano de trabajo.

Ahora para la recta se ingresan los dos puntos de pasos por ejemplo, cuando x=0, y=-10 y cuando x=2, y=0

Se vuelve a hacer clic en el Botón Graficar y en las casillas de abajo tendrás los valores de los puntos de intersección y la graficación correspondiente.

Biografia de John Nash Matematico Premio Nobel Teoría de Juegos

Biografia de John Nash Matemático Premio Nobel

John Forbes Nash: Matemático, Premio NobelLa verdadera vida de John Forbes Nash, Jr.: John Forbes Nash (Virginia Occidental, 13 de junio de 1928 – Monroe, Nueva Jersey, 23 de mayo de 2015)​ fue un matemático estadounidense, especialista en teoría de juegos,​ geometría diferencial​ y ecuaciones en derivadas parciales,​ que recibió el Premio Nobel de Economía en 19945​ por sus aportes a la teoría de juegos y los procesos de negociación, junto a Reinhard Selten y John Harsanyi,6​ y el Premio Abel en 2015.

 «Una mente maravillosa», «A beautiful Mind» es un magnífico producto de Hollywood inspirado en la vida de John Nash pero que no pretende ser su biografía. En realidad son muy pocos los hechos o situaciones de la vida real de Nash que son contados en la película.

El padre se llamaba también John Forbes Nash por lo que distinguiremos al padre del hijo al estilo americano, añadiéndoles el calificativo «Senior» o «Junior» (Jr.).

Nash Senior nació en Texas en 1892 y estudió ingeniería eléctrica. Después de luchar en Francia en la primera guerra mundial, fue durante un año profesor de ingeniería eléctrica en la Universidad de Texas tras lo que se incorporó a la empresa Appalachian Power Company en Bluefield, West Virginia.

La madre de Nash Jr., Margaret Virginia Martin, estudió idiomas en las universidades Martha Washington College y West Virginia University.

Fue profesora durante diez años antes de casarse con Nash Senior, el 6 de septiembre de 1924.

Johnny Nash, así le llamaba su familia, nació en Bluefield Sanatorium el 13 de junio de 1928 y fue bautizado en la iglesia Episcopaliana. Sus biógrafos dicen que fue un niño solitario e introvertido aunque estaba rodeado de una familia cariñosa y atenta.

Parece que le gustaban mucho los libros y muy poco jugar con otros niños. Su madre le estimuló en los estudios enseñándole directamente y  llevándole a buenos colegios.

Sin embargo, no destacó por su brillantez en el colegio. Por el contrario, debido a su torpeza en las relaciones sociales, era considerado como un poco atrasado. Sin embargo, a los doce años dedicaba mucho tiempo en su casa a hacer experimentos científicos en su habitación.

Su hermana Martha, dos años más joven que él, era una chica muy normal. Dice de su hermano:

«Johnny era siempre diferente. Mis padres sabían que era diferente y también sabían que era brillante. Él siempre quería hacer las cosas a su manera. Mamá insistía en que yo le ayudase, que lo introdujera entre mis amistades… pero a mí no me entusiasmaba lucir a un hermano tan raro».

A los catorce años Nash empezó a mostrar interés por las matemáticas. Parece ser que influyó la lectura del libro de Eric Temple Bell,  «Men of Mathematics» (1937). Entró en el Bluefield College en 1941. Comenzó a mostrarse hábil en matemáticas, pero su interés principal era la química. Se suponía que iba a seguir la misma carrera de su padre,  ingeniería eléctrica, pero continuaba con sus experimentos químicos. Parece ser que tuvo alguna relación con la fabricación de unos explosivos que produjeron la muerte a uno de sus compañeros de colegio.

Nash ganó una beca en el concurso George Westinghouse y entró en junio de 1945 en el Carnegie Institute of Technology (hoy llamado Carnegie-Mellon University) para estudiar ingeniería química. Sin embargo empezó a destacar en matemáticas cuyo departamento estaba dirigido entonces por John Synge, que reconoció el especial talento de Nash y le convenció para que se especializara en matemáticas.

Se licenció en matemáticas en 1948. Lo aceptaron para estudios de postgrado en las universidades de Harvard, Princeton, Chicago y Michigan. Nash consideraba que la mejor era Harvard, pero Princeton le ofreció una beca mejor por lo que decidió estudiar allí, donde entró en septiembre de 1948.

En 1949, mientras se preparaba para el doctorado, escribió el artículo por el que sería premiado cinco décadas después con el Premio Nobel. En 1950 obtiene el grado de doctor con una tesis llamada «Juegos No-Cooperativos«. Obsérvese que el libro inicial de la teoría de juegos, «Theory of Games and Economic Behavior» de von Neumann y Oskar Morgenstern,  había sido publicado muy poco antes, en 1944.

En 1950 empieza a trabajar para la RAND Corporation, una institución que canalizaba fondos del gobierno de los Estados Unidos para estudios científicos relacionados con la guerra fría y en la que se estaba intentando aplicar los recientes avances en la teoría de juegos para el análisis de estrategias diplomáticas y militares. Simultáneamente seguía trabajando en Princeton.

En 1952 entró como profesor en el Massachusetts Institute of Technology. Parece que sus clases eran muy poco ortodoxas y no fue un profesor popular entre los alumnos, que también se quejaban de sus métodos de examen.

En este tiempo empezó a tener problemas personales graves que añadidos a las dificultades que seguía experimentando en sus relaciones sociales. Conoció a Eleanor Stier con la que tuvo un hijo, John David Stier, nacido el 19 de junio de 1953. A pesar de que ella trató de convencerlo, Nash no quiso casarse con ella. Sus padres solo se enteraron de este asunto en 1956. Nash Senior murió poco después de enterarse del escándalo y parece que John Nash, Jr. se sintió culpable de ello.

En el verano de 1954, John Nash fue arrestado en una redada de  la policía para cazar homosexuales. Como consecuencia de ello fue expulsado de la RAND Corporation.

Una de las alumnas de Nash en el MIT, Alicia Larde, entabló una fuerte amistad con él. Había nacido en El Salvador, pero su familia había emigrado a USA cuando ella era pequeña y habían obtenido la nacionalidad hacía tiempo. El padre de Alicia era médico en un hopital federal en Maryland. En el verano de 1955 John Nash y Alicia salían juntos. En febrero de 1957 se casaron.

En el otoño de 1958 Alicia quedó embarazada, pero antes de que naciera su hijo, la grave enfermedad de Nash ya era muy manifiesta y había sido detectada. Alicia se divorció de él más adelante, pero siempre le ayudó mucho. En el discurso de aceptación del Nobel, en 1994, John Nash tuvo palabras de agradecimiento para ella.

En 1959, tras estar internado durante 50 días en el McLean Hospital, viaja a Europa donde intentó conseguir el estatus de refugiado político. Creía que era perseguido por criptocomunistas. En los años siguientes estaría hospitalizado en varias ocasiones por períodos de cinco a ocho meses en centros psiquiátricos de New Jersey. Unos años después, Nash escribió un artículo para una revista de psiquiatría en el que describió sus pensamientos de aquella época:

«.. el personal de mi universidad, el Massachusetts Institute of Technology, y más tarde todo Boston, se comportaba conmigo de una forma muy extraña.  (…) Empecé a ver criptocomunistas por todas partes (…) Empecé a pensar que yo era una persona de gran importancia religiosa y a oir voces continuamente. Empecé a oir algo así como llamadas telefónicas que sonaban en mi cerebro, de gente opuesta a mis ideas.  (…) El delirio era como un sueño del que parecía que no me despertaba.»

A finales de los sesenta tuvo una nueva recaída, de la que finalmente comenzó a recuperarse. En su discurso de aceptación del Premio Nobel describe su recuperación así:

«Pasó más tiempo. Después, gradualmente, comencé a rechazar intelectualmente algunas de las delirantes líneas de pensamiento que habían sido características de mi orientación. Esto comenzó, de forma más clara, con el rechazo del pensamiento orientado políticamente como una pérdida inútil de esfuerzo intelectual».

En la actualidad sigue trabajando en el Departamento de Matemáticas de la Universidad de Princeton.

Su página web oficial es: http://www.math.princeton.edu/jfnj/

Su dirección electrónica: [email protected]  (hasta el 05-10-2002)

La Presion Atmosférica Experiencia de Torricelli Concepto Definicion

LA MEDICIÓN DE LA PRESIÓN ATMOSFÉRICA, EXPERIENCIA DE TORRICELLI

Todos sabemos que existen varios tipos de presión; cualquiera comprende por ejemplo, la presión que realiza un dedo apoyado apretadamente sobre alguna cosa. Esta presión es igualmente aplicable a los sólidos, a los líquidos y a los gases. De la misma forma que se han hallado medios especiales para medir la gravedad y el peso específico de un cuerpo, también se inventaron medios especiales para medir las presiones.

Cuando se habla de los tres estados de la materia —sólido, líquido y gaseoso— no se hace hincapié en que dos de ellos se parecen entre sí bastante más que el tercero. El agua es muy diferente del aire, pero ambos gozan de la propiedad de fluir. En el sólido existen fuerzas que mantienen unidas las moléculas, de manera que su forma se conserva pero la forma del aire y del agua varían constantemente, porque tanto uno como otra fluyen. En el lenguaje científico, tanto los líquidos como los gases se denominan fluidos. Ahora bien, en todo fluido existe una cierta presión; conocemos perfectamente un ejemplo, ya que siempre hemos soportado la presión del aire, que se denomina presión atmosférica, es entre todas las presiones fluidas, la más importante para nuestra existencia.

Ante todo, cabe decir que en el inmenso océano de aire que nos rodea, existe presión fluida; la consecuencia más importante de esta presión es nuestra respiración. Al respirar, ejecutamos un movimiento que tiende a vaciar nuestros pulmones, pero por estar éstos en comunicación con el aire exterior, la presión atmosférica hace que éste penetre en el espacio que ha quedado libre. Es, pues, evidente que sin la presión atmosférica no nos sería posible respirar.

En un gas, las moléculas están muy separadas, moviéndose a gran velocidad, chocando y rebotando caóticamente. Esta agitación frenética hace que los gases se expandan hasta ocupar todo el lugar disponible en un recipiente. Nuestro planeta está envuelto por una capa de gases a la que llamamos atmósfera, compuesta en su mayor parte por nitrógeno (78%) y oxígeno (21%). Las moléculas de aire activadas enérgicamente por el Sol no escapan al espacio porque el campo gravitatorio de la Tierra restringe su expansión.

Estamos sumergidos en un “océano de aire”, una capa gaseosa que, como una cáscara de manzana (tan fina es), recubre el planeta. En forma similar a como lo hace un liquido, el peso del aire sobre la superficie terrestre ejerce una presión, la presión atmosférica. A diferencia de los líquidos, los gases son compresibles: como su densidad puede variar, las capas superiores de la columna de aire comprimen a las más bajas.

En los lugares más profundos de la atmósfera, es decir a nivel del mar, el aire es más denso, y a medida que subimos se va enrareciendo, hasta que se desvanece a unos 40 Km. de altura. La capa baja, la tropósfera, presenta las condiciones necesarias para la vida y es donde se producen los fenómenos meteorológicos. Mide 11 Km. y contiene el 80 % del aire total de la atmósfera.

La presión atmosférica ha sido determinada en más de un kilo por centímetro cuadrado de superficie (1 Kg/cm²) pero, sin embargo, no lo notarnos (motivo por el cual, por miles de años, los hombres consideraron al aire sin peso). ¿Cómo es que los animales y las personas que están en la Tierra pueden soportar tamaña presión?

El aire ejerce su presión en todas direcciones (como todos los fluidos y los gases), pero los líquidos internos de todos esos seres ejercen una presión que equilibra la presión exterior. En este hecho se basa el mecanismo de esterilización por vacío: para eliminar los microorganismos de una muestra (alimento, instrumental, etc.), se la coloca en un recipiente del cual se extrae el aire. La presión exterior es reducida y los fluidos internos de las bacterias, que estaban sometidas a la presión atmosférica, se expanden, haciendo que éstas “revienten».

Si se extrae el aire de un recipiente, la presión atmosférica lo aplastará, a menos que el recipiente sea suficientemente rígido.

Al apretar una sopapa (para destapar cañerías) contra una superficie pulida se aplasta y queda sin aire. Cuando, por acción de las fuerzas elásticas, la sopapa recupera su forma inicial, queda un vacío parcial en el interior y la presión atmosférica exterior la mantiene adherida a la pared. Del mismo modo, las patas de las moscas tienen pequeñas ventosas que les permiten caminar por paredes y techos sin caer al piso.

El funcionamiento del gotero obedece al mismo fenómeno. Al apretar la perilla de goma creamos un vacío parcial. Cuando sumergimos el tubito en el liquido y soltamos la perilla, la presión atmosférica que se ejerce sobre la superficie libre del liquido lo obliga a subir por el tubo hasta la región de menor presión dentro de la perilla.

Experiencia de Torricelli:
En 1643, el físico italiano Evangelista Torricelli ideó un procedimiento para medir la presión atmosférica.

¿Por qué el mercurio no descendió más? El tubo no se yació porque el aire exterior presionaba sobre el mercurio de la cubeta (en cambio, en la parte superior del tubo se produjo vacío). La presión ejercida por la atmósfera en el punto Q es igual a la presión en R, ya que ambos puntos están al mismo nivel en el mismo fluido. Es decir que la presión que la columna de aire de casi 40 km de altura (la atmósfera) ejerce sobre la superficie libre del mercurio (pQ) es igual a la que ejerce la columna de 76 cm de mercurio (pa) , entonces:

Patm= PHg hHg = 13,6 g/cm3 . 76cm = 1.033,6 g/cm2 = 101.293 N/m2 = 101.293 Pa

Este valor, que corresponde a la presión atmosférica normal, se llama atmósfera (atm). También se acostumbra a dar la presión atmosférica en milímetros de mercurio (Torr) o en milibares (1mb = 0,75 Torr).

1 atm = 760 mm Hg = 760 Torr

Esta experiencia logró explicar por qué había un límite de profundidad para extraer el agua de las minas: la atmósfera no ejerce una presión ilimitada, sólo alcanza a sostener una determinada altura de agua.

La presión atmosférica varía según la altitud y también debido a los vientos y tormentas. Suele tomar valores entre 720 y 770 mm Hg. Una presión alta generalmente pronostica buen tiempo; y una baja presión atmosférica promete lo contrario. El aparato que permite medirla se llama barómetro.

Poco después de la experiencia de Torricelli, Blaise Pascal predijo que la presión atmosférica debe disminuir cuando se asciende por una montaña, ya que la columna de aire soportada es cada vez menor. Su cuñado se encargó de hacer la experiencia y comprobar la hipótesis en 1658. A medida que ascendía al monte Puy de Dome observó el descenso de la columna mercurial del barómetro (que desde entonces pudo ser usado también como altímetro).

Pero, ¿cuál es la relación entre la presión atmosférica y la altura? Si la densidad del aire fuera uniforme, la presión disminuiría proporcionalmente con la altura. Podríamos afirmar, por ejemplo, que “la presión disminuye 1 Torr por cada 11 metros que nos elevamos”. Pero tengamos presente que las capas más bajas de la atmósfera están más comprimidas por lo que, conforme subimos, el aire se va enrareciendo (se hace menos denso). Por lo tanto, cuanto más alto estemos, más se necesitará subir para que la presión disminuya 1 Torr.

El peso total del aire en la atmósfera se ha estimado en unos 5.000 billones de toneladas, que determinan una presión aproximada de 1,033 Kg. por centímetro cuadrado a nivel del mar. La presión no se siente porque se ejerce igualmente desde todos los ángulos sobre el cuerpo. Sin embargo, la presión del aire puede demostrarse extrayendo todo el aire de un envase, de modo que se produzca el vacío en su interior. Como la presión del aire exterior es más grande que la interior el envase se contraerá y cederá. En la atmósfera la presión del aire varía y se mide con barómetros. Las variaciones son importantes para realizar pronósticos del tiempo, porque las diferencias de presión se asocian con los

Torricelli Evangelista Físico Italiano

Fue físico Evangelista Torricelli, que supuso que el agua subía por los tubos, cuando funcionaban las bombas, por efecto del peso del aire, es decir, de la presión que la atmósfera ejercía sobre la superficie libre del agua. Pero pensó, además, que esa presión debía tener un límite tal que no permitía elevar aquel líquido a más de 10 metros y, reflexionando, supuso que un líquido como el mercurio, que tiene un peso específico unas 13,6 veces mayor que el agua, se elevaría a tan sólo unos 76 centímetros. Torricelli comunicó sus ideas a otro discípulo de Galileo Galilei, de apellido Viviani. Este realizó el experimento hoy conocido con el nombre de experiencia de Torricelli, que confirmó aquellas ideas.

CICLONES Y LOS ANTICICLONES: El cuerpo humano se adapta a la vida en un océano de aire del mismo modo que los peces se adaptan a las tremendas presiones del fondo del mar. Sin embargo, la presión atmosférica decrece sobre el nivel del mar.

A 7.500 metros de altura la presión del aire es de 0,42 gramos por centímetro cuadrado, alrededor de dos quintas partes de la presión a la que está adaptado el cuerpo, y a los 18.000 metros la presión es sólo la de un décimo de la que se ejerce al nivel del mar. Cuando la presión del aire ha descendido mucho, el cuerpo no recibe oxígeno suficiente. De ahí que los aviones posean cabinas presurizadas, que hacen más cómodo el vuelo. La presión del aire es la fuerza utilizada en las BOMBAS. Comprimido, el aire llegó a ser una útil fuente de energía. Por ejemplo, el aire comprimido se usa en las herramientas naúticas.

PARA SABER MAS…
Qué es el barómetro

El tubo de Torricelli aplicado a la medición de la presión atmosférica, forma ni más ni menos lo que se llama un barómetro, que significa precisamente «medidor del peso»; con el barómetro medimos, pues, el peso atmosférico. Cuando lo consultamos, nos contentamos con ver si la aguja marca buen tiempo o variable, e lo que sea en cada caso, como si el barómetro poseyera el don de la profecía; pero lo que hacemos en realidad, aunque apenas nos demos cuenta de ello, es medir la presión atmosférica, que se indica bajo aquellos signos. La aguja del barómetro indica la altura en milímetros de la columna de mercurio.

La relación entre el barómetro y el tiempo reside en el hecho de que la presión atmosférica es lo que decide, en gran parte, el tiempo que hará. Si la presión atmosférica es muy alta, hará buen tiempo; si es muy baja, entonces el aire correrá desde otro punto donde la presión sea más fuerte; este desplazamiento del aire es el viento, y el viento puede producir la lluvia.

He aquí por qué el barómetro predice con bastante exactitud el tiempo; si no lo hace con mayor precisión, es porque la presión atmosférica no es la única causa de su variación.

Por lo demás, si bien como profeta del tiempo no siempre es digno de crédito, sus servicios para medir las alturas son excelentes. Dado que obedece a la menor presión atmosférica, si se aplica el barómetro a un instrumento de precisión especial, indicará con exactitud matemática a qué altura se encuentran el alpinista o el aviador que se sirvan de él.

baromtroEl barómetro más difundido es igual al tubo del instrumento de Torricelli, pero su extremo suele estar doblado en forma de U, en lugar de penetrar en una cubeta de mercurio.

Si hacemos flotar una bolita de hierro en la superficie del mercurio por la parte abierta del tubo, podrá adherirse a ella con facilidad un pequeño dispositivo con una aguja que nos indique la altura de la columna barométrica, señalada con las palabras: bien tiempo, estable, variable, lluvia, etc.

Existe otro tipo de barómetro que no tiene mercurio ni ningún otro líquido, llamado barómetro aneroide, que significa precisamente «sin líquido». Consiste en una sencilla caja de metal, redonda y aplanada, dentro de la cual se ha hecho el vacío; la parte superior e inferior de la caja se aproximan entre sí, más o menos, según sea la presión atmosférica; un indicador de la medida de la presión, y aunque sus indicaciones no sean muy precisas, son, en todo caso, suficientes.

Si calentamos un barómetro corriente de los de mercurio, éste se dilatará, ocupando un mayor espacio en el tubo; por lo tanto, si deseamos obtener indicaciones exactas, debemos tener en cuenta también la temperatura. Por esto, a un buen barómetro va siempre unido un termómetro. Para fabricar un buen barómetro, es necesario hacer hervir antes el mercurio para librarlo al máximo del aire y del vapor acuoso; si se descuidase esta precaución, el aire y el vapor de agua ocuparían el vacío de Torricelli impidiendo el oportuno ascenso del mercurio.

La presión atmosférica se calcula en 1 kilo y 33 gramos por centímetro cuadrado; por lo tanto, cada centímetro cuadrado de nuestro cuerpo soporta este peso, tan considerable, que si sólo presionara hacia abajo nos aplastaría literalmente.

La Gran Ciencia Grandes Proyectos Cientificos del Mundo Teorias

La Gran Ciencia – Grandes Proyectos Científicos del Mundo

GRAN CIENCIA. Tipo de práctica científica que se inició y desarrolló durante el siglo XX y que requiere de grandes recursos de infraestructura y personal, y, por consiguiente, económicos.

Por este motivo, es necesario tomar decisiones políticas de cierta envergadura para iniciar o mantener proyectos de Gran Ciencia. No estaría de más, por consiguiente, que todos —científicos, políticos o simples ciudadanos (no sé muy bien por qué escribo «simples», cuando ser un buen ciudadano es realmente bastante complicado)— deberíamos conocer no sólo la existencia e importancia de este tipo de ciencia, sino sus mecanismos más notorios. Para contribuir a esta labor de educación social, en una era en la que la ciencia es cuestión de Estado, incluyo aquí este concepto.

El nacimiento de la Gran Ciencia tiene que ver especialmente con la física de las partículas elementales (ahora denominada de altas energías). Buscando instrumentos que fuesen capaces de suministrar cada vez mayor energía a partículas atómicas, para que éstas pudiesen chocar con el núcleo atómico, lo que a su vez debería permitir ahondar en su estructura y en la de los elementos que lo forman —esto es lo que había hecho Ernest Rutherford (1871-1937) en 1911 cuando propuso su modelo atómico: lanzó núcleos de helio sobre láminas delgadas de oro—, físicos británicos primero, y estadounidenses después abrieron la puerta de la Gran Ciencia.

En 1932, John Cockcroft (1897-1967) y Ernest Walton (1903-1995), del Laboratorio Cavendish en Cambridge, utilizaban un multiplicador voltaico que alcanzaba los 125.000 voltios para observar la desintegración de átomos de litio. En realidad no era una gran energía: cuatro años antes Merle Tuve (1901-1982) había utilizado un transformador inventado por Nikola Tesla (1856-1943) para alcanzar, en el Departamento de Magnetismo Terrestre de la Carnegie Institution de Washington, los tres millones de voltios.

En 1937, Robert Van de Graaff (1901-1967) logró construir generadores de cerca de cinco metros de altura, que producían energías de cinco millones de voltios. Fue, sin embargo, Ernest O. Lawrence (1901-1958) el principal promotor de la Gran Ciencia en la física de partículas elementales. A partir de 1932, Lawrence comenzó a construir ciclotrones, máquinas circulares en las que las denominadas partículas elementales iban ganando energía durante cada revolución, lo que les permitía acumular suficiente energía. El primer ciclotrón medía apenas treinta centímetros de diámetro.

Pero aquello sólo era el comienzo: en 1939 Berkeley ya contaba con un ciclotrón de metro y medio de diámetro, en el que los electrones podían alcanzar una energía equivalente a dieciséis millones de voltios (16 Mev). Y en septiembre de ese año Lawrence anunciaba planes para construir uno nuevo que llegase a los 100 MeV.

En abril de 1940, la Fundación Rockefeller donaba 1,4 millones de dólares para la construcción de aquella máquina, el último de sus ciclotrones, que iba a tener más de cuatro metros y medio de diámetro. En la actualidad los grandes aceleradores tienen kilómetros de radio, y cuestan miles de millones de dólares. Aquí tenemos una de las características que con mayor frecuencia se encuentra en la Gran Ciencia: mayor tamaño, mayor potencia, mayor costo económico. No sólo es el tamaño de las máquinas implicadas lo que caracteriza a la Gran Ciencia.

Alrededor de los ciclotrones de Lawrence se agrupaban físicos, químicos, ingenieros, médicos y técnicos de todo tipo. En varios sentidos el laboratorio de Berkeley se parecía más a una factoría que a los gabinetes y laboratorios de otras épocas, el de Lavoisier (1743-1794) en París, el de Liebig (1803-1873) en Giessen o el de Maxwell (183 1-1879) en Cambridge.

La segunda guerra mundial dio un nuevo impulso a este modo, «gigantesco», de organización de la investigación científica. Para llevar adelante proyectos como el del radar o el Manhattan se necesitaban científicos, por supuesto, pero no bastaba sólo con ellos. Era imprescindible también disponer, además de otros profesionales (ingenieros, muy en particular), de una estructura organizativa compleja, en la que no faltase el modo de producción industrial. Los grandes recursos económicos que requiere la Gran Ciencia no siempre están a disposición de naciones aisladas.

En la Europa posterior a la segunda guerra mundial, la construcción de grandes aceleradores de partículas era demasiado costosa como para que cualquier nación pudiese permitirse el lujo de construir uno lo suficientemente potente como para poder aspirar a producir resultados científicos de interés. Así nació el Centre Européen de Recherches Nucléaires (CERN) de Ginebra, fundado en 1952 por doce naciones europeas. La Gran Ciencia fomentaba en este caso la internacionalización.

De hecho, el CERN sirvió de experiencia de asociación política europea; el ambiente político estaba listo para este tipo de experiencias, que culminarían años más tarde en la creación de la Comunidad Económica Europea, que con el tiempo se convertiría en la actual Unión Europea.

La Gran Ciencia puede llegar a ser tan grande que incluso naciones del potencial económico e industrial de Estados Unidos se vean obligadas a abrir algunos de sus proyectos científicos a otros países. Esto ha ocurrido, por ejemplo, con el telescopio espacial Hubble construido por la Natiorial Aeronautics and Space Administration (NASA).

El telescopio Hubble fue lanzado el 24 de abril de 1990, utilizando para ello una de las aeronaves Discovery, pero la idea de poner un gran telescopio en órbita alrededor de la Tierra para evitar la pantalla de radiaciones que es la atmósfera terrestre había surgido cuatro décadas antes. En esos cuarenta años hubo que vencer muchas dificultades; algunas de carácter técnico, por supuesto, pero otras de orden financiero y político.

En 1974, por ejemplo, la Cámara de Representantes estadounidense eliminó del presupuesto el proyecto del telescopio, a pesar de que ya había sido aprobado en 1972. El motivo es que era demasiado caro. Tras muchas gestiones se llegó al compromiso de que el proyecto saldría adelante únicamente si se internacionalizaba, involucrando a la Agencia Espacial Europea (European Space Agency; ESA).

Por supuesto, no se dio este paso por un repentino ataque de fervor ecuménico de los representantes estadounidenses, sino porque la ESA se debería hacer cargo del quince por ciento del presupuesto, con lo que éste se abarataría sustancialmente para Estados Unidos. Finalmente la agencia europea, formada por un consorcio de naciones entre las que se encuentra España, participó en el proyecto, encargándose en particular de la construcción de una cámara para fotografiar objetos que emiten una radiación débil.

En más de un sentido se puede decir que el mundo de las naciones individuales se está quedando demasiado pequeño para la Gran Ciencia. Una muestra más de esa tendencia, la globalización, que parece estar caracterizando al mundo de finales del siglo XX.

Resolución Geométrica o Grafica Ecuacion de Segundo Grado Arabe

Resolución Geométrica o Gráfica Ecuación de Segundo Grado

MÉTODO CREADO EN EL AÑO 800, POR UN UN MATEMÁTICO ÁRABE,  CONOCIDO COMO MUSA AL-KHWARIZMI (780-850)

Quiero mostrarte una forma muy ingeniosa de resolver ecuaciones de segundo grado , en una etapa en donde la matemática estaba “en pañales”. Este matemático trabajó en la biblioteca de Bagdad, cuando esta ciudad reemplazó a la gran Alejandría como centro cultural del mundo. Poco se sabe de este hombre, pero si, se confirmó, que escribió unas pocas pero importantes obras sobre aritmética y álgebra, con numerosas aplicaciones practicas. Estudió 6 casos de ecuaciones de segundo grado, y a la incógnita X la llamaba: “cosa”. 

Como en aquella época no había  un lenguaje estructurado para escribir ecuaciones, y menos, métodos algebraicos para resolverlas, este matemático (al igual que todos), recurrió a la geometría para resolver estas ecuaciones. 

Cuando tienes una ecuación de primer grado (la incógnita X, no tiene exponente), la solución solo consiste en ir despejando los términos hasta dejar “solita la X”, y listo.

Por ejemplo: 3X+4=10 de donde X=(10-4)/3  , x=2 

Nota que pasé primero el 4 restando al 10 porque estaba sumando, luego el 3 dividiendo porque estaba multiplicando y la X quedó sola en un miembro, y vale 2.

 Bien, el problema aparece, cuando la X se eleva al número 2, entonces, queda: X², es decir elevada al cuadrado. Ahora como se hace para dejar sola a la X.

Actualmente (y desde hace siglos), hay un “formulita” muy simple para obtener el valor de X en estos casos, y en cualquier libro de matemática media la puedes encontrar, para no complicarla ahora. 

Ejemplo de ecuación de segundo grado

        3x²-6x-10=0 

Llevando este problema a 1200 años atrás, donde esas técnicas aun no existían, los matemáticos debieron agudizar su ingenio para tratar de resolver algunos casos de este tipo de ecuaciones, sobre todo porque tenían mucho uso en la vida práctica, donde se calculaban superficies, volúmenes, etc. 

Te explicaré esta técnica, conocida como de “completar cuadrados”, utilizando el número de oro (muy usado en  el libro Código de Da Vinci), que justamente viene determinado mediante una ecuación de segundo grado. 

La proporción áurea es aquella, que respeta la siguiente condición, entre los segmento de la figura: 

 El cociente entre el segmento menor y el mayor debe ser igual al cociente entre el segmento mayor y el largo total del segmento, que en este caso vale 1.(puede ser 1 metro, 1 kilometro, 1 centímetro, etc).

En número ò en el lenguaje de las matemática es:

Observa la última ecuación y notarás que es de 2do. Grado. Resolver esto hoy, es “cosa de chicos” y si aplicas la fòrmula o resolvente de 2do. Grado como se la conoce, obtendrás el número de oro :X= 0.618…… 

Te mostraré como hizo este árabe para calcular el valor de X, sin despejar nada, ni usar formulas. 

A la ecuación:           x²+x-1=0

La pone asì:               x²+x=1   (pasa el 1 restando al otro miembro como suma) 

Supone lo siguiente:

El primer miembro: x²+x, dice (y tiene razón) que le representa la superficie lateral de una caja (como de zapatos), cuya base es cuadrada de lado x y las cuatro caras laterales tienen un lado menor igual a: ¼ ò 0.25, (como más te guste), por un lado mayor igual a x. 

Mirado  la figura donde hay una caja desarrollada, se establece que:

La superficie de la base cuadrada vale lado por lado, es decir: x.x=x² 

La superficie de cada cara lateral es: ¼.x=x/4

 Como hay 4 caras, la superficie total serà:  4. x/4= x 

(Observa que al lado menor lo hace valer 0.25 justamente para que al calcular la superpie de las cuatro caras le dè igual a X,que es el segundo termino de su ecuación.) 

Esta superficie vale: 1 (uno) , porque asì dice la ecuación incial. 

Es decir:                                  x² + x =  1

Primer miembro superficie caja=Segundo miembro: valor de la superficie=1

 Ahora, AL-KHWARIZMI, completa los cuatro cuadraditos de los ángulos, para obtener un nuevo gran cuadrado y calcula la superficie del mismo.

Ahora vale: 1 + la superficie de los 4 nuevos cuadraditos de ¼ de lado. 

Por lo tanto la superficie del cuadrado grande es:

1+ 4. 0.25 . 0.25=1.25 

Si ahora la superficie del cuadrado vale: 1.25, cuanto vale el lado del mismo?. Hay que buscar un número que multiplicado por sì mismo dè 1.25, y buscado se tiene que es el: 1.118 pues:
 1.118 . 1.118=1.25 

Y ahora llega el remate final, para obtener el valor de X.

Mira la figura y se observa que si el lado del cuadrado mide 1.118 y los lados de cada cuadradito el de 0.25, cuanto vale ahora X? (que justamente es la raíz de la ecuación).

Muy simple debes restar al lado grande, los dos “pedazitos” de los cuadraditos, ósea que:  X= 1.118-2. 0.25=0.618…Nota que de esta manera, haciendo una comparación geométrica, este sabio de la alta edad media, pudo llegar a conocer el valor de X.

Aquí se aplicó para obtener el numero de oro de la ecuación planteada a partir de las condiciones de proporcionalidad entre dos segmentos. Este método es universal, y se puede aplicar a cualquier ecuación que tenga soluciones en el campo real. Sólo debe estimarse cuanto vale el lado menor de las caras laterales, para que al calcular el área total de las cuatro caras, te dè el valor del segundo término de la ecuación. 

El Efecto Fotoelectrico Formulas Explicacion de la Teoría

El Efecto Fotoeléctrico  – Explicación de la Teoría – Fórmulas

Cuando Einstein recibió el Premio Nobel en 1921, fue su explicación sobre el efecto fotoeléctrico y no su artículo sobre la relatividad especial lo que se citaría. Quizá fuera debido en parte a la negativa de los científicos a aceptar la teoría especial después de tan poco tiempo. Aún así, su análisis del efecto fotoeléctrico en su artículo “Heurística de la generación y conversión de la luz” es de por sí un trabajo revolucionario. Al explicar un efecto que contradecía las creencias de su tiempo sobre la naturaleza de la luz, Einstein contribuyó a la visión global de hoy en día sobre el mundo subatómico, que no sólo el hombre de la calle, sino incluso los propios físicos tienen problemas en imaginar. (mas abajo ver: La historia del fenómeno)

EXPLICACIÓN Y FÓRMULAS DEL FENÓMENO FÍSICO DEL EFECTO FOTOELÉCTRICO

Este efecto, se trata de otro fenómeno que, al igual que la radiación de cuerpo negro, también involucra la interacción entre la radiación y la materia. Pero esta vez se trata de absorción de radiación de metales

EFECTO FOTOELECTRICO

Heinrich Hertz (1857-1894), científico alemán, fue el primero en observar el efecto fotoeléctrico, en 1887, mientras trabajaba en la generación de ondas de radio. Informó esta observación pero no se dedicó a explicarla

EFECTO FOTOELECTRICO Al incidir luz ultravioleta sobre el cátodo metálico (fotocátodo) se detecta el paso de una corriente eléctrica. Se trata de electro­nes que abandonan el cátodo (colector) y se dirigen al ánodo a través del vacío dentro del tubo. Los electrodos se hallan conec­tados a una diferencia de potencial de sólo unos pocos voltios.

 

EFECTO FOTOELECTRICO -1-

La teoría electromagnética clásica considera que la radiación de mayor intensidad (o brillo, si es visible), que corresponde a ondas de mayor amplitud, transporta mayor energía. Esta energía se halla distribuida uniformemente a lo largo del frente de onda. La intensidad es igual a la energía que incide, cada unidad de tiempo, en una unidad de superficie.

EFECTO FOTOELECTRICO -2

Con radiación ultravioleta de diferentes in­tensidades, los electrones salen del metal con la misma velocidad. La radiación más intensa arranca mayor número de electrones. Esta observación también resultaba inexplicable.

EFECTO FOTOELECTRICO -3

Con luz ultravioleta, aun de baja intensidad, los electrones son arrancados prácticamente en forma instantánea, aunque la Física clásica predecía un tiempo de retardo hasta que los átomos absorbieran la energía necesaria para expulsar el electrón. Con luz visible este fenómeno no se observa, aunque se aumente la intensidad de la luz y se ilumine durante mucho tiempo, como para que el átomo absorba bastante energía. Esta observación resultaba inexplicable.

EXPLICACION FISICA DEL FENOMENO

MAX PLANCK

Planck había llegado a la conclusión de que el traspaso de energía entre la materia y la radiación en el cuerpo negro ocurría a través de paquetes de energía. Sin embargo, no quiso admitir que la energía radiante una vez desprendida de la materia también viajaba en forma corpuscular. Es decir que siguió considerando a la radiación que se propaga como una onda clásica.

En 1905, Albert Einstein fue un paso más allá al explicar completamente las características del efecto fotoeléctrico. Para ello retomó la idea del cuanto de energía de Planck, postulando que:

 EINSTEIN

La radiación electromagnética está compuesta por paquetes de energía o fotones. Cada fotón transporta una energía E= v . h , donde v es la frecuencia de la radiación y h es la constante de Planck.

Cuando un fotón incide sobre el metal, transfiere toda su energía a alguno de los electrones. Si esta energía es suficiente para romper la ligadura del electrón con el metal, entonces el electrón se desprende. Si el fotón transporta más energía de la necesaria, este exceso se transforma en energía cinética del electrón:

Expresado en fórmula matematica es: Ecinética = h . v – Eextracción donde Eextracción es la energía necesaria para vencer la unión con el metal.

Esta teoría explica perfectamente los hechos observados:

1. Si la frecuencia de la radiación es baja (como en la luz visible), los fotones no acarrean la suficiente energía como para arrancar electrones, aunque se aumente la intensidad de la luz o el tiempo durante el cual incide.

EFECTO FOTOELECTRICO -4

Para cada tipo de material existe una frecuencia mínima por debajo de la cual no se produce el efecto fotoeléctrico.

2. Si la frecuencia de la radiación es suficiente para que se produzca el efecto fotoeléctrico, un crecimiento de la intensidad hace que sea mayor el número de electrones arrancados (por ende será mayor la corriente), pero no afecta la velocidad de los electrones.

Aumentar la intensidad de la luz equivale a incrementar el número de fotones, pero sin aumentar la energía que transporta cada uno.

3. Según la teoría clásica, habría un tiempo de retardo entre la llegada de la radiación y la emisión del primer electrón. Ya que la energía se distribuye uniformemente sobre el frente de la onda incidente, ésta tardaría al menos algunos cientos de segundos en transferir la energía necesaria. La teoría de Einstein, en cambio, predice que:

Una radiación de frecuencia adecuada, aunque de intensidad sumamente baja, produce emisión de electrones en forma instantánea.

Pasaron diez años de experimentación hasta que la nueva teoría fue corroborada y aceptada. Se determinó el valor de h a partir de experiencias de efecto fotoeléctrico y se encontró que concordaba perfectamente con el valor hallado por Planck a partir del espectro de radiación de cuerpo negro.

Desde ese momento los físicos aceptaron que, si bien la luz se propaga como si fuera una onda, al interactuar con la materia (en los procesos de absorción y emisión) se comporta como un haz de partículas. Esta sorprendente conducta es lo que se ha llamado la naturaleza dual de la luz. Esto muestra que las ideas surgidas del mundo macroscópico no son aplicables al inimaginable mundo de lo diminuto.

Ninguna rama de las ciencias físicas ha tenido tantas repercusiones filosóficas como la teoría de los cuantos, pues al descubrir un abismo, una discontinuidad radical en la estructura de la naturaleza, parece haber hallado también barreras infranqueables al entendimiento humano. Al trabajar en las oscuras interioridades del átomo, donde cada fenómeno tiene simultáneamente el doble aspecto de materia y de energía, los primeros teóricos de la física cuántica, Max Planck y Niels Bohr, descubrieron que la energía no se propaga de manera continua sino a saltos. Estos saltos o cuantos de energía configuran el sustrato de la realidad como una especie de granulado indivisible que pone en duda la continuidad de la materia.
Un lirio (arriba) y sus granos de polen (dcha.) enormemente amplificados sugieren de algún modo la realidad del mundo cuántico. Un microscopio electrónico nos revela la minuciosa estructura del polvo de polen; mas, a nivel subatómico —como se aprecia en el recuadro menor, que representa la estructura de un cristal de iridio fotografiado mediante un microscopio ultramoderno (hasta el momento, la realidad fotografiable más semejante al átomo)—, lo que parece una sólida arquitectura fija es, en realidad, un sistema de intercambios energéticos, que acaecen a velocidades inimaginables en repentinos y discontinuos saltos.

APLICACIÓN: LA CÉLULA FOTOELÉCTRICA
En 1887, Hertz había notado que la luz, al iluminar ciertas substancias, extraía de éstas partículas dotadas de carga negativa, es decir, electrones. Éste fue el efecto fotoeléctrico que hizo posible, al comienzo de nuestro siglo, el nacimiento de maravillas como la telefotografía, es decir, la transmisión a distancia de fotografías (Korn, 1907); el film sonoro (De Forest, 1923); la televisión (B.aird, 1925).

En 1888, el físico Hallwachs descubrió que un electroscopio se cargaba de electricidad cuando sus hojitas eran iluminadas por rayos ultravioletas. Este fenómeno, que fue llamado efecto Hallwachs, permitió construir un dispositivo mágico que, cuando es tocado por una luz o una radiación del mismo tipo, produce corriente eléctrica: la célula fotoeléctrica.

Esta célula fotoeléctrica está constituida por un electrodo metálico cubierto por una substancia que emite fácilmente electrones cuando  iluminada; los electrones recogidos por otro electrodo formado por una partícula metálica, y así origina una corriente eléctrica cu intensidad es proporcional a la intensidad de la iluminación, y que, natural mente, se interrumpe cuando la iluminación cesa.

La célula fotoeléctrica es de fácil construcción y muy económica, es ya uno de los aparatos funda mentales de la civilización mecánico Tiene una infinidad de aplicaciones y ejecuta trabajos realmente prodigiosos. Por ejemplo, supongamos que hay que introducir cien paquetes de cigarrillos en una caja. Una cinta de goma lleva en fila los paquetes y los vuelca en la caja; una célula fotoeléctrica es iluminada con un rayo de luz que es interrumpido por el paso de cada uno de los paquetes de cigarrillos. A la misma está conectado un dispositivo que cuenta y que, al registrar cien interrupciones de luz, da orden de cambiar la caja. Se dirá que también un hombre puede hacer el mismo trabajo. Naturalmente; pero la célula puede contar cien paquetes por segundo-sin cansarse y sin equivocarse.

Las células fotoeléctricas sirven, sobre todo, en los casos en que es necesario un centinela. Así, las células señalan el paso de personas a través de puertas, disparan dispositivos de alarma, bloquean las máquinas cuando el operador se acerca a partes peligrosas, y hasta intervienen en la seguridad de nuestras casas. En efecto, todas las instalaciones de calefacción a nafta poseen una célula que controla que el hogar se mantenga encendido. Si la llama se apagara, sería peligroso continuar inyectando el combustible, de modo que si la célula no ve el resplandor de la llama, detiene el flujo.

HISTORIA DEL EFECTO FOTOELÉCTRICO
El primer investigador que mencionó un efecto fotoeléctrico superficial fue Hertz, en 1887. Un año después, Hallwachs, basándose en los resultados de Hertz, encontró que una lámina de cinc pulida aislada retenía una carga positiva, puesta de manifiesto con un electroscopio, pero, sin embargo, perdía una carga eléctrica negativa, si bajo las mismas condiciones era iluminada por la luz de un arco de carbón.

Demostró también que sólo la luz ultravioleta era la responsable de este efecto. Más adelante, Elster y Geitel demostraron que había algunos metales (sodio, potasio) que eran sensibles a la luz visible, y fueron capaces de construir células fotoeléctricas muy sencillas. Ellos establecieron que la corriente fotoeléctrica a través de sus células era directamente proporcional a la intensidad de luz dentro de un cierto intervalo.

A fines del siglo XIX (en 1899), P. Lenard y J. J. Thomson, independientemente, demostraron que los portadores de electricidad negativa arrancados de las superficies metálicas eran electrones. Por su parte, Lenard demostró que la energía de los electrones arrancados no dependía de la intensidad de la luz, mientras que el número de electrones era proporcional a dicha intensidad. Estos resultados, que no podían ser explicados por la teoría ondulatoria de la luz, llevaron a Einstein a formular una nueva teoría sobre la naturaleza de la luz, en 1905.

Einstein sugirió que la luz podía considerarse como compuesta por pequeñísimos corpúsculos, cuantos de luz o fotones, cada uno de los cuales tenía una cantidad de energía igual a h v, donde h era la famosa constante de Planck,  y v  la  frecuencia  de  la luz.

Cuando la luz era absorbida por el metal, el corpúsculo luminoso desaparecía como tal, pero transfería su energía al electrón dentro del metal, con el cual había chocado, y éste entonces podía escapar si la energía del corpúsculo de luz era superior a la energía con que el electrón estaba unido al metal. Por esta teoría, Einstein recibió, años más tarde, el premio Nobel.

La intensidad de un rayo luminoso viene dada por el número de fotones; por lo tanto, cuanto mayor sea la intensidad, mayor será la energía total que llegue a la superficie del metal. Sin embargo, no importa el número de fotones que choquen con la superficie, porque, si su energía individual es baja, no pueden arrancar ni un solo electrón.

Cuando la energía de los fotones es individualmente superior al umbral, entonces cada uno puede arrancar un electrón y, en este caso, cuanto más intensa sea la iluminación, mayor será el número de electrones arrancados y más intensa la corriente fotoeléctrica. Los materiales como el selenio se utilizan para los fotómetros porque tienen un umbral bastante bajo, y todos los fotones de luz visible tienen suficiente energía para liberar electrones.

Es posible obtener materiales que sean sensibles incluso a la luz infrarroja recubriendo sus superficies de un modo especial. Si se oxida cesio metálico de manera especial, y se deposita sobre una película muy delgada de plata, toda la estructura de la superficie se altera y hace falta una pequeña cantidad de energía para arrancar un electrón.

Este tipo de material puede utilizarse en instrumentos para registrar la recepción de luz infrarroja invisible. Desde el punto de vista de aplicación del efecto fotoeléctrico, la combinación de la célula fotoeléctrica con el amplificador termoiónico ha proporcionado un mecanismo sensible a la luz, que hizo posible la realización de adelantos científicos tales como la televisión, el cine sonoro y la transmisión de fotografías por telégrafo.

Ondas y paquetes
La luz se compone de «paquetes» básicos de energía, llamados fotones. Bajo ciertas circunstancias, éstos actúan como si fuesen objetos sueltos. En condiciones distintas, la luz se comporta como una onda continua de energía. Otra de sus características es que si, por ejemplo, una persona parada a 10 m de distancia de una lámpara, se aleja a 20 m de ésta, la luz que recibirá no será la mitad, sino la cuarta parte de la que recibía en un principio. Ello se debe a que la luz se propaga en círculos, y al duplicarse la distancia tiene que cubrir cuatro veces la misma área. La fuerza de gravedad disminuye de igual manera y, según proponen los científicos, también se desplaza en forma de partículas, de ondas o de ambas; aunque ninguna de éstas ha sido descubierta todavía. Así que la paradoja subsiste: pese a saber exactamente lo que hace la gravedad y poder predecir sus efectos con precisión, se desconoce lo que es en realidad. La más familiar de las fuerzas que gobiernan el universo resulta ser la más misteriosa.

.(leer mas sobre la historia del fenómeno)

Formula de Heron Area del Triangulo Biografia Heron de Alejandria

Fórmula de Herón – Área del Triángulo – Biografía

HERON DE ALEJANDRÍA:

HERON DE ALEJANDRÍA:

Herón de Alejandría (s. I ó II d.C.) fue el inventor de la máquina de vapor. A partir del siglo XVIII muchas máquinas empezaron a funcionar gracias a la energía que se obtiene del vapor de agua.

Diecisiete siglos antes, Herón de Alejandría ya utilizó las posibilidades energéticas del vapor. Su «máquina de vapor» era una esfera hueca a la que se adaptaban dos tubos curvos.

Cuando hervía el agua en el interior de la esfera, ésta giraba a gran velocidad como resultado de la ley de acción y reacción, que no fue formulada como tal hasta muchos siglos más tarde. Pero a nadie se le ocurrió darle al invento más utilidad que la de construir unos cuantos juguetes.

Podemos decir que el mayor de los experimentadores de la antigüedad fue ciertamente Herón. quien escribió sus obras alrededor del año 130 antes de Jesucristo.

Buen matemático, Herón adopta la división del círculo en 360 grados propuesta por Hiparco de Bitinia; excelente pedagogo, funda una auténtica escuela politécnica en Alejandría con una sección consagrada únicamente a los estudiantes dedicados a la investigación.

Para Herón no existe el vacío absoluto y el aire es un cuerpo de gran elasticidad susceptible de presión y depresión. Así explica los aparatos de succión como la pipeta, los recipientes de desagüe constante y las fuentes intermitentes.

Da la explicación de la ventosa y. al igual que Filón, emplea una máquina de aire caliente para impulsar el agua. Herón se ha hecho célebre sobre todo por su eolípila que, por primera vez, utilizaba la fuerza expansiva del vapor de agua y el principio de la reacción.

Este aparato ha sido descrito multitud de veces. Recordemos que se trata de un huevo de cerámica colocado entre dos pivotes laterales y provisto de dos tuberías acodadas. Se calienta el agua que hay en el interior de este huevo y al escaparse el vapor por las tuberías hace que el huevo gire sobre sus pivotes.

En mecánica. Herón resuelve por medio de engranajes el problema de Arquímedes consistente en levantar 1.000 kg. con ayuda de 5 kg. Construye el paralelogramo de las velocidades, inventa el principio del funicular, estudia los misterios del plano inclinado y los de la fricción.

En nuestros días, algunos pioneros del automóvil han aplicado su dispositivo de rueda de fricción para asegurar a los vehículos una transmisión automática. Con todos estos ingenios, Herón demuestra que «lo que se gana en fuerza se pierde en forma de tiempo».

Por otra parte, enuncia la ley de la inercia y encuentra que la fuerza es proporcional a la masa de lo que se mueve y a la velocidad de que está animado. Es ya la prefiguración del gran principio de la mecánica clásica:F= m.a

Los constructores de obras de arte deben a Herón unas tablas de medidas utilizables en el montaje de las bóvedas y en la perforación de túneles y pozos. Los aficionados a la anécdota están intrigados por los autómatas que el gran físico construía para distraerse: curruca que bate las alas y canta cuando se empujan las puertas de un templo, funcionamiento de puertas accionadas por el aire caliente que se eleva del fuego de los sacrificios, etc.

Dejando aparte estas distracciones, hemos de ver en Herón un maestro en el arte de las medidas y un fundador de la mecánica general.

La ingeniosidad mecánica de los alejandrinos aparece en la reconstrucción de estos autómatas hecha por el padre Kircher en su obra «Oedipus Aegyptiacus» publicada en Roma en el siglo XVII y basada en los escritos de Herón. Los científicos están divididos en cuanto a la estimación de la potencia motriz que los movía. Puede suponerse que los pesos, los sifones y la presión del aire caliente están para algo.
El pájaro que mueve las alas  ha podido ser accionado por medio de pesas, las clepsidras  estaban animadas por una corriente de agua cuidadosamente regulada, mientras que el aire calentado por las velas hacía brotar la leche de los senos de la diosa .
https://historiaybiografias.com/archivos_varios5/estrella1_bullet.png

En su Métrica demostró la fórmula de su nombre:
FORMULA DE HERON PARA CALCULO DE ÁREA DE CUALQUIER TRIANGULO:

AREA=formula de HerónDonde: a,b,c son lo lados del triangulo,   s es el semi-perimetro s=(a+b+c)/2

Para el área de un triángulo, donde a, b y c representan sus tres lados y s su semi-perímetro. La fórmula, que constituye el principal mérito matemático de Herón, es fácil de demostrar con ayuda de trigonometría.

Herón de Alejandría (c. 20-62 d.C.), matemático y científico griego, pero puede considárselo como un ingeniero. Su nombre también podría ser Hero (aproximadamente 18 escritores griegos se llamaron Hero ó Herón, creándose cierta dificultad a la hora de su identificación). Herón de Alejandría nació probablemente en Egipto y realizó su trabajo en Alejandría (Egipto).

En nuestros días, el renombre de Herón se debe, sobre todo, a sus deliciosos tratados sobre autómatas griegos y juguetes hidráulicos, como la paradójica «fuente de Herón» donde un chorro de agua parece desafiar la ley de la gravedad, pues brota más alta que su venero.

Escribió al menos 13 obras sobre mecánica, matemáticas y física. Inventó varios instrumentos mecánicos, gran parte de ellos para uso práctico: la aelípila, una máquina a vapor giratoria; la fuente de Herón, un aparato neumático que produce un chorro vertical de agua por la presión del aire y la dioptra, un primitivo instrumento geodésico.

EJEMPLO ONLINE DE LA FORMULA DE HERON: