martes, 27 de junio de 2017

FÍSICA APLICADA III PARCIAL
TEMARIO:
1.-ÁTOMO
2.-CUANTOS
3.-RELATIVIDAD 
4.-PRECEDIBILIDAD
5.-CAOS
6.-NUCLEO 
7.-RADIOACTIVIDAD
8.-FUSIÓN
9.-FISIÓN 




ÁTOMO
El término átomo proviene del griego ἄτομον («átomon»), unión de dos vocablos: α (a), que significa "sin", y τομον (tomon), que significa "división" ("indivisible", algo que no se puede dividir), y fue el nombre que se dice les dio Demócrito de Abdera, discípulo de Leucipo de Mileto, a las partículas que él concebía como las de menor tamaño posible. Un átomo es la unidad constituyente más pequeña de la materia que tiene las propiedades de un elemento químico. Cada sólidolíquidogas y plasma se compone de átomos neutros o ionizados. Los átomos son muy pequeños; los tamaños típicos son alrededor de 100 pm (diez mil millonésima parte de un metro).No obstante, los átomos no tienen límites bien definidos y hay diferentes formas de definir su tamaño que dan valores diferentes pero cercanos. Los átomos son lo suficientemente pequeños para que la física clásica dé resultados notablemente incorrectos. A través del desarrollo de la física, los modelos atómicos han incorporado principios cuánticos para explicar y predecir mejor su comportamiento.


Cada átomo se compone de un núcleo y uno o más electrones unidos al núcleo. El núcleo está compuesto de uno o más protones y típicamente un número similar de neutrones (ninguno en el hidrógeno-1). Los protones y los neutrones son llamados nucleones. Más del 99,94 % de la masa del átomo está en el núcleo. Los protones tienen una carga eléctrica positiva, los electrones tienen una carga eléctrica negativa y los neutrones tienen ambas cargas eléctricas, haciéndolos neutros. Si el número de protones y electrones son iguales, ese átomo es eléctricamente neutro. Si un átomo tiene más o menos electrones que protones, entonces tiene una carga global negativa o positiva, respectivamente, y se denomina ion (anión si es negativa y catión si es positiva).


Los electrones de un átomo son atraídos por los protones en un núcleo atómico por esta fuerza electromagnética. Los protones y los neutrones en el núcleo son atraídos el uno al otro por una fuerza diferente, la fuerza nuclear, que es generalmente más fuerte que la fuerza electromagnética que repele los protones cargados positivamente entre sí. Bajo ciertas circunstancias, más acentuado cuanto mayor número de protones tenga el átomo, la fuerza electromagnética repelente se vuelve más fuerte que la fuerza nuclear y los nucleones pueden ser expulsados o desechados del núcleo, dejando tras de sí un elemento diferente: desintegración nuclear que resulta en transmutación nuclear.
El número de protones en el núcleo define a qué elemento químico pertenece el átomo: por ejemplo, todos los átomos de cobre contienen 29 protones. El número de neutrones define el isótopo del elemento. El número de electrones influye en las propiedades magnéticas de un átomo. Los átomos pueden unirse a otro u otros átomos por enlaces químicos (en los cuales se comparten los electrones de dichos átomos) para formar compuestos químicos tales como moléculas y redes cristalinas. La capacidad de los átomos de asociarse y disociarse es responsable de la mayor parte de los cambios físicos observados en la naturaleza y es el tema de la disciplina de la química.


También existe la antimateria, la cual está compuesta también por átomos pero con las cargas invertidas; los protones tienen carga negativa y se denominan antiprotones, y los electrones tienen una carga positiva y se denominan positrones. Es muchísimo menos frecuente en la naturaleza. Al entrar en contacto con la respectiva partícula (como los protones con los antiprotones y los electrones con los positrones) ambas se aniquilan generando un estallido de energía de rayos gamma y otras partículas.

No toda la materia del universo está compuesta de átomos; de hecho, solo el 5% o menos del universo está compuesto por estos. La materia oscura, que constituye según algunas estimaciones más del 20% del universo, no se compone de átomos, sino de partículas de un tipo actualmente desconocido. También cabe destacar la energía oscura, la cual es un componente que está distribuido por todo el universo, ocupando aproximadamente más del 70% de este.

Partículas subatómicas


A pesar de que átomo significa ‘indivisible’, en realidad está formado por varias partículas subatómicas. El átomo contiene protones, neutrones y electrones, con la excepción del hidrógeno-1, que no contiene neutrones, y del catión hidrógeno o hidrón, que no contiene electrones. Los protones y neutrones del átomo se denominan nucleones, por formar parte del núcleo atómico.
El electrón es la partícula más ligera de cuantas componen el átomo, con una masa de 9,11 · 10−31 kg. Tiene una carga eléctrica negativa, cuya magnitud se define como la carga eléctrica elemental, y se ignora si posee subestructura, por lo que se lo considera una partícula elemental. Los protones tienen una masa de 1,67 · 10−27 kg, 1836 veces la del electrón, y una carga positiva opuesta a la de este. Los neutrones tienen una masa de 1,69 · 10−27 kg, 1839 veces la del electrón, y no poseen carga eléctrica. Las masas de ambos nucleones son ligeramente inferiores dentro del núcleo, debido a la energía potencial del mismo, y sus tamaños 0,8 femtómetros (fm).


son similares, con un radio del orden de 8 · 10−16 m o 

El protón y el neutrón no son partículas elementales, sino que constituyen un estado ligado de quarks u y d, partículas fundamentales recogidas en el modelo estándar de la física de partículas, con cargas eléctricas iguales a +2/3 y −1/3 respectivamente, respecto de la carga elemental. Un protón contiene dos quarks u y un quark d, mientras que el neutrón contiene dos d y un u, en consonancia con la carga de ambos. Los quarks se mantienen unidos mediante la fuerza nuclear fuerte, mediada por gluones —del mismo modo que la fuerza electromagnética está mediada por fotones—. Además de estas, existen otras partículas subatómicas en el modelo estándar: más tipos de quarks, leptones cargados (similares al electrón), etc.

El núcleo atómico

Los átomos de un mismo elemento tienen el mismo número de protones, que se denomina número atómico y se representa por Z. Los átomos de un elemento dado pueden tener distinto número de neutrones: se dice entonces que son isótopos. Ambos números conjuntamente determinan el núclido.
El núcleo atómico puede verse alterado por procesos muy energéticos en comparación con las reacciones químicas. Los núcleos inestables sufren desintegraciones que pueden cambiar su número de protones y neutrones emitiendo radiación. Un núcleo pesado puede fisionarse en otros más ligeros en una reacción nuclear o espontáneamente. Mediante una cantidad suficiente de energía, dos o más núcleos pueden fusionarse en otro más pesado.
En átomos con número atómico bajo, los núcleos con una cantidad distinta de protones y neutrones tienden a desintegrarse en núcleos con proporciones más parejas, más estables. Sin embargo, para valores mayores del número atómico, la repulsión mutua de los protones requiere una proporción mayor de neutrones para estabilizar el núcleo.
2.-CUANTOS

En física, el término cuanto o cuantio(del latín quantum, plural quanta, que significa «cantidad») denota en la física cuántica tanto el valor mínimo que puede tomar una determinada magnitud en un sistema físico, como la mínima variación posible de este parámetro al pasar de un estado discreto a otro.Se habla de que una determinada magnitud está cuantizada según el valor de cuanto. Es decir, el cuanto es una proporción determinada por la magnitud dada.
Un ejemplo del modo en que algunas cantidades relevantes de un sistema físico están cuantizadas se encuentra en el caso de la carga eléctrica de un cuerpo, que sólo puede tomar un valor que sea un múltiplo entero de la carga del electrón. En la moderna teoría cuántica aunque se sigue hablando de cuantización el término cuanto ha caído en desuso. El hecho de que las magnitudes estén cuantizadas se considera ahora un hecho secundario y menos definitorio de las características esenciales de la teoría.




En informática, un cuanto de tiempo es un pequeño intervalo de tiempo que se asigna a un proceso para que ejecute sus instrucciones. El cuanto es determinado por el planificador de procesos utilizando algún algoritmo de planificación.



La palabra «quantum» viene del latín «quantus», por «cuánta [cantidad]». «Quanta», abreviatura de «quanta de electricidad» ​​(electrones) fue utilizada por Philipp Lenard en un artículo de 1902 sobre el efecto fotoeléctrico, quien acreditó a Hermann von Helmholtz el uso de la palabra en el campo de la electricidad. Sin embargo, la palabra «quantum» en general era bien conocida antes de 1900, y a menudo era utilizada por médicos, como por ejemplo en el término quantum satis. Tanto Helmholtz como Julius von Mayer eran médicos, además de físicos. Helmholtz utilizó «quantum» haciendo referencia a calentar en su artículo sobre el trabajo de Mayer, y de hecho, la palabra «quantum» se puede encontrar en la formulación de la primera ley de la termodinámica de Mayer en su carta de 24 de julio de 1841. Max Planck utilizó «quanta» para significar «quanta de materia y electricidad»,de gas y de calor. En 1905, en respuesta al trabajo de Planck y al trabajo experimental de Lenard, que había explicado sus resultados usando el término «quanta de electricidad», Albert Einstein sugirió que la radiación existía en paquetes espacialmente localizados que llamó "cuantos de luz" ("Lightquanta").



El concepto de cuantización de la radiación fue descubierta en 1900 por Max Planck, que había estado tratando de entender la emisión de radiación de los objetos calientes, conocida como radiación del cuerpo negro. Al asumir que la energía sólo puede ser absorbida o liberada en paquetes discretos, pequeños, diferenciales, que llamó "paquetes" o "elementos de energía",Planck explicó el hecho de que ciertos objetos cambiaban de color cuando se calentaban. El 14 de diciembre de 1900, Planck informó de sus hallazgos revolucionarios a la Deutsche Physikalische Gesellschaft, e introdujo la idea de la cuantificación por primera vez como parte de su investigación sobre la radiación del cuerpo negro. Como resultado de sus experimentos, Planck dedujo el valor numérico de h, conocido como constante de Planck, y también pudo reportar un valor más preciso para el número de Avogadro-Loschmidt, el número de moléculas reales en un mol y la unidad de carga eléctrica, a la Sociedad Física Alemana. Después de que se validase su teoría, Planck fue galardonado con el Premio Nobel de Física en 1918 por su descubrimiento.

3.-RELATIVIDAD
La teoría de la relatividad incluye tanto a la teoría de la relatividad especial como la de relatividad general, formuladas por Albert Einstein a principios del siglo XX, que pretendían resolver la incompatibilidad existente entre la mecánica newtoniana y el electromagnetismo.
La teoría de la relatividad especial, publicada en 1905, trata de la física del movimiento de los cuerpos en ausencia de fuerzas gravitatorias, en el que se hacían compatibles las ecuaciones de Maxwell del electromagnetismo con una reformulación de las leyes del movimiento.
La teoría de la relatividad general, publicada en 1915, es una teoría de la gravedad que reemplaza a la gravedad newtoniana, aunque coincide numéricamente con ella para campos gravitatorios débiles y "pequeñas" velocidades. La teoría general se reduce a la teoría especial en ausencia de campos gravitatorios.
El 7 de marzo de 2010, la Academia Israelí de Ciencias exhibió públicamente los manuscritos originales de Einstein (redactados en 1905). El documento, que contiene 46 páginas de textos y fórmulas matemáticas escritas a mano, fue donado por Einstein a la Universidad Hebrea de Jerusalén en 1925 con motivo de su inauguración.

El supuesto básico de la teoría de la relatividad es que la localización de los sucesos físicos, tanto en el tiempo como en el espacio, son relativos al estado de movimiento del observador: así, la longitud de un objeto en movimiento o el instante en que algo sucede, a diferencia de lo que sucede en mecánica newtoniana, no son invariantes absolutos, y diferentes observadores en movimiento relativo entre sí diferirán respecto a ellos (las longitudes y los intervalos temporales, en relatividad son relativos y no absolutos).

Relatividad especial

La teoría de la relatividad especial, también llamada teoría de la relatividad restringida, fue publicada por Albert Einstein en 1905 y describe la física del movimiento en el marco de un espacio-tiempo plano. Esta teoría describe correctamente el movimiento de los cuerpos incluso a grandes velocidades y sus interacciones electromagnéticas, se usa básicamente para estudiar sistemas de referencia inerciales (no es aplicable para problemas astrofísicos donde el campo gravitatorio desempeña un papel importante).
Estos conceptos fueron presentados anteriormente por Poincaré y Lorentz, que son considerados como precursores de la teoría. Si bien la teoría resolvía un buen número de problemas del electromagnetismo y daba una explicación del experimento de Michelson-Morley, no proporciona una descripción relativista adecuada del campo gravitatorio.

Tras la publicación del artículo de Einstein, la nueva teoría de la relatividad especial fue aceptada en unos pocos años por prácticamente la totalidad de los físicos y los matemáticos. De hecho, Poincaré o Lorentz habían estado muy cerca de llegar al mismo resultado que Einstein. La forma geométrica definitiva de la teoría se debe a Hermann Minkowski, antiguo profesor de Einstein en la Politécnica de Zürich; acuñó el término "espacio-tiempo" (Raumzeit) y le dio la forma matemática adecuada.nota 1 El espacio-tiempo de Minkowski es una variedad tetradimensional en la que se entrelazaban de una manera indisoluble las tres dimensiones espaciales y el tiempo.

En este espacio-tiempo de Minkowski, el movimiento de una partícula se representa mediante su línea de universo (Weltlinie), una curva cuyos puntos vienen determinados por cuatro variables distintas: las tres dimensiones espaciales (,,) y el tiempo (). El nuevo esquema de Minkowski obligó a reinterpretar los conceptos de la métrica existentes hasta entonces. El concepto tridimensional de punto fue sustituido por el de suceso. La magnitud de distancia se reemplaza por la magnitud de intervalo.

Relatividad general


Debe notarse que el matemático alemán
 David Hilbert escribió e hizo públicas las ecuaciones de la covariancia antes que Einstein. Ello resultó en no pocas acusaciones de plagio contra Einstein, pero probablemente sea más, porque es una teoría (o perspectiva) geométrica. La misma postula que la presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.La relatividad general fue publicada por Einstein en 1915, presentada como conferencia en la Academia de Ciencias Prusiana el 25 de noviembre. La teoría generaliza el principio de relatividad de Einstein para un observador arbitrario. Esto implica que las ecuaciones de la teoría deben tener una forma de covariancia más general que la covariancia de Lorentz usada en la teoría de la relatividad especial. Además de esto, la teoría de la relatividad general propone que la propia geometría del espacio-tiempo se ve afectada por la presencia de materia, de lo cual resulta una teoría relativista del campo gravitatorio. De hecho la teoría de la relatividad general predice que el espacio-tiempo no será plano en presencia de materia y que la curvatura del espacio-tiempo será percibida como un campo gravitatorio.

Einstein expresó el propósito de la teoría de la relatividad general para aplicar plenamente el programa de Ernst Mach de la relativización de todos los efectos de inercia, incluso añadiendo la llamada constante cosmológica a sus ecuaciones de campo4 para este propósito. Este punto de contacto real de la influencia de Ernst Mach fue claramente identificado en 1918, cuando Einstein distingue lo que él bautizó como el principio de Mach (los efectos inerciales se derivan de la interacción de los cuerpos) del principio de la relatividad general, que se interpreta ahora como el principio de covariancia general.



Formalismo de la teoría de la relatividad

En la teoría de la relatividad una partícula puntual queda representada por un par , donde  es una curva diferenciable, llamada línea de universo de la partícula, y m es un escalar que representa la masa en reposo. El vector tangente a esta curva es un vector temporal llamado cuadrivelocidad, el producto de este vector por la masa en reposo de la partícula es precisamente el cuadrimomento. Este cuadrimomento es un vector de cuatro componentes, tres de estas componentes se denominan espaciales y representan el análogo relativista del momento lineal de la mecánica clásica, la otra componente denominada componente temporal representa la generalización relativista de la energía cinética. Además, dada una curva arbitraria en el espacio-tiempo, puede definirse a lo largo de ella el llamado intervalo relativista, que se obtiene a partir del tensor métrico. El intervalo relativista medido a lo largo de la trayectoria de una partícula es proporcional al intervalo de tiempo propio o intervalo de tiempo percibido por dicha partícula.

Campos

Cuando se consideran campos o distribuciones continuas de masa, se necesita algún tipo de generalización para la noción de partícula. Un campo físico posee momentum y energía distribuidos en el espacio-tiempo, el concepto de cuadrimomento se generaliza mediante el llamado tensor de energía-impulso que representa la distribución en el espacio-tiempo tanto de energía como de momento lineal. A su vez un campo dependiendo de su naturaleza puede representarse por un escalar, un vector o un tensor. Por ejemplo el campo electromagnético se representa por un tensor de segundo orden totalmente antisimétrico o 2-forma. Si se conoce la variación de un campo o una distribución de materia, en el espacio y en el tiempo entonces existen procedimientos para construir su tensor de energía-impulso.

Magnitudes físicas[editar]

En relatividad, estas magnitudes físicas son representadas por vectores 4-dimensionales o bien por objetos matemáticos llamados tensores, que generalizan los vectores, definidos sobre un espacio de cuatro dimensiones. Matemáticamente estos 4-vectores y 4-tensores son elementos definidos del espacio vectorial tangente al espacio-tiempo (y los tensores se definen y se construyen a partir del fibrado tangente o cotangente de la variedad que representa el espacio-tiempo).
Correspondencia entre E3nota 2 y M4nota 3
Espacio tridimensional euclídeoEspacio-tiempo de Minkowski
PuntoSuceso
LongitudIntervalo
VelocidadCuadrivelocidad
MomentumCuadrimomentum


Igualmente además de cuadrivectores, se definen cuadritensores (tensores ordinarios definidos sobre el fibrado tangente del espacio-tiempo concebido como variedad lorentziana). La curvatura del espacio-tiempo se representa por un 4-tensor (tensor de cuarto orden), mientras que la energía y el momento de un medio continuo o el campo electromagnético se representan mediante 2-tensores (simétrico el tensor energía-impulso, antisimétrico el de campo electromagnético). Los cuadrivectores son de hecho 1-tensores, en esta terminología. En este contexto se dice que una magnitud es un invariante relativista si tiene el mismo valor para todos los observadores, obviamente todos los invariantes relativistas son escalares (0-tensores), frecuentemente formados por la contracción de magnitudes tensoriales.
4.-PRECEDIBILIDAD


El término predicción puede referirse tanto a la «acción y al efecto de predecir» como a «las palabras que manifiestan aquello que se predice»; en este sentido, predecir algo es «anunciar por revelación, ciencia o conjetura algo que ha de suceder»

La predicción constituye una de las esencias claves de la ciencia, de una teoría científica o de un modelo científico. Así, el éxito se mide por el éxito o acierto que tengan sus predicciones.

La predicción en el contexto científico es una declaración precisa de lo que ocurrirá en determinadas condiciones especificadas. Se puede expresar a través del silogismo: "Si A es cierto, entonces B también será cierto."
El método científico concluye con la prueba de afirmaciones que son consecuencias lógicas del corpus de las teorías científicas. Generalmente esto se hace a través de experimentos que deben poder repetirse o mediante estudios observacionales rigurosos.
Una teoría científica cuyas aseveraciones no son corroboradas por las observaciones, por las pruebas o por experimentos probablemente será rechazada. El falsacionismo de Karl Popper considera que todas las teorías deben ser puestas en cuestión para comprobar su rigor.
Las teorías que generan muchas predicciones que resultan de gran valor (tanto por su interés científico como por sus aplicaciones) se confirman o se falsean fácilmente y, en muchos campos científicos, las más deseables son aquéllas que, con número bajo de principios básicos, predicen un gran número de sucesos.

Dificultad de predicción en numerosos campos de la ciencia:

Algunos campos de la ciencia tienen gran dificultad de predicción y pronóstico exacto. En algunos campos la complejidad de datos lo hace difícil (pandemias, demografía, la dinámica de la población, la predicción del clima, la predicción de los desastres naturales y, en general, la meteorología). 
                               


La dificultades de predicción obedece a diferentes causas:
  • Variables ocultas no conocidas, en ocasiones en un proceso natural intervienen junto con ciertos factores relevantes bien identificables, medibles y cuantificables, otros factores cuya presencia o ausencia es difícil de determinar y cuya presencia tiene una influencia determinante en el resutlado de proceso. Estos factores cuya presencia es difícil o imposible de determinar es lo que se denomina "variable oculta". Las modelos de variables ocultas han sido ampliamente investigados en mecánica cuántica con el fin de construir teorías deterministas que dieran cuenta del resultado aparentemente aleatorio de ciertas medidas.


  • Dinámica desconocida o compleja, en ocasiones aunque se conocen todas las variables relevantes para predecir el resultado de un proceso, las relaciones entre estas variables no se conoce con precisión, o cuando éstas se conocen las predicciones basadas en ellas son complicadas por problemas relacionados con la computación o cálculo del efecto previsible de las mismas. En concreto los sistemas con sensiblemente dependientes de las condiciones iniciales, cualquier imprecisión en la determinación de inicial de las variables hará que el valor predicho diverja con el tiempo del valor real. Dado que el sistema atmosférico mundial presenta dependencia sensible de las condiciones iniciales, la predicción del tiempo meteorológico sólo es posible con unos pocos días de antelación.



Las anteriores explicaciones son compatibles con el determinismo, una posibilidad más radical que impediría la predicción efectiva es que un fenómeno fuera efectivamente aleatorio o su comportamiento con el conocimiento actual no pudiera distinguirse del comportamiento genuinamente aleatorio. 

5.-CAOS

DEFINICIÓN Y EJEMPLO


Popularmente, se le llama Teoría del Caos a la rama de las ciencias exactas, principalmente física y matemáticas, que trata sobre comportamientos impredecibles en sistemas dinámicos (sistemas complejos que cambian o evolucionan con el estado del tiempo). 


La Teoría del Caos plantea que el mundo no sigue un patrón fijo y previsible, sino que se comporta de manera caótica y que sus procesos y comportamiento dependen, en gran manera, de circunstancias inciertas. Esto plantea que una pequeña variación en el sistema o en un punto del mismo puede provocar que en un lapso de tiempo a futuro éste presente un comportamiento completamente diferente e impredecible. No es propiamente una teoría, sino un gran campo de investigación abierto que abarca numerosas líneas de pensamiento.

De acuerdo a su definición, los sistemas dinámicos se clasifican básicamente en 3 tipos:
  1. Estables
  2. Inestables
  3. Caóticos
  • Los sistemas estables tienden a un punto a lo largo del tiempo o siguen una misma órbita, sus ecuaciones características, condiciones iniciales, sus límites, elementos y relaciones nos permiten conocer su evolución a través del tiempo, es decir, sabemos hacia donde lo dirige su atractor.

  • Los sistemas inestables, en cambio, no se guían por atractores, se escapan de éstos y no tienden hacia un punto.

  • En los sistemas caóticos de pueden conocer sus ecuaciones y sus condiciones iniciales fijas, sin embargo la mas mínima variación provoca una evolución radical en su comportamiento.
Uno de los más citados ejemplos de sistema caótico es el clima atmosférico del cual podemos predecir su comportamiento y elaborar pronósticos en base a ecuaciones, estudios de su comportamiento pasado y el conocimiento de sus condiciones iniciales, sin embargo no podemos conocer con exactitud los parámetros que fijan sus condiciones iniciales y ésto provoca que “aunque se conozca el modelo, éste diverja de la realidad pasado un cierto tiempo”. Así mismo, nuestro pronóstico puede verse afectado por variaciones dentro del sistema atmosférico como la actividad humana, actividad volcánica o incluso fuera de éste como la actividad solar.
  • Un sistema debe presentar las siguientes propiedades para ser considerado caótico:
    • Sensibilidad a las condiciones iniciales
    • Debe ser transitivo
    • Sus órbitas periódicas deben formar un conjunto denso en una región compacta del espacio fisico.
El efecto mariposa
El “efecto mariposa” es un concepto que hace referencia a la noción del tiempo a las condiciones iniciales dentro del marco de la teoría del caos. La idea es que, dadas unas condiciones iniciales de un determinado sistema caótico, la más mínima variación en ellas puede provocar que el sistema evolucione en formas completamente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande a mediano o corto plazo de tiempo.

Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.
Su nombre proviene de las frases: “el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo” (proverbio chino) o “el aleteo de las alas de una mariposa pueden provocar un Tsunami al otro lado del mundo” así como también “El simple aleteo de una mariposa puede cambiar el mundo”.
                   

                  6.-NUCLEO 
El núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,999% de la masa total del átomo.
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción nuclear fuerte, la cual permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes). La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
La existencia del núcleo atómico fue deducida del experimento de Rutherford, donde se bombardeó una lámina fina de oro con partículas alfa, que son núcleos atómicos de helio emitidos por rocas radiactivas. La mayoría de esas partículas traspasaban la lámina, pero algunas rebotaban, lo cual demostró la existencia de un minúsculo núcleo atómico.


El descubrimiento de los electrones fue la primera indicación de la estructura interna de los átomos. A comienzos del siglo XX el modelo aceptado del átomo era el de JJ Thomson "pudín de pasas" modelo en el cual el átomo era una gran bola de carga positiva con los pequeños electrones cargados negativamente incrustado dentro de la misma. Por aquel entonces, los físicos habían descubierto también tres tipos de radiaciones procedentes de los átomos : alfa, beta y radiación gamma. Los experimentos de 1911 realizados por Lise Meitner y Otto Hahn, y por James Chadwick en 1914 mostraron que el espectro de decaimiento beta es continuo y no discreto. Es decir, los electrones son expulsados del átomo con una gama de energías, en vez de las cantidades discretas de energía que se observa en rayos gamma y decaimiento alfa. Esto parecía indicar que la energía no se conservaba en estos decaimiento. Posteriormente se descubrió que la energía sí se conserva, con el descubrimiento de los neutrinos.

En 1906 Ernest Rutherford publicó "El retraso de la partícula alfa del radio cuando atraviesa la materia", en Philosophical Magazine (12, p. 134-46). Hans Geiger amplió este trabajo en una comunicación a la Royal Society (Proc. Roy. Soc. 17 de julio de 1908) con experimentos y Rutherford se había hecho pasar aire a través de las partículas α, papel de aluminio y papel de aluminio dorado. Geiger y Marsden publicaron trabajos adicionales en 1909 (Proc. Roy. Soc. A82 p. 495-500) y ampliaron aún más el trabajo en la publicación de 1910 por Geiger (Proc. Roy. Soc. 1 de febrero de 1910). En 1911-2 Rutherford explicó ante la Royal Society los experimentos y propuso la nueva teoría del núcleo atómico. Por lo que se considera que Rutherford demostró en 1911 la existencia del núcleo atómico.
Por esas mismas fechas (1909) Ernest Rutherford realizó un experimento en el que Hans Geiger y Ernest Marsden, bajo su supervisión dispararon partículas alfa (núcleos de helio) en una delgada lámina de oro. El modelo atómico de Thomson predecía que la de las partículas alfa debían salir de la lámina con pequeñas desviaciones de sus trayectorias. Sin embargo, descubrió que algunas partículas se dispersan a grandes ángulos, e incluso completamente hacia atrás en algunos casos. Este descubrimiento en 1911, llevó al modelo atómico de Rutherford, en que el átomo está constituido por protones y electrones. Así, el átomo del nitrógeno-14 estaría constituido por 14 protones y 7 electrones.
El modelo de Rutherford funcionó bastante bien durante muchos años. Se pensaba que la repulsión de las cargas positivas entre protones era solventada por los electrones -con carga negativa- interpuestos ordenadamente en medio, por lo que el electrón era considerado como un "cemento nuclear".Esto fue hasta que los estudios llevados a cabo por Franco Rasetti, en el Institute of Technology de California en 1929. En 1925 se sabía que los protones y electrones tiene un espín de 1 / 2, y en el modelo de Rutherford nitrógeno - 14 los 14 protones y seis de los electrones deberían cancelar sus contribuciones al espín total, estimándose un espín total de 1 / 2. Rasetti descubierto, sin embargo, que el nitrógeno - 14 tiene un espín total unidad.
En 1930 Wolfgang Pauli no pudo asistir a una reunión en Tubinga, y en su lugar envió una carta famoso con la clásica introducción "Queridos Señoras y señores radiactivos ". En su carta Pauli sugirió que tal vez existía una tercera partícula en el núcleo, que la bautizó con el nombre de "neutrones". Sugirió que era más ligero que un electrón y sin carga eléctrica, y que no interactuaba fácilmente con la materia (y por eso todavía no se le había detectado). Esta hipótesis permitía resolver tanto el problema de la conservación de la energía en la desintegración beta y el espín de nitrógeno - 14, la primera porque los neutrones llevaban la energía no detectada y el segundo porque un electrón extra se acoplaba con el electrón sobrante en el núcleo de nitrógeno - 14 para proporcionar un espín de 1. Enrico Fermi redenominó en 1931 los neutrones de Pauli como neutrinos (en italiano pequeño neutral) y unos treinta años después se demostró finalmente que un neutrinos realmente se emiten en el decaimiento beta.
En 1932 James Chadwick se dio cuenta de que la radiación que de que había sido observado por Walther BotheHerbert L. BeckerIrène y Jean Frédéric Joliot-Curie era en realidad debido a una partícula que él llamó el neutrón. En el mismo año Dimitri Ivanenko sugirió que los neutrones eran, de hecho partículas de espín 1 / 2, que existían en el núcleo y que no existen electrones en el mismo, y Francis Perrin sugirió que los neutrinos son partículas nucleares, que se crean durante el decaimiento beta. Fermi publicó 1934 una teoría de los neutrinos con una sólida base teórica. En el mismo año Hideki Yukawa propuso la primera teoría importante de la fuerza para explicar la forma en que el núcleo mantiene junto.
Luego del descubrimiento del neutrón, por James ChadwickWerner Heisenberg (que enunció años antes el principio de incertidumbre), indicó que los neutrones pueden ser parte del núcleo, y no así los electrones. Con esta teoría se resolvía totalmente el problema del spin que no coincidía, además de explicar todos los aspectos del comportamiento nuclear.2
Sin embargo, la nueva teoría traía consigo otro severo problema: con el modelo anterior, que incluía electrones como "cemento nuclear", se explicaba que los protones, todos con la misma carga positiva, permanecieran totalmente juntos, sin que saliesen disparados por la repulsión de cargas iguales. Sin embargo, con el modelo que incluye el neutrón, no había explicación alguna respecto a la forma en que en núcleo se mantiene unido y no explota de inmediato (es decir, ningún elemento debería existir, con la única excepción del hidrógeno). Para ejemplificar, la fuerza con la que se repelen dos protones a la distancia que están (una diezbillonésima de centímetro), es de aproximadamente 240 newtons, fuerza suficiente para elevar en el aire un objeto de algo más de 24 kilogramos (nótese la enormidad inimaginable de esa fuerza dado que estamos hablando de dos protones, cuya masa es de algo más de 10-27 kilogramos)3
La enorme dificultad que sufría la teoría se fue resolviendo gradualmente. En 1927, Heisenberg propuso el principio de incertidumbre, que indica que mientras mayor sea la precisión con que conozcamos la velocidad de una partícula, con menor precisión podremos conocer su posición.4
En 1930 Einstein dedujo a partir de este principio, por medios matemáticos, que si el principio es correcto, también es correcto otro tipo de indeterminación sobre la medición de la energía existente en un sistema cerrado. Mientras menor sea el lapso de tiempo en el cual se quiere saber la cantidad de energía del sistema, con menor precisión se la podrá medir.3
Al momento de sugerir el modelo de núcleo protón-neutrón, en 1932, Heisenberg sugirió también la existencia de un campo de fuerza que unía los protones, por medio de la existencia efímera de una partícula. La existencia de esta partícula sería posible sólo por el principio de incertidumbre, en la versión enunciada por Einstein.5
El físico japonés, Hideki Yukawa, entonces se puso a analizar las propiedades de la partícula propuesta por Heisenberg, y en 1935 describió esas propiedades con precisión. La partícula sólo podría existir un instante de unos  5 × 10-24 segundos, tiempo suficiente para que pueda ir de un protón a otro, pero no más allá del núcleo del átomo. La energía necesaria para la existencia de esta partícula en ese breve periodo se ajusta al principio de incertidumbre en la versión de Einstein.5 Utilizando esas ecuaciones, la energía disponible en ese periodo sería de 20 pJ (pico julios,  2 × 10-11 J o  1,25 × 108 eV), lo que equivale a una partícula con una masa de 250 veces la del electrón.
Desde entonces hubo varios intentos de detectar esa partícula experimentalmente. Por supuesto que siendo una partícula que sólo existe un breve instante, y utilizando energía no disponible, sólo gracias al principio de incertidumbre, sería imposible de detectar, excepto si esa energía fuese proporcionada. Los rayos cósmicos -partículas que llegan del espacio a enormes velocidades- pueden proporcionar esa energía. En 1948, experimentando con rayos cósmicos en Bolivia, la partícula fue detectada por Cecil Frank Powell. La partícula fue llamada Pion.

7.-RADIOACTIVIDAD

La radiactividad o radioactividad es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helioelectrones o positronesprotones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos inestables, que son capaces de transformarse o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables, en palabras más simples, un átomo inestable emite radiactividad para volverse estable.




La radiactividad ioniza el medio que atraviesa. Una excepción la constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfabetagamma y neutrones libres.
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electronespositrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.
La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).
La radiactividad puede ser:

  • Natural: manifestada por los isótopos que se encuentran en la naturaleza.
  • Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.


La radiactividad o radioactividad es un fenómeno físico por el cual los núcleos de algunos elementos químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de impresionar placas radiográficas, ionizar gases, producir fluorescencia, atravesar cuerpos opacos a la luz ordinaria, entre otros. Debido a esa capacidad, se les suele denominar radiaciones ionizantes (en contraste con las no ionizantes). Las radiaciones emitidas pueden ser electromagnéticas, en forma de rayos X o rayos gamma, o bien corpusculares, como pueden ser núcleos de helioelectrones o positronesprotones u otras. En resumen, es un fenómeno que ocurre en los núcleos de ciertos elementos inestables, que son capaces de transformarse o decaer, espontáneamente, en núcleos atómicos de otros elementos más estables, en palabras más simples, un átomo inestable emite radiactividad para volverse estable.
La radiactividad ioniza el medio que atraviesa. Una excepción la constituye el neutrón, que posee carga neutra (igual carga positiva como negativa), pero ioniza la materia en forma indirecta. En las desintegraciones radiactivas se tienen varios tipos de radiación: alfabetagamma y neutrones libres.
La radiactividad es una propiedad de los isótopos que son "inestables", es decir, que se mantienen en un estado excitado en sus capas electrónicas o nucleares, con lo que, para alcanzar su estado fundamental, deben perder energía. Lo hacen en emisiones electromagnéticas o en emisiones de partículas con una determinada energía cinética. Esto se produce variando la energía de sus electrones (emitiendo rayos X) o de sus nucleones (rayo gamma) o variando el isótopo (al emitir desde el núcleo electronespositrones, neutrones, protones o partículas más pesadas), y en varios pasos sucesivos, con lo que un isótopo pesado puede terminar convirtiéndose en uno mucho más ligero, como el uranio que, con el transcurrir de los siglos, acaba convirtiéndose en plomo.
La radiactividad se aprovecha para la obtención de energía nuclear, se usa en medicina (radioterapia y radiodiagnóstico) y en aplicaciones industriales (medidas de espesores y densidades, entre otras).
La radiactividad puede ser:
  • Natural: manifestada por los isótopos que se encuentran en la naturaleza.
  • Artificial o inducida: manifestada por los radioisótopos producidos en transformaciones artificiales.

Radiactividad natural

En 1896, Henri Becquerel descubrió que ciertas sales de uranio emiten radiaciones espontáneamente, al observar que, cuando colocaba placas fotográficas envueltas en papel negro cerca de este mineral, los rayos-X velaban la placa a pesar de su envoltorio opaco, descartando que se tratara de una propiedad de los materiales fosforescentes.
El estudio del nuevo fenómeno y su desarrollo posterior se debe casi exclusivamente al matrimonio de Marie y Pierre Curie, quienes encontraron otras sustancias radiactivas: el torio, el polonio y el radio. La intensidad de la radiación emitida era proporcional a la cantidad de uranio presente, por lo que los Curie dedujeron que la radiactividad era una propiedad atómica. El fenómeno de la radiactividad se origina exclusivamente en el núcleo de los átomos radiactivos. Se cree que se origina debido a la interacción neutrón-protón. Al estudiar la radiación emitida por el radio, se comprobó que era compleja, pues al aplicarle un campo magnético parte de ella se desviaba de su trayectoria y otra parte no.
Pronto se vio que todas estas reacciones provienen del núcleo atómico que describió Ernest Rutherford en 1911, quien también demostró que las radiaciones emitidas por las sales de uranio pueden ionizar el aire y producir la descarga de cuerpos cargados eléctricamente.
Con el uso del neutrón, partícula teorizada en 1920 por Ernest Rutherford, se consiguió describir la radiación beta.
En 1932James Chadwick descubrió la existencia del neutrón que Rutherford había predicho en 1920, e inmediatamente después Enrico Fermi descubrió que ciertas radiaciones emitidas en fenómenos no muy comunes de desintegración son en realidad neutrones.

Radiactividad artificial

También en 1932, Mark Lawrence Elwin Oliphant2 teorizó sobre la fusión de núcleos ligeros (de hidrógeno), y poco después Hans Bethe describió el funcionamiento de las estrellas con base en este mecanismo.En 1934 Fermi se encontraba en un experimento bombardeando núcleos de uranio con los neutrones recién descubiertos. En 1938, en AlemaniaLise MeitnerOtto Hahn y Fritz Strassmann verificaron los experimentos de Fermi. En 1939 demostraron que una parte de los productos que aparecían al llevar a cabo estos experimentos era bario. Muy pronto confirmaron que era resultado de la división de los núcleos de uranio: la primera observación experimental de la fisión. En Francia, Frédéric Joliot-Curie descubrió que, además del bario, se emiten neutrones secundarios en esa reacción, lo que hace factible la reacción en cadena.La radiactividad artificial, también llamada radiactividad inducida, se produce cuando se bombardean ciertos núcleos estables con partículas apropiadas. Si la energía de estas partículas tiene un valor adecuado, penetran el núcleo bombardeado y forman un nuevo núcleo que, en caso de ser inestable, se desintegra después radiactivamente. Fue descubierta por la pareja Frédéric Joliot-Curie e Irène Joliot-Curie, bombardeando núcleos de boro y de aluminio con partículas alfa. Observaron que las sustancias bombardeadas emitían radiaciones (neutrones libres) después de retirar el cuerpo radiactivo emisor de las partículas de bombardeo. El plomo es la sustancia que mayor fuerza de impenetracion posee por parte de los rayos x y gamma.

El estudio de la radiactividad permitió un mayor conocimiento de la estructura del núcleo atómico y de las partículas subatómicas. Se abrió la posibilidad de convertir unos elementos en otros. Incluso se hizo realidad el ancestral sueño de los alquimistas de crear oro a partir de otros elementos, como por ejemplo átomos de mercurio, aunque en términos prácticos el proceso de convertir mercurio en oro no resulta rentable debido a que el proceso requiere demasiada energía.
El 15 de marzo de 1994, la Agencia Internacional de la Energía Atómica (AIEA) dio a conocer un nuevo símbolo de advertencia de radiactividad con validez internacional. La imagen fue probada en 11 países.

Clases y componentes de la radiación

Partícula alfa: Son flujos de partículas cargadas positivamente compuestas por dos neutrones y dos protones (núcleos de helio). Son desviadas por campos eléctricos y magnéticos. Son poco penetrantes, aunque muy ionizantes. Son muy energéticas. Fueron descubiertas por Rutherford, quien hizo pasar partículas alfa a través de un fino cristal y las atrapó en un tubo de descarga. Este tipo de radiación la emiten núcleos de elementos pesados situados al final de la tabla periódica (masa A >100). Estos núcleos tienen muchos protones y la repulsión eléctrica es muy fuerte, por lo que tienden a obtener N aproximadamente igual a Z (número atómico), y para ello se emite una partícula alfa. En el proceso se desprende mucha energía, que se convierte en la energía cinética de la partícula alfa, por lo que estas partículas salen con velocidades muy altas.Se comprobó que la radiación puede ser de tres clases diferentes, conocidas como partículasdesintegraciones y radiación:
  1. Desintegración beta: Son flujos de electrones (beta negativas) o positrones (beta positivas) resultantes de la desintegración de los neutrones o protones del núcleo cuando este se encuentra en un estado excitado. Es desviada por campos magnéticos. Es más penetrante, aunque su poder de ionización no es tan elevado como el de las partículas alfa. Por lo tanto, cuando un átomo expulsa una partícula beta, su número atómico aumenta o disminuye una unidad (debido al protón ganado o perdido). Existen tres tipos de radiación beta: la radiación beta-, que consiste en la emisión espontánea de electrones por parte de los núcleos; la radiación beta+, en la que un protón del núcleo se desintegra y da lugar a un neutrón, a un positrón o partícula Beta+ y un neutrino, y por último la captura electrónica que se da en núcleos con exceso de protones, en la cual el núcleo captura un electrón de la corteza electrónica, que se unirá a un protón del núcleo para dar un neutrón.
  2. Radiación gamma: Se trata de ondas electromagnéticas. Es el tipo más penetrante de radiación. Al ser ondas electromagnéticas de longitud de onda corta, tienen mayor penetración y se necesitan capas muy gruesas de plomo u hormigón para detenerlas. En este tipo de radiación el núcleo no pierde su identidad, sino que se desprende de la energía que le sobra para pasar a otro estado de energía más baja emitiendo los rayos gamma, o sea fotones muy energéticos. Este tipo de emisión acompaña a las radiaciones alfa y beta. Por ser tan penetrante y tan energética, éste es el tipo más peligroso de radiación.
Las leyes de desintegración radiactiva, descritas por Frederick Soddy y Kasimir Fajans, son:
  • Cuando un átomo radiactivo emite una partícula alfa, la masa del átomo (A) resultante disminuye en 4 unidades y el número atómico (Z) en 2.
  • Cuando un átomo radiactivo emite una partícula beta, el número atómico (Z) aumenta o disminuye en una unidad y la masa atómica (A) se mantiene constante.
  • Cuando un núcleo excitado emite radiación gamma, no varía ni su masa ni su número atómico: sólo pierde una cantidad de energía  (donde "h" es la constante de Planck y "ν" es la frecuencia de la radiación emitida).
Las dos primeras leyes indican que, cuando un átomo emite una radiación alfa o beta, se transforma en otro átomo de un elemento diferente. Este nuevo elemento puede ser radiactivo y transformarse en otro, y así sucesivamente, con lo que se generan las llamadas series radiactivas.

Causa de la radiactividad[editar]

En general son radiactivas las sustancias que no presentan un balance correcto entre protones o neutrones, tal como muestra el gráfico que encabeza este artículo. Cuando el número de neutrones es excesivo o demasiado pequeño respecto al número de protones, se hace más difícil que la fuerza nuclear fuerte debido al efecto del intercambio de piones pueda mantenerlos unidos. Finalmente, el desequilibrio se corrige mediante la liberación del exceso de neutrones o protones, en forma de partículas α que son realmente núcleos de helio, y partículas β, que pueden ser electrones o positrones. Estas emisiones llevan a dos tipos de radiactividad, ya mencionados:
  • Radiación α, que aligera los núcleos atómicos en 4 unidades másicas, y cambia el número atómico en dos unidades.
  • Radiación β, que no cambia la masa del núcleo, ya que implica la conversión de un protón en un neutrón o viceversa, y cambia el número atómico en una sola unidad (positiva o negativa, según si la partícula emitida es un electrón o un positrón).

La radiación γ, por su parte, se debe a que el núcleo pasa de un estado excitado de mayor energía a otro de menor energía, que puede seguir siendo inestable y dar lugar a la emisión de más radiación de tipo α, β o γ. La radiación γ es, por tanto, un tipo de radiación electromagnética muy penetrante, ya que tiene una alta energía por fotón emitido.

8.-FISIÓN


En física nuclear, la fisión es una reacción nuclear, lo que significa que tiene lugar en el núcleo atómico. La fisión ocurre cuando un núcleo pesado se divide en dos o más núcleos más pequeños, además de algunos subproductos como neutrones libresfotones (generalmente rayos gamma) y otros fragmentos del núcleo como partículas alfa (núcleos de helio) y beta (electrones y positrones de alta energía). Su descubrimiento se debe a Otto Hahn y Lise Meitner, aunque fue el primero el único en recibir el Premio Nóbel por el mismo.



Mecanismo
La fisión de núcleos pesados es un proceso exotérmico, lo que supone que se liberan cantidades sustanciales de energía. El proceso genera mucha más energía que la liberada en las reacciones químicas convencionales, en las que están implicadas las cortezas electrónicas; la energía se emite, tanto en forma de radiación gamma como de energía cinética de los fragmentos de la fisión, que calentarán la materia que se encuentre alrededor del espacio donde se produzca la fisión.

La fisión se puede inducir por varios métodos, incluyendo el bombardeo del núcleo de un átomo fisionable con una partícula de la energía correcta; la partícula es generalmente un neutrón libre. Este neutrón libre es absorbido por el núcleo, haciéndolo inestable (a modo de ejemplo, se podría pensar en la inestabilidad de una pirámide de naranjas en el supermercado, al lanzarse una naranja contra ella a la velocidad correcta). El núcleo inestable entonces se partirá en dos o más pedazos: los productos de la fisión que incluyen dos núcleos más pequeños, hasta siete neutrones libres (con una media de dos y medio por reacción), y algunos fotones.

Los núcleos atómicos lanzados como productos de la fisión pueden ser varios elementos químicos. Los elementos que se producen son resultado del azar, pero estadísticamente el resultado más probable es encontrar núcleos con la mitad de protones y neutrones del átomo fisionado original.

Los productos de la fisión son generalmente altamente radiactivos, no son isótopos estables; estos isótopos entonces decaen, mediante cadenas de desintegración.
Fisión fría y rotura de pares de nucleones
La mayor parte de las investigaciones sobre fisión nuclear se basan en la distribución de masa y energía cinética de los fragmentos de fisión. Sin embargo, esta distribución es perturbada por la emisión de neutrones por parte de los fragmentos antes de llegar a los detectores.

Aunque con muy baja probabilidad, en los experimentos se han detectado eventos de fisión fría, es decir fragmentos con tan baja energía de excitación que no emiten neutrones. Sin embargo, aun en esos casos, se observa la rotura de pares de nucleones, la que se manifiesta como igual probabilidad de obtener fragmentos con número par o impar de nucleones. Los resultados de estos experimentos permiten comprender mejor la dinámica de la fisión nuclear hasta el punto de escisión, es decir, antes de que se desvanezca la fuerza nuclear entre los fragmentos.
Inducción de la fisión

La fisión nuclear de los átomos fue descubierta en 1938 por los investigadores Otto Hahn y Fritz Strassmann a partir del trabajo desarrollado por el propio Hahn junto a Lise Meitner durante años anteriores. Por este descubrimiento recibió en 1944 el Premio Nobel de química. El estudio de la fisión nuclear se considera parte de los campos de la química nuclear y la física.
Aunque la fisión es prácticamente la desintegración de materia radiactiva, comenzada a menudo de la manera más fácil posible (inducido), que es la absorción de un neutrón libre, puede también ser inducida lanzando otras cosas en un núcleo fisionable. Estas otras cosas pueden incluir protones, otros núcleos, o aún los fotones de gran energía en cantidades muy altas (porciones de rayos gamma).
Muy rara vez, un núcleo fisionable experimentará la fisión nuclear espontánea sin un neutrón entrante.
Cuanto más pesado es un elemento más fácil es inducir su fisión. La fisión en cualquier elemento más pesado que el hierro produce energía, y la fisión en cualquier elemento más liviano que el hierro requiere energía. Lo contrario también es verdad en las reacciones de fusión nuclear (la fusión de los elementos más livianos que el hierro produce energía y la fusión de los elementos más pesados que el hierro requiere energía).
Los elementos más frecuentemente usados para producir la fisión nuclear son el uranio y el plutonio. El uranio es el elemento natural más pesado; el plutonio experimenta desintegraciones espontáneas y tiene un período de vida limitado. Así pues, aunque otros elementos pueden ser utilizados, estos tienen la mejor combinación de abundancia y facilidad de fisión.


Reacción en cadena
Una reacción en cadena ocurre como sigue: un acontecimiento de fisión empieza lanzando 2 ó 3 neutrones en promedio como subproductos. Estos neutrones se escapan en direcciones al azar y golpean otros núcleos, incitando a estos núcleos a experimentar fisión. Puesto que cada acontecimiento de fisión lanza 2 o más neutrones, y estos neutrones inducen otras fisiones, el proceso se acelera rápidamente y causa la reacción en cadena. El número de neutrones que escapan de una cantidad de uranio depende de su área superficial. Solamente los materiales fisibles son capaces de sostener una reacción en cadena sin una fuente de neutrones externa. Para que la reacción en cadena de fisión se lleve a cabo es necesario adecuar la velocidad de los neutrones libres, ya que si impactan con gran velocidad sobre el núcleo del elemento fisible, puede que simplemente lo atraviese o lo impacte, y que este no lo absorba.
Masa crítica[editar]
Artículo principal: Masa crítica

La masa crítica es la mínima cantidad de material requerida para que el material experimente una reacción nuclear en cadena. La masa crítica de un elemento fisionable depende de su densidad y de su forma física (barra larga, cubo, esfera, etc.). Puesto que los neutrones de la fisión se emiten en direcciones al azar, para maximizar las ocasiones de una reacción en cadena, los neutrones deberán viajar tan lejos como sea posible y de esa forma maximizar las posibilidades de que cada neutrón choque con otro núcleo. Así, una esfera es la mejor forma y la peor es probablemente una hoja aplanada, puesto que la mayoría de los neutrones volarían de la superficie de la hoja y no chocarían con otros núcleos.

También es importante la densidad del material. Si el material es gaseoso, es poco probable que los neutrones choquen con otro núcleo porque hay demasiado espacio vacío entre los átomos y un neutrón volaría probablemente entre ellos sin golpear nada. Si el material se pone bajo alta presión, los átomos estarán mucho más cercanos y la probabilidad de una reacción en cadena es mucho más alta. La alta compresión puede ser alcanzada poniendo el material en el centro de una implosión, o lanzando un pedazo de ella contra otro pedazo de ella muy fuertemente (con una carga explosiva, por ejemplo). Una masa crítica del material que ha comenzado una reacción en cadena se dice que se convierte en supercrítica.
Moderadores[editar]
Artículo principal: Moderador nuclear

Únicamente con juntar mucho uranio en un solo lugar no es suficiente como para comenzar una reacción en cadena. Los neutrones son emitidos por un núcleo en fisión a una velocidad muy elevada. Esto significa que los neutrones escaparán del núcleo antes de que tengan oportunidad de golpear cualquier otro núcleo (debido a un efecto relativista).

Un neutrón de movimiento lento se llama neutrón térmico y solamente esta velocidad del neutrón puede inducir una reacción de fisión. Así pues, tenemos cuatro velocidades de neutrones:
Un neutrón (no-térmico) rápidamente se escapará del material sin interacción;
Un neutrón de velocidad mediana será capturado por el núcleo y transformará el material en un isótopo (pero no induciría la fisión).
Un neutrón de movimiento lento (térmico) inducirá a un núcleo a que experimente la fisión.
Un neutrón móvil realmente lento será capturado o escapará, pero no causará fisión.
Algunos años antes del descubrimiento de la fisión, la manera acostumbrada de retrasar los neutrones era hacerlos pasar a través de un material de peso atómico bajo, tal como un material hidrogenoso. El proceso de retraso o de moderación es simplemente una secuencia de colisiones elásticas entre las partículas de alta velocidad y las partículas prácticamente en reposo. Cuanto más parecidas sean las masas del neutrón y de la partícula golpeada, mayor es la pérdida de energía cinética por el neutrón. Por lo tanto los elementos ligeros son los más eficaces como moderadores de neutrones.

A unos cuantos físicos en los años 30 se les ocurrió la posibilidad de mezclar el uranio con un moderador: si fuesen mezclados correctamente, los neutrones de alta velocidad de la fisión podrían ser retrasados al rebotar en un moderador, con la velocidad correcta, para inducir la fisión en otros átomos de uranio. Las características de un buen moderador son: peso atómico bajo y baja o nula tendencia a absorber los neutrones. Los moderadores posibles son entonces el hidrógeno, helio, litio, berilio, boro y carbono. El litio y el boro absorben los neutrones fácilmente, así que se excluyen. El helio es difícil de utilizar porque es un gas y no forma ningún compuesto. La opción de moderadores estaría entonces entre el hidrógeno, deuterio, el berilio y el carbono. Fueron Enrico Fermi y Leó Szilárd quienes propusieron primero el uso de grafito (una forma de carbono) como moderador para una reacción en cadena. El deuterio es el mejor tecnológicamente (introducido en el agua pesada), sin embargo el grafito es mucho más económico.
Efectos de los isótopos[editar]

El uranio natural se compone de tres isótopos: 234U (0,006%), 235U (0,7%), y 238U (99,3%). La velocidad requerida para que se produzca un acontecimiento de fisión y no un acontecimiento de captura es diferente para cada isótopo.

El uranio-238 tiende a capturar neutrones de velocidad intermedia, creando 239U, que decae sin fisión a plutonio-239, que sí es fisible. Debido a su capacidad de producir material fisible, a este tipo de materiales se les suele llamar fértiles.

Los neutrones de alta velocidad (52.000 km/s), como los producidos en una reacción de fusión tritio-deuterio, pueden fisionar el uranio-238. Sin embargo los producidos por la fisión del uranio-235, de hasta 28.000 km/s, tienden a rebotar inelásticamente con él, lo cual los desacelera. En un reactor nuclear, el 238U tiende, pues, tanto a desacelerar los neutrones de alta velocidad provenientes de la fisión del uranio-235 como a capturarlos (con la consiguiente transmutación a plutonio-239) cuando su velocidad se modera.

El uranio-235 fisiona con una gama mucho más amplia de velocidades de neutrones que el 238U. Puesto que el uranio-238 afecta a muchos neutrones sin inducir la fisión, tenerlo en la mezcla es contraproducente para promover la fisión. De hecho, la probabilidad de la fisión del 235U con neutrones de velocidad alta puede ser lo suficientemente elevada como para hacer que el uso de un moderador sea innecesario una vez que se haya suprimido el 238U.

Sin embargo, el 235U está presente en el uranio natural en cantidades muy reducidas (una parte por cada 140). La diferencia relativamente pequeña en masa entre los dos isótopos hace, además, que su separación sea difícil. La posibilidad de separar 235U fue descubierta con bastante rapidez en el proyecto Manhattan, lo que tuvo gran importancia para su éxito.



9.-FUSIÓN


En física nuclearfusión nuclear es el proceso por el cual varios núcleos atómicos de carga similar se unen y forman un núcleo más pesado.1 Simultáneamente se libera o absorbe una cantidad enorme de energía, que permite a la materia entrar en un estado plasmático.
La fusión de dos núcleos de menor masa que el hierro (en este elemento y en el níquel ocurre la mayor energía de enlace nuclear por nucleón) libera energía en general. Por el contrario, la fusión de núcleos más pesados que el hierro absorbe energía. En el proceso inverso, la fisión nuclear, estos fenómenos suceden en sentidos opuestos.
En el caso más simple de fusión, en el hidrógeno, dos protones deben acercarse lo suficiente para que la interacción nuclear fuerte pueda superar su repulsión eléctrica mutua y obtener la posterior liberación de energía.



En la naturaleza ocurre fusión nuclear en las estrellas, incluido el Sol. En su interior las temperaturas son cercanas a 15 millones de Kelvin. Por ello a las reacciones de fusión se les denomina termonucleares. En varias empresas se ha logrado también la fusión (artificial), aunque todavía no ha sido totalmente controlada.
Sobre la base de los experimentos de transmutación nuclear de Ernest Rutherford, conducidos pocos años antes, Mark Oliphant, en 1932, observó por primera vez la fusión de núcleos ligeros (isótopos de hidrógeno).
Posteriormente, durante el resto de ese decenioHans Bethe estudió las etapas del ciclo principal de la fusión nuclear en las estrellas.
La investigación acerca de la fusión para fines militares se inició en la década de 1940 como parte del Proyecto Manhattan, pero no tuvo éxito hasta 1952. La indagación relativa a fusión controlada con fines civiles se inició en la década de 1950, y continúa hasta el presente.
Para que pueda ocurrir la fusión debe superarse una importante barrera de energía producida por la fuerza electrostática. A grandes distancias, dos núcleos se repelen debido a la fuerza de repulsión electrostática entre sus protones, cargados positivamente. Sin embargo, si se pueden acercar dos núcleos lo suficiente, debido a la interacción nuclear fuerte, que en distancias cortas es mayor, se puede superar la repulsión electrostática.
Cuando un nucleón (protón o neutrón) se añade a un núcleo, la fuerza nuclear atrae a otros nucleones, pero –debido al corto alcance de esta fuerza– principalmente a sus vecinos inmediatos. Los nucleones del interior de un núcleo tienen más vecinos nucleones que los existentes en la superficie. Ya que la relación entre área de superficie y volumen de los núcleos menores es mayor, por lo general la energía de enlace por nucleón debido a la fuerza nuclear aumenta según el tamaño del núcleo, pero se aproxima a un valor límite correspondiente al de un núcleo cuyo diámetro equivalga al de casi cuatro nucleones. Por otra parte, la fuerza electrostática es inversa al cuadrado de la distancia. Así, a un protón añadido a un núcleo le afectará una repulsión electrostática de todos los otros protones. Por tanto, debido a la fuerza electrostática, cuando los núcleos se hacen más grandes, la energía electrostática por nucleón aumenta sin límite.
El resultado neto de estas fuerzas opuestas es que generalmente la energía de enlace por nucleón aumenta según el tamaño del núcleo, hasta llegar a los elementos hierro y níquel, y un posterior descenso en los núcleos más pesados. Finalmente la energía de enlace nuclear se convierte en negativa, y los núcleos más pesados (con más de 208 nucleones, correspondientes a un diámetro de alrededor de seis nucleones) no son estables. Cuatro núcleos muy estrechamente unidos, en orden decreciente de energía de enlace nuclear, son 62Ni58Fe56Fe, y 60Ni.2 A pesar de que el isótopo de níquel 62Ni es más estable, el isótopo de hierro 56Fe es una orden de magnitud más común. Esto se debe a mayor tasa de desintegración de Ni en el interior de las estrellas, impulsada por absorción de fotones.
Una notable excepción a esta tendencia general es el núcleo helio 4He, cuya energía de enlace es mayor que la del litio, el siguiente elemento por incremento de peso. En el principio de exclusión de Pauli se proporciona una explicación a esta excepción: debido a que los protones y los neutrones son fermiones, no pueden existir en el mismo estado. A causa de que el núcleo del 4He está integrado por dos protones y dos neutrones, de modo que sus cuatro nucleones pueden estar en el estado fundamental, su energía de enlace es anormalmente grande. Cualquier nucleón adicional tendría que ubicarse en estados de energía superiores.
Tres ventajas de la fusión nuclear son:
a) en gran parte sus desechos no revisten la problemática de los provenientes de fisión;
b) abundancia –y buen precio–[cita requerida] de materias primas, principalmente del isótopo de hidrógeno deuterio (D);
c) si una instalación dejara de funcionar se apagaría inmediatamente, sin peligro de fusión no nuclear.
En un diseño prometedor, para iniciar la reacción, varios rayos láser de alta potencia transfieren energía a una pastilla de combustible pequeña, que se calienta y se genera una implosión: desde todos los puntos se colapsa y se comprime hasta un volumen mínimo, lo cual provoca la fusión nuclear.

Confinamiento electrostático estable para fusión nuclear

Como se puede apreciar en el dibujo de arriba, se basa en circunscripción total de iones de hidrógeno, confinados electrostáticamente. Los beneficios de este confinamiento son múltiples:
  • El grosor de la esfera de cobre anula la inestabilidad causada por errores de simetría.
  • La ionización del hidrógeno se genera fácilmente por el campo eléctrico que absorbe los electrones sin disminuir la intensidad de ese campo.
  • Se puede obtener un campo eléctrico intenso, lo cual evitaría fuga de los iones de hidrógeno.
  • La energía necesaria es menor que la consumida por un reactor de fusión que genere un campo electromagnético para confinar los iones.
La fusión nuclear se logra por medio de compresión-descompresión, aumentando o disminuyendo la intensidad del campo eléctrico.[cita requerida] Para ello se aumenta o se disminuye la velocidad del generador de electricidad. Como moderador de neutrones se puede utilizar plomo, aunque habría que probar su eficacia





































































































































































































































No hay comentarios.:

Publicar un comentario