La Biofísica es una sub-disciplina de la
Biología que estudia los principios físicos subyacentes a todos los procesos de
los sistemas vivientes. La biofísica es una
ciencia reduccionista porque establece que todos los fenómenos
observados en la naturaleza tienen una explicación científica predecible. Si
nosotros no podemos explicar algunos fenómenos en la actualidad no se debe a
que estos no tengan una explicación científica, sino que nosotros aún no
tenemos los implementos necesarios para estudiar las causas subyacentes a esos
fenómenos aún inexplicables. La biofísica no es una rama de la física, sino de
la biología. La biofísica explica los fenómenos biológicos aplicando los
principios fundamentales de la naturaleza. Por ejemplo, la biofísica estudia
los cambios de polaridad en los microtúbulos de un Paramecium, o la
transferencia de energía de una partícula a otra dentro del complejo motor
molecular conocido como ATP sintetasa, o la mecánica del esqueleto humano, o la
dinámica de fluidos en un saltamontes, etc.Por supuesto, la biofísica se
fundamenta en los estudios proporcionados de la física; por ello, decimos que la
biofísica es una ciencia interdisciplinaria. (Nahle, 2008)
La teoría del Big
Bang o gran explosión, supone que, hace entre 13.700 y 13.900 millones
de años, toda la materia del Universo estaba concentrada en una zona
extraordinariamente pequeña del espacio, un único punto, y explotó. La materia
salió impulsada con gran energía en todas direcciones. Los choques que
inevitablemente se produjeron y un cierto desorden hicieron que la materia se
agrupara y se concentrase más en algunos lugares del espacio, y se formaron las
primeras estrellas y las primeras galaxias. Desde entonces, el Universo
continúa en constante movimiento y evolución. Esta teoría sobre el origen del
Universo se basa en observaciones rigurosas y es matemáticamente correcta desde
un instante después de la explosión, pero no tiene una explicación admisible
para el momento cero del origen del Universo, llamado "singularidad". (AstroMía,
s.f.)
Durante los primeros segundos, la temperatura era de
más de un billón de grados y toda la energía se hallaba en forma de radiación.
Durante los primeros 10 segundos se formaron las partículas elementales y al
cabo de 15 minutos se formaron núcleos de hidrógeno y helio, en proporción de
cuatro a uno. Unos 10.000 años después, la temperatura había descendido a unos
100.000 grados y se formaron los primeros átomos de hidrógeno. Al cabo de unos
400.000 años, el hidrógeno empezó a condensarse en nubes (las futuras
estrellas), las cuales a su vez se agrupaban en cúmulos mayores (las futuras
galaxias). Hace 11.000 millones de años, la temperatura del universo era de
unos 3.000 grados, y se formaron las primeras estrellas: la gravedad hizo que los
núcleos de muchas nubes de hidrógeno alcanzasen temperaturas elevadas, del
orden de 15 millones de grados, lo que permitió la fusión del hidrógeno en
helio, proceso que origina la emisión luminosa de las estrellas.
Cuando las estrellas agotan el hidrógeno del núcleo,
son capaces de seguir generando energía fundiendo a su vez el helio en
materiales más pesados. De este modo, en los núcleos de las primeras estrellas
se formaron todos los elementos químicos que hoy existen en la Tierra. En las
estrellas más grandes, este proceso genera cada vez más energía, hasta que
llega un momento en que la gravedad no es capaz de contenerla y la estrella
explota lanzando al espacio gran parte de su materia. Esto sucede a una edad
diferente según la masa de cada estrella. Las explosiones de estrellas
llenaron el espacio de nuevas nubes de gas (esta vez relativamente rico en toda
la gama de elementos químicos), a partir del cual se formaron nuevas estrellas,
las llamadas estrellas de segunda generación, entre las cuales se encuentra el
Sol. (ICARITO, s.f.)
Momento
|
Suceso
|
Big Bang
|
Densidad infinita, volumen cero.
|
10 e-43 segs.
|
Fuerzas no diferenciadas
|
10 e-34 segs.
|
Sopa de partículas elementales
|
10 e-10 segs.
|
Se forman protones y neutrones
|
1 seg.
|
10.000.000.000 º. Universo tamaño Sol
|
3 minutos
|
1.000.000.000 º. Nucleos de átomos
|
30 minutos
|
300.000.000 º. Plasma
|
300.000 años
|
Átomos. Universo transparente
|
1.000.000 años
|
Gérmenes de galaxias
|
100 millones de años
|
Primeras galaxias
|
1.000 millones de años
|
Estrellas. El resto, se enfría
|
5.000 millones de años
|
Formación de la Vía Láctea
|
10.000 millones de años
|
Sistema Solar y Tierra
|
En 1922, el bioquímico soviético Alexander Ivanovich Oparin publicó
una pequeña obra titulada "El origen de la vida" y en 1924 presentó a
sus colegas soviéticos una clara y rigurosa explicación de cómo pudo
haber acontecido esa evolución de la vida a partir del reino abiótico de
la química y la física. Para 1936, sus ideas ya habían sido aceptadas en el
mundo entero. La hipótesis de Oparinprincipia con el origen de la
Tierra hace unos 4.600 millones de años. Es casi seguro que la atmósfera
primitiva era reductora, quizá con altas concentraciones de metano (CH4), vapor
de agua (H2O), amoniaco (NH3) y algo de hidrógeno (H2). Una atmósfera de esa
naturaleza debió promover la síntesis química. Conforme la Tierra se
enfrió, buena parte del vapor se condensó para formar los mares primitivos o
caldos nutritivos. Las moléculas se irían asociando entre sí, formando
agregados moleculares cada vez más complejos, con una estructura concreta, a
los que llamó coacervados. La mayor parte del trabajo experimental de Oparin se
relacionó con la exploración de las propiedades de los coacervados y su posible
participación en la evolución de las primeras células vivas.
Según el bioquímico norteamericano Sydney W.Fox, la
aparición de la vida sobre nuestro planeta no sólo tuvo lugar en el mar, como
proponía la teoría de Oparin, sino que también podría haber sucedido sobre la
tierra firme. Demostró que a temperaturas próximas a los 1.000 ºC, una mezcla
de gases similares a los que formaron la atmósfera primitiva sufría una serie
de transformaciones tales que se lograba la síntesis de aminoácidos, que a su
vez se unían formando "protenoides". Al sumergirse en agua, los
protenoides generaban un proceso de repliegue sobre sí mismos adoptando una
forma globosa, las microesferas, que estaban limitadas por una doble capa que
las protegía del exterior, apareciendo así el ancestro de lo que posteriormente
sería la membrana plasmática. Las microesferas, a través de la membrana, podían
tomar del exterior sustancias como agua, glucosa, aminoácidos, etc., que
producían
la energía suficiente para que continuase el
desarrollo de la microesfera.
La idea de que la Tierra fue poblada por
microorganismos procedentes del espacio empezó a desarrollarse a partir de 1865
por parte del biólogo alemán Hermann Richter; según él, la vida está presente
en todo el Universo bajo la forma de gérmenes de microorganismos, a los que
llamó cosmozoarios. Los meteoritos que continuamente impactan en la Tierra
transportarían los cosmozoarios, que una vez en el planeta, se desarrollarían
en condiciones favorables. En 1908 un químico sueco Svante Arrhenius
(1859-1927) retomó la idea de Richter dándole una forma más elaborada: la
teoría de la Panspermia.
En ella, se substancia que la vida es transportada
en el espacio bajo la forma de esporas, organismos vivos microscópicos,
adheridas a algunos meteoritos siendo impulsadas por la presión del cosmos y
que, al encontrar las condiciones adecuadas en los mares terrestres,
evolucionan hasta alcanzar el grado de desarrollo que presentan los organismos
en la actualidad. (González, 2005)
La Biofísica y el avance de las técnicas
médicas. Para García Barreno, la Biofísica está detrás de grandes
avances en la práctica médica en general y quirúrgica en particular. Cita como
ejemplos las técnicas de imagen, la fibra óptica, los bisturís de alta energía,
o los órganos artificiales. En su opinión, en todos estos avances la Biofísica
ha jugado y juega un papel fundamental. Él mismo vivió en primera persona esta
fructífera relación durante su etapa como director del Hospital Gregorio
Marañón, cuando puso en marcha una unidad avanzada de imagen cardiaca. El
académico pronostica que todavía hay grandes avances por llegar, consecuencia
de desarrollos biofísicos más recientes, como la microscopía óptica de alta
resolución, galardonada con el Premio Nobel de Química de 2014. (Barreno, 2015)
El método científico es un conjunto de pasos
ordenados que se emplean para adquirir nuevos conocimientos. Para poder ser
calificado como científico debe basarse en el empirismo, en la medición y,
además, debe estar sujeto a la razón. La historia del método científico arranca
en la prehistoria. El hombre primitivo, un ser curioso por naturaleza,
descubrió a través del método del ensayo-error qué alimentos le convenía comer,
cuándo y cómo debía seleccionarlos. De una forma lenta pero inexorable dejó de
ser un recolector de frutos y cazador de animales y se convirtió en pastor y
agricultor; con la ayuda de la observación dejó de ser nómada para convertirse
en sedentario.
Nuestros antepasados, amparados por la curiosidad,
asociaron los movimientos de los cuerpos celestes con el tiempo y las
estaciones. De esta forma, llegó un momento en el que podían predecir los
cambios meteorológicos y cómo afectaban a su primitiva economía.
Observación: hace referencia a lo que queremos
estudiar o comprender.
Hipótesis: se formula una idea que pueda
explicar lo observado.
Experimentación: se llevan a cabo diferentes
experimentos para comprobar o refutar una hipótesis.
Teoría: permite explicar la hipótesis más
probable.
Conclusiones: se extraen de la teoría
formulada.
La materia es todo aquello que ocupa un lugar en el
espacio. En física y filosofía, materia es el término para referirse a los
constituyentes de la realidad material objetiva, entendiendo por objetiva que
pueda ser percibida de la misma forma por diversos sujetos. Se considera que es
lo que forma la parte sensible de los objetos perceptibles o detectables por
medios físicos. Es decir, es todo aquello que ocupa un sitio en el espacio, se
puede tocar, se puede sentir, se puede medir, etc.
El electrón es representado por el símbolo e− , es
una partícula subatómica con una carga eléctrica elemental negativa. En un
átomo los electrones rodean el núcleo, compuesto únicamente de protones y
neutrones. Los electrones tienen una masa pequeña respecto al protón, y su
movimiento genera corriente eléctrica, aunque dependiendo del tipo de elemento
o compuesto en el que se genere, necesitará más o menos energía para provocar
esta corriente eléctrica.
El protón es representado por el símbolo e+ , es una
partícula subatómica con una carga eléctrica elemental positiva 1,602 176 487 ×
10–19 culombios y una masa 1,672 621 637 × 10–27 kg (1.836 veces la masa de un
electrón). Experimentalmente, se observa el protón como estable, con un límite
inferior en su vida media de unos 1035 años. El protón y el neutrón, en
conjunto, se conocen como nucleones, ya que conforman el núcleo de los átomos.
El neutrón es una partícula sin carga eléctrica
(pero con momento magnético). Éste junto con los protones, forman los núcleos
atómicos. Fuera del núcleo atómico, el neutrón es inestable y tiene una vida
media de unos 15 minutos (885.7 ± 0.8 s), emitiendo un electrón y un
antineutrino para convertirse en un protón. Su masa es muy similar a la del
protón. El neutrón es necesario para la estabilidad de casi todos los núcleos
atómicos (la única excepción es el hidrógeno), ya que interactúa fuertemente
atrayéndose con los protones, pero sin repulsión electrostática.
El positrón o antielectrón es la antipartícula
correspondiente al electrón, por lo que posee su misma masa y una carga
eléctrica elemental positiva. No forma parte de la materia ordinaria, sino de
la antimateria, aunque se producen en numerosos procesos radioquímicos como
parte de transformaciones nucleares. (feandalucia , 2011)
La materia viva e inerte se puede encontrar en
diversos estados de agrupación diferentes. Esta agrupación u organización puede
definirse en una escala de menor a mayor organización, tal como puede
observarse en la siguiente gráfica.
Subatómico: este nivel es el más simple de todo y está
formado por electrones, protones y neutrones, que son las distintas partículas
que configuran el átomo.
Átomo: es el siguiente nivel de organización.
Es un átomo de oxígeno, de hierro, de cualquier elemento químico.
Moléculas: consisten en la unión de diversos
átomos diferentes para forma, por ejemplo, oxígeno en estado gaseoso (O2),
dióxido de carbono, o simplemente carbohidratos, proteínas, lípidos...
Celular: las moléculas se agrupan en unidades
celulares con vida propia y capacidad de autor replicación.
Tisular: las células se organizan en tejidos:
epitelial, adiposo, nervioso, muscular...
Orgánulo: los tejidos están estructuras en
órganos: corazón, bazo, pulmones, cerebro, riñones...
Sistémico o de aparatos: los órganos se estructuran
en aparatos digestivos, respiratorios, circulatorios, nerviosos...
Organismo: nivel de organización superior en el
cual las células, tejidos, órganos y aparatos de funcionamiento forman una
organización superior como seres vivos: animales, plantas, insectos. (Cecil
Hugo Flores Balseca, 2018)
Población: los organismos de la misma especie
se agrupan en determinado número para formar un núcleo poblacional: una manada
de leones, o lobos, un bosque de arces, pinos...
Comunidad: es el conjunto de seres vivos de un
lugar. Por ejemplo; un conjunto de seres vivos diferentes, está formada por
distintas especies.
Ecosistema: es la interacción de la comunidad
biológica con el medio físico, con una distribución espacial amplia.
Paisaje: es un nivel de organización superior
que comprende varios ecosistemas diferentes dentro de una determinada unidad de
superficie. Por ejemplo, el conjunto de vid, olivar y almendros característicos
de las provincias del sureste español.
Región: es un nivel superior al de paisaje y
supone una superficie geográfica que agrupa varios paisajes.
Bioma: Son ecosistemas de gran tamaño asociados
a unas determinadas características ambientales: macro climáticas como la
humedad, temperatura, radiación y se basan en la dominancia de una especie,
aunque no son homogéneos. Un ejemplo es la taiga que se define por las
coníferas que es un elemento identificador muy claro, pero no homogéneo,
también se define por la latitud y la temperatura.
Biosfera: es todo el conjunto de seres vivos y
componentes inertes que comprenden el planeta tierra, o de igual (Cecil
Hugo Flores Balseca, 2018)
Para saber que es un compuesto primero hay que
definir la palabra. Compuesto que, en química es la unión de uno o más elementos
de la tabla periódica.
A su vez los compuesto se dividen en tres grandes
ramas que son los compuestos Binarios, Terciarios y Cuaternarios.
Los Compuestos Binarios son: Aquellos que
tienen 2 electrones, en los cuales destacan el Ácido, Óxido, Anhídrido, Sal,
Peróxido, Hidruro.
Los Compuestos Terciarios son: Aquellos que
tienes 3 electrones, en los cuales destacan Orto, Meta, Piro.
Los Compuestos Cuaternarios son: Los que tienen
4 electrones, en esta rama entran los radicales. A continuación, se explican
algunos de los compuestos binarios más importantes:
Óxidos: Se llama óxidos a los compuestos que se
formanal combinarse oxigeno con los elementos. Puesto que los elementos se
clasifican en metales y no metales, hay tres clases de óxidos metálicos o
básicos y oxácidos. Ejemplos:
Óxido de magnesio: antiácido estomacal
Óxido de Zinc: es utilizado como antiséptico
Óxido cúprico: Usado cuando existe deficiencia
de cobre
Óxido Nitroso: Posee propiedades narcóticas
Óxido de etileno: Se usa una mínima cantidad
para la esterilización de equipos y abastecimientos médicos
Peróxidos: Algunos óxidos tienen un átomo más
de oxígeno que los óxidos ordinarios. Para designar a estas sustancias se
agrega el prefijo Per. En los peróxidos, el oxígeno funciona con valencia 1,
por lo tanto, el peróxido se forma con un Metal y en Oxigeno. Ejemplos:
Peróxido de benzoílo: Capacidad exfoliante y
propiedades antisépticas y antiseborreicas se encuentra formando parte de
productos para limpiar la piel, combatir enfermedades inflamatorias de la piel
como el acné. Además, se utiliza en pastas dentales por su poder blanqueador y
en peluquería y barbería para blanquear el cabello.
Peróxido de carbamida: Está incorporado
en los productos utilizados para blanquear los dientes.
Peróxido de acetona: Es eficaz para desinfectar
heridas y Los odontólogos lo usan como parte del tratamiento de
blanqueamiento dental. El peróxido forma parte de tiras blanqueadoras, o se
encuentra disueltos en geles.
Anhídridos: Se forman gracias a la combinación
de los no metales con el oxígeno. Ejemplos:
Anhídrido nítrico (NO): Controla la circulación
colateral
Anhídrido nitroso (N2O): Anestésico médico
Base: Las bases o hidróxidos se caracterizan
por tener en solución acuosa el radical hidroxilo. Por lo tanto, los Hidróxidos
se forman con en metal y un (OH)-1.
Ácido: Los ácidos son compuesto que se forman
con un Hidrogeno y un no metal.
Ácido clorhídrico (HCl): Pese a que es un ácido
fuerte, está presente en el cuerpo humano, concretamente en el estómago, donde
cumple una importante función en el proceso digestivo. Su exceso genera acidez
estomacal.
Sal: las sales son compuestos que se forman gracias
a la unión de un metal con un no metal.
o Formar parte de la estructura
ósea y dental (calcio, fósforo, magnesio y flúor).
o Regular el balance del agua
dentro y fuera de las células (electrolitos). También conocido como proceso de
ósmosis.
o Intervienen en la excitabilidad
nerviosa y en la actividad muscular (calcio, magnesio).
o Permitir la entrada de sustancias
a las células (la glucosa necesita del sodio para poder ser aprovechada como
fuente de energía a nivel celular).
o Colaborar en procesos metabólicos
(el cromo es necesario para el funcionamiento de la insulina, el selenio
participa como un antioxidante).
o Intervenir en el buen
funcionamiento del sistema inmunológico (zinc, selenio, cobre).
o También forman parte de moléculas
de gran tamaño como la hemoglobina de la sangre y la clorofila en los
vegetales. (Leigh, 1990)
Los elementos clasifican, organizan y distribuyen
los distintos elementos químicos, conforme a sus propiedades y características;
su función principal es establecer un orden específico agrupando elementos.
Grupos.
A las columnas verticales de la tabla periódica se
les conoce como grupos. Todos los elementos que pertenecen a un grupo tienen la
misma valencia atómica, y por ello, tienen características o propiedades
similares entre sí. Por ejemplo, los elementos en el grupo IA tienen valencia
de 1 (un electrón en su último nivel de energía) y todos tienden a perder ese
electrón al enlazarse como iones positivos de +1. Los elementos en el último
grupo de la derecha son los gases nobles, los cuales tienen lleno su último
nivel de energía (regla del octeto) y, por ello, son todos extremadamente no
reactivos. (Cecil Hugo Flores Balseca, 2018)
Numerados de izquierda a derecha utilizando números
arábigos, según la última recomendación de la IUPAC (según la antigua propuesta
de la IUPAC) de 1988, los grupos de la tabla periódica
son:
Grupo 1 (I A): Los metales alcalinos
Grupo 2 (II A): Los metales alcalinotérreos
Grupo 3 (III B): Familia del Escandio
Grupo 4 (IV B): Familia del Titanio
Grupo 5 (V B): Familia del Vanadio
Grupo 6 (VI B): Familia del Cromo
Grupo 7 (VII B): Familia del Manganeso
Grupo 8 (VIII B): Familia del Hierro
Grupo 9 (IX B): Familia del Cobalto
Grupo 10 (X B): Familia del Níquel
Grupo 11 (I B): Familia del Cobre
Grupo 12 (II B): Familia del Zinc
Grupo 13 (III A): Los térreos
Grupo 14 (IV A): Los carbonoideos
Grupo 15 (V A): Los nitrogenoideos
Grupo 16 (VI A): Los calcógenos o anfígenos
Periodos
Las filas horizontales de la tabla periódica son
llamadas períodos. Contrario a como ocurre en el caso de los grupos de la tabla
periódica, los elementos que componen una misma fila tienen propiedades
diferentes, pero masas similares: todos los elementos de un período tienen el
mismo número de orbitales. Siguiendo esa norma, cada elemento se coloca según
su configuración electrónica. El primer período solo tiene dos miembros:
hidrógeno y helio; ambos tienen sólo el orbital 1s.
La tabla periódica consta de 7 períodos:
Período 1
Período 2
Período 3
Período 4
Período 5
Período 6
Período 7
La tabla también está dividida en cuatro grupos a saber:
s, p, d, f, que están ubicados en el orden sdp, de izquierda a derecha, y f
lantánidos y actínidos. Esto depende de la letra en terminación de los
elementos de este grupo, según el principio de Aufbau.
Bloques o regiones
La tabla periódica se puede también dividir en
bloques de elementos según el orbital que estén ocupando los electrones más
externos. Los bloques o regiones se denominan según la letra que hace
referencia al orbital más externo: s, p, d y f. Podría haber más elementos que
llenarían otros orbitales, pero no se han sintetizado o descubierto; en este
caso se continúa con el orden alfabético para nombrarlos.
Bloque s
Bloque p
Bloque d
Bloque f
En la naturaleza, la materia se nos presenta en tres
estados físicos diferentes: sólido, líquido y gaseoso. Aunque algunas
sustancias, como el agua, pueden existir en los tres estados, lo normal es que,
en su estado natural, cada sustancia aparezca en uno solo de ellos.
Las partículas que constituyen un sólido están
unidas entre sí por fuerzas muy intensas, de manera que resulta muy difícil
separarlas; por ello los sólidos tienen una forma bien definida.
Las partículas que constituyen un cuerpo sólido
están tan próximas entre sí que por mucha fuerza que hagamos no las podemos
acercar más; los sólidos son difíciles de comprimir, no cambian de
volumen.Algunas propiedades de los sólidos se deben precisamente a la forma y a
la fuerza con que están unidas sus partículas. Estas propiedades son:
La dureza, o dificultad para rayar el cuerpo. Por
ejemplo, el diamante es mucho más duro que un trozo de yeso. La fragilidad, o
tendencia de un sólido a romperse sin deformarse. Por ejemplo, el vidrio o el
barro cocido son frágiles. La ductilidad, o facilidad que ofrece un sólido a
extenderse formando hilos. Por ejemplo, el cobre del que están hechos los hilos
en el interior de los cables de la luz. La maleabilidad, o capacidad que
presenta un sólido para extenderse en forma de láminas. Por ejemplo, el oro y
el aluminio son metales muy maleables. La elasticidad, o tendencia de un sólido
a recuperar su forma original tras ser sometido a una fuerza. Por ejemplo, una
cinta de goma o un muelle son muy elásticos.
La flexibilidad, o facilidad de un sólido a doblarse
sin romperse. Por ejemplo, podemos doblar una varita de mimbre o un folio de
papel sin que se rompan. La resistencia, o capacidad de un sólido para soportar
pesos sin romperse. Por ejemplo, las casas se hacen con vigas de hierro o de hormigón,
que soportan el peso de muros y techos.
Los líquidos no tienen forma propia, sino que
adoptan la forma del recipiente que los contiene. Las partículas que
constituyen los líquidos están más alejadas entre sí que en los sólidos, pero
esta distancia no se puede hacer menor; por ello el volumen de un líquido no
cambia, es decir, los líquidos tienen volumen constante.
Las partículas que forman los gases están unidas por
fuerzas muy débiles. Debido a ello, los gases carecen de forma y volumen
propios, adoptan la forma y tienden a ocupar todo el volumen del recipiente que
los contiene. Si al inflar un globo, no paramos de soplar, llegará un momento
en que la presión sea tan grande que lo reviente, expandiéndose el aire de su
interior. Las partículas que constituyen un cuerpo sólido están tan próximas
entre sí que por mucha fuerza que hagamos no las podemos acercar más; los
sólidos son difíciles de comprimir, no cambian de volumen.
Algunas propiedades de los sólidos se deben
precisamente a la forma y a la fuerza con que están unidas sus partículas.
Estas propiedades son:
La dureza, o dificultad para rayar el cuerpo. Por
ejemplo, el diamante es mucho más duro que un trozo de yeso. La fragilidad, o
tendencia de un sólido a romperse sin deformarse. Por ejemplo, el vidrio o el
barro cocido son frágiles. La ductilidad, o facilidad que ofrece un sólido a
extenderse formando hilos. Por ejemplo, el cobre del que están hechos los hilos
en el interior de los cables de la luz. La maleabilidad, o capacidad que
presenta un sólido para extenderse en forma de láminas. Por ejemplo, el oro y
el aluminio son metales muy maleables.
La elasticidad, o tendencia de un sólido a recuperar
su forma original tras ser sometido a una fuerza. Por ejemplo, una cinta de
goma o un muelle son muy elásticos.
La flexibilidad, o facilidad de un sólido a doblarse
sin romperse. Por ejemplo, podemos doblar una varita de mimbre o un folio
El plasma es un conjunto cuasi neutral de partículas con
portadores libres de carga eléctrica, el cual desarrolla comportamiento
colectivo. En este se encuentran portadores de carga eléctrica libres. Los
átomos están al menos parcialmente ionizados. El grado de ionización no tiene
que ser muy grande, si el tamaño de la formación de plasma es lo
suficientemente extensa. Precisamente un plasma se diferencia de un gas por el
que haya portadores libres de carga en el primero. El plasma es conductivo y
reacciona fuertemente a los campos eléctricos y magnéticos. (Ecured, 2019)
Los fenómenos biofísicos moleculares son procesos
que se realizan en los seres vivos, los cuales se basan en leyes físicas y
físico-químicas dando lugar a la formación de
dichos fenómenos.
Los fundamentos moleculares de la Biofísica se rigen en las
biomoléculas, o macromoléculas, y su funcionamiento en todo aspecto. Fenómeno:
todo cambio o transformación que se realice en la naturaleza, se clasifican en:
Los fenómenos físicos son todos aquellos que no
cambian en la estructura interna de la materia. Los fenómenos
químicos son aquellos que cambian
la estructura interna de la materia. Los fenómenos biofísicos
moleculares son procesos que se realizan en los seres vivos, los cuales se
basan en leyes físicas y físico-químicas dando lugar a la formación de dichos
fenómenos.
Las fuerzas de cohesión y de repulsión
intermolecular influyen en las propiedades que se encuentran en la materia,
tales como: el punto de ebullición, de fusión, el calor de
vaporización y la tensión superficial. Dentro de una interface, rodeando a una
moléculas se presentan atracciones proporcionadas; en cambio en la superficie,
dicha molécula se encuentra
únicamente rodeada por moléculas que son atraídas hacia el interior del
líquido por las moléculas que la rodean, al realizar dicho proceso el líquido
se comporta como si estuviera rodeado por una membrana invisible. (Manuel, Elka, & Javier, 2018)
La tensión superficial se encuentra dentro de los
fenómenos de superficie y esta es la tendencia que posee un líquido para
disminuir su extensión hasta llegar a obtener una energía superficial baja lo
cual hará que este sea estable. Se le define también como “la fuerza que una
superficie ejerce sobre un contorno, perpendicularmente a él, dirigida
hacia el seno de la superficie y tangencialmente a ella”.
La tensión superficial es responsable de la resistencia que un líquido presenta
a la penetración de su superficie, de la tendencia a la forma esférica de las
gotas de un líquido, del ascenso de los líquidos en los tubos capilares y de la
flotación de objetos un organismos en la superficie de los
líquidos. (Manuel,
Elka, & Javier, 2018)
Es la fuerza por unidad de área que ejerce un
líquido en reposo sobre las paredes del recipiente que lo contiene y sobre
cualquier cuerpo que se encuentre sumergido, como esta presión se debe al peso
del líquido, esta presión depende de la densidad(p), la gravedad(g) y la
profundidad(h) del el lugar donde medimos la presión (p)
Un fluido pesa y ejerce presión sobre las paredes
sobre el fondo del recipiente que lo contiene y sobre la superficie de
cualquier objeto sumergido en él. Esta presión, llamada presión hidrostática,
provoca, en fluidos en reposo, una fuerza perpendicular a las paredes del
recipiente o a la superficie del objeto sumergido sin importar la orientación
que adopten las caras. Si el líquido fluyera, las fuerzas resultantes de las
presiones ya no serían necesariamente perpendiculares a las superficies. Esta
presión depende de la densidad del líquido en cuestión y de la altura a la que
esté sumergido el cuerpo y se calcula mediante la siguiente expresión:
Donde, usando unidades del si,
Es la presión hidrostática (en pascales);
Es la densidad del líquido (en kilogramos sobre
metro cúbico);
Es la aceleración de la gravedad (en metros sobre
segundo al cuadrado);
Es la altura del fluido (en metros). Un líquido en
equilibrio ejerce fuerzas perpendiculares sobre cualquier superficie sumergida
en su interior
Es la presión atmosférica
Se explica a partir de los siguientes ejemplos; unas
gotas de agua adhiriéndose a una telaraña, y un mortero usado para gotas de
agua adhiriéndose a una telaraña.
El mortero usado para mantener y sostener juntos los
ladrillos es un ejemplo de la adhesión. La adhesión es la propiedad de la
materia por la cual se unen dos superficies de sustancias iguales o diferentes
cuando entran en contacto, y se mantienen juntas por fuerzas intermoleculares.
La adhesión ha jugado un papel muy importante en
muchos aspectos de las técnicas de construcción tradicionales. La adhesión del
ladrillo con el mortero (cemento) es un ejemplo claro.
La cohesión es distinta de la adhesión. La cohesión
es la fuerza de atracción entre partículas adyacentes dentro de un mismo
cuerpo, mientras que la adhesión es la interacción entre las superficies de
distintos cuerpos.
Aun cuando nunca haya escuchado sobre acción
capilar, de todas maneras, es importante en su vida. La acción capilar es
importante para mover el agua (y todas las cosas que están disueltas en ella).
Se define como el movimiento del agua dentro de los espacios de un material
poroso, debido a las fuerzas de adhesión y a la tensión de la superficie. La
acción capilar ocurre porque el agua es pegajosa, en tanto que las moléculas
del agua se pegan unas a otras y a otras substancias como el vidrio, la ropa,
tejidos orgánicos y la tierra.
Ponga una toalla de papel dentro de un vaso de agua
y el agua se le “pegará” a la toalla de papel. Aún más, empezará el agua a
moverse hacia arriba de la toalla hasta que el jalón de la gravedad sea mucho
para ella y no pueda continuar.
Se define como el proceso por el cual se produce un
flujo neto de moléculas que pasa a través de una membrana permeable sin que
exista un aporte externo de energía. Este proceso, que en última instancia se
encuentra determinado por una diferencia de concentración entre los dos medios
separados por la membrana; no requiere de un aporte de energía debido a que su
principal fuerza impulsora es el aumento de la entropía total del sistema. En
este proceso el desplazamiento de las moléculas se produce siguiendo el
gradiente de concentración, las moléculas atraviesan la membrana desde el medio
donde se encuentran en mayor concentración, hacia el medio donde se encuentran
en menor concentración.
El proceso de difusión simple se encuentra descrito
por las Leyes de Fick, las cuales relacionan la densidad del flujo de las
moléculas con la diferencia de concentración entre los dos medios separados por
la membrana, el coeficiente de difusión de las mismas y la permeabilidad de la
membrana. El proceso de difusión simple es de vital importancia para el
transporte de moléculas pequeñas a través de las membranas celulares. Es el
único mecanismo por el cual el oxígeno ingresa a las células que lo utilizan
como aceptor final de electrones en la cadena respiratoria y uno de los principales
mecanismos de regulación osmótica en las células.
La ósmosis es un fenómeno físico relacionado con el
comportamiento de un sólido como soluto de una solución ante una membrana
semipermeable para el solvente pero no para los solutos. Tal comportamiento
entraña una difusión simple a Esto es más importante de lo que piensa:
Cuando vierte un vaso de agua en la mesa de la cocina, se forma una tensión superficial
que mantiene al líquido en un charquito sobre la mesa, en lugar de una mancha
delgada y grande que se extienda hasta el piso. Cuando usted coloca la toalla
de papel sobre el agua, el líquido se adhiere a las fibras de la toalla.
Las plantas y los árboles no podrían crecer sin
acción capilar. Las plantas ponen las raíces dentro de la tierra y éstas son
capaces de llevar agua de la tierra hacia la planta. El agua, que contiene
nutrientes disueltos, químicos y minerales se introduce dentro de las raíces y
empieza a elevarse por dentro de los tejidos de la planta. Al momento que la
molécula de agua #1 empieza a subir, ésta jala a la molécula de agua #2, quien
a su vez, por supuesto, jala a la molécula de agua #3, y así sucesivamente.
Piense en los más pequeños vasos sanguíneos de sus capilares. La mayor parte de
su sangre es agua y la acción capilar ayuda a la acción de bombeo que ejecuta
su corazón al mantener su sangre moviéndose dentro de sus vasos sanguíneos.
Separación de las sustancias que están juntas o
mezcladas en una misma disolución, a través de una membrana que las filtra. (Manuel, Elka, & Javier, 2018)
Es un fenómeno físico relacionado con el movimiento
de un solvente a través de una membrana semipermeable. Tal comportamiento
supone una difusión simple a través dela membrana, sin gasto de energía. La
ósmosis del agua es un fenómeno biológico importante para el metabolismo celular de los seres vivos.
Tipos de adsorción según la atracción entre soluto y adsorbente
Adsorción por intercambio: Ocurre cuando los
iones de la sustancia se concentran en una superficie como resultado de la
atracción electrostática en los lugares cargados de la
superficie (p. ej. en las cercanías de un electrodo cargado).
Adsorción física: Se debe a las fuerzas de Van
der Waals y la molécula adsorbida no está fija en un lugar específico de la
superficie, y por ello está libre de trasladarse en la interfase.
Adsorción química: Ocurre cuando el adsorbato forma
enlaces fuertes en los centros
activos del adsorbente
(Manuel,
Elka, & Javier, 2018)
Fenómenos Físicos: Son transformaciones
transitorias, donde las mismas sustancias se encuentran antes y después del
fenómeno, es decir, no hay alteración en su estructura molecular. Es fácilmente reversible mediante otro fenómeno físico.
Ejemplos: Cuando un clavo de acero se dobla, sigue siendo acero. Luego podemos
enderezarlo recobrando su forma original.
Si calentamos una bola de hierro se dilata, si la enfriamos hasta su
temperatura inicial
recupera su volumen original.
Condensación del vapor de agua.
Fenómenos Químicos: Las actividades de los seres vivos se realizan con energía
química, que se produce a partir de varios procesos distintos, según cada
organismo: fotosíntesis, quimio síntesis, fermentación y respiración (Manuel, Elka, & Javier, 2018)n.
Magnitud
Llamamos magnitud a toda entidad que somos capaces
de medir. Donde medir quiere decir establecer una relación entre la
entidad-magnitud con otra entidad de igual naturaleza que tomamos
arbitrariamente como unidad. No todos los atributos de un objeto son magnitudes.
Todas las unidad que asignamos a las magnitudes
tienen que cumplir los siguientes criterios:
Ser invariable: Las unidades son las mismas en
cualquier lugar o con cualquier condición. Tener fácil contrastabilidad: Se
puede comparar con cualquier cantidad de la magnitud que estamos midiendo.
Tener un carácter internacional: Debe ser un código que se entienda
internacionalmente, para facilitar la transmisión de los datos.
Medidas
La Medida es el resultado de medir, es decir, de
comparar la cantidad de magnitud que queremos medir con la unidad de esa
magnitud. Este resultado se expresará mediante un número seguido de la unidad
que hemos utilizado por ejemplo: 4m, 200 Km , 5 Kg ...
Unidad
Es una cantidad que se adopta como patrón para
comparar con ella cantidades de la misma especie. Ejemplo: Cuando decimos que
un objeto mide dos metros, estamos indicando que es dos veces mayor que la
unidad tomada como patrón, en este caso el metro.
Sistema Internacional de unidades:
Para resolver el problema que suponía la utilización
de unidades diferentes en distintos lugares del mundo, en la XI Conferencia
General de Pesos y Medidas (París, 1960) se estableció el Sistema Internacional
de Unidades (SI). Para ello, se actuó de la siguiente forma:
En primer lugar, se eligieron las magnitudes
fundamentales y la unidad correspondiente a cada magnitud fundamental. Una
magnitud fundamental es aquella que se define por sí misma y es independiente
de las demás (masa, tiempo, longitud, etc.).
En segundo lugar, se definieron las magnitudes
derivadas y la unidad correspondiente a cada magnitud derivada. Una magnitud
derivada es aquella que se obtiene mediante expresiones matemáticas a partir de
las magnitudes fundamentales (densidad, superficie, velocidad).
En el cuadro siguiente puedes ver las magnitudes
fundamentales del sistema internacional de medidas, la unidad de cada una de
ellas y la abreviatura que se emplea para representarla:
Fuerza
“Fuerza es todo agente capaz de modificar la
cantidad de movimiento o la forma de los cuerpos materiales.” Definición de
Wikipedia, que nos advierte: “No debe confundirse con los conceptos de esfuerzo
o de energía.” Como definición de energía nos dice: “Energía...capacidad para
obrar, transformar o poner en movimiento.” Vemos en la definición que la fuerza
está relacionada con el movimiento y el cambio. La fuerza es la causa del
cambio, energía la capacidad de cambiar. Una es potencial, la otra es energía
en acción. La materia cambia por la acción de fuerza, que es una manifestación
de la energía. Materia y energía pueden transformase mutuamente.
Energía
En física, «energía» se define como la capacidad
para realizar un trabajo. En tecnología y economía, «energía» se refiere a un
recurso natural (incluyendo a su tecnología asociada) para extraerla,
transformarla y darle un uso industrial o económico. En física clásica, la ley
universal de conservación de la energía —que es el fundamento del primer
principio de la termodinámica—, indica que la energía ligada a un sistema
aislado permanece constante en el tiempo. Eso significa que para multitud de
sistemas físicos clásicos la suma de la energía mecánica, la energía
calorífica, la energía electromagnética, y otros tipos de energía potencial es
un número constante. Por ejemplo, la energía cinética se cuantifica en función
del movimiento de la materia, la energía potencial según propiedades como el
estado de deformación o a la posición de la materia en relación con las fuerzas
que actúan sobre ella, la energía térmica según su capacidad calorífica, y la
energía química según la composición química.
La elasticidad es una propiedad que también se
encuentra en muchos órganos, tejidos y músculos de los organismos, teniendo
esto relación con la capacidad de crecer y volverse elásticos de acuerdo a
diferentes situaciones. Un ejemplo claro de órgano elástico es la del estómago,
que puede aumentar varias veces su tamaño original para luego volver a su
estado de reposo luego de haberse realizado el proceso de alimentación.
Normalmente, en el caso de los órganos y músculos, la elasticidad tiene que ver
con una correcta hidratación ya que la ausencia de agua (como sucede con la
piel) resquebraja y atrofia a los diferentes tejidos. La resistencia es la
tendencia de un material a resistir el flujo de corriente y es específica para
cada tejido, dependiendo de su composición, temperatura y de otras propiedades
físicas.
Los nervios, encargados de transmitir señales
eléctricas, los músculos, y los vasos sanguíneos con su alto contenido en
electrolitos y agua son buenos conductores. Los huesos, los tendones y la grasa
tienen una gran resistencia y tienden a calentarse y coagularse antes que
transmitir la corriente.
Alrededor de 85% de la masa muscular esquelética del
ser humano está compuesta por fibras musculares propiamente dichas.
El 15% restante está formado en gran parte por
tejido conectivo compuesto en cantidades variables por fibras colágenas,
reticulares y elásticas
Fibras colágenas. Son las más abundantes. Están
formadas por la proteína colágeno. Brindan rigidez y resistencia al tejido. El
colágeno es la proteína más abundante del organismo humano, representando el
30% del total. Se encuentran en la gran mayoría de los tejidos conectivos, sobre
todo en el hueso, el cartílago, los tendones y los ligamentos. Son flexibles y
resistentes.
Fibras elásticas. Son más pequeñas que las de
colágeno, se ramifican y vuelven a reunirse libremente unas con otras. Están
constituidas por la proteína (colágeno) y elastina. Al igual que las fibras de
colágeno, proporcionan resistencia, pero además pueden estirarse ampliamente,
sin romperse. Las fibras elásticas son muy abundantes en la piel, los vasos
sanguíneos y los pulmones, se estiran sin romperse hasta el 150% de su
longitud.
Por lo tanto, el tejido conectivo constituye una
estructura de elementos simples y, en su mayoría, semejantes a muelles, es
decir, los componentes elásticos del musculo. (unknow, 2017)
La materia es todo lo que tiene una masa y ocupa un
espacio. La masa es la medida de la cantidad de materia que posee un cuerpo. La
fuerza necesaria para acelerar un cuerpo aumenta con la masa de éste (segunda
ley de Newton).
La energía es la capacidad de un sistema para
realizar trabajo o transferir calor. Así, un cuerpo caliente tiene más energía
que uno frío, y puestos en contacto, el calor fluye del cuerpo frío hacia el
caliente. Un gas dentro de un cilindro a elevada presión, empuja el pistón
hacia el exterior, realizándose un trabajo.
En los procesos químicos, es frecuente el
intercambio de calor. Muchas reacciones químicas desprenden calor (cualquier
combustión), son exotérmicas Sin embargo, otros procesos absorben calor del
entorno, son endotérmicos. El proceso de vaporización del agua líquida es
endotérmico ya que requiere un aporte de calor.
(Fernandez,
2010)
Primera Ley de la Termodinámica
Esta ley se expresa como:
Cambio en la energía interna en el
sistema = Calor agregado (Q) - Trabajo efectuado por el sistema (W) Para
entender esta ley, es útil imaginar un gas encerrado en un cilindro, una de
cuyas tapas es un émbolo móvil y que mediante un mechero podemos agregarle
calor. El cambio en la energía interna del gas estará dado por la diferencia
entre el calor agregado y el trabajo que el gas hace al levantar el émbolo
contra la presión atmosférica.
Segunda Ley de la Termodinámica
La primera ley nos dice que la energía se conserva.
Sin embargo, podemos imaginar muchos procesos en que se conserve la energía,
pero que realmente no ocurren en la naturaleza. Si se acerca un objeto caliente
a uno frío, el calor pasa del caliente al frío y nunca al revés. Si pensamos
que puede ser al revés, se seguiría conservando la energía y se cumpliría la
primera ley. En la naturaleza hay procesos que suceden, pero cuyos procesos
inversos no. Para explicar esta falta de reversibilidad se formuló la segunda
ley de la termodinámica, que tiene dos enunciados equivalentes:
Enunciado de Kelvin - Planck: Es imposible construir
una máquina térmica que, operando en un ciclo, no produzca otro efecto que la
absorción de energía desde un depósito y la realización de una cantidad igual
de trabajo. Enunciado de Clausius: Es imposible construir una máquina cíclica
cuyo único efecto sea la transferencia continua de energía de un objeto a otro
de mayor temperatura sin la entrada de energía por trabajo.
Tercera ley de la termodinámica
Algunas fuentes se refieren incorrectamente al
postulado de Nernst como "la tercera de las leyes de la termodinámica".
Es importante reconocer que no es una noción exigida por la termodinámica
clásica por lo que resulta inapropiado tratarlo de «ley», siendo incluso
inconsistente con la mecánica estadística clásica y necesitando el
establecimiento previo de la estadística cuántica para ser valorado
adecuadamente. La mayor parte de la termodinámica no requiere la utilización de
este postulado. El postulado de Nernst, llamado así por ser propuesto por
Walther Nernst, afirma que es imposible alcanzar una temperatura igual al cero
absoluto mediante un número finito de procesos físicos. Puede formularse
también como que a medida que un sistema dado se aproxima al cero absoluto, su
entropía tiende a un valor constante específico. La entropía de los sólidos
cristalinos puros puede considerarse cero bajo temperaturas iguales al cero
absoluto.
La 1 ley de la termodinámica( ENTALPÍA) establece
que la energía no se crea ni se destruye sino que se transforma de una manera a
otra, en relación con los sistemas vivos al incorporar materia orgánica esta se
desmorona en moléculas orgánicas más sencillas y simples con producción de
energía química indispensable para satisfacer todas las necesidades energéticas
del organismo, un ejemplo d ello sería la respiración celular aerobia, por esta
vía metabólica la materia orgánica incorporada es transformada en energía
química ( ATP) necesaria para satisfacer todos los procesos de energía que el
organismo lo requiera, o bien, una simple cadena trófica, en donde la materia
orgánica producida por los Fotótrofos es degradada por los otros eslabones
tróficos con producción de energía química y calórica, en el organismo vivo, la
energía se transforma de una manera a otra, por ej., las luciérnagas utilizan
el ATP para generar energía Bioluminiscente, la 2 ley de la termodinámica(
ENTROPÍA), habla del grado de desorden o Aleatoriedad en los sistemas vivos,
cuando ocurre una transformación de energía, parte de esa energía disponible es
utilizada por el organismo y parte no, por ej., en la respiración celular
aerobia, la energía química sintetizada por Fosforilación Oxidativa es retenida
en el organismo para satisfacer sus funciones vitales y parte de la energía no
Disponible, la calórica, se disipa hacia el exterior, en el caso de los
Metazoos superiores, específicamente Aves y Mamíferos, al generarse energía
calórica por "Combustión Biológica", la energía calórica es retenida
en el organismo en proporciones bajas(40%), el resto se disipa como calor hacia
el medio externo, esto explica la HOMEOSTASIS constante que poseen estos
vertebrados, como son animales de sangre caliente( HOMEOTERMOS), el calor
desprendido al Oxidar biológicamente un principio nutritivo hace que su medio
interno sea constante a pesar de las variaciones climáticas en el ambiente
externo, el desorden o ALEATORIEDAD de las moléculas en el ser vivo es
producida por la energía calórica al transformase la materia en energía.
(Chalen,
2015)
FLUIDOS
Los líquidos y los gases tienen la
capacidad de fluir debido a la movilidad de las partículas que los constituyen
(sus moléculas tienen poca fuerza de atracción entre ellas), por esta razón se
llaman fluidos. Ejemplos son el aceite, al agua o el aire. Fluir:
deslizarse con facilidad. Los líquidos y los gases son más similares entre sí,
porque, a diferencia de los sólidos, ambos adoptan la forma del recipiente que
los contienen (no tienen forma fija).
La viscosidad es la propiedad
que determina la medida de la fluidez a determinadas temperaturas. A más
viscoso implica que menos fluye un fluido.
El movimiento de los fluidos se puede ver
ligeramente frenado por el rozamiento entre sus partículas en la dirección de
su desplazamiento. Este fenómeno es mucho más importante en los líquidos que
sufren una pérdida apreciable de energía y de presión a medida que se mueve por
tuberías o canales.
El principio de Pascal fundamenta el funcionamiento
de las genéricamente llamadas máquinas hidráulicas: la prensa, el gato, el
freno, el ascensor y la grúa, entre otras. Este dispositivo, llamado prensa
hidráulica, nos permite prensar, levantar pesos o estampar metales ejerciendo
fuerzas muy pequeñas. Veamos cómo lo hace. El recipiente lleno de líquido de la
figura consta de dos cuellos de diferente sección cerrados con sendos tapones
ajustados y capaces de res-balar libremente dentro de los tubos
(pistones). Si se ejerce una fuerza (F1) sobre el pistón pequeño, la
presión ejercida se transmite, tal como lo observó Pascal, a todos los puntos
del fluido dentro del recinto y produce fuerzas perpendiculares a las paredes.
En particular, la porción de
pared representada por el pistón grande (A2) siente una fuerza (F2) de manera
que mientras el pistón chico baja, el grande sube. ¡La presión sobre los
pistones es la misma, No así la fuerza! Como p1=p2 (porque la presión
interna es la misma para todos lo puntos) Entonces: F1/A1 es igual F2/A2 por lo
que despejando un termino se tiene que: F2=F1.(A2/A1) Si, por ejemplo, la
superficie del pistón grande es el cuádruple de la del chico, entonces el
módulo de la fuerza obtenida en él será el cuádruple de la fuerza
ejercida en el pequeño.
La prensa hidráulica, al igual que las palancas
mecánicas, no multiplica la energía. El volumen de líquido desplazado por el
pistón pequeño se distribuye en una capa delgada en el pistón grande, de modo
que el producto de la fuerza por el desplazamiento (el trabajo) es igual en
ambas ramas. ¡El dentista debe accionar muchas veces el pedal del sillón para
lograr levantar lo suficiente al paciente!
PRINCIPIO DE ARQUÍMEDES
Nació en Siracusa, Sicilia, y se educó en
Alejandría, Egipto. En el campo de las matemáticas puras, se anticipó a muchos
de los descubrimientos de la ciencia moderna, como el cálculo integral, con sus
estudios de áreas y volúmenes de figuras sólidas curvadas y de áreas de figuras
planas. Demostró también que el volumen de una esfera es dos tercios del
volumen del cilindro que la circunscribe.
En mecánica, Arquímedes definió la ley de la palanca
y se le reconoce como el inventor de la polea compuesta. Durante su estancia en
Egipto inventó el ‘tornillo sin fin’ para elevar el agua de nivel. Arquímedes
es conocido sobre todo por el descubrimiento de la ley de la hidrostática, el
llamado principio de Arquímedes, que establece que todo cuerpo sumergido en un
fluido experimenta una pérdida de peso igual al peso del volumen del fluido que
desaloja (véase Mecánica de fluidos).
Se dice que este descubrimiento lo hizo mientras se
bañaba, al comprobar cómo el agua se desplazaba y se desbordaba. Arquímedes
pasó la mayor parte de su vida en Sicilia, en Siracusa y sus alrededores,
dedicado a la investigación y los experimentos. Aunque no tuvo ningún cargo
público, durante la conquista de Sicilia por los romanos se puso a disposición
de las autoridades de la ciudad y muchos de sus instrumentos mecánicos se
utilizaron en la defensa de Siracusa.
Entre la maquinaria de guerra cuya invención se le
atribuye está la catapulta y un sistema de espejos —quizá legendario— que
incendiaba las embarcaciones enemigas al enfocarlas con los rayos del sol. Al
ser conquistada Siracusa, durante la segunda Guerra Púnica, fue asesinado por
un soldado romano que le encontró dibujando un diagrama matemático en la arena.
Se cuenta que Arquímedes estaba tan absorto en las operaciones que ofendió al
intruso al decirle: "No desordenes mis diagramas".
Todavía subsisten muchas de sus obras sobre
matemáticas y mecánica, como el Tratado de los cuerpos flotantes, El arenario y
Sobre la esfera y el cilindro. Todas ellas muestran el rigor y la imaginación
de su pensamiento matemático.
El principio de Arquímedes afirma que todo cuerpo
sumergido en un fluido experimenta un empuje vertical y hacia arriba igual al
peso de fluido desalojado. La explicación del principio de Arquímedes consta de
dos partes como se indica en las figuras: El estudio de las fuerzas sobre una
porción de fluido en equilibrio con el resto del fluido. La sustitución de
dicha porción de fluido por un cuerpo sólido de la misma forma y
dimensiones. (Rivera, 2017)
PORCIÓN
DE FLUIDO EN EQUILIBRIO CON EL RESTO DEL FLUIDO.
Consideremos, en primer lugar, las fuerzas sobre una
porción de fluido en equilibrio con el resto de fluido. La fuerza que ejerce la
presión del fluido sobre la superficie de separación es igual a p·dS,
donde p solamente depende de la profundidad y dS es
un elemento de superficie. Puesto que la porción de fluido se encuentra en
equilibrio, la resultante de las fuerzas debidas a la presión se debe anular
con el peso de dicha porción de fluido. A esta resultante la denominamos empuje
y su punto de aplicación es el centro de masa de la porción de fluido,
denominado centro de empuje. De este modo, para una porción de fluido en
equilibrio con el resto se cumple.
El peso de la porción de fluido es igual al producto
de la densidad del fluido rf por la aceleración de la
gravedad g y por el volumen de dicha porción V.
SE SUSTITUYE LA PORCIÓN DE FLUIDO POR UN CUERPO
SÓLIDO DE LA MISMA FORMA Y DIMENSIONES.
Si sustituimos la porción de fluido por un cuerpo
sólido de la misma forma y dimensiones. Las fuerzas debidas a la presión no
cambian, por tanto, su resultante que hemos denominado empuje es el mismo, y
actúa sobre el mismo punto, es decir, sobre el centro de empuje.
EL SISTEMA cardiovascular está formado por el
corazón, la sangre y los vasos sanguíneos; cada uno desarrolla una función
vital en el cuerpo humano. Aquí hablaremos sólo de una parte de la física
involucrada en su funcionamiento. La función
principal del sistema circulatorio es transportar materiales en el cuerpo:
la sangre recoge el oxígeno en los pulmones, y en el intestino
recoge nutrientes, agua, minerales, vitaminas y los transporta a todas las
células del cuerpo.
Los productos de desecho, como el bióxido de
carbono, son recogidos por la sangre y llevados a diferentes órganos para ser
eliminados, como pulmones, riñones, intestinos, etcétera. Casi
el 7% de la masa del cuerpo se debe a la sangre. Entre sus componentes hay
células muy especializadas: los leucocitos o células blancas
están encargadas de atacar bacterias, virus y en general a todo cuerpo extraño
que pueda dañar nuestro organismo; las plaquetas son las
encargadas de acelerar el proceso de coagulación, defensa del cuerpo cuando se
encuentra una parte expuesta; los eritrocitos o células rojas
llevan el oxígeno y el alimento a todas las células del cuerpo.
El corazón es prácticamente una
doble bomba que suministra la fuerza necesaria para que la sangre circule a
través de los dos sistemas circulatorios más importantes: la circulación
pulmonar en los pulmones y la circulación sistemática en el resto del cuerpo.
La sangre primero circula por los pulmones y posteriormente por el resto del
cuerpo. Comenzaremos la descripción del
funcionamiento del corazón considerando la sangre que sale al resto del cuerpo,
por el lado izquierdo del mismo.
La sangre es bombeada por la contracción de los
músculos cardiacos del ventrículo izquierdo a una presión de casi 125 mm de Hg
en un sistema de arterias que son cada vez más pequeñas
(arteriolas) y que finalmente se convierten en una malla muy fina de vasos
capilares. Es en ellos donde la sangre suministra el O2 a las
células y recoge el CO2 de ellas. Después
de pasar por toda la malla de vasos capilares, la sangre se colecta en pequeñas
venas (vénulas) que gradualmente se combinan en venas cada vez
más grandes hasta entrar al corazón por dos vías principales, que son la vena
cava superior y la vena cava inferior.
La sangre que llega al corazón pasa primeramente a
un reservorio conocido como aurícula derecha donde se almacena; una vez que se
llena se lleva a cabo una contracción leve (de 5 a 6 mm de Hg) y la sangre pasa
al ventrículo derecho a través de la válvula tricúspide que se ilustra en la
figura 9. En la siguiente
contracción ventricular, la sangre se bombea a una presión de 25 mm de Hg
pasando por la válvula pulmonar a las arterias pulmonares y hacia los vasos
capilares de los pulmones, ahí recibe O2 y se desprende del CO2 que
pasa al aire de los pulmones para ser exhalado.
La sangre recién oxigenada regresa al corazón por
las venas de los pulmones, llegando ahora al reservorio izquierdo o aurícula
izquierda. Después de una leve contracción de la aurícula (7 a 8 mm de Hg) la
sangre llega al ventrículo izquierdo pasando por la válvula mitral. En la
siguiente contracción ventricular, la sangre se bombea hacia el resto del
cuerpo, y sale por la válvula aórtica. En un adulto el corazón bombea cerca de
80 ml por cada contracción. Es claro que las
válvulas del corazón deben funcionar en forma rítmica y acoplada, ya que de no
ser así el cuerpo puede sufrir un paro cardiaco. Actualmente, las válvulas
pueden sustituirse si su trabajo es deficiente. (Vite,
2012)
A pesar de que la sangre es levemente más pesada que
el agua, es muchísimo más gruesa/viscosa. La viscosidad de la sangre es una
medida de la resistencia al flujo es entre 3,5 a 5,5 veces la del agua. La
viscosidad del plasma es ceca de 1,5 a 1m8 veces la del agua. La viscosidad de
la sangre se incrementa a medida de la cantidad de células disueltas en ella
aumenta, así como cuando aumenta la cantidad de proteínas. Una
sangre más viscosa es más resistente al movimiento, lo cual implica que se
requiere una mayor presión sanguínea para que esta se mueva a través de los
vasos sanguíneos. Adicionalmente, una alta viscosidad sanguínea es un factor
que predispone a coagulaciones no controladas. En las personas sanas, un
incremento en la viscosidad sanguínea causada por una producción de células
sanguíneas de tipo defensivo y a la deshidratación causada por la fiebre por
enfermedades leves como la gripe es fácilmente tolerable. Sin
embargo, en pacientes con sangre de por sí muy viscosa, como aquellos con
enfermedades pulmonares, in incremento adicional puede conllevar a la
coagulación sanguina, al taponamiento de las arterias y por lo tanto a infartos
obstructores o a derrames internos. Incluso, la resistencia al movimiento de la
sangre puede llegar a ser tan alto que el musculo cardíaco o
miocardio puede llegar a ser insuficiente para empujar la sangre, lo que conlleva a un infarto del miocardio.
LA VISCOSIDAD DEPENDE DE:
· HEMATOCRITO
· LA
VELOCIDAD DEL flUJO
· LA
AGREGACIÓN DE LOS ERITROCITOS
· LA
DEFORMABILIDAD DE LOS ERITROCITOS
· EL
RADIO DEL VASO
El aparato circulatorio o sistema
circulatorio es la estructura anatómica compuesta por
el sistema cardiovascular que conduce y hace circular la sangre, y
por el sistema linfático que conduce la linfa unidireccionalmente hacia el
corazón. En el ser humano, el sistema cardiovascular está formado por el
corazón, los vasos sanguíneos (arterias, venas y capilares) y la sangre, el
sistema linfático que está compuesto por los vasos linfáticos, los ganglios,
los órganos linfáticos (el bazo y el timo), la médula ósea, los tejidos
linfáticos (como la amígdala y las placas de Peyer) y la linfa. La sangre es un
tipo de tejido conjuntivo fluido especializado, con una matriz coloidal
líquida, una constitución compleja y de un color rojo característico. Tiene una
fase sólida (elementos formes), que incluye a los leucocitos (o glóbulos
blancos), los eritrocitos (o glóbulos rojos), las plaquetas y una fase líquida,
representada por el plasma sanguíneo.
La linfa es un líquido transparente que recorre los
vasos linfáticos y generalmente carece de pigmentos. Se produce tras el exceso
de líquido que sale de los capilares sanguíneos al espacio intersticial o
intercelular, y es recogida por los capilares linfáticos, que drenan a vasos
linfáticos más gruesos hasta converger en conductos que se vacían en las venas
subclavias. La función principal del aparato circulatorio es la de pasar
nutrientes (tales como aminoácidos, electrolitos y linfa), gases, hormonas,
células sanguíneas, entre otros, a las células del cuerpo, recoger los desechos
metabólicos que se han de eliminar después por los riñones, en la orina, y por
el aire exhalado en los pulmones, rico en dióxido de carbono (CO2).
Además, defiende el cuerpo de infecciones y ayuda a estabilizar la temperatura
y el pH para poder mantener la homeostasis.
Sistema circulatorio cerrado: En este tipo de
sistema circulatorio la sangre viaja por el interior de una red de vasos
sanguíneos, sin salir de ellos. El material transportado por la sangre llega a
los tejidos a través de difusión. Es característico de anélidos, cefalópodos y
de todos los vertebrados incluidos el ser humano. Sistema circulatorio
abierto: En este tipo de sistema circulatorio la sangre no está siempre
contenida en una red de vasos sanguíneos. La sangre bombeada por el corazón
viaja a través de los vasos sanguíneos e irriga directamente las células, regresando
luego por distintos mecanismos. Este tipo de sistema se presenta en muchos
invertebrados, entre ellos los artrópodos, que incluyen a los crustáceos, las
arañas y los insectos; y los moluscos no cefalópodos, como caracoles y almejas.
Estos animales tienen uno o varios corazones, una red de vasos sanguíneos y un
espacio abierto grande en el cuerpo llamado hemocele.1La
circulación de la sangre o circulación sanguínea describe el
recorrido que hace la sangre desde que sale hasta que vuelve al corazón. La
circulación puede ser simple o doble:
Ocurre cuando la sangre forma un solo ciclo y en su
recorrido pasa una sola vez por el corazón. La sangre pasa una vez por el
corazón en cada vuelta. Circulación sanguínea doble, la sangre pasa dos
veces por el corazón en cada vuelta. La circulación sanguínea también se
clasifica en: Circulación sanguínea completa, no hay mezcla de sangre
oxigenada y desoxigenada. Circulación sanguínea incompleta, hay mezcla de
sangre oxigenada y desoxigenada. El corazón de los seres humanos y de la
mayoría de los vertebrados más evolucionados se divide en cuatro cámaras, es
tetracameral. En otros animales solo tiene dos o tres cámaras, o incluso una
sola en forma tubular. Además, hay animales que tienen más de un corazón.
La circulación portal es un subtipo de la
circulación general originado de venas procedentes de un sistema capilar, que
vuelve a formar capilares en el hígado, al final de su trayecto. Existen dos
sistemas portal en el cuerpo humano:
Las venas originadas en los capilares del tracto
digestivo desde el estómago hasta el recto que transportan los productos de la
digestión, se transforman de nuevo en capilares en las sinusoides hepáticas del
hígado, para formar de nuevo venas que desembocan en la circulación sistémica a
través de las venas suprahepáticas a la vena cava inferior.
Los capilares son los vasos sanguíneos más numerosos
del cuerpo. Todas las células del organismo se encuentran cerca de un vaso
capilar de donde tomarán alimentos y oxígeno y dejarán el dióxido de carbono.
Los vasos capilares están conectados a venas pequeñas, las cuales se juntan
para formar venas más grandes. Las venas que devuelven la sangre de la cabeza y
los brazos se juntan para formar la vena cava superior. La sangre de la parte
inferior del cuerpo es llevada hacia el corazón por la vena cava inferior.
Ambas venas cavas, superior e inferior, llevan la sangre al atrio derecho, una
de las cuatro cavidades del corazón. De allí pasa al ventrículo derecho a
través de la válvula tricuspidea. El ventrículo derecho se contrae y empuja la
sangre, a través de la válvula pulmonar, hacia la arteria pulmonar. La arteria
pulmonar se divide en dos ramas que llevan la sangre hacia los vasos capilares
de cada pulmón, donde el oxígeno entra en la sangre y el dióxido de carbono
sale de ella. Después, la sangre regresa por las venas pulmonares hasta el
atrio izquierdo y de allí, pasando por la válvula mitral, llega al ventrículo
izquierdo. El ventrículo izquierdo empuja la sangre a través de la válvula
aórtica hacia la arteria aorta, quien lleva la sangre nuevamente oxigenada a
todos los capilares de nuestro cuerpo y así se completa el ciclo.
Los latidos cardiacos normales son controlados por
el propio corazón. para que el corazón funcione se necesita de un nodo
senoatrial (sinusal), también llamado marcapaso, que se encuentra en el atrio
derecho. Este nodo dispara, aproximadamente cada segundo, un impulso nervioso
en forma de onda de contracción que hace que las aurículas se contraigan,
posteriormente este impulso nervioso llega a otro nodo que se encuentra entre los
dos atrios, inmediatamente encima de los ventrículos, este último nodo tiene
como función llevar el impulso nervioso a través de los nervios cardiacos.
El corazón de una persona en descanso impulsa (gasto
cardiaco), más o menos cinco litros de sangre por minuto, o sea 75 ml por
latido. Durante los 70 años de vida promedio de un individuo, su corazón late
unas 2600 millones de veces. Cada latido cardiaco consta de una contracción o
sístole, seguida de relajación o diástole. Entre cada latido el corazón
descansa aproximadamente 0.4 segundos. El ritmo cardiaco normal es de 55 a 80
latidos por minuto.
El sistema circulatorio pulmonar es la parte del
sistema cardiovascular en el que la sangre pobre en oxígeno se bombea desde el
corazón, a través de la arteria pulmonar, a los pulmones y vuelve, oxigenada,
al corazón a través de la vena pulmonar. La sangre privada de oxígeno procedente
de la vena cava superior e inferior, entra en la aurícula derecha del corazón y
fluye a través de la válvula tricúspide (válvula atrio ventricular derecha) y
entra en el ventrículo derecho, desde el cual se bombea a través de la válvula
semilunar pulmonar en la arteria pulmonar hacia los pulmones. El intercambio de
gases se produce en los pulmones, mediante el cual se libera CO2 de
la sangre, y se absorbe el oxígeno. La vena pulmonar devuelve la sangre ya
oxigenada a la aurícula izquierda.
La circulación sistémica es la circulación de la
sangre a todas las partes del cuerpo, excepto los pulmones. Es la parte del
sistema cardiovascular que transporta la sangre oxigenada desde el corazón a
través de la aorta desde el ventrículo izquierdo donde la sangre se ha
depositado previamente a partir de la circulación pulmonar, al resto del
cuerpo, y devuelve la sangre pobre en oxígeno al corazón. La circulación
sistémica es, en términos de distancia, mucho más larga que la circulación
pulmonar, ya que recorre cada parte del cuerpo. (León, 2013)
El aparato respiratorio o sistema
respiratorio es el encargado de captar el oxígeno (O2) del aire
e introducirlo en la sangre y expulsar del cuerpo el dióxido de carbono (CO2)
―que es un desecho de la sangre y subproducto del anabolismo celular―. En
humanos y otros mamíferos, el sistema respiratorio consiste en vías
respiratorias, pulmones y músculos respiratorios que median en el movimiento
del aire tanto dentro como fuera del cuerpo humano.
El intercambio de gases es el intercambio de oxígeno
y dióxido de carbono, del ser vivo con el medio. Dentro del sistema de los
pulmones, las moléculas de oxígeno y dióxido de carbono se intercambian
pasivamente, por difusión, entre el entorno gaseoso y la sangre. Así, el
sistema respiratorio facilita la oxigenación con la remoción contaminante del
dióxido de carbono y otros gases que son desechos del metabolismo y de la
circulación. El sistema respiratorio también ayuda a mantener el balance entre
ácidos y bases en el cuerpo a través de la eficiente eliminación de dióxido de
carbono de la sangre. El diafragma, como todo músculo, puede contraerse y
relajarse. En la inhalación, el diafragma se contrae y se allana, y la cavidad
torácica se amplía. Esta contracción crea un vacío que succiona el aire hacia
los pulmones (inhalación). En la exhalación, el diafragma se relaja y el aire
es expulsado de los pulmones.
Fosas nasales, boca, epiglotis, faringe,
laringe, tráquea, bronquios principales, bronquios lobulares, bronquios
segmentarios y bronquiolos.
Los conductos y los sacos alveolares. El
espacio muerto anatómico, o zona no respiratoria (donde no hay intercambios
gaseosos) del árbol bronquial incluye las 16 primeras generaciones
bronquiales, siendo su volumen de unos 150 ml. La función del aparato
respiratorio consiste en desplazar volúmenes de aire desde la atmósfera a los
pulmones y viceversa. Lo anterior es posible gracias a un proceso conocido como
ventilación. La ventilación es un proceso cíclico y consta de dos etapas: la
inspiración, que es la entrada de aire a los pulmones, y la espiración, que es
la salida. La inspiración es un fenómeno activo, caracterizado por el aumento
del volumen torácico que provoca una presión intrapulmonar negativa
y determina el desplazamiento de aire desde el exterior hacia los pulmones.
La contracción de los músculos inspiratorios
principales, diafragma e intercostales externos, es la responsable de este
proceso. Una vez que la presión intrapulmonar iguala a la atmosférica, la
inspiración se detiene y entonces, gracias a la fuerza elástica de la caja
torácica, esta se retrae, generando una presión positiva que supera a la
atmosférica y determinando la salida de aire desde los pulmones. En condiciones
normales la respiración es un proceso pasivo. Los músculos respiratorios
activos son capaces de disminuir aún más el volumen intratorácico y aumentar la
cantidad de aire que se desplaza al exterior, lo que ocurre en la espiración
forzada. Mientras este ciclo ventilario ocurre, en los sacos alveolares, los
gases contenidos en el aire que participan en el intercambio gaseoso, oxígeno y
dióxido de carbono, difunden a favor de su gradiente de concentración, de lo
que resulta la oxigenación y detoxificación de la sangre. El volumen de aire
que entra y sale del pulmón por minuto, tiene cierta sincronía con el sistema
cardiovascular y el ritmo circadiano (como disminución de la frecuencia de
inhalación/exhalación durante la noche y en estado de vigilia/sueño). Variando
entre 6 a 80 litros (dependiendo de la demanda). Se debe tener cuidado con los
peligros que implica la ventilación pulmonar ya que junto con el aire también
entran partículas sólidas que puede obstruir y/o intoxicar al organismo. Las de
mayor tamaño son atrapadas por los vellos y el material mucoso de la nariz y
del tracto respiratorio, que luego son extraídas por el movimiento ciliar hasta
que son tragadas, escupidas o estornudadas. A nivel bronquial, por carecer de
cilios, se emplean macrófagos y fagocitos para la limpieza de partículas.
La ventilación es controlada de forma muy cuidadosa
y permite la regulación del intercambio gaseoso, es decir que los niveles
normales de PaO2 y PaCO2 arteriales se
mantengan dentro de límites estrechos a pesar de que las demandas de captación
de O2 y eliminación de CO2 varían mucho. El
sistema respiratorio se puede considerar un sistema de control de lazo cerrado
ya que posee un grupo de componentes que regula su propia conducta, estos
componentes pueden ser clasificados como: sensores que reúnen información y con
ella alimentan al controlador central, en el encéfalo, que coordina la
información y a su vez envía impulsos hacia los músculos respiratorios
efectores, que causan la ventilación.
SENSORES (ENTRADAS).
Los sensores protagonistas en el control de la
respiración son los quimiorreceptores, estos responden a los cambios en la
composición química de la sangre u otro líquido. Se han clasificado
anatómicamente como centrales y periféricos. Quimiorreceptores
centrales cerca de la superficie ventral del bulbo raquideo están
rodeados por el líquido extracelular del cerebro y responden a los cambios de
H+ en ese líquido. El nivel de CO2 en la sangre regula la
ventilación principalmente por su efecto sobre el pH del LCR. Quimiorreceptores
periféricos se hallan dentro de los cuerpos carotídeos, en la
bifurcación de las arterias carótidas primitivas, y en los cuerpos aórticos por
encima y por debajo del cayado aórtico, estos responden al descenso de la PO2 arterial
y al aumento de la pCO2 y de los H+, estos son los responsables
de cualquier aumento de la ventilación en el ser humano como respuesta de la
hipoxemia arterial.
En los pulmones también existen receptores
sensoriales que intervienen en el control del calibre de las vías aéreas, la
secreción bronquial, así como en la liberación de mediadores por las células
cebadas u otras células inflamatorias, esta información llega a los centros
superiores a través de las fibras sensoriales del nervio vago. Los receptores
asociados a la vía vagal son los siguientes: Receptores de estiramiento
pulmonar en el músculo liso de las vías aéreas, producen impulsos
cuando se distiende el pulmón, y su actividad persiste mientras el mismo se
encuentre insuflado. Receptores de sustancias irritantes entre
las células epiteliales de las vías aéreas y son estimulados por gases nocivos
y aire frío.2 Receptores
J o yuxtacapilares las terminaciones nerviosas de estas fibras se
encuentran situadas en el parénquima pulmonar en la vecindad de las paredes
alveolares y los capilares pulmonares, son estimulados por el edema y la
fibrosis pulmonar intersticio y dan lugar a la sensación de disnea en estos
pacientes, además se señala que tiene un importante papel en la regulación de
la secreción de surfactante pulmonar. Existen otros receptores
correspondientes al sistema de control respiratorio o que de alguna manera
pueden modificar la frecuencia ventilatoria: Receptores nasales y de
las vías aéreas superiores la nariz, la nasofaringe, la laringe y la
tráquea poseen receptores que responden a la estimulación mecánica y química.
Se les atribuyen diversas respuestas reflejas, como estornudos, tos y
broncoconstricción. Barorreceptores arteriales los
barorreceptores de la aorta y los senos carotídeos por el aumento de la presión
arterial puede causar hipoventilación o apnea reflejas. La disminución de la
presión arterial causará hiperventilación. Dolor y temperatura La
estimulación de muchos nervios aferentes puede general cambios en la
ventilación. El dolor muchas veces causa un período de apnea seguido de
hiperventilación. El calentamiento de la piel puede causar hiperventilación.
El control de la ventilación es una compleja
interconexión de múltiples regiones en el cerebro que inervan a los diferentes
músculos encargados de la ventilación pulmonar. El proceso automático normal de
la respiración se origina en impulsos que provienen del tallo cerebral, sin embargo,
se puede tener cierto control voluntario dentro de determinados límites ya que
los estímulos de la corteza se pueden priorizar respecto a los del tallo
cerebral. Tallo cerebral periodicidad de la inspiración y
espiración es controlada por neuronas ubicadas en la protuberancia y en el
bulbo raquídeo, a estas se les denomina los Centros respiratorios,
es un conjunto algo indefinido de neuronas con diversos
componentes. Centros respiratorios bulbares: la región dorsal
del bulbo está asociada con la inspiración, estas son las responsables del
ritmo básico de la ventilación, y la región ventral con la espiración. Centro
apneústico: se ubica en la parte inferior de la protuberancia.
EFECTORES
(SALIDAS).
Como actuadores del sistema respiratorio están
el diafragma, los músculos intercostales, abdominales y los músculos
accesorios. En el contexto del control de la ventilación es fundamental que
estos diversos grupos trabajen conjuntamente en forma coordinada. Hay
evidencias de que en algunos neonatos, en particular los prematuros, existe
falta de coordinación en la actividad de los músculos respiratorios, en
especial durante el sueño. Por ejemplo, los músculos torácicos pueden realizar
el trabajo inspiratorio mientras los músculos abdominales efectúan el trabajo
espiratorio.
El organismo siempre conserva una atracción
inspirada de oxígeno de 21 % (FiO2) porque la composición de la
tierra es constante pero a medida que va aumentando la altitud irá bajando la
presión atmosférica y por lo tanto la concentración de oxígeno que inspiramos
también disminuirá. Se da entonces el fenómeno de la hipoxia cuyas
consecuencias son:
Hay taquicardia y aumento del gasto cardíaco,
aumento de la resistencia de la arteria pulmonar, hiperventilación (que si es
excesiva puede llevar a una alcalosis metabólica), cambios psicóticos, el
aumento de la frecuencia respiratoria y aumento de la presión venosa es por
aumento del tono enérgico.
Aumento de la masa de glóbulos rojos, aumento del
p50, compensación renal de la alcalosis respiratoria, aumento de la densidad de
capilares musculares y aumento del número de mitocondrias y sus enzimas
oxidativas.
Definición de los órganos
Vía nasal: Consiste en dos amplias cavidades cuya
función es permitir la entrada y salida del aire, el cual se humedece, filtra y
calienta a una determinada temperatura a través de unas estructuras llamadas
cornetes.
FARINGE: Conducto muscular membranoso, que ayuda a que el
aire se vierta hacia las vías aéreas inferiores. Se divide en: Nasofaringe,
Orofaringe y LARINGOFARINGE.
EPIGLOTIS: Cartílago perteneciente a la faringe, impide el
paso de alimentos a la laringe durante la deglución. Funciona como una
"tapa" al impedir que los alimentos entren en la laringe y en la
tráquea al tragar, durante la deglución. También marca el límite entre la
orofaringe y la laringofaringe.
LARINGE: Conducto cuya función principal es la filtración del
aire inspirado. Además, permite el paso de aire hacia la tráquea y los
pulmones, y también tiene la función de órgano fonador al pasar el aire por las
cuerdas vocales, produciendo el sonido.
TRÁQUEA: Brinda una vía abierta al aire inhalado y exhalado
hacia los pulmones.
BRONQUIO: Conducto tubular fibrocartilaginoso que conduce el
aire desde la tráquea hasta los bronquiolos.
BRONQUIOLO: Conducto que conduce el aire desde los
bronquios hasta los alvéolos.
ALVÉOLO: Divertículo terminal del árbol bronquial
donde se produce la hematosis (Permite el intercambio gaseoso entre el aire
inspirado y la sangre, de manera que en su interior la sangre elimina el
dióxido de carbono y recoge oxígeno).
PULMONES: Órganos cuya función es realizar el intercambio
gaseoso con la sangre, por ello los alvéolos están en estrecho contacto con los
capilares.
MÚSCULOS INTERCOSTALES: Músculos torácicos
cuya función principal es la de movilizar un volumen de aire que sirva para,
tras un intercambio gaseoso apropiado, aportar oxígeno a los diferentes
tejidos.
DIAFRAGMA: Músculo que separa la cavidad
torácica (pulmones, mediastino, etc.) de la cavidad abdominal (intestinos,
estómago, hígado, etc.). Interviene en la respiración, descendiendo la presión
dentro de la cavidad torácica y aumentando el volumen durante la inhalación y
aumentando la presión y disminuyendo el volumen durante la exhalación. Este
proceso se lleva a cabo, principalmente, mediante la contracción y relajación
del diafragma.
UNIDAD
# 3 SISTEMAS BIOFÍSICOS
BIOELÉCTRICOS, BIOFISICA DE LA AUDICION Y VISION. BIOFÍSICA NUCLEAR
La electrofisiología es la ciencia y rama de la
fisiología que pertenece al flujo de iones en tejidos biológicos y, en
particular, a las técnicas de registro eléctrico que permiten las mediciones de
este flujo. Las técnicas de electrofisiología implican colocar electrodos en
varias preparaciones de tejido biológico. Los principales tipos de electrodos
son: 1) Conductores sólidos simples, como discos y agujas (individuales o
arreglos, usualmente aislados exceptuando la punta), 2) trazos en un tablero
con circuitos impresos, también aislados, y 3) tubos huecos llenos con un
electrolito, como pipetas de vidrio llenas de solución de cloruro de potasio u
otra solución electrolítica. Las preparaciones principales incluyen 1)
organismos vivos, 2) tejidos extirpados, 3) células disociadas de tejido
extirpado, 4) tejidos y células desarrollados artificialmente, o 5) híbridos de
los anteriores. Si un electrodo es lo suficientemente pequeño (micrómetros) en
diámetro, entonces el eletro-fisiologo puede insertar la punta en una sola
célula. Esta configuración permite la observación directa y registro de la
actividad eléctrica intracelular de una sola célula. Sin embargo, al mismo
tiempo este procedimiento tan invasivo reduce la vida de la célula, y causa una
fuga de sustancias a través de la membrana celular. La actividad intracelular
también puede ser observada usando una pipeta de vidrio formada especialmente
(hueca) que contenga un electrolito. En esta técnica, la punta de la pipeta es
presionada contra la membrana celular, a la que se adhiere bien por la
interacción entre el vidrio y los lípidos de la membrana. El electrolito dentro
de la pipeta puede quedar en continuidad con el fluido del citoplasma enviando
un pulso de presión al electrolito con el fin de romper el pequeño parche de la
membrana rodeado por el borde de la pipeta. Alternativamente, se puede
establecer continuidad iónica por perforar el parche al permitir un agente
exógeno “formador de poros” en el electrolito para insertarse en el parche de
membrana. Finalmente, el parche se puede dejar intacto.
Podríamos definir el Sistema Nervioso como un
conjunto de órganos y estructuras, formadas por tejido nervioso de origen
ectodérmico* cuya unidad funcional básica son las neuronas. Con origen
ectodérmico, nos referimos a que el Sistema Nervioso se encuentra dentro
de las partes externas que primero se forman en un embrión
(persona/animal). También serían ectodermos las uñas, el pelo, las plumas… La
función principal del Sistema Nervioso, a grandes rasgos, sería captar y
procesar rápidamente todo tipo de señales (procedentes del entorno o de
nuestro propio cuerpo), controlando y coordinando a su vez, los demás órganos
del cuerpo. De este modo, a través del Sistema Nervioso, logramos una interacción
eficaz, correcta y oportuna con el medio ambiente.
Para que la información llegue a nuestro Sistema
Nervioso, necesitamos los receptores. Ojos, oídos, piel… Éstos son los que
recogen lo que percibimos y envían los datos en forma de impulsos eléctricos a
través de nuestro organismo, hacia nuestro Sistema Nervioso. Sin embargo, no
solamente reaccionamos ante lo percibido del exterior, si no que nuestro
corazón late, nuestro hígado secreta bilis, nuestro estómago hace la digestión…
y de todos estos procesos internos también se encarga nuestro Sistema Nervioso.
Podemos observar ciertas características que son
propias del SNC:
Sus componentes principales, están muy protegidos
del medio externo. Siendo así que el Encéfalo, por ejemplo, se
encuentra recubierto por tres membranas, a las que denominamos Meninges y
éstas, a su vez, por la estructura ósea que denominamos cráneo. Por otra parte,
la Médula Espinal, también se encuentra protegida por una estructura
ósea, la Espina dorsal. Si nos fijamos, en nuestro cuerpo, todos los
órganos imprescindibles para la vida, están protegidos del exterior. “Yo
me lo imagino como un castillo, donde el Encéfalo es el Rey, sentado en su
trono y protegido por las grandes paredes de su fortaleza”. Las
células que funcionan en el SNC se organizan de tal forma que crean dos
estructuras diferenciadas, la sustancia blanca y la sustancia gris. Para poder
realizar su función principal (recibir información y enviar señales y órdenes),
se necesita un medio. Tanto el encéfalo como la médula poseen unas cavidades
llenas del líquido cefalorraquídeo. Este, además de ser el medio de transmisión
de sustancias, se encarga de eliminar residuos y mantener una homeostasis.
Durante la formación del sistema nervioso en la fase
embrionaria del desarrollo, el SN se pueden dividir en las siguientes partes:
Encéfalo y Médula espinal. Explicamos cada una:
ENCÉFALO
Podemos hacer una diferenciación de las partes del
encéfalo, denominados cerebros primitivos: PROSENCÉFALO: A
través del telencéfalo y el diencéfalo, realiza funciones de recuerdo,
pensamiento, coordinación de movimientos, formación del lenguaje… Además,
regula las sensaciones de apetito, sed, sueño e impulsos sexuales. MESENCÉFALO: Une
el puente tronco-encefálico y el cerebelo con el Diencéfalo. Es el encargado de
conducir los impulsos motores desde la corteza cerebral hasta el puente
tronco-encefálico e impulsos sensitivos desde la médula espinal hasta el
Tálamo. Se encarga de ciertos aspectos de la vista, audición y sueño. ROMBENCÉFALO: A
través del Cerebelo, la protuberancia y el bulbo raquídeo, se encarga de
procesos orgánicos que son esenciales para la vida. Así como respirar,
circulación de la sangre, deglución, tono muscular movimiento ocular…
MÉDULA ESPINAL
A través de este cordón nervioso, se transmiten los
impulsos nerviosos y la información, desde el cerebro a los músculos. Posee una
longitud de 45 cm y un diámetro de 1 cm aproximadamente, de color blanco y
dotada de una cierta flexibilidad. Una curiosidad es que tiene la
capacidad para emitir los actos reflejos.
ENCONTRAMOS NERVIOS COMO:
Cervicales: Zona cervical.
Torácicos: Zona media de la columna vertebral.
Lumbares: Zona lumbar.
Sacros: Justo antes de finalizar la columna
vertebral.
Coxígeos: Último par de vértebras.
Los dos grandes grupos de nuestro Sistema Nervioso
serían el Sistema Nervioso Central (SNC) y el Sistema Nervioso Periférico
(SNP). Podríamos decir, a grandes rasgos, que la mayor diferencia entre uno y
otro reside en la función. El SNC, donde reside el cerebro por ej., sería la
parte logística. El que “maneja el cotarro“, organiza y manda
directrices a todo nuestro cuerpo. El SNP, sería análogo al mensajero, enviando
señales e información percibida, tanto del exterior como del interior de
nuestro cuerpo hacia el SNC y del SNC al resto del cuerpo, a través de nuestros
nervios. Por tanto, se produce una comunicación entre ambos sistemas,
facilitando así, el funcionamiento del organismo. Dentro del SNP, podemos
encontrar otros subtipos, como por ejemplo el SN Somático y el SN vegetativo.
En estos apartados profundizaré un poco más adelante.
En ocasiones, hay partes del SN que se ven
afectadas, produciendo déficits o problemas en el funcionamiento. Hay
enfermedades específicas de cada sistema, en función de la parte que se ve
perjudicada. Cuando lo que está afectado es la capacidad de recibir la
información y procesarla, para responder a través del control de
las funciones corporales, hablamos de enfermedades del SNC. Encontramos
las siguientes:
ENFERMEDADES
ESCLEROSIS MÚLTIPLE. Enfermedad que actúa sobre
la mielina, dañando las fibras nerviosas. Esto provoca que los impulsos del
Sistema Nervioso disminuyan y su velocidad vaya in decrescendo, llegando
incluso a detenerse. Como consecuencia, encontramos espasmos musculares,
dificultad de equilibrio y problemas de habla y visión.
MENINGITIS. Se trata de una infección a causa
de bacterias de las meninges (las membranas que recubren el encéfalo y la
médula espinal). Puede ser desencadenada por virus o bacterias. Entre sus
síntomas encontramos fiebre alta, dolor de cabeza intenso, rigidez de nuca,
somnolencia, pérdida de conciencia… incluso convulsiones. La meningitis
bacteriana puede ser tratada con antibióticos, sin embargo, la meningitis
viral, no.
ENFERMEDAD DE PARKINSON. Este trastorno crónico,
propio del Sistema Nervioso, provocado por la muerte de neuronas en el
Mesencéfalo o Cerebro medio (el que transmite y coordina en parte los movimientos
de los músculos) carece de cura y progresa con el tiempo. El afectado
experimenta temblores y lentitud para efectuar movimientos
voluntarios. (Alvarado, 2014)
Potenciadores eléctricos de la membrana celular
Es la diferencia de potencial que existe entre el
interior y el exterior de una célula. Lo que mantiene a este potencial en reposo,
es la Bomba Na+/K+ (Bomba Sodio/Potasio), dado que si salen 3 Na+ (Sodio) a la
parte extracelular, entran 2 K+ (Potasio) a la parte intracelular. Se debe a
que la membrana celular se comporta como una barrera semipermeable
selectiva, es decir, permite el tránsito a través de ella de
determinadas moléculas e impide el de otras. Este paso de sustancias
es libre, no supone aporte energético adicional para que se pueda llevar a
cabo. En las células eléctricamente excitables, el potencial de reposo es aquel
que se registra por la distribución asimétrica de
los iones (principalmente sodio y potasio) cuando
la célula está en reposo fisiológico, es decir, no está excitada.
Este potencial es generalmente negativo, y puede calcularse
conociendo la concentración de los distintos iones dentro y fuera de la célula.
La distribución asimétrica de los iones se debe a los gradientes de
los potenciales electroquímicos de los mismos. El potencial
electroquímico está compuesto por el potencial químico, directamente relacionado
con la concentración de las especies, y con la carga de los
distintos iones.
También llamado impulso eléctrico, es una onda
de descarga eléctrica que viaja a lo largo de la membrana modificando
su distribución de carga eléctrica. Los
potenciales de acción se utilizan en el cuerpo para llevar información entre
unos tejidos y otros, lo que hace que sean una
característica microscópica esencial para la vida de los animales.
Pueden generarse por diversos tipos de células corporales, pero las más activas
en su uso son las células del sistema para enviar mensajes
entre células
nerviosas (sinapsis) o desde células nerviosas a otros tejidos
corporales, como el músculo o las glándulas.
Ain impulso hay más cationes, en especial de sodio,
fuera de la membrana celular y más aniones (-iones) dentro de lo que crea
un potencial de reposo
SISTEMA BIO-ELÉCTRICO
El Sistema Cuántico Bio-Eléctrico es una nueva
herramienta que analiza este fenómeno. La energía y la baja frecuencia
magnética del cuerpo humano se captan al sostener el sensor, y a continuación
el equipo las amplifica y las analiza mediante el microprocesador que
incorpora. Los datos se comparan con el espectro cuántico de resonancia
magnética estándar de enfermedades y de nutrición, así como con otros
indicadores incorporados en el equipo para diagnosticar si las formas de las
ondas presentan irregularidades a través del uso de la aproximación de Fourier.
De esta manera se puede realizar el análisis y diagnóstico del estado de salud
y obtener los principales problemas del paciente, también como distintas
propuestas estándares de curación o prevención, basándose en el resultado del
análisis de la forma de la onda. El método de análisis cuántico de resonancia
magnética es un emergente método de detección espectral, rápido, preciso y no
invasivo, lo que lo hace especialmente apropiado para la comparación de los
efectos de curación de diferentes medicinas y productos médicos, y para la
comprobación de posibles estados anormales de salud. Los principales elementos
de análisis ascienden a más de treinta, e incluyen los siguientes
sistemas: (Vite, 2012)
A partir de la segunda mitad del siglo XIX, el
desarrollo de máquinas eléctricas (dínamos y alternadores) capaces de convertir
la energía mecánica en eléctrica permitió trabajar con unos niveles de potencia
muy altos, inimaginables con anterioridad. Rápidamente, la energía eléctrica
fue introduciéndose en la industria, en las comunicaciones, en el alumbrado y
en usos domésticos, lo que puso de relieve la necesidad de estudiar los
peligros que podía representar para los seres vivos y de desarrollar prácticas
y normativas que garantizasen la seguridad de los usuarios. De estos temas
trataremos en lo que sigue.
En electrotecnia se precisan varias magnitudes
fundamentales para caracterizar correctamente un circuito eléctrico y sus
propiedades. Sin entrar a profundizar en todas ellas, expondremos los aspectos
principales del tema que nos ocupa en base a las tres más conocidas por el
público en general: la tensión, la intensidad y la resistencia
LA TENSIÓN, También llamada
“diferencia de potencial” y más familiarmente “voltaje” está relacionado con la
capacidad de trabajo que puede realizar una carga eléctrica. Usando un símil
hidráulico, sería la presión del agua, debida a una bomba o a una diferencia de
nivel. La unidad se denomina Voltio (V) y, para tener unas referencias, cabe
decir que una pila o batería tiene una tensión entre 1 voltio y unas decenas de
voltios, la red de alimentación doméstica opera a 230/400 V y una línea aérea
de transmisión funciona entre 11.000 y 400.000 voltios.
LA INTENSIDAD es
la cantidad de electricidad “carga eléctrica” que circula a
través de un conductor por unidad de tiempo. En hidráulica sería el caudal, los
m3 por segundo que pasan por una tubería. La unidad se llama
Amperio (A) y, a título de ejemplo, podemos decir que una estufa eléctrica
doméstica consume unos 4 a 8 amperios. Hay que destacar la expresión que
circula porque respecto a la intensidad es frecuente cometer el error
de hablar de “un enchufe, un interruptor, etc. de 10 A”. Pues bien, la
intensidad real en aplicaciones domésticas puede estar entre 0 A -si no hay
nada conectado- hasta millares de amperios si el aparato conectado es
defectuoso o presenta un cortocircuito. La cifra que se indica en el propio
dispositivo es la máxima intensidad aplicable, de modo permanente,
a efectos de calentamiento del mismo, no la intensidad real en
cualquier momento.
LA RESISTENCIA es
la medida del grado de dificultad que ofrece un cuerpo para que la corriente
eléctrica circule por él. En hidráulica sería equivalente a la dificultad de
paso del agua por una tubería según su diámetro y su longitud. La unidad es el
Ohmio (Ω) que se define como la resistencia que permite el paso de 1 A bajo una
diferencia de potencial de 1 V. Para hablar con propiedad, deberíamos
referirnos al concepto más general de impedancia (especialmente en corriente
alterna) pero la naturaleza esencialmente resistiva del cuerpo humano permite
la simplificación realizada.
Para poder comprender el proceso es necesario
puntualizar que la red de distribución en baja tensión -la que entra en
nuestros domicilios, oficinas, locales comerciales, etc.- es trifásica y el
neutro está conectado a tierra. A partir del esquema anterior puede inferirse
que si una persona entra en contacto con una de las fases L1, L2, L3 y tiene
los pies apoyados en el suelo (o toca alguna masa metálica, tubería, etc. que
haga buen contacto con tierra) se cerrará el circuito estableciéndose una
corriente que atravesará su cuerpo, produciéndole el choque. Lo mismo ocurrirá
si toca la carcasa metálica de algún aparato que presente defectos de
aislamiento. Los factores que determinan la severidad de las lesiones son:
En general, la corriente alterna de baja frecuencia
(50 – 60 Hz) que se distribuye a través de la red puede llegar a ser hasta 3 o
5 veces más peligrosa que la continua. Puesto que se trata del tipo de
corriente al que habitualmente estamos expuestos en viviendas, locales,
comercios, oficinas, etc., nos centraremos en los riesgos que lleva asociados
la alterna.
En general, cuanto mayor es la intensidad y/o el
tiempo en que circula corriente por nuestro cuerpo, más graves son las
consecuencias. La tabla siguiente muestra los efectos generados en
función de la intensidad y el tiempo de exposición, en un adulto de más de 50
kg de peso, suponiendo que los puntos de contacto son dos extremidades.
Las definiciones de los términos empleados son:
UMBRAL DE PERCEPCIÓN: Valor mínimo de
intensidad que provoca una sensación en una persona.
Umbral de reacción: Corriente mínima que
produce una contracción muscular.
UMBRAL DE NO SOLTAR: Valor máximo de la
intensidad para el cual una persona puede soltarse de unos electrodos que
provocan el paso de la corriente. En corriente alterna se considera que este
valor es de 10 mA, para cualquier tiempo de exposición.
UMBRAL DE FIBRILACIÓN VENTRICULAR: Valor mínimo
de la intensidad que puede originar fibrilación ventricular. Decrece
sustancialmente cuando la duración del paso de corriente se prolonga más allá
de un ciclo cardíaco. Es la causa principal de muerte por accidentes
eléctricos.
La tensión (voltaje) no es peligrosa en sí misma,
pero, de acuerdo con la ley de Ohm, ocasiona el paso de una corriente cuyos
efectos ya se han descrito y cuya magnitud depende, además, de la resistencia.
La tensión de contacto, que es la existente en el punto de contacto antes de
que éste se produzca, es fácil de estimar o calcular. En el caso de
instalaciones de baja tensión (domésticas o industriales), en Europa suele ser
de 230 V si el contacto es entre fase y
neutro (o entre fase y tierra), que es el caso más frecuente, y de 400 V si se
tocan dos fases simultáneamente. El problema reside en determinar el valor de
la resistencia, ya que ésta, en el caso del cuerpo humano no sólo depende de
condiciones externas o ambientales (grado de humedad de la piel, presión de
contacto, estado de la epidermis y zona de contacto, etc.) sino también del
valor de la tensión. Por tanto, podríamos decir que la corriente depende
doblemente de la tensión estableciéndose entre ambas una relación directamente
proporcional a través de la ley de Ohm, y una dependencia con la resistencia,
que figura en el denominador de dicha ley.
Cuando alguna parte o partes del cuerpo humano
entran en contacto con dos puntos u objetos entre los que existe una diferencia
de potencial (voltaje), se establece el paso de una corriente eléctrica a
través del cuerpo que puede producir efectos muy diversos, desde un leve
cosquilleo hasta la muerte, pasando por contracciones musculares, dificultades
o paro respiratorio, caídas, quemaduras, fibrilación ventricular y paro
cardíaco. Esto se conoce como choque eléctrico. El choque eléctrico puede
producirse al tocar elementos sometidos a tensión, como cables o barras
metálicas desnudas (contacto directo), u objetos, normalmente inofensivos, cuya
tensión se debe a fallos y defectos de aislamiento (contacto
indirecto). (Rivera, 2017)
La bomba de sodio y potasio es una proteína presente
en todas las membranas plasmáticas de las células, cuyo objetivo es eliminar
sodio de la célula e introducir potasio en el citoplasma. Ese intercambio
permite mantener, a través de la membrana, las diferentes concentraciones entre
ambos cationes. La proteína transmembrana “bombea” tres cationes de sodio
expulsándolos fuera de la célula y lo propio hace con dos cationes de potasio
al interior de ella. De esa forma se genera un potencial eléctrico negativo
intracelular.
La bomba de sodio y potasio cumple un rol muy
importante en la producción y transmisión de los impulsos nerviosos y en la
contracción de las fibras musculares. En base no es más que la transmisión del
mensaje (que es un impulso nervioso de carácter eléctrico) que es conducido a
través del cuerpo celular a lo largo del axón hasta el botón sináptico para
liberar alguna sustancia transmisora. La neurona tiene un medio interno
y un medio externo, tanto fuera como dentro tiene iones positivos y negativos,
aunque cada medio suele tener una mayor concentración de iones, así el medio
interno tiende a ser negativo y el medio externo a positivo. De tal forma que
el medio externo de la neurona lo constituyen fundamentalmente Sodio (Na+) y
Cloro (cl-) y en el medio interno potasio (K+) y Aniones (A-).
Permite transmitir señales nerviosas en las células
nerviosas que Son cambios rápidos del potencial de membrana = y que se desplaza
a lo largo de la fibra nerviosa.
ETAPAS:
· REPOSO: la
membrana está POLARIZADA con – 90 MV
· DESPOLARIZACIÓN: >
permeab Na - entra Na a la cel - se positivista el interior de la célula
(porque el potencial de membrana disminuye a -50-70 Mv y se abren canales de Na
por VOLTAJE)
·
REPOLARIZACION: < permeab K = sale K al ext. = se negativita el interior
celular nuevamente.
FISIOLOGÍA DE LA MEMBRANA. ELECTRODIAGNÓSTICO
Es la interfase entre la medicina clínica y el
propósito activo de la recuperación funcional, que puede obtenerse con una
observación dinámica de la enfermedad y una potencial
intervención. Una combinación de los medios farmacológicos y neurofisiológicos,
unida a una gran variedad de otras técnicas rehabilitadoras, permite un
mejor diagnóstico y tratamiento de los trastornos motores, productivos por los
procesos neurológicos, conduce a las bases científicas de la medicina
rehabilitadora. Dentro de las técnicas que pueden utilizarse para
evaluar la función del sistema neuromuscular, hay que destacar los estudios
electromiográficos y el biofeedback. (Ruales, 2016)
METODOS TRADICIONALES DE ELECTRODIAGNÓSTICO
Las curvas de intensidad-tiempo son un sistema de
exploración que utiliza corrientes de baja frecuencia para producir la
contracción muscular. Para ello se necesita una intensidad mínima de corriente,
a la que Palique denominó "reobase". La determinación del tiempo
mínimo del flujo de una corriente de intensidad doble de la resobase se
denominó "cronaxia". De lo anterior de deduce que, cuanto menor es la
duración del impulso, mayor debe ser la intensidad de la corriente. De la
relación de estos dos factores surge el método de exploración neuromuscular
denominado curvas de intensidad-tiempo.
ELECTROTERAPIA
Es la aplicación de energía procedente del espectro
electromagnético al organismo humano, para generar sobre los tejidos,
respuestas biológicas deseadas y terapéuticas.
• La aplicación por defecto no consigue la respuesta
terapéutica.
• La aplicación en exceso satura al sistema y daña
los tejidos tratados.
• La aplicación correcta produce respuestas
biológicas buscadas a modo de tratamientos terapéuticos.
El sonido humanamente audible consiste en ondas
sonoras que se producen cuando las oscilaciones de la presión
del aire son convertidas en ondas mecánicas en el oído humano y percibidas por
el cerebro. La propagación del sonido involucra transporte de
energía sin transporte de materia, en forma de ondas mecánicas que se
propagan a través de un medio
elástico sólido, líquido o gaseoso. Entre los más comunes
se encuentran el aire y el agua. Si las vibraciones se producen en
la misma dirección en la que se propaga el sonido, se trata de una onda
longitudinal y si las vibraciones son perpendiculares a la dirección de
propagación es una onda transversal.
Las ondas sonoras se producen cuando un
cuerpo vibra rápidamente. La frecuencia es el número de vibraciones u
oscilaciones completas que efectúan por segundo. Los sonidos producidos son
audibles por un ser humano promedio si la frecuencia de oscilación está
comprendida entre 20 Hz y 20000 Hz. Por encima de esta última
frecuencia se tiene un ultrasonido no audible por los seres humanos,
aunque algunos animales pueden oír ultrasonidos inaudibles por los seres
humanos.
Las ondas mecánicas no pueden desplazarse en el
vacío, necesitan hacerlo a través de un medio material (aire, agua, cuerpo
sólido). Además, dicho medio debe ser elástico y no rígido para permitir la
transmisión del sonido.
En las ondas longitudinales los movimientos de las
partículas se desplazan en la misma dirección que la onda.
En las ondas transversales el movimiento de las
partículas es perpendicular a la dirección de la onda.
Son ondas que se propagan en tres direcciones. Las
ondas tridimensionales se conocen también como ondas esféricas, porque sus
frentes de ondas son esferas concéntricas que salen de la fuente de
perturbación expandiéndose en todas direcciones.
Un sonido grave corresponde a onda sonora con
frecuencia baja mientras que los sonidos agudos se
Ilustración 87; Electroterapias
Las partículas del medio se comprimen en las zonas
de máxima amplitud de la ondulación y se separan en las de mínima amplitud.
Estas zonas se denominan compresión y rarefacción. La
rapidez de propagación del sonido está relacionada con variables físicas
propias del material como la densidad, la temperatura, la elasticidad, presión,
salinidad, etc. En el caso de medios gaseosos, como el aire, las vibraciones
son trasmitidas de un punto a otro mediante choques entre las partículas que
constituyen el gas. De este modo cuando mayor sea la densidad del gas, mayor
será la rapidez de la onda.
En los medios sólidos, son las fuerzas que unen
entres sí las partículas constitutivas del cuerpo las que se encargan de
propagar la perturbación de un punto a otro. Este procedimiento más directo
explica por qué la rapidez del sonido es mayor en los sólidos que en los gases.
La rapidez del sonido varía muy poco con la temperatura en los sólidos y
líquidos, sin embargo en los gases, aumenta con la temperatura porque se
incrementa la probabilidad de los choques entre las moléculas. El alcance de
una onda de sonido en un medio, está directamente con la energía que absorbe y
la rapidez específicamente en un sólido, se ve afectada por la densidad y por
la elasticidad.
A nivel molecular un material con alta elasticidad
(rígido) se caracteriza por grandes fuerzas entre sus moléculas. Esto hace que
las partículas vuelvan rápidamente a sus posiciones de equilibrio y estén
dispuestas a iniciar de nuevo un movimiento, lo que les permite vibrar a altas
velocidades. Por lo tanto, el sonido viaja más rápido a través de medios
con mayor elasticidad. La densidad de un medio representa la masa por
unidad de volumen. Así mientras más denso es un material, mayor será la masa de
las moléculas, si se considera un mismo volumen, lo que implica que el sonido
se trasmite más lentamente. Esto se debe a que las ondas de sonido
trasportan energía, que es la responsable de la vibración de un medio, y se
necesita más energía para hacer vibrar las moléculas grandes que la requerida
para hacer vibrar moléculas más pequeñas. Por esto, el sonido viaja más lento
en un objeto más denso, si ambos tienen la misma propiedad
elasticidad. (León, 2013)
La energía sonora (o energía
acústica) es la energía que transmiten o transportan las ondas sonoras.
Procede de la energía vibracional del foco sonoro y se propaga a
las partículas del medio que atraviesan en forma de energía
cinética (movimiento de las partículas), y de energía
potencial (cambios depresión producidos en dicho medio, o presión
sonora). Al irse propagando el sonido a través del medio, la energía se
transmite a la velocidad de la onda, pero una parte de la energía sonora se
disipa en forma de energía térmica. La energía acústica suele tener
valores absolutos bajos, y su unidad de medida es el julio (J).
Aunque puede calcularse a partir de otras magnitudes como la intensidad sonora,
también se pueden calcular otras magnitudes relacionadas, como la densidad o el
flujo de energía acústica.
- CRESTA: Es
la parte más elevado de una onda.
- VALLE:
Es la parte más baja de una onda.
- ELONGACIÓN: Es
el desplazamiento entre la posición de equilibrio y la posición en un instante
determinado.
- AMPLITUD: ES
la máxima elongación, es decir, el desplazamiento desde el punto de equilibrio
hasta la cresta o el valle.
- LONGITUD
DE ONDA (L): Es la distancia comprendida entre dos crestas o dos valles.
- ONDA
COMPLETA: Cuando ha pasado por todas las elongaciones positivas y
negativas.
- PERÍODO
(T): El tiempo transcurrido para que se realice una onda completa.
- FRECUENCIA
(F): Es el número de ondas que se suceden en la unidad de tiempo.
- RESONANCIA: Es
el fenómeno que se produce cuando dos cuerpos tienen la misma frecuencia de
vibración, uno de los cuales empieza a vibrar al recibir las ondas sonoras
emitidas por el otro. Para entender el fenómeno de la resonancia existe un
ejemplo muy sencillo. Es el efecto de afinar las cuerdas de la guitarra, puesto
que al afinar, lo que se hace es igualar las frecuencias, es decir poner en
resonancia el sonido de las cuerdas.
- CUALIDADES
DEL SONIDO. LA VOZ HUMANA.
LA ALTURA O TONO. Está determinado por la
frecuencia de la onda. Medimos esta característica en ciclos por segundos o
Hercios (Hz). Para que podamos percibir los humanos un sonido, éste debe
estar comprendido en la franja de 20 y 20.000 Hz. Por debajo tenemos los
infrasonidos y por encima los ultrasonidos
.
LA INTENSIDAD. Nos permite distinguir si el sonido es fuerte o débil. Está
determinado por la cantidad de energía de la onda. Los sonidos que percibimos
deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (140
dB). Esta cualidad la medimos con el sonómetro y los resultados se
expresan en decibeles (dB)
.
LA DURACIÓN. Esta cualidad está relacionada con el tiempo de vibración del
objeto. Por ejemplo, podemos escuchar sonidos largos, cortos, muy cortos,
etc..
|
|
EL TIMBRE: El timbre nos permitirá distinguir
si la voz es áspera, dulce, ronca o aterciopelada. También influye en la
variación del timbre la calidad del material que se utilice. Así pues, el
sonido será claro, sordo, agradable o molesto.
La voz humana se produce por la vibración
de las cuerdas vocales, lo cual genera una onda sonora que es combinación
de varias frecuencias y sus correspondientes armónicos. La cavidad
buco-nasal sirve para crear ondas cuasiestacionarias por lo que
ciertas frecuencias denominadas formantes. Cada segmento de sonido del
habla viene caracterizado por un cierto espectro o distribución de la
energía sonora en las diferentes frecuencias. El oído humano es capaz de
identificar diferentes formantes de dicho sonido y percibir cada sonido con formantes
diferentes como cualitativamente diferentes, eso es lo que permite por ejemplo
distinguir dos vocales. La voz masculina tiene un tono fundamental de
entre 100 y 200 Hz, mientras que la voz femenina es más aguda, típicamente
está entre 150 y 300 Hz. Las voces infantiles son aún más
agudas. (Sanz, 2016)
BIOFÍSICA DE LA PERCEPCIÓN AUDITIVA
Comencemos por algunas consideraciones anatómicas básicas: El sistema auditivo periférico
está compuesto por el oído externo, el oído medio y el oído interno.
El oído externo está compuesto por el pabellón, que
concentra las ondas sonoras en el conducto, y el conducto auditivo externo que
desemboca en el tímpano. El canal auditivo externo tiene unos 2,7 cm de
longitud y un diámetro promedio de 0,7 cm. Por sus características anatómicas
éste tiene una frecuencia de resonancia natural entre los 4.500 Hz y los 5.000
Hz.
El oído medio está lleno de aire y está compuesto
por el tímpano (que separa el oído medio), los osículos (martillo, yunque y
estribo) y la trompa de Eustaquio El tímpano es una membrana que es
expuesta en movimiento por la onda que la alcanza. Sólo una parte de la onda
que llega al tímpano es absorbida, la otra es reflejada. Se llama impedancia
acústica a esa tendencia del sistema auditivo a oponerse al pasaje del sonido.
Su magnitud depende de la masa y elasticidad del tímpano y de los osículos y la
resistencia friccional que ofrecen. Los osículos (martillo, yunque y
estribo) tienen como función transmitir el movimiento del tímpano al oído
interno a través de la membrana conocida como ventana oval. Dado que el oído
interno está lleno de material líquido, mientras que el oído medio está lleno
de aire, debe resolverse un desajuste de impedancias que se produce siempre que
una onda pasa de un medio gaseoso a uno líquido. En el pasaje del aire al agua
en general sólo el 0,1% de la energía de la onda penetra el agua, mientras que
el 99,9% de la misma es reflejada. En el caso del oído ello significaría una
pérdida de transmisión de unos 30 dB. El oído interno resuelve este desajuste
de la impedancias de dos vías complementarias En primer lugar la
disminución de la superficie en la que se concentra el movimiento. EL tímpano
tiene un área `promedio de 69 mm2, pero el área vibrante afectiva es de unos 43
mm2. El pie del estribo, que empuja la ventana oval poniendo en movimiento el
material líquido contenido en el oído interno, tiene un área de 3,2 mm2. La
presión se incrementa en consecuencia en unas 13,5 veces.
Por otra parte el martillo y el yunque funcionan
como un mecanismo de palanca y la relación entre ambos brazos de la palanca es
de 1,31: 1. la ganancia mecánica de este mecanismo de palanca es entonces de
1,3 de lo que hace que el incremento total de presión sea de unas 17,4
veces El valor definitivo va a depender del área real de vibración
de tímpano. Además, los valores pueden ser superiores para frecuencias entre
los 2.000 Hz y los 5.000 Hz, debido a las resonancia del canal auditivo
externo. En general el oído externo y el tímpano se produce una amplificación de
entre 5 dB y 10 dB en las frecuencias comprendidas entre los 2.000 Hz y los
5.000 Hz, lo que contribuye de manera fundamental para la zona de frecuencias a
la que nuestro sistema auditivo es más sensible. Los músculos del oído
interno (tensor de tímpano y stapedius) pueden influir sobre la transmisión el
sonido entre el oído medio y el interno.
Como su nombre lo indica, el tensor del tímpano
tensa la membrana timpánica aumentando su rigidez, produciendo en consecuencia
una mayor resistencia a la oscilación al ser alcanzada por las variaciones de
presión del aire. El stapedius separa el estribo de la ventana oval,
reduciendo la eficacia en la transmisión del movimiento. En general responde
como reflejo, en lo que se conoce como reflejo acústico o reflejo timpánico.
Ambos músculos cumplen una función primordial de protección, especialmente
frente a sonidos de gran intensidad. Lamentablemente esta acción no es
instantánea de manera que no protegen a nuestro sistema auditivo ante sonidos
repentinos de muy alta intensidad, como pueden ser los estallidos o impulsos.
Además se fatigan muy rápidamente y pierden eficiencia cuando nos encontramos
expuestos por largo rato a sonidos de alta intensidad. (Ramirez H. ,
2013)
Equipo eléctrico que sirve para medir y evaluar la
audición tanto a nivel umbral como supra umbral, permite explorar las
posibilidades audiométricas a través del área auditiva. Pueden producir
intensidades desde 10 hasta 110 o 120 dBs y cubren desde el tono 128 hasta el
16 000 Hz, mediante un potenciómetro graduado de 5 en 5 dBs. Se utiliza para
realizar pruebas audiométricas. Permite determinar el nivel auditivo de un
paciente en cada uno de sus oídos. Pruebas que se realizan con este
equipo
El funcionamiento de este aparato consiste
básicamente en:
1. Un generador de frecuencias de sonido; este
instrumento emite tonos puros, sonidos que el ser humano no está acostumbrado a
escuchar, ya que no existen como tal en la vida diaria. El sonido es emitido en
las frecuencias 125 - 250 - 500 - 1000 - 2000 - 3000 - 4000 - 6000 y 8000 Hz
para la vía aérea y 250 - 500 - 1000 - 2000 y 4000 para la vía ósea.
3. Un potenciométro que genera intensidades que van
de 0 a 110 dB, en una escala progresiva descendente o ascendente, de 5 en 5 dB.
4. Un generador de ruidos enmascarantes, ruido
blanco o ruido Gaussiano, con la finalidad de evitar la transmisión
transcraneal del sonido de un oído a otro.
5. Un vibrador óseo para el estudio de la audición
ósea.
6. Un micrófono para comunicarse con el paciente y
realizar la discriminación de la palabra. (Baquerizo, 2016)
LA REFRACCIÓN: es
el cambio brusco de dirección que sufre la luz al cambiar de medio. Este
fenómeno se debe al hecho de que la luz se propaga a diferentes rapideces según
el medio por el que viaja. El cambio de dirección es mayor, cuanto mayor es el
cambio de rapidez, ya que la luz prefiere recorrer las mayores distancias en su
desplazamiento por el medio que vaya más rápido. La ley de Snell relaciona el
cambio de ángulo con el cambio de rapidez por medio de los índices de
refracción de los medios.
PROPAGACIÓN Y DIFRACCIÓN: Una de
las propiedades de la luz más evidentes a simple vista es que se propaga en
línea recta. Lo podemos ver, por ejemplo, en la propagación de un rayo de luz a
través de ambientes polvorientos o de atmósferas saturadas. La óptica
geométrica parte de esta premisa para predecir la posición de la luz, en un
determinado momento, a lo largo de su transmisión. De la propagación
de la luz y su encuentro con objetos surgen las sombras. Si interponemos un
cuerpo opaco en el camino de la luz y a continuación una pantalla, obtendremos
sobre ella la sombra del cuerpo. Si el origen de la luz o foco se encuentra
lejos del cuerpo, de tal forma que, relativamente, sea más pequeño que el
cuerpo, se producirá una sombra definida. Si se acerca el foco al cuerpo
surgirá una sombra en la que se distinguen una región más clara denominada
penumbra y otra más oscura denominada umbr Sin embargo, la luz no siempre se
propaga en línea recta. Cuando la luz atraviesa un obstáculo puntiagudo o una
abertura estrecha, el rayo se curva ligeramente. Este fenómeno, denominado
difracción, es el responsable de que al mirar a través de un agujero muy
pequeño todo se vea distorsionado o de que los telescopios y microscopios
tengan un número de aumentos máximo. INTERFERENCIA: La forma
más sencilla de estudiar el fenómeno de la interferencia es con el denominado
experimento de Young que consiste en hacer incidir luz monocromática (de un
solo color) en una pantalla que tiene rendija muy estrecha. La luz difractada
que sale de dicha rendija se vuelve a hacer incidir en otra pantalla con una
doble rendija. La luz procedente de las dos rendijas se combina en una tercera
pantalla produciendo bandas alternativas claras y oscuras. El
fenómeno de las interferencias se puede ver también de forma natural en las
manchas de aceite sobre los charcos de agua o en la cara con información de los
discos compactos; ambos tienen una superficie que, cuando se ilumina con luz
blanca, la difracta, produciéndose una cancelación por interferencias, en
función del ángulo de incidencia de la luz, de cada uno de los colores que
contiene, permitiendo verlos separados, REFLEXIÓN Y DISPERSIÓN: Al
incidir la luz en un cuerpo, la materia de la que está constituido retiene unos
instantes su energía y a continuación la remite en todas las direcciones. Este
fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente
lisas, debido a interferencias destructivas, la mayor parte de la radiación se
pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos
simples de este efecto son los espejos, los metales pulidos o el agua de un río
(que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno
denominado reflexión interna total, que se produce cuando un rayo de luz,
intenta salir de un medio en que su rapidez es más lenta a otro más rápido, con
un determinado ángulo. Se produce una refracción de tal modo que no es capaz de
atravesar la superficie entre ambos medios reflejándose completamente. Esta
reflexión es la responsable de los destellos en un diamante tallado. Cuando la
luz es reflejada difusa e irregularmente, el proceso se denomina dispersión.
Gracias a este fenómeno podemos seguir la trayectoria de la luz en ambientes
polvorientos o en atmósferas saturadas. El color azul del cielo se debe a la
luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de
la leche también se debe a la dispersión de la luz por el agua o por el calcio
que contienen respectivamente.
POLARIZACIÓN: El
fenómeno de la polarización se observa en unos cristales determinados que
individualmente son transparentes. Sin embargo, si se colocan dos en serie,
paralelos entre sí y con uno girado un determinado ángulo con respecto al otro,
la luz no puede atravesarlos. Si se va rotando uno de los cristales, la luz
empieza a atravesarlos alcanzándose la máxima intensidad cuando se ha rotado el
cristal 90° sexagesimal respecto al ángulo de total
oscuridad. También se puede obtener luz polarizada a través de la
reflexión de la luz. La luz reflejada está parcial o totalmente polarizada
dependiendo del ángulo de incidencia. El ángulo que provoca una polarización
total se llama ángulo de Brewster. Muchas gafas de sol y filtros para cámaras
incluyen cristales polarizadores para eliminar reflejos molestos
La dualidad onda partícula de la
luz es una de las características de la luz menos comprendidas. De una parte su
naturaleza ondulatoria no ofrece ninguna duda por los fenómenos de
interferencia y, por otra parte, el comportamiento de la luz como partícula
deducido del efecto fotoeléctrico es curioso, porque yo no veo nada raro ni
ninguna partícula en una vibración que haga una bola saltar una pequeña barrera
en una superficie a partir de cierta energía. . La incógnita sigue siendo la
eterna pregunta de qué es la luz o si la luz tiene masa o no. Según la física
relativista y la Mecánica Cuántica un fotón de la luz es una
partícula sin masa. Claro que otro problema de laFísica Moderna es
que tampoco se sabe muy bien qué es la masa, y así sucesivamente. El concepto
de luz como una partícula abstracta parece más del ámbito de la filosofía que
de la ciencia. La definición de luz más adecuada de la Física Moderna sería
un campo de fuerzas matemático o abstracto que se reproduce a sí mismo en un
espacio vacío. Después hay todo tipo de singularidades, de incertidumbres y de
versiones. Desde viajes en el tiempo hasta efectos de otras dimensiones. La
falta de un concepto claro de la luz y la masa se agrava con la famosa ecuación
de Einstein de transformación de masa en energía y viceversa E = m c². El
cerebro acaba por creérselo literalmente y parece que son DOS COSAS TOTALMENTE
INTERCAMBIABLES Y QUE LA NATURALEZA DE LA LUZ Y DE LA MASA DEBE SER LA MISMA.
LA LUZ EN LOS FENÓMENOS DE CREACIÓN DE MASA Y
ONDINA.
La masa para el Modelo Estándar de
la Mecánica Cuántica es un misterio y, ahora que se ha
encontrado la partícula de Higgs, que se supone es la que aporta la masa a
las partículas con masa, el misterio continúa.
En la Mecánica Global, la masa será
la materia reticular comprimida debido a la energía electromagnética o energía de
torsión transversal sobre la globina. Así, la energía de torsión se transforma
en energía reversible de compresión y energía de tensión de la curvatura
longitudinal o energía potencial gravitatoria. La transformación de globina en
masa es simultánea con la transformación de un tipo de energía elástica en
otro. La ondina es un tipo de masa, por ser materia comprimida, muy
inestable que se corresponde con los electrones. Para desplazarse de una órbita
a otra los electrones se convierten en energía electromagnética hasta que se
vuelve a comprimir la materia reticular, relajando las diferencias de la
tensión transversal y consiguiendo un nuevo punto de equilibrio
gravito-magnético. La teoría del todo incorpora una nueva teoría del átomo con
las características citadas de los electrones.
La luz visible, es decir las ondas electromagnéticas
para las cuales el ojo humano esta adaptado, se encuentran entre longitudes de
onda de 400 nm (violeta) y 700 nm (rojo). Como lo predijeron las ecuaciones de
Maxwell existen longitudes de onda por encima y por debajo de estos límites.
Estas formas de "luz invisible" se han encontrado y organizado de
acuerdo a sus longitudes de onda en el espectro electromagnético. Si las ondas
electromagnéticas se organizan en un continuo de acuerdo a sus longitudes
obtenemos el espectro electromagnético en donde las ondas más largas
(longitudes desde metros a kilómetros) se encuentran en un extremo (Radio) y
las más cortas en el otro (longitudes de onda de una billonésima de metros)
(Gamma).
Según su comportamiento ante la luz, los medios se
pueden clasificar en:
• Transparentes: Dejan
pasar una gran parte de la luz que les llega y permiten ver los objetos a
través de ellos. Ejemplos: Agua, aire y vidrio. • Opacos: No dejan pasar la
luz. Ejemplos: Madera y metal.
• TRANSLÚCIDOS:
Sólo dejan pasar una parte de la luz que reciben. Los objetos visibles se
muestran borrosos a través de ellos. Ejemplos: Vidrio esmerilado y algunos
plásticos
La luz es una onda que se propaga en las tres
direcciones del espacio. Para estudiar sus efectos se emplean líneas
perpendiculares a las ondas, que indican la dirección de propagación. Es lo que
denominamos rayos. En un medio que sea homogéneo, la luz se propaga en línea
recta, lo cual explica la formación de sombras y penumbras. Por ello, cuando
iluminamos un objeto con un foco grande y observamos la imagen en una pantalla
podemos distinguir:
- Zona de
sombra, que no recibe ningún rayo.
- Zona de
penumbra, que recibe sólo parte de los rayos.
- Zona
iluminada, que recibe todos los rayos que proceden del foco de luz.
De esta forma se pueden explicar el eclipse de Sol y
el eclipse de Luna.
EL OJO: El ojo humano puede considerarse
un sistema óptico (conjunto de superficies que separan medios con diferente
índice de refracción), que permite formar la imagen de objetos exteriores en el
plano de la retina. En cierto modo podemos asimilar el ojo humano a una cámara
fotográfica convencional, en la que el plano en el que se sitúa el sensor de
imagen (o la película fotográfica, en el caso de las cámaras más antiguas) se
corresponde con la retina. La córnea y el cristalino son los dos componentes
ópticos del ojo humano que modifican las trayectorias de la luz haciendo que la
imagen se forme en el plano retiniano, como hacen las lentes que constituyen el
objetivo de una cámara fotográfica. Entre la córnea y el cristalino hay una
sustancia líquida llamada humor acuoso. Antes del cristalino tenemos el iris,
cuya abertura central (pupila) puede variar de tamaño, lo que permite regular
la cantidad de luz que entra en el ojo. El humor vítreo es una sustancia
gelatinosa que ocupa el 80% del globo ocular: toda la zona comprendida entre el
cristalino y la retina. La zona de la retina que permite una visión con el
máximo detalle o resolución se conoce con el nombre de fóvea. Las señales
producidas cuando la luz actúa sobre los pigmentos existentes en los
fotorreceptores de la retina salen del ojo por medio del nervio óptico, que
agrupa alrededor de un millón de fibras para cada retina.
RADIACIONES NO IONIZANTES.-RADIACIONES IONIZANTES.
Las radiaciones, atendiendo a su energía, se clasifican
en radiaciones ionizantes y no
ionizantes.
RADIACIONES IONIZANTES. Corresponden a las
radiaciones de mayor energía (menor longitud de onda) dentro del espectro
electromagnético. Tienen energía suficiente como para arrancar electrones de
los átomos con los que interaccionan, es decir, para producir ionizaciones.
RADIACIONES NO IONIZANTES. Son aquellas que no
poseen suficiente energía para arrancar un electrón del átomo, es decir, no son
capaces de producir ionizaciones.
RADIACIONES NO IONIZANTES: Las radiaciones no
ionizantes son de baja energía, es decir, no son
capaces de ionizar la materia con la que interaccionan. Estas radiaciones se
pueden clasificar en dos grandes grupos:
RADIACIONES ELECTROMAGNÉTICAS. A este grupo
pertenecen las radiaciones generadas por las líneas de corriente eléctrica o
por campos eléctricos estáticos. Otros ejemplos son las ondas de
radiofrecuencia, utilizadas por las emisoras de radio y las microondas
utilizadas en electrodomésticos y en el área de las telecomunicaciones.
RADIACIONES ÓPTICAS. Pertenecen a este grupo los
rayos infrarrojos, la luz visible y la radiación ultravioleta.
LA RADIACIÓN SOLAR
El Sol proporciona la energía necesaria para que
exista vida en la Tierra. El Sol emite radiaciones a lo largo de todo el
espectro electromagnético, desde el infrarrojo hasta el ultravioleta. No toda
la radiación solar alcanza la superficie de la Tierra, porque las ondas
ultravioletas más cortas son absorbidas por los gases de la atmósfera,
fundamentalmente por el ozono.
INFRARROJA. Esta parte del espectro está
compuesta por rayos invisibles que proporcionan el calor que permite mantener
la Tierra caliente.
visible. Esta parte del espectro, que puede
detectarse con nuestros ojos, nos permite ver y proporciona la energía a las
plantas para producir alimentos mediante la fotosíntesis.
ULTRAVIOLETA. No podemos ver esta parte del
espectro, pero puede dañar nuestra piel si no está bien protegida, pudiendo
producir desde quemaduras graves hasta cáncer de piel.
MODELOS ATÓMICOS
Las hipótesis en las que Dalton basaba su modelo
eran las siguientes:
· Los
elementos están formados por partículas diminutas, e indivisibles llamadas
átomos. Los átomos de un mismo elemento son todos iguales entre sí en masa,
tamaño y en cualquier otra propiedad.
· Los
compuestos químicos están formados por unas partículas, llamadas moléculas,
todas iguales entre sí. Es decir, las moléculas se forman por la unión de
varios átomos. En las reacciones químicas, los átomos ni se crean ni se
destruyen, sólo cambia la manera en que están unidos. Las reacciones químicas
son pues una redistribución de los átomos.
Descubrió el electrón. El electrón es una partícula
constituyente del átomo, caracterizada por:
· Carga eléctrica negativa.
· Masa extremadamente pequeña.
El electrón era una partícula con una masa
extremadamente pequeña, exactamente 9,1 10-31 kg. También se encontró que el
electrón tenía una carga eléctrica negativa, con un valor de 1,6 10-19 C. El
culombio (C) es la unidad de carga eléctrica en el Sistema Internacional de
Unidades. Se define como la cantidad de carga que pasa por la sección de un
conductor eléctrico en un segundo, cuando la corriente eléctrica es de un
amperio, y se corresponde con la carga de 6,24 × 1018 electrones.
Descubrió el protón.
El protón es una partícula constituyente del átomo,
que tiene:
· Carga positiva y de igual valor a la del
electrón.
· Una masa mucho mayor a la del electrón, unas
dos mil veces.
Se atribuye a Rutherford el descubrimiento del
protón, una partícula con una masa muy grande, comparada con la del electrón
(mp = 1,7 10-27 kg) y una carga exactamente igual a la del electrón, pero de
signo positivo (qp = 1,6 10-19 C). Según el modelo atómico de Rutherford los
electrones orbitan en el espacio vacío alrededor de un minúsculo núcleo
atómico, situado en el centro del átomo donde se encuentran los protones.
La tercera partícula constituyente del átomo,
que ya predijo Rutherford, tardó mucho en encontrarse, más de 30 años. Se
descubrió por casualidad al estudiar las reacciones nucleares. La explicación
de esta tardanza está en que dado que no tiene carga eléctrica, no es fácil
detectarla.
Esta nueva partícula, el neutrón, tiene una masa
similar a la del protón (mn = 1,7 10-27 kg) y no tiene carga eléctrica, es
neutra. El neutrón es una partícula constituyente del átomo que tiene:
- Una masa similar a la del protón.
- No tiene carga eléctrica. es una partícula
neutra.
La radiobiología es la ciencia que estudia los
efectos de la radiación ionizante sobre el tejido biológico, su objetivo es la
descripción exacta de los efectos de la radiación en los seres humanos, para
que así pueda utilizarse con más seguridad en el diagnostico y más efectiva en
el tratamiento.
Los fenómenos que se producen en el organismo tras
la absorción de la energía de las radiaciones ionizantes son tanto las lesiones
producidas como los mecanismos de reparación de las lesiones de las
lesiones. La acción de las radiaciones ionizantes sobre el organismo está
marcada por una serie de principios generales:
La acción es al azar (probabilística)
La acción no es selectiva
La lesión es inespecífica
La lesión aparece tras un periodo de latencia que es
muy variable.
Los fenómenos radiobiológicos parten de una ley
fundamental —–> Solo la energía absorbida actúa biológicamente.
Interacción Fotoeléctrica ——>
absorción total ——> daño biológico.
La cesión inicial de energía ocurre en un tiempo
intensamente corto, aunque sea contacto mínimo los Rx interaccionan. Los
fenómenos radiobiológicos transcurren en etapas concatenadas y sucesivas, a
partir de la absorción de la energía.
Etapa física: ionización.
Etapa físico-química: afectación de moléculas
simples (H20)
Etapa bioquímica: afectación de moléculas complejas
(ADN)
Etapa biológica: lesiones de células, tejidos y
órganos.
80% agua
El agua es la molécula más abundante en el cuerpo y
también la más simple, sin embargo, desempeña un papel particularmente
importante en el suministro de energía a la molécula blanco, contribuyendo así
los efectos de la radiación.
15% proteínas
En la producción de proteínas o síntesis proteicas
se usan 22 aminoácidos
Las proteínas están constituidas por CHON
2% lípidos
Se componen, por lo general, de dos clases de
moléculas menores, glicerol y acido graso.
Los lípidos son macromoléculas orgánicas compuestas
por CHO
1% carbohidratos
Se componen únicamente por CHO
1% ácidos nucleicos
Son macromoléculas muy grandes y extremadamente
complejas
Existen dos ácidos nucleicos importantes: ADN y el
ARN
El ADN contiene toda la información hereditaria
presente en la célula y, como es natural, si se trata de una célula germinal,
toda la información hereditaria de un individuo. Se encuentra en el interior
del núcleo. El ARN está localizado principalmente en el citoplasma,
encontrándose también en el núcleo. 1% otras Elementos vestigiales y sales
inorgánicas son especiales para un metabolismo adecuado.
ORÍGENES DE LAS RADIACIONES IONIZANTES.
Las personas están expuestas continuamente a
radiaciones ionizantes. De estas radiaciones, unas proceden de la propia
naturaleza, sin que el hombre haya intervenido en su producción y otras están
originadas por acciones OCASIONADAS POR EL HOMBRE.
CAUSAS NATURALES
Constituyen el fondo radiactivo natural que puede
provenir de tres causas:
ESPACIO EXTERIOR (RADIACIÓN CÓSMICA): Llegan
a la Tierra cada segundo (protones (86%) y partículas alfa (12%)). Puesto que
la atmósfera absorbe parcialmente las radiaciones, el fondo natural debido a
esta causa varía con la altitud, de tal modo que es menor a nivel del mar que
en lo alto de una montaña. Para el promedio mundial, la radiación cósmica
supone un 10% de la dosis.
CORTEZA TERRESTRE: Supone
un 14% de la dosis promedio mundial.
ORGANISMO HUMANO: Principalmente
isótopos de carbono y potasio, contribuyen aproximadamente el 52% de la dosis
promedio mundial.
Como promedio, la dosis procedente del fondo natural
que recibe una persona en España es del orden de 2,4 mSv/año.
Causas artificiales
Se deben a la exposición a diversas fuentes de
origen no natural, como son: exploraciones radiológicas con fines médicos
(fuente mayoritaria, dan lugar a unas dosis sobre la población semejantes a la
radiación cósmica), viajes en avión (en este caso, la mayor dosis de radiación
cósmica que se recibe son el vuelos a gran altura), etc. La
radiactividad es un fenómeno físico por el cual algunos cuerpos o elementos
químicos, llamados radiactivos, emiten radiaciones que tienen la propiedad de
impresionar placas fotográficas, ionizar gases, producir fluorescencia,
etc. uno de los grandes descubrimientos del hombre contemporáneo y,
a la par que se fueron conociendo sus efectos, también se descubrieron
aplicaciones de gran utilidad, ya que las sustancias radiactivas o los
instrumentos emisores de radiaciones ionizantes resultan insustituibles en
medicina, agricultura, industria, ciencias de la tierra, biología y otras
muchas ramas. La emisión de radiaciones ionizantes es una característica común
a muchos átomos en cuyo núcleo el número de neutrones resulta escaso o
excesivo, lo que les hace inestables (radiactivos), por lo que sus ligaduras
nucleares se transforman buscando configuraciones más estables, a la vez que se
libera energía, asociada a la radiación emitida.
SEGÚN SU INTERACCIÓN CON LA MATERIA:
ALFA: Con capacidad limitada de
penetración en la materia pero mucha intensidad energética.
BETA: Algo más penetrante pero
menos intenso que las radiaciones alfa.
GAMMA: Es la radiación más
penetrante de todas.
Las radiaciones electromagnéticas se caracterizan
por la existencia en cada punto del espacio en que se transmiten de un campo
eléctrico y un campo magnético relacionados entre sí. Las ondas
electromagnéticas presentan una variación periódica que se propaga en el vacío
a una velocidad de 300.000 km/seg. La radiación electromagnética es
portadora de una cantidad de energía y presenta características específicas
según la banda de frecuencias (o longitud de onda) en que se halle inscrita. La
radiación electromagnética puede propagarse sin un soporte material, es
decir,viajar por el vacío.
En 1913, William Coolidge realizó varias mejoras
al tubo de Crookes. El tubo de Coolidge, también
conocido como «tubo de cátodo caliente», ha estado en uso desde entonces con
algunas modificaciones sobre el diseño básico. Funciona en un alto vacío, de
unos 10−4 Pa,
o 10−6 Torr y
los electrones son generados por emisión termoiónica en un filamento de
wolframio —el cátodo— calentado por una corriente eléctrica. El haz de
electrones emitido por el cátodo es acelerado aplicando una diferencia de
potencial entre el cátodo y el ánodo; al colisionar con el ánodo, los electrones
producen rayos X por los mismos procesos que en el tubo de Crookes.
Esquema de un tubo de ánodo rotatorio. A: ánodo; R:
rotor; T: área donde incide el haz de electrones; C: cátodo; E: superficie del
tubo en vacío; S: estator; O: volumen ocupado por el aceite refrigerador; B:
fuelle que permite la expansión termal del aceite; W: ventana de salida de los
rayos X
El tubo de ánodo rotatorio es un tubo de Coolidge en
el que se hace girar el ánodo mediante electromagnética generada por estatores situados
alrededor del tubo. Al girar, el calor generado por el impacto del haz de
electrones se distribuye sobre una mayor superficie, lo que permite aumentar la
intensidad del haz de electrones en aplicaciones que requieran una alta dosis
de rayos X.
Ciertas técnicas, como la microtomografía, precisan de
imágenes de muy alta resolución que pueden conseguirse usando un haz de rayos X
de sección reducida. Los tubos de microfoco producen haces con un diámetro
típico menor de 50 µm in diámetro. Los tubos de microfoco de ánodo sólido
son similares a un tubo de Coolidge convencional, pero con el haz de electrones
incide sobre una área muy pequeña del ánodo, normalmente entre 5 y 20 µm;
la densidad de potencia del haz de electrones está limitada a un valor máximo
de 0.4-0.8 W/µm
para no derretir el ánodo, por lo que estas fuentes son poco potentes, por
ejemplo, 4-8 W para un haz de electrones de 10 µm de diámetro. Los
tubos de ánodo de metal líquido, en cambio, pueden funcionar con una potencia
de 3-6 W/µm. En estos instrumentos, el ánodo sólido es reemplazado por un
chorro de metal líquido, generalmente galio en
circulación continua. La potencia total es un orden de magnitud mayor que
en las fuentes de ánodo fijo, lo que permite disminuir el foco hasta los
5 µm de diámetro, acompañado de una mejora de la resolución de las
imágenes y un menor tiempo de exposición.
El cátodo empleado en los tubos convencionales se
puede reemplazar por una serie de nanotubos de
carbono que emiten electrones al aplicárseles un voltaje, en vez de por
calentamiento, como el filamento de wolframio, por lo que pueden funcionar a
temperatura ambiente. Este diseño fue concebido por un grupo de científicos de
la Universidad de Carolina del Norte y
patentado en el año 2000. Además de mejorar el consumo de energía, este diseño
presenta ventajas en aplicaciones que requieran imágenes de objetos en
movimiento: los haces de electrones provenientes de distintos nanotubos emiten
rayos X en direcciones distintas, por lo que no es necesario mover el aparato,
como ocurre con los tubos con un único filamento, lo que resultaría en imágenes
más nítidas.
MEDICINA
Los primeros usos de los tubos de rayos X en
medicina y en odontología datan de finales del siglo XIX. Ya los
primeros tubos de gas eran empleados para realizar fluoroscopias y radiografías,
explotando el contraste en absorción de los rayos X por diferentes tejidos, y
se ha documentado su uso en el campo de batalla para localizar balas en
soldados heridos. En la actualidad, también se usan para obtener imágenes
médicas tridimensionales mediante la tomografía axial computarizada.
Además de su papel como instrumentos de diagnóstico para lesiones óseas,
dentales, aflicciones del sistema
digestivo y en angiografías,
forman parte del equipo usado en algunos procedimientos
quirúrgicos, sobre todo para visualizar la correcta implantación de
dispositivos. Otra aplicación importante, sobre todo en el pasado, fue en el
campo de la radioterapia, especialmente en el tratamiento del cáncer y tumores, posible
gracias a la capacidad de los rayos X de provocar la muerte
celular. Mientras que los tubos de Crookes podían emplearse para tratar
tumores superficiales, no fue hasta el desarrollo de los tubos en vacío que se
pudo obtener radiación de la suficiente energía para poder alcanzar los tumores
internos. Los tubos de rayos X para esta aplicación requieren un voltaje muy
alto y gradualmente han sido reemplazados por otras fuentes de rayos X, como
los aceleradores lineales.
INSPECCIONES COMERCIALES Y DE SEGURIDAD
Los tubos de rayos X forman parte de los
dispositivos de seguridad en aeropuertos y
edificios públicos y de inspección de mercancías. En los controles de equipajes
el generador de rayos X emite radiación de espectro ancho y dos placas
detectoras separadas por una lámina de metal, que solo pueden atravesar los
rayos X de mayor energía lo que resulta un mejor contraste entre objetos de
diferente composición. Para la inspección se personas, se pueden utilizar
generadores de rayos X de alta energía, que atraviesan el cuerpo; en el siglo
XXI empezaron a aparecer escáneres de rayos X de menor energía, que pueden
atravesar la ropa pero son reflejados por objetos densos. El haz de rayos X se
traslada horizontal y verticalmente y los rayos reflejados en cada posición
componen una imagen bidimensional del exterior del cuerpo. Los tubos
de rayos X forman parte del equipo de inspección de productos y control de
calidad en numerosas industrias meadiante diversas técnicas, como la
fluoroscopio o la tomografía computarizada. Los tubos de microfoco son
particularmente útiles para visualizar componentes electrónicos en circuitos
integrados.
ANÁLISIS DE MATERIALES
Los rayos X son muy usados para examinar la
estructura, propiedades y composición de todo tipo de materiales orgánicos e
inorgánicos. Los tubos de rayos X se emplean en los difractó
metros, instrumentos empleados para estudiar material cristalino mediante difracción de rayos X, con el objetivo de
identificar minerales y compuestos inorgánicos y determinar la estructura de la
materia a resolución atómica. Estos experimentos son cruciales para la investigación
y desarrollo en disciplinas tan diversas como la geología, biología, física de
la materia y ciencia del medio ambiente. También se utilizan como fuente
de rayos X para el análisis de la composición de materiales por fluorescencia, técnica ideal para la
determinación de la concentración de diversas sustancias en sólidos y en
líquidos e importante tanto en la investigación básica como en diversas
industrias de los sectores de telecomunicaciones, alimentación, farmacéutico,
agricultura, textil, petrolero, etc. En los experimentos analíticos
es común desechar los rayos X generados por radiación de frenado y usar solo el
haz monocromático correspondiente a la emisión característica del ánodo.
RIESGOS
Quemaduras sufridas durante una fluoroscopia médica.
En medicina se sopesan cuidadosamente los beneficios de los rayos X como
instrumento de diagnóstico y terapia frente a los efectos secundarios. Cuando
se descubrieron los rayos X no se sospechaba que fueran peligrosos para la
salud y durante un tiempo los tubos de rayos X y válvulas de vacío de alto
voltaje se usaron sin ningún tipo de precaución para resguardarse de la
exposición innecesaria a los rayos X. Incluso cuando se empezaron a observar
efectos adversos, como lesiones de la piel y ojos y tumores, su aparición no
siempre se asociaba al uso de rayos X. Thomas
Edison y Nikola Tesla estuvieron entre los primeros que
notaron una relación de causa y efecto entre el trabajo con rayos X e
irritación ocular. Finalmente se estableció que una dosis de
3 Sv puede
causar enrojecimiento e irritación de la piel. Dado que algunos tubos pueden
resultar en exposiciones entre 10 y 10 000 Sv/h, es necesario adoptar
medidas para minimizar la dosis recibida durante el uso y manipulación de los
tubos de rayos X. En todas las fuentes modernas, el tubo está
rodeado de una coraza protectora de plomo, que absorbe
todos los rayos X excepto los dirigidos hacia la ventana de salida. También se
usan dispositivos para regular el máximo voltaje en el tubo, y filtros y
colimadores para confinar el haz de rayos X en la dirección de la muestra o
paciente. Incluso cuando la dosis recibida en una sola exposición no es lo
suficientemente alta para provoca efectos a corto plazo, la acumulación de
repetidas exposiciones aumenta el riesgo de contraer cáncer, por
lo que normalmente se implementan protocolos de seguridad —por ejemplo, el
requisito de ocluir el haz de rayos X mientras el aparato no esté en uso— y se
vigila que la dosis de radicación acumulada esté dentro de límites seguros para
el personal que maneja tubos de rayos X regularmente. Cuando los tubos se
usan en medicina, se protegen las áreas del cuerpo alrededor de la zona a
tratar; en medicina diagnóstica los pacientes son situados a cierta distancia,
para disminuir la dosis por unidad de superficie, y se usan tiempos de
exposición tan cortos como sea posible.
La absorción de rayos X posee un comportamiento
complejo debido a que la radiación X emitida (espectro) es policromática. La
absorción de la radiación X monocromática sigue la ley de Lambert, cuya
expresión es:
Donde: I = intensidad emergente o transmitida
I0 = intensidad incidente
m =
coeficiente de absorción
x = espesor
El coeficiente de absorción es una constante que
depende del material absorbente y de la longitud de onda de la radiación. Cada
tejido presenta un coeficiente de absorción determinado; por ejemplo: µ hueso
> µ dermis.
APLICACIONES DE LA RADIACIÓN
X
Además de su utilidad en el diagnóstico, los rayos X
se emplean con fines terapéuticos. Dado que la radiación destruye células con
cierta selectividad, puede servir para liberarse de células indeseables
como las de formaciones tumorales. Puede dirigirse sobre la masa blanca un haz
colimado de rayos X, utilizándose para tumores de piel un potencial acelerador
de 250 KV. Para tumores profundos se utilizan potenciales del orden de los
megavolts, produciendo radiación de alta energía y gran penetración. Las
bacterias y virus pueden matarse exponiéndolos a la radiación X. Debido a esto
los alimentos empaquetados, los vendajes quirúrgicos precintados y otros
materiales similares, son sometidos, a menudo, a grandes dosis de radiación. La
unidad de dosificación actualmente acordada, es el RAD. Un RAD de rayos X es la
cantidad de radiación que produce una absorción de energía de 10 Joules por
gramo de material absorbente. La radio sensibilidad varía según las condiciones
del medio (temperatura, hidratación, oxigenación, etc.) y depende
principalmente del estado funcional y de la actividad mitótica del tejido. La
radiación actúa con mayor intensidad sobre las células, cuanto mayor sea su
actividad reproductiva y cuanto menor sea su morfología y funciones específicas
(indiferencia ión celular). La escala de radiosensibilidad de Engelmann de
mayor a menor radiosensibilidad es: tejido hematopoyético, timo, ovario,
testículo, mucosas y glándulas mucosas, glándulas sudoríparas y sebáceas,
epidermis, serosas, riñón, adrenales, glándulas intestinales, hígado, páncreas,
tiroides, músculo estriado, tejido conjuntivo, vasos, tejido cartilaginoso,
óseo y nervioso.
CONTROLES RADIOLÓGICOS
Las imágenes movidas son la causa más frecuente de
una mala radiografía. Generalmente se debe a que el paciente se mueve durante
la toma radiográfica, llegándose a los mismos efectos cuando el aparato se
encuentra en una situación inestable o se lo mueve durante la exposición. La
forma de reducir al mínimo este efecto consiste en utilizar el menor tiempo
posible de exposición, para lo cual se debe aumentar la corriente del
filamento. De esta manera se mantiene aproximadamente constante la cantidad de
rayos X que inciden sobre la placa. Al trabajar con un animal consciente es
imprescindible sujetarlo adecuadamente, colocarlo en una postura cómoda y
esperar la pausa respiratoria, para entonces realizar la toma. También puede
recurrirse al uso de sedantes o de anestesia general. Los tiempos de exposición
frecuentemente usados en radiología están comprendidos entre los 0,05 - 0,4
segundos.
Para la obtención de una buena radiografía es
necesario la complementación de tres puntos principales:
A. Que el
objeto sometido a examen radiológico sufra un mínimo de aumento de tamaño y de
deformación sobre la placa radiográfica.
B. Que
exista una clara definición de los detalle.
C. Que
presente un contraste adecuado.
AUMENTO Y DEFORMACIÓN
Para corregir esta anormalidad se debe tener en
cuenta la posición entre el tubo de rayos X, el objeto y el chasis donde se
encuentra la placa radiográfica (geometría del sistema). El tubo debe colocarse
de forma tal que el rayo central del haz de radiación, incida en forma
perpendicular al objeto y al chasis. En caso de tubos fijos, se acomodará el
chasis y el objeto, teniendo en cuenta la misma característica Las
imágenes aumentadas se dan cuando el objeto no se encuentra próximo a la placa
radiográfica: en consecuencia la zona a radiografiar deberá situarse lo más
cerca posible del chasisLa deformación de la imagen se producirá en casos de no
alineación del rayo central respecto al objeto y/o del chasis y también cuando
el objeto no está paralelo a la placa. (Figura 4)
DEFINICIÓN
La información radiológica dependerá de la correcta
definición de los perfiles entre dos estructuras de distinta densidad. La mala
definición radiográfica puede deberse, entre otras cosas, a una imagen movida o
a radiaciones secundarias. El uso de altos potenciales aceleradores provoca la
aparición de radiaciones secundarias o residuales de alta energía que modifican
la imagen produciendo manchas en la placa. Este efecto se puede evitar
colocando láminas de plomo (rejillas) entre la película radiográfica y el
objeto, que absorberán dichas radiaciones divergentes.
CONTRASTE
El contraste o diferenciación de estructuras también
dependerá del voltaje aplicado. También influirá sobre el contraste una
subexposición o sobreexposición como también un subrevelado y sobrerevelado.
CONCEPTOS DE RADIOPACIDAD
Llamamos radiopaco a todo cuerpo que ofrece
resistencia a ser atravesado por los rayos X y es visible en la radiografía
como una zona blanca. Esto sucede porque la estructura tiene resistencia,
absorbiendo o repeliendo a los rayos X, por lo que impide que los rayos choquen
contra la película radiográfica. Este efecto tiene lugar especialmente en los
huesos con una densidad más alta.
DEFINICIÓN DE RADIOPACO
Es una estructura que no permite el paso de los
rayos X o de otra energía radiante. Los huesos son relativamente radiopacos
debido a su densidad, por lo tanto, aparecen como áreas blancas en las placas
de rayos X.
Asimismo, también podemos diferenciar el término
radio lúcido. Esta palabra se refiere a la estructura poco densa en que los
rayos pueden chocar contra una película radiográfica produciendo depósitos de
placa metalicen negrecida. (Guzmán, 2012)
RADIOLUCIDES
Es aquel término que se emplea en la acentuación de
los rayos X, es decir, son tejidos blandos y que por tanto permiten el paso de
la luz. Es todo aquel cuerpo que se deja atravesar por la energía radiante, (se
ve como una zona negra.
Rayos
Los rayos X
han sido tanto un experimento con un descubrimiento, ya que los científicos ya
los habían estado generando sin darse cuenta durante años, con el paso del
tiempo han ayudado a desarrollar el campo de la medicina en muchas formas. Es
este informe de experimento veremos cómo fue que fueron descubiertos y
desarrollados y cuál ha sido su impacto y
su importancia en el mundo.
¿QUÉ SON LOS RAYOS X?
Los rayos X son el resultado de la combinación
de ondas electromagnéticas y su energía está ubicada entre los rayos
ultravioletas y los rayos gamma. Sus ondas son muy similares a las de los
radios y microondas, también se pueden asemejar a las ondas que transmite la
luz. Los rayos X son una radiación que al entrar en contacto con la materia
crea iones, que son partículas con carga (ya sea positiva o negativa)
El daño que éstos causen en la salud depende de
la intensidad con que sean usados. Si la dosis es baja no llegan a causar
daños, pero, si en cambio, se está expuesto a dosis muy altas puede llegar a
causar daños severos que pueden ser incluso mortales.
En grandes cantidades puede causar quemaduras en
distintos lugares del cuerpo, pérdida de cabello, defectos de nacimiento,
cáncer, daños mentales y en el peor de los casos la muerte."La
manifestación de efectos como quemaduras de la piel, caída del cabello,
esterilidad, náuseas y cataratas, requiere que se exponga a una dosis mínima
(la dosis umbral). Si se aumenta la dosis por encima de la dosis umbral el
efecto es más grave. En grupos de personas expuestas a dosis bajas de radiación
se ha observado un aumento de la presión psicológica. También se ha documentado
alteración de las facultades mentales (síndrome del sistema nervioso central)
en personas expuestas a miles de rads de radiación ionizante."
-Campo de la medicina: Desde su descubrimiento, los
rayos X nos permiten captar la estructura ósea y se han ido desarrollado
cada vez más gracias a la tecnología para su uso. Son más usados en la
radiología, a que en ésta se llevan a cabo las radiografías, que es para lo que
sirven los rayos X. Son muy útiles a la hora de detectar enfermedades en el
esqueleto, pero también son usados para diagnosticar las enfermedades de los
tejidos blandos, éstas pueden ser: cáncer en los pulmones, abscesos, neumonía,
edema pulmonar, etc.
-Otras aplicaciones: "Puede utilizarse para
determinar defectos en componentes técnicos, como tuberías, turbinas, motores,
paredes, vigas, y en general casi cualquier elemento estructural. Aprovechando
la característica de absorción/transmisión de los Rayos X, si aplicamos una
fuente de Rayos X a uno de estos elementos, y este es completamente perfecto,
el patrón de absorción/transmisión, será el mismo a lo largo de todo el
componente, pero si tenemos defectos, tales como poros, pérdidas de espesor,
fisuras (no suelen ser fácilmente detectables), inclusiones de material
tendremos un patrón desigual."
"El tubo de rayos X está constituido por dos
electrodos (cátodo y ánodo), una fuente de electrones (cátodo caliente) y un
blanco. Los electrones se aceleran mediante una diferencia de potencial entre
el cátodo y el ánodo. La radiación es producida justo en la zona de impacto de
los electrones y se emite en todas direcciones.
La energía adquirida por los electrones va a estar
determinada por el voltaje aplicado entre los dos electrodos.
Los diferentes electrones no chocan con el blanco de
igual manera, así que este puede ceder su energía en una o en varias
colisiones, produciendo un espectro continuo. La energía del fotón emitido, por
conservación de la energía y tomando los postulados de Planck es:
Donde K y K" es la energía del electrón antes y
después de la colisión respectivamente. El punto de corte con el eje x de la
gráfica de espectro continuo, es la longitud mínima que alcanza un fotón al ser
acelerado a un voltaje determinado. Esto se puede explicar desde el punto de
vista de que los electrones chocan y entregan toda su energía. La longitud de
onda mínima está dada por:
Donde A es la constante de proporcionalidad y m una
constante alrededor de 2."
"Cuando los electrones que son acelerados en el
tubo de rayos X poseen cierta energía crítica, pueden pasar cerca de una
subcapa interna de los átomos que componen el blanco. Debido a la energía que
recibe el electrón, este puede escapar del átomo, dejando al átomo en un estado
supremamente excitado. Eventualmente, el átomo regresará a su estado de
equilibrio emitiendo un conjunto de fotones de alta frecuencia, que
corresponden al espectro de líneas de rayos X. Éste indiscutiblemente va a
depender de la composición del material en el cual incide el haz de rayos X,
para el molibdeno, la gráfica del espectro continuo muestra dos picos
correspondientes a la serie K del espectro de líneas, estas están superpuestas
con el espectro continuo.
La intensidad de cualquier línea depende de la
diferencia del voltaje aplicado (V) y el voltaje necesario para la excitación
(V") a la correspondiente línea, y está dada por:
Comentarios
Publicar un comentario