Ciencia
Ciencia
La ciencia (del latín scientĭa 'conocimiento') es un conjunto ordenado de conocimientos estructurados sistemáticamente. Los conocimientos científicos se obtienen mediante observaciones y experimentaciones en ámbitos específicos. A partir de estos se generan preguntas y razonamientos, se construyen hipótesis, se deducen principios y se elaboran leyes generales ysistemas organizados por medio de un método científico.1
La ciencia considera y tiene como fundamento las observaciones experimentales. Estas observaciones se organizan por medio de métodos, modelos y teorías con el fin de generar nuevos conocimientos. Para ello se establecen previamente unoscriterios de verdad y un método de investigación. La aplicación de esos métodos y conocimientos conduce a la generación de nuevos conocimientos en forma de predicciones concretas, cuantitativas y comprobables referidas a obsercaciones pasadas, presentes y futuras. Con frecuencia esas predicciones pueden formularse mediante razonamientos y estructurarse como reglas o leyes generales, que dan cuenta del comportamiento de un sistema y predicen cómo actuará dicho sistema en determinadas circunstancias.
Índice
[ocultar]- 1Clasificación de las ciencias
- 1.1Interdisciplinariedad
- 1.2Clasificación de Comte
- 1.3Clasificaciones fundamentales
- 2Construcción de la ciencia
- 2.1Método hipotético-deductivo
- 2.2Inductivismo
- 2.3Crisis de la ciencia moderna
- 2.4Posmodernidad
- 3Construcción del saber científico
- 3.1Demarcación de la ciencia
- 3.2Conocer y saber
- 3.3Observación de los hechos
- 3.4Ley científica
- 3.5Teoría científica
- 3.5.1Construcción de modelos
- 3.5.2Teoría
- 3.5.2.1La caja negra
- 3.6Problema de la inducción
- 4Historia y progreso del conocimiento científico
- 5Terminología
- 6Método científico
- 7Consenso científico y objetividad
- 8Aplicaciones de la lógica y de las matemáticas en la ciencia
- 9Divulgación científica
- 10Influencia en la sociedad
- 11Véase también
- 12Notas
- 13Referencias
- 14Bibliografía
- 15Enlaces externos
Clasificación de las ciencias
Aristóteles. Museo del Louvre.Hasta el Renacimiento todo el saber que no fuera técnico o artístico se situaba en el ámbito de la filosofía. El conocimiento de la naturaleza era sobre la totalidad: una ciencia universal. Aristóteles usó los términos episteme y philosophia para clasificar las ciencias, pero con un significado y contenido muy diferente al de «ciencia» en la Modernidad.2 Las primeras clasificaciones se remontan a Aristóteles,3 que considera tres categorías del saber:
- Teoría, que busca la verdad de las ideas, como formas y como sustancias. Este saber está constituido por las ciencias cuyo conocimiento está basado en el saber por el saber: Matemáticas, Física y Metafísica.
- Praxis o saber práctico encaminado al logro de un saber para guiar la conducta hacia una acción propiamente humana en cuanto racional: lo formaban la Ética, la Política, la Económica y la Retórica.
- Poiesis o saber creador, saber poético, basado en la transformación técnica. Lo que hoy día se englobaría en la creación artística, artesanía y la producción de bienes materiales.
La clasificación aristotélica sirvió de fundamento para todas las clasificaciones que se hicieron en la Edad Mediaa hasta el Renacimiento, cuando las grandes transformaciones promovidas por los grandes adelantos técnicosb plantearon la necesidad de nuevas ciencias y sobre todo nuevos métodos de investigación que culminarán en la ciencia moderna del siglo XVII. Entonces aparece un concepto moderno de clasificación que supone la definitiva separación entre ciencia y filosofía.
En la Edad Moderna Tommaso Campanella, Comenio, Bacon, Hobbes y John Locke propusieron diferentes clasificaciones.2 El Systema Naturae (1735) de Linneo, estableció los criterios de clasificación que más influencia han tenido en el complejo sistema clasificatorio de las ciencias naturales.2 André-Marie Ampère confeccionó una tabla con quinientas doce ciencias.4
En la Ilustración, D'Alembert escribió:
«No hay sabios que gustosamente no colocaran la ciencia de la que se ocupan en el centro de todas las ciencias, casi en la misma forma que los hombres primitivos se colocaban en el centro del mundo, persuadidos de que el universo había sido creado por ellos. Las profesiones de muchos de estos sabios, examinándose filosóficamente, encontrarían, posiblemente, incluso, además del amor propio, causas de peso suficiente para su justificación»
Discours préliminaire de l'Encyclopedie, París 1929, pág. 61
Interdisciplinariedad
A partir del siglo XIX y con el importante crecimiento experimentado por el conocimiento científico surgieron numerosas disciplinas científicas nuevas con yuxtaposiciones de parcelas establecidas por ciencias anteriores: bioquímica, biogeoquímica, sociolingüística, bioética, etc.
La sistematización científica requiere el conocimiento de diversas conexiones, mediante leyes o principios teóricos, entre diferentes aspectos del mundo empírico que se caracterizan mediante conceptos científicos. Así los conceptos de la ciencia son nudos en una red de interrelaciones sistemáticas en la que las leyes y los principios teoréticos constituyen los hilos... Cuantos más hilos converjan o partan de un nudo conceptual, tanto más importante será su papel sistematizado o su alcance sistemático
Carl Hempel.5
Clasificación de Comte
En el siglo XIX Auguste Comte hizo una clasificación, mejorada después por Antoine-Augustin Cournot en 1852 y por Pierre Naville en 1920.4 Comte basó su clasificación jerárquica en el orden en que las ciencias habían entrado, según su percepción, en estado positivo, así como en su complejidad creciente y generalización decreciente.6 De esta forma ordenó a las ciencias:7
- Matemáticas
- Astronomía
- Física
- Química
- Biología
- Sociología
Comte justifica la inclusión de la sociología en la clasificación, de la siguiente forma:
Poseemos ahora una física celeste, una física terrestre ya mecánica o química, una física vegetal y una física animal; todavía necesitamos una más y la última, la física social, para completar el sistema de nuestro conocimiento de la naturaleza.
Auguste Comte8
Clasificaciones fundamentales
Una clasificación general ampliamente usada es la que agrupa las disciplinas científicas en tres grandes grupos:
Esquema de clasificación planteado por el epistemólogo alemán Rudolf Carnap (1955):Ciencias formales
- Estudian las formas válidas de inferencia: lógica - matemática. No tienen contenido concreto; es un contenido formal, en contraposición al resto de las ciencias fácticas o empíricas.
Ciencias sociales
- Son aquellas disciplinas que se ocupan de los aspectos del ser humano -cultura y sociedad-. El método depende particularmente de cada disciplina:administración, antropología, ciencia política, demografía, economía, derecho, historia, psicología, sociología, geografía humana y otras.
Sin embargo, dicha clasificación ha sido discutida y requiere de cierta discusión complementaria. Así Wilhelm Dilthey considera inapropiado el modelo epistemológico de las «Naturwissenschaften» 'ciencias naturales'. Es decir, considera inadecuado usar el método científico, pensado para la física, a disciplinas que tiene que ver el estudio del hombre y la sociedad; y propone un modelo completamente diferente para las «Geisteswissenschaften» ('ciencias humanas' o 'ciencias del espíritu'), e.g., la filosofía, lapsicología, la historia, la filología, la sociología, etc. Si para las ciencias naturales el objetivo último es la explicación, basada en la relación causa/efecto y en la elaboración de teorías descriptivas de los fenómenos, para las ciencias humanas se trata de la comprensión de los fenómenos humanos y sociales.
Mario Bunge (1972) considera el criterio de clasificación de la ciencia en función del enfoque que se da al conocimiento científico: por un lado, el estudio de los procesos naturales o sociales (el estudio de los hechos) y, por el otro, el estudio de procesos puramente lógicos (el estudio de las formas generales del pensar humano racional); es decir, postuló la existencia de una ciencia factual (o ciencia fáctica) y una ciencia formal.
Las ciencias factuales se encargan de estudiar hechos auxiliándose de la observación y la experimentación. La física, la psicología y la sociología son ciencias factuales porque se refieren a hechos que se supone ocurren en la realidad y, por consiguiente, tienen que apelar al examen de la evidencia científica empírica.9
- La ciencia experimental se ocupa del estudio del mundo natural. Por mundo natural se ha de entender todo lo que pueda ser supuesto, detectado o medido a partir de laexperiencia. En su trabajo de investigación, los científicos se ajustan a un cierto método, un método científico general y un método específico al campo concreto y a los medios de investigación.
- La llamada «ciencia aplicada» consiste en la aplicación del conocimiento científico teórico (la llamada ciencia «básica» o «teórica») a las necesidades humanas y al desarrollo tecnológico. Por eso es muy común encontrar, como término, la expresión «ciencia y tecnología».
- Las ciencias formales, en cambio, crean su propio objeto de estudio; su método de trabajo es puro juego de la lógica, en cuanto formas del pensar racional humano, en sus variantes: la lógica y las matemáticas. En la tabla que sigue se establecen algunos criterios para su distinción:10
OBJETO DE ESTUDIO
- - Estudian entes formales, ideales o conceptuales
- Dichos entes son postulados hipotéticamente (construidos, propuestos, presupuestos o definidos) por los científicos que los estudian.
- - Estudia el mundo de los hechos (Desde las galaxias a las partículas subatómicas).
- Tales hechos se asumen que tienen existencia con independencia de los científicos y de las comunidades que los estudian, aunque puedan tener interacciones con ellos.
- - Parten de axiomas o postulados y a partir de ellos demuestran teoremas
- Los axiomas son relativos al contexto en el cual se opera.c
- No requieren de cotejo empírico o experimentación.
- Sus conclusiones adquieren grado de certeza - Se trabaja a partir de las consecuencias observacionales que se derivan de las conjeturas o hipótesis propuestas.
- Juzgan sobre su adecuación al trozo de realidad que pretenden describir o explicar.
- El resultado favorable es provisional sujeto a corrección y revisión.
- - Buscan la coherencia interna.
- Busca la verdad lógica y necesaria. - Procura describir y explicar hechos y realidades ajenas a ellas mismas.
- Persiguen la verdad material o contingente.
El Premio Nobel de Química, Ilya Prigogine, propone superar la dicotomía entre la cultura de las ciencias humanísticas por un lado y el de las ciencias exactas por el otro porque el ideal de la ciencia es el de un esquema universal e intemporal, mientras que las ciencias humanas se basan en un esquema histórico ligado al concepto de situaciones nuevas que se superponen.11 12
Construcción de la ciencia
A lo largo de los siglos la ciencia viene a constituirse por la acción e interacción de tres grupos de personas:13
Unidad del edificio científico según Linneo y Diderot- Los artesanos, constructores, los que abrían caminos, los navegantes, los comerciantes, etc. resolvían perfectamente las necesidades sociales según una acumulación de conocimientos cuya validez se mostraba en el conocimiento y aplicación de unas reglas técnicas precisas fruto de la generalización de la experiencia sobre un contenido concreto.14
- Los filósofos mostraban unos razonamientos que «extendían el dominio de las verdades demostrables y las separaba de la intuición'./... La uniformidad del Ser sobrevivió en la idea de que las leyes básicas han de ser independientes del espacio, del tiempo y de las circunstancias».13
- Sobre la base de toda la tradición mantenida por los grupos anteriores, los científicos de la ciencia moderna: difieren de los filósofos por favorecer lo específico y experimental y difieren de los artesanos por su dimensión teórica.
- 21A partir del siglo XVII se constituye la ciencia tal como es considerada en la actualidad, con un objeto y método independizado de la filosofía.La órbita clásica de Kepler. La órbita es elíptica. El movimiento de la tierra no es uniforme. El cielo clásico circular y de movimientos uniformes, perfecto, es definitivamente superado con las leyes de Kepler.En un punto fue necesaria la confrontación de dos sistemas (Descartes-Newton) contemporáneos en la concepción del mundo natural:22
- Descartes, Principia philosophiae (1644), a pesar de su indudable modernidad, mantiene la herencia de la filosofía anterior anclada en las formas divinas propone un método basado en la deducción a partir de unos principios, las ideas innatas, formas esenciales y divinas como «principios del pensar».23 El mundo es un «mecanismo» determinista regido por unas leyes determinadas que se pueden conocer como ciencia mediante un riguroso método de análisis a partir de intuiciones evidentes. Es la consagración definitiva de la nueva ciencia, el triunfo del antiaristotelismo medieval, la imagen heliocéntrica del mundo, la superación de la división del universo en mundo sublunar y supralunar en un único universo mecánico.
- Newton, Principia Mathematica philosophiae naturalis, (1687). Manteniendo el espíritu anterior sin embargo realiza un paso más allá: el rechazo profundo a la hipótesis cartesiana de los vórtices. La ciencia mecanicista queda reducida a un cálculo matemático a partir de la mera experiencia de los hechos observados sobre un espacio-tiempo inmutable.
Método hipotético-deductivo
Artículo principal: Lógica empírica- na de las grandes aportaciones de Galileo Galileig a la ciencia consistió en combinar lógicamente la observación de los fenómenos con dos métodos desarrollados en otras ramas del conocimiento formal: la hipótesis y la medida.24 Supone el origen del método experimentalque él llamó "resolutivo-compositivo", y ha sido muchas veces considerado con el nombre de "hipotético-deductivo" como prototipo delmétodo científico e independiente del método empírico-analítico. Según Ludovico Geymonat la lógica empírica se caracteriza por tres métodos estructurados en un todo:
- Buscar una hipótesis como explicación teórica.
- Buscar una unidad de medida para medir el fenómeno.
- Buscar un experimento, es decir, una observación condicionada preparada para medir y corroborar la hipótesis.
Inductivismo
Artículo principal: InductivismoSir Francis Bacon, uno de los promotores del inductivismo comométodo científicoCírculo empíricoEl inductivismo considera el conocimiento científico como algo objetivo, medible y demostrable, a partir solamente de procesos de experimentación observables en la naturaleza a través de nuestros sentidos. Por lo tanto, los inductivistas están preocupados por la base empírica del conocimiento.25
Esta filosofía de la ciencia comienza a gestarse durante la revolución científica del siglo XVII, y se consolida definitivamente como paradigma del método científico por la fundamental obra de Isaac Newton. Francis Bacon insistió en que para comprender la naturaleza se debía estudiar la naturaleza misma, y no los antiguos escritos de Aristóteles. Así, los inductivistas comenzaron a renegar de la actitud medieval que basaba ciegamente sus conocimientos en libros de los filósofos griegos y en laBiblia.25
El inductivismo gozó de una enorme aceptación hasta buena parte del siglo XX, produciendo enormes avances científicos desde entonces.25 Sin embargo, con la crisis de la ciencia modernasurge el Problema de la inducción, que lleva al ocaso de este paradigma.
Crisis de la ciencia moderna
Artículos principales: Distinción analítico-sintético y Problema de la inducción.A pesar del indudable progreso de la ciencia durante los siglos XVII, XVIII y XIX seguía en pie la cuestión del fundamento racional de la misma sobre dos justificaciones divergentes:
- El racionalismo que fundamenta el método hipotético-deductivo: la ley científica se justifica en una deducción teórica a partir de una hipótesis o teorías científicas.
- El empirismo que fundamenta el método inductivo: la ley científica se justifica en la mera observación de los hechos.
El problema es planteado de modo definitivo por Kant respecto a la distinción entre juicios analíticos y sintéticos; la posibilidad de su síntesis, como juicios sintéticos a priori, considerados como los juicios propios de la ciencia, permanecía en la sombra sin resolver:
VERDAD CONDICIÓN ORIGEN JUICIO EJEMPLOVerdad de hecho Contingente y particular A posteriori; depende de la experiencia Sintético: amplía el conocimiento. El predicado no está contenido en la noción del sujeto Tengo un libro entre las manos.
Está saliendo el sol.
Verdad de razón Necesaria y universal A priori; no depende de la experiencia Analítico: el predicado se encuentra en lanoción del sujeto. No se amplía el conocimiento Todos los A son B → Si "algo" (x) es A entonces ese algo (x) es B
Si {\displaystyle a\cdot a=a^{2}} entonces {\displaystyle {\sqrt {a}}^{2}=a}
Verdad científica Universal y necesaria A priori; no depende de la experiencia, pero únicamente se aplica a la experiencia Sintético a priori: amplía el conocimiento. Solo aplicable a los fenómenos Si a y b son cuerpos → a y b experimentan entre sí una fuerza...
Los cuerpos se atraen en razón directa de sus masas y en razón inversa al cuadrado de sus distancias.
¿Cómo y por qué la Naturaleza en la experiencia se somete a las «reglas lógicas de la razón» y a las matemáticas?
Los matemáticos se dividieron en intuicionistas y logicistas.
Los intuicionistas consideran la matemática un producto humano y que la existencia de un objeto es equivalente a la posibilidad de su construcción, por lo que no admitían elaxioma del tertio excluso.26 El argumento {\displaystyle A\lor \lnot A;\lnot \lnot A\vdash A} no puede ser tomado como lógica y formalmente válido sin restricción. Todo objeto lógico ha de poder ser previamente construido, lo que plantea especiales problemas lógicos para la negación. ¿Qué objeto es {\displaystyle \lnot A}?h Por ello consideraron las verdades de la ciencia probabilísticas, algo así como: «hay razones para considerar verdadero»... Rechazando algunos teoremas y métodos de Georg Cantor.13 El empirismo de David Hume mantiene su vigencia en la no-realidad de los universales ahora matemáticamente tratados como conjuntos.
Por su parte los formalistas pretendieron construir la traducción posible de los contenidos de la ciencia a un lenguaje lógico uniforme y universal que, como «método unificado decálculo» hiciera de la ciencia un logicismo perfecto.27 Tal venía a ser el programa de Hilbert: formalización perfecta de la lógica-matemática, capaz de figurar la realidad mundana debidamente formalizada en un sistema perfecto.i
Concepto de distancia en el espacio de EuclidesEl programa de Hilbert se vino definitivamente al traste cuando Kurt Gödel (1931) demostró los teoremas de incompletitud, haciendo patente la imposibilidad de un sistema lógico perfecto.j
Por otro lado la mecánica cuántica en su expresión matemática abre una brecha entre espacio-tiempo y materia y salva el tradicional abismo entre el observador y la realidad por caminos que traen conturbados a los científicos y han sumido a los filósofos en una gran confusión.28 13 En definitiva:
- Matemáticamente: Si un sistema es completo no es decidible. Si es decidible, no es completo.
- Físicamente: La energía aparece como discontinua; las partículas se manifiestan fenoménicamente, según circunstancias, como tales partículas o como ondas. El espacio y el tiempo pierden el carácter de absoluto de la mecánica clásica de Newton; etc.
En 1934 Karl Popper publica La lógica de la investigación científica, que pone en cuestión los fundamentos del inductivismo científico, proponiendo un nuevo criterio de demarcación de la ciencia así como una nueva idea de verificación por medio de la falsación de teoríasy una aproximación asintótica de la verdad científica con la realidad.
En 1962 Kuhn propone un nuevo modo de concebir la construcción de la ciencia bajo el concepto de «cambio de paradigma científico», que hiciera posible el no tener que considerar necesariamente falsas todas las teorías obsoletas de la ciencia anterior.
En 1975 Feyerabend publica un polémico libro, CONTRA EL MÉTODO: Esquema de una teoría anarquista del conocimiento. Tras analizar críticamente el proceso seguido por Galileo en su método resolutivo-compositivo
- rompe el «paradigma» del método hipotético-deductivo considerado como el fundamento del método científico como tal.
El propio progreso de las ciencias muestra evidencias claras de que las regularidades de la naturaleza están llenas de excepciones.k La creencia en leyes necesarias y la creencia en el determinismo de la Naturaleza, que inspiró tanto a los griegos como a la Ciencia Moderna hasta el siglo XX, así como el hecho de que la observación se justifica a partir de la experiencia, se ponen seriamente en cuestión.;;13 29 l m
Posmodernidad
La cuestión entre realismo y empirismo ../.. sigue tan viva como siempre..../... [Los investigadores] estudian eventos particulares, realizan entrevistas, invaden los laboratorios, desafían a los científicos, examinan sus tecnologías, sus imágenes, sus concepciones, y exploran el gran antagonismo que a menudo existe entre disciplinas, escuelas y grupos de investigación concretos. Resumiendo sus resultados, podemos decir que el problema no es ahora el de cómo articular el monolito CIENCIA, sino el de qué hacer con la desparramada colección de esfuerzos que han ocupado su lugar.13
Lyotard en su obra «La condición postmoderna: Informe sobre el saber» se pregunta: ¿Sigue siendo la ciencia el gran argumento de autoridad en el reconocimiento de la verdad?30 La conclusión postmoderna es que se asumió el criterio de competencia como «saber adecuado a lo concreto» por parte de los expertos. La ciencia no es una cosa, es «muchas»; no es algo cerrado sino abierto; no tiene un método, sino muchos; no está hecha, sino se hace. Su dinámica no es sólo la investigación base, sino su aplicación técnica, así como su enseñanza y su divulgación. Por ello las objeciones y las alternativas a cada investigación concreta y en cada campo concreto de la misma, se suscitan y abren según grupos particulares de intereses que no siempre son precisamente científicos. La dependencia económica de la investigación puede convertirla en un producto más en «oferta en el mercado», o ser valorada únicamente como discurso performativo.31
La ciencia se ha convertido en un fenómeno que afecta globalmente a toda la Humanidad:
- Por la mayor educación social generalizada en todas las sociedades del mundo.
- Por la influencia de la tecnología que la hace aplicable a la realidad en poco tiempo.
- Por los medios de comunicación, que facilitan la rápida divulgación y vulgarización de los conocimientos.
- Porque se convierte así en un instrumento de poder, económico, político y cultural.
- Etc.
El problema de su fundamentación y construcción deviene un problema filosófico en el llamado posmodernismo que tiene una conciencia clara: La verdad no es necesaria ni universal, sino producto humano y por tanto cambiante y contingente. La propia ciencia, la filosofía, la literatura o el arte en general y la propia dinámica cultural y social, desbordarán siempre el discurso científico abriendo horizontes de nuevos metadiscursos respecto a la propia ciencia, a los contenidos culturales y sociales, a la vida cotidiana, el ejercicio del poder o la acción moral y política.32 33
La pregunta, explícita o no, planteada por el estudiante profesionalista, por el Estado o por la institución de enseñanza superior, ya no es ¿es eso verdad?, sino ¿para qué sirve? En el contexto de la mercantilización del saber, esta última pregunta, las más de las veces, significa: ¿se puede vender? Y, en el contexto de argumentación del poder ¿es eficaz? Pues la disposición de una competencia performativa parecía que debiera ser el resultado vendible en las condiciones anteriormente descritas, y es eficaz por definición. Lo que deja de serlo es la competencia según otros criterios, como verdadero/falso, justo/injusto, etc., y, evidentemente, la débil performatividad en general.
Jean François Lyotard. La condición posmoderna. op. cit. p.94
El resultado es que es posible adquirir conocimiento y resolver problemas combinando elementos de ciencia con opiniones y procedimientos que prima facie son no-científicos.13
Construcción del saber científico
Visión del Universo en la Antigüedad y Edad MediaDemarcación de la ciencia
Artículo principal: Criterio de demarcación¿Qué distingue al conocimiento de la superstición, la ideología o la pseudo-ciencia? La Iglesia Católica excomulgó a los copernicanos, el Partido Comunista persiguió a los mendelianos por entender que sus doctrinas eran pseudocientíficas. La demarcación entre ciencia y pseudociencia no es un mero problema de filosofía de salón; tiene una importancia social y política vital.
Imre Lakatos.La metodología de los programas de investigación científica. op. cit. p.9
Conocer y saber
Se hace necesario diferenciar, de un modo técnico y formalizado34 los conceptos de conocer y saber, por más que, en el lenguaje ordinario, se usen a veces como sinónimos.
Conocer, y su producto el conocimiento, va ligado a una evidencia que consiste en la creencia basada en la experiencia y la memoria y es algo común en la evolución de los seres naturales concebidos como sistemas, a partir de los animales superiores.35 Saber, por su parte requiere, además de lo anterior, una justificación fundamental; es decir un engarce en un sistema coherente de significado y de sentido, fundado en lo real y comprendido como realidad por la razón; más allá de un conocimiento en el momento presente o fijado en la memoria como único. Un sistema que hace de este hecho de experiencia algo con entidad consistente. Las cosas ajenas a la razón no pueden ser objeto de ciencia.
... ciencia es la opinión verdadera acompañada de razón. (δοξα άληθης μετα λογου)
Platón.Teeteto. Trad. Juan B. Bergua.Madrid. Ediciones Ibéricas. 1960. p. 122 y 223
Platón, en ese texto, reconoce que los elementos simples son por ello «irracionales», puesto que no se puede dar razón de ellos.36 Y luego en el «Sofista» intenta ir más allá de lo elemental al fundamento del mismo, a la «Idea» (Logos), la racionalidad que sirve de fundamento o, como dice Zubiri, que hace posible el «verdadear» de las cosas y los hechos como realidad.37 El saber de la verdad, así concebido, es un «hecho abierto» como proceso intelectual y no un logro definitivo,38 Un conjunto de razones y otros hechos independientes de mi experiencia que, por un lado, ofrecen un «saber qué» es lo percibido como verdad y, por otro lado, orientan y definen nuevas perspectivas del conocimiento y de la experiencia posible.39
Fundamentalmente caracterizan la construcción del saber científico actual los rasgos siguientes:
- Investigación de un cambio de problemática, teórica o práctica, en un área o ámbito científico determinado con un núcleo teórico consolidado.40
- De un equipo generalmente financiado por una Institución Pública, Fundación privada o Empresa particularn
- Dirigida por alguien de reconocido prestigio como experto en el ámbito de la investigación, sea individuo o equipo investigador
- Siguiendo un método de investigación cuidadosamente establecido
- Publicado en revistas especializadas
- Incorporadas y asumidas las conclusiones en el quehacer de la comunidad científica del ámbito que se trate como elementos dinámicos de nuevas investigaciones que amplían la problemática inicial generando nuevas expectativas, predicciones, etc. o, dicho en términos propios, el resultado es un programa teóricamente progresivo.41
- El reconocimiento suele convertirse en derecho de patente durante 20 años cuando tiene una aplicación práctica o técnica
Observación de los hechos
Artículo principal: Lógica empíricaObservación del cieloSi, persuadidos de estos principios, hacemos una revisión de las bibliotecas, ¡qué estragos no haremos! Si tomamos en las manos un volumen de teología, por ejemplo, o de metafísica escolástica, preguntemos: ¿contiene algún razonamiento abstracto sobre la cantidad o los números? No. ¿contiene algún raciocinio experimental sobre cuestiones de hecho o de existencia? No. Echadlo al fuego; pues no contiene más que sofistería y embustes.
David Hume. Investigación sobre el entendimiento humano. Tercera parte.
La cita de Hume ilustra el pensamiento en la Edad Moderna y fue importante en la constitución de la ciencia moderna.42 Sin embargo en la actualidad es un problema fundamental del estatus de la ciencia ¿qué es un raciocinio experimental sobre cuestiones de hecho o de existencia?
Newton afirmaba «no hago suposiciones» y estaba convencido de que su teoría estaba apoyada por los hechos. Pretendía deducir sus leyes a partir de los fenómenos observados por Kepler. Pero tuvo que introducir una teoría de las perturbaciones para poder sostener que los movimientos de los planetas eran elípticos, y en realidad no supo justificar la gravedad. Sin embargo, antes de Einstein la mayoría de los científicos pensaban que la física de Newton estaba fundamentada en la realidad de los hechos observados.o Hoy se admite sin ambages que no se puede derivar válidamente una ley de la naturaleza a partir de un número finito de hechos.43
Karl Popper propuso un criterio de falsabilidad que contradice la realidad de la construcción de la ciencia cuando las teorías no suelen derrumbarse por una sola observación o un experimento crucial que las contradiga. Normalmente se recurre a aceptar anomalías, o se generan hipótesis ad hoc.
Lakatos, discípulo de Popper, indicó que la historia de la ciencia está repleta de exposiciones sobre cómo los experimentos cruciales supuestamente destruyen a las teorías. Pero tales exposiciones suelen estar elaboradas mucho después de que la teoría haya sido abandonada. Si Popper hubiera preguntado a un científico newtoniano, anterior a la Teoría de la Relatividad, en qué condiciones experimentales abandonarían la teoría de Newton, algunos científicos newtonianos hubieran recibido la misma descalificación que él mismo otorgó a algunos marxistas y psicoanalistas.44
Según Kuhn la ciencia avanza por medio de revoluciones cuando se produce un cambio de paradigma, que no depende de la observación de los hechos sino que constituye un cambio de referencia de un campo o área determinada de la investigación científica en una teoría más general que abarca un área mucho más amplia.45
Sistema Solar según la teoría newtonianaUn campo o área de investigación siempre tiene su referencia en una teoría general, (Física clásica, Teoría de la Relatividad, Mecánica cuántica, Psicoanálisis, Marxismo) dotados de un núcleo fundamental característico firmemente establecido y defendido en una tradición científica estable, aun cuando presenten irregularidades y problemas no resueltos. En este sentido tomar la falsación de Popper en puridad equivale a tener por seguro que todas las teorías nacen ya refutadas, lo que rompería la posibilidad del progreso y unidad de la ciencia.46
Lo que constituye como «científicas» a las teorías no es su «verdad demostrada» que no lo es, sino su capacidad de mostrar nuevas verdades que surgen al seguir ofreciendo nuevas vías de investigación, suscitando hipótesis nuevas y abriendo cauces nuevos en la visión general del campo que se trate. Es solo al final de un amplio proceso de construcción y reconstrucción de una teoría cuando puede surgir una nueva teoría o paradigma o programa de investigación más general que explica con una nueva óptica los mismos hechos explicados por la primera teoría anterior al considerarlos en un ámbito de visión del mundo más amplio. La vieja teoría dejará de tener entonces el reconocimiento como ciencia actual; porque ha dejado ya de ser referente como medio para la ampliación del conocimiento. Lo que nos les hace perder el valor científico que han mostrado durante bastante tiempo y el carácter histórico de su aportación a la construcción de la ciencia.
Universo evolutivo en expansión según la teoría del Big Bang del belga Georges Lemaître.Los hechos observados y las leyes que fundaban la Teoría de Newton seguirán siendo los mismos fenómenos terrestres de la misma manera que lo hacían en el siglo XVIII; y en ese sentido seguirán siendo verdaderos. Pero su interpretacióntienen otro sentido cuando se los considera en el marco más amplio de la «teoría de la relatividad» en la quedan incluidos como un caso concreto. La verdad experimental de la observación de hechos de ver todos los días salir el sol por oriente y ponerse por occidente sigue siendo la misma. Como lo son las anotaciones del movimiento de los planetas hechas porPtolomeo, como por Copérnico o Tycho Brahe. Pero de la misma forma que las interpretaciónes de tales observaciones reflejadas en el marco de la teoría geocéntrica de Aristóteles o de Ptolomeo explicaban mejor y ofrecían visiones diferentes respecto a las «astrologías» que había en su momento histórico y cultural, a su vez la interpretación heliocéntrica de Copérnico o Tycho Brahe enriquecieron enormemente la visión de los cielos respecto a las anteriores e hicieron posible la visión de Kepler y la Teoría de Newton. La interpretación de los mismos datos de observación ofrecen, sin embargo, en la Teoría de la relatividad elementos nuevos que sugieren nuevas hipótesis de investigación que amplían la posibilidad denuevas observaciones y nuevas hipótesis. La última teoría está en continua ampliación y transformación como paradigmacientífico; las anteriores o prácticamente ya no tienen nada que decir como no sea como objeto de estudio histórico y de referencia en la evolución y construcción del saber científico en tanto que fueron paradigmas en su tiempo o tienen sentido en una aplicación concreta en un ámbito específicamente acotado como caso concreto de la teoría fundamental. Tal es el caso de la «utilidad» de la teoría de Newton cuando se trata de movimientos y espacios y tiempos de ciertas dimensiones. De la misma forma que los arquitectos en sus proyectos consideran la tierra «como si fuera plana». Pues en las dimensiones que abarcan sus proyectos la influencia de la redondez de la tierra es despreciable.p
Ley científica
Artículo principal: Ley científica- n la arquitectura de la ciencia el paso fundamental está constituido por la ley. Es la primera formulación científica como tal. En la ley se realiza el ideal de la descripción científica; se consolida el edificio entero del conocimiento científico: de la observación a la hipótesis teórica-formulación-observación-experimento (ley científica), teoría general, al sistema. El sistema de la ciencia es o tiende a ser, en su contenido más sólido, sistema de las leyes.47
Diferentes dimensiones que se contienen en el concepto de ley:48
- La aprehensión meramente descriptiva
- Análisis lógico-matemático
- Intención ontológica
Desde un punto de vista descriptivo la ley se muestra simplemente como una relación fija, entre ciertos datos fenoménicos. En términos lógicos supone un tipo de proposición, como afirmación que vincula varios conceptos relativos a los fenómenos como verdad.q En cuanto a la consideración ontológica la ley como proposición ha sido interpretada históricamente como representación de la esencia,propiedades o accidentes de una sustancia. Hoy día se entiende que esta situación ontológica se centra en la fijación de las constantes del acontecer natural, en la aprehensión de las regularidades percibidas como fenómeno e incorporadas en una forma de «ver y explicarel mundo».49
El problema epistemológico consiste en la consideración de la ley como verdad y su formulación como lenguaje y en establecer su «conexión con lo real», donde hay que considerar dos aspectos:
- El término de lo real hacia el cual intencionalmente se dirige o refiere la ley, es decir, la constancia de los fenómenos en su acontecer como objeto de conocimiento.
- La forma y el procedimiento con que la ley se constituye, es decir, el problema de la inducción.
Teoría científica
Artículo principal: Teoría científicaLa teoría científica representa el momento sistemático explicativo del saber propio de la ciencia natural; su culminación en sentido predictivo.
Los años 50 del siglo XX supusieron un cambio de paradigma en la consideración de las «teorías científicas».
Según Mario Bunge en aras de un inductivismo dominante,51 con anterioridad se observaba, se clasificaba y se especulaba.
Ahora en cambio:
- Se realza el valor de las teorías con la ayuda de la formulación lógico-matemática.
- Se agrega la construcción de sistemas hipotético-deductivos en el campo de las ciencias socialess
- La matemática se utilizaba fundamentalmente al final para comprimir y analizar los datos de investigaciones empíricas, con demasiada frecuencia superficiales por falta de teorías, valiéndose casi exclusivamente de la estadística, cuyo aparato podía encubrir la pobreza conceptual.
En definitiva, concluye Bunge:
Empezamos a comprender que el fin de la investigación no es la acumulación de hechos sino su comprensión, y que ésta solo se obtiene arriesgando y desarrollando hipótesis precisas que tengan un contenido empírico más amplio que sus predecesoras.
- unge, M. op. Cit. p. 9-11; Lakatos. op. cit. 123-133
Construcción de modelos
Modelo de una colisión de partículasEl comienzo de todo conocimiento de la realidad comienza mediante idealizaciones que consisten en abstraer y elaborar conceptos; es decir, construir un modelo acerca de la realidad. El proceso consiste en atribuir a lo percibido como real ciertas propiedades, que frecuentemente, no serán sensibles. Tal es el proceso de conceptualización y su traducción al lenguaje.
Eso es posible porque se suprimen ciertos detalles destacando otros que nos permiten establecer una forma de ver la realidad, aun sabiendo que no es exactamente la propia realidad. El proceso natural sigue lo que tradicionalmente se ha considerado bajo el concepto de analogía. Pero en la ciencia el contenido conceptual solo se considerará preciso como modelo científico de lo real, cuando dicho modelo es interpretado como caso particular de un modelo teórico y se pueda concretar dicha analogía mediante observaciones o comprobaciones precisas y posibles.
El objeto modelo es cualquier representación esquemática de un objeto. Si el objeto representado es un objeto concreto entonces el modelo es una idealización del objeto, que puede ser pictórica (un dibujo p. ej.) o conceptual (una fórmula matemática); es decir, puede ser figurativa o simbólica. La informática ofrece herramientas para la elaboración de objetos-modelo a base del cálculo numérico.
La representación de una cadena polimérica con un collar de cuentas de colores es un modelo análogo o físico; un sociograma despliega los datos de algunas de las relaciones que pueden existir entre un grupo de individuos. En ambos casos, para que el modelo sea modelo teórico debe estar enmarcado en una estructura teórica. El objeto modelo así considerado deviene, en determinadas circunstancias y condiciones, en modelo teórico.
Un modelo teórico es un sistema hipotético-deductivo concerniente a un objeto modelo que es, a su vez, representación conceptual esquemática de una cosa o de una situación real o supuesta real.52
Los mecanismos hipotéticos deberán tomarse e serio, como representando las entrañas de la cosa, y se deberá dar prueba de esta convicción realista (pero al mismo tiempo falible) imaginando experiencias que puedan poner en evidencia la realidad de los mecanismos imaginados. En otro caso se hará literatura fantástica o bien se practicará la estrategia convencionalista, pero en modo alguno se participará en la búsqueda de la verdad,
Bunge, op. Cit. p. 19
El modelo teórico siempre será menos complejo que la realidad que intenta representar, pero más rico que el objeto modelo, que es solo una lista de rasgos del objeto modelizado. Bunge esquematiza estas relaciones de la siguiente forma:
Cosa o hecho Objeto-modelo Modelo teóricoDeuterón Pozo de potencial del protón neutrón Mecánica cuántica del pozo de potencia
Soluto en una solución diluida Gas perfecto Teoría cinética de los gases
Tráfico a la hora punta Corriente continua Teoría matemática de la corriente continua
Organismo que aprende Caja negra markoviana Modelo del operador lineal de Bush y Mosteller
Cigarras que cantan Colección de osciladores acoplados Mecánica estadística de los osciladores acoplados
Cualquier objeto modelo puede asociarse, dentro de ciertos márgenes, a teorías generales para producir diversos modelos teóricos. Un gas puede ser considerado como un «enjambre de partículas enlazadas por fuerzas de Van der Waals», pero puede insertarse tanto en un marco teórico de la teoría clásica como en el de la teoría relativista cuántica de partículas, produciendo diferentes modelos teóricos en ambos casos.
Teoría
Existen dos formas de considerar las teorías:
- Teorías fenomenológicas. Tratan y se limitan a «describir» fenómenos, estableciendo las leyes que establecen sus relaciones mutuas a ser posible cuantificadas. Procuran evitar cualquier contaminación «metafísica» o «esencial» tales como las causas, los átomos o la voluntad, pues el fundamento consiste en la observación y toma de datos con la ayuda «únicamente» de las variables observables exclusivamente de modo directo. Tal es el ideal del empirismo: Francis Bacon, Newton, neopositivismo. La teoría es considerada como una caja negra.
- Teorías representativas, por el contrario, pretenden establecer la «esencia» o fundamento último que justifica el fenómeno y las leyes que lo describen. Tal es el ideal delracionalismo y la teoría de la justificación: Descartes, Leibniz. En relación con lo anterior Bunge propone considerarla como «caja negra traslúcida».53
La caja negra
El hecho de considerar las formas teóricas como «caja negra» o «caja negra traslúcida» obliga a hacer alguna aclaración. No se trata de una disyunción exclusiva. No se trata de clases lógicas excluyentes sino más bien de un planteamiento metodológico. Su referencia es hacia el modo como interpretamos la teoría, si «se atiende a lo que ocurre» en forma de descripción de lo que ocurre, o si, además, se refiere a «por qué ocurre lo que ocurre» intentando justificar un mecanismo.
Esquema de caja negraLas teorías fenomenológicas no son jamás «puras negras», por más que se intente justificar lo contrario con el término fenomenológico:
- Pues no pueden prescindir totalmente de términos que superan con creces las «variables externas» observables, sean macroscópicas o microscópicas. Por ejemplo: la teoría de los circuitos eléctricos es ciertamente una teoría de caja negra, pues todo elemento del circuito es considerado como una unidad carente de estructura interna.54 t Sin embargo tal teoría de circuitos eléctricos habla de «corriente» y de «voltaje» que no son variables observables (como fenómenos en sí propiamente dichos). Su «observabilidad» se infiere de la lectura de unos valores leídos en unos aparatos indicadores previamente diseñados conforme a una teoría que interpreta que dichos valores «representan» valores de «corriente» o de «voltaje» como conceptos teóricos.
- La ciencia no puede limitarse a una mera descripción o lectura de dipositivos meramente descriptivos. Ninguna teoría así recibiría el nombre de «teoría científica», pues la ciencia necesariamente exige explicaciones, es decir que ha de poder subsumir la enunciación de casos singulares en enunciados generales.
- Las teorías fenomenológicas incluyen de manera necesaria, como substrato de creencia previa, la idea de causa/efecto. Pues aun cuando se ignore el mecanismo interior de la caja negra, no se puede prescindir del hecho de que los imputs guardan una relación causal con los outputs.
Por otro lado la «caja negra» presenta grandes ventajas en el progreso de la ciencia, al evitar la especulación que tantas veces ha hecho perder el sentido del horizonte a la ciencia en tiempos pasados y al mismo tiempo al no ser incompatible con la causalidad ni tampoco con la «representación». En definitiva es una cuestión de grado, de forma que:
El hecho de que ciertos problemas no puedan enunciarse en la estructura de las teorías fenomenológicas no significa que las teorías de la caja negra no proporcionen una explicación como a menudo se oye. Siempre que un enunciado singular se deduce de enunciados de leyes y circunstancias, hay explicación científica. Las teorías fenomenológicas proporcionan, pues, explicaciones científicas. Pero las explicaciones científicas pueden ser más o menos profundas. Si las leyes invocadas en la explicación son justamente leyes de coexistencia y sucesión, la explicación será superficial. Este es el caso de la explicación de un hecho de un individuo sobre la base de que siempre hace tales cosas, o la explicación de la compresión de un gas según el aumento de presión en términos de la ley de Boyle. Necesitamos a menudo tales explicaciones superficiales, pero también necesitamos explicaciones profundas tales como las que se presentan en términos de la constitución y estructura de un gas, los rasgos de la personalidad de un individuo y así sucesivamente.
Bunge, M. Teoría y realidad. op. cit. p. 77-78
Problema de la inducción
Artículo principal: Problema de la inducciónSegún el sentido de la teoría de la justificación la ciencia ha de consistir en proposiciones probadas.
El falsacionista ingenuo insiste en que si tenemos un conjunto inconsistente de enunciados científicos en primer lugar debemos seleccionar entre ellos: 1) Una teoría que se contrasta (que hará de nuez); 2) Un enunciado básico aceptado (que servirá de martillo) y el resto será conocimiento básico que no se pone en duda (y que hará las funciones de yunque). Y para aumentar el interés de esta situación hay que ofrecer un método para «endurecer» el «martillo» y el «yunque» de modo que podamos partir la nuez realizando un «experimento crucial negativo». Pero las conjeturas ingenuas referentes a esta visión resultan demasiado arbitrarias y no ofrecen el endurecimiento debido.
Imre Lakatos. op. cit. p.130
El experimento no es una verificación de la teoría que lo sustenta como mostró Popper desnudando el problema de la inducción.
El inductivismo estricto fue considerado seriamente y criticado por muchos autores, desde Bellarmino, Whewell, y finalmente destruido por Duhem y Popper, aunque ciertos científicos y filósofos de la ciencia como Born, Achisnstein o Dorling aún creen en la posiblidad de deducir o inducir válidamente las teorías a partir de hechos (¿seleccionados?). Pero el declinar de la lógica cartesiana y en general, de la lógica psicologista, y la emergencia la lógica de Bolzano y Tarski decretó la muerte de la deducción a partir de los fenómenos.
Lakatos. op. cit. p. 219
Por otro lado las inferencias lógicas transmiten la verdad, pero no sirven para descubrir nuevas verdades.55
Las teorías generales no son directamente contrastables con la experiencia, sino solamente mediante casos particulares, con soluciones específicas mediante teorías específicas, como modelos teoréticos. Cuanto mayor sea la lógica que detente una teoría, menor será la contrastabilidad empírica. Esto quiere decir que teorías tan generales como la Teoría de la Información, Mecánica clásica o mecánica cuántica solo pueden ser contrastadas respecto a modelos teoréticos específicos en el marco de dichas teorías, teniendo en cuenta que no siempre es posible saber qué es lo que hay que corregir en el modelo cuando el contraste empírico fracasa o, si por el contrario es la propia teoría general la que contiene el error,56 teniendo muy presente la dificultad de poder asegurar que el valor de los datos manejados y obtenidos sean los correctos. Por ello la filosofía de la ciencia adquiere un carácter de investigación científica muy importante.57 58
Historia y progreso del conocimiento científico
Artículo principal: Historia de la cienciaVisión medieval del universoNicolás Copérnico rompe definitivamente la visión medieval.Desde determinado punto de vista la descripción de la historia de la ciencia puede causar una visión compendiada de la historia en la que una teoría falsa es sustituida por una «verdadera», que será falsa cuando es sustituida por otra «verdadera». Tal es lo que ocurre si mantenemos una visión simplista de la ciencia como «conjunto de teorías cerradas» es decir que se sustentan por sí mismas en su contenido de verdad y se generan en una sucesión cuyo producto acabado es «una ciencia consolidada», producto de «Una Razón», si no absoluta, al menos humana, pero en tanto que verdadera y definitiva.
De hecho, una visión así se produce cuando la tesis más frecuente y constantemente repetida es que el método científico es una combinación de deducción e inducción, de matemática y experiencia. Tal idea se remonta a Galileo (o incluso más atrás, hasta los más grandes científicos de la Grecia clásica),59 calificada como inductivismo cuyo fundamento reside en considerar que los hechos justifican las teorías en el sentido de hacerlas verdaderas de forma definitiva y permanente.
Tal visión ha sido definitivamente superada por la crisis vivida durante el siglo XX al tener que considerar las teorías como «teorías abiertas».60
Teorías cerradas:
- Rigurosamente formalizadas, o formalizables en lenguaje lógico-matemático.
- Se basan en un determinado sistema de axiomas y reglas lógicas.
- No necesitan tener referencia alguna a presuntas verdades intuitivas ajenas a dicho sistema.
- Dos teorías diversas entre sí no pueden tener equivalencias puesto que se basan en sistemas primitivos lógicos diferentes.
La crisis de la ciencia del siglo XX por el contrario muestra la necesidad de teorías abiertas. No se trata de la idea de «sucesión descriptiva» sino de «el fundamento del progreso científico» entendido como proceso histórico. La actual epistemología representa un punto de inflexión importante en la visión de la historia de la ciencia como:
Evaluación del progreso objetivo de la ciencia entendido como cambios progresivos y regresivos de problemáticas para un conjunto estable de teorías científicas que ofrecen un marco o modelo teórico global.61
La historia de la ciencia deja de ser la historia de las teorías y se constituye en el planteamiento y consideración de «problemáticas comunes» a diversas teorías unidas en una continuidad de largo recorrido histórico y cultural. Dicha unidad encuentra su fundamento en un «marco conceptual común», una unidad cultural de lenguaje que ofrece una visión determinada acerca de un determinado ámbito del universo mundo, como interpretación del mismo, sobre la base de unas mismas reglas lógicas de interpretación de la experiencia. Las series más importantes de estas teorías científicas vienen caracterizadas por una «continuidad» en el tiempo; teorías que se relacionan en una unidad global dentro de en un ámbito suficientemente amplio de investigación del mundo. Vienen a suponer una cierta unidad conceptual y de visión general. Sobre estas unidades es sobre lo que se construye el progreso científico, pues es en el ámbito de éstas donde se producen las transformaciones de «antiguas verdadades» en «nuevas verdades» con independencia de cómo se interprete dicha transformación:
- como «falsación de teoría concreta»: Popper.u
- como una «ruptura epistemológica», Gaston Bachelard.
- como una revolución o «cambio de paradigma», Kuhn.v
- como evolución de «programas de investigación», Lakatos.62
- como simple «anarquía de los métodos», Feyerabend.,w
- como esbozo de posibilidades para la intelección posibilitante de lo real, Zubiri.63
- como «symploké», Gustavo Bueno.
- como genialidad deductiva de un investigador.64
- como casualidad heurística de hecho.x
Cada uno de estos puntos de vista requiere su reflexión y nos muestra que el proceso no es tan simple como suele mostrarse en la historia de una «ciencia consolidada» como sucesión de teorías: una racionalización lógica y sucesiva de teorías que se sustituyen unas a otras de un modo lógico-constructivo.
La cuestión estriba en desplazar la idea de «una teoría que es refutada por hechos nuevos que se descubren» y considerar la explicación o interpretación de cómo se mantienen en unidad profunda y continua diversas teorías que comparten una misma visión conjunta, manteniendo diferencias de escuelas o autores claramente diferenciados y a veces opuestos en sus explicaciones. Esto explica la consistencia de las grandes visiones teóricas señaladas anteriormente con las distintas escuelas, posturas, y movimientos que dentro de la unidad diversifican las formas de comprensión de la realidad, es decir, cómo se mantienen las incongruencias e inconsistencias que unas teorías mantienen frente a otras compartiendo un núcleo fundamental de unión. Núcleo de unión continua que diversifica los modos y métodos de investigación como heurística negativa, que señala rutas de investigación que hay que evitar y heurística positiva que señala los caminos que se debe seguir. La heurística positiva y negativa suministra una definición primaria e implícita del «marco conceptual» (y por tanto del lenguaje) en el que se sitúa la problemática común. El reconocimiento de que la historia de la ciencia es la historia de los paradigmas o de los programas de investigación científica o de la anarquía de los métodos, en lugar de ser la historia de las teorías, puede por ello entenderse como una defensa parcial del punto de vista según el cual la historia de la ciencia es la historia de los marcos conceptuales o de los lenguajes científicos.65
La ciencia en su conjunto puede ser considerada como un «enorme programa de investigación» con una regla suprema como señaló Popper: Diseña conjeturas que tengan más contenido empírico que sus predecesoras.66 67
Terminología
Artículos principales: Verdad y Lenguaje formalizado.Los términos modelo, hipótesis, ley y teoría tienen en la ciencia un significado diferente al que se les da en el uso del lenguaje corriente o vulgar.
Los científicos utilizan el término modelo para referirse a una serie de propiedades como idealización de una correspondencia con lo real; tales propiedades específicas se utilizan para construir las hipótesis que permiten realizar predicciones que puedan ser sometidas a prueba por experimentación u observación. Por tanto los resultados de los experimentos corresponden al modelo como regularidades de donde se obtienen las leyes que hacen posible la generalización para predicciones futuras.
Una hipótesis es una proposición que se considera provisionalmente como verdadera en función de una experimentación que confirme o rechace las consecuencias que de tal verdad puedan derivarse conforme a una teoría.
El uso coloquial de la palabra teoría suele referirse a ideas que aún no tienen un respaldo experimental. En contraposición, los científicos generalmente utilizan el término para referirse a un cuerpo de leyes o principios a través de los cuales se realizan predicciones acerca de fenómenos específicos.
Las predicciones científicas pretenden tener un sentido de realidad, pero siempre se realizan sobre los supuestos que se han considerado en el modelo. Por ello siempre pueden existir variables ocultas que no se han tenido en cuenta.
Esto explica la falibilidad de la ciencia tanto en sus observaciones como en las leyes generales y teorías que produce frente a un pretendido justificacionismo a ultranza. Esto es de especial relevancia para las ciencias cuyos modelos son idealizaciones muy pobres con respecto a lo real.y Otro ejemplo es el caso de las predicciones meterológicas. Los modelos siempre suponen una idealización que no puede tener en cuenta todas las variables posibles, lo que no quita el valor a sus predicciones. Más complejo aún es cuando las predicciones se hacen sobre modelos sociales La ciencia avanza perfeccionando el conocimiento acerca de lo real y no estableciendo verdades definitivas.
Al mismo tiempo los lenguajes en los que se ha estructurado la noción de verdad y de los que habla la teoría de modelos son, por lo general, sistemas matemáticos. Las "cosas" representadas en dichos lenguajes son también sistemas matemáticos. Por esto, la teoría de modelos es una teoría semántica que pone en relación unos sistemas matemáticos con otros sistemas matemáticos. Dicha teoría nos proporciona algunas pistas con respecto a aquella semántica que pone en relación los lenguajes naturales con la realidad. Sin embargo, ha de tenerse siempre presente que no hay ningún sustituto matemático para los problemas genuinamente filosóficos. Y el problema de la verdad es un problema netamente filosófico.
Jesús Padilla Gálvez, op. cit. p. 229
Método científico
Artículos principales: Investigación científica y Método científico.- ada ciencia, y aun cada investigación concreta, genera su propio método de investigación. En general, se define como método el proceso mediante el cual una teoría científica es validada o bien descartada. La forma clásica del método de la ciencia ha sido la inducción (formalizada por Francis Bacon en la ciencia moderna) y justificada por el método "resolutivo-compositivo" de Galileo, interpretado como hipotético-deductivo.
Karl Popper, tras criticar la idea de que los experimentos verifican las teorías que los sustentan como justificadas, plantea el problema de la inducción como argumento lógicamente inválido, proponiendo la idea del progreso de la ciencia como falsación de teorías.
En todo caso, cualquiera de los métodos científicos utilizados requiere los siguientes criterios:
- La reproducibilidad, es decir, la capacidad de repetir un determinado experimento en cualquier lugar y por cualquier persona. Esto se basa, esencialmente, en la comunicación de los resultados obtenidos. En la actualidad éstos se publican generalmente en revistas científicas y revisadas por pares.
- La falsabilidad, es decir, la capacidad de una teoría de ser sometida a potenciales pruebas que la contradigan. Según este criterio, se distingue el ámbito de lo que es ciencia de cualquier otro conocimiento que no lo sea: es el denominado criterio de demarcación
- de Karl Popper. La corroboración experimental de una teoría científicamente "probada" -aun la más fundamental de ellas- se mantiene siempre abierta a escrutinio (ver falsacionismo).
- En las ciencias empíricas no es posible la verificación; no existe el "conocimiento perfecto", es decir, "probado". En las ciencias formales las deducciones lógicas odemostraciones matemáticas generan pruebas únicamente dentro del marco del sistema definido por ciertos axiomas y ciertas reglas de inferencia. Según el teorema de Gödel, no existe un sistema aritmético recursivo perfecto, que sea al mismo tiempo consistente, decidible y completo.
Existe una serie de pasos inherentes al proceso científico que, aunque no suelen seguirse en el orden aquí presentado, suelen ser respetados para la construcción y el desarrollo de nuevas teorías. Éstos son:
El modelo atómico de Bohr, un ejemplo de una idea que alguna vez fue aceptada y que, a través de laexperimentación, fue refutada.- Observación: registrar y examinar atentamente un fenómeno, generalmente dentro de una muestra específica, es decir, dentro de un conjunto previamente establecido de casos.
- Descripción: detallar los aspectos del fenómeno, proponiendo incluso nuevos términos al respecto.
- Hipótesis: plantear las hipótesis que expliquen lo observado en el fenómeno y las relaciones causales o las correlacionescorrespondientes.
- Experimentación: es el conjunto de operaciones o actividades destinadas, a través de situaciones generalmente arbitrarias y controladas, a descubrir, comprobar o demostrar las hipótesis.
- Demostración o refutación, a partir de los resultados de uno o más experimentos realizados, de las hipótesis propuestas inicialmente.
- Inducción: extraer el principio general implícito en los resultados observados.
- Comparación universal: el permanente contraste de hipótesis con la realidad.
La experimentación no es aplicable a todas las ramas de la ciencia; su exigencia no es necesaria por lo general en áreas del conocimiento como la vulcanología, la astronomía, la física teórica, etc. Sin embargo, la repetibilidad de la observación de los fenómenos naturales es un requisito fundamental de toda ciencia que establece las condiciones que, de producirse, harían falsa la teoría o hipótesis investigada (véase falsación).
Por otra parte, existen ciencias, especialmente en el caso de las ciencias humanas y sociales, donde los fenómenos no sólo no se pueden repetir controlada y artificialmente (que es en lo que consiste un experimento), sino que son, por su esencia, irrepetibles, por ejemplo, la historia.
Consenso científico y objetividad
Artículo principal: Consenso científicoEl consenso científico es el juicio colectivo que manifiesta la comunidad científica respecto a una determinada posición u opinión, en un campo particular de la ciencia y en determinado momento de la historia. El consenso científico no es, en sí mismo, un argumento científico, y no forma parte del método científico; sin embargo, el consenso existe por el hecho de que está basado en una materia objeto de estudio que sí presenta argumentos científicos o que sí utiliza el método científico.
El consenso suele lograrse a través del debate científico. La ética científica exige que las nuevas ideas, los hechos observados, las hipótesis, los experimentos y los descubrimientos se publiquen, justamente para garantizar la comunicación a través de conferencias, publicaciones (libros, revistas) y su revisión entre pares y, dado el caso, la controversia con los puntos de vista discrepantes. La reproducibilidad de los experimentos y la falsación de las teorías científicas son un requisito indispensable para la buena práctica científica.
El conocimiento científico adquiere el carácter de objetividad por medio de la "comunidad y sus instituciones", con independencia de los individuos. D. Bloor, siguiendo a Popper y su teoría del mundo 3, convierte simétricamente el reino de lo social en un reino sin súbditos individuales, en particular reduce el ámbito del conocimiento al estado del conocimiento en un momento dado, esto es, a las creencias aceptadas por la comunidad relevante, con independencia de los individuos en concreto. El conocimiento científico es únicamente adscrito a la "comunidad científica".
Pero esto no debe llevar a pensar que el conocimiento científico es independiente de un individuo concreto como algo autónomo. Lo que ocurre es que se encuentra "socialmente fijado" en documentos y publicaciones y está causalmente relacionado con los conocimientos de los individuos concretos que forman parte de la comunidad.68
Aplicaciones de la lógica y de las matemáticas en la ciencia
Artículos principales: Cálculo y Cálculo lógico.Principia Mathematica deIsaac Newton.La lógica y la matemática son esenciales para todas las ciencias por la capacidad de poder inferir con seguridad unas verdades a partir de otras establecidas; es lo que las hace recibir la denominación de ciencias exactas.
La función más importante de ambas es la creación de sistemas formales de inferencia y la concreción en la expresión de modelos científicos. La observación y colección de medidas, así como la creación de hipótesis y la predicción, requieren a menudo modelos lógico-matemáticos y el uso extensivo del cálculo; resulta especialmente relevante la creación de modelos científicos mediante el cálculo numérico, debido a las enormes posibilidades de cálculo que ofrecen los ordenadores.
Las ramas de la matemática más comúnmente empleadas en la ciencia incluyen el análisis matemático, el cálculo numérico y la estadística, aunque virtualmente toda rama de la matemática tiene aplicaciones en la ciencia, incluso áreas "puras" como la teoría de números y la topología.
El empirismo lógico llegó a postular que la ciencia venía a ser, en su unidad formal, una ciencia lógico-matemática capaz de interpretar adecuadamente la realidad del mundo. La utilidad de la matemática para describir el universo es un tema central de la filosofía de la matemática.
Divulgación científica
Artículo principal: Divulgación científicaLa divulgación científica tiene como objetivo hacer asequible el conocimiento científico a la sociedad más allá del mundo puramente académico. La divulgación puede referirse a los descubrimientos científicos del momento, como la determinación de la masa del neutrino, de teorías bien establecidas como la teoría de la evolución o de campos enteros del conocimiento científico. La divulgación científica es una tarea abordada por escritores, científicos, museos y periodistas de los medios de comunicación. La presencia tan activa y constante de la ciencia en los medios y viceversa ha hecho que se debata la conveniencia de utilizar la expresión «periodismo científico» en lugar de divulgación científica.[cita requerida]
Algunos científicos que han contribuido especialmente a la divulgación del conocimiento científico son: Jacob Bronowski (El ascenso del hombre), Carl Sagan (Cosmos: Un viaje personal), Stephen Hawking (Historia del tiempo), Richard Dawkins (El gen egoísta), Stephen Jay Gould, Martin Gardner (artículos de divulgación de las matemáticas en la revista Scientific American), David Attenborough (La vida en la tierra) y autores de ciencia ficción como Isaac Asimov. Otros científicos han realizado tareas de divulgación tanto en libros como en novelas de ciencia ficción, como Fred Hoyle. La mayor parte de las agencias o institutos científicos destacados en los Estados Unidos cuentan con un departamento de divulgación (Education and Outreach), si bien no es una situación común en la mayoría de los países. Muchos artistas, aunque la divulgación científica no sea su actividad formal, han realizado esta tarea a través de sus obras de arte: gran número de novelas y cuentos y otros tipos de obras de ficción narran historias directa o indirectamente relacionadas con descubrimientos científicos diversos, como las obras de Julio Verne.
Influencia en la sociedad
Dado el carácter universal de la ciencia, su influencia se extiende a todos los campos de la sociedad, desde el desarrollo tecnológico a los modernos problemas de tipo jurídicorelacionados con campos de la medicina o la genética. En ocasiones la investigación científica permite abordar temas de gran calado social como el Proyecto Genoma Humanoy grandes implicaciones éticas como el desarrollo del armamento nuclear, la clonación, la eutanasia y el uso de las células madre.
Asimismo, la investigación científica moderna requiere en ocasiones importantes inversiones en grandes instalaciones como grandes aceleradores de partículas (CERN), laexploración espacial o la investigación de la fusión nuclear en proyectos como ITER.
Véase también
- Portal:Ciencias naturales y formales. Contenido relacionado con Ciencias naturales y Ciencias formales.
- Portal:Ciencias humanas y sociales. Contenido relacionado con Ciencias humanas y Ciencias sociales.
- ciencias de la Tierra
- ciencia ficción
- científico
- ciencia popular
- cientificismo
- criterio de demarcación
- ley científica
- materialismo
- materialismo dialéctico
- objetividad
- Karl Popper
- lógica empírica
- positivismo
- protociencia
- pseudociencia
- Bertrand Russell
- tecnología
- MC-14, método científico en 14 etapas
- Fundamentos de las ciencias sociales
Notas
- Volver arriba↑ Véase trivium y quadrivium
- Volver arriba↑ La pólvora, la brújula, las técnicas de navegación y los descubrimientos geográficos, el nuevo arte de la guerra, la contabilidad en los negocios, las sociedades por acciones, etc.
- Volver arriba↑ Los axiomas de un sistema pueden ser teoremas de otro sistema y no tienen carácter de «verdad evidente» como suponía la lógica clásica
- Volver arriba↑ Siempre y cuando estos principios o axiomas considerados evidentes no se pongan en cuestión
- Volver arriba↑ Sobre todo en la recuperación del valor de lo individual, el valor cognitivo de laexperiencia y el rechazo al problema de los universales
- Volver arriba↑ Aunque su teoría sitúa al sol girando alrededor de la tierra junto con la luna, estableció la órbita de los planetas alrededor del sol, y por la exactitud en sus medidas y observaciones hizo posible la concepción de las leyes de Kepler
- Volver arriba↑ En Lógica empírica se expone sucintamente la forma del método seguido por Galileo en su estudio sobre "el movimiento de caída libre de los cuerpos"
- Volver arriba↑ Para la lógica intuicionista de Brouwer no podemos afirmar {\displaystyle A\lor \lnot A} como verdadero. Para ello tendríamos que tener fundamento para afirmar {\displaystyle A} o tener fundamentos para afirmar que nunca tendríamos fundamento para afirmar {\displaystyle \lnot A}. Pero puede ocurrir que no tengamos fundamento para afirmar lo uno ni lo otro y tal proposición no podría tener valor de verdad alguno, ni verdadero, ni falso, tal como ocurre con los conjuntos infinitos. Por eso el argumento {\displaystyle \lnot \lnot A\rightarrow A} no puede tomarse sin restricción. Nótese que si consideramos {\displaystyle A} = las vacas vuelan; y {\displaystyle \lnot \lnot A} = las ratas no son azules, podríamos considerar "las ratas no son azules" como una corroboración de "las vacas vuelan". Véase la entrada: Lógica intuicionista en Enciclopedia Oxford de Filosofía, op. cit.
- olver arriba↑ Proyecto históricamente intentado antes por Raimundo Lulio, e ideal señalado porDescartes y Leibniz y, ahora, dotado de un impresionante aparato «lógico-matemático» por el primer Wittgenstein del Tractatus logico-philosophicus, Bertrand Russell y los empiristas lógicos del Círculo de Viena
- Volver arriba↑ Se entiende como sistema lógico perfecto un sistema que fuera:
- consistente: Un sistema formal es consistente si es imposible demostrar una fórmula φ y también su negación ¬φ.
- decidible: Un sistema formal es decidible cuando existe un algoritmo tal que, dada una fórmula φ, el algoritmo es capaz de decidir en un número finito de pasos si la fórmula pertenece o no al sistema.
- completo: Un sistema formal es completo cuando dada cualquier fórmula φ del sistema, existe una demostración de φ o de ¬φ como teorema del mismo.
- Volver arriba↑ Véanse figuras al margen sobre el concepto de distancia. Evidente el primero en la conciencia empírica vulgar en el espacio de tres dimensiones y un tiempo constante y absoluto. Sin embargo el segundo concepto de distancia es necesario para las medidas astronómicas de enormes distancias y velocidades en un espacio de cuatro dimensiones en su relación con la «velocidad de la luz como constante c». La distancia nunca podrá estar fuera del "cono de luz", siendo c, la velocidad de la luz, una constante del universo
- Volver arriba↑ Relación de indeterminación de Heisenberg que permite considerar la relación causa-efecto como un proceso estocástico
- Volver arriba↑ Véase evidencia (filosofía)
- Volver arriba↑ La genialidad individual, en cualquier caso, acabará siendo financiada, desarrollada y gestionada como proyecto de forma colectiva
- Volver arriba↑ En 1827 Ampère escribió su Teoría matemática de los fenómenos electrodinámicos inequívocamente deducida de los experimentos, pero al final de la obra confiesa que algunos de los experimentos no se habían realizado porque ni siquiera había instrumentos capaces de poder comprobar la existencia de tales fenómenos. Lakatos. op. cit. p. 11
- Volver arriba↑ Teniendo en cuenta que la redondez, como tal, nunca es un «hecho observado», de no ser el caso de haber subido a un cohete espacial
- Volver arriba↑ Matemáticamente la aplicación de un procedimiento mensurativo cuantifica dichos datos y convierte en variables los conceptos por ellos referenciados, mientras que su relación adquiere la estructura de una función matemática. Los empiristas lógicos pensaron que la estructura afirmativa de las leyes solamente son esquemas meramente formales de funciones proposicionales que adquieren la forma de argumento al sustituir las variables por los contenidos conceptuales de la observación previamente medida. Eso hizo posible la pretensión de construcción de "el lenguaje Universal de la Ciencia" como "Proyecto Unificado".
- Volver arriba↑ El hecho de la flotación de un cuerpo en un fluido, se formularía: Si un cuerpo a se encuentra sumergido en un fluido, condición h, experimentará un empuje vertical hacia arriba igual al peso del volumen de fluido que desaloja. Lo que equivale a la explicacióncausal de que: Un cuerpo flota en el agua porque el peso del volumen del agua que desaloja, (el volumen que ocupa el cuerpo sumergido), es mayor que el peso de todo el cuerpo (explicación esencial); o «descripción del fenómeno» de cómo sucede la flotación de un cuerpo.
- Volver arriba↑ Incluso, añade Bunge, en el campo de la psicología y la sociología, fortalezas, en otro tiempo, de la vaguedad.
- Volver arriba↑ Esa estructura es objeto de otro tipo de teoría acerca de la electricidad: la teoría del campo eléctrico y la teoría del electrón
- Volver arriba↑ Mediante experimento crucial
- como el experimento Michelson-Morley 1887 que refutó la teoría del éter y condujo a la teoría de la relatividad. Lakatos. op. cit. p.97-98
- Volver arriba↑ El cambio del geocentrismo por el heliocentrismo, como cambio revolucionario
- Volver arriba↑ La elección de teorías comprehensivas, puede llegar a ser una cuestión de gusto. Feyerabend. op. cit. p. 134-135
- Volver arriba↑ Descubrimiento de la penicilina por Alexander Fleming
- Volver arriba↑ Es importante tener en cuenta la distinción técnica que hacen algunos filósofos entre lo real y la realidad, en el sentido de que "realidad" es lo real en tanto que "es conocido"; lo que viene a significar que conocer de alguna manera es hacer "realidad" lo "real"; pues de lo desconocido ni siquiera podemos saber que es lo real. Por esto la verdad científica actúa como postulado que dinamiza el progreso del conocimiento; no se trata de una verdad reconocida como tal de forma definitiva y eterna. La consideración del conocimiento como producto de un sistema complejo y evolutivo hace posible la aceptación del conocimiento como verdad objetiva con suficiente garantía de realidad.
Referencias
- Volver arriba↑ Tomado, con añadidos, de la definición de ciencia del Diccionario de la Real Academia Española.
- ↑ Saltar a:a b c Javier Gimeno Perelló. «De las clasificaciones ilustradas al paradigma de la transdisciplinariedad». El catoblepas. n.º 116. Id = ISSN 1579-3974
- olver arriba↑ Met. 980a-98b; Eth. Nic.Z, 3-8; Pol. A, 11
- ↑ Saltar a:a b Gran Enciclopedia Larousse
- Volver arriba↑ Hempel, Carl (1976 [1966]). Filosofía de la Ciencia Natural. Alianza. p. 138.
- Volver arriba↑ Velasco, Adriana Figueroa (1997). Conociendo a los grandes filosófos. Santiago: Universitaria. p. 198. ISBN 9789561113138. Consultado el 3 de febrero de 2015.
- Volver arriba↑ Álvarez, F. Javier (2006). Historia del pensamiento y cristianismo : filosofa contempornea. (1. ed. edición). [S.l.]: Andamio. ISBN 9788496551121. Consultado el 3 de febrero de 2015.
- Volver arriba↑ Auguste Comte. Filosofia. Vol. Ii: Antropologia, Psicologia Y Sociologia. Profesores de Enseñanza Secundaria. Temario Para la Preparacion de Oposiciones. Ebook. MAD-Eduforma. p. 351. ISBN 9788466505376. Consultado el 3 de febrero de 2015.
- Volver arriba↑ Ilya Prigogine e Isabelle Stengers. La nueva alianza: metamorfosis de la ciencia op. cit.
- Volver arriba↑ Alberto Cha Larrieu. Elementos de epistemología.(2002). Ed. Trilce. Montevideo
- Volver arriba↑ Ilya Prigogine (1996). El fin de las certidumbres. Andrés Bello. ISBN 9789561314306.
- Volver arriba↑ Ilya Prigogine (2011). El nacimiento del tiempo
- Buenos Aires, Fábula Tusquets editores. ISBN 978-987-670-087-0.
- ↑ Saltar a:a b c d e f g h Paul K. Feyerabend. Enciclopedia Oxford de Filosofía p. 166 y ss.
- Volver arriba↑ Fritjof Capra. La ciencia de Leonardo. Anagrama. Barcelona, 2008
- Volver arriba↑ Platón, Leyes, 892b2; República, 530a8 y ss.; 530b7 ss. Citados en Enciclopedia Oxford de Filosofía p.167
- Volver arriba↑ Met. 980a; De anima 418a4 ss.
- Volver arriba↑ Met. 980a-982b; Analytica posteriora 99b35
- Volver arriba↑ Enciclopedia Osford de Filosofía, op. cit. p. 167
- Volver arriba↑ Aristóteles:Metafísica, 982,b.11-32; 983b y ss.; 992a 25 y ss.; Γ, 1003b; Anal. post. A, 2
- Volver arriba↑ Ya que
y permiten el dominio de la naturaleza, obedeciéndola.los axiomas rectamente descubiertos y establecidos proporcionan usos prácticos, no limitadamente, sino en multitud, y traen tras de sí bandas y tropas de efectos
Bacon, citado en "Historia de la ciencia", op. cit. tomo II - Volver arriba↑
La filosofía está escrita en este gran libro continuamente abierto ante nuestros ojos, me refiero al universo, pero no se puede comprender si antes no se ha aprendido su lenguaje y nos hemos familiarizado con los caracteres en los que está escrito. Está escrito en lenguaje matemático, y los caracteres son triángulos, círculos y demás figuras geométricas, sin los cuales es humanamente imposible entender ni una sola palabra; sin ellos se da vueltas en vano por un oscuro laberinto.
Galileo. Il sagiattore. - Volver arriba↑ Historia de la Ciencia (4 tomos), tomo I, p.11 y ss.
- Volver arriba↑
Descartes estaba inequívocamente convencido de que si pudiera llegar al extremo de establecer la existencia de Dios, «en quien se esconde toda la sabiduría de la ciencia», podría luego proceder al establecimiento de una ciencia física sistemática que cubriera «la totalidad de esa naturaleza corpórea que es el tema de estudio de la matemática pura». (Meditación Quinta)
Enciclopedia Oxford de Filosofía, op. cit. p.256 - Volver arriba↑
- EFINICIÓN.- Por movimiento igual o uniforme entiendo aquel en el que los espacios recorridos por un móvil en tiempos iguales, cualesquiera que éstos sean (quibuscumque), son iguales entre sí. ADVERTENCIA.- Nos ha parecido oportuno añadir a la vieja definición (que habla simplemente del movimiento igual en cuanto que en tiempos iguales recorren espacios iguales) la expresión "cualesquiera", es decir, para todos los tiempos que sean iguales. En efecto, puede suceder que un móvil recorra espacios iguales en determinados tiempos iguales, mientras que distancias recorridas en fracciones de tiempo más pequeñas puedan no ser iguales, aunque lo sean dichos intervalos más pequeños. De la definición que acabamos de dar se siguen cuatro axiomas; a saber: AXIOMA I.- En el caso de uno y el mismo movimiento uniforme, el espacio recorrido en un tiempo mayor es mayor que el espacio recorrido durante un intervalo de tiempo menor. AXIOMA II.- En el caso de uno y el mismo movimiento uniforme, el tiempo durante el cual se recorre un espacio mayor es también mayor que el tiempo empleado para recorrer un espacio menor. AXIOMA III.- El espacio recorrido en un tiempo dado a mayor velocidad, es mayor que el espacio recorrido, en el mismo tiempo, a menor velocidad. AXIOMA IV.- La velocidad con la que se recorre en un tiempo dado un espacio mayor, es mayor, a su vez, que aquella con la que se recorre, en el mismo tiempo, un espacio menor.
- alileo, Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Editora Nacional, Madrid, 1976, pp. 266-268
- ↑ Saltar a:a b c Chalmers, Alan F. (1976). «Capítulo 1. El inductivismo: la ciencia como conocimiento derivado de los hechos de la experiencia». ¿Qué es esa cosa llamada ciencia? (5ª edición). Siglo Veintiuno. p. 26. Consultado el 6 de abril ed 2013.
- Volver arriba↑ Véase una breve exposición del problema en Padilla Gálvez, J. op. cit. p. 63
- Volver arriba↑ Joergen Joergensen. Enciclopedia Internacional de la Ciencia Unificada. Fasc. IX
- Volver arriba↑ Erwin Schrödinger'Schrödinger]]. op. cit. pp. 138 y ss.
- Volver arriba↑ Isabel Cabrera. Analítico y sintético. A priori y a posteriori; en Luis Villoro. El conocimiento. op. cit. p.135 y ss.
- Volver arriba↑ Lyotard, «La condición postmoderna: Informe sobre el saber» (La Condition postmoderne: Rapport sur le savoir 1979
- Volver arriba↑ Lyotard, op. cit.
- Volver arriba↑ Bachelard, op. cit.
- Volver arriba↑ Umberto Eco, "Interpretación y sobreinterpretación", op. cit.; respuesta final a modo de conclusión.
- Volver arriba↑ Daniel Quesada, op. cit.
- Volver arriba↑ Dancy, J. op. cit. p. 202 y ss.
- Volver arriba↑ Zubiri. Inteligencia y razón, p.258 y ss.
- Volver arriba↑ Bertrand Russell. op. cit. pp.173 y ss.
- Volver arriba↑ Putnam, op. cit.
- Volver arriba↑ Ferrater Mora, op. cit. entrada «conocer». Putnam. op. cit.
- Volver arriba↑ Imre Lakatos, op. cit.
- Volver arriba↑ Imre Lakatos. op. cit. p.230
- Volver arriba↑ Cfr. Kant, "Prolegómenos a toda metafísica futura que pueda presentarse como ciencia", donde confiesa que fue Hume quien le despertó del "sueño dogmático".
- Volver arriba↑ El problema de la inducción. Popper. op. cit.
- Volver arriba↑ Lakatos. op. cit. p.13
- Volver arriba↑ Geymonat. op. cit. p. 93-112. Lakatos. op. cit. p.14
- Volver arriba↑ Geymonat. op. cit. p. 93-112. Lakatos. op. cit. p.14
- Volver arriba↑ París, Carlos. Física y filosofía. p. 85
- Volver arriba↑ Carlos París. Ciencia y trasnformación social. p. 109
- Volver arriba↑ Russell. B. op. cit. pp.163 y ss.
- Volver arriba↑ B. Russell. La evolución.... op. cit. pp.169 y ss.
- Volver arriba↑ Newton, hypotheses non fingo; Lakatos. op. cit. p.249
- Volver arriba↑ Bunge. Teoría y realidad. op. cit. p. 15
- Volver arriba↑ Bunge. op. cit. p. 55
- Volver arriba↑ Sobre el problema de la estructura interna de las entidades percibidas, cfr. B. Russell, La evolución... op. cit. p. 173
- Volver arriba↑ Lakatos, op. cit. p. 20
- Volver arriba↑ Bunge. op. cit. p.46
- Volver arriba↑ Schrödinger. E. ¿Qué es una ley de la naturaleza?. 1962
- Volver arriba↑ Isabel Cabrera. Analítico y sintético, a priori y a posteriori. En Villoro. El conocimiento. op. cit. pp. 134 y ss
- Volver arriba↑ Geymonat, op. cit. p. 77
- Volver arriba↑ Lakatos. op. cit. p. 65 y ss.; Popper, op. cit. p. 25
- Volver arriba↑ Lakatos. op. cit. p.65
- Volver arriba↑ Dos ilustraciones, Prout y Bohr, en Lakatos, op. cit. pp. 72 y ss.
- Volver arriba↑ Inteligencia y razón, op cit. p.222
- Volver arriba↑ Newton o Einstein
- Volver arriba↑ Lakatos, op. cit. nota 155. p. 65
- Volver arriba↑ Citado en Lakatos. op. cit.
- Volver arriba↑ Bachelard: La filosofía del no
- Volver arriba↑ Villoro, L. (editor). El conocimiento. op. cit. Bustos, E. Objetividad. pp. 89 y ss.
Bibliografía
- Bachelard, G. (1973). La filosofía del no
- Buenos Aires. Amorrortu. ISBN 978-950-518-387-6.
- Bunge, M. (1975). Teoría y realidad
- Barcelona. Ariel. ISBN 84-344-0725-6.
- (1969). La ciencia: su método y su filosofía. Buenos Aires.
- (1980).
- Barcelona. Ariel. ISBN 84-344-8004-2.
- (1981).
- Barcelona. Ariel. ISBN 84-344-0828-7.
- Cassirer, E. El problema del conocimiento en la filosofía y en la ciencia modernas, México, FCE, 1979, 4 vols.
- Dancy, J. (1993). Introducción a la epistemología contemporánea
- Madrid, Tecnos. ISBN 978-84-309-4612-9.
- co, U. (Con la colaboración de Rorty, R., Culler, J. y Brooke-Rose, Ch.) (1997).
- Cambridge, University Press. ISBN 0-521-42554-9.
- Ferrater Mora, J. (1984). Diccionario de Filosofía (4 tomos)
- Barcelona. Alianza Diccionarios. ISBN 84-206-5299-7.
- Feyerabend, P. Como ser un buen empirista: defensa de la tolerancia en cuestiones epistemológicas
- Valencia. Universidad de Valencia. Revista Teorema 7. ISBN 84-600-0507-0.
- (1975).
- Barcelona. Ariel. ISBN 84-344-0735-3.
- (1990).
- Madrid. Cátedra. ISBN 84-376-0956-9.
- (1984).
- Madrid. Tecnos. ISBN 84-309-1071-9.
- Fried Schnitman, D., Prigogine, I., Morin, E. et al. (1994). Nuevos paradigmas, Cultura y Subjetividad
- Buenos Aires. Paidós. ISBN 950-12-7023-8.
- Geymonat, L. (1965). Filosofía y filosofía de la ciencia. Barcelona. Editorial Labor.
- Felip Cid (Director) (1977). Historia de la ciencia (4 tomos)
- Barcelona. Planeta. ISBN 978-84-320-0840-5 (obra completa).
- Honderich, T. (Editor) (2001). Enciclopedia Oxford de filosofía
- Madrid. Tecnos. ISBN 84-309-3699-8.
- Gran Enciclopedia Larousse (10 tomos + apéndices)
- Barcelona. Planeta. 1977. ISBN 978-84-320-2030-8 Obra completa.
- Hurtado, G. ¿SABER SIN VERDAD? OBJECIONES A UN ARGUMENTO DE VILLORO. CRÍTICA, Revista Hispanoamericana de Filosofía. Vol. 35, No. 103 (abril de 2003) pp. 121-134
- Thomas S. Kuhn (1990). La estructura de las revoluciones científicas
- México. Fondo de Cultura Económica. ISBN 84-375-0046-X.
- Lakatos, I. (1983). La metodología de los programas de investigación científica
- Madrid. Alianza Editorial. ISBN 84-206-2349-0.
- Lyotard, J.F. (1994). La condición postmoderna: informe sobre el saber
- Madrid, Cátedra. ISBN 84-376-0466-4.
- Ilya Prigogine e Isabelle Stengers (1983). La nueva alianza: metamorfosis de la ciencia
- Madrid. Alianza Universidad. ISBN 84-206-2368-7.
- Padilla Gálvez, J. (2007). Verdad y demostración
- Madrid. Palacio y Valdés. ISBN 978-84-96780-19-4.
- París, C. (1952). Física y filosofía: El problema de la relación entre ciencia física y filosofía de la naturaleza. Consejo Superior de Investigaciones Científicas. Universidad de Madrid.
- (1992).
- Universitat de Valencia. ISBN 84-370-0966-9.
- Popper (2004). La lógica de la investigación científica
- Madrid. Tecnos. ISBN 84-309-0711-4.
- (1984).
- Madrid. Tecnos. ISBN 84-309-1105-7.
- (2002).
- Tecnos. ISBN 84-309-0723-8.
- Putnam, H. (1988). Razón, verdad e historia
- Madrid. tecnos. ISBN 84-309-1577-X.
- (1994).
- Barcelona. Paidós. ISBN 84-7509-980-7.
- Putnam, H. Epistemology, methodology, and philosophy of science: essays in honour of Carl G. Hempel on the occasion of his 80 th. birthday. January 8th. 1985. Edited by W. K. Essler, H. Putnam and W. Stegmüller.
- Quesada, D. (1998). Saber, opinión y ciencia: Una introducción a la teoría del conocimiento clásica y contemporánea
- Barcelona. Ariel. ISBN 84-344-8746-2.
- Quine, W.V. (1998). Del estímulo a la ciencia
- Barcelona. Ariel. ISBN 84-344-8747-0.
- Russell, B. (1959). El conocimiento humano:su alcance y sus limitaciones. Madrid. Taurus.
- (1982).
- Madrid. Alianza Editorial. 84-206-1605-2.
- Schrödinger, E.. (1975). ¿Qué es una ley de la naturaleza?. México. Fondo de Cultura Económica.
- Villoro, J. (1982): Creer, saber, conocer
- Siglo XXI Editores, México DF, ISBN 968-23-1151-9.
- illoro, L. (Editor) (2009-2013).
- Ed. Trotta. CSIC. ISBN 978-84-87699-48-1 (0bra completa) ISBN 84-8164-358-0 (edición impresa) ISBN 978-84-9879-402-1 (edición digital).
Enlaces externos
- Wikilibros alberga un libro o manual sobre Ciencias.
- Wikinoticias tiene noticias relacionadas con Ciencia.
- Wikisource contiene obras originales de o sobre Declaración sobre la Ciencia y el Uso del Saber Científico.
- Wikcionario tiene definiciones y otra información sobre ciencia.
- Wikiversidad alberga proyectos de aprendizaje sobre Ciencias.
- Wikimedia Commons alberga contenido multimedia sobre Ciencia.
- Wikiquote alberga frases célebres de o sobre Ciencia.
- Scientific American
- La edición española de Scientific American: "Investigación y Ciencia"
- Ciencia
Menú de navegación
- No has iniciado sesión
- Discusión
- Contribuciones
- Crear una cuenta
- Acceder
- Artículo
- Discusión
- Leer
- Ver código
- Ver historial
- Portada
- Portal de la comunidad
- Actualidad
- Cambios recientes
- Páginas nuevas
- Página aleatoria
- Ayuda
- Donaciones
- Notificar un error
Imprimir/exportar
- Crear un libro
- Descargar como PDF
- Versión para imprimir
En otros proyectos
- Wikimedia Commons
- Wikiquote
Herramientas
- Lo que enlaza aquí
- Cambios en enlazadas
- Subir archivo
- Páginas especiales
- Enlace permanente
- Información de la página
- Elemento de Wikidata
- Citar esta página
Otros proyectos
- Wikilibros
- Wikinoticias
- Wikisource
- Wikcionario
- Wikiversidad
- Commons
- Wikiquote
En otros idiomas
- Afrikaans
- Alemannisch
- አማርኛ
- Aragonés
- Ænglisc
- العربية
- مصرى
- অসমীয়া
- Asturianu
- Aymar aru
- Azərbaycanca
- تۆرکجه
- Башҡортса
- Boarisch
- Žemaitėška
- Беларуская
- Беларуская (тарашкевіца)
- Български
- भोजपुरी
- Bislama
- Bahasa Banjar
- Bamanankan
- বাংলা
- བོད་ཡིག
- Brezhoneg
- Bosanski
- ᨅᨔ ᨕᨘᨁᨗ
- Буряад
- Català
- ìng-dĕ̤ng-ngṳ̄
- Нохчийн
- Cebuano
- کوردیی ناوەندی
- Qırımtatarca
- Čeština
- Kaszëbsczi
- Чӑвашла
- Cymraeg
- Dansk
- Deutsch
- Zazaki
- Ελληνικά
- English
- Esperanto
- Eesti
- Euskara
- Estremeñu
- فارسی
- Suomi
- Võro
- Français
- Nordfriisk
- Furlan
- Frysk
- Gaeilge
- 贛語
- Gàidhlig
- Galego
- Avañe'ẽ
- ગુજરાતી
- Gaelg
- Hausa
- 家語/Hak-kâ-ngî
- Hawaiʻi
- עברית
- हिन्दी
- Fiji Hindi
- Hrvatski
- Kreyòl ayisyen
- Magyar
- Հայերեն
- Interlingua
- Bahasa Indonesia
- Interlingue
- Igbo
- Ilokano
- Ido
- Íslenska
- Italiano
- 日本語
- Patois
- La .lojban.
- Basa Jawa
- ქართული
- Qaraqalpaqsha
- Kongo
- Қазақша
- ಕನ್ನಡ
- 한국어
- Къарачай-малкъар
- Kurdî
- Kernowek
- Кыргызча
- Latina
- Lëtzebuergesch
- Лезги
- Limburgs
- Lumbaart
- ລາວ
- Lietuvių
- Latviešu
- मैथिली
- Basa Banyumasan
- Malagasy
- Олык марий
- Māori
- Baso Minangkabau
- Македонски
- മലയാളം
- Монгол
- मराठी
- Bahasa Melayu
- Malti
- Mirandés
- မြန်မာဘာသာ
- Nāhuatl
- Plattdüütsch
- Nedersaksies
- नेपाली
- नेपाल भाषा
- Nederlands
- Norsk nynorsk
- Norsk bokmål
- Nouormand
- Sesotho sa Leboa
- Occitan
- Oromoo
- ଓଡ଼ିଆ
- Ирон
- ਪੰਜਾਬੀ
- Papiamentu
- Picard
- Norfuk / Pitkern
- Polski
- Piemontèis
- پنجابی
- پښتو
- Português
- Runa Simi
- Rumantsch
- Română
- Armãneashti
- Русский
- Русиньскый
- संस्कृतम्
- Саха тыла
- Sardu
- Sicilianu
- Scots
- سنڌي
- Srpskohrvatski / српскохрватски
- සිංහල
- Simple English
- Slovenčina
- Slovenščina
- Gagana Samoa
- Soomaaliga
- Shqip
- Српски / srpski
- Sranantongo
- SiSwati
- Sesotho
- Basa Sunda
- Svenska
- Kiswahili
- தமிழ்
- తెలుగు
- Тоҷикӣ
- ไทย
- Türkmençe
- Tagalog
- Türkçe
- Xitsonga
- Татарча/tatarça
- Українська
- اردو
- Oʻzbekcha/ўзбекча
- Tshivenda
- Vèneto
- Vepsän kel'
- Tiếng Việt
- West-Vlams
- Walon
- Winaray
- Wolof
- 吴语
- IsiXhosa
- ייִדיש
- Yorùbá
- Vahcuengh
- 中文
- 文言
- ân-lâm-gú
- 粵語
- Esta página fue modificada por última vez el 4 jun 2016 a las 07:47.
- El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0; podrían ser aplicables cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro. - Contacto
Desde los orígenes de la humanidad nuestra especie ha perseguido afanosamente el conocimiento, intentando catalogarlo y definirlo a través de conceptos claros y bien diferenciables entre sí. En la antigua Grecia, los estudiosos decidieron establecer un concepto que permitiera englobar los conocimientos, la ciencia.
Es necesario aclarar previamente que se llama conocimiento a un conjunto de información adquirida a través de la experiencia o de la introspección y que puede ser organizado sobre una estructura de hechos objetivos accesibles a distintos observadores. Se denomina ciencia a ese conjunto de técnicas y métodos que se utilizan para alcanzar tal conocimiento. El vocablo proviene del latín scientia y, justamente, significa conocimiento.
La aplicación sistemática de estos métodos genera nuevos conocimientos objetivos (científicos), que adquieren una forma específica. Primero se realiza una predicción la cual es puesta a prueba a través del método científico y sometida a la cuantificación. Por otra parte, estas predicciones de la ciencia pueden ubicarse dentro de una estructura gracias a la detección de reglas universales, que permiten describir cómo funciona un sistema. Estas mismas leyes universales son las que posibilitan saber de antemano cómo actuará el sistema en cuestión bajo determinadas circunstancias.
La ciencia puede dividirse en ciencia básica y ciencia aplicada (cuando se aplica el conocimiento científico a las necesidades humanas). Existen además otras clasificaciones de las ciencias, como las planteadas por el epistemólogo alemán Rudolf Carnap, quien las dividió en ciencias formales (no tienen contenido concreto, como la lógica y la matemática), ciencias naturales (su objeto de estudio es la naturaleza. Ejemplo: biología, química, geología) y ciencias sociales (se ocupan de aspectos de la cultura y la sociedad, como la historia, la economía y la psicología).
Aunque cada ciencia cuenta con su modalidad de investigación característica, los métodos científicos deben cumplir con varios requisitos, como reproducibilidad (la capacidad de repetir un experimento en cualquier lugar y por cualquier persona) y falsabilidad (una teoría debe poder ser situada frente a pruebas que logren contradecirla).
Los pasos propios del proceso científico son la observación (se toma una muestra), la descripción detallada, la inducción (cuando se extrae el principio general implícito de los resultados observados), la hipótesis (que explica los resultados y su relación causa-efecto), la experimentación controlada (para comprobar la hipótesis), la demostración o refutación de la hipótesis y, por último, la comparación universal (para contrastar la hipótesis con la realidad).
En las ciencias sociales, donde el valor pragmático reside en la comprensión de nuestra especie, algunas exigencias de este método no pueden aplicarse. Cabe aclarar que uno de los objetivos fundamentales de que las ciencias sociales existan es conseguir una mayor comprensión del ser humano, como individuo y como ser social.
Por eso, para realizar un estudio profundo del comportamiento humano fue necesario crear diferentes espacios científicos donde trabajar independientemente sobre cada tema, de este modo surgieron la psicología, antropología, la economía y la sociología, las cuales estudian el comportamiento dentro de un contexto cultural. Se trata de realizar una observación imparcial y juntar datos que ayuden a entender el asunto y sacar conclusiones lo más objetivas posible.
Una diferencia importante que es necesario mencionar es la que existe entre las ciencias exactas y las humanas, en las primeras cada vez que quiere repetirse un evento para realizar su comprobación se puede hacer a través del método hipotético-deductivo, sin embargo en las ciencias humanas es imposible repetir los fenómenos, porque los elementos que interfieren son sociales y temporales y no pueden suceder de manera idéntica jamás. Esto llevó a que las ciencias sociales desarrollaran un método diverso que es el método cualitativo, en el cual se recogen datos de un entorno y se comparan con otros tomados en otra circunstancia o en otro entorno, para conseguir llegar a una conclusión certera de estadísticas sociales y culturales de un pueblo o conjunto de individuos.
En antropología uno de los científicos que consiguió establecer un método de estudio fue Bronislaw Malinowski quien ideó el método de observación participante, a través del cual consiguió entender la forma en la que vivían los pueblos primitivos de las islas que se encuentran en Australia del norte. Este método aplicado a una comunidad de colonos nativos podría resumirse en los siguientes pasos:
*Escoger una comunidad autóctona.
*Juntar la mayor cantidad de información sobre la misma.
*Documentarse profundamente sobre ella.
*Realizar hipótesis acerca de la vida de estos colonos.
*Aprender a comunicarnos en su idioma.
*Organizar el trabajo en una estructura teórica-práctica para llevar a cabo la investigación.
*Analizar los aspectos cotidianos y los actos sociales (relaciones, actividades económicas, etc) con igual detenimiento.
*Establecer diferencias entre lo que hemos observado y la interpretación de ello.Según Herskovits para hacer un análisis antropológico es necesario observar lo más que podamos, participar en aquello en lo que los colonos nos permitan y discutir nuestras hipótesis y experiencias con todos los nativos que podamos. Así estaríamos poniendo en práctica el método de observación de Malinowski.
Además existen otros métodos que pueden ayudar a comprender los hechos sociales y el comportamiento de un pueblo, tales como el método estructural y metodologías específicas de acuerdo a cada rama de la ciencia.
Para terminar, sólo resta aclarar que la ciencia es la metodología que permite acercarse al conocimiento a través de la realización de una determinada cantidad de pasos. El conjunto de estos pasos se denomina método y, de acuerdo al tipo de conocimiento que se quiera llegar, será necesario utilizar uno u otro método, según corresponda
Este artículo trata sobre el sistema en el que están el Sol y la Tierra. Para otros sistemas, véanse sistema planetario y sistema estelar.Sistema solarEl Sol y los planetas del sistema solar. Los tamaños están a escala, pero no así las distancias.
Datos generales
Edad 4568 millones de años
Localización Nube Interestelar Local,Burbuja Local, Brazo de Orión, Vía Láctea
Estrella más cercana Próxima Centauri
(4,22 al).
Sistema planetarioconocido más cercano Alfa Centauri
(4,37 al).
Sistema Planetario
Semieje mayor al planeta exterior (Neptuno) 4500 millones de kilómetros (30,10 UA).
Distancia al acantilado de Kuiper 50 UA
Nº de estrellas conocidas 1 (Sol)
Nº de planetas conocidos 8
Nº conocido de planetas enanos 5 (docenas pendientes de aceptación).
Nº conocido de satélites naturales 400 (176 de los planetas).
Nº conocido de planetas menores 587 479
Nº conocido de cometas 3153
Nº de satélites asteroidales 19
Órbita alrededor del centro galáctico
Inclinación del plano invariable respecto alplano galáctico 60 °
Distancia al centro galáctico 27 000±1 000 al
Velocidad orbital 220 km/s
- eriodo orbital 225-250 Ma.
- sfera de Hill ~1-2 al
Propiedades de la estrella relacionada Tipo espectral G2V Línea de congelamiento 2,7 UA Distancia a la heliopausa ~120 UA [editar datos en Wikidata]
El sistema solar es el sistema planetario en el que se encuentran la Tierra y otros objetos astronómicos que giran directa o indirectamente en una órbita alrededor de una única estrella conocida como el Sol.1
La estrella concentra el 99,75 % de la masa del sistema solar,2 3 4 y la mayor parte de la masa restante se concentra en ocho planetas cuyas órbitas son prácticamente circulares y transitan dentro de un disco casi llano llamado plano eclíptico.5 Los cuatro más cercanos, considerablemente más pequeños Mercurio, Venus, Tierra y Marte, también conocidos como los planetas terrestres, están compuestos principalmente por roca y metal.6 7 Mientras que los cuatro más alejados, denominados gigantes gaseosos o "planetas jovianos", más masivos que los terrestres, están compuesto de hielo y gases. Los dos más grandes, Júpiter y Saturno, están compuestos principalmente de helio e hidrógeno. Uranoy Neptuno, denominados los gigantes helados, están formados mayoritariamente por agua congelada, amoniaco ymetano.8
Concepción artística de un disco protoplanetario.
El Sol es el único cuerpo celeste que emite luz propia,9 la cual es producida por la combustión de hidrógeno y su transformación en helio por la fusión nuclear.10 El sistema solar se formó hace unos 4600 millones de años11 12 13 a partir del colapso de una nube molecular. El material residual originó un disco circunestelar protoplanetario en el que ocurrieron los procesos físicos que llevaron a la formación de los planetas.9 El sistema solar se ubica en la actualidad en la nube Interestelar Local que se halla en la Burbuja Local del brazo de Orión, de la galaxia espiral Vía Láctea, a unos 28 000 años luz del centro de esta.14
Concepción artística del sistema solar y las órbitas de sus planetas.
El sistema solar es también el hogar de varias regiones compuestas por objetos pequeños. El cinturón de asteroides, ubicado entre Marte y Júpiter, es similar a los planetas terrestres ya que está constituido principalmente por roca y metal, en este se encuentra el planeta enano Ceres. Más allá de la órbita de Neptuno están el cinturón de Kuiper, eldisco disperso y la nube de Oort, que incluyen objetos transneptunianos formados por agua, amoníaco y metano principalmente. En este lugar existen cuatro planetas enanos Haumea, Makemake, Eris y Plutón, el cual fue considerado el noveno planeta del sistema solar hasta 2006. Este tipo de cuerpos celestes ubicados más allá de la órbita de Neptuno son también llamados plutoides, los cuales junto a Ceres, poseen el suficiente tamaño para que se hayan redondeado por efectos de su gravedad, pero que se diferencian principalmente de los planetas porque no han vaciado su órbita de cuerpos vecinos.15
Adicionalmente a los miles de objetos pequeños de estas dos zonas, algunas docenas de los cuales son candidatos a planetas enanos, existen otros grupos como cometas, centauros y polvo cósmico que viajan libremente entre regiones. Seis planetas y tres planetas enanos poseen satélites naturales. El viento solar, un flujo de plasma del Sol, crea una burbuja de viento estelar en el medio interestelar conocido como heliosfera, la que se extiende hasta el borde del disco disperso. La nube de Oort, de la cual se cree es la fuente de los cometas de período largo, es el límite del sistema solar y su borde está ubicado a un año luz desde el Sol.16
A principios del año 2016 se publicó un estudio según el cual puede existir un noveno planeta en el sistema Solar, al que dieron el nombre provisional de Phattie.17
Índice
[ocultar]
- 1Descubrimientos y exploración
- 2Características generales
- 2.1Distancias de los planetas
- 3Objetos del sistema solar
- 3.1Estrella central
- 3.2Planetas
- 3.2.1Características principales
- 3.3Planetas enanos
- 3.4Grandes satélites del sistema solar
- 3.5Cuerpos menores
- 4La dimensión astronómica de las distancias en el espacio
- 5Véase también
- 5.1Cuerpos del sistema solar
- 5.2Exploración espacial
- 5.3Vida en el sistema solar
- 6Referencias
- 7Bibliografía
- 8Enlaces externos
Descubrimientos y exploración
Véanse también: Anexo:Cronología del descubrimiento de los planetas del sistema solar y sus satélites naturales yExploración del sistema solar.Nicolás Copérnico
Algunas de las más antiguas civilizaciones concibieron al universo desde una perspectiva geocéntrica, como en Babilonia en donde su visión del mundo estuvo representada de esta forma.18 En Occidente, el griego presocrático Anaximandro declaró a la Tierra como centro del universo, imaginó a esta como un pilar en forma de tambor equilibrado en sus cuatro puntos más distantes lo que, en su opinión, le permitió tener estabilidad.19 Pitágoras y sus seguidores hablaron por primera vez del planeta como una esfera, basándose en la observación de los eclipses;20 y en el siglo IV a. C. Platón junto a su estudianteAristóteles escribieron textos del modelo geocéntrico de Anaximandro, fusionándolo con el esférico pitagórico. Pero fue el trabajo del astrónomo heleno Claudio Ptolomeo, especialmente su publicación llamada Almagesto expuesta en el siglo II de nuestra era, el cual sirvió durante un período de casi 1300 años como la norma en la cual se basaron tanto astrónomos europeos como islámicos.
Si bien el griego Aristarco presentó en el siglo siglo III a. C. a la teoría heliocéntrica y más adelante el matemático hindúAryabhata hizo lo mismo, ningún astrónomo desafió realmente el modelo geocéntrico hasta la llegada del polaco Nicolás Copérnico el cual causó una verdadera revolución en esta rama a nivel mundial,21 por lo cual es considerado el padre de la astronomíamoderna.22 Esto debido a que, a diferencia de sus antecesores, su obra consiguió una amplia difusión pese a que fue concebida para circular en privado; el papa Clemente VII pidió información de este texto en 1533 y Lutero en el año 1539 lo calificó de "astrólogo advenedizo que pretende probar que la Tierra es la que gira".23 La obra de Copérnico otorga dos movimientos a la tierra, uno de rotación en su propio eje cada 24 horas y uno de traslación alrededor del Sol cada año, con la particularidad de que este era circular y no elíptico como lo describimos hoy.
En el siglo XVII el trabajo de Copérnico fue impulsado por científicos como Galileo Galilei, quien ayudado con un nuevo invento, eltelescopio, descubre que alrededor de Júpiter rotan satélites naturales que afectaron en gran forma la concepción de la teoría geocéntrica ya que estos cuerpos celestes no orbitaban a la Tierra;24 25 lo que ocasionó un gran conflicto entre la iglesia y los científicos que impulsaban esta teoría, el cual culminó con el apresamiento y sentencia del tribunal de la inquisición a Galileo por herejía al estar su idea contrapuesta con el modelo clásico religioso.26 Su contemporáneo Johannes Kepler, a partir del estudio de la órbita circular intentó explicar la traslaciónplanetaria sin conseguir ningún resultado,27 por lo que reformuló sus teorías y publicó, en el año 1609, las hoy conocidas Leyes de Kepleren su obra Astronomia Nova, en la que establece una órbita elíptica la cual se confirmó cuando predijo satisfactoriamente el tránsito de Venus del año 1631.28 Junto a ellos el científico británico Isaac Newton formuló y dio una explicación al movimiento planetario mediante susleyes y el desarrollo del concepto de la gravedad.29
En el año 1704 se acuñó el término sistema solar.30 El científico británico Edmund Halley dedicó sus estudios principalmente al análisis de las órbitas de los cometas.31 32 El mejoramiento del telescopio durante este tiempo permitió a los científicos de todo el mundo descubrir nuevas características de los cuerpos celestes que existen.33 A mediados del siglo XX, el 12 de abril de 1961, el cosmonauta Yuri Gagarin se convirtió en el primer hombre en el espacio;34 la misión estadounidense Apolo 11 al mando de Neil Armstrongllega a la Luna. En la actualidad, el sistema solar se estudia con ayuda de telescopios terrestres, observatorios espaciales y misiones espaciales.
Características generales
El Sol.
Los planetas y los asteroides orbitan alrededor del Sol, aproximadamente en un mismo plano y siguiendo órbitas elípticas (en sentido antihorario, si se observasen desde el Polo Norte del Sol); aunque hay excepciones, como el cometa Halley, que gira en sentido horario.35 El plano en el que gira la Tierra alrededor del Sol se denomina plano de la eclíptica, y los demás planetas orbitan aproximadamente en el mismo plano. Aunque algunos objetos orbitan con un gran grado de inclinación respecto de este, como Plutón que posee una inclinación con respecto al eje de la eclíptica de 17º, así como una parte importante de los objetos del cinturón de Kuiper.36 37
Según sus características, los cuerpos que forman parte del sistema solar se clasifican como sigue:
- El Sol, una estrella de tipo espectral G2 que contiene más del 99,85 % de la masa del sistema. Con un diámetro de 1 400 000 km, se compone de un 75 % de hidrógeno, un 20 % de helio y 5 % de oxígeno, carbono, hierro y otros elementos.38
- Los planetas, divididos en planetas interiores (también llamados terrestres o telúricos) y planetas exteriores o gigantes. Entre estos últimos Júpiter y Saturno se denominan gigantes gaseosos, mientras que Urano y Neptuno suelen nombrarse gigantes helados. Todos los planetas gigantes tienen a su alrededor anillos.
- Los planetas enanos son cuerpos cuya masa les permite tener forma esférica, pero no es la suficiente como para haber atraído o expulsado a todos los cuerpos a su alrededor. Son: Plutón (hasta 2006 era considerado el noveno planeta del sistema solar39 ), Ceres, Makemake, Eris y Haumea.
- Los satélites son cuerpos mayores que orbitan los planetas; algunos son de gran tamaño, como la Luna, en la Tierra; Ganímedes, en Júpiter, o Titán, en Saturno.
- Los asteroides son cuerpos menores concentrados mayoritariamente en el cinturón de asteroides entre las órbitas de Marte y Júpiter, y otra más allá de Neptuno. Su escasa masa no les permite tener forma regular.
- Los objetos del cinturón de Kuiper son objetos helados exteriores en órbitas estables, los mayores de los cuales son Sedna y Quaoar.
- Los cometas son objetos helados pequeños provenientes de la nube de Oort.
El espacio interplanetario en torno al Sol contiene material disperso procedente de la evaporación de cometas y del escape de material proveniente de los diferentes cuerpos masivos. El polvo interplanetario (especie de polvo interestelar) está compuesto de partículas microscópicas sólidas. El gas interplanetario es un tenue flujo de gas y partículas cargadas que forman un plasma que es expulsado por el Sol en el viento solar. El límite exterior del sistema solar se define a través de la región de interacción entre el viento solar y el medio interestelar originado de la interacción con otras estrellas. La región de interacción entre ambos vientos se denomina heliopausa y determina los límites de influencia del Sol. La heliopausa puede encontrarse a unas 100 UA (15 000 millones de kilómetros del Sol).
Los sistemas planetarios detectados alrededor de otras estrellas parecen muy diferentes del sistema solar, si bien con los medios disponibles solo es posible detectar algunos planetas de gran masa en torno a otras estrellas. Por tanto, no parece posible determinar hasta qué punto el sistema solar es característico o atípico entre los sistemas planetarios del Universo.
Distancias de los planetas
Las órbitas de los planetas mayores se encuentran ordenadas a distancias del Sol crecientes, de modo que la distancia de cada planeta es aproximadamente el doble que la del planeta inmediatamente anterior, aunque esto no se ajusta a todos los planetas. Esta relación se expresa mediante la ley de Titius-Bode, una fórmula matemática aproximada que indica la distancia de un planeta al Sol, en Unidades Astronómicas (UA):
{\displaystyle a=0,4+0,3\times k\,\!} donde {\displaystyle k} = 0, 1, 2, 4, 8, 16, 32, 64, 128.
Donde la órbita de Mercurio se encuentra en k = 0 y semieje mayor 0,4 UA, la órbita de Marte es k = 4 a 1,6 UA, y Ceres (el mayor asteroide) es k = 8. En realidad las órbitas de Mercurio y Marte se encuentran en 0,38 y 1,52 UA. Esta ley no se ajusta a todos los planetas, por ejemplo Neptuno está mucho más cerca de lo que predice esta ley. No hay ninguna explicación de la ley de Titius-Bode y muchos científicos consideran que se trata tan solo de una coincidencia.40
Objetos del sistema solar
Los principales objetos del sistema solar son:
Sistema Solar
Planetas y planetas enanos Sol
- - Mercurio - Venus - Tierra - Marte -
Ceres
- - Júpiter - Saturno - Urano - Neptuno -
Plutón
- -
Haumea
- -
Makemake
- -
Eris
Satélite natural
- Terrestre - Marcianas -
Asteroidales
- - Jovianas - Saturnianas - Uranianas - Neptunianas -
Plutonianas
- -
Haumeanas
- -
Eridiana
Estrella central
El Sol.
El Sol es la estrella única y central del sistema solar; por tanto, es la estrella más cercana a la Tierra y el astro con mayor brillo aparente. Su presencia o su ausencia en el cielo terrestre determinan, respectivamente, el día y la noche. La energía radiada por el Sol es aprovechada por los seres fotosintéticos, que constituyen la base de la cadena trófica, y es por ello la principal fuente de energía de la vida. También aporta la energía que mantiene en funcionamiento los procesos climáticos. El Sol es una estrella que se encuentra en la fase denominada secuencia principal, con un tipo espectral G2, que se formó hace unos 5000 millones de años, y permanecerá en la secuencia principal aproximadamente otros 5000 millones de años.
A pesar de ser una estrella mediana, es la única cuya forma circular se puede apreciar a simple vista, con un diámetro angular de 32' 35" de arco en el perihelio y 31' 31" en el afelio, lo que da un diámetro medio de 32' 03". Casualmente, la combinación de tamaños y distancias del Sol y la Luna respecto a la Tierra, hace que se vean aproximadamente con el mismo tamaño aparente en el cielo. Esto permite una amplia gama de eclipses solares distintos (totales, anulares o parciales).
Se han descubierto sistemas planetarios que tienen más de una estrella central (sistema estelar).
Planetas
Los ocho planetas que componen el sistema solar son, de menor a mayor distancia respecto al Sol, los siguientes:
- Mercurio
- Venus
- Tierra
- Marte
- Júpiter
- Saturno
- Urano
- Neptuno
Los planetas son cuerpos que giran formando órbitas alrededor de la estrella, tienen suficiente masa para que su gravedad supere las fuerzas del cuerpo rígido, de manera que asuman una forma en equilibrio hidrostático (prácticamente esférica), y han limpiado la vecindad de su órbita de planetesimales (dominancia orbital).
Los planetas interiores son Mercurio, Venus, la Tierra y Marte y tienen la superficie sólida. Los planetas exteriores son Júpiter, Saturno, Urano y Neptuno, también se denominan planetas gaseosos porque contienen en sus atmósferas gases como el helio, el hidrógeno y el metano, y no se conoce con certeza la estructura de su superficie.
El 24 de agosto de 2006, la Unión Astronómica Internacional (UAI) excluyó a Plutón como planeta del sistema solar, y lo clasificó como planeta enano.
A principios del año 2016 se publicó un estudio según el cual puede existir un noveno planeta en el sistema Solar, al que dieron el nombre provisional de Phattie. Dicho estudio se centró en la explicación de las órbitas de muchos de los objetos en el cinturón de Kuiper, que difieren mucho con las órbitas que se calculan, incluidos objetos muy conocidos Sedna. Por tanto se surgió originalmente la idea de la existencia de un objeto no conocido perturbando dichas órbitas. Utilizando modelos matemáticos se realizaron simulaciones en computadora, y se determinó que el posible planeta tendría una órbita excéntrica a una distancia de unas entre 700 y 200 UA del Sol, y tardaría unos diez o veinte mil años en dar una vuelta.17 41 42
Características principales
Artículo principal: Anexo:Datos de los planetas del sistema solar
Las principales características de los planetas del sistema solar son:
Planeta Símb. Diámetro ecuatorial* Diámetro ecuatorial (km). Masa* Radio orbital (UA). Periodo orbital(años). Periodo de rotación (días). Incl.** Sat.*** Composición de la atmósfera Imagen
Mercurio 0,39 4878 0,06 0,39 0,24 58,6 7º 0 Trazas de hidrógeno y helio
Venus 0,95 12100 0,82 0,72 0,615 243 3,4° 0 96 % CO2, 3 % nitrógeno,0.1 % agua
Tierra 1,00 12756 1,00 1,00 1,00 1,00 0º 1 78 % nitrógeno, 21 % oxígeno, 1 % argón
Marte 0,53 6787 0,11 1,52 1,88 1,03 1,9º 2 95 % CO2, 1.6 % argón, 3 % nitrógeno
Júpiter 11,2 142984 318 5,20 11,86 0,414 1,3º 63 90 % hidrógeno, 10 % helio, trazas de metano
Saturno 9,41 120536 95 9,54 29,46 0,426 2,5º 61 96 % hidrógeno, 3 % helio, 0.5 % metano
Urano 3,98 51108 14,6 19,19 84,01 0,718 0,8º 27 84 % hidrógeno, 14 % helio, 2 % metano
Neptuno 3,81 49538 17,2 30,06 164,79 0,6745 1,8º 13 74 % hidrógeno, 25 % helio, 1 % metano
* El diámetro y masa se expresan en relación a la Tierra ** Inclinación de órbita (en relación con la eclíptica) *** Satélites naturales
Planetas enanos
Los cinco planetas enanos del sistema solar, de menor a mayor distancia respecto al Sol, son los siguientes:
- Ceres
- Plutón
- Haumea
- Makemake
- Eris
Los planetas enanos son aquellos que, a diferencia de los planetas, no han limpiado la vecindad de su órbita.
Poco después de su descubrimiento en 1930, Plutón fue clasificado como un planeta por la Unión Astronómica Internacional (UAI). Sin embargo, tras el descubrimiento de otros grandes cuerpos con posterioridad, se abrió un debate con objeto de reconsiderar dicha decisión. El 24 de agosto de 2006, en la XXVI Asamblea General de la UAI en Praga, se decidió que el número de planetas no se ampliase a doce, sino que debía reducirse de nueve a ocho, y se creó entonces la nueva categoría de planeta enano, en la que se clasificaría Plutón, que dejó por tanto de ser considerado planeta debido a que, por tratarse de un objeto transneptuniano perteneciente al cinturón de Kuiper, no ha limpiado la vecindad de su órbita de objetos pequeños.
Planeta enano Diámetro medio* Diámetro (km). Masa* Radio orbital (UA). Periodo orbital (años). Periodo de rotación (días). Satélites naturales Imagen
Ceres 0,074 952,4 0,00016 2,766 4,599 0,3781 0
- lutón 0,22 2370 0,0021 39,482 247,92 -6,3872 5
Haumea 0,09 0,0007 43,335 285,4 0,167 2 Makemake 0,12 0,0007 45,792 309,9 ? 0 Eris 0,19 2326 0,0028 67,668 557 ? 1
* El diámetro y masa se expresan aquí tomando como referencia los datos de la Tierra.
Grandes satélites del sistema solar
Algunos satélites del sistema solar son tan grandes que, si se encontraran orbitando directamente alrededor del Sol, se clasificarían como planetas o como planetas enanos; por orbitar a los planetas principales, estos cuerpos pueden denominarse «planetas secundarios». El siguiente listado recoge los satélites del sistema solar que mantienen unequilibrio hidrostático:
Satélite Planeta Diámetro (km). Período orbital Imagen
Luna Tierra 3476 27d 7h 43,7m
Ío Júpiter 3643 1d 18h 27,6m
Europa Júpiter 3122 3,551181 d
Ganímedes Júpiter 5262 7d 3h 42,6m
Calisto Júpiter 4821 16,6890184 d
Titán Saturno 5162 15d 22h 41m
Tetis Saturno 1062 1,888 d
Dione Saturno 1118 2,736915 d
Rea Saturno 1529 4,518 d
Jápeto Saturno 1436 79d 19h 17m
Mimas Saturno 416 22 h 37 min
Encélado Saturno 499 32 h 53 m
Miranda Urano 472 1,413 d
Ariel Urano 1162 2,52 d
Umbriel Urano 1172 4,144 d
Titania Urano 1577 8,706 d
Oberón Urano 1523 13,46 d
- ritón Neptuno 2707 -5877 d
Caronte Plutón 1207 6,387 230 d
Cuerpos menores
Planetas menores o planetoides.
Los cuerpos menores del sistema solar están agrupados en:
- Cinturón de asteroides
Véase también: Tabla de asteroides
- Objetos transneptunianos y Cinturón de Kuiper
- Nube de Oort
Véase también: Cometa
Un cuerpo menor del sistema solar (CMSS o del inglés SSSB, small Solar System body) es, según la resolución de la UAI (Unión Astronómica Internacional) del 22 de agosto de 2006, un cuerpo celeste que orbita en torno al Sol y que no es planeta, ni planeta enano, ni satélite:
Recreación artística del nacimiento del Sistema Solar (NASA)
Todos los otros objetos [referido a los que no sean ni planetas ni planetas enanos ni satélites], y que orbitan alrededor del Sol, se deben denominar colectivamente "cuerpos menores del sistema solar" (Small Solar-System Bodies).
Estos actualmente incluyen la mayoría de los asteroides del sistema solar, la mayoría de los objetos transneptunianos (OTN), cometas, y otros pequeños cuerpos.43
Por consiguiente, según la definición de la UAI, son cuerpos menores del Sistema Solar, independientemente de su órbita y composición:
- Los asteroides.
- Los cometas.
- Los meteoroides.
Según las definiciones de planeta y de planeta enano, que atienden a la esfericidad del objeto debido a su gran masa, se puede definir como «cuerpo menor del sistema solar», por exclusión, a todo cuerpo celeste que, sin ser un satélite, no haya alcanzado suficiente tamaño o masa como para adoptar una forma esencialmente esférica.
Según algunas estimaciones, la masa requerida para alcanzar la condición de esfericidad se situaría en torno a los 5 x 1020 kg, resultando el diámetro mínimo en torno a los 800 km. Sin embargo, características como la composición química, la temperatura, la densidad o la rotación de los objetos pueden variar notablemente los tamaños mínimos requeridos, por lo que se rechazó asignar valores apriorísticos a la definición, dejando la resolución individual de cada caso a la observación directa.44
Según la UAI, algunos de los cuerpos menores del sistema solar más grandes podrían reclasificarse en el futuro como planetas enanos, tras un examen para determinar si están en equilibrio hidrostático, es decir: si son suficientemente grandes para que su gravedad venza las fuerzas del sólido rígido hasta haber adoptado una forma esencialmente esférica.45
Exceptuando los objetos transneptunianos, los cuerpos menores del sistema solar de mayor tamaño son Vesta y Palas, con algo más de 500 km de diámetro.
Planetas menores Diámetro ecuatorial (km). Masa (M⊕). Radio orbital (UA). Periodo orbital (años). Periodo de rotación (días). Imagen
Vesta 578×560×458 0,000 23 2,36 3,63 0,2226
- rcus 840 - 1880 0,000 10 - 0,001 17 39,47 248 ?
- xion ~822 0,000 10 - 0,000 21 39,49 248 ?
- aruna 900 - 1060 0,000 05 - 0,000 33 43,129 283 0,132 o 0,264
- uaoar 1280 0,000 17 - 0,000 44 43,376 285 ?
- 007 OR10 1280 - 67,21 550 ?
- edna 1180 - 1800 0,000 14 - 0,001 02 502,040 11500 20
2002 UX25 910 0,000 123 42,9 277 ? 2002 TX300 900 ? 43,102 283 ? 1996 TO66 902 ? ? 43,2 285 7,92 2002 AW197 734 ? 47,0 325 8,86 2002 TC302 1200 0,003 98 55,535 413,86 ?
La dimensión astronómica de las distancias en el espacio
Arriba a la izquierda: 1) Sistema solar interior: desde el Sol hasta elcinturón de asteroides. 2) A la derecha: sistema solar exterior: desdeJúpiter hasta el cinturón de Kuiper. 3) Abajo a la derecha: la órbita del planeta menor Sedna en comparación con la imagen de la izquierda, lanube de Oort, límite exterior del sistema solar.
Para tener una noción de la dimensión astronómica de las distancias en el espacio, es interesante hacer un modelo a escala que permita tener una percepción más clara del mismo. Imagínese un modelo reducido en el que el Sol esté representado por una pelota de 220 mm de diámetro. A esa escala, la Tierra estaría a 23,6 m de distancia y sería una esfera con apenas 2 mm de diámetro (la Luna estaría a unos 5 cm de la tierra y tendría un diámetro de unos 0,5 mm). Júpiter y Saturno serían bolitas con cerca de 2 cm de diámetro, a 123 y a 226 m del Sol, respectivamente. Plutón estaría a 931 m del Sol, con cerca de 0,3 mm de diámetro. En cuanto a la estrella más próxima (Próxima Centauri), estaría a 6 332 km del Sol, y la estrellaSirio, a 13 150 km.
Si se tardase 1 h y cuarto en ir de la Tierra a la Luna (a unos 257 000 km/h), se tardaría unas tres semanas (terrestres) en ir de la Tierra al Sol, unos 3 meses en ir a Júpiter, 7 meses a Saturno y unos dos años y medio en llegar a Plutón y abandonar el sistema solar. A partir de ahí, a esa velocidad, sería necesario esperar unos 17 600 años hasta llegar a la estrella más próxima, y 35 000 años hasta llegar a Sirio.
Una escala comparativa más exacta puede tenerse si se compara el Sol con un disco compacto de 12 cm de diámetro. A esta escala, la Tierra tendría poco más de un milímetro de diámetro (1,1 mm). El Sol estaría a 6,44 metros. El diámetro de la estrella más grande del Universo conocido, VY Canis Majoris, sería de 264 metros (imagínese esa enorme estrella de casi tres manzanas de casas de tamaño, en comparación con nuestra estrella de 12 cm). La órbita externa de Eris se alejaría a 625,48 metros del Sol. Allí nos espera un gran vacío hasta la estrella más cercana, Próxima Centauri, a 1645,6 km de distancia. A partir de allí, las distancias galácticas exceden el tamaño de la Tierra (aún utilizando la misma escala). Con un Sol del tamaño de un disco compacto, el centro de la galaxia estaría a casi 11 millones de kilómetros y el diámetro de la Vía Láctea sería de casi 39 millones de kilómetros. Habría un enorme vacío, pues la galaxia Andrómeda estaría a 1028 millones de kilómetros, casi la distancia real entre el Sol y Saturno.46
Véase también
- Portal:Sistema Solar. Contenido relacionado con Sistema Solar.
- Portal:Cosmología. Contenido relacionado con Cosmología.
Cuerpos del sistema solar
- Asteroide
- Meteoroide
- Cometa
- Definición de planeta
- Planeta
- Planeta enano
- Sol
- Anexo:Datos de los planetas del sistema solar
Exploración espacial
- Agencia Espacial
- Exploración del sistema solar
- Vuelo espacial
- Lista de sondas interplanetarias estadounidenses
- Anexo:Objetos creados por el hombre que más se han alejado de la Tierra
- Anexo:Cronología del descubrimiento de los planetas del sistema solar y sus satélites naturales
- Anexo:Misiones espaciales
Vida en el sistema solar
- Astrobiología
- Ecosfera
- Zona de habitabilidad
Referencias
- Volver arriba↑ NASA (2012). «¿Por qué giran los planetas alrededor del sol?». Consultado el 01 de agosto de 2014.
- Volver arriba↑ Michael Woolfson (2001). «The origin and evolution of the solar system» (en inglés). Consultado el 31 de julio de 2014.
- Volver arriba↑ Jorge Ianiszewski Rojas (2011). «Curso de astronomía básica» (PDF). Consultado el 31 de julio de 2014.
- Volver arriba↑ Calvin J. Hamilton (2000). «El Sistema Solar». Consultado el 01 de agosto de 2014.
- Volver arriba↑ M Olmo R Nave (2000). «Plano Eclíptico». Consultado el 01 de agosto de 2014.
- Volver arriba↑ Alejandra León Castellá (2006). «Los elementos en el sistema solar». Consultado el 31 de agosto de 2014.
- Volver arriba↑ Universidad Politécnica de Valencia (2000). «El Sistema Solar». Archivado desde el original el 28 de noviembre de 2015. Consultado el 01 de agosto de 2014.
- Volver arriba↑ Ross Taylor, Stuart (1998). Nuestro Sistema Solar y su lugar en el cosmos (1 edición). Cambridge Press. p. 85. ISBN 84 8323 110 7. Consultado el 31 de julio de 2014.
- ↑ Saltar a:a b Astronomía.com (2011). «Planetas del sistema solar». Consultado el 31 de julio de 2014.
- Volver arriba↑ Science in Shool (2006). «Fusión en el Universo: la energía del Sol». Consultado el 31 de julio de 2014.
- Volver arriba↑ EFE (2010). «El Sistema Solar se originó dos millones de años antes de lo que se creía». Consultado el 30 de julio de 2014.
- Volver arriba↑ Europa Press (2014). «La Luna es 100 millones de años más joven de lo que se creía». Consultado el 01 de agosto de 2014.
- Volver arriba↑ BBC Mundo (2013). «La Luna es 100 millones de años más joven de lo que se estimaba». Consultado el 01 de agosto de 2014.
- Volver arriba↑ Cielo Sur (2010). «Un recorrido por nuestro Sistema Solar». Consultado el 1 de agosto de 2014.
- Volver arriba↑ Últimas noticias del cosmos (2008). «Los planetas enanos serán plutoides». Consultado el 01 de agosto de 2014.
- Volver arriba↑ AstronoMia (2012). «La nube de Oort». Consultado el 01 de agosto de 2014.
- ↑ Saltar a:a b Ángela Bernardo (20 de enero de 2016). «Primeras evidencias de Phattie, el posible noveno planeta del Sistema Solar». Consultado el 24 de febrero de 2016.
- Volver arriba↑ Sellés, Manuel; Solís, Carlos (2005). Historia de la Ciencia
- Pozuelo de Alarcón: Espasa. p. 36. ISBN 84-670-1741-4.
- Volver arriba↑ Ochoa, Cesar Gonzales (2004). Universidad Nacional Autónoma de México, ed. La polis: Ensayo sobre el concepto de ciudad en Grecia antigua
- (Primera edición). Ciudad de México: IIFL. pp. 42-43. ISBN 970-32-2042-8. «En este esfuerzo de Anaximandro por sistematizar resultados anteriores y por dar a la tierra una representación conforme a los principios de la razón hay una gran audacia: para él la tierra es un pilar en forma de tambor, lo cual define un mapa circular. Está rodeada por el río Océano. Su superficie está construida de acuerdo con dos ejes perpendiculares: el paralelo, que corresponde al futuro paralelo Gibraltar-Rodas de los geógrafos helenísticos y que corta en dos Anatolia, Grecia y Sicilia; el otro es el meridiano de Delfos. En este mapa se distingue un rectángulo que encierra las regiones habitadas; fuera de él están las tierras que el frío y el calor extremo hacen inhabitables; el disco está rodeado por el Océano. Los cuatro lados del rectángulo son los dominios de los pueblos a los que la tradición atribuye las regiones más distantes: celtas e indios; escitas y etíopes, que se corresponden simétricamente. Sobre esa superficie está inscrito el mundo habitado sobre una cuadrícula y, a pesar del aparente desorden, las tierras, los mares, los ríos, aparecen en el mapa agrupados y distribuidos según relaciones rigurosas de correspondencia y simetría.
- Volver arriba↑ Reyes, Alfonso (2000). Fondo de cultura económica, ed. Estudios Helénicos
- (Segunda edición). México D.F.: FCC. p. 75. ISBN 968-16-1035-0. «El primero que imaginó ya la Tierra como una esfera fue Pitágoras[...]Fue el primero que llamó al Universo "esfera" y "cosmos" u orbe ordenado, y que puso en el centro a la Tierra esférica.»
- Volver arriba↑ J. Spielvogel, Jackson (2004). «Hacia un cielo y una tierra nuevos: La Revolución Científica y el surgimiento de la ciencia moderna». En Thomson learning inc.civilizaciones de occidente volumen B.
- (quinta edición). México D.F.: Thomson. p. 444.ISBN 0-534-60006-9.
- Volver arriba↑ Asociación amigos de la astronomía (2011). «La astronomía moderna». Archivado desde el original el 28 de noviembre de 2015. Consultado el 30 de septiembre de 2012.
- Volver arriba↑ Elena, Alberto (1995). «La revolución astronómica». Historia de la Ciencia y de la técnica; Tomo XII La revolución astronómica.
- (primera edición). Madrid, España: Akal. p. 10. ISBN 84-460-0380-5.
- Volver arriba↑ Biografías y Vidas (2012). «Galileo Galilei». Consultado el 30 de septiembre de 2012.
- Volver arriba↑ Torres Rivera, Lina M. (2004). «Ciencias Sociales y otras formas de conocimiento». En Cengage Learning Editores. Ciencias sociales: Sociedad y cultura contemporáneas
- (tercera edición). Thomson. pp. 60-61. ISBN 97-068-6433-4.
- Volver arriba↑ Russell, Bertrand (1988). «Ejemplos de métodos científicos». En Ercilla. El panorama de la ciencia (primera edición). pp. 11-12.
- Volver arriba↑ Malet, Antoni (2004). «Estética y geometría en la astronomía del renacimiento». En Universidad de Sevilla. Matemáticas y matemáticos
- (primera edición). Sevilla, España. pp. 72-76. ISBN 84-472-0810-9.
- Volver arriba↑ Giancoli, C. Douglas (2007). «Movimiento circular y gravitación». En Pearson Educación. Física: Principios con aplicaciones
- (sexta edición). México D.F. pp. 125-126.ISBN 970-26-0695-0.
- Volver arriba↑ Biografías y Vidas (2012). «Isaaac Newton, su obra». Consultado el 1 de octubre de 2012.
- Volver arriba↑ Online Etymology Dictionary (2012). «Definición de solar» (en inglés). Consultado el 1 de octubre de 2012.
- Volver arriba↑ Dept. Physics & Astronomy University of Tennessee (2012). «Comet Halley» (en inglés). Consultado el 1 de octubre de 2012.
- Volver arriba↑ Icarito (2012). «Los cometas». Consultado el 1 de octubre de 2012.
- Volver arriba↑ Giancoli, C. Douglas (2007). «Lente de aumento». En Pearson Educación. Física: Principios con aplicaciones
- (sexta edición). México D.F. p. 706. ISBN 970-26-0695-0.
- Volver arriba↑ Fayerwayer (2011). «50 años del primer hombre en el espacio: Historia, datos y video». Consultado el 1 de octubre de 2012.
- Volver arriba↑ Grossman, Lisa (13 de agosto de 2009). «Planet found orbiting its star backwards for first time». NewScientist. Consultado el 10 de octubre de 2009.
- Volver arriba↑ Harold F. Levison, Alessandro Morbidelli (2003). «The formation of the Kuiper belt by the outward transport of bodies during Neptune's migration» (PDF). Consultado el 25 de junio de 2007.
- olver arriba↑ Harold F. Levison, Martin J Duncan (1997). «From the Kuiper Belt to Jupiter-Family Comets: The Spatial Distribution of Ecliptic Comets».
- (1): 13-32.Bibcode:1997Icar..127...13L. doi:10.1006/icar.1996.5637.
- Volver arriba↑ M Woolfson (2000). «The origin and evolution of the solar system». Astronomy & Geophysics 41 (1): 1.12. doi:10.1046/j.1468-4004.2000.00012.x.
- Volver arriba↑ «Plutón deja ser considerado planeta tras el acuerdo de la comunidad astronómica internacional». Consultado el 22 de marzo de 2012.
- Volver arriba↑ «Dawn: A Journey to the Beginning of the Solar System». Space Physics Center: UCLA. 2005. Archivado desde el original el 24 de mayo de 2012. Consultado el 3 de noviembre de 2007.
- Volver arriba↑ Daniel Marín (20 de enero de 2016). «Estrechando el cerco alrededor del Planeta X (no, no se ha descubierto un noveno planeta del sistema solar)». Blog Eureka. Consultado el 24 de febrero de 2016.
- Volver arriba↑ Daniel Marín (22 de enero de 2016). «Detectando el noveno planeta con la sonda Cassini». Blog Eureka. Consultado el 24 de febrero de 2016.
- Volver arriba↑ Resoluciones de la Asamblea General del 2006 de la UAI
- Volver arriba↑ UAI (2006). «The IAU draft definition of "planet" and "plutons"» (en inglés). Consultado el 5 de agosto de 2011.
- Volver arriba↑ UAI (2006). «Definition of a Planet in the Solar Syste» (PDF) (en inglés). Consultado el 5 de agosto de 2011.
- olver arriba↑ Larry McNish: The RASC Calgary Centre - How Fast Are We Moving?. Actualización: 2013-01-29. Consultada: 2013-08-29. [1]
Bibliografía
- Beatty, J. K.; Collins Petersen, C., y Chaikin, A. (1999). The New Solar System
- Cambridge University Press. Sky Publishing Corporation. ISBN 0-933346-86-7
Enlaces externos
- Wikiquote alberga frases célebres de o sobre Sistema solar.
- Wikimedia Commons alberga contenido multimedia sobre Sistema solar.
Sitios web con información general
- Proyecto Celestia Archivo Flash educativo sobre el Sistema Solar
- Planetas del Sistema Solar Información, fotos y vídeos de los planetas del Sistema Solar
- Astroseti, página divulgativa de astronomía, astrobiología y exploración espacial
- Vistas del Sistema Solar
- Sistema Solar
- Nine Planets (en inglés) y Los Nueve Planetas (en español)
- NASA Planetary Photojournal (imágenes del sistema solar obtenidas en misiones espaciales).
- Astronomía (página de astronomía sobre el origen del Sistema Solar).
- Representación del sistema solar pixel a pixel
- Datos e imágenes de los objetos del Sistema Solar
Programas informáticos de utilidad
- Celestia, programa libre de simulación espacial tridimensional (en inglés).
- Solar System Simulator (en inglés).
- MPL3D Solar System, programa de simulación espacial tridimensional (español e inglés).
- Stellarium
[Contraer]Sistema solar
Sol
- - Mercurio - Venus - Tierra - Marte -
Ceres
- - Júpiter - Saturno - Urano - Neptuno -
Plutón
- -
Haumea
- -
Makemake
- -
Eris
Satélites
- (Terrestre - Marcianos -
Asteroidales
- - Jovianos - Saturnianos - Uranianos - Neptunianos -
Plutonianos
- -
Haumeanos
- -
Eridiano)
- eteoroides - Planetas menores (Asteroides - (Cinturón de asteroides) - Centauros - Objetos transneptunianos (Cinturón de Kuiper - Disco disperso) - Cometas (Nube de Oort)Artículos relacionados: Objeto astronómico, Estrella, Planeta, Planeta enano, Cuerpo menor y Sistema planetario - Véase también: Anexo:Asteroides y El portal del sistema solar
Categoría:
- Sistema solar
Se llama luz (del latín lux, lucis) a la parte de la radiación electromagnética que puede ser percibida por el ojo humano. En física, el término luz se usa en un sentido más amplio e incluye todo el campo de la radiación conocido como espectro electromagnético, mientras que la expresión luz visible señala específicamente la radiación en el espectro visible. La luz, como todas las radiaciones electromagnéticas, está formada por partículas elementales desprovistas de masa denominadas fotones, cuyas propiedades de acuerdo con la dualidad onda partícula explican las características de su comportamiento físico.
La óptica es la rama de la física que estudia el comportamiento de la luz, sus características y sus manifestaciones.
Índice
[ocultar]
- 1Velocidad finita
- 2Refracción
- 3Propagación y difracción
- 4Interferencia
- 5Reflexión y dispersión
- 6Polarización
- 7Efectos químicos
- 8Aproximación histórica
- 9Naturaleza de la luz
- 9.1Teoría ondulatoria
- 9.1.1Descripción
- 9.1.2Fenómenos ondulatorios
- 9.2Teoría corpuscular
- 9.2.1Descripción
- 9.2.2Fenómenos corpusculares
- 9.3Teorías cuánticas
- 9.4Efectos relativísticos
- 9.4.1Luz en movimiento
- 9.4.2Distorsiones espectrales
- 9.4.3Teoría de la relatividad general
- 9.5Radiación y materia
- 9.6Teorías de campo unificado
- 9.1Teoría ondulatoria
- 10Espectro electromagnético
- 10.1Espectro visible
- 11Véase también
- 12Referencias
- 13Bibliografía
- 14Enlaces externos
Velocidad finita[editar]
Artículo principal: Velocidad de la luz
Se ha demostrado teórica y experimentalmente que la luz tiene una velocidad finita. La primera medición con éxito fue hecha por el astrónomo danés Ole Roemer en 1676 y desde entonces numerosos experimentos han mejorado la precisión con la que se conoce el dato. Actualmente el valor exacto aceptado para la velocidad de la luz en el vacío es de 299 792 458 m/s.1
La velocidad de la luz al propagarse a través de la materia es menor que a través del vacío y depende de las propiedades dieléctricas del medio y de la energía de la luz. La relación entre la velocidad de la luz en el vacío y en un medio se denomina índice de refracción del medio: {\displaystyle n={\frac {c}{v}}}
La línea amarilla muestra el tiempo que tarda la luz en recorrer el espacio entre la Tierra y la Luna, alrededor de 1,26 segundos.
Refracción[editar]
Artículo principal: RefracciónEn esta ilustración se muestra la descomposición de la luz al atravesar un prisma.Ejemplo de la refracción. La pajita parece partida, por la refracción de la luz al paso desde el líquido al aire.
La refracción es la variación brusca de dirección que sufre la luz al cambiar de medio. Este fenómeno se debe al hecho de que la luz se propaga a diferentes velocidades según el medio por el que viaja. El cambio de dirección es mayor cuanto mayor es el cambio de velocidad, ya que la luz recorre mayor distancia en su desplazamiento por el medio en que va más rápido. Laley de Snell relaciona el cambio de ángulo con el cambio de velocidad por medio de los índices de refracción de los medios.
Como la refracción depende de la energía de la luz, cuando se hace pasar luz blanca o policromática a través de un medio con caras no paralelas, como un prisma, se produce la separación de la luz en sus diferentes componentes (colores) según su energía, en un fenómeno denominado dispersión refractiva. Si el medio tiene las caras paralelas, la luz se vuelve a recomponer al salir de él.
Ejemplos muy comunes de la refracción es la ruptura aparente que se ve en un lápiz al introducirlo en agua o el arcoíris.
Propagación y difracción[editar]
Artículo principal: DifracciónSombra de una canica.
Una de las propiedades de la luz más evidentes a simple vista es que se propaga en línea recta. Lo podemos ver, por ejemplo, en la propagación de un rayo de luz a través de ambientes polvorientos o de atmósferas saturadas. La óptica geométrica parte de esta premisa para predecir la posición de la luz, en un determinado momento, a lo largo de su transmisión.
Luz en la persiana.
De la propagación de la luz y su encuentro con objetos surgen las sombras. Si interponemos un cuerpo opaco en el camino de la luz y a continuación una pantalla, obtendremos sobre ella la sombra del cuerpo. Si el origen de la luz o foco se encuentra lejos del cuerpo, de tal forma que, relativamente, sea más pequeño que el cuerpo, se producirá una sombra definida. Si se acerca el foco al cuerpo surgirá una sombra en la que se distinguen una región más clara denominada penumbra y otra más oscura denominada umbra.
Sin embargo, la luz no siempre se propaga en línea recta. Cuando la luz atraviesa un obstáculo puntiagudo o una abertura estrecha, el rayo se curva ligeramente. Este fenómeno, denominado difracción, es el responsable de que al mirar a través de un agujero muy pequeño todo se vea distorsionado o de que los telescopios y microscopios tengan un número de aumentos máximo limitado.
Interferencia[editar]
Artículo principal: InterferenciaExperimento de Young.
La forma más sencilla de estudiar el fenómeno de la interferencia es con el denominado experimento de Young que consiste en hacer incidir luz monocromática (de un solo color) en una pantalla que tiene una rendija muy estrecha. La luz difractada que sale de dicha rendija se vuelve a hacer incidir en otra pantalla con una doble rendija. La luz procedente de las dos rendijas se combina en una tercera pantalla produciendo bandas alternativas claras y oscuras.
El fenómeno de las interferencias se puede ver también de forma natural en las manchas de aceite sobre los charcos de agua o en la cara con información de los discos compactos; ambos tienen una superficie que, cuando se ilumina con luz blanca, la difracta, produciéndose una cancelación por interferencias, en función del ángulo de incidencia de la luz, de cada uno de los colores que contiene, permitiendo verlos separados, como en un arco iris.
Reflexión y dispersión[editar]
Artículos principales: Reflexión (física) y Dispersión (física).Pez ballesta reflejado.
Al incidir la luz en un cuerpo, la materia de la que está constituido retiene unos instantes su energía y a continuación la reemite en todas las direcciones. Este fenómeno es denominado reflexión. Sin embargo, en superficies ópticamente lisas, debido a interferencias destructivas, la mayor parte de la radiación se pierde, excepto la que se propaga con el mismo ángulo que incidió. Ejemplos simples de este efecto son losespejos, los metales pulidos o el agua de un río (que tiene el fondo oscuro).
La luz también se refleja por medio del fenómeno denominado reflexión interna total, que se produce cuando un rayo de luz, intenta salir de un medio en que su velocidad es más lenta a otro más rápido, con un determinado ángulo. Se produce una refracción de tal modo que no es capaz de atravesar la superficie entre ambos medios reflejándose completamente. Esta reflexión es la responsable de los destellos en un diamantetallado.
En el vacío, la velocidad es la misma para todas las longitudes de onda del espectro visible, pero cuando atraviesa sustancias materiales la velocidad se reduce y varía para cada una de las distintas longitudes de onda del espectro, este efecto se denomina dispersión. Gracias a este fenómeno podemos ver los colores del arcoíris. El color azul del cielo se debe a la luz del sol dispersada por la atmósfera. El color blanco de las nubes o el de la leche también se debe a la dispersión de la luz por las gotitas de agua o por las partículas de grasa en suspensión que contienen respectivamente.
Polarización[editar]
Artículo principal: Polarización electromagnéticaPolarizador.
El fenómeno de la polarización se observa en unos cristales determinados que individualmente son transparentes. Sin embargo, si se colocan dos en serie, paralelos entre sí y con uno girado un determinado ángulo con respecto al otro, la luz no puede atravesarlos. Si se va rotando uno de los cristales, la luz empieza a atravesarlos alcanzándose la máxima intensidad cuando se ha rotado el cristal 90° sexagesimales respecto al ángulo de total oscuridad.
También se puede obtener luz polarizada a través de la reflexión de la luz. La luz reflejada está parcial o totalmente polarizada dependiendo del ángulo de incidencia. El ángulo que provoca una polarización total se llama ángulo de Brewster.
Muchas gafas de sol y filtros para cámaras incluyen cristales polarizadores para eliminar reflejos molestos.
Efectos químicos[editar]
Artículo principal: Fotoquímica
Algunas sustancias al absorber luz, sufren cambios químicos; utilizan la energía que la luz les transfiere para alcanzar los niveles energéticos necesarios para reaccionar, para obtener una conformación estructural más adecuada para llevar a cabo una reacción o para romper algún enlace de su estructura (fotólisis).
La fotosíntesis en las plantas, que generan azúcares a partir de dióxido de carbono, agua y luz; la síntesis de vitamina D en la piel; la ruptura de dihalógenos con luz en lasreacciones radicalarias o el proceso de visión en el ojo, producido por la isomerización del retinol con la luz, son ejemplos de reacciones fotoquímicas. El área de la química encargada del estudio de estos fenómenos es la fotoquímica.
Aproximación histórica[editar]
Artículo principal: Historia de la ópticaIsaac Newton.
A principios del siglo XVIII era creencia generalizada que la luz estaba compuesta de pequeñas partículas. Fenómenos como la reflexión, la refracción y las sombras de los cuerpos, se podían esperar de torrentes de partículas. Isaac Newton demostró que la refracción estaba provocada por el cambio de velocidad de la luz al cambiar de medio y trató de explicarlo diciendo que las partículas aumentaban su velocidad al aumentar la densidad del medio. La comunidad científica, consciente del prestigio de Newton, aceptó su teoría corpuscular.
En la cuneta quedaba la teoría de Christian Huygens que en 1678 propuso que la luz era un fenómeno ondulatorio que se transmitía a través de un medio llamado éter. Esta teoría quedó olvidada hasta la primera mitad del siglo XIX, cuando Thomas Young solo era capaz de explicar el fenómeno de las interferencias suponiendo que la luz fuese en realidad una onda. Otros estudios de la misma época explicaron fenómenos como la difracción y la polarización teniendo en cuenta la teoría ondulatoria.
El golpe final a la teoría corpuscular pareció llegar en 1848, cuando se consiguió medir la velocidad de la luz en diferentes medios y se encontró que variaba de forma totalmente opuesta a como lo había supuesto Newton. Debido a esto, casi todos los científicos aceptaron que la luz tenía una naturaleza ondulatoria. Sin embargo todavía quedaban algunos puntos por explicar como la propagación de la luz a través del vacío, ya que todas las ondas conocidas se desplazaban usando un medio físico, y la luz viajaba incluso más rápido que en el aire o el agua. Se suponía que este medio era el éter del que hablaba Huygens, pero nadie lo conseguía encontrar.
James Clerk Maxwell.
En 1845, Michael Faraday descubrió que el ángulo de polarización de la luz se podía modificar aplicándole un campo magnético (efecto Faraday), proponiendo dos años más tarde que la luz era una vibración electromagnética de alta frecuencia. James Clerk Maxwell, inspirado por el trabajo de Faraday, estudió matemáticamente estas ondas electromagnéticas y se dio cuenta de que siempre se propagaban a una velocidad constante, que coincidía con la velocidad de la luz, y de que no necesitaban medio de propagación ya que se autopropagaban. La confirmación experimental de las teorías de Maxwell eliminó las últimas dudas que se tenían sobre la naturaleza ondulatoria de la luz.
No obstante, a finales del siglo XIX, se fueron encontrando nuevos efectos que no se podían explicar suponiendo que la luz fuese una onda, como, por ejemplo, el efecto fotoeléctrico, esto es, la emisión de electrones de las superficies de sólidos y líquidos cuando son iluminados. Los trabajos sobre el proceso de absorción y emisión de energía por parte de la materia solo se podían explicar si uno asumía que la luz se componía de partículas. Entonces la ciencia llegó a un punto muy complicado e incomodo: se conocían muchos efectos de la luz, sin embargo, unos solo se podían explicar si se consideraba que la luz era una onda, y otros solo se podían explicar si la luz era una partícula.
El intento de explicar esta dualidad onda-partícula, impulsó el desarrollo de la física durante el siglo XX. Otras ciencias, como la biología o la química, se vieron revolucionadas ante las nuevas teorías sobre la luz y su relación con la materia.
Naturaleza de la luz[editar]
La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o como una partícula. Estos dos estados no se excluyen, sino que son complementarios (véase Dualidad onda corpúsculo). Sin embargo, para obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que participa según su interpretación teórica:
Teoría ondulatoria[editar]
Descripción[editar]
Esta teoría, desarrollada por Christiaan Huygens, considera que la luz es una onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la onda se autopropaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético perpendiculares entre sí y respecto a la dirección de propagación.
Vista lateral (izquierda) de una onda electromagnética a lo largo de un instante y vista frontal (derecha) de la misma en un momento determinado. De color rojo se representa el campo magnético y de azul el eléctrico.
Para poder describir una onda electromagnética podemos utilizar los parámetros habituales de cualquier onda:
- Amplitud (A): Es la longitud máxima respecto a la posición de equilibrio que alcanza la onda en su desplazamiento.
- Periodo (T): Es el tiempo necesario para el paso de dos máximos o mínimos sucesivos por un punto fijo en el espacio.
- Frecuencia (ν): Número de oscilaciones del campo por unidad de tiempo. Es una cantidad inversa al periodo.
- Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de ondas sucesivas.
- Velocidad de propagación (V): Es la distancia que recorre la onda en una unidad de tiempo. En el caso de la velocidad de propagación de la luz en el vacío, se representa con la letra c.
La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por las siguientes ecuaciones:
{\displaystyle c=\lambda \cdot \nu ={\frac {\lambda }{T}}}
Fenómenos ondulatorios[editar]
Véase también: Movimiento ondulatorio
Algunos de los fenómenos más importantes de la luz se pueden comprender fácilmente si se considera que tiene un comportamiento ondulatorio.
El principio de superposición de ondas nos permite explicar el fenómeno de la interferencia: si juntamos en el mismo lugar dos ondas con la misma longitud de onda y amplitud, si están en fase (las crestas de las ondas coinciden) formarán una interferencia constructiva y la intensidad de la onda resultante será máxima e igual a dos veces la amplitud de las ondas que la conforman. Si están desfasadas, habrá un punto donde el desfase sea máximo (la cresta de la onda coincida exactamente con un valle) formándose unainterferencia destructiva, anulándose la onda. El experimento de Young, con sus rendijas, nos permite obtener dos focos de luz de la misma longitud de onda y amplitud, creando un patrón de interferencias sobre una pantalla.
Las ondas cambian su dirección de propagación al cruzar un obstáculo puntiagudo o al pasar por una abertura estrecha. Como recoge el principio de Fresnel - Huygens, cada punto de un frente de ondas es un emisor de un nuevo frente de ondas que se propagan en todas las direcciones. La suma de todos los nuevos frentes de ondas hace que la perturbación se siga propagando en la dirección original. Sin embargo, si por medio de una rendija o de un obstáculo puntiagudo, se separa uno o unos pocos de los nuevos emisores de ondas, predominará la nueva dirección de propagación frente a la original.
Onda propagándose a través de una rendija.
La difracción de la luz se explica fácilmente si se tiene en cuenta este efecto exclusivo de las ondas. La refracción, también se puede explicar utilizando este principio, teniendo en cuenta que los nuevos frentes de onda generados en el nuevo medio, no se transmitirán con la misma velocidad que en el anterior medio, generando una distorsión en la dirección de propagación:
Refracción de la luz según el principio de Huygens.
Otro fenómeno de la luz fácilmente identificable con su naturaleza ondulatoria es la polarización. La luz no polarizada está compuesta por ondas que vibran en todos los ángulos, al llegar a un medio polarizador, solo las ondas que vibran en un ángulo determinado consiguen atravesar el medio, al poner otro polarizador a continuación, si el ángulo que deja pasar el medio coincide con el ángulo de vibración de la onda, la luz pasará íntegra, si no solo una parte pasará hasta llegar a un ángulo de 90º entre los dos polarizadores, donde no pasará nada de luz.
Dos polarizadores en serie.
Este efecto, además, permite demostrar el carácter transversal de la luz (sus ondas vibran en dirección perpendicular a la dirección de propagación).
El efecto Faraday y el cálculo de la velocidad de la luz, c, a partir de constantes eléctricas (permitividad, {\displaystyle \varepsilon _{0}}) y magnéticas (permeabilidad, {\displaystyle \mu _{0}}) por parte de la teoría de Maxwell:
{\displaystyle c={\frac {1}{\sqrt {\varepsilon _{0}\mu _{0}}}}}
confirman que las ondas de las que está compuesta la luz son de naturaleza electromagnética. Esta teoría fue capaz, también, de eliminar la principal objeción a la teoría ondulatoria de la luz, que era encontrar la manera de que las ondas se trasladasen sin un medio material.
Teoría corpuscular[editar]
Descripción[editar]
La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas sin carga y sin masa llamadas fotones, capaces de transportar todas las formas de radiación electromagnética. Esta interpretación resurgió debido a que, la luz, en sus interacciones con la materia, intercambia energía solo en cantidades discretas (múltiplos de un valor mínimo) de energía denominadas cuantos. Este hecho es difícil de combinar con la idea de que la energía de la luz se emita en forma de ondas, pero es fácilmente visualizado en términos de corpúsculos de luz o fotones.
Fenómenos corpusculares[editar]
Max Planck.
Existen tres efectos que demuestran el carácter corpuscular de la luz. Según el orden histórico, el primer efecto que no se pudo explicar por la concepción ondulatoria de la luz fue la radiación del cuerpo negro.
Un cuerpo negro es un radiador teóricamente perfecto que absorbe toda la luz que incide en él y por eso, cuando se calienta se convierte en un emisor ideal de radiación térmica, que permite estudiar con claridad el proceso de intercambio de energía entre radiación y materia. La distribución de frecuencias observadas de la radiación emitida por la caja a una temperatura de la cavidad dada, no se correspondía con las predicciones teóricas de la física clásica. Para poder explicarlo, Max Planck, al comienzo del siglo XX, postuló que para ser descrita correctamente, se tenía que asumir que la luz de frecuencia ν es absorbida por múltiplos enteros de un cuanto de energía igual a hν, donde h es una constante física universal llamada Constante de Planck.
{\displaystyle \displaystyle E=h\nu }
En 1905, Albert Einstein utilizó la teoría cuántica recién desarrollada por Planck para explicar otro fenómeno no comprendido por la física clásica: elefecto fotoeléctrico. Este efecto consiste en que cuando un rayo monocromático de radiación electromagnética ilumina la superficie de un sólido (y, a veces, la de un líquido), se desprenden electrones en un fenómeno conocido como fotoemisión o efecto fotoeléctrico externo. Estos electrones poseen una energía cinética que puede ser medida electrónicamente con un colector con carga negativa conectado a la superficie emisora. No se podía entender que la emisión de los llamados "fotoelectrones" fuese inmediata e independiente de la intensidad del rayo. Eran incluso capaces de salir despedidos con intensidades extremadamente bajas, lo que excluía la posibilidad de que la superficie acumulase de alguna forma la energía suficiente para disparar los electrones. Además, el número de electrones era proporcional a la intensidad del rayo incidente. Einstein demostró que el efecto fotoeléctrico podía ser explicado asumiendo que la luz incidente estaba formada de fotones de energía hν, parte de esta energía hν0 se utilizaba para romper las fuerzas que unían el electrón con la materia, el resto de la energía aparecía como la energía cinética de los electrones emitidos:
- \displaystyle {\frac {1}{2}}mv_{\mathrm {max} }^{2}=h(\nu -\nu _{0})}
donde m es la masa del electrón, vmáx la velocidad máxima observada, ν es la frecuencia de la luz iluminante y ν0 es la frecuencia umbral característica del sólido emisor.
La demostración final fue aportada por Arthur Compton que observó como al hacer incidir rayos X sobre elementos ligeros, estos se dispersaban con menor energía y además se desprendían electrones (fenómeno posteriormente denominado en su honor como efecto Compton). Compton, ayudándose de las teorías anteriores, le dio una explicación satisfactoria al problema tratando la luz como partículas que chocan elásticamente con los electrones como dos bolas de billar. El fotón, corpúsculo de luz, golpea al electrón: el electrón sale disparado con una parte de la energía del fotón y el fotón refleja su menor energía en su frecuencia. Las direcciones relativas en las que salen despedidos ambos están de acuerdo con los cálculos que utilizan la conservación de la energía y el momento.
Otro fenómeno que demuestra la teoría corpuscular es la presión luminosa.
Teorías cuánticas[editar]
Diagrama de Feynman donde se muestra el intercambio de un fotón virtual (simbolizado por una línea ondulada y {\displaystyle \gamma \,}) entre un positrón y unelectrón.
La necesidad de reconciliar las ecuaciones de Maxwell del campo electromagnético, que describen el carácter ondulatorio electromagnético de la luz, con la naturaleza corpuscular de los fotones, ha hecho que aparezcan varías teorías que están aún lejos de dar un tratamiento unificado satisfactorio. Estas teorías incorporan por un lado, la teoría de la electrodinámica cuántica, desarrollada a partir de los artículos de Dirac, Jordan, Heisenberg y Pauli, y por otro lado la mecánica cuántica de de Broglie, Heisenberg y Schrödinger.
Paul Dirac dio el primer paso con su ecuación de ondas que aportó una síntesis de las teorías ondulatoria y corpuscular, ya que siendo una ecuación de ondas electromagnéticas su solución requería ondas cuantizadas, es decir, partículas. Su ecuación consistía en reescribir las ecuaciones de Maxwell de tal forma que se pareciesen a las ecuaciones hamiltonianas de la mecánica clásica. A continuación, utilizando el mismo formalismo que, a través de la introducción del cuanto de acción hν, transforma las ecuaciones de mecánica clásica en ecuaciones de mecánica ondulatoria, Dirac obtuvo una nueva ecuación del campo electromagnético. Las soluciones a esta ecuación requerían ondas cuantizadas, sujetas al principio de incertidumbre de Heisenberg, cuya superposición representaban elcampo electromagnético. Gracias a esta ecuación podemos conocer una descripción de la probabilidad de que ocurra una interacción u observación dada, en una región determinada.
Existen aún muchas dificultades teóricas sin resolverse, sin embargo, la incorporación de nuevas teorías procedentes de la experimentación con partículas elementales, así como de teorías sobre el comportamiento de los núcleos atómicos, nos han permitido obtener una formulación adicional de gran ayuda.
Efectos relativísticos[editar]
Sin embargo, existían aún algunas situaciones en las que la luz no se comportaba según lo esperado por las teorías anteriores.
Luz en movimiento[editar]
La primera de estas situaciones inexplicables se producía cuando la luz se emitía, se transmitía o se recibía por cuerpos o medios en movimiento. Era de esperar, según la física clásica, que la velocidad en estos casos fuese el resultado de sumar a la velocidad de la luz, la velocidad del cuerpo o del medio. Sin embargo, se encontraron varios casos en los que no era así:
Augustin Fresnel.
En 1818, Augustin Fresnel propuso un experimento para medir la velocidad a la que la luz atravesaba un líquido en movimiento. Para ello, se haría atravesar a la luz una columna de un líquido que fluyese a una velocidad v relativa al observador. Conociendo la velocidad v' a la que se trasmite la luz a través de ese medio, a través del índice de refracción (n), se calculó que la velocidad total de la luz en ese fluido sería:
{\displaystyle \displaystyle v_{t}=v'+v}
Sin embargo, cuando en 1851, el físico francés Hippolyte Fizeau llevó a cabo el experimento, comprobó que la velocidad a la que la luz atravesaba el líquido en movimiento no era la calculada sino:
- \displaystyle v_{t}=v'+v\left(1-{\frac {1}{n^{2}}}\right)}
es decir, que la velocidad del fluido contaba menos en la velocidad final si la velocidad con la que atravesaba la luz ese fluido era mayor.
En 1725, James Bradley descubrió que la posición observada de las estrellas en el firmamento variaba anualmente con respecto a la posición real en un intervalo de 41 segundos de arco. La teoría que propuso para explicarlo fue que esta variación se debía a la combinación de la velocidad de la tierra al rotar alrededor del sol con la velocidad finita de la luz. Gracias a esta teoría fue capaz de calcular la velocidad de la luz de una forma aceptable. Basándose en este efecto, el astrónomo inglésGeorge Airy comparó el ángulo de aberración en un telescopio antes y después de llenarlo de agua, y descubrió que, en contra de sus expectativas, no había diferencia en sus mediciones (la luz no variaba de velocidad a pesar de que el fluido se movía a la velocidad de la tierra).
Teniendo en cuenta este experimento, dos astrónomos, el alemán Albert Michelson y el estadounidense Edward Morley propusieron un experimento (véase Experimento de Michelson y Morley) para medir la velocidad a la que fluía el éter con respecto a la tierra. Suponían que el éter se movía en una dirección concreta con una velocidad determinada, por eso, debido a la translación de la Tierra alrededor del Sol habría épocas del año en el que tendríamos una componente de esa velocidad a favor y otras épocas en contra, por lo que supusieron que cuando lo tuviésemos a favor, la velocidad de la luz sería superior y cuando lo tuviésemos en contra sería inferior. Para ello midieron la velocidad de la luz en diferentes estaciones del año y observaron que no había ninguna diferencia. Y lo más curioso: que ni siquiera había diferencias debidas a la propia velocidad de translación de la Tierra (30 km/s).
En 1905, Albert Einstein dio una explicación satisfactoria con su teoría de la relatividad especial, en la que, en su segundo postulado propone que la velocidad de la luz esisótropa, es decir, independiente del movimiento relativo del observador o de la fuente.
Distorsiones espectrales[editar]
Artículo principal: Desplazamiento al rojoDesplazamiento nebular.
Al comparar el espectro de la luz procedente de algunos cuerpos celestes, con los espectros medidos en el laboratorio de los mismos elementos que los que contienen esos cuerpos, se observa que no son iguales, ya que las líneas espectrales procedentes del espacio están desplazadas hacia posiciones de mayor longitud de onda, es decir, hacia el lado rojo del espectro en lugares de menor energía.
Se han encontrado dos tipos diferentes de desplazamientos de líneas espectrales:
Desplazamiento nebular
Uno, el más común, llamado desplazamiento nebular es un desplazamiento sistemático de los espectros procedentes de las estrellas y galaxias.Edwin Hubble tras estudiar el corrimiento de los espectros de las nebulosas, lo interpretó como el resultado del efecto Doppler debido a la expansión continua del universo. Gracias a esto propuso una fórmula capaz de calcular la distancia que nos separa de un cuerpo determinado analizando el corrimiento de su espectro:
- \displaystyle {\frac {\Delta \lambda }{\lambda }}=1,7\cdot 10^{-9}d}
donde Δλ es la diferencia entre las longitudes de onda del espectro del cuerpo y la esperada, λ es la longitud de onda esperada y d, la distancia enpársecs.
Desplazamiento gravitacional
El otro, mucho más extraño se llama desplazamiento gravitacional o efecto Einstein, observado en espectros de cuerpos extremadamente densos. El ejemplo más famoso es el espectro del llamado compañero oscuro de Sirio. La existencia de este compañero fue predicha por Friedrich Bessel en 1844 basándose en una perturbación que observó en el movimiento de Sirio, pero debido a su débil luminosidad, no fue descubierto hasta 1861. Este compañero es una enana blanca que tiene una masa comparable a la del Sol pero en un radio aproximadamente cien veces menor, por lo que su densidad es inmensa (61.000 veces la del agua). Al estudiarse su espectro, se observa un desplazamiento de 0,3Å de la línea ß de la serie Balmer del hidrógeno.
Teoría de la relatividad general[editar]
Artículo principal: Relatividad generalAlbert Einstein.
Para que su anterior teoría de la relatividad especial abarcase también los fenómenos gravitatorios, Albert Einstein, entre 1907 y 1915 desarrolló lateoría de la relatividad general. Una de las principales conclusiones de esta teoría es que la gravedad influye en la propagación de la luz, representada en la teoría por el potencial gravitatorio Φ, descrito por:
- \displaystyle \Phi ={\frac {-GM}{R}}}
donde G es la Constante de gravitación universal, M la masa y R la distancia al objeto que genera el campo gravitatorio.
Einstein encontró que la luz, al pasar por un campo gravitatorio de potencial Φ sufría una disminución de su velocidad, según la fórmula:
{\displaystyle c=c_{0}\left(1+{\frac {\Phi }{c_{0}^{2}}}\right)}
donde c0 es la velocidad de la luz sin campo gravitatorio y c es la velocidad con él.
También se ve modificada la frecuencia de la luz emitida por una fuente en un campo gravitatorio
{\displaystyle \nu =\nu _{0}\left(1+{\frac {\Phi }{c_{0}^{2}}}\right)}
lo que explica el desplazamiento gravitacional. Otro ejemplo que confirma experimentalmente este punto de la teoría son las líneas espectrales del sol, que están desplazadas hacia el rojo dos millonésimas veces cuando sea comparan con las generadas por los mismos elementos en la Tierra.
Por último, en esta relación entre luz y gravedad, esta teoría predijo que los rayos de luz al pasar cerca de un cuerpo pesado se desviaban en un ángulo α determinado por el efecto de su campo gravitatorio, según la relación:
{\displaystyle \alpha ={\frac {4GM}{c^{2}R}}}
Este punto de la teoría se pudo confirmar experimentalmente estudiando el desvío de la luz que provocaba el sol, para ello los científicos estudiaron la posición de las estrellas del área alrededor del sol aprovechando un eclipse en 1931. Se vio que, como predecía la teoría, estaban desviadas hasta 2,2 segundos de arco comparadas con fotos de la misma área 6 meses antes.
Radiación y materia[editar]
Artículo principal: Dualidad onda corpúsculoPaul Dirac.
Al formular su ecuación de ondas para un electrón libre, Paul Dirac predijo que era posible crear un par de electrones (uno cargado positivamente y otro negativamente) a partir de un campo electromagnético que vibrase extremadamente rápido. Esta teoría fue rápidamente confirmada por los experimentos de Irene Curie y Frédéric Joliot y por los de James Chadwick, Stuart Blackett y Giuseppe Occhialini al comparar el número de electrones con carga negativa y el número de electrones con carga positiva (estos últimos llamados positrones) desprendidos por los rayos γ de alta frecuencia al atravesar delgadas láminas de plomo y descubrir que se obtenía la misma cantidad de unos que de los otros.
Pronto se encontraron otras formas de crear pares positrón-electrón y hoy en día se conocen una gran cantidad de métodos:
- Haciendo chocar dos partículas pesadas.
- Haciendo pasar a un electrón a través del campo de un núcleo atómico.
- La colisión directa de dos electrones.
- La colisión directa de dos fotones en el vacío.
- La acción del campo de un núcleo atómico sobre un rayo γ emitido por el mismo núcleo.
También ocurre el proceso en sentido contrario: al colisionar un electrón y un positrón (ellos solos tienden a juntarse, ya que tienen cargas eléctricasopuestas), ambos se aniquilan convirtiendo toda su masa en energía radiante. Esta radiación se emite en forma de dos fotones de rayos γ dispersados en la misma dirección, pero diferente sentido.
Esta relación entre materia-radiación, y viceversa (y sobre todo la conservación de la energía en esta clase de procesos) está descrita en la famosa ecuación de Albert Einstein:
{\displaystyle \displaystyle E=mc^{2}}
enmarcada en la teoría de la relatividad especial y que originalmente formuló así:
Si un cuerpo de masa m desprende una cantidad de energía E en forma de radiación, su masa disminuye E / c²
Albert Einstein en Zur Elektrodynamik bewegter Körper.2
Teorías de campo unificado[editar]
Artículo principal: Teoría del campo unificado
Actualmente, se busca una teoría que sea capaz de explicar de forma unificada la relación de la luz, como campo electromagnético, con el resto de las interacciones fundamentales de la naturaleza. Las primeras teorías intentaron representar el electromagnetismo y la gravitación como aspectos de la geometría espacio-tiempo, y aunque existen algunas evidencias experimentales de una conexión entre el electromagnetismo y la gravitación, solo se han aportado teorías especulativas.
Espectro electromagnético[editar]
Artículo principal: Espectro electromagnético
El espectro electromagnético está constituido por todos los posibles niveles de energía que la luz puede tener. Hablar de energía es equivalente a hablar de longitud de onda; así, el espectro electromagnético abarca también todas las longitudes de onda que la luz pueda tener, desde miles de kilómetros hasta femtómetros. Ese es el motivo de que la mayor parte de las representaciones esquemáticas del espectro suelan tener escala logarítmica.
El espectro electromagnético se divide en regiones espectrales, clasificadas según los métodos necesarios para generar y detectar los diversos tipos de radiación. Por eso estas regiones no tienen unos límites definidos y existen algunos solapamientos entre ellas.
Espectro visible[editar]
Artículo principal: Espectro visible
De todo el espectro, la porción que el ser humano es capaz de ver es muy pequeña en comparación con las otras regiones espectrales. Esta región, denominada espectro visible, comprende longitudes de onda desde los 380 nm hasta los 780 nm. El ojo humano percibe La luz de cada una de estas longitudes de onda como un color diferente, por eso, en la descomposición de la luz blanca en todas sus longitudes de onda, por prismas o por la lluvia en el arco iris, el ojo ve todos los colores.
Véase también[editar]
- Láser
- Lente
- Óptica
- Vista
- Velocidad de la luz
- Estética de la luz
Referencias[editar]
- Volver arriba↑ Handbook of chemistry and physics. 23ª edición. CRC press. Boca Ratón, Estados Unidos.
- Volver arriba↑ Einstein, A. 1905. Zur Elektrodynamik bewegter Körper. Annalen der Physik. (Berna) IV. Folge. 17: 891-921. Trabajo original en alemán
Bibliografía[editar]
- Atkins, Peter; de Paula, Julio (2002). «Quantum theory: introduction and principles». Physical Chemistry
- New York: Oxford University Press. 0-19-879285-9.
- Skoog, Douglas A.; Holler, F. James; Nieman, Timothy A. (2001). «Introducción a los métodos espectrométricos». Principios de Análisis instrumental. 5ª Edición
- Madrid: McGraw-Hill. 84-481-2775-7.
- Tipler, Paul Allen (1994). Física. 3ª Edición
- Barcelona: Reverté. 84-291-4366-1.
- Burke, John Robert (1999). Física: la naturaleza de las cosas
- México DF: International Thomson Editores. 968-7529-37-7.
Enlaces externos[editar]
- Wikimedia Commons alberga contenido multimedia sobre Luz.
- Wikiquote alberga frases célebres de o sobre Luz.
- Wikcionario tiene definiciones y otra información sobre luz.
Categoría:
El sonido (del latín sonĭtus, por analogía prosódica con ruido, chirrido, rugido, etc.), en física, es cualquier fenómeno que involucre la propagación en forma de ondas elásticas (sean audibles o no), generalmente a través de un fluido (u otro medio elástico) que esté generando el movimiento vibratorio de un cuerpo.
El sonido humanamente audible consiste en ondas sonoras y ondas acústicas que se producen cuando las oscilaciones de la presión del aire, son convertidas en ondas mecánicas en el oído humano y percibidas por el cerebro. La propagación del sonido es similar en los fluidos, donde el sonido toma la forma de fluctuaciones de presión.1 En los cuerpos sólidos la propagación del sonido involucra variaciones del estado tensional del medio.
Representación esquemática del oído, propagación del sonido. Azul: ondas sonoras. Rojo:tímpano. Amarillo: Cóclea. Verde: células de receptores auditivos. Púrpura: espectro de frecuenciade respuesta del oído. Naranja: impulso del nervio.La propagación del sonido involucra transporte de energía sin transporte de materia, en forma de ondas mecánicas que se propagan a través de un medio elástico sólido, líquido o gaseoso. Entre los más comunes se encuentran el aire y el agua. No se propagan en el vacío, al contrario que las ondas electromagnéticas. Si las vibraciones se producen en la misma dirección en la que se propaga el sonido, se trata de una onda longitudinal y si las vibraciones son perpendiculares a la dirección de propagación es una onda transversal.
La fonética acústica concentra su interés especialmente en los sonidos del habla: cómo se generan, cómo se perciben, y cómo se pueden describir gráfica o cuantitativamente.
Índice
[ocultar]- 1Física del sonido
- 1.1Propagación del sonido
- 1.2Magnitudes físicas del sonido
- 1.3Velocidad del sonido
- 1.4Reverberación
- 1.5Resonancia
- 2Fisiología del sonido
- 2.1Aparato auditivo
- 2.2Voz humana
- 2.3Sonidos del habla
- 3El sonido en la música
- 3.1Propiedades
- 3.1.1Altura
- 3.1.2Duración
- 3.1.3Intensidad
- 3.1.4Timbre
- 3.1Propiedades
- 4Fuentes del sonido
- 5Referencias
- 5.1Bibliografía
- 5.2Enlaces externos
Física del sonido[editar]
Compresión esférica (longitudinales) olas.La física del sonido es estudiada por la acústica, que trata tanto de la propagación de las ondas sonoras en los diferentes tipos de medios continuos como la interacción de estas ondas sonoras con los cuerpos físicos.
onda sinusoidal; Variación de frecuencia; Abajo podemos ver las frecuencias más altas. El eje horizontal representa el tiempo.Propagación del sonido[editar]
Artículo principal: Propagación del sonidoCiertas características de los fluidos y de los sólidos influyen en la onda de sonido. Por eso el sonido se propaga en los sólidos y en los líquidos con mayor rapidez que en los gases. En general cuanto mayor sea la compresibilidad (1/K) del medio tanto menor es la velocidad del sonido. También la densidad es un factor importante en la velocidad de propagación, en general cuanto menor sea la densidad (ρ), a igualdad de todo lo demás, menor es la velocidad de la propagación del sonido. La velocidad del sonido se relaciona con esas magnitudes mediante:
{\displaystyle v\varpropto {\sqrt {\frac {K}{\rho }}}}
En los gases, la temperatura influye tanto la compresibilidad como la densidad, de tal manera que un factor de suma importancia es la temperatura del medio de propagación.
La propagación del sonido está sujeta a algunos condicionantes. Así la transmisión de sonido requiere la existencia de un medio material donde la vibración de las moléculas es percibida como una onda sonora. En la propagación en medios compresibles como el aire, la propagación implica que en algunas zonas las moléculas de aire, al vibrar se juntan (zonas de compresión) y en otras zonas se alejan (zonas de rarefacción), esta alteración de distancias entre las moléculas de aire es lo que produce el sonido. En fluidos altamente incompresibles como los líquidos las distancias se ven muy poco afectadas pero se manifiesta en forma de ondas de presión. La velocidad de propagación de las ondas sonoras en un medio depende de la distancia promedio entre las partículas de dicho medio, por tanto, es en general mayor en los sólidos que en los líquidos y en estos, a su vez, que en los gases. En el vacío no puede propagarse el sonido, nótese que por tanto las explosiones realmente no son audibles en el espacio exterior.
Las ondas sonoras se producen cuando un cuerpo vibra rápidamente. La frecuencia es el número de vibraciones u oscilaciones completas que efectúan por segundo. Los sonidos producidos son audibles por un ser humano promedio si la frecuencia de oscilación está comprendida entre 20 Hz y 20000 Hz. Por encima de esta última frecuencia se tiene un ultrasonido no audible por los seres humanos, aunque algunos animales pueden oír ultrasonidos inaudibles por los seres humanos. La intensidad de un sonido está relacionada con el cuadrado de la amplitud de presión de la onda sonora. Un sonido grave corresponde a onda sonora con frecuencia baja mientras que los sonidos agudos se corresponden con frecuencias más altas.
Magnitudes físicas del sonido[editar]
Artículo principal: Onda sonoraComo todo movimiento ondulatorio, el sonido puede representarse mediante la Transformada de Fourier como una suma de curvas sinusoides, tonos puros, con un factor de amplitud, que se pueden caracterizar por las mismas magnitudes y unidades de medida que a cualquier onda de frecuencia bien definida: Longitud de onda (λ), frecuencia (f) o inversa del período (T), amplitud (relacionada con el volumen y la potencia acústica) y fase. Esta descomposición simplifica el estudio de sonidos complejos ya que permite estudiar cada componente frecuencial independientemente y combinar los resultados aplicando el principio de superposición, que se cumple porque la alteración que provoca un tono no modifica significativamente las propiedades del medio.
La caracterización de un sonido arbitrariamente complejo implica analizar:
- Potencia acústica: El nivel de potencia acústica (PWL Power Wattage Level) es la cantidad de energía radiada al medio en forma de ondas por unidad de tiempo por una fuente determinada. La unidad en que se mide es el vatio y su símbolo es W. La potencia acústica depende de la amplitud.
- Espectro de frecuencias: la distribución de dicha energía entre las diversas ondas componentes.
Velocidad del sonido[editar]
Artículo principal: Velocidad del sonido- n F / A-18 acercándose a la barrera del sonido. El halo blanco está formado por gotas de agua condensada que se cree que es el resultado de una caída en la presión del aire alrededor de la aeronave (verSingularidad de Prandtl-Glauert).
- En el aire, el sonido tiene una velocidad de 331,5 m/s cuando: la temperatura es de 0 °C, la presión atmosférica es de 1 atm (nivel del mar) y se presenta una humedad relativa del aire de 0 % (aire seco). Aunque depende muy poco de la presión del aire.
- La velocidad del sonido depende del tipo de material. Cuando el sonido se desplaza en los sólidos tiene mayor velocidad que en los líquidos, y en los líquidos es más veloz que en los gases. Esto se debe a que las partículas en los sólidos están más cercanas.
La velocidad del sonido en el aire se puede calcular en relación a la temperatura de la siguiente manera:
{\displaystyle V_{s}=V_{0}+\beta T\,}
Donde:
{\displaystyle V_{0}=331,3\ {\mbox{m/s}}\,}{\displaystyle \beta =0,606\ {\mbox{m/(s}}^{\circ }{\mbox{C)}}}{\displaystyle T\ [{}^{\circ }{\mbox{C}}]}, es la temperatura en grados Celsius.Si la temperatura ambiente es de 15 °C, la velocidad de propagación del sonido es 340 m/s (1224 km/h ). Este valor corresponde a 1 MACH.
Reverberación[editar]
- a reverberación es la suma total de las reflexiones del sonido que llegan al lugar del receptor en diferentes momentos del tiempo. Auditivamente se caracteriza por una prolongación, a modo de "cola sonora", que se añade al sonido original. La duración y la coloración tímbrica de esta cola dependen de: La distancia entre el oyente y la fuente sonora; la naturaleza de las superficies que reflejan el sonido. En situaciones naturales hablamos de sonido directo para referirnos al sonido que se transmite directamente desde la fuente sonora hasta nosotros (o hasta el mecanismo de captación que tengamos). Por otra parte, el sonido reflejado es el que percibimos después de que haya rebotado en las superficies que delimitan el recinto acústico, o en los objetos que se encuentren en su trayectoria. Evidentemente, la trayectoria del sonido reflejado siempre será más larga que la del sonido directo, de manera que -temporalmente- escuchamos primero el sonido directo, y unos instantes más tarde escucharemos las primeras reflexiones; a medida que transcurre el tiempo las reflexiones que nos llegan son cada vez de menor intensidad, hasta que desaparecen. Nuestra sensación, no obstante, no es la de escuchar sonidos separados, ya que el cerebro los integra en un único precepto, siempre que las reflexiones lleguen con una separación menor de unos 50 milisegundos. Esto es lo que se denomina efecto Haas o efecto de precedencia.
Resonancia[editar]
Artículo principal: Resonancia (mecánica)Es el fenómeno que se produce cuando dos cuerpos tienen la misma frecuencia de vibración, uno de los cuales empieza a vibrar al recibir las ondas sonoras emitidas por el otro.
Para entender el fenómeno de la resonancia existe un ejemplo muy sencillo. Supóngase que se tiene un tubo con agua y muy cerca de él (sin entrar en contacto) tenemos un diapasón, si golpeamos el diapasón con un metal, mientras echan agua en el tubo, cuando el agua alcance determinada altura el sonido será más fuerte; esto se debe a que la columna de agua contenida en el tubo se pone a vibrar con la misma frecuencia que la que tiene el diapasón, lo que evidencia por qué las frecuencias se refuerzan y en consecuencia aumenta la intensidad del sonido.
Un ejemplo es el efecto de afinar las cuerdas de la guitarra, puesto que al afinar, lo que se hace es igualar las frecuencias, es decir poner en resonancia el sonido de las cuerdas.
Fisiología del sonido[editar]
Artículo principal: Percepción sonoraAparato auditivo[editar]
Artículo principal: OídoLos sonidos son percibidos a través del aparato auditivo que recibe las ondas sonoras, que son convertidas en movimientos de los osteocillos óticos y percibidas en el oído interno que a su vez las transmite mediante el sistema nervioso al cerebro. Esta habilidad se tiene incluso antes de nacer.
Voz humana[editar]
La espectrografía de la voz humana revela su rico contenido armónico.La voz humana se produce por la vibración de las cuerdas vocales, lo cual genera una onda sonora que es combinación de varias frecuencias y sus correspondientes armónicos. La cavidad buco-nasal sirve para crear ondas cuasiestacionarias por lo que ciertas frecuencias denominadas formantes. Cada segmento de sonido del habla viene caracterizado por un ciertoespectro de frecuencias o distribución de la energía sonora en las diferentes frecuencias. El oído humano es capaz de identificar diferentes formantes de dicho sonido y percibir cada sonido con formantes diferentes como cualitativamente diferentes, eso es lo que permite por ejemplo distinguir dos vocales. Típicamente el primer formante, el de frecuencia más baja está relacionado con la abertura de la vocal que en última instancia está relacionada con la frecuencia de las ondas estacionarias que vibran verticalmente en la cavidad. El segundo formante está relacionado con la vibración en la dirección horizontal y está relacionado con si la vocal es anterior, central o posterior.
La voz masculina tiene un tono fundamental de entre 100 y 200 Hz, mientras que la voz femenina es más aguda, típicamente está entre 150 y 300 Hz. Las voces infantiles son aún más agudas. Sin el filtrado por resonancia que produce la cavidad buco nasal nuestras emisiones sonoras no tendrían la claridad necesaria para ser audibles. Ese proceso de filtrado es precisamente lo que permite generar los diversos formantes de cada unidad segmental del habla.
Sonidos del habla[editar]
Las lenguas humanas usan segmentos homogéneos reconocibles de unas decenas de milisegundos de duración, que componen los sonidos del habla, técnicamente llamadosfonos. Lingüísticamente no todas las diferencias acústicas son relevantes, por ejemplo las mujeres y los niños tienen en general tonos más agudos, por lo que todos los sonidos que producen tienen en promedio una frecuencia fundamental y unos armónicos más altos e intensos.
Los hablantes competentes de una lengua aprenden a "clasificar" diferentes sonidos cualitativamente similares en clases de equivalencia de rasgos relevantes. Esas clases de equivalencia reconocidas por los hablantes son los constructos mentales que llamamos fonemas. La mayoría de lenguas naturales tiene unas pocas decenas de fonemas distintivos, a pesar de que las variaciones acústicas de los fonos y sonidos son enormes.
El sonido en la música[editar]
El sonido, en combinación con el silencio, es la materia prima de la música. En la música los sonidos se califican en categorías como: largos y cortos, fuertes y débiles, agudos y graves, agradables y desagradables. El sonido ha estado siempre presente en la vida cotidiana del hombre. A lo largo de la historia el ser humano ha inventado una serie de reglas para ordenarlo hasta construir algún tipo de lenguaje musical.
Propiedades[editar]
Las cuatro cualidades básicas del sonido son la altura, la duración, la intensidad y el timbre o color.
Cualidad Característica Rango
Altura o tono Frecuencia de onda Agudo, medio, grave
Intensidad Amplitud de onda Fuerte, débil o suave
Timbre Armónicos de onda o forma de la onda. Análogo a la textura Depende de las características de la fuente emisora del sonido (por analogía: áspero, aterciopelado, metálico, etc)
Duración Tiempo de vibración Largo o cortoAltura[editar]
Véanse también: altura musical y Tono (acústica).La altura, o altura tonal, indica si el sonido es grave, agudo o medio, y viene determinada por la frecuencia fundamental de las ondas sonoras, medida en ciclos por segundo o hercios (Hz).
- vibración lenta = baja frecuencia = sonido grave.
- vibración rápida = alta frecuencia = sonido agudo.
Para que los humanos podamos percatar un sonido, este debe estar comprendido entre el rango de audición de 20 y 20.000 Hz. Por debajo de este rango tenemos los infrasonidos y por encima los ultrasonidos. A esto se le denomina rango de frecuencia audible. Cuanta más edad se tiene, este rango va reduciéndose tanto en graves como en agudos.
En la música occidental se fueron estableciendo tonos determinados llamados notas, cuya secuencia de 12 (C, C#, D, D#, E, F, F#, G, G#, A, A#, B) se va repitiendo formando octavas, en cada una de estas se duplica la frecuencia. La diferencia entre distintas notas se denomina intervalo.
Duración[editar]
Véase también: duración musicalEs el tiempo durante el cual se mantiene un sonido. Podemos escuchar sonidos largos, cortos, muy cortos, etc. Los únicos instrumentos acústicos que pueden mantener los sonidos el tiempo que quieran, son los de cuerda frotada, como el violín, y los de viento (utilizando la respiración circular o continua); pero por lo general, los instrumentos de viento dependen de la capacidad pulmonar, y los de cuerda según el cambio del arco producido por el ejecutante.
Intensidad[editar]
Véanse también: intensidad musical y Sonoridad.Es la cantidad de energía acústica que contiene un sonido, es decir, lo fuerte o suave de un sonido. La intensidad viene determinada por la potencia, que a su vez está determinada por la amplitud y nos permite distinguir si el sonido es fuerte o débil.
La intensidad del sonido se divide en intensidad física e intensidad auditiva, la primera esta determinada por la cantidad de energía que se propaga, en la unidad de tiempo, a través de la unidad de área perpendicular a la dirección en que se propaga la onda. Y la intensidad auditiva que se fundamenta en la ley psicofísica de Weber-Fechner, que establece una relación logarítmica entre la intensidad física del sonido que es captado, y la intensidad física mínima audible por el oído humano.
Los sonidos que percibimos deben superar el umbral auditivo (0 dB) y no llegar al umbral de dolor (130 dB). Esta cualidad la medimos con el sonómetro y los resultados se expresan en decibelios (dB) en honor al científico e inventor Alexander Graham Bell.
Timbre[editar]
Véase también: Timbre musicalUna misma nota suena distinta si la toca una flauta, un violín, una trompeta, etc. Cada instrumento tiene un timbre que lo identifica o lo diferencia de los demás. Con la voz sucede lo mismo. El sonido dado por un hombre, una mujer, un niño tienen distinto timbre. El timbre nos permitirá distinguir si la voz es áspera, dulce, ronca o aterciopelada. También influye en la variación del timbre la calidad del material que se utilice. Así pues, el sonido será claro, sordo, agradable o molesto.
Fuentes del sonido[editar]
El sonido es un tipo de ondas mecánicas longitudinales producidas por variaciones de presión del medio. Estas variaciones de presión (captadas por el oído humano) producen en el cerebro la percepción del sonido.
Existen en la naturaleza sonidos generados por diferentes fuentes y sus características de frecuencia (altura), intensidad (fuerza), forma de la onda (timbre) y envolvente (modulación) los hacen diferentes e inconfundibles, por ejemplo, el suave correr del agua por un grifo tiene las mismas características en frecuencia, timbre y envolvente que el ensordecedor correr del agua en las cataratas del Iguazú, con sus aproximadamente 100 metros de altura de caída libre, pero la intensidad (siempre medida en decibelios a un metro de distancia de la zona de choque) es mucho mayor.
De los requisitos apuntados, el de la envolvente es el más significativo, puesto que es "la variación de la intensidad durante un tiempo, generalmente el inicial, considerado", el ejemplo de la diferencia de envolventes es la clara percepción que tenemos cuando algún instrumento de cuerda raspada (violín, violoncelo) son ejecutados "normalmente" con el arco frotando las cuerdas o cuando son pulsados (pizzicato); mientras que en el primer caso el sonido tiene aproximadamente la misma intensidad durante toda su ejecución, en el segundo caso el sonido parte con una intensidad máxima (la cuerda tensa soltada por el músico) atenuándose rápidamente con el transcurso del tiempo y de una manera exponencial, de manera que la oscilación siguiente a la anterior sigue una ley de variación descendente. Entre los instrumentos que exhiben una envolvente constante tenemos primordialmente el órgano de tubos (y sus copias electrónicas), el saxofón (también de aire, como el órgano) y aquellos instrumentos que, no siendo de envolvente fija, pueden fácilmente controlar esta función, como la flauta (dulce y armónica), la tuba, el clarinete y las trompetas, pífano y silbatos, bocinas de medios de transportes (instrumentos de advertencia); entre los instrumentos de declinación exponencial tenemos todos los de percusión que forman las "baterías": bombos, platillos, redoblantes, tumbadoras (en este ramo debemos destacar los platillos, con un tiempo largo de declinación que puede ser cortado violentamente por el músico) mediante un pedal o mismamente la mano.
Referencias[editar]
- Volver arriba↑ Schiffman, Harvey (2001). «4». La Percepción Sensorial
- Limusa Wiley. p. 72. ISBN 968-18-5307-5.
Bibliografía[editar]
- Benade, Arthur H (1976). Fundamentals of Musical Acoustics. New York: Oxford University Press. OCLC 2270137.
- M. Crocker (editor), 1994. Encyclopedia of Acoustics (Interscience).
- Farina, Angelo; Tronchin, Lamberto (2004). Advanced techniques for measuring and reproducing spatial sound properties of auditoria. Proc. of International Symposium on Room Acoustics Design and Science (RADS), 11-13 April 2004, Kyoto, Japan. Article
- L. E. Kinsler, A. R. Frey, A. B. Coppens, and J. V. Sanders, 1999. Fundamentals of Acoustics, fourth edition (Wiley).
- Philip M. Morse and K. Uno Ingard, 1986. Theoretical Acoustics
- (Princeton University Press). ISBN 0-691-08425-4
- Allan D. Pierce, 1989. Acoustics: An Introduction to its Physical Principles and Applications
- (Acoustical Society of America). ISBN 0-88318-612-8
- Pompoli, Roberto; Prodi, Nicola (abril de 2000). «Guidelines for Acoustical Measurements inside Historical Opera Houses: Procedures and Validation». Journal of Sound and Vibration 232 (1): 281-301. doi:10.1006/jsvi.1999.2821.
- D. R. Raichel, 2006. The Science and Applications of Acoustics,
- second edition (Springer). eISBN 0-387-30089-9
- Rayleigh, J. W. S. (1894). The Theory of Sound
- New York: Dover. ISBN 0-8446-3028-4.
- E. Skudrzyk, 1971. The Foundations of Acoustics: Basic Mathematics and Basic Acoustics (Springer).
- Stephens, R. W. B.; Bate, A. E. (1966). Acoustics and Vibrational Physics (2nd edición). London: Edward Arnold.
- Wilson, Charles E. (2006). Noise Control
- (Revised edición). Malabar, FL: Krieger Publishing Company. ISBN 1-57524-237-0. OCLC 59223706.
Enlaces externos[editar]
- Wikimedia Commons alberga contenido multimedia sobre Sonido.
- Wikcionario tiene definiciones y otra información sobre sonido.
- El Diccionario de la Real Academia Española tiene una definición para sonido.
- Sonido
- 1Física del sonido
- Para otros usos de este término, véase Vida (desambiguación).
El término vida (en latín: vita)?,1 desde la biología, hace referencia a aquello que distingue a los reinos animal, vegetal, hongos, protistas, arqueas y bacterias del resto de realidades naturales. Implica las capacidades de nacer, crecer, metabolizar, responder a estímulos externos, reproducirse y morir.
A pesar de que no puede indicarse con precisión, la evidencia sugiere que ha existido vida en la Tierra durante al menos 3700 millones de años,2 3 aunque algunos estudios la datan a desde hace 4250 millones de años,4 o incluso 4400 millones de años, según un estudio publicado en Nature.5
Científicamente, podría definirse como la capacidad de administrar los recursos internos de un ser físico de forma adaptada a los cambios producidos en su medio, sin que exista una correspondencia directa de causa y efecto entre el ser que administra los recursos y el cambio introducido en el medio por ese ser, sino una asíntota de aproximación al ideal establecido por dicho ser, ideal que nunca llega a su consecución completa por la dinámica del medio.6
La Tierra es el único planeta del Universo del que se sabe que contiene vida; el lugar donde nació y ha vivido la Humanidad hasta nuestros días.Índice
[ocultar]- 1Generalidades
- 1.1En la ciencia
- 1.2En la química
- 1.3En la filosofía
- 1.4En la religión
- 2Visión retrospectiva del concepto de vida
- 3Vida y biología
- 4Lo vivo
- 4.1Las tres funciones básicas de todos los seres vivos
- 4.2Las bases de lo vivo
- 4.3Qué no es vida
- 4.4Vida en la Tierra
- 5Rasgos comunes de las estructuras orgánicas
- 6El origen de la vida
- 6.1Ejemplo de modelo híbrido
- 7Vida sintética
- 8Astrobiología
- 9Especulaciones recientes
- 10Interpretaciones de la vida según diversas religiones
- 11Véase también
- 12Referencias
- 13Bibliografía adicional
- 14Enlaces externos
Generalidades[editar]
En la ciencia[editar]
En términos científicos, y para la física y otras ciencias afines, la vida hace referencia a la duración de las cosas o a su proceso de evolución (vida media, ciclo vital de las estrellas).7
En biología, se considera la condición interna esencial que categoriza, tanto por sus semejanzas como diferencias, a los seres vivos. En general, es el estado intermedio entre elnacimiento y la muerte. Desde un punto de vista bioquímico, la vida puede definirse como un estado o carácter especial de la materia alcanzado por estructuras moleculares específicas, con capacidad para desarrollarse, mantenerse en un ambiente, reconocer y responder a estímulos y reproducirse permitiendo la continuidad.
Las estructuras de vida biomoleculares establecen un rango de estabilidad que permite que la vida sea continuada, dinámica y finalmente evolutiva. Así pues, los seres vivos se distinguen de los seres inertes por un conjunto de características, siendo las más importantes la organización molecular, la reproducción, la evolución y el manejo no espontáneo de su energía interna.
En la medicina, existen distintas interpretaciones científicas sobre el momento determinado en el que comienza a existir la vida humana,8 según las diferentes perspectivas filosóficas, religiosas, culturales, y según los imperativos legales. Para algunos, la vida existe desde que se fecunda el óvulo;9 para otros, desde que ya no es posible legalmente el aborto,10 hasta el cese irreversible de la actividad cerebral o muerte cerebral. Se define también la vida vegetativa como un conjunto de funciones involuntarias nerviosas y hormonales que adecuan el medio interno para que el organismo responda en las mejores circunstancias a las condiciones del medio externo, funciones que parecen estar regidas por el hipotálamo y el eje hipotálamo-hipofisario.11
En cosmología, aún no se conoce ni se sabe si será posible conocer la existencia de vida en otros lugares del Universo distintos de la Tierra, pero científicos como el ya difunto divulgador Carl Sagan piensan que, probabilísticamente hablando, y teniendo en cuenta las condiciones necesarias para la vida tal como la conocemos, el cosmos es tan inmenso que se hace necesaria la existencia de, incluso, civilizaciones avanzadas en otros planetas.12 La ecuación de Drake es un intento de estimación inicial del número de civilizaciones existentes fuera de la Tierra.13 Una serie de proyectos científicos, los proyectos SETI, están dedicados a la búsqueda de vida inteligente extraterrestre. Por otra parte, la reciente teoría de supercuerdas lleva, entre otras conclusiones, a la posible existencia de infinitos
- universos paralelos en parte de los cuales existirían mundos con vida idénticos al que conocemos, así como también, en otros universos, mundos con variaciones respecto al nuestro desde sutiles hasta totales, dentro de un enorme -aunque finito- abanico de posibilidades.
Desde la perspectiva de la psicología, la vida es un sentimiento apreciativo por las interacciones del ego con el medio, y, por reacción a dicho sentimiento, la lucha por sostener su homeostasis en estado preferente.
En la química[editar]
Según el Premio Nobel de Química Ilya Prigogine la vida es el reino de lo no lineal, de la autonomía del tiempo, de la multiplicidad de las estructuras, algo que no se ve en el universo no viviente. La vida se caracteriza por la inestabilidad por la cual nacen y desaparecen estructuras en tiempos geológicos.
Para Ilya Prigogine la vida es el tiempo que se inscribe en la materia y los fenómenos irreversibles son el origen de la organización biológica. Todos los fenómenos biológicos son irreversibles. Esta irreversibilidad es una propiedad común a todo el Universo, todos envejecemos en la misma dirección porque existe una flecha del tiempo.
Para Prigogine es la función la que crea la estructura y los fenómenos irreversibles son el origen de la organización biológica, es decir, de la vida.
La vida no se corresponde a un fenómeno único; la vida se forma cada vez que las circunstancias planetarias son favorables. A partir de los principios de la termodinámicasabemos que el porvenir de la vida es incierto y desconocemos hasta donde puede llegar. Los sistemas dinámicos de la biología son inestables, por lo tanto se dirigen hacia un porvenir que es imposible de determinar a priori. El futuro está abierto a procesos siempre nuevos de transformación y de aumento de la complejidad de los sistemas vivos, de la complejidad biológica, en una creación continua.14
En la filosofía[editar]
Desde una perspectiva filosófica, puede abordarse desde diferentes modos de conceptualización: objetivismo (Edmund Husserl), dualidad alma-cuerpo (Platón, Descartes, Max Scheller, Ludwig Klages), mente y cerebro (Henri Bergson), vida y ser (Albert Vilanova), y la fenomenología del conocimiento y la aprehensión (Nicolai Hartmann).15 El concepto de vida o existencia, inseparable del de muerte o inexistencia, y su trascendencia, han sido y son diferentes en los distintos lugares y épocas de la historia de la humanidad. La importancia primordial de la vida para el ser humano influye en el lenguaje, de forma que son numerosos los diferentes usos y expresiones que contienen este término.16
En la religión[editar]
Para la mayoría de las religiones, la vida presenta connotaciones espirituales y trascendentales.
Fuerza interna sustancial mediante la que obra el ser que la posee.17
Filosófica:
Actividad natural inmanente autoperfectiva.
Religiosa cristiana:
La vida humana es un paso que conduce al alma de la inexistencia a la plenitud eterna en un período de tiempo.
El pago que da el pecado es la muerte, pero el don de Dios es vida eterna en unión con Cristo.18
Entonces Dios formó al hombre de la tierra misma, y sopló en su nariz y le dio vida. Así el hombre se convirtió en un ser viviente.19
O bien:
Estado de actividad. Existencia animada de un ser o duración de esa existencia.20
Religiosa budista:
La vida es cada uno de los estados de reencarnación de los seres sintientes en el samsara.
Fisiológica:
Un organismo vivo es aquel, compuesto por materia orgánica (C,H,O,N,S,P), capaz de llevar a cabo funciones tales como comer, metabolizar, excretar, respirar, moverse, crecer, reproducirse y responder a estímulos externos.
Pero tales funciones no son del todo determinantes. Por ejemplo, ciertas bacterias quimiosintéticas anaerobias estrictas no realizan la respiración. Hoy en día esta definición no se ajusta correctamente y, a pesar de su popularidad inicial, ha sido ya desechada.
Metabólica:
Un sistema vivo es un objeto con una frontera definida que continuamente intercambia sustancias con el medio circundante sin alterarse.
También ha sido rechazada por no poder incluir objetos vivos tales como las semillas, las esporas, o bacterias encapsuladas en estado de latencia. Y también por definir como vivos entidades tales como el fuego.
Bioquímica:
Todo organismo vivo contiene información hereditaria reproducible codificada en los ácidos nucleicos los cuales controlan el metabolismo celular a través de unas moléculas (proteínas) llamadas enzimas que catalizan o inhiben las diferentes reacciones biológicas.
A pesar de ser más precisa y acertada, tampoco se la considera una definición válida ya que excluye la vida fuera de la química que conocemos y, por ejemplo, la imposibilita en el campo cibernético o en una química distinta; algo que, hasta ahora, no se ha demostrado.
Genética:
La vida es todo sistema capaz de evolucionar por selección natural.
Una vez más, tal definición no es aceptada por muchos biólogos ya que incluye los virus dentro del grupo de los seres vivos y podría en un futuro introducir algún virus informático polimórfico que incluyera algún tipo de rutina avanzada de evolución darwiniana. Por supuesto nadie diría que tal programa de ordenador fuera un sistema vivo.
Termodinámica:
Los sistemas vivos son una organización especial y localizada de la materia, donde se produce un continuo incremento de orden sin intervención externa.
Esta definición, quizá la mejor y más completa, nace de la nueva y mejor comprensión del Universo que se ha tenido en este último siglo. Se basa en el segundo principio de la termodinámica, el cual dice que la entropía o desorden de un sistema aislado siempre aumenta.
El aumento de orden en un sistema vivo no incumpliría el citado principio termodinámico, ya que al no ser un sistema aislado tal incremento se logra siempre a expensas de un incremento de entropía total del Universo. Así pues, la vida formaría parte también de los llamados sistemas complejos. (véase complejidad biológica)
Visión retrospectiva del concepto de vida[editar]
Tradicionalmente la vida ha sido un concepto abstracto y, por tanto, difuso y de difícil definición. Por esto se solía definir en contraposición a la no vida o lo inerte, especialmente aludiendo a las propiedades diferenciadoras. Lo que más confundía eran las estructuras víricas, que no comparten todas las propiedades más comunes del resto de las estructuras vivas. Asimismo tampoco estaba clara la frontera entre la vida y la muerte, haciendo difícil determinar cuándo acontecía exactamente ésta última.
Dada la confusión a la hora de definir la vida, se optó por hacerlo en función de los resultados obtenidos tras el desarrollo completo del ADN, y no respecto al potencial mismo de esa molécula, de tal modo que se establecieron algunas características comunes:
- Los seres vivos requieren energía. Es decir, se nutren.
- Los seres vivos crecen y se desarrollan.
- Los seres vivos responden a su medio ambiente.
- Los seres vivos se reproducen por sí mismos, sin necesitar ayuda externa; siendo éste un hecho clave.
Estas características apuntaban a una definición de vida tan simple que permitía incluir como seres vivos, por ejemplo, a los cristales minerales, los cuales crecen, responden al medio, se reproducen y por supuesto consumen energía al crecer y propagarse. Se hacía necesario, pues, buscar otras características propias de la vida más allá de las puramente intuitivas.
La definición universal de vida se planteaba como algo bastante más complejo y difícil. Se ofrecían diferentes definiciones, y era cuestión de gusto dar por buena una u otra, como se desprende de la sección Definiciones de vida. En cualquier caso, el concepto de vida ha seguido una evolución paralela a la de la ciencia que se dedica a su estudio, labiología.
Vida y biología[editar]
Artículo principal: Ser vivoNiveles estructurales de los sistemas vivos Ciencia que lo estudia
Partículas elementales Física cuántica, física de partículas
Átomos Química, física
Moléculas Física, química,bioquímica, biología molecular
Orgánulos Biología molecular,biología celular
Células Biología celular, citología
Tejidos Histología
Órganos Histología, fisiología
Sistema Fisiología, anatomía
Organismo Anatomía, etología,psicología
Población Etología, sociología
Comunidad Ecología
Ecosistema Ecología
Biosfera EcologíaSe define en biología como vida la estructura molecular autoorganizada capaz de intercambiar energía y materia con el entorno con la finalidad de automantenerse, renovarse y finalmente reproducirse.
La manifestación evidente de lo anterior se muestra en forma de vida. Esta manifestación se singulariza del resto del ecosistema por un conjunto de propiedades características, comunes y relativas a ciertos sistemas materiales, a los que se denominan seres vivos. Un ser vivo consiste en la conjunción de diferentes sistemas capaces de integrarse por la conveniencia relativa al ahorro en recursos que supone la asociación. Los sistemas por separado necesitan un aporte externo y generan un desecho. El desecho de un sistema sirve para la alimentación del otro (reciclaje). Dicha integración permite que el organismo (el conjunto de todos los sistemas integrados) pueda soportar el desorden inherente a la tendencia natural de cada sistema por separado a desorganizar la información. El desorden genera una necesidad, manifestándolo mediante moléculas cargadas, aminoácidos o cadenas de proteínas. Dichas cargas ponen de manifiesto las propiedades inherentes del sistema, y que el sistema 'vecino' interaccionará aportando como desecho, lo que el otro necesita como materia prima. De esta forma se obtiene y procesa de forma sostenida en el tiempo los materiales yenergía, que se transfieren adecuadamente por cualquiera de los sistemas capaces de transmitir dicha información. El resultado final minimiza la entropía interna del sistema vivo, necesitando de aporte externo para que el proceso no decaiga.
La tendencia al desorden es el resultado del desgaste natural asociado a las interacciones. Como 'remedio' el organismo reacciona a través del desarrollo y la evolución, procesos dependientes de la existencia de un canal de transferencia y/o transacción de cargas (que para el caso de la vida en la tierra, se compila en la información genética), que nutren de información a todo el sistema.
El desarrollo exponencial de la tecnología ha llevado recientemente al científico Raymond Kurzweil a afirmar en su libro La era de las máquinas espirituales que si, según su pronóstico, a lo largo del siglo XXI fuese posible la creación de computadoras más sofisticadas que nuestro propio cerebro, conscientes y capaces de alojar nuestro estado neuronal, dando así lugar a una copia virtual o real e inmortal de nosotros mismos, el concepto de inteligencia, de consciencia, y de vida, trascenderían probablemente a la biología.21
Lo vivo[editar]
Artículo principal: Principales características de los seres vivosLo vivo es el estado característico de la biomasa, manifestándose en forma de organismos uni o pluricelulares. Las propiedades comunes a los organismos conocidos que se encuentran en la Tierra (plantas, animales, fungi, protistas, archaea y bacteria) son que ellos están basados en el carbono y el agua, son conjuntos celulares con organizaciones complejas, capaces de mantener y sostener junto con el medio que les rodea, el proceso homeostático que les permite responder a estímulos, reproducirse y, a través de procesos de selección natural, adaptarse en generaciones sucesivas.
En la biología, se considera vivo lo que tenga las características:
- Organización: Formado por células.
- Reproducción: Capaz de generar o crear copias de sí mismo.
- Crecimiento: Capaz de aumentar en el número de células que lo componen y/o en el tamaño de las mismas.
- Evolución: Capaz de modificar su estructura y conducta con el fin de adaptarse mejor al medio en el que se desarrolla.
- Homeostasis: Utiliza energía para mantener un medio interno constante.
- Movimiento: Desplazamiento mecánico de alguna o todas sus partes componentes, Se entiende como movimiento a los tropismos de las plantas, e incluso al desplazamiento de distintas estructuras a lo largo del citoplasma.
Una entidad con las propiedades indicadas previamente se lo considera un organismo. Hoy el conjunto de toda la Tierra contiene aproximadamente 75 000 millones de toneladas de biomasa (vida), la que vive en distintos medios ambientes de la biósfera.[cita requerida]
Las tres funciones básicas de todos los seres vivos[editar]
Todos los seres vivos sobre la faz de la Tierra realizan tres funciones básicas, a saber, relación, nutrición y reproducción. Se excluye de esta definición a los virus pues no son capaces de realizar las tres, únicamente se relacionan, no obstante, realizan todas una vez que infectan a la célula objetivo y son capaces de manipular su maquinaria celular.
Las bases de lo vivo[editar]
Una estructura viva es una disposición de elementos químicos, dispuestos de tal forma que, en su estado más estable, se puede asemejar a un 'esquema energético' a la espera de ser 'leído'. Es en ese momento cuando se expresan las reacciones necesarias para obtener homeostasis. Dicha estructura, que comprende un organismo, es la base sobre la que pueden establecerse las estructuras materiales vivas.
La acción de 'leer', no es otra que el evento que desencadena las reacciones necesarias para poner en marcha el programa genético, unidad en la que se condensa el 'esquema energético'.
Qué no es vida[editar]
No es vida cualquier otra estructura del tipo que sea (aunque contenga ADN o ARN) incapaz de establecer un equilibrio homeostático (virus, viriones, priones, células cancerígenas o cualquier otra forma de reproducción que no sea capaz de manifestar una forma estable retroalimentaria sostenible con el medio, y provoque el colapso termodinámico). Así, se puede concluir que una célula está viva, pues posee una regulación homeostática relativa a ella misma, pero si no pertenece a un organismo homeostático, no forma parte de un organismo vivo, consume recursos y pone en peligro la sostenibilidad del medio en el cual se manifiesta.
Vida en la Tierra[editar]
La existencia de vida, y concretamente la vida terrestre, puede definirse con más especificidad indicando, entre otras cosas, que los seres vivos son sistemas químicos cuyo fundamento son cadenas de átomos de carbono ricas en hidrógeno que se distribuyen en compartimientos llenos de disoluciones acuosas y separados por membranas funcionalmente asimétricas cuya zona interior es hidrófoba; esos compartimentos constituyen células o forman parte de ellas, las cuales se originan por división de células anteriores, y se permite así el crecimiento y también la reproducción de los individuos. Los sistemas vivos no forman un sistema continuo, cerrado y hermético, sino una multitud de sistemas discretos, que llamamos organismos.
Rasgos comunes de las estructuras orgánicas[editar]
La luz del sol penetrando entre secuoyas. El árbol más alto del mundo pertenece a esta especie, y mide 115,55 m.El estudio de la vida se llama biología y los biólogos son los que estudian sus propiedades. Tras el estudio por parte de éstos, se hace evidente que toda reacción bioquímica capaz de establecer una estructura homeostática que desarrolle la función metabólica, se la puede definir como materia viva orgánica u organismo, compartiendo algunas características comunes, producto de laselección natural:
- Un organismo requiere aporte externo de energía para poder sostener su ciclo metabólico. Dada la tendencia constante a degradar la usada, se establece una resistencia que ofrece toda materia viva a ser animada. Este hecho se hace evidente al observarse la tendencia a degradar a materia inherte. Es decir, se alimentan para no morir.
- Un organismo usa todos los recursos disponibles y compatibles con su estructura para perpetuar su esquema molecular (ADN), desechando lo inservible y desarrollando lo útil. En las estructuras vitales más complejas, esto se observa por el hecho de que crecen y se desarrollan.
- Un organismo es receptivo a los estímulos del medio ambiente, siendo éste el único medio por el cual poder reponer los recursos perdidos. Si deja de responder, dejará de ser materia viva.
- Un organismo responde a un medio favorable activando los procesos que le permitirán duplicar su esquema molecular y transferir sus funciones de manera que fomente ese esquema al máximo de sus facultades vitales. En función de los recursos disponibles del medio, esas facultades serán más o menos intensas.
La vida se agrupa en diversos niveles estructurales jerarquizados. Así se sabe que la unión de células pueden dar lugar a un tejido y la unión de éstos dan lugar a un órgano que cumple una función específica y particular, como el caso del corazón o el estómago. De esta forma los diversos niveles de jerarquización de la vida se agrupan hasta formar un organismo o ser vivo, éstos al agruparse siendo de una misma especie forman una población y el conjunto de poblaciones de diversas especies que habitan en un biotopodado forman una comunidad.
El origen de la vida[editar]
Artículo principal: Origen de la vidaLa Gran Fuente Prismática del Parque nacional Yellowstone.Para describir en el inicio de la historia de la vida la aparición de los seres vivos, no existe un único modelo para explicar el origen de la vida; sin embargo la mayoría de los modelos científicos actuales aceptados se basan en los siguientes descubrimientos, los cuales son listados en el orden en el cual han sido postulados:
- Condiciones prebióticas plausibles que resultaron en la formación de las pequeñas moléculas básicas para la vida. Esto ha sido demostrado en el experimento de Miller y Urey.22
- Los fosfolípidos espontáneamente forman lípidos bicapa, que son la estructura básica de la membrana celular.
- Los procedimientos para producir moléculas aleatorias de ARN pueden producir ribosomas, las cuales son capaces de reproducirse bajo condiciones muy específicas.
Existen muchas hipótesis distintas sobre el camino que pudo haber tomado el origen de la vida para pasar desde moléculas orgánicas simples hasta constituir protocélulas y metabolismos diversos. Muchos modelos caen dentro de la categoría "genes primero" o la categoría "metabolismo primero", sin embargo la tendencia actual es la aparición de modelos híbridos que no caen en ninguna de las categorías anteriores.
Ejemplo de modelo híbrido[editar]
Molécula de ADN.Las estructuras moleculares esenciales para la vida, se formaron y desarrollaron por aparecer en un preecosistema que así lo permitió, en su estado prebiótico. El origen de la vida es el resultado termodinámico del acoplamiento de diferentes átomos en un medio que fomentó la aparición de moléculas más complejas, pues termodinámicamente hablando era lo más óptimo.
Ofreciendo un bajo potencial energético (una molécula de adenina no es físicamente reactiva, es estable en el tiempo, y poca utilidad tiene en una central eléctrica o en una reacción de fusión nuclear), pero alto potencial bioenergético (debidamente acoplada a una molécula de ribosa, forma un reactivo bioquímico muy potente), favorecieron la aparición de otras propiedades, que emergieron por la abundancia de esas moléculas.
Las formas biológicas más primitivas establecen la formación de biomoléculas, basta un esquema simple molecular, que adecuadamente estimulado bioquímicamente hablando, pueden dar estructuras más complejas (aminoácidos).
Según el medio iba cambiando, las estructuras también lo hacían, estableciendo un proceso evolutivo basado en una función retroalimentada. La abundancia de biomasa, fomentó la agudeza de ciertas propiedades, que en otras circunstancias pasarían desapercibidas, tales como la hidrofobicidad, ósmosis, catálisis, permeabilidad, etc. La semejanza y simetría de ciertas propiedades de ciertos elementos, generaron barreras de potencial por diferencia de densidad; dicho medio aislado, variaba con el tiempo y los materiales generados en el interior, desetabilizaban dicha barrera: En ocasiones, cierta parte de esa barrera de potencial, se debilitaba en ciertas partes, permitiendo la entrada de nuevos elementos (propiedades electrolíticas). Por el simple acoplamiento debido a las diferentes propiedades de densidad de los elementos, las disposiciones de los aminoácidos comenzaron a formar estructuras más sólidas, definiendo una clara membrana compuesta de proteínas y emergiendo una nueva propiedad: La permeabilidad selectiva.
Según el medio contuviese más o menos materia orgánica, las combinaciones moleculares darían combinaciones más complejas y con mayor potencial bioquímico. El primer microorganismo que apareciese aportaría al medio los desechos orgánicos que no necesitase, así como su propia estructura. Floreciendo este primer microorganismo, abriría el abaníco de posibilidades aún más.
El alimento es la principal fuente de evolución de los seres vivos. De hecho, si la vida tiene la forma que tiene es porque es sostenible desde un punto de vista termodinámico. Las formas de vida que se alimentan de estructuras vivas, aportan a su sistema información de como ser energéticamente más adaptables. La fuente de alimento es el principal resorte de selección natural. Así se establece el ciclo retroalimentario de la siguiente manera: Las estructuras moleculares aportan al medio estructuras orgánicas homeostáticas, a su vez estas estructuras necesitan energía para mantenerse activas y son al mismo tiempo un aporte de variabilidad al entorno que les rodea. Por lo que la evolución no hubiera sido posible de no existir tanto un punto de inicio biomolecular, como estructuras homeostáticas que aporten al medio más información de cómo ser termodinámicamente óptimo. Todo este proceso es sostenible gracias al aporte energético de la estrella más cercana, el sol, y por la disipación de esa energía en el frío espacio, se establece un ciclo físico y posiblemente (como es el caso de la Tierra) biológico.
Vida sintética[editar]
Artículos principales: Vida sintética y Mycoplasma laboratorium.El 20 de mayo de 2010 un artículo en la revista Science anunciaba lo que probablemente constituya con total propiedad la creación de vida sintética por primera vez en la historia. Un equipo de científicos del Instituto J. Craig Venter acreditaba el descubrimiento.
Concretamente, se informaba del diseño, síntesis y ensamblaje del genoma de 1,08 millones de pares de bases de Mycoplasma mycoides JCVI-syn1.0 partiendo de la información digitalizada de la secuencia genómica y de su trasplante a una célula recipiente correspondiente a un espécimen de Mycoplasma capricolum para crear células deMycoplasma mycoides controladas únicamente por el cromosoma sintético.
Se informaba además de que el único ADN presente en las células creadas era la secuencia sintética diseñada, incluyendo secuencias «de filigrana» así como borrados de genes y polimorfismos, y mutaciones adquiridas durante el proceso de construcción de la célula, la cual mostraba las propiedades fenotípicas esperadas, además de signos de vida propia como la autorreplicación continua.23
Astrobiología[editar]
Artículo principal: AstrobiologíaPara deducir el tipo de vida que pueda existir en otros planetas, se deberá comprobar el aporte energético de la estrella más cercana, pues, si es demasiado, la energía aportada al planeta será tan intensa que hará imposible establecer moléculas biológicamente estables; si es escasa, las formas de vida quizás no se desarrollen más que a nivel bacteriano. Las condiciones físicas del planeta pueden influir en la cantidad de energía que llega de la estrella a su superficie, y establecerán los cauces de la evolución biológica, pues de florecer este tipo de actividad, será capaz de influir en el medio, adaptarse al mismo y transformarlo. Solo ha de cumplir el requisito termodinámico: sostenibilidad entre el aporte y la disipación energética. Indudablemente, su esquema biomolecular será el resultado de las condiciones físicas que lo han condicionado. Así, de forma paralela a la evolución, la selección natural es la función que permite el desarrollo sostenible de la vida en el planeta.
Especulaciones recientes[editar]
Existe una hipótesis no demostrada que matiza la definición termodinámica de la vida, la cual fue defendida por Lynn Margulis. Ésta hipótesis considera la vida como un sistema complejo que surgiría bajo condiciones iniciales favorables, y que localmente aceleraría la conversión energética entre, en nuestro caso, el calor del Sol y el frío espacio. La larga vida media de una estrella permite que este sistema vivo evolucione a niveles cada vez más complejos de vida (complejidad biológica), dado que el sistema se perpetúa mediante material genético de copia imperfecta (definición bioquímica) y de alguna forma es seleccionada siempre la copia más eficiente (definición genética) siendo ésta la más favorable termodinámicamente.
Esta interpretación no sirve para definir mejor qué es la vida, pero complementa la visión termodinámica con un porqué. No solo lo vivo tiende a aumentar el orden sin una ayuda material externa, sino que además este aumento del orden es perfectamente lógico con la tendencia al desorden general, porque para ello se utiliza constantemente energía. En parte, da una vuelta al enfoque y un ser vivo pasa de ser el que utiliza la energía para vivir al que vive para utilizar la energía. Lo que nos lleva a la definición del principio.
Interpretaciones de la vida según diversas religiones[editar]
Para las religiones monoteístas, la vida es la unión del alma y del cuerpo,16 de forma que se diferencia entre la vida del cuerpo, que es mortal, y la vida del alma, que es eterna.24 25 En el caso del cristianismo, a los animales que creó Dios se les llama «seres vivientes... todo ser viviente».26 La palabra hebrea que aquí se tradujo como «ser» es«nefesh», que también se traduce como «alma».27 Según acepta la comunidad creyente, existe vida después de la muerte, denominada vida eterna,16 término que aparece en la Biblia.28 29 Cuando alguien fallece, se dice con frecuencia que pasó a mejor vida,30 expresión que actualmente se usa también como eufemismo de la muerte31 y de forma desligada de la espiritualidad. Según las corrientes creacionistas, la vida fue creada de forma instantánea por Dios. En el Génesis, por ejemplo, se dice que toda la vida fue creada por Dios al principio de los tiempos, entre el tercer y sexto día de la Creación.32
Para el budismo, la vida es cada uno de los estados de reencarnación de los seres en el samsara.33 El concepto de alma no existe en esta religión. Existe, en su lugar, una energía metafísica imperecedera y cambiante denominada karma.34
Véase también[editar]
- Autopoiesis
- Enfermedad
- Esperanza de vida
- Materia orgánica
- Morbilidad
- Mortalidad
- Muerte
- Natalidad
- Salud
- Ser vivo
- Suicidio
Referencias[editar]
- Volver arriba↑ «vida.» Avance de la vigésima tercera edición. Diccionario de la lengua española. Consultado el 27 de septiembre de 2014.
- Volver arriba↑ Milsom, Clare; Rigby, Sue (2009). Fossils at a Glance (2nd edición). John Wiley & Sons. p. 134. ISBN 1405193360.
- Volver arriba↑ History of Life. Universidad de Berkeley.
- Volver arriba↑ (en inglés) Courtland, Rachel (2 de julio de 2008). «Did newborn Earth harbour life?».New Scientist. Consultado el 27 de septiembre de 2014.
- Volver arriba↑ (en inglés) Steenhuysen, Julie (20 de mayo de 2009). «Study turns back clock on origins of life on Earth». Reuters. Consultado el 27 de septiembre de 2014.
- Volver arriba↑ Lynn Margulis, Captando genomas. Una teoría sobre el origen de las especies. Editorial Kairós. (La cita aun está por depurar)
- Volver arriba↑ NASA. Life Cycle of Stars.
- Volver arriba↑
"Un tema clave en el debate [de los tiempos] del aborto es el estatus moral del embrión y el feto", señalaba un informe elaborado por la British Medical Association. "La cuestión de cuándo empieza la vida se ha debatido durante años y continúa siendo un tema en el cual los miembros de la sociedad tienen visiones opuestas (...). Probablemente nunca sea posible alcanzar un acuerdo sobre esta cuestión"
[1] - Volver arriba↑ Declaración sobre el comienzo de la vida humana de la Comisión Nacional de Ética Biomédica de Argentina.
- Volver arriba↑ En cualquier otro caso se incurriría en un delito de homicidio.
- Volver arriba↑ www.fundacionalzheimeresp.org
- Volver arriba↑ Carl Sagan. Serie de televisión Cosmos. 1980. Capítulo IX: Enciclopedia Galáctica.
- Volver arriba↑ Biology Cabinet
- Volver arriba↑ Ilya Prigogine (2012). El nacimiento del tiempo
- Buenos Aires, Fábula Tusquets editores. ISBN 978-987-670-087-0.
- Volver arriba↑ www.redcientífica.com
- ↑ Saltar a:a b c Definición de vida de la RAE.
- Volver arriba↑ Diccionario Esencial de la Lengua Española. Editorial VOX.
- Volver arriba↑ Romanos 6:23
- Volver arriba↑ Génesis 2:7
- Volver arriba↑ Perspicacia para comprender las Escrituras editado por los testigos de Jehová. Tomo II.
- Volver arriba↑ Entrevista a Raymond Kurzweil: The future is going to be very exciting. Artículo en The Guardian.
- Volver arriba↑ La calificación de demostrado puede ser puesta en tela de juicio por ciertas mentalidades. El experimento consiste en un medio altamente reductor en el que se hallan los elementos necesarios para la formación de aminoácidos. Seguidamente de hace saltar una chispa eléctrica y ésta produce algunos de los aminoácidos que forman los organismos vivos. Sin embargo, son pocos los que señalan que el experimento está montado con un sistema de aspiración que quita inmediatamente los productos que produce el arco eléctrico. De no ser así, la misma energía de la chispa destruiría aquello que formó. Otra objeción consiste en que un medio acuoso resulta inconveniente para la formación de polímeros. Más allá de posturas y discusiones, lo cierto es que no se ha podido sintetizar en laboratorio la totalidad de las sustancias que conforman una simple célula. Si acaso se lograra eso, todavía quedaría organizar las sustancias en una estructura funcional que adoptara una conducta o comportamiento de ser vivo.
- Volver arriba↑ Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome. Artículo de la revista Science. 20 de mayo de 2010.
- Volver arriba↑ «no temáis a los que pueden matar el cuerpo, sino a quien puede mandar cuerpo y alma a la gehena» (cf. Mt 10, 28).
- Volver arriba↑
- l hombre no es solamente un cuerpo, es un cuerpo y un alma. No crean que son solamente un cuerpo, con una historia, un nombre y un domicilio. El cuerpo cuando se muere deja como rastro los huesos y sus ingredientes básicos, los cuatro elementos, pasan a ser de nuevo un espermatozoide y un óvulo, pero el alma no sigue ese destino, el alma no se muere. El alma no puede morir, continúa su viaje a través de los 17.000 universos. El terror que le tenemos a la muerte es porque creemos a pies juntillas - el alma cree - que es un cuerpo y le tiene terror a la desaparición, en su olvido y en su identificación con el cuerpo.
- Sheij Abdul Kadir Al-Halveti Al-Yerrahi. Buenos Aires, Argentina. 13 de agosto de 2005.
- Volver arriba↑ Génesis 1:20,21
- Volver arriba↑ Génesis 42:21: ...vimos la angustia de su alma.
- Volver arriba↑ Juan 3:16: Porque de tal manera amó Dios al mundo, que ha dado a su Hijo unigénito, para que todo aquel que en él cree, no se pierda, mas tenga vida eterna.
- Volver arriba↑ Primera epístola de San Juan: El conocimiento de la vida eterna (62:5:13 - 62:5:21):Estas cosas os he escrito a vosotros que creéis en el nombre del Hijo de Dios, para que sepáis que tenéis vida eterna.
- Volver arriba↑ Acepción de vida en Word Reference.
- Volver arriba↑ The Free Dictionary.
- Volver arriba↑ Génesis, 11-31.
- Volver arriba↑ Introducción al budismo: vidas pasadas y futuras.
- Volver arriba↑ Sogyal Rinpoché. El libro tibetano de la vida y de la muerte
- Urano. 2006. 544 pp. ISBN 978-84-7953-623-7
Bibliografía adicional[editar]
- Schrödinger, Erwin (2012). What is Life?. Cambridge University Press. ISBN 9781107604667.
- Seifert, Josef (1997). What is Life?: The Originality, Irreducibility, and Value of Life. Rodopi. ISBN 9789042003811.
Enlaces externos[editar]
- Wikimedia Commons alberga contenido multimedia sobre Vida.
- Wikiquote alberga frases célebres de o sobre Vida.
- Wikcionario tiene definiciones y otra información sobre vida.
- 1Generalidades
- Vida
- Para otros usos de este término, véase Tiempo (desambiguación).Un reloj es cualquier dispositivo que puede medir el tiempo transcurrido entre dos eventos que suceden respecto de un observador.
El tiempo es una magnitud física con la que medimos la duración o separación de acontecimientos, sujetos a cambio, de los sistemas sujetos a observación; esto es, el período que transcurre entre el estado del sistema cuando este presentaba un estadoX y el instante en el que X registra una variación perceptible para un observador (o aparato de medida).
El tiempo permite ordenar los sucesos en secuencias, estableciendo un pasado, un futuro y un tercer conjunto de eventos ni pasados ni futuros respecto a otro. En mecánica clásica esta tercera clase se llama "presente" y está formada por eventos simultáneos a uno dado.
En mecánica relativista el concepto de tiempo es más complejo: los hechos simultáneos ("presente") son relativos al observador, salvo que se produzcan en el mismo lugar del espacio; por ejemplo, un choque entre dos partículas.
Su unidad básica en el Sistema Internacional es el segundo, cuyo símbolo es {\displaystyle s} (debido a que es un símbolo y no una abreviatura, no se debe escribir con mayúscula, ni como "seg", ni agregando un punto posterior).
Índice
[ocultar]- 1El concepto físico del tiempo
- 1.1El tiempo en mecánica clásica
- 1.2El tiempo en mecánica relativista
- 1.2.1Dilatación del tiempo
- 1.3El tiempo en mecánica cuántica
- 1.4La flecha del tiempo y la entropía
- 2La medición del tiempo
- 3Concepción social del tiempo
- 4Véase también
- 5Referencias
- 5.1Bibliografía
- 6Enlaces externos
El concepto físico del tiempo[editar]
Dados dos eventos puntuales E1 y E2, que ocurren respectivamente en instantes de tiempo t1 y t2, y en puntos del espacio diferentes P1 y P2, todas las teorías físicas admiten que estos pueden cumplir una y solo una de las siguientes tres condiciones:1
- Es posible para un observador estar presente en el evento E1, y luego estar en el evento E2, y en ese caso se afirma que E1 es un evento anterior a E2. Además, si eso sucede, ese observador no podrá verificar 2.
- Es posible para un observador estar presente en el evento E2 y luego estar en el evento E1, y en ese caso se afirma que E1 es un evento posterior a E2. Además si eso sucede, ese observador no podrá verificar 1.
- Es imposible, para un observador puntual, estar presente simultáneamente en los dos eventos E1 y E2.
Dado un evento cualquiera, el conjunto de eventos puede dividirse según esas tres categorías anteriores. Es decir, todas las teorías físicas permiten, fijado un evento, clasificar a los eventos en: (1) pasado, (2) futuro y (3) resto de eventos (ni pasados ni futuros). La clasificación de un tiempo presente es debatible por la poca durabilidad de este intervalo que no se puede medir como un estado actual sino como un dato que se obtiene en una continua sucesión de eventos. En mecánica clásica esta última categoría está formada por los sucesos llamados simultáneos, y en mecánica relativista, por los eventos no relacionados causalmente con el primer evento. Sin embargo, la mecánica clásica y la mecánica relativista difieren en el modo concreto en que puede hacerse esa división entre pasado, futuro y otros eventos y en el hecho de que dicho carácter pueda ser absoluto o relativo respecto al contenido de los conjuntos.
Véanse también: Causalidad (física), Paradoja de los gemelos y Espacio-tiempo.El tiempo en mecánica clásica[editar]
En la mecánica clásica, el tiempo se concibe como una magnitud absoluta, es decir, es un escalar cuya medida es idéntica para todos los observadores (una magnitud relativa es aquella cuyo valor depende del observador concreto). Esta concepción del tiempo recibe el nombre de tiempo absoluto. Esa concepción está de acuerdo con la concepción filosófica de Kant, que establece el espacio y el tiempo como necesarios para cualquier experiencia humana. Kant asimismo concluyó que el espacio y el tiempo eran conceptos subjetivos. Mas, no por ello, Kant establecerá que tiempo y espacio sean dimensiones absolutas, ni en sí mismas, sí apoyadas, en cambio, por Newton y Leibniz respectivamente. Para Kant no son dimensiones sino formas puras de la intuición suministrada por la experiencia, de manera que, al no tratarse de magnitudes, no hay posible choque entre ellas. Fijado un evento, cada observador clasificará el resto de eventos según una división tripartita clasificándolos en: (1) eventos pasados, (2) eventos futuros y (3) eventos ni pasados y ni futuros. La mecánica clásica y la física prerrelativista asumen:
- Fijado un acontecimiento concreto todos los observadores sea cual sea su estado de movimiento dividirán el resto de eventos en los mismos tres conjuntos (1), (2) y (3), es decir, dos observadores diferentes coincidirán en qué eventos pertenecen al pasado, al presente y al futuro, por eso el tiempo en mecánica clásica se califica de "absoluto" porque es una distinción válida para todos los observadores (mientras que en mecánica relativista esto no sucede y el tiempo se califica de "relativo").
- En mecánica clásica, la última categoría, (3), está formada por un conjunto de puntos tridimensional, que de hecho tiene la estructura de espacio euclídeo (el espacio en un instante dado). Fijado un evento, cualquier otro evento simultáneo, de acuerdo con la mecánica clásica estará situado en la categoría (3).
Aunque dentro de la teoría especial de la relatividad y dentro de la teoría general de la relatividad, la división tripartita de eventos sigue siendo válida, no se verifican las últimas dos propiedades:
- El conjunto de eventos ni pasados ni futuros no es tridimensional, sino una región cuatridimensional del espacio tiempo.
- No existe una noción de simultaneidad independiente del observador como en mecánica clásica, es decir, dados dos observadores diferentes en movimiento relativo entre sí, en general diferirán sobre qué eventos sucedieron al mismo tiempo.
El tiempo en mecánica relativista[editar]
En mecánica relativista la medida del transcurso del tiempo depende del sistema de referencia donde esté situado el observador y de su estado de movimiento, es decir, diferentes observadores miden diferentes tiempos transcurridos entre dos eventos causalmente conectados. Por tanto, la duración de un proceso depende del sistema de referencia donde se encuentre el observador.
- e acuerdo con la teoría de la relatividad, fijados dos observadores situados en diferentes marcos de referencia, dos sucesos A y B dentro de la categoría (3) (eventos ni pasados ni futuros), pueden ser percibidos por los dos observadores como simultáneos, o puede que A ocurra "antes" que B para el primer observador mientras que B ocurre "antes" de A para el segundo observador. En esas circunstancias no existe, por tanto, ninguna posibilidad de establecer una noción absoluta de simultaneidad independiente del observador. Según la relatividad general el conjunto de los sucesos dentro de la categoría (3) es un subconjunto tetradimensional topológicamente abierto del espacio-tiempo. Cabe aclarar que esta teoría solo parece funcionar con la rígida condición de dos marcos de referencia solamente. Cuando se agrega un marco de referencia adicional, la teoría de la Relatividad queda invalidada: el observador A en la Tierra percibirá que el observador B viaja a mayor velocidad dentro de una nave espacial girando alrededor de la Tierra a 7000 kilómetros por segundo. El observador B notará que el dato de tiempo al reloj. se ha desacelerado y concluye que el tiempo se ha dilatado por causa de la velocidad de la nave. Un observador C localizado fuera del sistema solar, notará que tanto el hombre en tierra como el astronauta girando alrededor de la Tierra, están viajando simultáneamente -la nave espacial y el planeta Tierra- a 28 kilómetros por segundo alrededor del Sol. La más certera conclusión acerca del comportamiento del reloj en la nave espacial, es que ese reloj está funcionando mal, porque no fue calibrado ni probado para esos nuevos cambios en su ambiente. Esta conclusión está respaldada por el hecho que no existe prueba alguna que muestre que el tiempo es objetivo.
Solo si dos sucesos están atados causalmente todos los observadores ven el suceso "causal" antes que el suceso "efecto", es decir, las categorías (1) de eventos pasados y (2) de eventos futuros causalmente ligados sí son absolutos. Fijado un evento E el conjunto de eventos de la categoría (3) que no son eventos ni futuros ni pasados respecto a Epuede dividirse en tres subconjuntos:
(a) El interior topológico- de dicho conjunto, es una región abierta del espacio-tiempo y constituye un conjunto acronal. Dentro de esa región dados cualesquiera dos eventos resulta imposible conectarlos por una señal luminosa que emitida desde el primer evento alcance el segundo.(b) La
Las curiosas relaciones causales de la teoría de la relatividad, conllevan a que no existe un tiempo único y absoluto para los observadores, de hecho cualquier observador percibe el espacio-tiempo o espacio tetradimensional según su estado de movimiento, la dirección paralela a su cuadrivelocidad coincidirá con la dirección temporal, y los eventos que acontecen en las hipersuperficies espaciales perpendiculares en cada punto a la dirección temporal, forman el conjunto de acontecimientos simultáneos para ese observador.
Lamentablemente, dichos conjuntos de acontecimientos percibidos como simultáneos difieren de un observador a otro.
Dilatación del tiempo[editar]
Artículo principal: Dilatación del tiempoSi el tiempo propio es la duración de un suceso medido en reposo respecto a ese sistema, la duración de ese suceso medida desde un sistema de referencia que se mueve con velocidad constante con respecto al suceso viene dada por:
- \displaystyle \Delta t^{\prime }={\frac {\Delta t_{i}}{\sqrt {1-{\frac {v^{2}}{c^{2}}}}}}}
El tiempo en mecánica cuántica[editar]
En mecánica cuántica debe distinguirse entre la mecánica cuántica convencional, en la que puede trabajarse bajo el supuesto clásico de un tiempo absoluto, y la mecánica cuántica relativista, dentro de la cual, al igual que sucede en la teoría de la relatividad, el supuesto de un tiempo absoluto es inaceptable e inapropiado.
La flecha del tiempo y la entropía[editar]
Artículo principal: Flecha del tiempoSe ha señalado que la dirección del tiempo está relacionada con el aumento de entropía, aunque eso parece deberse a las peculiares condiciones que se dieron durante el Big Bang. Aunque algunos científicos como Penrose han argumentado que dichas condiciones no serían tan peculiares si consideramos que existe un principio o teoría física más completa que explique por qué nuestro universo, y tal vez otros, nacen con condiciones iniciales aparentemente improbables, que se reflejan en una bajísima entropía inicial.
La medición del tiempo[editar]
Reloj de sol, de bolsillo.La cronología (histórica, geológica, etc.) permite datar los momentos en los que ocurren determinados hechos (lapsos relativamente breves) o procesos (lapsos de duración mayor). En una línea de tiempo se puede representar gráficamente los momentos históricos en puntos y los procesos en segmentos.
Las formas e instrumentos para medir el tiempo son de uso muy antiguo, y todas ellas se basan en la medición del movimiento, del cambio material de un objeto a través del tiempo, que es lo que puede medirse. En un principio, se comenzaron a medir los movimientos de los astros, especialmente el movimiento aparente del Sol, dando lugar al tiempo solar aparente. El desarrollo de laastronomía hizo que, de manera paulatina, se fueron creando diversos instrumentos, tales como los relojes de sol, las clepsidras o losrelojes de arena y los cronómetros. Posteriormente, la determinación de la medida del tiempo se fue perfeccionando hasta llegar alreloj atómico. Todos los relojes modernos desde la invención del reloj mecánico, han sido construidos con el mismo principio del "tic tic tic". El reloj atómico está calibrado para contar 9 192 631 770 vibraciones del átomo de Cesio para luego hacer un "tic".
Véanse también: Tiempo solar, Tiempo sidéreo, Tiempo Universal Coordinado y Tiempo atómico.Concepción social del tiempo[editar]
El tiempo puede ser concebida de múltiples maneras. Adam (1995) utiliza el término Timescapes representar dimensiones temporales que pueden ser experimentados de múltiples maneras en un co-presente. Según Adam (2004), Timescapes comprenden 'tempo', que es ritmo y velocidad; 'tiempo', que es la sincronización; 'punto en el tiempo ", que se refiere al instante momento, el ahora; '' patrones de tiempo que ello implica de ritmo, ciclos y período; y tiempo extensión 'que incluye la duración y longitud. El tiempo también puede ser visto simplemente como lineal hora del reloj divisible, sin un contexto, por un lado (Hassard 1990), y como ser en el tiempo, tanto en un contexto específico y una cultura, por el otro. De aquí, diversos relatos de experiencias de tiempo emergen. Múltiples experiencias de la gente de tiempo son simultáneos (que podrían experimentar un rápido tiempo contratado ubicado en la presentar por ejemplo) y puede contener ritmos contradictorias (personas podrían experimentar simultáneamente una contracción y una expansión de tiempo).
Véase también[editar]
- Portal:Física. Contenido relacionado con Física.
- Calendario
- Cronología
- Espacio-tiempo
- Filosofía del espacio y el tiempo
- Flecha del tiempo
- Glosario de relatividad
- Reloj
- Viaje a través del tiempo
- Irreversibilidad
- Escala temporal geológica
Referencias[editar]
- Volver arriba↑ Robert M. Wald, 1984
Bibliografía[editar]
- Costa A., Gangi A., Glavich E., Levinas M. L., Lindman A., Onna A., Rieznik M., Sauro S. y Szapiro A. (2008). La naturaleza del tiempo. Usos y representaciones del tiempo en la historia. Biblos.
- Robert M. Wald, (1984): General Relativity
- Chicago University Press, ISBN 0-226-87033-2.
- Murgia, Michele Angelo (2009). Qu'est-ce que le temps? (en francés). In Libro Veritas.
- Adam B. 1995. Timewatch: The social analysis of time. Cambridge: Polity Press.
- Adam, B. 2004. Time. Cambridge: Polity Press.
- Hassard, J. 1990. The sociology of time. London: Macmillan.
Enlaces externos[editar]
- Wikcionario tiene definiciones y otra información sobre tiempo.
- Wikiquote alberga frases célebres de o sobre Tiempo.
- Wikimedia Commons alberga contenido multimedia sobre Tiempo.
- CEITT Centro de Investigación en Tiempo y Temporalidad
- PATY, Michel: «Réflexions sur le concepts de temps», Revista de Filosofía (Universidad Complutense de Madrid), 3ª Época, Vol. XIV, Número 25 (2001)
- Correa Torres, A. (2013). ¿Cómo percibimos el paso del tiempo? Ciencia Cognitiva, 7:1, 16-18.
- Tiempo
- Conceptos metafísicos
- 1El concepto físico del tiempo
- Para otros usos de este término, véase Gravedad (desambiguación).Isaac Newton formuló la ley de gravitación universal.Albert Einstein formuló la Relatividad General, que es una teoría relativista de la gravitación.
La gravedad es una de las cuatro interacciones fundamentales. Origina la aceleración que experimenta un cuerpo físico en las cercanías de un objeto astronómico. También se denomina interacción gravitatoria o gravitación.
Si un cuerpo pesado está situado en las proximidades de un planeta, un observador a una distancia fija del planeta medirá una aceleración del objeto dirigida hacia la zona central de dicho planeta, si el objeto no está sometido al efecto de otras fuerzas. En la superficie de la Tierra, la aceleración originada por la gravedad es 9,80665 m/s², aproximadamente.
Índice
[ocultar]- 1Introducción
- 2Mecánica clásica: ley de la gravitación universal de Newton
- 2.1Problema de los dos cuerpos y órbitas planetarias
- 2.2Problema de los tres cuerpos
- 3Mecánica relativista: Teoría general de la relatividad
- 3.1Cálculo relativista de la fuerza aparente
- 3.2Ondas gravitatorias
- 3.3Efectos gravitatorios
- 4Mecánica cuántica: búsqueda de una teoría unificada
- 4.1La interacción gravitatoria como fuerza fundamental
- 5Véase también
- 6Referencias
- 6.1Bibliografía
- 6.2Enlaces externos
Introducción[editar]
La gravedad es una de las cuatro interacciones fundamentales observadas en la naturaleza. Origina los movimientos a gran escala que se observan en el universo: la órbita de la Luna alrededor de la Tierra, las órbitas de los planetas alrededor del Sol, etcétera. A escala cosmológica parece ser la interacción dominante, pues gobierna la mayoría de los fenómenos a gran escala (las otras tres interacciones fundamentales son predominantes a escalas más pequeñas, el electromagnetismo explica el resto de los fenómenos macroscópicos, mientras que la interacción fuerte y la interacción débil son importantes solo a escala subatómica).
El término «gravedad» se utiliza también para designar la intensidad del fenómeno gravitatorio en la superficie de los planetas o satélites. Isaac Newton fue el primero en exponer que es de la misma naturaleza la fuerza que hace que los objetos caigan con aceleración constante en la Tierra (gravedad terrestre) y la fuerza que mantiene en movimiento los planetas y las estrellas. Esta idea le llevó a formular la primera teoría general de la gravitación, la universalidad del fenómeno, expuesta en su obra Philosophiae Naturalis Principia Mathematica.
- instein, en la teoría de la relatividad general hace un análisis diferente de la interacción gravitatoria. De acuerdo con esta teoría, la gravedad puede entenderse como un efecto geométrico de la materia sobre el espacio-tiempo. Cuando cierta cantidad de materia ocupa una región del espacio-tiempo, provoca que éste se deforme. Visto así, la fuerza gravitatoria no es ya una "misteriosa fuerza que atrae", sino el efecto que produce la deformación del espacio-tiempo -de geometría no euclídea- sobre el movimiento de los cuerpos. Según esta teoría, dado que todos los objetos se mueven en el espacio-tiempo, al deformarse éste, la trayectoria de aquellos será desviada produciendo su aceleración.
Mecánica clásica: ley de la gravitación universal de Newton[editar]
Artículo principal: Ley de gravitación universalFuerzas mutuas de atracción entre dos esferas de diferente tamaño. De acuerdo con la mecánica newtoniana las dos fuerzas son iguales en módulo, pero de sentido contrario; al estar aplicadas en diferentes cuerpos no se anulan y su efecto combinado no altera la posición del centro de gravedad conjunto de ambas esferas.En la teoría newtoniana de la gravitación, los efectos de la gravedad son siempre atractivos, y la fuerza resultante se calcula respecto del centro de gravedad de ambos objetos (en el caso de la Tierra, el centro de gravedad es su centro de masas, al igual que en la mayoría de los cuerpos celestes de características homogéneas). La gravedad newtoniana tiene un alcance teórico infinito; pero la fuerza es mayor si los objetos están próximos, y mientras se van alejando dicha fuerza pierde intensidad. Además Newton postuló que la gravedad es una acción a distancia (y por tanto a nivel relativista no es una descripción correcta, sino solo una primera aproximación para cuerpos en movimiento muy lento comparado con la velocidad de la luz).
La ley de la gravitación universal formulada por Isaac Newton postula que la fuerza que ejerce una partícula puntual con masa {\displaystyle m_{1}}sobre otra con masa {\displaystyle m_{2}} es directamente proporcional al producto de las masas, e inversamente proporcional al cuadrado de ladistancia que las separa:
- \displaystyle \mathbf {F} _{21}=-G{\frac {m_{1}m_{2}}{'\mathbf {r_{2}} -\mathbf {r_{1}} '^{2}}}\mathbf {\hat {u}} _{21}}
- onde {\displaystyle \mathbf {\hat {u}} _{21}} es el vector unitario que dirigido de la partícula 1 a la 2, esto es, en la dirección del vector {\displaystyle \mathbf {r} _{21}=\mathbf {r} _{2}-\mathbf {r} _{1}}, y {\displaystyle G\,\!} es laconstante de gravitación universal, siendo su valor aproximadamente 6,674 × 10−11 N·m²/kg².
Por ejemplo, usando la ley de la gravitación universal, podemos calcular la fuerza de atracción entre la Tierra y un cuerpo de 50 kg. La masa de la Tierra es 5,974 × 1024 kg y la distancia entre el centro de gravedad de la Tierra (centro de la tierra) y el centro de gravedad del cuerpo es 6378,14 km (igual a 6 378 140 m, y suponiendo que el cuerpo se encuentre sobre la línea del Ecuador). Entonces, la fuerza es:
{\displaystyle F=G{\frac {m_{1}m_{2}}{d^{2}}}=6,67428\times 10^{-11}{\frac {50\times 5,974\cdot 10^{24}}{6378140^{2}}}=490,062\ {\text{N}}}
La fuerza con que se atraen la Tierra y el cuerpo de 50 kg es 490.062 N (Newtons, Sistema Internacional de Unidades), lo que representa 50 kgf (kilogramo-fuerza, Sistema Técnico), como cabía esperar, por lo que decimos simplemente que el cuerpo pesa 50 kg.
Dentro de esta ley empírica, tenemos estas importantes conclusiones:
- Las fuerzas gravitatorias son siempre atractivas. El hecho de que los planetas describan una órbita cerrada alrededor del Sol indica este hecho. Una fuerza atractiva puede producir también órbitas abiertas, pero una fuerza repulsiva nunca podrá producir órbitas cerradas.
- Tienen alcance infinito. Dos cuerpos, por muy alejados que se encuentren, experimentan esta fuerza.
- La fuerza asociada con la interacción gravitatoria es central.
- A mayor distancia menor fuerza de atracción, y a menor distancia mayor la fuerza de atracción.
A pesar de los siglos, hoy sigue utilizándose cotidianamente esta ley en el ámbito del movimiento de cuerpos incluso a la escala del Sistema Solar, aunque esté desfasada teóricamente. Para estudiar el fenómeno en su completitud hay que recurrir a la teoría de la Relatividad General.
Véanse también: masa inercial y Masa gravitacional.Problema de los dos cuerpos y órbitas planetarias[editar]
Artículo principal: Problema de los dos cuerposDos cuerpos orbitando alrededor de su centro de masas en órbitas elípticas.La ley de Newton aplicada a un sistema de dos partículas o dos cuerpos, cuyas dimensiones físicas son pequeñas comparadas con las distancias entre ellos, lleva a que ambos cuerpos describirán una curva cónica (elipse, parábola o hipérbola) respecto a un sistema de referencia inercial con origen en el centro de masa del sistema, que además coincidirá con uno de los focos de la cónica. Si la energía total del sistema (energía potencial más energía cinética de los cuerpos) es negativa, entonces las curvas cónicas que dan la trayectoria de ambos cuerpos serán elipses. Ese resultado fue la primera deducción teórica de que los planetas reales se mueven en trayectorias que con bastante aproximación, son elipses, y permitió explicar diversas observaciones empíricas resumidas en las leyes de Kepler.
Problema de los tres cuerpos[editar]
Artículo principal: Problema de los tres cuerposMovimiento caótico de tres cuerpos en un campo de fuerzas aislado.- e acuerdo con la descripción newtoniana, cuando se mueven tres cuerpos bajo la acción de su campo gravitatorio mutuo, como el sistema Sol-Tierra-Luna, la fuerza sobre cada cuerpo es justamente la suma vectorial de las fuerzas gravitatorias ejercidas por los otros dos. Así lasecuaciones de movimiento son fáciles de escribir pero difíciles de resolver ya que no son lineales. De hecho, es bien conocido que la dinámica del problema de los tres cuerpos de la mecánica clásica es una dinámica caótica.
Desde la época de Newton se ha intentado hallar soluciones matemáticamente exactas del problema de los tres cuerpos, hasta que a finales del siglo XIX Henri Poincaré demostró en un célebre trabajo que era imposible una solución general analítica (sin embargo, se mostró también que por medio de series infinitas convergentes se podía solucionar el problema). Solo en algunas circunstancias son posibles ciertas soluciones sencillas. Por ejemplo, si la masa de uno de los tres cuerpos es mucho menor que la de los otros dos (problema conocido como problema restringido de los tres cuerpos), el sistema puede ser reducido a un problema de dos cuerpos más otro problema de un solo cuerpo.
Mecánica relativista: Teoría general de la relatividad[editar]
Artículos principales: Relatividad general y Aproximación para campos gravitatorios débiles- Representación esquemática bidimensional de la deformación del espacio-tiempo en el entorno de la Tierra.Una representación del paraboloide de Flamm, cuya curvatura geométrica coincide con la del plano de la eclíptica o ecuatorial de una estrellaesféricamente simétrica.
Albert Einstein revisó la teoría newtoniana en su teoría de la relatividad general, describiendo la interacción gravitatoria como una deformación de la geometría del espacio-tiempo por efecto de la masa de los cuerpos; el espacio y el tiempo asumen un papel dinámico.
Según Einstein, no existe el empuje gravitatorio; dicha fuerza es una ilusión, un efecto de la geometría. Así, la Tierra deforma el espacio-tiempo de nuestro entorno, de manera que el propio espacio nos empuja hacia el suelo. Una hormiga, al caminar sobre un papel arrugado, tendrá la sensación de que hay fuerzas misteriosas que la empujan hacia diferentes direcciones, pero lo único que existe son pliegues en el papel, su geometría.
La deformación geométrica viene caracterizada por el tensor métrico que satisface las ecuaciones de campo de Einstein. La "fuerza de la gravedad" newtoniana es solo un efecto asociado al hecho de que un observador en reposo respecto a la fuente del campo no es un observador inercial y por tanto al tratar de aplicar el equivalente relativista de las leyes de Newtonmide fuerzas ficticias dadas por los símbolos de Christoffel de la métrica del espacio-tiempo.
La gravedad convencional de acuerdo con la teoría de la relatividad tiene generalmente características atractivas, mientras que la denominada energía oscura parece tener características de fuerza gravitacional repulsiva, causando la aceleradaexpansión del universo.
Cálculo relativista de la fuerza aparente[editar]
En presencia de una masa esférica, el espacio-tiempo no es plano sino curvo, y el tensor métrico g que sirve para calcular las distancias viene dado en coordenadas usuales {\displaystyle \scriptstyle (t,r,\theta ,\phi )}, llamada métrica de Schwarzschild:
- \displaystyle g=-c^{2}\left(1-{\frac {2GM}{c^{2}r}}\right)\mathrm {d} t\otimes \mathrm {d} t+\left(1-{\frac {2GM}{c^{2}r}}\right)^{-1}\mathrm {d} r\otimes \mathrm {d} r+r^{2}\left(\mathrm {d} \theta \otimes \mathrm {d} \theta +\sin ^{2}\theta \ \mathrm {d} \varphi \otimes \mathrm {d} \varphi \right)}
donde G es la constante de gravitación universal, M es la masa de la estrella, y c es la velocidad de la luz. La ecuación de las geodésicas dará la ecuación de las trayectorias en el espacio-tiempo curvo. Si se considera una partícula en reposo respecto a la masa gravitatoria que crea el campo, se tiene que ésta seguirá una trayectoria dada por las ecuaciones:
- \displaystyle {\begin{cases}{\cfrac {d^{2}r}{d\tau ^{2}}}=+{\cfrac {GM}{(c^{2}r-2GM)r}}\left({\cfrac {dr}{d\tau }}\right)^{2}-\left(r-{\cfrac {2GM}{c^{2}}}\right){\cfrac {GM}{r^{3}}}\left({\cfrac {dt}{d\tau }}\right)^{2}\\\\{\cfrac {d^{2}t}{d\tau ^{2}}}=-2{\cfrac {GM}{(c^{2}r-2GM)r}}\left({\cfrac {dr}{d\tau }}\right)\left({\cfrac {dt}{d\tau }}\right)\end{cases}}}
La primera de estas ecuaciones da el cambio de la coordenada radial, y la segunda da la dilatación del tiempo respecto a un observador inercial, situado a una distancia muy grande respecto a la masa que crea el campo. Si se particularizan esas ecuaciones para el instante inicial en que la partícula está en reposo y empieza a moverse desde la posición inicial, se llega a que la fuerza aparente que mediría un observador en reposo viene dada por:
- \displaystyle {\cfrac {d^{2}r}{d\tau ^{2}}}=-\left(r-{\cfrac {2GM}{c^{2}}}\right){\cfrac {GM}{r^{3}}}\left({\cfrac {dt}{d\tau }}\right)^{2}=-{\cfrac {GM}{r^{2}}}\left[\left(1-{\cfrac {2GM}{c^{2}r}}\right)\left({\cfrac {dt}{d\tau }}\right)^{2}\right]\approx -{\cfrac {GM}{r^{2}}}}
Esta expresión coincide con la expresión de la teoría newtoniana si se tiene en cuenta que la dilatación del tiempo gravitatoria para un observador dentro de un campo gravitatorio y en reposo respecto a la fuente del campo viene dado por:
- \displaystyle \left({\cfrac {dt}{d\tau }}\right)^{2}=\left[1-{\cfrac {2GM}{c^{2}r}}\right]^{-1}}
Ondas gravitatorias[editar]
Artículo principal: Onda gravitatoriaAdemás, la relatividad general predice la propagación de ondas gravitatorias. Estas ondas solo podrían ser medibles si las originan fenómenos astrofísicos violentos, como el choque de dos estrellas masivas o remanentes del Big Bang. Estudios preliminares sugieren que estas ondas han sido finalmente detectadas1 de forma indirecta en la variación del periodo de rotación de púlsares dobles, y según el proyecto LIGO, también se detectaron provenientes de la unión de dos agujeros negros2 . Por otro lado, las teorías cuánticas actuales apuntan a una "unidad de medida de la gravedad", el gravitón, como partícula que provoca dicha "fuerza", es decir, como partícula asociada al campo gravitatorio.
Efectos gravitatorios[editar]
Con la ayuda de esta nueva teoría, se pueden observar y estudiar una nueva serie de sucesos antes no explicables o no observados:
- Desviación gravitatoria de luz hacia el rojo en presencia de campos con intensa gravedad: la frecuencia de la luz decrece al pasar por una región de elevada gravedad. Confirmado por el experimento de Pound y Rebka (1959).
- Dilatación gravitatoria del tiempo: los relojes situados en condiciones de gravedad elevada marcan el tiempo más lentamente que relojes situados en un entorno sin gravedad. Demostrado experimentalmente con relojes atómicos situados sobre la superficie terrestre y los relojes en órbita del Sistema de Posicionamiento Global (GPS por sus siglas en inglés). También, aunque se trata de intervalos de tiempo muy pequeños, las diferentes pruebas realizadas con sondas planetarias han dado valores muy cercanos a los predichos por la relatividad general.
- Efecto Shapiro (dilatación gravitatoria de desfases temporales): diferentes señales atravesando un campo gravitatorio intenso necesitan mayor tiempo para hacerlo.
- Decaimiento orbital debido a la emisión de radiación gravitatoria. Observado en púlsares binarios.
- Precesión geodésica: debido a la curvatura del espacio-tiempo, la orientación de un giroscopio en rotación cambiará con el tiempo. Esto está siendo puesto a prueba por el satélite Gravity Probe B.
Mecánica cuántica: búsqueda de una teoría unificada[editar]
Artículo principal: Gravedad cuántica- epresentación gráfica del entramado de bucles que definen el espacio-tiempo según la gravedad cuántica de bucles.Sección bidimensional proyectada en 3Dde una variedad de Calabi-Yau de dimensión 6 embebida en CP4, este tipo de variedades se usan para definir una teoría de supercuerdas en diez dimensiones, usada como modelo de gravedad cuántica yteoría del todo.
Aunque aún no se dispone de una auténtica descripción cuántica de la gravedad. Todos los intentos por crear una teoría física que satisfaga simultáneamente los principios cuánticos y a grandes escalas coincida con la teoría de Einstein de la gravitación, han encontrado grandes dificultades. En la actualidad existen algunos enfoques prometedores como la gravedad cuántica de bucles, lateoría de supercuerdas o la teoría de twistores, pero ninguno de ellos es un modelo completo que pueda suministrar predicciones suficientemente precisas. Además se han ensayado un buen número de aproximaciones semiclásicas que han sugerido nuevos efectos que debería predecir una teoría cuántica de la gravedad. Por ejemplo, Stephen Hawking usando uno de estos últimos enfoques sugirió que un agujero negro debería emitir cierta cantidad de radiación, efecto que se llamó radiación de Hawking y que aún no ha sido verificado empíricamente.
- as razones de las dificultades de una teoría unificada son varias. La mayor de ellas es que en el resto de teorías cuánticas de campos la estructura del espacio-tiempo es fija totalmente independiente de la materia, pero en cambio, en una teoría cuántica de la gravedad el propio espacio-tiempo debe estar sujeto a principios probabilistas, pero no sabemos como describir un espacio de Hilbert para los diversos estados cuánticos del propio espacio-tiempo. Así La unificación de la fuerza gravitatoria con las otras fuerzas fundamentales sigue resistiéndose a los físicos. La aparición en el Universo de materia oscura o una aceleración de la expansión del Universo hace pensar que todavía falta una teoría satisfactoria de las interacciones gravitatorias completas de las partículas con masa.
Otro punto difícil, es que de acuerdo con los principios cuánticos, el campo gravitatorio debería manifestarse en "cuantos" o partículas bosónicas transmisoras de la influencia gravitatoria. Dadas las características del campo gravitatorio, la supuesta partícula que transmitiría la interacción gravitatoria, llamada provisionalmente gravitón, debería ser una partícula sin masa (o con una masa extremadamente pequeña) y un espín de {\displaystyle 2\hbar }. Sin embargo, los experimentos de detección de ondas gravitatorias todavía no han encontrado evidencia de la existencia del gravitón, por lo que de momento no es más que una conjetura física que podría no corresponderse con la realidad.
La interacción gravitatoria como fuerza fundamental[editar]
La interacción gravitatoria es una de las cuatro fuerzas fundamentales de la Naturaleza, junto al electromagnetismo, la interacción nuclear fuerte y la interacción nuclear débil. A diferencia de las fuerzas nucleares y a semejanza del electromagnetismo, actúa a grandes distancias. Sin embargo, al contrario que el electromagnetismo, la gravedad es una fuerza de tipo atractiva aunque existen casos particulares en que las geodésicas temporales pueden expandirse en ciertas regiones del espacio-tiempo, lo cual hace aparecer a la gravedad como una fuerza repulsiva, por ejemplo la energía oscura. Éste es el motivo de que la gravedad sea la fuerza más importante a la hora de explicar los movimientos celestes.
Véase también[editar]
- Ingravidez
- Anomalía gravitatoria
- anomalía geoidal
- Campo gravitatorio
- Interacciones fundamentales
- Teoría general de la relatividad
- Teoría de supercuerdas
- Superfuerza
Referencias[editar]
- Volver arriba↑ «Detectan por primera vez las ondas gravitacionales que predijo Einstein». elmundo.es. Consultado el 17 de mayo de 2016.
- Volver arriba↑ «LIGO Detected Gravitational Waves from Black Holes». elmundo.es (en ingles). Consultado el 06 de junio de 2016.
Bibliografía[editar]
- Halliday, David; Robert Resnick; Kenneth S. Krane (2001). Physics v. 1
- (en inglés). Nueva York: John Wiley & Sons. ISBN 0-471-32057-9.
- Serway, Raymond A.; Jewett, John W. (2004). Physics for Scientists and Engineers
- (en inglés) (6ª edición). Brooks/Cole. ISBN 0-534-40842-7.
- Tipler, Paul Allen; Gene Mosca (2004). Physics for Scientists and Engineers: Mechanics, Oscillations and Waves, Thermodynamics
- (en inglés) (5ª edición). W.H. Freeman & Company. p. 650. ISBN 0-7167-0809-4.
- Wald, Robert M. (1994). Quantum Field Theory in Curved Spacetime and Black Hole Thermodynamics
- (en inglés). Chicago University Press. p. 205. ISBN 0-226-87027-8.
- Wald, Robert M. (1984). General Relativity
- (en inglés) (12ª edición). Chicago University Press. p. 491. ISBN 0-226-87033-2.
Enlaces externos[editar]
- Wikcionario tiene definiciones y otra información sobre gravedad.
- Wikimedia Commons alberga contenido multimedia sobre Gravedad.
- Wikiquote alberga frases célebres de o sobre Gravedad.
- edida de la constante G de la Gravitación Universal, en sc.ehu.es (ac. 04-04-09).
- https://curious.astro.cornell.edu/question.php?number=310
- Los secretos de la gravedad.
- Mecánica
- Gravedad
Para otros usos de este término, véase Materia (desambiguación).
Materia es todo aquello que ocupa un lugar en el espacio, posee una cierta cantidad de energía, y está sujeto a cambios en el tiempo y a interacciones con aparatos de medida. Es decir es todo aquello que ocupa un sitio en el espacio, se puede tocar, se puede sentir, se puede medir, etc. En física y filosofía, materia es el término para referirse a los constituyentes de la realidad material objetiva, entendiendo por objetiva que pueda ser percibida de la misma forma por diversos sujetos. Se considera que es lo que forma la parte sensible de los objetos perceptibles o detectables por medios físicos.
Etimológicamente, la palabra māteria está relacionada con el latín māter, «origen, fuente, madre»,1 está también relacionada con la madera (material de construcción) correspondiente al griego hyle,2 que también es un concepto aristotélico.3 Asimismo, otra posibilidad es que se relacione con el latín domus (casa).1
Índice
[ocultar]
- 1Concepto físico
- 2Materia másica
- 2.1Nivel microscópico
- 2.2Nivel macroscópico
- 2.3Materia no-másica
- 3Distribución de materia en el universo
- 4Propiedades de la materia ordinaria
- 4.1Propiedades generales
- 4.2Propiedades extrínsecas o generales
- 4.3Propiedades intrínsecas o específicas
- 4.4Propiedades químicas
- 4.5Ley de la conservación de la materia
- 5Concepto filosófico
- 5.1Principio único o diversos
- 5.2El atomismo
- 5.3Hilemorfismo
- 6Concepto de materia en otros contextos
- 6.1Materia y Alma - Cuerpo y Espíritu
- 6.2Ciencias materiales y ciencias formales
- 6.3Éticas materiales y éticas formales.
- 6.4Materia y forma en las obras artísticas
- 7Miscelánea
- 8Véase también
- 9Referencias
- 9.1Bibliografía
- 9.2Enlaces externos
Concepto físico[editar]
En física, se llama materia a cualquier tipo de entidad que es parte del universo observable, tiene energía asociada, es capaz de interaccionar, es decir, es medible y tiene una localización espaciotemporal compatible con las leyes de la naturaleza.
Clásicamente se considera que la materia tiene tres propiedades que juntas la caracterizan: ocupa un lugar en el espacio, tiene masa y perdura en el tiempo.
En el contexto de la física moderna se entiende por materia cualquier campo, entidad, o discontinuidad traducible a fenómeno perceptible que se propaga a través del espacio-tiempo a una velocidad igual o inferior a la de la luz y a la que se pueda asociar energía. Así todas las formas de materia tienen asociadas una cierta energía pero solo algunas formas de materia tienen masa.
Materia másica[editar]
- os constituyentes básicos de la materia másica conocida son los fermiones como los "quarks" (púrpura) y "leptones" (verde). Los bosones (rojo) son "materia no-másica".Artículo principal:
Materia (física)
La materia másica está jerárquicamente organizada en varios niveles y subniveles. La materia másica puede ser estudiada desde los puntos de vista macroscópico y microscópico. Según el nivel de descripción adoptado debemos adoptar descripciones clásicas o descripciones cuánticas. Una parte de la materia másica, concretamente la que compone los astros subenfriados y las estrellas, está constituida por moléculas, átomos, e iones. Cuando las condiciones de temperatura lo permite la materia se encuentra condensada.
Nivel microscópico[editar]
El nivel microscópico de la materia másica puede entenderse como un agregado de moléculas. Éstas a su vez son agrupaciones de átomos que forman parte del nivel microscópico. A su vez existen niveles microscópicos que permiten descomponer los átomos en constituyentes aún más elementales, que sería el siguiente nivel, son:
- Electrones: partículas leptónicas con carga eléctrica negativa.
- Protones: partículas bariónicas con carga eléctrica positiva.
- Neutrones: partículas bariónicas sin carga eléctrica (pero con momento magnético).
A partir de aquí hay todo un conjunto de partículas subatómicas que acaban finalmente en los constituyentes últimos de la materia. Así por ejemplo virtualmente los bariones del núcleo (protones y neutrones) se mantienen unidos gracias a un campo escalar formado por piones (bosones de espín cero). E igualmente los protones y neutrones, sabemos que no son partículas elementales, sino que tienen constituyentes de menor nivel que llamamos quarks (que a su vez se mantienen unidos mediante el intercambio de gluonesvirtuales).
Nivel macroscópico[editar]
Macroscópicamente, la materia másica se presenta en las condiciones imperantes en el sistema solar, en uno de cuatro estados de agregación molecular: sólido, líquido, gaseoso y plasma. De acuerdo con la teoría cinética molecular la materia se encuentra formada por moléculas y éstas se encuentran animadas de movimiento, el cual cambia constantemente de dirección y velocidad cuando chocan o bajo el influjo de otras interacciones físicas. Debido a este movimiento presentan energía cinética que tiende a separarlas, pero también tienen una energía potencial que tiende a juntarlas. Por lo tanto el estado físico de una sustancia puede ser:
- Sólido: la energía cinética es menor que la potencial.
- Líquido: la energía cinética y potencial son aproximadamente iguales.
- Gaseoso: la energía cinética es mayor que la potencial.
- Plasma: la energía cinética es tal que los electrones tienen una energía total positiva.
Bajo ciertas condiciones puede encontrarse materia másica en otros estados físicos, como el condensado de Bose-Einstein o el condensado fermiónico.
La manera más adecuada de definir materia másica es describiendo sus cualidades:
- Presenta dimensiones, es decir, ocupa un lugar en un espacio-tiempo determinado.
- Presenta inercia: la inercia se define como la resistencia que opone la materia a modificar su estado de reposo o movimiento.
- La materia es la causa de la gravedad o gravitación, que consiste en la atracción que actúa siempre entre objetos materiales aunque estén separados por grandes distancias.
Materia no-másica[editar]
Una gran parte de la energía del universo corresponde a formas de materia formada por partículas o campos que no presentan masa, como la luz y la radiación electromagnética, las dos formada por fotones. Junto con estas partículas no másicas, se postula la existencia de otras partículas como el gravitón, el fotino y el gravitino, que serían todas ellas partículas sin masa aunque contribuyen a la energía total del universo.
Distribución de materia en el universo[editar]
Según estimaciones recientes, resumidas en este gráfico de laNASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.
Según los modelos físicos actuales, sólo aproximadamente el 5% de nuestro universo está formado por materia másica ordinaria. Se supone que una parte importante de esta masa sería materia bariónica formada por bariones y electrones, que sólo supondrían alrededor de 1/1850 de la masa de la materia bariónica. El resto de nuestro universo se compondría de materia oscura (23%) y energía oscura (72%).
A pesar que la materia bariónica representa un porcentaje tan pequeño, la mitad de ella todavía no se ha encontrado. Todas las estrellas, galaxias y gas observable forman menos de la mitad de los bariones que debería haber. La hipótesis principal sobre el resto de materia bariónica no encontrada es que, como consecuencia del proceso de formación de estructuras posterior al big bang, está distribuida en filamentos gaseosos de baja densidad que forman una red por todo el universo y en cuyos nodos se encuentran los diversos cúmulos de galaxias. Recientemente (mayo de 2008) el telescopio XMM-Newton de la agencia espacial europea ha encontrado pruebas de la existencia de dicha red de filamentos.4
Propiedades de la materia ordinaria[editar]
Propiedades generales[editar]
Las presentan los sistemas materiales básicos sin distinción y por tal motivo no permiten diferenciar una sustancia de otra. Algunas de las propiedades generales se les da el nombre de extensivas, pues su valor depende de la cantidad de materia, tal es el caso de la masa, el peso, volumen. Otras, las que no dependen de la cantidad de materia sino de la sustancia de que se trate, se llaman intensivas. El ejemplo paradigmático de magnitud intensiva de la materia másica es la densidad.
Propiedades extrínsecas o generales[editar]
Son las cualidades que nos permiten reconocer a la materia, como la extensión, o la inercia. Son aditivas debido a que dependen de la cantidad de la muestra tomada. Para medirlas definimos magnitudes, como la masa, para medir la inercia, y el volumen, para medir la extensión (no es realmente una propiedad aditiva exacta de la materia en general, sino para cada sustancia en particular, porque si mezclamos por ejemplo 50 ml de agua con 50 ml de etanol obtenemos un volumen de disolución de 96 ml). Hay otras propiedades generales como la interacción, que se mide mediante la fuerza. Todo sistema material interacciona con otros en forma gravitatoria, electromagnética o nuclear. También es una propiedad general de la materia su estructura corpuscular, lo que justifica que la cantidad se mida para ciertos usos en moles.
Propiedades intrínsecas o específicas[editar]
Son las cualidades de la materia independientes de la cantidad que se trate, es decir no dependen de la masa. No son aditivas y, por lo general, resultan de la composición de dos propiedades extensivas. El ejemplo perfecto lo proporciona la densidad, que relaciona la masa con el volumen. Es el caso también del punto de fusión, del punto de ebullición, el coeficiente de solubilidad, el índice de refracción, el módulo de Young,etc.
Propiedades químicas[editar]
Son aquellas propiedades distintivas de las sustancias que se observan cuando reaccionan, es decir, cuando se rompen o se forman enlaces químicos entre los átomos, formándose con la misma materia sustancias nuevas distintas de las originales. Las propiedades químicas se manifiestan en los procesos químicos (reacciones químicas), mientras que las propiamente llamadas propiedades físicas, se manifiestan en los procesos físicos, como el cambio de estado, la deformación, el desplazamiento, etc.
Ejemplos de propiedades químicas:
- Corrosividad de ácidos
- Poder calorífico o energía calórica
- Acidez
- Reactividad
Ley de la conservación de la materia[editar]
Como hecho científico la idea de que la masa se conserva se remonta al químico Lavoisier, el científico francés considerado padre de la Química moderna que midió cuidadosamente la masa de las sustancias antes y después de intervenir en una reacción química, y llegó a la conclusión de que la materia, medida por la masa, no se crea ni destruye, sino que sólo se transforma en el curso de las reacciones. Sus conclusiones se resumen en el siguiente enunciado: En una reacción química, la materia no se crea ni se destruye, solo se transforma.
- El mismo principio fue descubierto antes por Mijaíl Lomonosov, de manera que es a veces citado como ley de Lomonosov-Lavoisier, más o menos en los siguientes términos:
La masa de un sistema de sustancias es constante, con independencia de los procesos internos que puedan afectarle
- es decir, "La suma de los productos, es igual a la suma de los reactivos, manteniéndose constante la masa". Sin embargo, tanto las técnicas modernas como el mejoramiento de la precisión de las medidas han permitido establecer que la ley de Lomonosov-Lavoisier, se cumple sólo aproximadamente.
La equivalencia entre masa y energía descubierta por Einstein obliga a rechazar la afirmación de que la masa convencional se conserva, porque masa y energía son mutuamente convertibles. De esta manera se puede afirmar que la masa relativista equivalente (el total de masa material y energía) se conserva, pero la masa en reposo puede cambiar, como ocurre en aquellos procesos relativísticos en que una parte de la materia se convierte en fotones. La conversión en reacciones nucleares de una parte de la materia en energía radiante, con disminución de la masa en reposo; se observa por ejemplo en procesos de fisión como la explosión de una bomba atómica, o en procesos de fusión como la emisión constante de energía que realizan las estrellas.
Concepto filosófico[editar]
Desde el comienzo de la filosofía, y en casi todas las culturas, se encuentra este concepto vagamente formulado como lo que permanece por debajo de las aparienciascambiantes de las cosas de la naturaleza. Según esa idea, todo lo observable está dado en sus diversas y cambiantes apariencias en un soporte o entidad en la que radica el movimiento y cambio de las cosas: la materia.
Principio único o diversos[editar]
Una cuestión filosófica importante fue si toda la materia o sustrato material tenía un principio único o tenía diversas fuentes. Que dicho sustrato sea uno sólo, o varios principios materiales, (aire, fuego, tierra y agua), fue cuestión planteada por los filósofos milesios; los eleatas, en cambio, cuestionaron la realidad del movimiento y, junto con lospitagóricos, fundamentaron el ser en un principio formal del pensamiento, dejando a la materia meramente como algo indeterminado e inconsistente, un no-ser.
El atomismo[editar]
Mayor trascendencia histórica ha tenido la teoría atomista de la antigüedad, puesta de nuevo en vigor por el mecanicismo racionalista en el siglo XVII y XVIII, que supuso el soporte teórico básico para el nacimiento de la ciencia física moderna.
Hilemorfismo[editar]
Platón y sobre todo Aristóteles elaboraron el concepto de forma, correlativo y en contraposición a la materia, dándole a ésta el carácter metafísico y problemático que ha tenido a lo largo de la historia del pensamiento, al mismo tiempo que ha servido como concepto que se aplica en otros contextos.
Es Aristóteles quien elaboró el concepto de materia de manera más completa, si bien el aspecto metafísico quedó relegado a la escolástica.
Para Aristóteles, siguiendo la tradición de los milesios y de Platón, la característica fundamental de la materia es la receptividad de la forma. La materia puede ser todo aquello capaz de recibir una forma. Por eso ante todo la materia es potencia de ser algo, siendo el algo lo determinado por la forma.
En función de este concepto hay tantas clases de materias como clases de formas capaces de determinar a un ser. Puesto que el movimiento consiste en un cambio de forma de la sustancia, el movimiento se explica en función de la materia como potencia y el acto como forma de determinación de la sustancia.
La materia, en tanto que sustancia y sujeto, es la posibilidad misma del movimiento. Hay tantas clases de materia cuantas posibles determinaciones de la sustancia en sus predicados.
Cuando las determinaciones son accidentales la materia viene dada por la situación de la sustancia en potencia respecto a recepción de una nueva forma. Así el estar sentando en acto es materia en potencia para estar de pie; el movimiento consiste en pasar de estar de pie en potencia, a estar de pie en acto.
El problema es la explicación del cambio sustancial que se produce en la generación y corrupción de la sustancia. Aparece aquí el concepto metafísico de materia prima, pura potencia de ser que no es nada, puesto que no tiene ninguna forma de determinación.
La tradicional fórmula escolástica por la que se suele definir la materia prima da idea de que realmente es difícil concebir una realidad que se corresponda con dicho concepto:No es un qué (sustancia), ni una cualidad, ni una cantidad ni ninguna otra cosa por las cuales se determina el ser. Una definición meramente negativa que incumple las leyes mismas de la definición. Pura posibilidad de ser que no es nada.
Sin embargo el concepto aristotélico de materia ha tenido aplicaciones en diversos sentidos.
Concepto de materia en otros contextos[editar]
Materia y Alma - Cuerpo y Espíritu[editar]
Una de las formas de consideración de la materia ha sido en su oposición con el alma. Según esta oposición la materia hace referencia a lo "inerte", lo que no tiene vida.
En esta oposición el alma denota principio de "vida" como capacidad de automovimiento5 y en el caso de los animales, al menos los animales superiores, capacidad de conciencia; siendo exclusivo del hombre la capacidad de autoconciencia entendida como espíritu y libertad.
El hecho religioso ha concedido históricamente a esta oposición una dimensión cultural importantísima. Pero la ciencia, al prescindir de cualquier dimensión metafísica o religiosa, no puede hacerse eco de esta distinción.
Ciencias materiales y ciencias formales[editar]
Las matemáticas y la lógica son ciencias formales porque no tienen ningún objeto material de estudio sino la "formas" válidas de inferencia. Por eso su mejor expresión es simbólica, sin contenido. Las demás ciencias en cuanto que tienen un objeto de estudio concreto son ciencias materiales.
Éticas materiales y éticas formales.[editar]
Kant introdujo lo que llamó éticas materiales y éticas formales. Las primeras consisten en establecer los imperativos acerca de lo que hay que hacer, es decir, tienen contenido. Las segundas no dicen lo que se tiene que hacer sino la "forma" en que se debe actuar en cualquier circunstancia.
Materia y forma en las obras artísticas[editar]
En las obras de arte, literatura, cine, pintura etc. suele distinguirse entre el contenido de que se trata (tema artístico, tema literario) y la forma en que el tema es tratado. Al primer aspecto se le considera como la materia y al segundo la forma propiamente dicha en la que consiste el arte.6
Artículo principal: Forma artística
También se denomina "materia" al material del que la obra de arte está hecho y que determina su técnica: materia pictórica (óleo, temple, fresco, etc.), materia escultórica(bronce, mármol, madera, etc.), materia arquitectónica o materiales de construcción (adobe, ladrillo, mampostería, sillares, madera, hierro, cristal, etc.)
Particularmente en pintura, la "materia" se opone al "soporte", en expresiones como "óleo sobre lienzo", "temple sobre tabla", "técnica mixta sobre papel", etc.
Miscelánea[editar]
- El kilogramo es una unidad de la cantidad de materia, corresponde a la masa de un dm³ (1 litro) de agua pura a 4 °C de temperatura. A partir de esta medida, se creó un bloque de platino e iridio de la misma masa que se denominó kilogramo patrón. Éste se conserva en la Oficina Internacional de Pesos y Medidas de Sèvres (Francia).
- La cantidad de materia también puede ser estimada por la energía contenida en una cierta región del espacio, tal como sugiere la fórmula E = m. c² que da la equivalencia entre masa y energía establecida por la teoría de la relatividad de Albert Einstein.
- Tabla de densidades" en [kg/m3]: Osmio 22300, Oro 19300 - Hierro 7960 - Cemento 3000 - Agua 1000 - Hielo 920 - Madera 600 a 900 - Aire 1, 29.
- La temperatura es una magnitud que indica el grado de agitación térmica de una sustancia. Asimismo, cuando dos sustancias que están en contacto tienen distintas temperaturas se produce una transferencia de energía térmica (en forma de calor) hasta igualar ambas temperaturas. En el momento en que se igualan las temperaturas se dice que estas dos sustancias están en equilibrio térmico.
- Los tres elementos químicos más abundantes en el universo son H, He y C; algunas de sus propiedades más importantes son:
- idrógeno (H2): Densidad = 0, 0899 kg/m³ Teb = -252, 9 °C, Tf =-259, 1 °C.
- elio (He): Densidad = 0, 179 kg/m³ Teb = -268, 9 °C, Tf = -272, 2 °C.
- Carbono (C): Densidad = 2267 kg/m³ Teb = 4027 °C, Tf = 3527 °C.
Véase también[editar]
- Antimateria
- Materia oscura
- Material
Referencias[editar]
- ↑ Saltar a:a b «Matter». Online Etymology Dictionary (en inglés). Consultado el 29 de mayo de 2016.
- Volver arriba↑ «Materia - Glosario de filosofía». Webdianoia. 2015. Consultado el 29 de mayo de 2016.
- Volver arriba↑ «La teoría hilemórfica». Cibernous. Consultado el 29 de mayo de 2016.
- Volver arriba↑ ESA (ed.). «El XMM descubre parte de la materia perdida del universo».
- Volver arriba↑ Así concebido el alma como "principio de vida" se considera "inmortal" ligado culturalmente a las creencias religiosas. La ciencia en cambio, hoy define la vida mediante funciones determinadas y no diferenciadas de lo material
- Volver arriba↑ Véase interpretación
Bibliografía[editar]
- Landau & Lifshitz, Teoría clásica de los campos
- Ed. Reverté, ISBN 84-291-4082-4.
- Segura González, Wenceslao, Teoría de campo relativista
- eWT Ediciones, 2014, ISBN 978-84-617-1463-6.
Enlaces externos[editar]
- Wikcionario tiene definiciones y otra información sobre materia.
- Wikiquote alberga frases célebres de o sobre Materia.
Categoría:
- Materia
Para otros usos de este término, véase Sólido (desambiguación).Trozo de hielo (agua en estado sólido).
Un cuerpo sólido (del latín solĭdus) es uno de los cuatro estados de agregación de la materia más conocidos y observables (siendo los otros gas, líquido y el plasma). Se caracteriza porque opone resistencia a cambios de forma y de volumen. Sus partículas se encuentran juntas y correctamente ordenadas. Las moléculas de un sólido tienen una gran cohesión y adoptan formas bien definidas. Existen varias disciplinas que estudian los sólidos:
- La física del estado sólido estudia de manera experimental y teórica la materia condensada, es decir, de líquidos y sólidos que contengan más de 1019 átomos en contacto entre sí.1
- La mecánica de sólidos deformables estudia propiedades microscópicas desde la perspectiva de la mecánica de medios continuos (tensión, deformación, magnitudes termodinámicas, &c.) e ignora la estructura atómica interna porque para cierto tipo de problemas esta no es relevante.
- La ciencia de materiales se ocupa principalmente de propiedades de los sólidos como estructura y transformaciones de fase.
- La química del estado sólido se especializa en la síntesis de nuevos materiales.
Manteniendo constante la presión a baja temperatura los cuerpos se presentan en forma sólida y encontrándose entrelazados formando generalmente estructuras cristalinas. Esto confiere al cuerpo la capacidad de soportar fuerzas sin deformación aparente. Son, por tanto, agregados generalmente rígidos, incompresibles (que no pueden ser comprimidos), duros y resistentes. Poseen volumen constante y no se difunden, ya que no pueden desplazarse.
El sólido más ligero conocido es un material artificial, el aerogel con una densidad de 3 mg/cm³ o 3 kg/m³, el vidrio, que tiene una densidad de 1,9 g/cm³, mientras que el más denso es un metal, el osmio (Os), que tiene una densidad de 22,6 g/cm³.[cita requerida]
Propiedades de los sólidos[editar]
- Elasticidad: Un sólido recupera su forma original cuando es deformado. Un resorte es un objeto en que podemos observar esta propiedad ya que vuelve a su forma original.
- Fragilidad: Un sólido puede romperse en muchos fragmentos (quebradizo).
- Dureza: Hay sólidos que no pueden ser rayados por otros más blandos. El diamante es un sólido con dureza elevada.
- Forma definida: Tienen forma definida, son relativamente rígidos y no fluyen como lo hacen los gases y los líquidos, excepto bajo presiones extremas del medio.
- Alta densidad: Los sólidos tienen densidades relativamente altas debido a la cercanía de sus moléculas por eso se dice que son más "pesados"
- Flotación: Algunos sólidos cumplen con esta propiedad, solo si su densidad es menor a la del líquido en el cual se coloca.
- Inercia: es la dificultad o resistencia que opone un sistema físico o un sistema social a posibles cambios, en el caso de los sólidos pone resistencia a cambiar su estado de reposo.
- Tenacidad: En ciencia de los Materiales la tenacidad es la resistencia que opone un material a que se propaguen fisuras o grietas.
- Maleabilidad: Es la propiedad de la materia, que presentan los cuerpos a ser labrados por deformación. La maleabilidad permite la obtención de delgadas láminas de material sin que éste se rompa, teniendo en común que no existe ningún método para cuantificarlas.
- Ductilidad: La ductilidad se refiere a la propiedad de los sólidos de poder obtener hilos de ellas.
Véase también[editar]
- Estado de agregación de la materia
- Cambio de estado
- Propiedades intensivas y extensivas
- Licuefacción de gases
- Materia granular
- Gel
Referencias[editar]
- Volver arriba↑ Sólido en Google Libros.
Categorías:
- Estados de la materia
- Sólidos
Para el término económico, véase Liquidez.Formación de una gota esferoidal en la superficie del agua líquida, la forma esférica minimiza lasuperficie, que es el resultado natural de la tensión superficial de los líquidos.
El líquido es un estado de agregación de la materia en forma de fluido altamente incompresible lo que significa que suvolumen es, bastante aproximado, en un rango grande de presión. Es el único estado con un volumen definido, pero no con forma fija. Un líquido está formado por pequeñas partículas vibrantes de la materia, como los átomos y las moléculas, unidas por enlaces intermoleculares. El agua es, el líquido más común en la Tierra y el más abundante. Como un gas, un líquido es capaz de fluir y tomar la forma de un recipiente. A diferencia de un gas, un líquido no se dispersa para llenar cada espacio de un contenedor, y mantiene una densidad bastante constante. Una característica distintiva del estado líquido es la tensión superficial, dando lugar a fenómenos humectantes.
Índice
[ocultar]
- 1Descripción de los líquidos
- 1.1Líquidos
- 1.2Cambios de estado
- 2Propiedades de los líquidos
- 2.1Viscosidad
- 2.2Fluidez
- 2.3Presión de vapor
- 2.4Otras propiedades
- 3Véase también
- 4Referencias
- 4.1Bibliografía
- 4.2Enlaces externos
Descripción de los líquidos[editar]
El estado líquido es un estado de agregación de la materia intermedio entre el estado sólido y el estado de gas. Las moléculas de los líquidos no están tan próximas como las de los sólidos, pero están menos separadas que las de los gases. Las moléculas en el estado líquido ocupan posiciones al azar que varían con el tiempo. Las distancias íntermoleculares son constantes dentro de un estrecho margen. En algunos líquidos, las moléculas tienen una orientación preferente, lo que hace que el líquido presente propiedades anisótropas (propiedades, como el índice de refracción, que varían según la dirección dentro del material).
Los líquidos presentan tensión superficial y capilaridad, generalmente se dilatan cuando se incrementa su temperatura y pierden volumen cuando se enfrían, aunque sometidos a compresión su volumen es muy poco variable a diferencia de lo que sucede con otros fluidos como los gases. Los objetos inmersos en algún líquido están sujetos a un fenómeno conocido como flotabilidad.
Líquidos[editar]
Su forma es esférica si sobre él no actúa ninguna fuerza externa. Por ejemplo, una gota de agua en caída libre toma la forma esférica.1
Como fluido sujeto a la fuerza de la gravedad, la forma de un líquido queda definida por su contenedor. En un líquido en reposo sujeto a la gravedad en cualquier punto de su seno existe una presión de igual magnitud hacia todos los lados, tal como establece el principio de Pascal. Si un líquido se encuentra en reposo, la presión hidrostática en cualquier punto del mismo viene dada por:
{\displaystyle p=\rho gz\,}
Donde {\displaystyle \rho } es la densidad del líquido, {\displaystyle g} es la gravedad (9,8 m/s) y {\displaystyle z} es la distancia del punto considerado a la superficie libre del líquido en reposo. En un fluido en movimiento la presión no necesariamente es isótropa, porque a la presión hidrostática se suma la presión hidrodinámica que depende de la velocidad del fluido en cada punto.
Cambios de estado[editar]
Un diagrama de cambio de fase típico: la línea punteada muestra el comportamiento anómalo delagua. Las líneas verdes muestran como el punto de congelación puede variar con la presión, y la línea azul muestra el punto de ebullición puede variar con la presión. La línea roja muestra la frontera de condiciones de presión y temperatura en la que puede ocurrir la sublimación o deposición sólida.
En condiciones apropiadas de temperatura y presión, la mayoría de las sustancias pueden existir en estado líquido. Cuando un líquido sobrepasa su punto de ebullición cambia su estado a gaseoso, y cuando alcanza su punto de congelación cambia a sólido. Aunque a presión atmosférica, sin embargo, algunos sólidos se subliman al calentarse; es decir, pasandirectamente del estado sólido al estado gaseoso (véase evaporación). La densidad de los líquidos suele ser algo menor que la densidad de la misma sustancia en estado sólido. Algunas sustancias, como el agua, son más densas en estado líquido.
Por medio de la destilación fraccionada, los líquidos pueden separarse de entre sí al evaporarse cada uno al alcanzar sus respectivos puntos de ebullición. La cohesión entre las moléculas de un líquido no es lo suficientemente fuerte por lo que las moléculas superficiales se pueden evaporar.
Propiedades de los líquidos[editar]
Viscosidad[editar]
En la animación, el fluido de abajo es más viscoso que el de arriba.
Los líquidos se caracterizan porque las fuerzas internas del mismo no dependen de la deformación total, aunque usualmente sí dependen de la velocidad de deformación, esto es lo que diferencia a los sólidos deformables de los líquidos. Los fluidos reales se caracterizan por poseer una resistencia a fluir llamada viscosidad (que también está presente en los sólidos viscoelásticos). Eso significa que en la práctica para mantener la velocidad en un líquido es necesario aplicar una fuerza o presión, y si dicha fuerza cesa el movimiento del fluido cesa eventualmente tras un tiempo finito.
La viscosidad de un líquido crece al aumentar su masa molar y disminuye al crecer la temperatura. La viscosidad también está relacionada con la complejidad de las moléculas que constituyen el líquido: es baja en los gases inertes licuados y alta en los aceites pesados. Es una propiedad característica de todo fluido (líquidos o gases).
La viscosidad es una medida de la resistencia al desplazamiento de un fluido cuando existe una diferencia de presión. Cuando un líquido o un gas fluyen se supone la existencia de una capa estacionaria, de líquido o gas, adherida sobre la superficie del material a través del cual se presenta el flujo. La segunda capa roza con la adherida superficialmente y esta segunda con una tercera y así sucesivamente. Este roce entre las capas sucesivas es el responsable de la oposición al flujo, o sea, el responsable de la viscosidad.
La viscosidad se mide en poises, siendo un poise la viscosidad de un líquido en el que para deslizar una capa de un centímetro cuadrado de área a lavelocidad de 1 cm/s respecto a otra estacionaria situado a 1 cm de distancia fuese necesaria la fuerza de una dina.
La viscosidad suele decrecer en los líquidos al aumentar la temperatura, aunque algunos pocos líquidos presentan un aumento de viscosidad cuando se calientan. Para los gases la viscosidad aumenta al aumentar la temperatura.
La viscosidad de un líquido se determina por medio de un viscosímetro entre los cuales el más utilizado es el de Ostwald.2 Este se utiliza para determinar viscosidad relativa, es decir, que conociendo la viscosidad de un líquido patrón, generalmente agua, se obtiene la viscosidad del líquido problema a partir de la ecuación:
{\displaystyle '''{n_{1} \over n_{2}}={\frac {d_{1}\times t_{1}}{d_{2}\times t_{2}}}'''}
Fluidez[editar]
La fluidez es una característica de los líquidos o gases que les confiere la habilidad de poder pasar por cualquier orificio o agujero por más pequeño que sea, siempre que esté a un mismo o inferior nivel del recipiente en el que se encuentren (el líquido), a diferencia del restante estado de agregación conocido como sólido.
La fluidez se debe a que un fluido puede adquirir una deformación arbitrariamente grande sin necesidad de ejercer una tensión mecánica, dado que en los líquidos la tensión mecánica o presión en el seno del fluido depende esencialmente de la velocidad de la deformación no de la deformación en sí misma (a diferencia de los sólidos que tienen "memoria de forma" y experimentan tensiones tanto más grandes cuanto más se alejan de la forma original, es decir, en un sólido la tensión está relacionada primordialmente con el grado de deformación)
Presión de vapor[editar]
Presión de un vapor en equilibrio con su forma líquida, la llamada presión de vapor, solo depende de la temperatura; su valor a una temperatura dada es una propiedad característica de todos los líquidos.
También lo son el punto de ebullición, el punto de solidificación y el calor de vaporización (esencialmente, el calor necesario para transformar en vapor una determinada cantidad de líquido).
En ciertas condiciones, un líquido puede calentarse por encima de su punto de ebullición; los líquidos en ese estado se denominan supercalentados. También es posible enfriar un líquido por debajo de su punto de congelación y entonces se denomina líquido superenfriado.
Otras propiedades[editar]
Los líquidos no tienen forma fija pero sí volumen. Tienen variabilidad de forma y características muy particulares que son:
- Cohesión: fuerza de atracción entre moléculas iguales
- Adhesión: fuerza de atracción entre moléculas diferentes.
- Tensión superficial: fuerza que se manifiesta en la superficie de un líquido, por medio de la cual la capa exterior del líquido tiende a contener el volumen de este dentro de una mínima superficie.
- Capilaridad: facilidad que tienen los líquidos para subir por tubos de diámetros pequeñísimos (capilares) donde la fuerza de cohesión es superada por la fuerza de adhesión.
Véase también[editar]
- Sólido
- Gas
- Plasma
Referencias[editar]
- Volver arriba↑ Física general. Escrito por Santiago Burbano de Ercilla, Carlos Gracía Muñoz. (books.google.es). Página 295.
- Volver arriba↑ Diccionario de química física. Escrito por J M Costa (books.google.es)
Bibliografía[editar]
- Física general. Escrito por Santiago Burbano de Ercilla, Carlos Gracía Muñoz. (books.google.es)
Enlaces externos[editar]
- El Diccionario de la Real Academia Española tiene una definición para líquido.
Categorías:
- Estados de la materia
- Líquidos
- Volumen
- Soluciones
Para otros usos de este término, véase Gas (desambiguación).La temperatura de un gas ideal monoatómico es una medida relacionada con la energía cinéticapromedio de sus moléculas al moverse. En esta animación, la relación del tamaño de los átomos dehelio respecto a su separación se conseguiría bajo una presión de 1950 atmósferas. Estos átomos a temperatura ambiente tienen una cierta velocidad media (aquí reducida dos billones de veces).
Se denomina gas (palabra inventada por el científico flamenco Jan Baptista van Helmont en el siglo XVII, sobre el latínchaos1 ) al estado de agregación de la materia en el cual, bajo ciertas condiciones de temperatura y presión, sus moléculas interaccionan solo débilmente entre sí, sin formar enlaces moleculares, adoptando la forma y el volumen del recipiente que las contiene y tendiendo a separarse, esto es, expandirse, todo lo posible por su alta energía cinética. Los gases son fluidosaltamente compresibles, que experimentan grandes cambios de densidad con la presión y la temperatura. Las moléculas que constituyen un gas casi no son atraídas unas por otras, por lo que se mueven en el vacío a gran velocidad y muy separadas unas de otras, explicando así las propiedades:
- Las moléculas de un gas se encuentran prácticamente libres, de modo que son capaces de distribuirse por todo el espacio en el cual son contenidos. Las fuerzas gravitatorias y de atracción entre las moléculas son despreciables, en comparación con la velocidad a que se mueven sus moléculas.
- Los gases ocupan completamente el volumen del recipiente que los contiene.
- Los gases no tienen forma definida, adoptando la de los recipientes que las contiene.
- Pueden comprimirse fácilmente, debido a que existen enormes espacios vacíos entre unas moléculas y otras.
A temperatura y presión ambientales los gases pueden ser elementos como el hidrógeno, el oxígeno, el nitrógeno, el cloro, el flúor y los gases nobles, compuestos como el dióxido de carbono o el propano, o mezclas como el aire.
Los vapores y el plasma comparten propiedades con los gases y pueden formar mezclas homogéneas, por ejemplo vapor de agua y aire, en conjunto son conocidos como cuerpos gaseosos, estado gaseoso o fase gaseosa.
Índice
[ocultar]
- 1Historia
- 2Leyes de los gases
- 2.1Ley de Boyle-Mariotte
- 2.2Ley de Charles
- 2.3Ley de Gay-Lussac
- 2.4Ley general de los gases
- 2.5Ley de los gases ideales
- 3Gases reales
- 4Comportamiento de los gases
- 4.1Cambios de densidad
- 4.2Presión de un gas
- 5Véase también
- 6Referencias
- 7Enlaces externos
Historia[editar]
En 1648, el químico Jan Baptist van Helmont, considerado el padre de la química neumática, creó el vocablo gas (durante un tiempo se usó también "estado aeriforme"), a partir del término griego kaos (desorden) para definir las características del anhídrido carbónico. Esta denominación se extendió luego a todos los cuerpos gaseosos, también llamados fluidos elásticos, fluidos compresibles o aires, y se utiliza para designar uno de los estados de la materia.
La principal característica de los gases respecto de los sólidos y los líquidos, es que no pueden verse ni tocarse, pero también se encuentran compuestos de átomos y moléculas.
La causa de la naturaleza del gas se encuentra en sus moléculas, muy separadas unas de otras y con movimientos aleatorios entre sí. Al igual que ocurre con los otros dos estados de la materia, el gas también puede transformarse (en líquido) si se somete a temperaturas muy bajas. A este proceso se le denomina condensación en el caso de los vapores y licuefacción en el caso de los gases perfectos.
La mayoría de los gases necesitan temperaturas muy bajas para lograr condensarse. Por ejemplo, en el caso del oxígeno, la temperatura necesaria es de -183 °C.
Las primeras leyes de los gases fueron desarrollados desde finales del siglo XVII, cuando los científicos empezaron a darse cuenta de que en las relaciones entre la presión, el volumen y la temperatura de una muestra de gas, en un sistema cerrado, se podría obtener una fórmula que sería válida para todos los gases. Éstos se comportan de forma similar en una amplia variedad de condiciones, debido a la buena aproximación que tienen las moléculas que se encuentran más separadas, y hoy en día la ecuación de estado para un gas ideal se deriva de la teoría cinética. Ahora las leyes anteriores de los gases se consideran como casos especiales de la ecuación del gas ideal, con una o más de las variables mantenidas constantes.
Empíricamente, se observan una serie de relaciones proporcionales entre la temperatura, la presión y el volumen que dan lugar a la ley de los gases ideales, deducida por primera vez por Émile Clapeyron en 1834.
Leyes de los gases[editar]
Existen diversas leyes derivadas de modelos simplificados de la realidad que relacionan la presión, el volumen y la temperatura de un gas.
Ley de Boyle-Mariotte[editar]
Artículo principal: Ley de Boyle-Mariotte
La Ley de Boyle-Mariotte (o Ley de Boyle), formulada por Robert Boyle y Edme Mariotte, es una de las leyes de los gases que relaciona el volumen y la presión de una cierta cantidad de gas mantenida a temperatura constante. La ley dice que a una temperatura constante y para una masa dada de un gas el volumen del gas varia de manera inversamente proporcional a la presión absoluta del recipiente:
{\displaystyle PV=k\,}
Ley de Charles[editar]
Artículo principal: Ley de Charles
A una presión dada, el volumen ocupado por una cierta cantidad de un gas es directamente proporcional a su temperatura.
Matemáticamente la expresión sería:
{\displaystyle {\frac {V_{1}}{T_{1}}}={\frac {V_{2}}{T_{2}}}} o {\displaystyle {\frac {V_{1}}{V_{2}}}={\frac {T_{1}}{T_{2}}}}.
en términos generales:
(V1 * T2) = (V2 * T1)
Ley de Gay-Lussac[editar]
Artículo principal: Ley de Gay-Lussac
La presión de una cierta cantidad de gas, que se mantiene a volumen constante, es directamente proporcional a la temperatura:
{\displaystyle {\frac {P_{1}}{T_{1}}}={\frac {P_{2}}{T_{2}}}}
Es por esto que para poder envasar gas, como gas licuado, primero ha de enfriarse el volumen de gas deseado, hasta una temperatura característica de cada gas, a fin de poder someterlo a la presión requerida para licuarlo sin que se sobrecaliente y eventualmente, explote.
Ley general de los gases[editar]
Artículo principal: Ley general de los gases
Combinando las tres leyes anteriores se obtiene:
{\displaystyle \qquad {\frac {PV}{T}}=C}
Ley de los gases ideales[editar]
Artículo principal: Ley de los gases ideales
De la ley general de los gases se obtiene la ley de los gases ideales. Su expresión matemática es:
{\displaystyle P\cdot V=n\cdot R\cdot T}
siendo P la presión, V el volumen, n el número de moles, R
- la constante universal de los gases ideales y T la temperatura en Kelvin. Tomando el volumen de un mol a una atmósfera de presión y a 273 K, como 22,4 l se obtiene el valor de R= 0,082 atm·l·K−1·mol−1
El valor de R depende de las unidades que se estén utilizando:
- = 0,082 atm·l·K−1·mol−1 si se trabaja con atmósferas y litros
- = 8,31451 J·K−1·mol−1 si se trabaja en Sistema Internacional de Unidades
- = 1,987 cal·K−1·mol−1
- = 8,31451 10−10 erg ·K−1·mol−1
- R = 8,317x10−3 (m³)(Kpa)/(mol)(K) si se trabaja con metros cúbicos y kilo pascales
De esta ley se deduce que un mol (6,022 x 10^23 átomos o moléculas) de gas ideal ocupa siempre un volumen igual a 22,4 litros a 0 °C y 1 atmósfera. Véase también Volumen molar. También se le llama la ecuación de estado de los gases, ya que solo depende del estado actual en que se encuentre el gas.
Gases reales[editar]
Artículo principal: Gas real
Si se quiere afinar más, o si se quiere medir el comportamiento de algún gas que escapa al comportamiento ideal, habrá que recurrir a las ecuaciones de los gases reales, que son variadas y más complicadas cuanto más precisas.
Los gases reales no se expanden infinitamente, sino que llegaría un momento en el que no ocuparían más volumen. Esto se debe a que entre sus partículas, ya sean átomoscomo en los gases nobles o moléculas como en el (O2) y la mayoría de los gases, se establecen unas fuerzas bastante pequeñas, debido a los cambios aleatorios de sus cargas electrostáticas, a las que se llama fuerzas de Van der Waals.
El comportamiento de un gas suele concordar más con el comportamiento ideal cuanto más sencilla sea su fórmula química y cuanto menor sea su reactividad ( tendencia a formar enlaces). Así, por ejemplo, los gases nobles al ser moléculas monoatómicas y tener muy baja reactividad, sobre todo el helio, tendrán un comportamiento bastante cercano al ideal. Les seguirán los gases diatómicos, en particular el más liviano hidrógeno. Menos ideales serán los triatómicos, como el dióxido de carbono; el caso del vapor de agua aún es peor, ya que la molécula al ser polar tiende a establecer puentes de hidrógeno, lo que aún reduce más la idealidad. Dentro de los gases orgánicos, el que tendrá un comportamiento más ideal será el metano, perdiendo idealidad a medida que se engrosa la cadena de carbono. Así, el butano es de esperar que tenga un comportamiento ya bastante alejado de la idealidad. Esto es, porque cuanto más grande es la partícula constituyente del gas, mayor es la probabilidad de colisión e interacción entre ellas, factor que hace disminuir la idealidad. Algunos de estos gases se pueden aproximar bastante bien mediante las ecuaciones ideales, mientras que en otros casos hará falta recurrir a ecuaciones reales muchas veces deducidas empíricamente a partir del ajuste de parámetros.
También se pierde la idealidad en condiciones extremas, como altas presiones o bajas temperaturas. Por otra parte, la concordancia con la idealidad puede aumentar si trabajamos a bajas presiones o altas temperaturas. También por su estabilidad química.
Comportamiento de los gases[editar]
Para el comportamiento térmico de partículas de la materia existen cuatro cantidades medibles que son de gran interés: presión, volumen, temperatura y masa de la muestra del material (o mejor aún cantidad de sustancia, medida en moles).
Cualquier gas se considera como un fluido, porque tiene las propiedades que le permiten comportarse como tal.
Sus moléculas, en continuo movimiento, colisionan elásticamente entre sí y contra las paredes del recipiente que contiene al gas, contra las que ejercen una presión permanente. Si el gas se calienta, esta energía calorífica se invierte en energía cinética de las moléculas, es decir, las moléculas se mueven con mayor velocidad, por lo que el número de choques contra las paredes del recipiente aumenta en número y energía. Como consecuencia la presión del gas aumenta, y si las paredes del recipiente no son rígidas, el volumen del gas aumenta.
Un gas tiende a ser activo químicamente debido a que su superficie molecular es también grande, es decir, al estar sus partículas en continuo movimiento chocando unas con otras, esto hace más fácil el contacto entre una sustancia y otra, aumentando la velocidad de reacción en comparación con los líquidos o los sólidos.
Para entender mejor el comportamiento de un gas, siempre se realizan estudios con respecto al gas ideal, aunque éste en realidad nunca existe y las propiedades de éste son:
- Una sustancia gaseosa pura está constituida por moléculas de igual tamaño y masa. Una mezcla de sustancias gaseosas está formada por moléculas diferentes en tamaño y masa.
- Debido a la gran distancia entre unas moléculas y otras y a que se mueven a gran velocidad, las fuerzas de atracción entre las moléculas se consideran despreciables.
- El tamaño de las moléculas del gas es muy pequeño, por lo que el volumen que ocupan las moléculas es despreciable en comparación con el volumen total del recipiente. La densidad de un gas es muy baja.
- Las moléculas de un gas se encuentran en constante movimiento a gran velocidad, por lo que chocan elásticamente de forma continua entre sí y contra las paredes del recipiente que las contiene.
Para explicar el comportamiento de los gases, las nuevas teorías utilizan tanto la estadística como la teoría cuántica, además de experimentar con gases de diferentes propiedades o propiedades límite, como el UF6, que es el gas más pesado conocido.
Un gas no tiene forma ni volumen fijo; se caracteriza por la casi nula cohesión y la gran energía cinética de sus moléculas, las cuales se mueven.
Cambios de densidad[editar]
El efecto de la temperatura y la presión en los sólidos y líquidos es muy pequeño, por lo que típicamente la compresibilidad de un líquido o sólido es de 10−6 bar−1(1 bar=0,1 MPa) y el coeficiente de dilatación térmica es de 10−5 K−1.
Por otro lado, la densidad de los gases es fuertemente afectada por la presión y la temperatura. La ley de los gases ideales describe matemáticamente la relación entre estas tres magnitudes:
{\displaystyle \rho ={\frac {p\,M}{R\,T}}}
donde {\displaystyle R\,} es la constante universal de los gases ideales, {\displaystyle p\,} es la presión del gas, {\displaystyle M\,} su masa molar y {\displaystyle T\,} la temperatura absoluta.
Eso significa que un gas ideal a 300 K (27 °C) y 1 atm duplicará su densidad si se aumenta la presión a 2 atm manteniendo la temperatura constante o, alternativamente, se reduce su temperatura a 150 K manteniendo la presión constante.
Presión de un gas[editar]
En el marco de la teoría cinética, la presión de un gas es explicada como el resultado macroscópico de las fuerzas implicadas por las colisiones de las moléculas del gas con las paredes del contenedor. La presión puede definirse por lo tanto haciendo referencia a las propiedades microscópicas del gas.
En efecto, para un gas ideal con N moléculas, cada una de masa m y moviéndose con una velocidad aleatoria promedio vrms contenido en un volumen cúbico V, las partículas del gas impactan con las paredes del recipiente de una manera que puede calcularse de manera estadística intercambiando momento lineal con las paredes en cada choque y efectuando una fuerza neta por unidad de área, que es la presión ejercida por el gas sobre la superficie sólida.
La presión puede calcularse como:
{\displaystyle P={Nmv_{rms}^{2} \over 3V}} (gas ideal)
Este resultado es interesante y significativo no solo por ofrecer una forma de calcular la presión de un gas sino porque relaciona una variable macroscópica observable, la presión, con la energía cinética promedio por molécula, 1/2 mvrms², que es una magnitud microscópica no observable directamente. Nótese que el producto de la presión por el volumen del recipiente es dos tercios de la energía cinética total de las moléculas de gas contenidas.
Véase también[editar]
- Presión parcial
- Gas combustible
- Gas licuado del petróleo
- Gas natural
- Biogás
- Gas ciudad
- Gas de leña
- Helio3
- Gas noble
- Cambio de estado
- Gases medicinales
- Licuefacción de gases
- Vapor (estado)
- Sólido
- Líquido
Referencias[editar]
- Volver arriba↑ «gas.» Diccionario de la lengua española. Avance de la vigésima tercera edición. Consultado el 15 de septiembre de 2015.
Enlaces externos[editar]
- Wikimedia Commons alberga contenido multimedia sobre Gases.
- Wikiquote alberga frases célebres de o sobre Gas.
- Wikcionario tiene definiciones y otra información sobre gas.
- El Diccionario de la Real Academia Española tiene una definición para gas.
- Helio3, el combustible que sustituirá a los hidrocarburos.
Categoría:
- Gases