Precursores de la teoría de campos de fuerza: El periodo pre-crítico

*Celso Vargas

En la época en la que Immanuel Kant (1724-1804) inicia su carrera intelectual, Newton había desplazado a Descartes en su visión de la mecánca. Pero también es el tiempo del gran debate entre los partidarios de Leibniz y de Newton sobre la fundamentación de la física, especialmente, la discusión sobre la vis-viva. Para recordar la vis-viva es la tesis Leibniziana de que lo que se conserva en la naturaleza no es masaxaceleración (ma), sino más bien, masaxaceleración al cuadrado (ma2). La segunda ley de Newton introducía la conservación del momentum como base en su sistema inercial. Corresponderá a D´Alambert el haber mostrado que la vis-viva se mantiene en casos en los que un cuerpo es gradualmente frenado, pero en la mayoría de los casos la conservación del momentum es la forma adecuada de medir el movimiento de los cuerpos. Pero, por otro lado, eran muy atractivas las ideas leibnizianas de las fuerzas como inherentes a los cuerpos, así como los éxitos de Euler en sus investigaciones sobre la hidro-dinámica (dinámica de fluidos) en las que utiliza la fuerza como un factor interno. La impenetrabilidad de los cuerpos constituye también un muy fuerte argumento de Leibniz que falta por armonizar desde una perspectiva newtoniana. Actualmente, existe cierta correspondencia entre vis-viva y energía potencial, la cual se expresa como 

Desde el inicio de su formación académica, Kant se interesó profundamente por la filosofía natural y la física; especialmente por la fundamentación metafísica de la misma. Como indica Friedman (2004) en la Introducción a la traducción inglesa de Los Fundamentos Metafísicos de la Ciencia Natural (1786), Kant nunca abandonó su interés e investigación en la física y la filosofía natural. Pero sí observamos un cambio significativo en el abordaje de los problemas físicos en dos importantes periodos, el conocido como Pre-crítico que va 1746-1770 (algunos autores lo extienden hasta 1780), y el periodo crítico que se extiende desde 1781 kasta bien entrada la década de los 90. Durante el “periodo pre-crítico” Kant escribió alrededor de una decena de libros, tratados y ensayos referentes a problemas de filosofía natural y pocas publicaciones sobre otros temas, lo que pone de manifiesto su gran interés en el área. Haremos una breve referencia a las siguientes obras de este periodo: Historia Universal y la Teoría de los Cielos de 1755, y La Monadología física de 1756.

Como es bien conocido, Kant en esta primera obra, introduce la hipótesis, ahora conocida como Kant-Laplace sobre la formación de la vía láctea, a partir de nubes de gas o nebulosa, que siguiendo las leyes newtonianas, hizo que la fuerza centrífuga de rotación causará con el tiempo un achatamiento “en un plano perpendicular al eje de rotación” (Friedman, 2004) a medida que estos gases se enfriaban, dando origen al sistema solar y a las otras estrellas que forman la vía láctea. En la segunda obra, Kant ofrece una solución que concilía dos enfoques: uno de la divisibilidad infinita de la materia y la propuesta Leibniziana de que existen mónadas, es decir, unidades indivisibles en la naturaleza. Kant es consciente de que en Leibniz las mónadas tienen un significado y función que va más allá de la física y que tiene que ver con su concepción general de la diversidad de los seres que encontramos en la naturaleza (y posiblemente más allá). Pero Kant se centra, como el título de esta obra indica, en las mónadas físicas. Kant entenderá las mónadas como si fueran puntos de fuerza. El espacio está constituido por un indefinido número de estos puntos, cada uno de los cuales manifiesta dos tipos de fuerza: de atracción y de repulsión. Las primeras actúan según el principio newtoniano de acción la distancia. Pero a medida que dos puntos de fuerza se aproximan la fuerza de atracción de torna de repulsión. La fuerza asociada con cada uno de estos puntos crea una esfera de actividad que previene que un punto de fuerza sea penetrado. La divisibilidad infinita se da a nivel de esta esfera de actividad, mientras que existencia de unidades indivisibles corresponderá a dichos puntos. 

En el periodo crítico, Kant renunciará a esta conciliación, más aún, a todas sus obras del periodo anterior. Aquí considera Kant que el dilema de la divisibilidad infinita de la materia versus la existencia de unidades indivisibles es la expresión de las antinomias de la razón pura y que no pueden ser decisibles. Pertenecen al ámbito de noúmeno el cual no nos es accesible. Sin embargo, en Los Fundamentos Metafísicos de la Ciencia Natural Kant considera que a nivel de fenómeno encontramos presentes tanto fuerzas de atracción como de repulsión, pero ya no asociadas a unidades básicas o puntos, sino a todo el objeto. De esta manera, un espacio lleno de materia tendrá un infinito número y contínuo de puntos de materia cada uno de los cuales expresan tanto fuerzas de atracción como de repulsión. Adoptará la idea Newtoniana (libro I, definición 1) de que un cuerpo se compone de volumen y densidad, de manera que un cuerpo más denso tendrá igualmente una mayor densidad de puntos de fuerza. 

Esta idea de que los cuerpos están formados de puntos de fuerzas, tanto de atracción y repulsión, ejercerá una significativa influencia en filósofos y científicos los cuales comenzarán a perfilar este nuevo campo de investigación. Sin embargo, como el profesor Luis Guillermo Coronado mostrará, en sus últimos escritos Kant volverá a algunas de las tesis del periodo pre-crítico y rompiendo con algunas distinciones fundamentales de su epistemología. 

Referencia

Friedman, M. (2004) IMMANUEL KANT. Metaphysical Foundations of Natural Science. Cambridge University Press, U.K. 

Newton: Una referencia indispensable al hablar de teoría de campos

*Celso Vargas

Es claro que Isaac Newton (1643-1717) no es un precursor de la teoría de campos de fuerza. Sin embargo, sus contribuciones científicas se convirtieron en el standard de racionalidad, el modelo a seguir en aquellas áreas que pretenden ser ciencia, y en el criterio para discriminar entre ciencias y otros campos no científicos, por ejemplo, los principios sintétitos a priori de la epistemología kantiana. Dos importantes obras fueron realmente relevants en este proceso: Los Principia Mathematica de Filosofía Natural (1686) y la Óptica (1704). Se conoce como newtonianismo al movimiento, no solamente de seguidores y aficionados de Newton, sino también de aquellos intelectuales dentro y fuera de Inglaterra que participaron en el proyecto de darle la forma definitiva a los logros alcanzados por Newton. Proyecto éste que recorre prácticamente todo el siglo XVIII. Es en el continente donde alcanzarán los mayores resultados e involucra a los más importantes científicos de ese siglo, como los Bernouli, Euler, D´Alambert, Lagrange y Laplace para mencionar a algunos. Otras iniciativas importantes en ese siglo es hacer compatibles los logros de Newton con los de Leibniz en la física. Veremos en otra perspectiva uno de estos esfuerzos, el de Kant. Uno de los primeros logros continentales consistió en traducir el formalismo utilizado por Newton, basado en su teoría de las fluxiones y su compleja notación, al formalismo más abstracto y algebraico desarrollado por Leibniz y otros matemáticos del conteinente. Es precisamente cuando se hace esta traducción que se pueden apreciar a cabilidad sus grandes contribuciones. Durante el siglo XIX el modelo de mecánica de Newton es el estándar de referencia para abordar los nuevos problemas científicos incluyendo, desde luego, los esfuerzos por tratar la electricidad y el magnetismo dentro del newtonianismo, pero sin el éxito esperado.

En el prefacio a la primera edición de Los Principia, Newton hace algunas afirmaciones sobre la relación entre mecánica y geometría que parecen sugerir que la mecánica es la base de la geometría. Por ejemplo, afirma que “la descripción de líneas rectas y círculos, sobre los que la geometría se fundamenta, pertenencen a la mecánica”. De hecho su cálculo de fluxiones refiere directamente a los conceptos de movimiento y de cambio, fenómenos que caen dentro del ámbito de la mecánica. La nueva mecánica parece entonces ser el fundamento de la geometría. Las descripciones mecánicas tienen su correspondencia en la geometría. 

Es sorprendente la simplicidad conceptual del sistema newtoniano. Está formada por un conjunto de supuestos básicos y por cuatro leyes fundamentales. En cuanto a los supuestos básicos, adoptaremos la posición de Berkson (en su famoso libro de 1974, Fields of Force: Development of a World View from Faraday to Einstein), de que ya a inicios del siglo XIX, se asociaba con el newtonianismo los siguientes supuestos básicos: 

  1. La existencia de corpúsculos
  2. La existencia de fuerzas asociadas a los corpúsculos
  3. La existencia de espacio vacío
  4. La existencia de acción a distancia, y también instantánea
  5. Las fuerzas asociadas con los corpúsculos son de acción y reacción (atracción y repulsión)
  6. La existencia de espacio absoluto, tiempo absoluto y materia absoluta

Son cuatro las leyes fundamentales que forman el sistema newtoniano y son las siguientes: 

  1. La ley de la inercia
  2. La ley de la fuerza motriz
  3. La ley de acción y la reacción
  4. La ley de la gravitación universal

Como se puede observar, las leyes establecen la forma en la que los supuestos básicos son utilizados dentro del sistema, es decir, establecen su límite. Así, las tres primeras leyes y los supuestos definen una clase de modelos inerciales, es decir, aquellos en los que, si no actúan otras fuerzas netas, los cuerpos dentro del sistema se mueven con velocidad constante. Pueden haber variaciones en la masa. Por ejemplo, la ley segunda es generalizada por Newton para incluir tanto sistemas en los cuales la masa es constante como aquellos en los que es variable. Ha sido precisamente, la utilización del cálculo diferencial e integral, desarrollado por Newton y por Leibniz, el que facilita establecer esta generalización. Por otro lado, la ley de acción y reacción y la ley de gravitación universal permiten determinar la forma en la que se se da la relación de atracción gravitacional entre los cuerpos, así como el efecto que algunos de estos cuerpos, como la luna tienen sobre las mareas, o el efecto del sol en el achatamiento de la tierra en sus polos. 

Tanto las leyes como los supuestos básicos del sistema tienen claramente una representación geométrica. Por ejemplo, la primera ley describe la trayectaria de una línea recta o el proceso de trazado de un círculo u otra figura geométrica, como la elipsis, así como la suposición de que el espacio es homogéneo. La ley de la gravitación universal se sigue directamente de las propiedades del espacio, las de un espacio vacío. Como bien ha indicado Berkson, si existiera un medio en el cual se lleva a cabo la acción, éste podría producir distorsiones entre los objetos atraídos por la gravitación alterando así las predicciones. 

Los aspectos complicados del sistema lo constituyen algunos de sus presupuestos básicos: el espacio vacío, espacio absoluto, tiempo absoluta, materia absoluta con base en los cuales se construyó el sistema. Se tendrá que esperar al inicio del siglo XX para ver un cambio de perspectiva.

Precursores de la teoría de campos de fuerza: Leibniz

*Celso Vargas Elizondo

Gottfried Wilhelm Leibniz (1646-1716) es uno de los filósofos que más avanzó en el desarrollo de la teoría de los campos de fuerza. Pero sus escasas publicaciones durante su vida hicieron que su obra no fuera conocida sino hasta el siglo XX. Todavía faltan varios trabajos por publicar, sin embargo, no se espera que cambie sustantivamente lo que se conoce actualmente sobre este tema. 

Son significativas sus contribuciones a la física y también su propuesta, alternativa a Newton, de una teoría de gravitación, basada en una remozada perspectiva de los vórtices y de la circulación armónica. En varias publicaciones, pero especialmente en una de 1689 (Una propuesta para explicar las causas de los movimientos celestes) y a partir de variaciones infinitesimales, Leibniz muestra la manera en la que el movimiento circular, que respete la ley de inverso del cuadrado de las distintacias, puede transformarse en una elipsis o grupos de elipsis (movimiento paracéntrico) en las que se cumple también la ley del inverso. Es decir, que el movimiento elíptico es también circulación armónica y cumple también con la ley de las áreas de Kepler. Al igual que Descartes, los planetas no tienen movimiento de rotación propio, sino que son arrastrados por la acción de vórtice. Esta característica será compartida por la teoría de la relatividad de Einstein. Además, y contrario a Newton, no se requiere acción instantánea ni a distancia, ya que toda acción requiere tiempo y mediación.

Leibniz no consideraba aceptable el sistema de física propuesto por Descartes. Este desacuerdo está basado en varios aspectos, sin embargo, nos centraremos en dos de ellos. El primero de ellos es la concepción de cuerpo cartesiana como objeto geométrico tridimensional. Una de las principales críticas es que si éste fuera el caso, los cuerpos podrían ser penetrados por otros cuerpos. En la perspectiva anterior sobre Descartes introdujimos los tres tipos de materia reconocidos por Descartes, e ilustramos que, en el caso de la materia que forma el sol y otros astros, Descartes indica que la fuerte agitación a la que son sometidas las partículas, que hace que éstas sean divididas y dispersadas en forma de luz a través del espacio. Sería mucho más razonable y consistente con su física, inferir que estas partículas son penetradas debido a este fuerte movimiento. Presupone, pues, un importante grado de resistencia de las partículas hasta que una fuerza mayor actúa sobre ellas dividiéndolas. De esta manera, para Leibniz los cuerpos ofrecen resistencia, poseen una fuerza interna que previene su división que sea superada.

De igual manera, Leibniz duda de la validez de la ley de conservación del movimiento que Descartes propuso como fundamental. Será en 1686 que Leibniz “descubrirá” el error de Descartes y que lo denominara de “memorable”. La suposición de esta ley cartesiana no garantiza que la misma cantidad de movimiento se conserve antes y después de la colisión entre cuerpos. Adicionalmente, la ley de caída de los cuerpos establecida por Galileo, especialmente en el comportamiento parabólico de la trayectoria de un proyectil, muestra, según Leibniz, que lo que se conserva en la naturaleza no es mxa (masa por aceleración), sino más bien, mxa2, (masa por aceleración al cuadrado). En efecto, el compartamiento parabólico de un proyectil muestra que el tiempo de ascenso de un proyectil es el mismo que el de su caída, pero inverso en velocidad. Con esto Leibniz iniciará una importante discusión sobre las fuerzas vivas (vis-viva) que recorrerá la última parte del siglo XVII y las primeras cuatro décadas del siglo siguiente. D´Alambert, pero también Kant, contribuirán a resolver esta polémica, como veremos en otras perspectivas.

A partir de este momento, Leibniz introducirá esta medida física como ley fundamental de la naturaleza. Pero diferenciará entre mecánica y dinámica. Leibniz utiliza la terminología aristotélica para referirse a la diferencia entre estos dos campos. Dirá que la mecánica, en la que es válida la aplicación de la ley de conservación del movimiento (momentum), corresponde al dominio de las causas eficientes, mientras que comprensión del por qué, que lo proporciona la dinámica, corresponde a las causas finales. A nivel de dinámica la ley más importante es la conservación de la misma cantidad de fuerza en la causa y en el efecto. Argumenta Leibniz que si no se mantiene la misma cantidad de fuerza al inicio de una colisión, por ejemplo, no se conservará la misma cantidad de movimiento en el universo y en algún momento, dejará de funcionar. Posibilidad ésta inimaginable en ese momento, y por tanto, se consideraba como contradictoria. Hoy sabemos que es una propiedad de nuestro universo: su tendencia a la máxima entropía. 

Para Leibniz la fuerza es inherente al objeto (a las cosas mismas). En su obra de 1714, Los Principios de la Naturaleza y la Gracia, introdujo la fuerza como uno de los cuatro principios de diseño utilizados por Dios al momento de crear este mundo. Pero también como la heurística que debe seguir el científico para lograr una comprensión más completa del universo. Este principio de diseño dice lo siguiente: “En las cosas creadas los niveles más altos de fuerza, conocimiento, felicidad y bien que el universo pueda permitir”. La fuerza como inherente al objeto será un insumo importante en el desarrollo de la dinámica de fluidos en manos de Bernouli y de Euler en el siglo XVIII.

Precursores de la teoría de campos de fuerza: Descartes

*Celso Vargas Elizondo

El experimento de Oersted (1820) se ubica al inicio de ese gran impulso que culmina con dos importantes teorías de campos de fuerza: el electromagnetismo y la teoría de la relatividad de Einstein.  Estas teorías tienen antecedentes que merecen la pena desarrollar en estas perspectivas. Uno de estos es Descartes.

René Descartes (1596-1650) fue uno de los filósofos más influyentes en el siglo XVII y en las dos primeras décadas del XVIII, en el ámbito de la nueva filosofía mecánica y, en especial, en física.  Fue a través de sus discusiones con Isaac Beeckman (1588-1637) que Descartes será introducido en la teoría atómica, que Beeckman aplicaba tanto a la física como a la matemática.  Durante un periodo muy corto de tiempo Descartes fue atomista. El atomismo de estos filósofos mantiene las siguientes tesis: a) la existencia de indivisibles o unidades últimas (en matemáticas y en física), b) el mundo observable es el resultado de la combinación de estas unidades básicas, produciendo el efecto de continuidad que encontramos en los cuerpos. En esta etapa del pensamiento de Descartes,  un cuerpo, por ejemplo, está formado por determinados indivisibles matemáticos; c) la existencia de espacio vacío, d) La explicación de los fenómenos físicos debe hacerse en términos de tamaño, forma y movimiento.

Sin embargo, pronto Descartes abandonará esta perspectiva atomista, especialmente algunas de sus tesis fundamentales, debido a inconsistencias internas.  Por ejemplo, si suponemos la existencia del espacio vacío, no tendríamos ningún criterio para diferenciar un cuerpo de otro cuerpo, ya que el espacio vacío no puede utilizarse como criterio para la separación de los cuerpos.  Así pues, decir que dos cuerpos están separados por espacio vacío anula cualquier diferenciación entre ellos y tendríamos que aceptar que se trata de un solo objeto. Esto mismo aplica a cualqueir colección de objetos “separados” por espacio vacío.  Inconsistencias similares surgen con la suposición de la existencia de indivisibles matemáticos, cuya suposición es inconsistente con el conocimiento sobre las cantidades en geometría. Una recta es infinitamente divisible, de manera que no tiene sentido hablar de unidades numéricas indivisibles últimas.  Este mismo razonamiento será aplicado al espacio y a la materia (que son lo mismo en Descartes), dada la indivisibilidad infinita de la materia, entendida como la aplicación de la geometría al mundo material.  Y es que para Descartes, los objetos materiales se caracterizan por ser tridimensionales, en el mismo sentido que los objetos en una geometría tridimensional.

Mantendrá, pues, que todo el espacio está lleno de materia.  Distingue tres tipos diferentes de materia: a) las partículas que componen en sol y la estrellas fijas; b) la que compone los cielos y c) la que compone la tierra, los planetas y los cometas, entre otros.  La diferencia entre ellas es su tamaño y su forma. De acuerdo con Descartes, en un estadio inicial, toda la materia era del mismo tipo, pero el efecto de las leyes físicas sobre esta materia inicial produjo la diferenciación actual. De esta manera, el universo tal y como la observamos tiene las propiedades de un líquido (Descartes afirmará que los cielos son líquidos) en el cual se desplazan los objetos.

El movimiento es otro importante componente de su física.  Dios infundió, al inicio de la creación del mundo, una determinada cantidad de movimiento, la cual se mantiene constante. Para esto Dios tiene que intervenir periódicamente infundiendo nuevo movimiento para garantizar que sea constante.  La ley más importante de la física de Descartes es la ley de conservación del movimiento y se mide de la siguiente forma:  M=mxa (donde M es movimiento, m masa y a aceleración).  Una de las características del universo de Descartes es que está en permanente movimiento.  El movimiento circular produce los grandes torbellinos (llamados vórtices) que da origen al sistema solar y a los cometas.  En el caso del primer tipo de materia, el movimiento es tan violento que divide aún más las partículas, las cuales son dispersadas por el universo en forma de luz.  Como la materia es inerte, algunas de sus propiedades observables derivan del movimiento a la que está sometida, tal es el caso de la resistencia a la penetración de los cuerpos. Así, los planetas realmente no giran en sus órbitas sino que son arrastrados resultado del compartamiento laminar resultado del movimiento circular.  El movimiento de los objetos es por desplazamiento, es decir, dado que el universo está lleno, para que el movimiento aparente tenga lugar, la materia que se encuentre en la trayectoria de un cuerpo, debe ser movida hacia atrás produciendo un desplazamiento contínuo de materia. 

En general, el sistema físico cartesiano presenta las siguientes características que hacen que sea un precursor de la teoría de los campos de fuerza.  Primero, no existe el vacío pues el universo está lleno de materia. Esta característica la encontramos en todas aquellas teorías que adoptaron el éter como medio que lo llena todo, y que serán las teorías más importantes del siglo XIX.  Pero no aplica  la teoría de la relatividad de Einstein.  Segundo, toda acción toma tiempo. No hay acción instantánea ni a distancia como supondrá Newton en su mecánica.  Más aún, toda acción se da por contacto entre los objetos. Es decir, toda acción requiere un medio.  En su modelo físico no existen fuerzas, cualquier fuerza es el resultado de otros procesos subyacentes. 

Oersted, Ampère y Faraday: sobre el experimento de Oersted

*Celso Vargas Zamora

Un fascinante episodio de la historia de la física lo constituye la discusión que se produce en relación con el experimento de Oersted (1820), entre Ampère (1775-1836) y Faraday (1791-1867). También participó Oersted. Sin embargo, nos centraremos en estos dos últimos. Ampère, un destacado matemático y físico, partidario de la física newtoniana; Faraday, un extraordinario físico y experimentalista, convencido de que la electricidad y magnetismo son manifestaciones de una única fuerza presente en la naturaleza. Es uno de los más apasionados y profundos promotores de la teoría de los campos de fuerza, a la que contribuyó de manera significativa. 

Oersted fue influido por la idea de Johann Wilhelm Ritter (1776-1810) de que hay interacción entre electricidad y magnetismo. Esta idea estaba inspirada en Schelling. Su experimento de 1820 parecía demostrar esta interacción. Así fue reconocido por la comunidad científica. Sin embargo, para Ampère este experimento no mostraba tal interacción. La razón de hecho es muy simple: No puede existir tal interacción. Para Ampère la electricidad y el magnetismo son dos fenómenos completamente diferentes; no hay interacción entre ellos. Algunos elementos del mismo experimento de Oersted parecía indicar que el tema podía ser abordado desde el punto de vista newtoniano. Primero, la intensidad del efecto observado al aplicar una corriente eléctrica al gálvano, varía según el inverso del cuadrado de las distancias, una importante ley newtoniana. Segundo, aunque Oersted no lo menciona, parece existir fuerzas de atracción y repulsión que explican los movimientos en dirección opuesta de la aguja imán según la posición en la que se coloque el cable negativo. 

Tal y como lo analiza Berkson en su libro ya clásico sobre teoría de campos (Las Teorías de Campos de Fuerza. Desde Faraday a Einstein), Ampère construirá experimentos y un modelo matemático para explicar los resultados de Oersted, haciéndolo consistente con el modelo newtoniano de la acción a distancia, las fuerzas de atracción y repulsión y el supuesto de que el desplazamiento de la aguja magnética es un efecto eléctrico y no magnético. Para que el modelo teórico fuera consistente, tiene que introducir el supuesto más de que corrientes iguales se atraen y opuestas se repelen, lo cual era contrario a la Ley de Coulomb establecida en 1785, ley fundamental en el campo de la electrostática, y aceptada en ese momento. Pero también su modelo matemático aplica únicamente para corrientes cerradas. Esto hacía que el análisis de Ampère no fuera general y no enteramente consistente con la visión newtoniana y con otros resultados experimentales.

Por esta razón, Faraday no podía estar de acuerdo con los resultados de Ampère a pesar de la admiración que le tenía; pero tampoco estaba de acuerdo con el análisis de Oersted. Entre otras cosas porque Oersted recurre a una teoría denominada “conflicto eléctrico” que no resultaba nada clara. Para Oersted, la electricidad positiva y negativa producen un efecto lateral y circundante alrededor del alambre eléctricamente cargado. En el caso de las partículas magnéticas, éstas ofrecen resistencia al conflicto eléctrico produciendo los efectos detectados. En el caso de partículas no magnéticas, el conflicto eléctrico penetra el material sin ninguna resistencia. Para ese momento, esta teoría no parece ser susceptible de ser falseada, ya que se puede adaptar bien a cualquier circunstancia.

No obstante lo anterior, Faraday consideraba más interesante el enfoque de Oersted pues le parecía que podía mostrar una conexión más profunda entre distintos tipos de fuerzas que la propuesta de Ampère, particularmente, por el hecho de que éste último asumiera que la electricidad estaba formada por dos sustancias fluidas. Como era su costumbre, Faraday repitió de manera meticulosa los principales experimentos conocidos, haciendo adaptaciones y mejoras, lo que le permitió detectar algunos errores en el reporte de Oersted, en particular, el referente a la ubicación del polo magnético que Oersted lo ubicaba en el extremo de la aguja, mientras que su ubicación correcta debería hacerse más al interior de la aguja, como mostró Faraday. Con esto logra una mejor interpretación de los resultados obtenidos hasta el momento, pero al mismo tiempo, esto incentivó el que ideara nuevos experimentos que le llevaron de progreso en progreso en el desciframiento de la naturaleza de este importante área del conocimiento científico. Especialmente relevante en esta etapa de la labor científica de Faraday es el descubrimiento de las rotaciones electromagnéticas en 1832.

Sin embargo, Ampère era un recio y persistente científico y no se convenció de los nuevos resultados de Faraday y proporcionó explicaciones en términos newtonianos. En el caso específico de las rotaciones, como indica Berkson, Ampère “estableció que las atracciones y repulsiones centrales sólo tenían lugar entre elementos de corriente, y no entre una corriente entera y un imán. Y logró también demostrar que se podrían explicar los resultados de Faraday a partir de la resultante de las fuerzas que intervienen en todos los elementos de corriente”(p. 71). Aunque exitosa, la explicación de Ampère mantenía la inconsistencia anteriormente señalada. Es decir, no presentaba una teoría unificada de los tipos de electricidad conocidos.

La aceptación de la teoría de los campos requerirá de otros desarrollos posteriores. Su disputa con los seguidores de modelo newtoniano predominará una buena parte del siglo XIX, hasta que finalmente, se resuelve con Hertz. En otras perspectivas seguiremos este enfrentamiento de teorías; enfrentamiento que pone de manifiesto una de las características de la ciencia.

Referencia bibliográfica. 

Berkson, W. (1985) Las Teorías de los Campos de Fuerza. Desde Faraday hasta Einstein. Alianza Editorial, Madrid, España.

Una posible interpretación del experimento de Oersted a partir de Ladriere

*Celso Vargas Elizondo

En su pionero libro sobre los estudios del impacto de la ciencia y la tecnología sobre la cultura,  El Reto de la Racionalidad (1977), Jean Ladriere presenta algunas ideas interesantes que nos podría permitir realizar una interpretación de los experimentos de Oersted de 1820. 

La ciencia moderna se desarrolla marcada por el concepto de racionalidad. El tipo de racionalidad del que hablamos es aquel de la filosofía griega, cuyo rescate inicia con el renacimiento europeo y que alcanzará su plenitud en la filosofía del siglo XVII, XVIII y XIX, y hasta el presente. La segregación de las ciencias heredará esta característica filosófica. Una teoría científica es la aprehensión racional de la realidad (sub specie aeternitatis), es decir, como universal y eternamente verdadera. La verdad como correspondencia y la regularidad de la naturaleza son dos de los elementos centrales de esta racionalidad que la ciencia hereda. Una teoría científica se asemeja así a aquellas perspectivas filosóficas de la sabiduría (Leibniz se hace eco de esta idea) y de la perfección individual. El científico es el nuevo sabio. Pero esta herencia pronto sufrirá transformaciones sustantivas.

Observa Ladriere la transición de la ciencia desde un enfoque más especulativo hacia uno más experimental y práctico. La comenzamos a observar claramente en el siglo XVIII. Aquí vemos dos procesos complementarios. Por un lado, los esfuerzos continentales por expresar la mecánica de Newton en términos del cálculo diferencial e integral de Leibniz (tanto en su notación como en su formulación más abstracta), así como darle una estructura mucho más consistente y sin las referencias teológicas; proceso que culmina con el trabajo de Lagrange y Laplace, pero aquí los Bernouli y Euler, jugaron también un papel central. Por el otro, el énfasis en la solución de problemas más específicos, dejando de lado reflejar los resultados dentro de teorías más generales. Ligado a esto está, entonces, esta tendencia experimentalista que observamos en Inglaterra y que luego se extenderá a todo el continente y los Estados Unidos. En Inglaterra esta tradición experimentalista viene desde 1660 decididamente promovida por la Royal Society. 

El desarrollo de la especialización y de esta transición hacia la experimentación es inseparable de tres procesos que observamos aplicables a nivel global: a) Es cada vez más clara vinculación con la tecnología. Vemos durante los últimos siglos a los científicos desarrollando tecnologías (instrumentación y otros dispositivos) para utilizarlos en la investigación, aunque predominantemente para usos militares y de defensa; b) la institucionalización de la ciencia y la tecnología. La ciencia y tecnología son cada vez un elemento más fundamental y estratégico para los países, como parte de l desarrollo: desarrollo, ciencia y tecnología están indisolublemente conectados. Relacionado con esto está el que la labor científica y tecnológica se presenta y valora como un trabajo y sujeta a condiciones laborales. c) la visualización de la ciencia y la tecnología como un sistema de acción, con su propia dinámica. Bajo la consigna baconiana de “el conocimiento es poder” la ciencia y la tecnología constituye la forma más exitosa de intervención en la naturaleza para transformarla en favor del ser humano y, en este momento, también para la sostenibilidad ambiental. El impacto de la ciencia y la tencología, como sistema de acción, está cambiando las condiciones sociales, individuales y culturales. La expectativa para este siglo XXI es que asistiremos a transformaciones sociales, económicas, culturales e individuales de una magnitud y rapidez nunca antes vista. Lo artificial (racional diría Hegel) se impondrá sobre la naturaleza, sobre la real una manera que todavía nos es difícil prever.

Cuando consideramos el experimento de Oersted desde esta perspectiva, varias consideraciones pueden hacerse. Primero, Oersted se inscribe dentro de la tradición experimentalista ya mencionada. Sin embargo, también es una persona interesada en la búsqueda de teorías generales que expliquen los fenómenos electromagnéticos, pero también otros aspectos relevantes. Su teoría del conflicto eléctrico es un ejemplo de ello. Pero también la pasión expresada por Oersted por descubrir los “secretos de la naturaleza”, pone de manifiesto su compromiso con la verdad y, con Ladriere, de la contemplación de la naturaleza. Segundo, mostró una importante preocupación por la institucionalización de la ciencia, por la promoción de ésta y por la divulgación de los resultados científicos que se alcanzaban en algunos países europeos. Vemos este esfuerzo como divulgador científico en sus visitas al extranjero en los que comenta los hallazgos de Bitter y otros importantes científicos del momento. Pero también se ubica en un momento en que los científicos gozan de una significativa reputación y su trabajo es muy valorado. Tercero, la interconexión entre la ciencia y la tecnología comienza a verse con claridad aquí. Científicos como Volta, Galvany, Faraday y otros muestran un gran interés no solo por la investigación pura, sino también por el desarrollo de objetos tecnológicos que tengan usos prácticos, como los acumuladores o pilas y los motores eléctricos. Cuarto, en relación con esta tendencia de la ciencia y la tecnología de conocer para transformar, Oersted se ubicaría en al inicio de este acelarado proceso que vemos actualmente. 

En este sentido, Oersted, con sus experimentos y su práctica constituye un buen representante del concepto de racionalidad que caracteriza a la ciencia y se inscribe bien en las tendencias que ha señalado Ladriere que caracterizan el desarrollo moderno de la ciencia y la tecnología. 

El experimento de Oersted desde el perspectiva de las revoluciones científicas

*Celso Vargas Elizondo

Como se recordará, para Thomas Kuhn, la ciencia evoluciona por el establecimiento y eventual destronamiento de paradigmas; proceso conocido como revoluciones científicas. Debido a lo ambiguo del este concepto, en el “pos-cripto de 1969”, Kuhn precisará el término “paradigma” en dos sentidos diferentes, uno más sociológico para identificar a una comunidad de científicos que comparten una determinada visión y valores. El segundo, el de “matriz disciplinar”, para captar uno de los aspectos sustantivos de la evolución del conocimiento científico. De esta manera, Kuhn sigue utilizando el término “paradigma” en estos dos sentidos, los cuales son contextualmente separables. Así salva la gran popularidad que este concepto adquirió dentro y fuera de las ciencias naturales; ha sido muy importante en las ciencias sociales.

De manera general, el paradigma captura el carácter revolucionario de ciertos momentos de la ciencia en los que una determinada visión de mundo, un conjunto de prácticas, formas de abordar los problemas y de representar el mundo, es drásticamente reemplazado por otro. Significativo es el caso del geocentrismo de Ptolomeo que fue desplazado rápidamente, después de unos1400 años de vigencia, por el heliocentrismo copernicano mucho más adecuado a los nuevos datos. Esto propició a su vez, el desarrollo de una de revoluciones científicas más importantes del siglo XVII y XVIII: la mecánica newtoniana. Esta mecánica no solamente reemplazó la física aristotélica, sino que permitió unificar una serie de “fenómenos” que antes aparecían de manera desligada. Tal es el caso de la relación entre la fuerza que mantiene unidos los planetas y el sol, la caída de los cuerpos, las trayectoria de los cometas, el achatamiento del globo en el ecuador y las mareas, entre otros. Esto trajó un increíble avance del conocimiento científico.

Dos momentos reconoce Kuhn en el desarrollo de la ciencia: un periodo revolucionario caracterizado por el enfrentamiento de paradigmas. Uno segundo, de ciencia normal, en el que los científicos se abocan a resolver los distintos problemas que se plantean al nuevo paradigma, y cuya resolución contribuirá decisivamente a la ampliación y consolidación del mismo. Es principalmente en el proceso de ciencia normal en el que el uso de paradigma como matriz disciplinar juega un papel fundamental; aunque también es utilizado para comprender los procesos de crisis paradigmática, así como las etapas pre-revolucionarias. 

Se denomina “matriz disciplinar”, precisamente porque incluye una serie de elementos claves que identifican la disciplina. Entre estos están: a) la generalizaciones simbólicas o aquel lenguaje simbólico que será utilizado por este paradigma para expresar sus resultados; b) modelos (ejemplares) compartidos y heurísticas representativas del paradigma; y c) el conjunto de valores que son compartidos por esa comunidad de científicos. A medida que un campo de investigación se consolida (consolida su paradigma) se perfila con claridad la matriz disciplinar que lo caracteriza.

La matriz disciplinar de un paradigma consolidado permite comprender, como se indicó anteriormente, el periodo pre-paradigmático o pre-revolucionario de una teoría. Esto se debe al hecho de que no se ha consolidado esa matriz disciplinar. Tal es el caso del momento en que Oersted (1820) realiza su serie de experimentos sobre la interacción entre electricidad y magnetismo. Dispersos en otras perspectivas sobre este mismo tema, hemos mencionado algunas de las características del periodo. Primero, no hay un lenguaje claro, compartido que permita identificar el campo. Segundo, cada autor pretende imponer la terminología a utilizar en el campo. En el caso de Oersted la introducción de términos y teorías relativamente confusas como “conflicto eléctrico”; posteriormente será utilizado “campo magnético” y “campo eléctrico”, pero sin duda, ninguno captura todos los usos que Oersted pretendía. Por ejemplo, el que en los cuerpos no magnéticos no hay resistencia al conflicto eléctrico. Tercero, encontramos un enfrentamiento de visiones (pues no podemos hablar todavía de un paradigma electromagnético). Por un lado, los esfuerzos de Ampère y otros por explicar todos los fenómenos descubiertos en términos del modelo newtoniano: como fluidos, fuerzas de atracción y repulsión, y acción a distancia. Este enfrentamiento se hará más intenso conforme avanza el siglo. Tendrá que esperar a Hertz con quien finalmente se establece, y se acepta, por parte de la comunidad científica, que cualquier acción en un campo eléctrico o magnético toma tiempo. Y por tanto, contra Newton, que no hay acción a distancia, sino que toda acción requiere mediación. Pero tampoco hay transmisión instantánea como asumía Newton.

Kuhn ha defendido la inconmensurabilidad entre paradigmas, es decir, la imposibilidad de comprender un paradigma si no se está dentro de él. Esta tesis puede ser interpretada en diferentes maneras. Por ejemplo, de una manera fuerte limitiría la comprensión de la historia de la ciencia ya que el historiador valora desde fuera de un paradigma científico. En un sentido profundo el historiador no tendría acceso al conocimiento real del desarrollo de la ciencia. No tiene reglas de traducción analíticas. Una tesis sobre la imposibilidad de la traducción puede encontrar sustento en la indeterminación de traducción defendida por Quine. Como indicara Quine para que la traducción funcione debe haber enunciados analíticos, de la forma A se traduce como B. Pero este es una presuposición que no tiene fundamento. De manera débil, lo cual parece establecer Kuhn en el pos-cripto de 1969, es posible hacer historia de la ciencia con bastante profundidad aunque habría ámbitos, por ejemplo, semánticos en los que la traducción entre paradigmas sería imposible. 

El Experimento de Oersted (1820) como parte de un programa científico de investigación

*Celso Vargas Elizondo

En la anterior perspectiva señalamos que nos llama la atención el carácter optimista, positivo de la presentación de los resultados de sus experimentos por parte de Oersted.  Esto en contraste con lo que nos indica Popper al enfatizar en la falsabilidad de las teorías científica.  Una de las propuestas filosóficas y metodológicas que nos permite explicarlo es la de Lakatos (1922-1974), conocida como Metodología de las programas científicos de investigación.  Es una metodología general que se aplica tanto al desarrollo de la ciencia como de las matemáticas. La propuso en 1965, pero no tuvo el tiempo suficiente para desarrollarla de manera más rigurosa. Sorprendente resulta  la aplicación de esta metodología a diferentes casos en la historia de la ciencia que Lakatos en las que muestra un gran dominio.  Incorpora elementos de otras metodologías, dentro de un marco bastante original y racional. Utiliza conceptos analógicas como núcleo duro de una teoría, heurística positiva, heurística negativa, cinturón protector de la teoría.  No es el único en hacer este uso en filosofía de la ciencia, recordemos a Quine. No obstante lo anterior, permiten ser aplicados de manera bastante precisa en la evaluación del desarrollo de la ciencia. 

En el caso de las ciencias naturales, el núcleo duro propone una visión de la naturaleza que podríamos llamar profunda.  Por ejemplo, “la materia está formada de pequeñas unidades indivisibles” (teoría atómica de la materia) o “las distintas fuerzas observables en la naturaleza son manifestaciones de una fuerza única” (teoría de campos). Son ideas tan fascinantes que llevan al científico, a pesar de los fracasos en el logro de resultados afirmativos, a intentar probar su verdad. Aquí no son las refutaciones las que predominan sino más bien las confirmaciones, como señala Lakatos.  Una confirmación representa un enorme progreso en esta búsqueda de la identidad, como sugiriera Mayerson (1859-1933).  Afirmación ésta, sin embargo, que debemos tomar con cautela, ya que hay ámbitos científicos, como la física cuántica, en la que no es clara esta búsqueda de identidad.

Cuando una de estas ideas resulta ser tan fascinante, resultados negativos no cuestionan la validez de la idea sino que la refutación de asocia con otros aspectos involucrados en  la realización del experimento.  Dos de estos conceptos son importantes: las hipótesis auxiliares y las condiciones iniciales.  Las primeras son suposiciones externas al núcleo duro de la teoría, en el caso de Oersted, por ejemplo, la existencia de una clase de materiales conductores los cuales se asume son relevantes en la realización del  experimento, mientras que las condiciones iniciales son instancias o especificaciones bajo las cuales se realiza un experimento, por ejemplo, el voltaje mínimo requerido para que la inducción magnética se produzca.  La heurística negativa establece que, en caso de un resultado negativo, lo que debemos revisar son las condiciones iniciales o las hipótesis auxiliares, pero nunca el núcleo duro.  La sustitución de hipótesis auxiliares o condiciones iniciales por otras permite que la  teoría se vaya adecuando a los resultados obtenidos hasta el momento; usualmente hasta cierto límite.  

Este límite viene dado por la heurística positiva, es decir, la capacidad de la teoría de encontrar nuevas formas bajo las cuales la idea inicial puede ser fecundamente explorada y comprobada.  Oersted parte de una forma específica de la formulación de teoría de campos que indicamos, a saber: “existe interacción entre electricidad y magnetismo”, la cual es ampliada con su idea del conflicto eléctrico.  Como indicamos, para él los materiales conductores “resisten el conflicto eléctrico” lo mismo que el calor y la luz. Otra de las formas de heurística positiva, muy común después de Volta, es la transformación de energía química en eléctrica, de magnética en química.  En todos estos casos observamos la extraordinaria fertilidad de la idea de los campos de fuerza.  A medida que un programa pierde su capacidad de encontrar nuevas formas innovativas, y acumula anomalías o resultados negativos, su límite comienza a reducirse y el programa se convierte en un programa degenerativo, pierde su progresividad hasta que un nuevo programa lo reemplace o se encuentren nuevas formas para renovar este programa.

Desde esta metodología, el experimento de Oersted se inscribe muy claramente dentro de la práctica normal del científico; pone de manifiesto la fascinación por el desciframiento de la naturaleza y el compromiso personal del científico con un programa de investigación que presenta un gran potencial, una gran fuerza heurística, cuyos éxitos, como bien sabemos, llevarán al desarrollo de la primera gran teoría de campos de fuerza; desarrollo éste que intensificará con los trabajos de Maxwell, de Hertz y de otros renombrados científicos en la segunda mitad del siglo XIX.  Este experimento se realiza al inicio de la teoría de los campos de fuerza, en su parte experimental, ya que teóricamente tanto Descartes, Leibniz, Kant, Schelling y Boscovich habían adelantado este tipo de teorías.  Esta parte experimental se intensifica con el concurso convocado por la Academia de Ciencias Bavara en 1774-1776, sobre la analogía entre electricidad y magnetismo, con lo cual este tema se posiciona como un tema relevante para la comunidad científica internacional.  Pensamos que es esta necesidad de descifrar la naturaleza, de encontrar la identidad la que guía, en este caso y en otros, los esfuerzos de Oersted por descubrir esta interacción y por proponer interpretaciones sobre los fascinantes resultados que iba descubriendo.

Interpretación Popperiana del experimento de Oersted de 1820

*Celso Vargas Elizondo

Para Popper, la ciencia progresa mediante un constante proceso de resolución de problemas. Cuando se arriva a una idea, por ejemplo, “es posible la interacción entre la electricidad y el magnetismo”, el primer problema que enfrenta el científico es expresar esa idea en términos lo más precisos, por ejemplo, “puede determinarse (observarse) la interacción entre electricidad y magnetismo”. El segundo problema que enfrenta es convertir esta idea de forma que se puedan derivar consecuencias experimentales.  Por ejemplo, “Si existe interacción entre electricidad y magnetismo, al aplicar una corriente eléctrica X al arreglo Y, se producirá un efecto Z”; prestando atención a que el consecuente efectivamente sea deducible del antecedente.  Tercero es importante hacer explícitas las hipótesis auxiliares de manera que resulte claro que, del arreglo experimental propuesto, puede someterse a contrastación la afirmación “existe interacción entre la electricidad y el magentismo”. Finalmente, llevar a cabo el experimento esforzándose por encontrar un resultado negativo.  Si se obtiene, aplicando Modus Tollendo Tollens (MT) podemos concluir que el antecedente es falso. Es decir, que no hay interacción entre la electricidad y el magnetismo. Si el resultado fue positivo, es decir, se corrobora la interacción entre electricidad y magnetismo, se afirma que, de manera tentativa, la teoría ha pasado la prueba, pero en ningún sentido se puede afirmar que haya sido confirmada, pues el siguiente caso o experimento podría falsar la teoría en cuestión.

Varios problemas importantes enfrenta esta metodología.  Nos centraremos en los cuatro siguientes:

a) Caundo un resultado experimental es negativo, realmente lo que tenemos en una conjunción entre la hipótesis H, y las hipótesis auxiliares que hemos introducido durante el proceso de experimentación.  En este caso, tenemos que lo que se somete a experimentación es la conjunción de H y Ai, donde Ason las hipótesis auxiliares.  El MT lo que establece es que: Si P implica Q, y Q es falso, entonces, P es también falso, es decir, No-P.  En este caso, P es (H ˄ A1˄ … ˄ Ai) y, por tanto, No-(H ˄ A1˄ … ˄ Ai) es igual a decir, No-H o No- Ao….o No- Ai.   Es decir, no implica que H sea falsa, sino que puede ser alguna o algunas de las hipótesis auxiliares. Popper es muy consciente de este problema e introduce la siguiente regla metodológica: “… se considerarán aceptables únicamente aquellas cuya introducción no disminuya el grado de falsabilidad o contrastabilidad del sistema…, sino que lo aumente”.

b) El experimento no está adecuada diseñado.  Aquí tenemos dos opciones.  Uno, que se deba a aparatos defectuosos, como es el caso de los primeros experimentos de Oersted.  Esto se corrige, como también hizo Oersted, mejorando los dispositivos requeridos para un mejor experimento.  El segundo caso es cuando los resultados obtenidos no son replicables.  Un ejemplo en cuestión fueron los experimentos de Bitter sobre magnetoquímica.  Estos fueron seriamente criticados por Paul Erman (1764-1851) un destacasdo físico. Fueron tan severas la críticas que propicio un estancamiento en este ámbito del conocimiento durante varias décadas.

c) Cuando los resultados no son claramente interpretados. Esto sucedió también con la interpretación de los resultados de Oersted que introdujo teorías como “conflicto eléctrico” que hacían poco claro el impacto de su experimento.  Desde luego esto sucede cuando un determinado campo de la investigación es incipiente, es decir, cuando los conceptos y la teoría sobre el campo no han sido consolidados.  Finalmente,

d) Cuando el incipiente desarrollo de un campo permite que se cuestione fuertemente la validez del supuesto de partida.  En este caso, de que existe interacción entre electricidad y magnetismo.  Ampére analizó con detalle el experimento de Oersted y propuso una interpretación teórica de los resultados, muy consistente, basada en el supuesto de que la electricidad y el magnetismo son fenómenos diferentes y que el efecto observado es una forma de  manifestación de la electricidad. Para este autor, entonces, el experimento de Oersted no establece ningún tipo de interacción.

Cuando realizamos la lectura del reporte de sus experimentos de Oersted publicado en  1820, no encontramos mucho de la perspectiva popperiana.  Más bien, nos parece que hay un esfuerzo por describir, de manera bastante precisa, el experimento realizado de manera que se pueda replicar.  De hecho, incluso recurre Oersted a una técnica para memorizar mejor una de las condiciones.  Dice “(p)ara que estas cosas puedan ser más fácilmente recordadas, usemos esta fórmula: el polo sobre el cual la electricidad negativa entra, se vuelve hacia el oeste, cuando entra por debajo, se vuelve al este”.  El reporte del experimento está escrito de manera muy positiva lo que pone de manifiesto el convencimiento del autor, no solo en relación con la idea de la interacción entre la electricidad y el magnetismo, sino también en el sentido de que ha establecido una prueba experimental de que es así.  Más aún, en el reporte de sus experimentos hay un esfuerzo por proponer una interpretación de los resultados y extrapolar los resultados obtenidos a otros ámbitos científicos.   Por ejemplo, en relación con su teoría de los “conflictos eléctricos” señala que ha demostrado que el calor y la luz están en conflicto eléctrico, de manera que el conflicto eléctrico es un fenómeno más general.

Por lo anterior, nos parece que debemos buscar otras posibilidades teóricas de entender este tipo de experimentos; lo cual haremos en dos próximas perspectivas.

Interpretación Convencionalista del Experimento de Oersted

*Celso Vargas Elizondo

  1. El convencionalismo

El convencionalismo fue un movimiento filosófico muy importante durante las primera siete décadas del siglo XX en la comprensión de la tarea científica.  Reconocemos dos momentos en el desarrollo de esta perspectiva: las primeras décadas del siglo XX con Pioncaré, Duhem y Reichenbach; y una segunda etapa bajo la tesis de la “subdeterminación” de las teorías científicas, tesis conocida como Duhem-Quine.  Se puede consultar con mucho provecho a Torsten Wilholt (2012) Conventionalism: Poincaré, Duhem, Reichenbach, disponible en la web.

La característica principal del convencionalismo es que no considera un sistema científico como verdadero, sino “verdadero por convención” (Lakatos, 1970, History of Science and Its Rational Reconstructions). No significa esto que un sistema científico sea arbitrario, pues la selección de la convención responde a criterios, entre otros, la simplicidad.  En el capítulo de Popper sobre “simplicidad” (1958 Logic of Scientific Discovery), muestra que la adopción de la geometría euclidiana, sobre otras de más dimensiones, responde el hecho de que es más fácil modelar fenómenos físicos en términos de esta geometría.  En este sentido, los científicos y también matemáticos, buscan estrategias para reducir un problema de múltiples dimensiones a uno de menores dimensiones siempre y cuando sea representativo del problema a resolver.  Pero en un sentido mucho más profundo, la segunda tesis es que las teorías científicas “dicen más” sobre la realidad que el mundo mismo, por ejemplo, el espectro de las ondas Hertz, es mucho más amplio que el tipo de ondas que encontramos en la realidad, incluyendo las artificiales.  Dado este hecho, varias posibles teorías serían compatibles con los datos.  Por convención se adopta aquella que sea más simple.

Como toda convención requiere el consenso de la comunidad científica para adoptar una determinada teoría.  El proceso del desarrollo de la ciencia está profundamente marcado por este esfuerzo de los representantes de las teorías por imponer su teoría a la comunidad científica, en dos sentidos, lograr nuevos adeptos, y mostrar que su teoría es más simple que las rivales.  Sin embargo, debemos señalar que es muy difícil proponer criterios de simplicidad de manera general.  Y este es uno de los principales problemas del convencionalismo.

2. Análisis del experimento de Oersted

El experimento de Oersted se encuentra el inicio del rápido desarrollo, tanto teórico como experimental, en el campo del electromagnetismo.  Progresos que se alcanzan gracias a destacadas figuras científicas como Faraday, Helmholtz, Maxwell y Hertz, entre otros. De 1820 a 1890 veremos desarrollarse y florecer este importante campo de la investigación científica.  Así pues, en 1820 todavía no contamos con una teoría, entendida, como dice Duhem, como “un sistema matemático de proposiciones, deducido de un pequeño número de principios, cuyo objetivo es representar lo más simple, completo y exacto como sea posible un conjunto de leyes experimentales”, en términos del cual poder aplicar los criterios convencionalistas.

Sin embargo, encontramos en el experimento de Oersted algunos elementos que concuerdan con los criterios convencionalistas, por ejemplo, la formación de una red conceptual que permita darle sentido a los hallazgos en este nuevo campo de la investigación científica.  Quiero centrarme en dos estos elementos de la red conceptual.

Se desprende de lo dicho anteriormente, que para el convencionalista la aceptación de los resultados científicos dependen del consenso de la comunidad científica.  En este sentido, Oersted hace un importante esfuerzo por buscar testigos y formas de validación de sus resultados, incluyendo desde luego, una legitimación del vocabulario o terminología correspondiente.  Invita Oersted a distinguidos testigos y describe su serie de experimentos con el fin que sean repetidos y aceptados por otros investigadores.  Y su trabajo será pronto reconocido y premiado, es decir, alcanza el consenso, condición importante para el convencionalista.

Distinguimos en Oersted tres tipos de vocabulario en la presentación de sus experimentos: a) vocabulario que describe conceptos obtenidos con antelación, como gálvano, aguja magnética, circuito galvánico, receptáculos de cobre, polo opuesto, ácido sulfúrico y ácido nítrico, entre otros.  b) vocabulario no técnico tomado del uso ordinario como Este, Oeste, magnitud, goma (gum-lac), giros, entre otros. c) términos técnicos introducidos por el mismo Oersted:  conflicto eléctrico (actualmente, campo magnético), electricidad negativa (actualmente, flujo de electrones), inclinación de la aguja (desplazamiento de la dirección de la aguja), unión conductora (joining conductor) y fuerza eléctrica, entre los más importantes. Sin embargo, lo que hemos indicado en este párrafo  constituye un elemento superficial del convencionalismo, por las limitaciones anteriormente indicadas.

3. Problemas relacionados con convencionalismo

Quisiera referirme brevemente a dos tesis que considero problemáticas del convencionalismo.  La primera es que la tarea de la comunidad científica es arribar a un sistema científico por convención, es decir, aceptarlo verdadero por convención. La segunda es la consideración de un sistema científico como “un sistema matemático de proposiciones, deducido de un pequeño número de principios, cuyo objetivo es representar lo más simple, completo y exacto como sea posible un conjunto de leyes experimentales”.   En ambas tesis, el compromiso de la investigación científica por la búsqueda de la verdad es dejada de lado.  Somos conscientes, desde luego, de las dificultades de proporcionar una definición general adecuada de verdad, cosa que intentaremos en las dos perspectivas siguientes sobre este tema.  El énfasis en el carácter deductivo de la ciencia, refleja un aspecto muy importancia de la ciencia; el segundo es la “interrogación” a la naturaleza, en el caso específico de las ciencias naturales.