La filosofía analítica fue una corriente de
pensamiento que surgió a finales del siglo XIX y principios del siglo XX como
respuesta a la necesidad de establecer argumentos claros y críticos dentro de
un contexto signado por la profunda transformación que estaba viviendo la
ciencia. Para ello se enfocó en el proceso para establecer conceptos y
enunciados. Esta corriente se basó en el análisis conceptual del lenguaje a
través de la lógica formal creada por George Boole, Gottlob Frege, Bertrand
Russell y Alfred Whitehead, Charles Sanders Peirce, George Edward Moore, Ludwig
Wittgenstein y otros miembros que integraron el Círculo de Viena. Sus creadores
sostenían que muchos problemas de la filosofía de esa época podían ser
resueltos a través de la reflexión rigurosa y sistemática de la aplicación de
conceptos y del uso del lenguaje. Este proceso fue posible gracias al
desarrollo de la lógica formal, es decir, el establecimiento de un universo del
discurso y de un conjunto total de referencia.
La lógica formal es una rama de la filosofía y las
matemáticas que, por intermedio de símbolos y esquemas, se enfoca en determinar
cuáles son las formas válidas y correctas de los razonamientos matemáticos y
científicos independientemente del contenido particular del razonamiento a
través de reglas de inferencia definidas. A partir de estos elementos analiza y
estudia todos los recursos del lenguaje y la semántica, para poder llegar a una
conclusión de forma precisa y rigurosa. Además de la lógica formal existe una
lógica informal que, al contrario, es subjetiva, no funcionan a través de
reglas de inferencia precisas y se usa en los procesos de razonamiento
cotidianos.
Teniendo presente esta rigurosidad otorgada por la
lógica formal, las principales características de la filosofía analítica están
relacionadas con:
·
Un especial interés en el estudio del lenguaje y el
análisis lógico de los conceptos.
·
Una posición tendencialmente escéptica en relación con
la metafísica, aunque, como veremos, en la actualidad hay un proceso de
convergencia.
·
Una conexión con la tradición empirista (empirismo
lógico), tanto en espíritu, estilo, foco y análisis filosófico.
·
Un autoproclamado fundamento en la física que se
orienta a la investigación científica a pesar de que la física moderna actual
ha hecho que considere aspectos de la experiencia humana relacionados con la
subjetividad a pesar de su contra.
·
Una contraposición respecto a otras tradiciones
filosóficas como la denominada filosofía continental y otras filosofías
orientales[1], aunque, como veremos, desde
la filosofía del proceso se ha buscado un punto de confluencia en la propuesta
metodológica de los filósofos Gilles Deleuze y Félix Guattari que se apoyaron
de los últimos avances de la matemática y de la física de finales del siglo XX y
del físico de plasma espacial y filósofo del proceso T. Eastman quien, en la
actualidad, se ha apoyado en la física moderna (cuántica) y en la hermenéutica
para dar cuenta de la realidad.
La filosofía analítica, así como su antecedente el
empirismo lógico, tuvo una máxima receptividad en el mundo anglosajón, específicamente
en países como Estados Unidos, Canadá, Reino Unido, Australia y Nueva Zelanda, aunque
también se han creado corrientes en el mundo escandinavo, e incluso en Alemania
y Austria. De igual forma, ha sido objeto de críticas por su enfoque en el
análisis conceptual del lenguaje a través de la lógica formal, lo que ha
llevado a que algunos filósofos la consideren como una disciplina limitada y
reduccionista. Otros han destacado su carácter demasiado técnico y especializado,
lo que la hace inaccesible para el público en general. También se ha
argumentado que ella no se preocupa lo suficiente por otros aspectos de la
experiencia humana, como las emociones y la subjetividad. Por ello la filosofía
analítica ha evolucionado con el tiempo y ha tendido a fusionarse con otras
ramas filosóficas, especialmente, la filosofía de mente y la filosofía de la
ciencia, evidenciándose así la confluencia antes indicada.
Teniendo presente lo antes indicado vamos a examinar la
tradición empirista que tiene su fundamento en el empirismo lógico, luego vamos
a examinar su fundamento en la física hasta la irrupción de la física moderna,
luego analizaremos los problemas epistemológicos actualmente presentes (Kuhn,
Foucault-Deleuze y Agamben) y, finalmente, examinaremos las tendencias
actuales.
1.- Los fundamentos del empirismo lógico
El empirismo lógico, también
llamado neopositivismo o positivismo lógico, fue una corriente filosófica que
surgió a inicios del siglo XX caracterizada por atenerse a un estricto
empirismo y la sistemática utilización de la lógica matemática. Como proceso
fue el efecto de una serie de inquietudes que aparecieron a finales del siglo
XIX como consecuencia de la crítica que se hizo a una manera de entender la
filosofía en momentos en que se estaban produciendo grandes descubrimientos científicos.
Consecuentemente, vamos a exponer los antecedentes empirismo lógico y luego examinaremos
al Círculo de Viena destacando sus contribuciones en sus comienzos
a.- Los antecedentes del Empirismo Lógico
En sus raíces dos elementos se
destacaron en el empirismo lógico: la concepción de la verdad de Aristóteles y
las contribuciones de Francis Bacon, Rene Descartes, David Hume, Immanuel Kant
y Augusto Comte.
Con respecto a la teoría de la
verdad enunciada por Aristóteles esta expresaba una correspondencia entre el
decir y el ser: decir las cosas como son era sinónimo de un discurso verdadero
que veremos también en Alfred Tarski.
En relación con el empirismo se
puede afirmar que este pregonaba antes y después de Hume que la única fuente
del conocimiento era la experiencia sensible. Pero junto con Hume, Kant también
afirmó que el entendimiento humano se perdía en contradicciones cuando se
“aventuraba más allá de los límites de la experiencia posible”.
En este sentido el sistema
filosófico de Kant fue un intento de mediación y síntesis entre la postura
racionalista y la empirista. Kant desarrolló el primer modelo interpretativo de
las ciencias y para ello se fundamentó en dos teorías firmemente establecidas
para la época: la geometría euclidiana y la mecánica newtoniana y se preguntó
por la estructura esencial que se escondía detrás de estas teorías puesto que
permitieron obtener nuevos conocimientos. Kant expresó que todos los enunciados
tienen forma de juicios estableciendo cuatro tipos de ellos: dos lógicos y dos
gnoseológicos (ver cuadro) tratando de justificar los juicios sintéticos a
priori. Para Kant, en este sentido,
la verdad podría haber sido el conocer todos los juicios sintéticos a priori.
A partir de él se han mantenido dos corrientes de pensamiento: una que
trató de mejorar los juicios sintéticos a priori y otra representada por
los positivistas que trataron de negarla. La preocupación de Kant por la
estructura esencial del conocimiento científico fue retomada a finales del
siglo XIX y principios del siglo XX, dando origen a una serie de corrientes que
intentaron dar respuesta a estas inquietudes.
Augusto Comte fue un filósofo
francés, cuyas obras dieron inicio propiamente a la corriente que se denominó
positivismo. Esta corriente sostenía que el único auténtico saber era el saber
científico caracterizándose por asumir una actitud crítica ante la filosofía
tradicional, en especial la metafísica y por seguir un conjunto de reglas
inmutables según el cual la realidad se manifestaba en los fenómenos; el
nominalismo, según el cual el saber abstracto era el saber de cosas
individuales generalizadas; la renuncia a los juicios de valor y a los
enunciados normativos, por carecer de contenidos cognoscitivos y, finalmente,
la regla de la unidad del método de la ciencia.
La principal aportación que hizo
Comte al positivismo fue el criterio de que un conocimiento verdadero es un
consenso entre humanos (Omnes, 1996:306). Comte expresó que
Toda ciencia, igual que todo
individuo y aun la especie humana, pasa por tres estados: el estado teológico,
cuando el hombre explica las cosas recurriendo a principios y fuerzas
sobrenaturales y de carácter personal; el metafísico o abstracto, cuando el
hombre sustituye lo sobrenatural por lo abstracto, y recurre a fuerzas y causas
a modo de entidades ocultas que explican la naturaleza; y el científico o
positivo, cuando el hombre, renunciando a un saber absoluto, se conforma con
conocer las meras relaciones entre fenómenos, esto es, las leyes.
Con estos antecedentes podemos
ahora hacer mención a las influencias considerando que todas convergieron hacia
la conformación del Círculo de Viena. Según Pitter y Rincón las influencias
provinieron de cuatro fuentes: Dos de carácter filosófico: el neopositivismo de
Ernst Mach y la vinculación del empirismo con la lógica matemática, uno de
carácter histórico y el ultimo de carácter instrumental. De acuerdo a este
criterio se va a hacer una reseña de los aportes de los principales filósofos
influyentes.
·
En lo concerniente al
neopositivismo de Mach se tiene que este se originó por el rechazo a la
división del conocimiento en especialidades separadas. Él desarrolló una
filosofía que recibió el nombre de “sensacionalismo” o empirismo radical porque
llamaba a las unidades últimas del conocimiento «sensaciones» o «elementos», equivalentes
a las «ideas» e «impresiones» de los empiristas clásicos.
·
En la vinculación del empirismo
con la lógica matemática destacó la figura de Ludwig Wittgenstein. Este autor
expresó que su objetivo inicial fue “trazar un límite a la expresión de los
pensamientos”. Hay tres elementos que se destacan en este esfuerzo: realidad,
pensamiento y lenguaje. En relación con la estructura de la realidad
Wittgenstein afirmó que el mundo es un conjunto de hechos. Estos hechos son
atómicos, independientes, aislados, contingentes, que se pueden conocer al
margen del universo. Los hechos son las combinaciones de objetos y la
estructura del mundo lógico-matemática. Con respecto a la Estructura del
pensamiento afirmó que es la que interpreta la realidad. En lo que concierne a
la Estructura del lenguaje, afirmó que es la expresión perceptible del
pensamiento, y se expresa en proposiciones. La proposición es el retrato lógico
de la realidad. Cada hecho atómico sólo tiene una expresión correcta. Para
Wittgenstein conocer toda la verdad
sería conocer el mundo, pero, toda la realidad no es posible ser expresada mediante el lenguaje. Por ello también
Wittgenstein expresó que “Los límites de mi lenguaje significan los límites de
mi mundo”. La figura de Wittgenstein en su primera etapa de existencia estuvo asociada
a la de Bertrand Russell. Las conversaciones que sostuvieron ambos autores
permitieron que Russell formulara la concepción que denominó "Atomismo
Lógico"[2]. Esta concepción se caracterizó
por afirmar que toda la realidad era de una estructura similar a la
wittgensteniana. El atomismo lógico pretendió sintetizar el empirismo y la
lógica.
·
La vinculación de carácter
histórico estuvo determinada por el desarrollo que tuvo la física a comienzos
del siglo XX. En este sentido se destacan las contribuciones que hizo Alberto
Einstein en todo lo referente a la comprensión de la estructura del espacio-tiempo
y de Niels Bohr en relación con la mecánica cuántica para la comprensión de la
estructura atómica y nuclear. Las aportaciones de Einstein se centraron en lo
que se denominó la Teoría sobre la Relatividad Especial. Esta teoría
partió de la suposición de que no existía un espacio-tiempo universal o
absoluto, que la simultaneidad de acontecimientos sólo existe dentro de un
mismo sistema físico inercial, y que la materia y la energía son equivalentes. Las
consecuencias de la teoría de la relatividad especial fueron: que a partir de
ella se creyó que los intervalos de tiempo son relativos al movimiento del
observador; que el espacio se contrae o dilata en el mismo sentido y por la
misma razón que lo hace el tiempo; y que la velocidad de la luz es la máxima
del universo. La teoría general de la relatividad es una generalización de la
especial y generó un nuevo modelo de cosmología en el que la gravitación
universal se convirtió en una geometría (no euclidiana) del espacio/tiempo. Sobre
la mecánica cuántica hablaremos más adelante.
·
Desde el punto de vista
instrumental se destacan las contribuciones que hicieron Gotlob Frege, Giuseppe
Peano y los trabajos de Russell y Whitehead[3]. Estas contribuciones
permitieron a Rudolf Carnap construir un lenguaje lógico que facilitara “el
análisis de los conceptos científicos y la clarificación de los problemas
filosóficos”.
La importancia de Frege en la
filosofía ha radicado en el hecho que los problemas que él se planteó son los
mismos que luego enfrentaría la filosofía analítica. La obra de Frege tuvo su
base en dos principios: el principio del contexto y el principio de
composicionalidad. El principio del contexto establecía que las palabras no
significaban nada aisladamente, sino que su significado era una contribución
específica al significado de las oraciones en las que pueden aparecer. El
principio de composicionalidad, por su parte, requería que el significado de
las "palabras" fuese establecido caso por caso. El segundo requería
que las reglas del significado para las palabras hicieran necesariamente
referencia al modo en que, dada una categoría semántica general a la que
pertenecen, contribuyesen junto con palabras de otras categorías al significado
de las oraciones. El principio del contexto requería que las reglas que determinan
el significado de las oraciones no tomaran en consideración del mismo modo
el significado de todas las palabras[4].
Según Frege, existía una relación
entre signo, sentido y referencia. Esta relación era la siguiente: cada signo
tiene un sentido, cada sentido tiene una referencia, pero, una referencia podía
tener varios. La referencia de una palabra es aquello de que se quiere hablar
cuando se la usa normalmente y está asociada a su valor veritativo. De aquí se sigue que todos los
enunciados verdaderos tienen la misma referencia: la verdad; y que todos los
enunciados falsos tienen la misma referencia: lo falso. Hubo otro autor que
tuvo los mismos intereses que Frege, pero con una orientación diferente. Las
contribuciones de Carnap las trataremos a continuación.
b.- El Circulo de Viena.
El Circulo de Viena fue fundado
en el año 1929 en torno al filósofo Moritz Schlick, Rudolf Carnap, Hans Hahn,
Otto Neurath, Kurt Gödel y otros. Este grupo redactó el documento del Círculo: la concepción científica del mundo.
b.1.- Proyecto, características y Postulados
La aplicación de los conceptos
lógicos a la reconstrucción racional de los conceptos científicos, el análisis
lógico del lenguaje que asegurara significatividad, la exigencia de
comprobabilidad de las frases y la búsqueda de un criterio de sentido empírico,
el rechazo a la metafísica por su carencia de significatividad empírica, la concepción
errónea acerca de la superación de la distinción entre humanidades y ciencia de
la naturaleza mediante la traducibilidad general al lenguaje de la Ciencia
Unitaria, etc., constituyeron las preocupaciones fundamentales de ese grupo.
El principio de verificación,
como característica epistemológica fue lo que esencialmente identificó al círculo.
El objetivo central de la metodología fue formular y legitimar una regla de aceptación
de los enunciados conforme a la convicción fundamental según la cual una
proposición científica debía ser aceptada sólo cuando era verdadera (Damiani,
1997). Para la concreción de esta norma era necesario establecer un criterio de
significatividad que permitiera determinar si una proposición era o no
verdadera. Este criterio les permitió establecer una demarcación del discurso
científico del no científico.
La tarea de la reconstrucción
racional de los conceptos científicos la llevó a cabo Carnap. Este filosofo
estableció un sistema de construcción de los conceptos a partir de lo
inmediatamente dado (es decir, las experiencias elementales) mediante el empleo
de las nociones de “clase” y “relación”. A partir de las relaciones
fundamentales que rigen entre ellas, logró establecer un árbol genealógico de
los conceptos de las ciencias humanas y experimentales que garantizaba la
reducción de todos los conceptos científicos a la base fenomenalista que
constituyen las experiencias elementales. Pero la necesidad de comprobación
hizo que a este fenomenalismo (de carácter epistémico) se incluyera un
fisicalismo (real científico) que perseguía también abarcar toda la ciencia en
un sistema consistente y unitario.
La verificación (observable y
teórica) va a ser el problema que se planteó Carnap debido a que consideró que
no había independencia en los términos de las teorías científicas. Él
estableció dos órdenes de verificación: el directo y el indirecto. Si un
enunciado, por ejemplo, afirmaba algo respecto a una percepción actual,
entonces el enunciado podría probarse directamente acudiendo a la
percepción actual. En la verificación de tipo indirecto se trataba de
proposiciones que no eran verificables en sí mismas, pero que sí lo son
mediante la verificación directa de otras proposiciones ya verificadas con
anterioridad.
De esta manera, toda aseveración
científica debía afirmar algo acerca de percepciones actuales o acerca de otra
clase de observaciones y, entonces, es verificable por ellas; o bien afirmar
enunciados acerca de futuras experiencias que se infieren de la unión de datos
científicos u otros que se sometían a constatación empírica. La ciencia, pues,
era un sistema de hipótesis verificables que, en última instancia, tocaban la
realidad. Y todas las proposiciones de su lenguaje expresivo eran reducibles a
"enunciados atómicos", "juicios de percepción",
"proposiciones protocolares" que eran propiamente empíricas en
sentido estricto. La conclusión de este análisis le añadió a las proposiciones
analíticas y sintéticas otro tipo de proposiciones: las metafísicas, es decir,
las carentes de significación que, como tales, eran expresiones de
pseudoproblemas.
El trabajo de Carnap fue
complementado por los trabajos de Alfred Tarski en lo concerniente al criterio
de verdad que mencionaremos más adelante, pero Kurt Gödel[5] alertó sobre las limitaciones acerca
del tratamiento del problema de la verdad en el proceso que se llevó a cabo
para unificar las ciencias. Este autor expresó lo siguiente:
§
No todo lo verdadero es
demostrable
§
No hay un cálculo que supla la
semántica (hay lenguaje donde lo que yo deduzco es verdadero).
§
La consistencia entre deducción y
razonamientos en términos aristotélicos sólo puede obtenerse si se especifica
en qué lógica se está trabajando
Para
Gödel la verdad era inagotable, no todo lo verdadero coincidía con lo
demostrable[6].
b.2.- Contribuciones al Círculo de Viena en sus comienzos
Las principales aportaciones que
recibió el Circulo de Viena en sus comienzos provinieron de sus colaboradores
en Berlín y en Varsovia. En Berlín se destacó Hans Reichenbach quien hizo aportaciones
relacionadas con la filosofía de la ciencia y la teoría de la probabilidad.
Este filosofo fue el que promovió la distinción entre contexto de
descubrimiento y contexto de justificación[7]. Sobre el contexto de
descubrimiento volveremos en el parágrafo tercero.
Por el lado polaco, Alfred
Tarski, hizo sus principales aportaciones a la lingüística y a la lógica en su
teoría semántica de la verdad. Esta concepción se colocó en la línea del concepto
aristotélico de la verdad como correspondencia entre el pensamiento y los
hechos al definir “verdad” con respecto a un lenguaje. Según esta teoría,
“verdadero” es una propiedad (metalingüística) de toda proposición que describa
(en un lenguaje objeto) un hecho tal como éste es en el mundo real. Se llama
“semántica” porque “verdad” o “verdadero” son términos semánticos, cuyo
significado sólo puede explicarse mediante un metalenguaje; un metalenguaje
puede relacionar expresiones lingüísticas con hechos, mientras que un lenguaje
objeto sólo puede hablar de sus propias expresiones lingüísticas o de los
hechos. Para Tarski la verdad no puede ser discutida
dentro de su propio lenguaje, tiene que ser discutida a través de metalenguaje,
de lo contrario es inconsistente. Algunos aspectos de su teoría semántica se deben a la influencia de su
maestro Stanislaw Lesniewski miembro del círculo de Varsovia quien centró su interés en el
estudio de las paradojas lógicas, en la teoría de probabilidades y en el estudio
de la lógica de relaciones
Generalmente se ha asociado
el empirismo lógico, positivismo lógico, neopositivismo con el Circulo de
Viena, no obstante, este grupo se comenzó a disolver siete años después de que
se produjera la interpretación de Copenhague que dio paso a lo que empezó a
conocerse como epistemología cuántica (Omnès, 1995:105). Sin embargo, podemos
hablar de una transición entre ese pasado y el presente como veremos a
continuación.
2.- La
física moderna y su impacto en la filosofía: la construcción de un sentido
común cuántico
En la
introducción expresamos que la filosofía analítica surgió a finales del siglo
XIX y principios del siglo XX dentro de un contexto de una ruptura producida
por el gran avance científico que afectó profundamente el pensamiento y el acto
de comprender. Fue en la física dónde han ocurrido los más grandes cambios: en
primer lugar, la teoría de la relatividad y, en segundo lugar, la mecánica
cuántica vista como una ciencia universal que expresa las leyes de la
naturaleza a partir de la existencia de un mundo hecho de partículas
omnipresente y casi inaprehensibles. Esta nueva ciencia nos indicó los límites
del sentido común y la falibilidad de ciertos principios filosóficos esenciales
como inteligibilidad, localidad, causalidad, identidad y discernibilidad
(Ibid.). El lenguaje existente empezó a hacerse limitado para dar cuenta de ese
nuevo mundo explicando así el desarrollo de la matemática y la lógica formal
que hemos mencionado.
La
creciente importancia de las matemáticas como lenguaje formal obedeció al hecho
de poseer un conjunto de características que las hacían idóneas para explicar
los avances científicos en términos de leyes de la física. Estas son:
fecundidad, simbolización, correspondencia superior con la realidad y ser
consecuencia de una actividad humana. Gracias al desarrollo de las matemáticas
formales permitió el desarrollo de la numerología cuántica de Bohr, de la
mecánica matricial de Werner Heisenberg y de la función de onda de Schrödinger
que dio paso al desarrollo de la física moderna, la química, el láser y la
física nuclear. Estos avances han tenido consecuencias epistemológicas en
función de las severas y restrictivas reglas establecidas por Bohr que han
funcionado en el plano de la física, pero han generado una gran confusión
filosófica que en sí explican el paso del empirismo lógico a la filosofía
analítica y de ahí a la corriente denominada naturalista (ontológico o metodológico),
la filosofía de la ciencia, de la mente, la filosofía exacta desarrollada por
Mario Bunge a partir de la lógica y la matemática, etc. La confusión filosófica
está relacionada con la interpretación, la complementariedad y la reducción a
una función de onda.
En
relación con la interpretación se tiene que la mecánica cuántica se basa en
probabilidades de algo que está pero que no es perceptible, por tanto, su fin
es conciliar esos extremos (la incerteza de la probabilidad y el hecho de estar
sin poder ser imaginado que examinaremos bajo el concepto de virtualidad según Arkady
Plotnitsky), que sus datos son coherentes y establecer los modos de pensamiento
capaces de unir dichos extremos sin producir deformaciones. Desde la
perspectiva filosófica es saber cómo pensar el mundo. Así pues, la
interpretación puede ser entendida de dos maneras: la de Bohr a partir de un sentido
común milenario (separa lo que es compatible con los descubrimientos de la
física, depura los conceptos, limita su campo y habla) y, la actual que parte
de los principios establecidos de la mecánica cuántica (existencia de
partículas, función de onda, etc.) y se muestra cómo de ellos surgen, por
demostración matemática, todas las características de la representación
matemática y del sentido común, para los objetos suficientemente grandes
ubicados en nuestra escala de observación.
La
interpretación en la mecánica cuántica es esencial por tres causas: porque el
formalismo de la teoría es oscuro, porque la propia noción del observador deja
de ser transparente ya que entra en juego la conciencia con el riesgo de poner
en jaque el carácter objetivo de la ciencia y porque el carácter probabilístico
de la teoría tiene que ser conciliado con la existencia indudable de hechos y,
con ello, se ha convertido en una teoría en sí (Ibid.:177-179).
En
relación con el principio de complementariedad parte de la dificultad de
describir simultáneamente la posición o velocidad de una partícula o la luz en
términos ondulatorios o corpusculares. Este principio considera que la manera
de decir una descripción es complementaria, es decir, cada una de ellas es
correcta siempre y cuando se hable de probabilidades para evitar la
arbitrariedad de elegir una descripción y el paralogismo (asegurar la
coherencia en el discurso). La escogencia, en sí misma, determina el campo de
proposiciones. Con ello Bohr impuso la existencia a través de equipos
sofisticados de medición de lo inaccesible y lo impensable (Ibid.:179-181).
Finalmente,
la reducción de la función de onda fue observada por Bohr a partir de la idea
de que es un dispositivo para fabricar probabilidades. Es decir, la reducción
es posible cuando se conocen los resultados de una medición porque a través de
la función de onda se puede calcular las probabilidades que se pueden esperar
en la segunda medición. Esta dupla de mediciones evidencia de una paradoja: la
existencia de dos categorías de leyes que expresan la presencia de una
dualidad, una clásica y otra cuántica o existe una sola categoría de leyes
donde la reducción en sí es solo un medio que no produce ningún efecto
(Ibid.:181-183).
La
confusión filosófica antes indicada es lo que explica el proceso de evolución
que hemos indicado que va desde el empirismo lógico hasta la filosofía
analítica y de ahí a la filosofía de la ciencia contemporánea. El esfuerzo que
se ha realizado para conciliar la física clásica con la cuántica o moderna se
ha orientado a lograr la coherencia en el conocimiento del mundo entre la observación
clásica concreta y las leyes desarrolladas de la física moderna, es decir,
profundizar en el conocimiento del mundo tanto por la vista como por los signos
de una manera indiferente porque se obtendrían los mismos resultados, pero para
ello habría que dominar la ciencia formal y partir de lo cuántico de modo que
fuese posible deducir un sentido común o lógica común (o
informal) a partir de premisas cuánticas. Esto nos lleva a reflexionar acerca
del sentido común desde varias perspectivas: su lógica desde la
perspectiva de las ciencias, las historias y su coherencia, el papel de las
probabilidades, la lógica del mundo cuántico y la complementariedad.
La
lógica, según Omnès, posee tres elementos esenciales: en primer lugar,
especifica aquello de que se habla, es decir, es un campo de proposiciones, un
universo de discurso o un dominio del pensamiento, en segundo lugar, trae
consigo los medios de razonar y, en tercer lugar, el criterio de verdad que
permita decidir si una proposición es verdadera. A partir de estos elementos,
el autor trató de acercar el mundo cuántico al sentido común teniendo
como pivote el concepto de verdad de Tarski. Primero fue considerando todas las
afectaciones que puede tener un objeto que se mueve y la geometría de cómo es
representado. Segundo fue considerando los cambios de estados en el tiempo. Tercero
fue actualizando la metáfora del hombre flotante de Avicena, es decir, un ángel
con un sólido conocimiento de lógica y matemática que desciende a la tierra y
comienza a conocer las leyes fundamentales de la naturaleza y particularmente
la física cuántica con lo cual hace un recorrido inverso al realizado por la
humanidad. Este ángel terminaría hablando un lenguaje similar al humano. Cuarto
es la consideración de la secuencia de propiedades más o menos fortuitas que
ocurren en instantes sucesivos. En este contexto, la historia articula los
valores que se producen en cada instante. La historia, en este sentido, sirve
de lenguaje universal tanto para un evento físico como de una situación
cualquiera debido a que gracias a las probabilidades podemos tener certezas de
que ciertas historias son coherentes (Ibid.:193-211).
Teniendo
todo esto presente Omnès partió de las ideas de que un objeto cualquiera percibido
por los sentidos es un sistema físico (una clase de función de onda) que
entendemos similar a la concepción de un cuerpo visto como una composición en
una lectura spinoziana. Desde esta lectura un cuerpo flotante o un ángel podría
observar sus precisiones e imprecisiones desde una perspectiva matemática considerando
que esa composición de quantas de acción, según Spinoza, es perfecta. Así pues,
según Omnès, si se considera que la lógica del sentido común es, de
forma aproximada, una lógica de historias cuánticas coherentes y los
raciocinios del sentido común son apenas, en última instancia, la
expresión verbal de implicaciones demostrables por medio de la lógica cuántica
(Ibid.:219)[8].
Con lo
hasta aquí examinado Omnès propuso una inversión de la epistemología debido a
que el mundo cuántico tiene sus propias reglas de descripción y de raciocinio y
de ahí emanan las del mundo clásico debido a que este mundo derrumbó los
principios que anteriormente permitían explicar el mundo (Ibid.:224 y 246).
Esto nos lleva a preguntarnos en la actualidad cuál es el carácter de la ciencia
como representación de la realidad y el alcance de su transformación.
El
carácter actual de la ciencia es una coherencia integral puesta a prueba en
todo momento y el conjunto de reglas que representan el mundo. Estas reglas se
expresan en tres categorías: las empíricas, los principios y las leyes. Las
empíricas son todas aquellas que provienen de la experiencia indefinidamente
repetida. Los principios, desde una perspectiva filosófica, buscan la
universalidad y la predicción. Es una regla empírica de un orden más elevado y
más económico que se extiende a lo conocido y lo desconocido. Las leyes,
finalmente, son consecuencias particulares que podemos deducir de los
principios y se aplican a una categoría específica de fenómenos. Así pues, la
coherencia de las ciencias contemporáneas radica en que el número de las leyes
es muy superior al de las reglas puramente empíricas. Esto nos lleva a los
problemas epistemológicos del presente.
3.-
Los problemas epistemológicos actualmente presentes (Kuhn, Foucault-Deleuze y
Agamben)
Así
como Omnès ha destacado que dos de las grandes transformaciones de la ciencia
han sido la coherencia y la irrupción de lo formal, Tomás Kuhn (2004) denominó
a estas transformaciones como revoluciones. Estas revoluciones han sido
producto de cambios súbitos productos de grandes descubrimientos que han
influido en el desarrollo de la ciencia y se han convertido en modelos a ser
imitados como paradigmas. Según Omnés y Giorgio Agamben el uso de la palabra
paradigma ha sido problemático. Para el filósofo francés Kuhn con el uso de la
palabra paradigma quiso hacer alusión a lo que creyó habían sido saltos súbitos
y revolucionarios sin considerar que las crisis que ha vivido la ciencia han
sido más bien producto de un proceso evolutivo que ha generado nuevos
principios. Para Omnés la reflexión de Kuhn es parecida a la de Michael
Foucault en Las palabras y las cosas, es decir,
“Para el primero, una
ciencia es, en cada época, un mostrario de paradigmas e imitaciones, todos
marcados por una inspiración común. Para Foucault es todo el conjunto de las
obras intelectuales de una época que presenta ese tipo de parentesco, para
construir la episteme del siglo. En ambos casos, los conceptos
organizadores, episteme o paradigma, parecen buenos indicadores para una
historia de las mentalidades, más nada tienen en común con la realidad, la
única cosa que debe preocupar a la ciencia” (Ibid.:264).
Al
contrario de Omnès, esta desconexión con la realidad fue lo que destacó
Foucault y como veremos a continuación, también Agamben. Esta desconexión
obedece según Omnés a que la epistemología se interesa por la sociedad humana,
mientras que los que hacen ciencia se interesan por la naturaleza, es decir, lo
real y las relaciones que en ella existen.
Agamben,
por su parte, expresó que Kuhn reconoció que la palabra ‘paradigma’ fue usada
en dos sentidos que resultaban problemáticos porque su naturaleza es
arqueológica y, por consiguiente, ontológica: como lo que los miembros de una
comunidad científica poseen en común (técnicas, modelos, valores, etc.) y como
“elemento singular de ese conjunto que, sirviendo como ejemplo común sustituye
las reglas explicitas y permite definir una tradición de investigación
particular y coherente” (2009:15-16). A partir de esta consideración Agamben
expresó que Foucault mantuvo una distancia con el pensamiento de Kuhn debido a
que no se trataba
“de saber cuál es el
poder que pesa desde el exterior sobre la ciencia, sino qué efectos de poder
circulan entre los enunciados científicos; cuál es, de alguna manera, su
régimen interno de poder; y de qué modo y por qué, en ciertos momentos, estos
se modifican de una manera global” (Ibid.:19)
Este
hecho hizo que el pensador italiano reflexionara acerca de una teoría de las
signaturas debido a la necesidad de saber acerca de ese régimen interno visto
como signos que expresan la existencia de un paradigma que tienen un sentido y
hay que hacerlos hablar. En relación con el concepto de paradigma afirmó, entre
otras cosas, lo siguiente:
“Un paradigma es una
forma de conocimiento ni inductiva ni deductiva, sino analógica, que se mueve
de la singularidad a la singularidad”.
“El caso paradigmático
deviene tal suspendiendo y, a la vez, exponiendo su pertenencia al conjunto, de
modo que ya no es posible separar en él ejemplaridad y singularidad”.
“La historicidad del
paradigma no está en la diacronía ni en la sintonía, sino en un cruce entre
ellas” (Ibid.:42),
Con respecto
a las signaturas Agamben expresó que el lenguaje, además de ser el lugar de la
significación es también el lugar de las signaturas sin las cuales el signo no
podría funcionar y por ello Foucault expresó que la episteme es en sí misma una
práctica histórica, es decir, un conjunto de relaciones que “en una época dada
es posible descubrir entre las ciencias cuando se las analiza al nivel de su
regularidad discursiva. Esto nos permite comprender el alcance de la extensión
de las ciencias naturales al campo humano y del espíritu. Esto nos lleva al
método.
El
tema del método apunta a dos direcciones: cómo hacer descubrimientos y cómo
establece la humanidad la concordia entre sus conocimientos y lo real. En
relación con lo primero, tal como lo señaló Paul Feyerabend, no existe método
para trazar de antemano un itinerario en tierra desconocida, pero si existe una
lógica que puede ayudar a ello tal como la desarrolló inicialmente Charles
Peirce bajo el nombre de lógica abductiva[9]. Con
respecto a lo segundo, Karl Popper elaboró un criterio esencial denominado falsacionismo o racionalismo
crítico que consiste en el establecimiento de hipótesis o teorías explicativas
basadas en la experiencia (método hipotético deductivo) que luego es verificada
de forma inductiva.
De una manera más abstracta
Omnés expresó que existe un método bien definido que resalta la especificidad
de la ciencia. Es un método a cuatro tiempos, es decir, empirismo o
exploración, conceptualización o concepción, elaboración o lógica (enumeración
de todas las consecuencias posibles de los principios) y verificación o la
exposición a ser refutada (falsasión) (Ibid.:272-281). Este método a cuatro
tiempos no es aplicable a lo que se conoce como ciencias humanas o del espíritu
debido a que no sólo no existe la predicción, sino también en el proceso de
conceptualización se usen conceptos que sean más bien signaturas que cualifica
y especifica a partir de un evento y un signo que relacionamos con la
modernidad (sobre el concepto volveremos más adelante). A pesar de la crítica
de Mario Bunge al pensamiento hermenéutico y heideggeriano, Heidegger (1938) expresó
“… todas las ciencias
del espíritu, …, tienen que ser necesariamente inexactas si quieren ser
rigurosas. Cierto que también se puede entender lo vivo como una magnitud de
movimiento espacio-temporal, pero entonces ya no se capta lo vivo. La
inexactitud de las ciencias históricas del espíritu no es ningún defecto, sino
únicamente un modo de satisfacer una exigencia esencial para este tipo de
investigación. En realidad, el proyecto y el modo de asegurar el sector de
objetos de las ciencias históricas, además de ser de otro tipo, resulta mucho
más difícil de cara a medir su rendimiento que el rigor de las ciencias exactas”.
La predicción en las
ciencias humanas o del espíritu se ha tratado de lograr, primeramente, según
Foucault, mediante la disciplina, posteriormente, según Deleuze, mediante el
control y, en la actualidad, existe el riesgo de que la Inteligencia Artificial
cuántica pueda hacerlo a pesar de que pensadores como John Searle y Timothy
Eastman no lo han creído posible. Esto nos lleva ahora a consideras lo que se
escapa de la ciencia.
En función de lo antes
señalado, se tiene lo siguiente: la lógica ha penetrado el mundo al nivel de la
materia, mas no de nuestra conciencia a pesar de los avances en el campo de la
computación, la física cuántica y la inteligencia artificial; nuestro
conocimiento de las leyes de la realidad es lo suficientemente maduro para que
esa conciencia, su representación intuitiva y visual y el sentido común
que en ella habita puedan mostrarse, con una cuasi total certeza, como los
frutos obtenidos por principios mas generales y; finalmente, existe una
disyunción irreducible entre el dominio de las teorías y la realidad que hace
necesario pensar en una nueva manera de conocer el mundo, es decir, una nueva
manera de correlacionar la conciencia y el mundo debido a que todo como
percibimos y procesamos mediante el sentido común son manifestaciones
sutiles de leyes cuánticas. Estas manifestaciones parecieran indicar la
existencia de un Logos, en sentido heracleitico, que se contrapone a lo real
haciendo evidente la existencia de una dualidad.
Al respecto, si consideramos
la interpretación que hizo Heidegger (1943) de Logos, según Heráclito, podemos
decir que dicho Logos es producción, creación e innovación con lo cual creemos
que el ser, en sentido heideggeriano, reúnen lo real y el Logos bajo la palabra
Dasein. Omnès expresó que ambos danzan un baile divino que el hombre
contempla sin penetrar su secreto. Creemos que ello es inalcanzable.
4.-
Las tendencias actuales
James
Ladyman (2019) ha indicado desde un realismo estructural que parte de la
existencia de un mundo independiente de la mente que debería desarrollarse una
posición metafísica según la cual, dado que la continuidad en el cambio científico
es de “forma o estructura”, el éxito de la ciencia debería explicarse en
términos de la representación de relaciones modales entre fenómenos. Si
consideramos esta afirmación a la luz de lo expresado en la introducción de
este ensayo, es decir, hicimos mención a la confluencia entre la física
moderna, es decir, la filosofía de la ciencia y la metafísica gracias a la
filosofía del proceso. Esta confluencia se ha producido por la dificultad que
han tenido los científicos de producir conceptos dada su complejidad y la han
realizado autores como Deleuze y Guattari desde la filosofía y Timothy Eastman
desde la física y la filosofía del proceso que vamos a examinar a continuación.
Con respecto a los autores franceses, Arkady Plotnitsky
(2006) hizo una exploración de las relaciones entre los fundamentos filosóficos
de la teoría cuántica de campos[10] y el concepto de lo virtual que está presente en la obra
Qu’est-ce que la Philosophie?, de Deleuze y Guattari (1991[2005]) debido
a que observó la existencia de relaciones entre filosofía, ciencia y arte y, de
forma más específica, sus respectivas maneras de afrontar el caos. Según
Deleuze y Guattari:
“El caos se define no tanto por su desorden como por la velocidad infinita
con la que se desvanece toda forma que en él toma forma. Es un vacío que no es
una nada sino virtual, que contiene todas las partículas posibles y extrae
todas las formas posibles, que surgen para desaparecer inmediatamente, sin
consistencia ni referencia, sin consecuencias. El caos es una velocidad
infinita de nacimiento y desaparición”.
Para Plotnitsky (2006) esta
idea de caos o, según él, de virtualidad, en los autores franceses parece provenir,
en parte, de la teoría cuántica de campos, pero en un sentido diferente que le
permitió vincular la idea del caos como lo virtual con la idea del caos como lo
incomprensible.
La vinculación con la teoría cuántica de campos le
permitió al autor a partir de los autores franceses considerar un concepto de
caos como desorden, definido por el rol que juega el azar en su funcionamiento
o en sus efectos debido a que le permitió a su vez introducir el concepto de
caos como lo virtual como ocurrió con la teoría cuántica de campos que tomó de
la mecánica cuántica las concepciones de caos como lo incomprensible y de caos
como azar y desorden. De igual forma, si se considera que el científico estadounidense
Frank Wilczek expresó que "el objetivo principal de la física fundamental
es descubrir conceptos [físicos] profundos que iluminan nuestra comprensión de
la naturaleza”[11] y que Deleuze y Guattari (1991[2005]) le dan al concepto
en sí, un tratamiento filosófico se puede pensar, según Plotnitsky (2006), los
conceptos de la teoría cuántica de campos desde una perspectiva filosófica.
Desde la primera perspectiva la mecánica cuántica es esencialmente
estadística puesto que implica un azar irreductible a cualquier causalidad
subyacente como lo desarrolló Werner Heisenberg en sus relaciones de
incertidumbre y ello es lo que le permitió a Deleuze y Guattari, según
Plotnitsky (2006), expresar que como regla general el observador no es ni
inadecuado ni subjetivo, aún en la física cuántica porque la probabilidad mide,
en realidad, un estado de acontecimientos objetivo y, por tanto, introdujo un
elemento de desorden y caos como probabilidad y desorden, incluso en lo concerniente
a los acontecimientos elementales o individuales. Lo que hace que esta
probabilidad o desorden sea irreductible es la incompresibilidad del caos, que
vincula ambas concepciones del caos en la mecánica cuántica. El sentido del
caos como virtualidad en Deleuze y Guattari es aplicable, según Plotnitsky (2006), debido a que
“la mecánica cuántica predice exactamente, las probabilidades del resultado
de los experimentos relevantes, sin decirnos nada sobre lo que ocurre en el
medio o cómo es que tales resultados suceden. En otras palabras, el caos como
virtualidad sólo atañe al pensamiento científico, mientras que el caos como lo
incomprensible y el caos como probabilidad también conciernen al orden
(caósmico) de la mecánica cuántica. Así, estas tres formas de caos –desorden,
lo incomprensible y (sólo al nivel del pensamiento) caos como virtualidad – se
encuentran y están conectadas en la mecánica cuántica”.
La virtualidad en la mecánica cuántica se expresa por el
hecho de que se usan diagramas, como los de Feymann, que nos ayudan a observar
heurísticamente una situación o, como expresaron Deleuze y Guattari, permiten
desacelerar el caos fenomenológico de la situación, para retener en la mente
las formas diagramáticas así creadas, y de esta manera ayudarnos a realizar
cálculos[12]. La arquitectura física y matemáticas de la teoría
cuántica de campos, desde este ángulo de análisis es lo que le permite
considerar el caos como virtualidad. Por ello, Plotnitsky
(2006) creyó que el concepto proveniente de la teoría cuántica de campos de
lo virtual como caos ‘contornea’ la obra de los autores franceses ¿Qué es
filosofía?
Por otra parte, el concepto, desde la perspectiva
deleuzoguattariana, es una manera de abordar el caos, a lo infinito, dando
consistencia a lo virtual y por ello Plotnitsky (2006) afirmó que
El concepto de tamiz filosófico es, por tanto, en sí mismo teórico del
campo cuántico: los conceptos emergen en un plano de inmanencia de manera
similar a la forma en que las partículas virtuales o reales se forman y emergen
del falso vacío, un campo de energía virtual. El caos como lo virtual es en sí
mismo un concepto filosófico.
Por ello, el concepto de caos en Deleuze y Guattari puede
ser observado como lo incomprensible, como azar y desorden, y como lo virtual
que obliga al pensamiento a enfrentarlo tanto como arte, ciencia o filosofía. Estas
tres maneras de enfrentar el caos pueden generar problemas de interferencia que
son ilocalizables porque acaecen en un mismo cerebro e indican la posibilidad
de un futuro diferente como ya lo estamos viviendo y explica porque Omnès nos
habló de un sentido común tendencialmente matemático que puede unir, de
suyo, el arte, la ciencia y la filosofía o pueden hacer que estas desaparezcan.
Desde la física Timothy
Eastman, por su parte, desarrolló una metodología que denominó Marco Relacional
Lógoi (MRL) donde trató de sintetizar lo natural, lo existencial y lo
espiritual congregando el pensamiento procesual, la aplicación de una lógica
triádica que considera el contexto y la consideración de una realidad
relacional que incluye la espiritualidad como contexto último para la
solución de problemas filosóficos y físicos entre otros. De forma más
específica, el MRL es, para Eastman, una
síntesis, del estado del arte en la filosofía y en la ciencia. Estos se
expresan en: (1) física cuántica, (2) filosofía de procesos, (3) semiótica y
biosemiótica, y (4) modelado y estudios de sistemas complejos. Los dos primeros
tienden a tener un enfoque diacrónico que entiende como clave para comprender
la causalidad como proceso fundamental desde una perspectiva ontológica y los
dos últimos tienden a tener un enfoque sincrónico que son fundamentales para
comprender la emergencia, es decir, la creatividad y la generación.
Teniendo presente lo antes
indicado, Eastman articuló su propuesta explicando la
red de relaciones existente en el mundo real, los elementos que constituyen el
MRL, cómo opera la relación de los órdenes causales, la potencialidad y
actualidad y, los procesos cuánticos fundamentales y la estrategia del MRL como
propuesta axiomática. Vamos a examinar sucintamente estos aspectos que
consideramos esenciales para comprender su propuesta metafísica y metalógica.
a.- La red de relaciones
existente en el mundo real.
Según Eastman, desde una
perspectiva óntica, las interacciones que acaecen en el mundo real implican
siempre secuencias de tríadas (entrada-salida-contexto), por ello sugirió la
consideración de las siguientes nociones fundamentales: (1) proceso-sucesión,
(2) lógica tanto de actualidad como de potencialidad, y (3) relación, donde se
incluyen las relaciones locales-globales y todas aquellas asociadas con el
concepto de proceso (Ibid.:22).
Desde esta perspectiva, el MRL
caracteriza estas redes a través de lo que se conoce como metaxología, es
decir, el logos del entre porque cree que en este ‘entre’ se expresa la
potencialidad. El ‘entre’ podemos entenderlo
aquí como el espacio de ‘ajuste’ donde esencialmente lo uno se enmaraña o encaja en lo otro, es decir, dónde
se produce la articulación o ensamble.
La
red de relaciones entendidas desde la articulación que produce el MRL de los
elementos de la experiencia son considerados por el autor tan fundamentales que
pueden representar casos de puro sentido común, es decir, conceptos que
se presuponen en la práctica del proceso de ensamble (Ibid.:22). El sentido común
es lo que le permitió a Omnès pensar que el sentido común puede hacerse
científico y finalmente matemático en un cierto grado[13]. Este es el punto de
coincidencia entre Omnès y Eastman, el punto de disidencia estriba en que el
primero se basa en el avance de la racionalidad y el estadounidense en una
espiritualidad que tiene un carácter óntico.
b.- Los elementos del Marco
Relacional Lógoi.
Para pensar en los elementos
del MRL que producen el proceso de ajuste o de ensamble debemos tener presente,
según Eastman, dos cosas: en primer lugar, que el contexto general para pensar
unas secuencias de sucesos, en términos procesuales, depende de dos tipos de
lógica: una lógica estándar (booleana) basada en actualizaciones y una lógica
de potencialidades, que es, según el autor, una lógica no booleana (Op.
Cit.:22-23)[14]. Ambas lógicas que consideran
lo real y lo posible, según nuestro autor, permiten observar efectivamente lo
‘real’ y, en segundo lugar, que el orden considerado por Eastman para
relacionar esas dos lógicas está basado en la relación universalmente mediadora
del tiempo que vincula lo actual con lo posible en una superposición de
jerarquías de acaecimientos que siguen una estricta sucesión de entradas y
salidas dentro de un contexto de restricciones y potencialidades que de alguna
u otra manera permiten que las funciones que siguen caminos diferentes sumen
sus amplitudes. Dicho proceso de vinculación es tanto local como contextual, es decir, un
todo de múltiples capas que lo sintetiza bajo la conexión
"local-global".
De forma sintética, el
argumento general de Eastman es que la axiomática del MRL correlaciona de forma
intuitiva tres roles de la potencialidad o potentiae, es decir:
·
Las relaciones potenciales,
junto con la actualidad, son componentes esenciales de lo “real”; y expresan,
por una parte, múltiples formas de emergencia creativa (surgimiento y poiesis)
en concordancia con lo indicado en el parágrafo primero y, por la otra,
efectividad de acuerdo a los desarrollos recientes de la física cuántica;
·
La lógica anticipatoria,
asociada con tales potencialidades, permite la obtención de nuevos
conocimientos que pueden ser usados para el análisis de la causalidad, las
relaciones físicas, los sistemas anticipatorios y la experiencia humana;
·
Las correlaciones de potencialidad
podrían evidenciar también la coherencia de las relaciones físicas observadas a
gran escala (siguiendo, al efecto, el “principio de universalidad”) entre los
sistemas humanos (Ibid.:27-28).
El MRL considera por tanto los
principios fundamentales de relación como los conceptos que relacionan tanto lo
contingente, como las dimensiones potenciales del ser y el devenir. La
dimensión contingente expresa, siguiendo a Whitehead, que las cosas actuales
pueden actuar y, la dimensión potencial no-contingente sólo puede actuar a
través de su materialización en una o más cosas actuales.
c.- La relación de los órdenes
causales, forma y hechos resultantes y la potencialidad y actualidad, los
procesos cuánticos fundamentales y la relación local-global.
El modelo de Realidad
Relacional, según el autor, articula cuatro etapas de los procesos cuánticos
fundamentales desde un enfoque ontológico que concuerda con la triáda
entrada-salida-contexto. Estos son los siguientes:
(1) estado inicial real/potenciales globales no
contextualizados;
(2) estados potenciales/contextualizados
localmente;
(3) estados probables / valoración de
probabilidades / condicionalización de potencialidades / restricción de lo
local por lo global / relevancia local de lo global / decoherencia;
(4) estado de resultado real / actualización de
potencialidades / extensión de lo local a lo global / relevancia global de lo
local.
Esta interacción local-global,
según nuestro autor, por una parte, proporciona un fundamento al MRL a través
de los dos órdenes lógicos antes indicados, correlacionada con
hechos/actualizaciones y posibilidades respectivamente, junto con un carácter
bidireccional y mutuamente implicativo de las relaciones y, por la otra,
proporciona una base para considerar todas las relaciones de entrada-salida
dentro de un contexto dado. En este proceso de interacción espaciotemporalmente
nos movemos, según él, de la simetría a su ruptura y posterior asimetría y
sigue la singladura de la actualización hasta pensar en una nueva forma de asimetría
o armonía (Ibid.:68).
Teniendo
presente lo antes descrito, en el modelo de Realidad Relacional, Eastman trató
de afirmar un realismo crítico que tiende a ser intuitivo y tiende a mantener
un sentido común fundamental porque cree que permite con ello establecer una
base consistente para la ética (Ibid.:84). Con esta afirmación el autor hizo
una distinción entre humanos y máquinas al afirmar que la vida en evolución no es una máquina porque, siguiendo a
Whitehead, somos miembros de un mundo vivo de creatividad indecible en su
devenir (Ibid.:97). Partiendo de esta premisa expresó
que los procesos en un nivel multiescala son tan complejos que un robot posee
severas limitaciones y por tanto sólo son capaces, de una manera determinista,
de cumplir funciones relacionadas con la imitación de una vinculación simple o
la inferencia deductiva, de entradas dadas, restricciones y condiciones de
contorno a salidas bien definidas (Ibid.:97). En esta consideración incluyó
también a los sistemas de inteligencia artificial (IA).
d.-), La estrategia del MRL
El horizonte del MRL es
funcionar armónicamente en el mundo dentro de un contexto de espiritualidad,
por tanto, para examinar la estrategia que propuso Eastman para desatar el nudo
gordiano de problemas filosóficos clásicos nos enfocaremos, en primer lugar, en
el problema de la emergencia y, en segundo lugar, la relación mente-cuerpo y el
proceso de la conciencia.
La
emergencia, para Eastman, es la sumatoria de tres componentes: potencialidad
(potentiae), proceso y relaciones locales-globales puesto que desde la
perspectiva cuántica el proceso fundamental implica una transición de las
relaciones potenciales (potentiae) a la realidad con un abanico de posibles
resultados. En este contexto, el modelo de Realidad Relacional considerado en
el MRL incorpora la creatividad de la posibilidad óntica (potentiae) que
permite espaciotemporalmente una emergencia óntica autóctona en el contexto de
historias locales y globales de eventos lógicamente condicionados en un
continuo extenso (Ibid.:79).
En
relación al problema mente-cuerpo y los procesos que posibilitan la conciencia,
Eastman expresó que la conciencia es una capacidad emergente de la mente que
tiene la virtud de contrastar reflexivamente "lo que es" de "lo
que podría ser" permitiéndole así tomar decisiones entre posibilidades
alternativas que se expresan en salidas no booleanas (Ibid.:79). La
autoconsciencia y los sentimientos, en este sentido, como surgen de la
retroalimentación no lineal entre posibilidades alternativas pueden generar
diferentes niveles de capacidad (Ibid.:228).
La conciencia, como se puede observar, es el centro de
gravedad de la propuesta de Eastman porque, como ha dicho, ahí se ubica la
característica intuitiva intrínseca del actuar del universo. Para Eastman, los
aspectos internos y externos de la conciencia tienen elementos tanto físicos
como relacionales en múltiples niveles. En tales relaciones multinivel se
posibilita la anticipación y la capacidad de respuesta de nivel superior a los
entornos que se puede activar y acrecentarse gradual y sucesivamente como
sigue: (1) emergencia de primer orden vista como acontecimiento, seguido de (2)
emergencia/superveniencia de segundo orden; (3) los sistemas de
emergencia/autoorganización de tercer orden; (4) la emergencia de cuarto orden
(evolución); y (5) emergencia/conciencia de quinto orden (Ibid.:155) que
podríamos entender como conciencia unificada. En este sentido creemos, por una
parte, que anticipar es creativamente
armonizar, es decir, actualizar una asimetría para lograr el equilibrio y, por
la otra, que la conciencia de quinto orden nos remite a la conciencia
unificada.
Esta
lectura le permitió a Eastman pensar la conciencia como observación y
experiencia básica para todos aquellos que poseen un grado de despertar cósmico
(Ibid.:225).
La idea de aplicar la teoría relacional dentro de esta
estrategia, según Eastman, fue describir la naturaleza en términos de sistemas
físicos que se representan (modelan) entre sí y que son en sí mismos expresiones
de tales modelos con la finalidad de poder explicar la existencia y el
comportamiento complejo (Ibid.:166). La singladura de la no-linealidad que
permite romper el nudo gordiano en una organización dinámica consiste, para él,
en:
·
Información
que opera como un proceso a nivel cuántico y niveles de complejidad
subsiguientes siguiendo relaciones fundamentales de entrada-salida-contexto.
·
Semiótica
que se ubica en el origen de la semiosis orgánica y considera la relación
signo-significado-código, así como los sistemas complejos dentro del dominio de
la biosemiótica.
·
Episteme
que se ubica en el origen de la semiosis interpretativa y considera la
hermenéutica envolviendo la relación materia-referente-interpretación.
·
Cultura
que considera el origen de la semiosis lingüística (Ibid.:170).
Teniendo presente lo antes indicado, Eastman consideró, por
una parte, que el MRL es limitado, a pesar de su exhaustividad y, por la otra,
apeló a la lógica de las posibilidades como un recurso “especially open to
creativity in the world” para posibilitar la transformación siguiendo el camino
del espíritu (Ibid.:251).
5.- Escolio
Se ha querido mostrar a
través de esta singladura cómo una de las orientaciones de la filosofía
analítica, a pesar de mantener algunos rasgos originales como el estudio del lenguaje y el análisis lógico de los
conceptos, su tradición empirista y su fundamento en la física moderna, y el
avance alcanzado en esta última en lo concerniente al mundo cuántico, ha desplazado su paradigma
epistemológico de una manera tal que su escepticismo en relación con la metafísica se ha debilitado, así como
su contraposición con
respecto a otras tradiciones filosóficas.
6.- Bibliografía Consultada.
Agamben, Giorgio (2008). Signatura
Rerum. Sobre el Método. Buenos Aires. (T.F. Costa y M. Ruvituso). Editora
Adriana Hidalgo. 162 p.
Ayer, Alfredo (Compilador). Positivismo
Lógico. Fondo de Cultura Económica. México. 1965/81. 412 p.
Baceta, Jesús. Cátedra de
Introducción a la Epistemología. Caracas. UCV. 2002.
Cortes, Jordi y Martínez, Antoni. Diccionario
de Filosofía. Barcelona.
1996-99. Empresa Editorial Herder S.A., CD-ROM
Damiani, L. (1997). Epistemología
y Ciencia en la modernidad. Caracas. UCV.
Deleuze, G. y Guattari, F. (1991[2005]). Qu’est-ce que la Philosophie? París.
Editorial Minuit. 206 p. Edición portuguesa (2009). O que é a Filosofia?
São Paulo. (T. B. Prado y A. Alonso). Editora 34. 279 p
Diez, José y Moulines, Ulises.
(1999). Fundamentos de
Filosofía de la Ciencia. 2ª Edición. Barcelona. Editorial Ariel. 501 p.
Eastman, T (2020). Untying the Gordian Knot Process Reality and Context.
Maryland.
Editorial Lexington Books.
Foucault, Michael (1968). Las
palabras y las cosas. Una arqueología de las ciencias humanas. Buenos
Aires. (T. E. Frost). Editorial Siglo XXI. 381 p
Heidegger, Martín (1938). La
Época de la imagen del Mundo, Trad. H. Cortés y A. Leyte, Madrid, Alianza
Editorial, Caminos de bosque, 1996. disponible en: http://www.fadu.edu.uy/estetica-diseno-i/files/2015/08/heidegger_epoca_imagen_mundo.pdf
Heidegger, Martin. (1943-44). Heráclito,
Cursos de Fribugo del semestre de verano de 1943 y del semestre de verano I944.
Buenos Aires. (T. C. Másmela), editorial el Hilo de Ariadna, 460 p
Kuhn, Thomas (2004). La
estructura de las revoluciones científicas. 2° ed. México. (T. C. Solís).
Fondo de Cultura Económica. 318 p
Ladyman, J. (2019). “Introduction: Structuralists of the world unite”. Studies in History and
Philosophy of Science Part A, 74, 1-3. https://doi.org/10.1016/j.shpsa.2018.12.004
Muguerza, Javier. (1975). La
teoría de las Revoluciones Científicas (Una Revolución en la Teoría
Contemporánea de la Ciencia). En Introducción a la Crítica y el Desarrollo
del Conocimiento de I. Lakatos y A Musgrave. Ediciones Grijalbo. Barcelona. 522
p.
Omnès,
Roland (1995). Filosofia da
Ciência Contemporânea. São Paulo.
(T. R. Leal), UNESP. 315 p.
Pitter, Williams y Rincón,
Elita. El Circulo
de Viena y el Positivismo Lógico. Universidad del Zulia. Facultad de
Humanidades y Educación 2002. 17 p.
Plotnitsky, Arkady (2006): «Chaosmologies: Quantum Field Theory, Chaos and
Thought in Deleuze and Guattari’s ‘What is Philosophy?'», Revista Paragraph,
Vol. 29. pp. 40-56. Document en
línea. Disponible: https://mumbletheoryhome.files.wordpress.com/2021/03/arkady-plotnistky-chaosmologies.pdf
Rivadulla Rodríguez, Andrés. Filosofía
Actual de la Ciencia. Madrid Editorial Tecnos 1986. 328 p.
Rosales, A.
(1971). Dynamis y Energeia en Aristóteles. Caracas. UCV. Obra inédita.
Trabajo de ascenso. 121 p
Vera, L. y
Blanco, E. (2023a). “Intuición y prospección: la realidad y su impacto en la
toma de decisiones”. Caracas. Observador del Conocimiento, 6(3), 63–89.
Recuperado a partir de https://revistaoc.oncti.gob.ve/index.php/odc/article/view/51
Vera, L y
Blanco, E. (2023b). “Creatividad, diseño, innovación y Ciencia de Dirección”.
Caracas. Festina Lente B.G. [Documento en Línea]. Disponible: https://edgareblancocarrero.blogspot.com/2023/04/creatividad-diseno-innovacion-y-ciencia.html
[1] La filosofía analítica tiende a tratar la filosofía en
términos de problemas discretos, capaces de ser analizados independientemente
de sus orígenes históricos, mientras que la filosofía continental sugiere que
"el argumento filosófico no puede divorciarse de las condiciones textuales
y contextuales de su surgimiento histórico". Eastman, por otra parte, ha
destacado del confucionismo para fundamentar su tesis acerca de la
contextualidad.
[2] B. Russell
afirmó: "llamo atomismo lógico a
mi doctrina porque los átomos, a los que deseo llegar como elemento último del
análisis, son átomos lógicos y no átomos físicos".
[3] Mucho después de la misma escuela inglesa surgió otro autor: Alan Turing,
quien hizo importantes aportes al positivismo lógico. Este matemático dio una
respuesta a la cuestión de si existe un algoritmo capaz de determinar si un
enunciado es decidible -computable- en un sistema dado. Esta fue la tesis
Church-Turing y al procedimiento ideal construido para demostrarla se le
denominó, máquina de Turing.
[4] En la actualidad, Markus Gabriel retomó los conceptos fregeanos
de sentido y referencia para introducir su concepto de campos de sentido. Ver
al respecto: Gabriel, Markus. (2017). Sentido
y existencia. Una ontología realista. (Sinn und Existenz - Eine realistische
Ontologie). Barcelona (T. R. Gabás). Editorial Herder. 515 p
[5] Teorema de la
Incompletud: 1º de los teoremas de Gödel, que afirma que todo sistema de
axiomas que sea consistente y capaz de incluir la teoría formal de la
aritmética es necesariamente incompleto; dicho sistema de axiomas contiene
algún teorema que, a pesar de ser verdadero, no puede deducirse del sistema. El
2º teorema es complementario del 1º y establece que no es posible probar la
consistencia de un sistema formal de la aritmética con los solos medios que
dicho sistema proporciona; no siendo la consistencia un teorema del sistema, ha
de probarse desde fuera del sistema.
[6] La verdad es vacua epistémicamente. La
verdad es un mecanismo que ancla el discurso al mundo pero que no aporta nada
al discurso cognoscitivo, lo único que asegura es que tiene una referencia
objetiva.
[7] Contexto de descubrimiento:
Todo cuanto se refiere a la invención de una hipótesis. Es irrelevante, para la
investigación científica, la manera como se halla o descubre una hipótesis:
proceso creativo, observación de hechos, inducción, etc., porque, en definitiva,
no se considera que esta tarea sea propiamente obra de la razón, sino de la
imaginación: se trata de una cuestión psicológica, sociológica o histórica, no
propiamente epistemológica. Contexto de justificación: Todo cuanto se
refiere a las razones por las que, en ciencia, debe aceptarse una hipótesis. La
justificación de una hipótesis -la demostración de que es racional considerarla
verdadera- es obra propiamente de la razón y es lo que permite hablar
propiamente de una lógica de la ciencia
[8] Fue
desde esta perspectiva que consideramos las historias coherentes como un
aspecto a tener presente desde una perspectiva intuitiva junto con la
consistencia de un concepto cualquiera en el sentido que debe ser validado todo
el tiempo (Vera y Blanco, 2023a y b). Aquí entra en juego la fecundidad, según
Omnès, la creatividad, la productividad y la innovación como caminos a recorrer
siguiendo un propósito para lograr un resultado esperado a partir de los datos
obtenidos de la experiencia directa o a través de un aparato de medida.
[9] El concepto aristotélico de abducción fue reintroducido
a finales del siglo XIX por el filósofo estadounidense Charles Sanders Peirce,
quien lo consideró el primer paso del método científico ya que genera nuevas
ideas (hipótesis explicativa) que luego se someten a prueba mediante la
deducción y la inducción. La abducción también se aplica al campo de la
historia, ya que permite formular hipótesis sobre el pasado a partir de las
evidencias disponibles. La abducción permite al historiador proponer
explicaciones plausibles o probables de los hechos históricos, teniendo en
cuenta el contexto, las fuentes y las interpretaciones previas. La abducción
también implica un proceso creativo, ya que introduce nuevas ideas o
perspectivas que pueden enriquecer el conocimiento histórico. Para Aristóteles en
Tópica A 12, 105, la abducción (epagogé) es la vía de acceso a lo
universal a partir de los entes individuales. Epagogé se deriva del
verbo epagein, que significa principalmente llevar y conducir algo hacia
algo. La epagogé de que aquí se trata es un conducirse uno mismo hacia y
ante lo universal y por ello un camino o marcha hacia él. Su punto de partida
son los entes individuales, es decir, la patencia del eidos en ellos (Rosales,
1971).
[10] La teoría cuántica de
campos (TQC) es una teoría que aplica las reglas de la mecánica cuánticas a los
campos continuos de la física, como acaece en el campo electromagnético, así
como a las interacciones entre estos y el resto de la materia permitiendo así
calcular observables (secciones eficaces, vidas medias, momentos magnéticos)
con elevada precisión.
[11] Ver al respecto: Vera
y Blanco (2023b).
[12] Diagramas semejantes
lo podemos observar en Deleuze y Guattari en
relación al concepto Cogito de Descartes o en el retrato filosófico de Kant.
[13] Ver al respecto: Vera
y Blanco (2023).
[14]En
la consideración de estas dos lógicas, Eastman se apoyó en la lógica de C. S.
Peirce debido a que el carácter no-binario se basa en la consideración del
contexto donde acaece un evento determinado.
No hay comentarios:
Publicar un comentario