jueves, 15 de febrero de 2024

PASADO Y PRESENTE DE LA FILOSOFÍA ANALÍTICA

 


La filosofía analítica fue una corriente de pensamiento que surgió a finales del siglo XIX y principios del siglo XX como respuesta a la necesidad de establecer argumentos claros y críticos dentro de un contexto signado por la profunda transformación que estaba viviendo la ciencia. Para ello se enfocó en el proceso para establecer conceptos y enunciados. Esta corriente se basó en el análisis conceptual del lenguaje a través de la lógica formal creada por George Boole, Gottlob Frege, Bertrand Russell y Alfred Whitehead, Charles Sanders Peirce, George Edward Moore, Ludwig Wittgenstein y otros miembros que integraron el Círculo de Viena. Sus creadores sostenían que muchos problemas de la filosofía de esa época podían ser resueltos a través de la reflexión rigurosa y sistemática de la aplicación de conceptos y del uso del lenguaje. Este proceso fue posible gracias al desarrollo de la lógica formal, es decir, el establecimiento de un universo del discurso y de un conjunto total de referencia.

La lógica formal es una rama de la filosofía y las matemáticas que, por intermedio de símbolos y esquemas, se enfoca en determinar cuáles son las formas válidas y correctas de los razonamientos matemáticos y científicos independientemente del contenido particular del razonamiento a través de reglas de inferencia definidas. A partir de estos elementos analiza y estudia todos los recursos del lenguaje y la semántica, para poder llegar a una conclusión de forma precisa y rigurosa. Además de la lógica formal existe una lógica informal que, al contrario, es subjetiva, no funcionan a través de reglas de inferencia precisas y se usa en los procesos de razonamiento cotidianos.

Teniendo presente esta rigurosidad otorgada por la lógica formal, las principales características de la filosofía analítica están relacionadas con:

·         Un especial interés en el estudio del lenguaje y el análisis lógico de los conceptos.

·         Una posición tendencialmente escéptica en relación con la metafísica, aunque, como veremos, en la actualidad hay un proceso de convergencia.

·         Una conexión con la tradición empirista (empirismo lógico), tanto en espíritu, estilo, foco y análisis filosófico.

·         Un autoproclamado fundamento en la física que se orienta a la investigación científica a pesar de que la física moderna actual ha hecho que considere aspectos de la experiencia humana relacionados con la subjetividad a pesar de su contra.

·         Una contraposición respecto a otras tradiciones filosóficas como la denominada filosofía continental y otras filosofías orientales[1], aunque, como veremos, desde la filosofía del proceso se ha buscado un punto de confluencia en la propuesta metodológica de los filósofos Gilles Deleuze y Félix Guattari que se apoyaron de los últimos avances de la matemática y de la física de finales del siglo XX y del físico de plasma espacial y filósofo del proceso T. Eastman quien, en la actualidad, se ha apoyado en la física moderna (cuántica) y en la hermenéutica para dar cuenta de la realidad.

La filosofía analítica, así como su antecedente el empirismo lógico, tuvo una máxima receptividad en el mundo anglosajón, específicamente en países como Estados Unidos, Canadá, Reino Unido, Australia y Nueva Zelanda, aunque también se han creado corrientes en el mundo escandinavo, e incluso en Alemania y Austria. De igual forma, ha sido objeto de críticas por su enfoque en el análisis conceptual del lenguaje a través de la lógica formal, lo que ha llevado a que algunos filósofos la consideren como una disciplina limitada y reduccionista. Otros han destacado su carácter demasiado técnico y especializado, lo que la hace inaccesible para el público en general. También se ha argumentado que ella no se preocupa lo suficiente por otros aspectos de la experiencia humana, como las emociones y la subjetividad. Por ello la filosofía analítica ha evolucionado con el tiempo y ha tendido a fusionarse con otras ramas filosóficas, especialmente, la filosofía de mente y la filosofía de la ciencia, evidenciándose así la confluencia antes indicada.

Teniendo presente lo antes indicado vamos a examinar la tradición empirista que tiene su fundamento en el empirismo lógico, luego vamos a examinar su fundamento en la física hasta la irrupción de la física moderna, luego analizaremos los problemas epistemológicos actualmente presentes (Kuhn, Foucault-Deleuze y Agamben) y, finalmente, examinaremos las tendencias actuales.

1.- Los fundamentos del empirismo lógico

El empirismo lógico, también llamado neopositivismo o positivismo lógico, fue una corriente filosófica que surgió a inicios del siglo XX caracterizada por atenerse a un estricto empirismo y la sistemática utilización de la lógica matemática. Como proceso fue el efecto de una serie de inquietudes que aparecieron a finales del siglo XIX como consecuencia de la crítica que se hizo a una manera de entender la filosofía en momentos en que se estaban produciendo grandes descubrimientos científicos. Consecuentemente, vamos a exponer los antecedentes empirismo lógico y luego examinaremos al Círculo de Viena destacando sus contribuciones en sus comienzos

a.- Los antecedentes del Empirismo Lógico

En sus raíces dos elementos se destacaron en el empirismo lógico: la concepción de la verdad de Aristóteles y las contribuciones de Francis Bacon, Rene Descartes, David Hume, Immanuel Kant y Augusto Comte.

Con respecto a la teoría de la verdad enunciada por Aristóteles esta expresaba una correspondencia entre el decir y el ser: decir las cosas como son era sinónimo de un discurso verdadero que veremos también en Alfred Tarski.

En relación con el empirismo se puede afirmar que este pregonaba antes y después de Hume que la única fuente del conocimiento era la experiencia sensible. Pero junto con Hume, Kant también afirmó que el entendimiento humano se perdía en contradicciones cuando se “aventuraba más allá de los límites de la experiencia posible”.

En este sentido el sistema filosófico de Kant fue un intento de mediación y síntesis entre la postura racionalista y la empirista. Kant desarrolló el primer modelo interpretativo de las ciencias y para ello se fundamentó en dos teorías firmemente establecidas para la época: la geometría euclidiana y la mecánica newtoniana y se preguntó por la estructura esencial que se escondía detrás de estas teorías puesto que permitieron obtener nuevos conocimientos. Kant expresó que todos los enunciados tienen forma de juicios estableciendo cuatro tipos de ellos: dos lógicos y dos gnoseológicos (ver cuadro) tratando de justificar los juicios sintéticos a priori. Para Kant, en este sentido, la verdad podría haber sido el conocer todos los juicios sintéticos a priori. A partir de él se han mantenido dos corrientes de pensamiento: una que trató de mejorar los juicios sintéticos a priori y otra representada por los positivistas que trataron de negarla. La preocupación de Kant por la estructura esencial del conocimiento científico fue retomada a finales del siglo XIX y principios del siglo XX, dando origen a una serie de corrientes que intentaron dar respuesta a estas inquietudes.

Augusto Comte fue un filósofo francés, cuyas obras dieron inicio propiamente a la corriente que se denominó positivismo. Esta corriente sostenía que el único auténtico saber era el saber científico caracterizándose por asumir una actitud crítica ante la filosofía tradicional, en especial la metafísica y por seguir un conjunto de reglas inmutables según el cual la realidad se manifestaba en los fenómenos; el nominalismo, según el cual el saber abstracto era el saber de cosas individuales generalizadas; la renuncia a los juicios de valor y a los enunciados normativos, por carecer de contenidos cognoscitivos y, finalmente, la regla de la unidad del método de la ciencia.

La principal aportación que hizo Comte al positivismo fue el criterio de que un conocimiento verdadero es un consenso entre humanos (Omnes, 1996:306). Comte expresó que

Toda ciencia, igual que todo individuo y aun la especie humana, pasa por tres estados: el estado teológico, cuando el hombre explica las cosas recurriendo a principios y fuerzas sobrenaturales y de carácter personal; el metafísico o abstracto, cuando el hombre sustituye lo sobrenatural por lo abstracto, y recurre a fuerzas y causas a modo de entidades ocultas que explican la naturaleza; y el científico o positivo, cuando el hombre, renunciando a un saber absoluto, se conforma con conocer las meras relaciones entre fenómenos, esto es, las leyes.

Con estos antecedentes podemos ahora hacer mención a las influencias considerando que todas convergieron hacia la conformación del Círculo de Viena. Según Pitter y Rincón las influencias provinieron de cuatro fuentes: Dos de carácter filosófico: el neopositivismo de Ernst Mach y la vinculación del empirismo con la lógica matemática, uno de carácter histórico y el ultimo de carácter instrumental. De acuerdo a este criterio se va a hacer una reseña de los aportes de los principales filósofos influyentes.

·          En lo concerniente al neopositivismo de Mach se tiene que este se originó por el rechazo a la división del conocimiento en especialidades separadas. Él desarrolló una filosofía que recibió el nombre de “sensacionalismo” o empirismo radical porque llamaba a las unidades últimas del conocimiento «sensaciones» o «elementos», equivalentes a las «ideas» e «impresiones» de los empiristas clásicos.

·          En la vinculación del empirismo con la lógica matemática destacó la figura de Ludwig Wittgenstein. Este autor expresó que su objetivo inicial fue “trazar un límite a la expresión de los pensamientos”. Hay tres elementos que se destacan en este esfuerzo: realidad, pensamiento y lenguaje. En relación con la estructura de la realidad Wittgenstein afirmó que el mundo es un conjunto de hechos. Estos hechos son atómicos, independientes, aislados, contingentes, que se pueden conocer al margen del universo. Los hechos son las combinaciones de objetos y la estructura del mundo lógico-matemática. Con respecto a la Estructura del pensamiento afirmó que es la que interpreta la realidad. En lo que concierne a la Estructura del lenguaje, afirmó que es la expresión perceptible del pensamiento, y se expresa en proposiciones. La proposición es el retrato lógico de la realidad. Cada hecho atómico sólo tiene una expresión correcta. Para Wittgenstein conocer toda la verdad sería conocer el mundo, pero, toda la realidad no es posible ser expresada mediante el lenguaje. Por ello también Wittgenstein expresó que “Los límites de mi lenguaje significan los límites de mi mundo”. La figura de Wittgenstein en su primera etapa de existencia estuvo asociada a la de Bertrand Russell. Las conversaciones que sostuvieron ambos autores permitieron que Russell formulara la concepción que denominó "Atomismo Lógico"[2]. Esta concepción se caracterizó por afirmar que toda la realidad era de una estructura similar a la wittgensteniana. El atomismo lógico pretendió sintetizar el empirismo y la lógica.

·          La vinculación de carácter histórico estuvo determinada por el desarrollo que tuvo la física a comienzos del siglo XX. En este sentido se destacan las contribuciones que hizo Alberto Einstein en todo lo referente a la comprensión de la estructura del espacio-tiempo y de Niels Bohr en relación con la mecánica cuántica para la comprensión de la estructura atómica y nuclear. Las aportaciones de Einstein se centraron en lo que se denominó la Teoría sobre la Relatividad Especial. Esta teoría partió de la suposición de que no existía un espacio-tiempo universal o absoluto, que la simultaneidad de acontecimientos sólo existe dentro de un mismo sistema físico inercial, y que la materia y la energía son equivalentes. Las consecuencias de la teoría de la relatividad especial fueron: que a partir de ella se creyó que los intervalos de tiempo son relativos al movimiento del observador; que el espacio se contrae o dilata en el mismo sentido y por la misma razón que lo hace el tiempo; y que la velocidad de la luz es la máxima del universo. La teoría general de la relatividad es una generalización de la especial y generó un nuevo modelo de cosmología en el que la gravitación universal se convirtió en una geometría (no euclidiana) del espacio/tiempo. Sobre la mecánica cuántica hablaremos más adelante.

·         Desde el punto de vista instrumental se destacan las contribuciones que hicieron Gotlob Frege, Giuseppe Peano y los trabajos de Russell y Whitehead[3]. Estas contribuciones permitieron a Rudolf Carnap construir un lenguaje lógico que facilitara “el análisis de los conceptos científicos y la clarificación de los problemas filosóficos”.

La importancia de Frege en la filosofía ha radicado en el hecho que los problemas que él se planteó son los mismos que luego enfrentaría la filosofía analítica. La obra de Frege tuvo su base en dos principios: el principio del contexto y el principio de composicionalidad. El principio del contexto establecía que las palabras no significaban nada aisladamente, sino que su significado era una contribución específica al significado de las oraciones en las que pueden aparecer. El principio de composicionalidad, por su parte, requería que el significado de las "palabras" fuese establecido caso por caso. El segundo requería que las reglas del significado para las palabras hicieran necesariamente referencia al modo en que, dada una categoría semántica general a la que pertenecen, contribuyesen junto con palabras de otras categorías al significado de las oraciones. El principio del contexto requería que las reglas que determinan el significado de las oraciones no tomaran en consideración del mismo modo el significado de todas las palabras[4].

Según Frege, existía una relación entre signo, sentido y referencia. Esta relación era la siguiente: cada signo tiene un sentido, cada sentido tiene una referencia, pero, una referencia podía tener varios. La referencia de una palabra es aquello de que se quiere hablar cuando se la usa normalmente y está asociada a su valor veritativo. De aquí se sigue que todos los enunciados verdaderos tienen la misma referencia: la verdad; y que todos los enunciados falsos tienen la misma referencia: lo falso. Hubo otro autor que tuvo los mismos intereses que Frege, pero con una orientación diferente. Las contribuciones de Carnap las trataremos a continuación.

b.- El Circulo de Viena.

El Circulo de Viena fue fundado en el año 1929 en torno al filósofo Moritz Schlick, Rudolf Carnap, Hans Hahn, Otto Neurath, Kurt Gödel y otros. Este grupo redactó el documento del Círculo: la concepción científica del mundo.

b.1.-          Proyecto, características y Postulados

La aplicación de los conceptos lógicos a la reconstrucción racional de los conceptos científicos, el análisis lógico del lenguaje que asegurara significatividad, la exigencia de comprobabilidad de las frases y la búsqueda de un criterio de sentido empírico, el rechazo a la metafísica por su carencia de significatividad empírica, la concepción errónea acerca de la superación de la distinción entre humanidades y ciencia de la naturaleza mediante la traducibilidad general al lenguaje de la Ciencia Unitaria, etc., constituyeron las preocupaciones fundamentales de ese grupo.

El principio de verificación, como característica epistemológica fue lo que esencialmente identificó al círculo. El objetivo central de la metodología fue formular y legitimar una regla de aceptación de los enunciados conforme a la convicción fundamental según la cual una proposición científica debía ser aceptada sólo cuando era verdadera (Damiani, 1997). Para la concreción de esta norma era necesario establecer un criterio de significatividad que permitiera determinar si una proposición era o no verdadera. Este criterio les permitió establecer una demarcación del discurso científico del no científico.

La tarea de la reconstrucción racional de los conceptos científicos la llevó a cabo Carnap. Este filosofo estableció un sistema de construcción de los conceptos a partir de lo inmediatamente dado (es decir, las experiencias elementales) mediante el empleo de las nociones de “clase” y “relación”. A partir de las relaciones fundamentales que rigen entre ellas, logró establecer un árbol genealógico de los conceptos de las ciencias humanas y experimentales que garantizaba la reducción de todos los conceptos científicos a la base fenomenalista que constituyen las experiencias elementales. Pero la necesidad de comprobación hizo que a este fenomenalismo (de carácter epistémico) se incluyera un fisicalismo (real científico) que perseguía también abarcar toda la ciencia en un sistema consistente y unitario.

La verificación (observable y teórica) va a ser el problema que se planteó Carnap debido a que consideró que no había independencia en los términos de las teorías científicas. Él estableció dos órdenes de verificación: el directo y el indirecto. Si un enunciado, por ejemplo, afirmaba algo respecto a una percepción actual, entonces el enunciado podría probarse directamente acudiendo a la percepción actual. En la verificación de tipo indirecto se trataba de proposiciones que no eran verificables en sí mismas, pero que sí lo son mediante la verificación directa de otras proposiciones ya verificadas con anterioridad.

De esta manera, toda aseveración científica debía afirmar algo acerca de percepciones actuales o acerca de otra clase de observaciones y, entonces, es verificable por ellas; o bien afirmar enunciados acerca de futuras experiencias que se infieren de la unión de datos científicos u otros que se sometían a constatación empírica. La ciencia, pues, era un sistema de hipótesis verificables que, en última instancia, tocaban la realidad. Y todas las proposiciones de su lenguaje expresivo eran reducibles a "enunciados atómicos", "juicios de percepción", "proposiciones protocolares" que eran propiamente empíricas en sentido estricto. La conclusión de este análisis le añadió a las proposiciones analíticas y sintéticas otro tipo de proposiciones: las metafísicas, es decir, las carentes de significación que, como tales, eran expresiones de pseudoproblemas.

El trabajo de Carnap fue complementado por los trabajos de Alfred Tarski en lo concerniente al criterio de verdad que mencionaremos más adelante, pero Kurt Gödel[5] alertó sobre las limitaciones acerca del tratamiento del problema de la verdad en el proceso que se llevó a cabo para unificar las ciencias. Este autor expresó lo siguiente:

§  No todo lo verdadero es demostrable

§  No hay un cálculo que supla la semántica (hay lenguaje donde lo que yo deduzco es verdadero).

§  La consistencia entre deducción y razonamientos en términos aristotélicos sólo puede obtenerse si se especifica en qué lógica se está trabajando

Para Gödel la verdad era inagotable, no todo lo verdadero coincidía con lo demostrable[6].

b.2.-          Contribuciones al Círculo de Viena en sus comienzos

Las principales aportaciones que recibió el Circulo de Viena en sus comienzos provinieron de sus colaboradores en Berlín y en Varsovia. En Berlín se destacó Hans Reichenbach quien hizo aportaciones relacionadas con la filosofía de la ciencia y la teoría de la probabilidad. Este filosofo fue el que promovió la distinción entre contexto de descubrimiento y contexto de justificación[7]. Sobre el contexto de descubrimiento volveremos en el parágrafo tercero.

Por el lado polaco, Alfred Tarski, hizo sus principales aportaciones a la lingüística y a la lógica en su teoría semántica de la verdad. Esta concepción se colocó en la línea del concepto aristotélico de la verdad como correspondencia entre el pensamiento y los hechos al definir “verdad” con respecto a un lenguaje. Según esta teoría, “verdadero” es una propiedad (metalingüística) de toda proposición que describa (en un lenguaje objeto) un hecho tal como éste es en el mundo real. Se llama “semántica” porque “verdad” o “verdadero” son términos semánticos, cuyo significado sólo puede explicarse mediante un metalenguaje; un metalenguaje puede relacionar expresiones lingüísticas con hechos, mientras que un lenguaje objeto sólo puede hablar de sus propias expresiones lingüísticas o de los hechos. Para Tarski la verdad no puede ser discutida dentro de su propio lenguaje, tiene que ser discutida a través de metalenguaje, de lo contrario es inconsistente. Algunos aspectos de su teoría semántica se deben a la influencia de su maestro Stanislaw Lesniewski miembro del círculo de Varsovia quien centró su interés en el estudio de las paradojas lógicas, en la teoría de probabilidades y en el estudio de la lógica de relaciones

Generalmente se ha asociado el empirismo lógico, positivismo lógico, neopositivismo con el Circulo de Viena, no obstante, este grupo se comenzó a disolver siete años después de que se produjera la interpretación de Copenhague que dio paso a lo que empezó a conocerse como epistemología cuántica (Omnès, 1995:105). Sin embargo, podemos hablar de una transición entre ese pasado y el presente como veremos a continuación.

2.- La física moderna y su impacto en la filosofía: la construcción de un sentido común cuántico

En la introducción expresamos que la filosofía analítica surgió a finales del siglo XIX y principios del siglo XX dentro de un contexto de una ruptura producida por el gran avance científico que afectó profundamente el pensamiento y el acto de comprender. Fue en la física dónde han ocurrido los más grandes cambios: en primer lugar, la teoría de la relatividad y, en segundo lugar, la mecánica cuántica vista como una ciencia universal que expresa las leyes de la naturaleza a partir de la existencia de un mundo hecho de partículas omnipresente y casi inaprehensibles. Esta nueva ciencia nos indicó los límites del sentido común y la falibilidad de ciertos principios filosóficos esenciales como inteligibilidad, localidad, causalidad, identidad y discernibilidad (Ibid.). El lenguaje existente empezó a hacerse limitado para dar cuenta de ese nuevo mundo explicando así el desarrollo de la matemática y la lógica formal que hemos mencionado.

La creciente importancia de las matemáticas como lenguaje formal obedeció al hecho de poseer un conjunto de características que las hacían idóneas para explicar los avances científicos en términos de leyes de la física. Estas son: fecundidad, simbolización, correspondencia superior con la realidad y ser consecuencia de una actividad humana. Gracias al desarrollo de las matemáticas formales permitió el desarrollo de la numerología cuántica de Bohr, de la mecánica matricial de Werner Heisenberg y de la función de onda de Schrödinger que dio paso al desarrollo de la física moderna, la química, el láser y la física nuclear. Estos avances han tenido consecuencias epistemológicas en función de las severas y restrictivas reglas establecidas por Bohr que han funcionado en el plano de la física, pero han generado una gran confusión filosófica que en sí explican el paso del empirismo lógico a la filosofía analítica y de ahí a la corriente denominada naturalista (ontológico o metodológico), la filosofía de la ciencia, de la mente, la filosofía exacta desarrollada por Mario Bunge a partir de la lógica y la matemática, etc. La confusión filosófica está relacionada con la interpretación, la complementariedad y la reducción a una función de onda.

En relación con la interpretación se tiene que la mecánica cuántica se basa en probabilidades de algo que está pero que no es perceptible, por tanto, su fin es conciliar esos extremos (la incerteza de la probabilidad y el hecho de estar sin poder ser imaginado que examinaremos bajo el concepto de virtualidad según Arkady Plotnitsky), que sus datos son coherentes y establecer los modos de pensamiento capaces de unir dichos extremos sin producir deformaciones. Desde la perspectiva filosófica es saber cómo pensar el mundo. Así pues, la interpretación puede ser entendida de dos maneras: la de Bohr a partir de un sentido común milenario (separa lo que es compatible con los descubrimientos de la física, depura los conceptos, limita su campo y habla) y, la actual que parte de los principios establecidos de la mecánica cuántica (existencia de partículas, función de onda, etc.) y se muestra cómo de ellos surgen, por demostración matemática, todas las características de la representación matemática y del sentido común, para los objetos suficientemente grandes ubicados en nuestra escala de observación.

La interpretación en la mecánica cuántica es esencial por tres causas: porque el formalismo de la teoría es oscuro, porque la propia noción del observador deja de ser transparente ya que entra en juego la conciencia con el riesgo de poner en jaque el carácter objetivo de la ciencia y porque el carácter probabilístico de la teoría tiene que ser conciliado con la existencia indudable de hechos y, con ello, se ha convertido en una teoría en sí (Ibid.:177-179).

En relación con el principio de complementariedad parte de la dificultad de describir simultáneamente la posición o velocidad de una partícula o la luz en términos ondulatorios o corpusculares. Este principio considera que la manera de decir una descripción es complementaria, es decir, cada una de ellas es correcta siempre y cuando se hable de probabilidades para evitar la arbitrariedad de elegir una descripción y el paralogismo (asegurar la coherencia en el discurso). La escogencia, en sí misma, determina el campo de proposiciones. Con ello Bohr impuso la existencia a través de equipos sofisticados de medición de lo inaccesible y lo impensable (Ibid.:179-181).

Finalmente, la reducción de la función de onda fue observada por Bohr a partir de la idea de que es un dispositivo para fabricar probabilidades. Es decir, la reducción es posible cuando se conocen los resultados de una medición porque a través de la función de onda se puede calcular las probabilidades que se pueden esperar en la segunda medición. Esta dupla de mediciones evidencia de una paradoja: la existencia de dos categorías de leyes que expresan la presencia de una dualidad, una clásica y otra cuántica o existe una sola categoría de leyes donde la reducción en sí es solo un medio que no produce ningún efecto (Ibid.:181-183).

La confusión filosófica antes indicada es lo que explica el proceso de evolución que hemos indicado que va desde el empirismo lógico hasta la filosofía analítica y de ahí a la filosofía de la ciencia contemporánea. El esfuerzo que se ha realizado para conciliar la física clásica con la cuántica o moderna se ha orientado a lograr la coherencia en el conocimiento del mundo entre la observación clásica concreta y las leyes desarrolladas de la física moderna, es decir, profundizar en el conocimiento del mundo tanto por la vista como por los signos de una manera indiferente porque se obtendrían los mismos resultados, pero para ello habría que dominar la ciencia formal y partir de lo cuántico de modo que fuese posible deducir un sentido común o lógica común (o informal) a partir de premisas cuánticas. Esto nos lleva a reflexionar acerca del sentido común desde varias perspectivas: su lógica desde la perspectiva de las ciencias, las historias y su coherencia, el papel de las probabilidades, la lógica del mundo cuántico y la complementariedad.

La lógica, según Omnès, posee tres elementos esenciales: en primer lugar, especifica aquello de que se habla, es decir, es un campo de proposiciones, un universo de discurso o un dominio del pensamiento, en segundo lugar, trae consigo los medios de razonar y, en tercer lugar, el criterio de verdad que permita decidir si una proposición es verdadera. A partir de estos elementos, el autor trató de acercar el mundo cuántico al sentido común teniendo como pivote el concepto de verdad de Tarski. Primero fue considerando todas las afectaciones que puede tener un objeto que se mueve y la geometría de cómo es representado. Segundo fue considerando los cambios de estados en el tiempo. Tercero fue actualizando la metáfora del hombre flotante de Avicena, es decir, un ángel con un sólido conocimiento de lógica y matemática que desciende a la tierra y comienza a conocer las leyes fundamentales de la naturaleza y particularmente la física cuántica con lo cual hace un recorrido inverso al realizado por la humanidad. Este ángel terminaría hablando un lenguaje similar al humano. Cuarto es la consideración de la secuencia de propiedades más o menos fortuitas que ocurren en instantes sucesivos. En este contexto, la historia articula los valores que se producen en cada instante. La historia, en este sentido, sirve de lenguaje universal tanto para un evento físico como de una situación cualquiera debido a que gracias a las probabilidades podemos tener certezas de que ciertas historias son coherentes (Ibid.:193-211).

Teniendo todo esto presente Omnès partió de las ideas de que un objeto cualquiera percibido por los sentidos es un sistema físico (una clase de función de onda) que entendemos similar a la concepción de un cuerpo visto como una composición en una lectura spinoziana. Desde esta lectura un cuerpo flotante o un ángel podría observar sus precisiones e imprecisiones desde una perspectiva matemática considerando que esa composición de quantas de acción, según Spinoza, es perfecta. Así pues, según Omnès, si se considera que la lógica del sentido común es, de forma aproximada, una lógica de historias cuánticas coherentes y los raciocinios del sentido común son apenas, en última instancia, la expresión verbal de implicaciones demostrables por medio de la lógica cuántica (Ibid.:219)[8].

Con lo hasta aquí examinado Omnès propuso una inversión de la epistemología debido a que el mundo cuántico tiene sus propias reglas de descripción y de raciocinio y de ahí emanan las del mundo clásico debido a que este mundo derrumbó los principios que anteriormente permitían explicar el mundo (Ibid.:224 y 246). Esto nos lleva a preguntarnos en la actualidad cuál es el carácter de la ciencia como representación de la realidad y el alcance de su transformación.

El carácter actual de la ciencia es una coherencia integral puesta a prueba en todo momento y el conjunto de reglas que representan el mundo. Estas reglas se expresan en tres categorías: las empíricas, los principios y las leyes. Las empíricas son todas aquellas que provienen de la experiencia indefinidamente repetida. Los principios, desde una perspectiva filosófica, buscan la universalidad y la predicción. Es una regla empírica de un orden más elevado y más económico que se extiende a lo conocido y lo desconocido. Las leyes, finalmente, son consecuencias particulares que podemos deducir de los principios y se aplican a una categoría específica de fenómenos. Así pues, la coherencia de las ciencias contemporáneas radica en que el número de las leyes es muy superior al de las reglas puramente empíricas. Esto nos lleva a los problemas epistemológicos del presente.

3.- Los problemas epistemológicos actualmente presentes (Kuhn, Foucault-Deleuze y Agamben)

Así como Omnès ha destacado que dos de las grandes transformaciones de la ciencia han sido la coherencia y la irrupción de lo formal, Tomás Kuhn (2004) denominó a estas transformaciones como revoluciones. Estas revoluciones han sido producto de cambios súbitos productos de grandes descubrimientos que han influido en el desarrollo de la ciencia y se han convertido en modelos a ser imitados como paradigmas. Según Omnés y Giorgio Agamben el uso de la palabra paradigma ha sido problemático. Para el filósofo francés Kuhn con el uso de la palabra paradigma quiso hacer alusión a lo que creyó habían sido saltos súbitos y revolucionarios sin considerar que las crisis que ha vivido la ciencia han sido más bien producto de un proceso evolutivo que ha generado nuevos principios. Para Omnés la reflexión de Kuhn es parecida a la de Michael Foucault en Las palabras y las cosas, es decir,

“Para el primero, una ciencia es, en cada época, un mostrario de paradigmas e imitaciones, todos marcados por una inspiración común. Para Foucault es todo el conjunto de las obras intelectuales de una época que presenta ese tipo de parentesco, para construir la episteme del siglo. En ambos casos, los conceptos organizadores, episteme o paradigma, parecen buenos indicadores para una historia de las mentalidades, más nada tienen en común con la realidad, la única cosa que debe preocupar a la ciencia” (Ibid.:264).

Al contrario de Omnès, esta desconexión con la realidad fue lo que destacó Foucault y como veremos a continuación, también Agamben. Esta desconexión obedece según Omnés a que la epistemología se interesa por la sociedad humana, mientras que los que hacen ciencia se interesan por la naturaleza, es decir, lo real y las relaciones que en ella existen.

Agamben, por su parte, expresó que Kuhn reconoció que la palabra ‘paradigma’ fue usada en dos sentidos que resultaban problemáticos porque su naturaleza es arqueológica y, por consiguiente, ontológica: como lo que los miembros de una comunidad científica poseen en común (técnicas, modelos, valores, etc.) y como “elemento singular de ese conjunto que, sirviendo como ejemplo común sustituye las reglas explicitas y permite definir una tradición de investigación particular y coherente” (2009:15-16). A partir de esta consideración Agamben expresó que Foucault mantuvo una distancia con el pensamiento de Kuhn debido a que no se trataba

“de saber cuál es el poder que pesa desde el exterior sobre la ciencia, sino qué efectos de poder circulan entre los enunciados científicos; cuál es, de alguna manera, su régimen interno de poder; y de qué modo y por qué, en ciertos momentos, estos se modifican de una manera global” (Ibid.:19)

Este hecho hizo que el pensador italiano reflexionara acerca de una teoría de las signaturas debido a la necesidad de saber acerca de ese régimen interno visto como signos que expresan la existencia de un paradigma que tienen un sentido y hay que hacerlos hablar. En relación con el concepto de paradigma afirmó, entre otras cosas, lo siguiente:

“Un paradigma es una forma de conocimiento ni inductiva ni deductiva, sino analógica, que se mueve de la singularidad a la singularidad”.

“El caso paradigmático deviene tal suspendiendo y, a la vez, exponiendo su pertenencia al conjunto, de modo que ya no es posible separar en él ejemplaridad y singularidad”.

“La historicidad del paradigma no está en la diacronía ni en la sintonía, sino en un cruce entre ellas” (Ibid.:42),

Con respecto a las signaturas Agamben expresó que el lenguaje, además de ser el lugar de la significación es también el lugar de las signaturas sin las cuales el signo no podría funcionar y por ello Foucault expresó que la episteme es en sí misma una práctica histórica, es decir, un conjunto de relaciones que “en una época dada es posible descubrir entre las ciencias cuando se las analiza al nivel de su regularidad discursiva. Esto nos permite comprender el alcance de la extensión de las ciencias naturales al campo humano y del espíritu. Esto nos lleva al método.

El tema del método apunta a dos direcciones: cómo hacer descubrimientos y cómo establece la humanidad la concordia entre sus conocimientos y lo real. En relación con lo primero, tal como lo señaló Paul Feyerabend, no existe método para trazar de antemano un itinerario en tierra desconocida, pero si existe una lógica que puede ayudar a ello tal como la desarrolló inicialmente Charles Peirce bajo el nombre de lógica abductiva[9]. Con respecto a lo segundo, Karl Popper elaboró un criterio esencial denominado falsacionismo o racionalismo crítico que consiste en el establecimiento de hipótesis o teorías explicativas basadas en la experiencia (método hipotético deductivo) que luego es verificada de forma inductiva.

De una manera más abstracta Omnés expresó que existe un método bien definido que resalta la especificidad de la ciencia. Es un método a cuatro tiempos, es decir, empirismo o exploración, conceptualización o concepción, elaboración o lógica (enumeración de todas las consecuencias posibles de los principios) y verificación o la exposición a ser refutada (falsasión) (Ibid.:272-281). Este método a cuatro tiempos no es aplicable a lo que se conoce como ciencias humanas o del espíritu debido a que no sólo no existe la predicción, sino también en el proceso de conceptualización se usen conceptos que sean más bien signaturas que cualifica y especifica a partir de un evento y un signo que relacionamos con la modernidad (sobre el concepto volveremos más adelante). A pesar de la crítica de Mario Bunge al pensamiento hermenéutico y heideggeriano, Heidegger (1938) expresó

“… todas las ciencias del espíritu, …, tienen que ser necesariamente inexactas si quieren ser rigurosas. Cierto que también se puede entender lo vivo como una magnitud de movimiento espacio-temporal, pero entonces ya no se capta lo vivo. La inexactitud de las ciencias históricas del espíritu no es ningún defecto, sino únicamente un modo de satisfacer una exigencia esencial para este tipo de investigación. En realidad, el proyecto y el modo de asegurar el sector de objetos de las ciencias históricas, además de ser de otro tipo, resulta mucho más difícil de cara a medir su rendimiento que el rigor de las ciencias exactas”.

La predicción en las ciencias humanas o del espíritu se ha tratado de lograr, primeramente, según Foucault, mediante la disciplina, posteriormente, según Deleuze, mediante el control y, en la actualidad, existe el riesgo de que la Inteligencia Artificial cuántica pueda hacerlo a pesar de que pensadores como John Searle y Timothy Eastman no lo han creído posible. Esto nos lleva ahora a consideras lo que se escapa de la ciencia.

En función de lo antes señalado, se tiene lo siguiente: la lógica ha penetrado el mundo al nivel de la materia, mas no de nuestra conciencia a pesar de los avances en el campo de la computación, la física cuántica y la inteligencia artificial; nuestro conocimiento de las leyes de la realidad es lo suficientemente maduro para que esa conciencia, su representación intuitiva y visual y el sentido común que en ella habita puedan mostrarse, con una cuasi total certeza, como los frutos obtenidos por principios mas generales y; finalmente, existe una disyunción irreducible entre el dominio de las teorías y la realidad que hace necesario pensar en una nueva manera de conocer el mundo, es decir, una nueva manera de correlacionar la conciencia y el mundo debido a que todo como percibimos y procesamos mediante el sentido común son manifestaciones sutiles de leyes cuánticas. Estas manifestaciones parecieran indicar la existencia de un Logos, en sentido heracleitico, que se contrapone a lo real haciendo evidente la existencia de una dualidad.

Al respecto, si consideramos la interpretación que hizo Heidegger (1943) de Logos, según Heráclito, podemos decir que dicho Logos es producción, creación e innovación con lo cual creemos que el ser, en sentido heideggeriano, reúnen lo real y el Logos bajo la palabra Dasein. Omnès expresó que ambos danzan un baile divino que el hombre contempla sin penetrar su secreto. Creemos que ello es inalcanzable.

La orientación dada por Omnés nos indica la naturaleza del desplazamiento del paradigma epistemológico de las ciencias humanas hacia disciplinas que originalmente tendían a ser biológicas, según Agamben, y en la actualidad se apoyan en la epistemología cuántica como veremos a continuación, por ello, el foco de atención del pensador italiano es pensar desde el comienzo el anclaje ontológico que permita entender “al ser como un campo de tensiones esencialmente históricas” (Op. Cit.:152).

4.- Las tendencias actuales

James Ladyman (2019) ha indicado desde un realismo estructural que parte de la existencia de un mundo independiente de la mente que debería desarrollarse una posición metafísica según la cual, dado que la continuidad en el cambio científico es de “forma o estructura”, el éxito de la ciencia debería explicarse en términos de la representación de relaciones modales entre fenómenos. Si consideramos esta afirmación a la luz de lo expresado en la introducción de este ensayo, es decir, hicimos mención a la confluencia entre la física moderna, es decir, la filosofía de la ciencia y la metafísica gracias a la filosofía del proceso. Esta confluencia se ha producido por la dificultad que han tenido los científicos de producir conceptos dada su complejidad y la han realizado autores como Deleuze y Guattari desde la filosofía y Timothy Eastman desde la física y la filosofía del proceso que vamos a examinar a continuación.

Con respecto a los autores franceses, Arkady Plotnitsky (2006) hizo una exploración de las relaciones entre los fundamentos filosóficos de la teoría cuántica de campos[10] y el concepto de lo virtual que está presente en la obra Qu’est-ce que la Philosophie?, de Deleuze y Guattari (1991[2005]) debido a que observó la existencia de relaciones entre filosofía, ciencia y arte y, de forma más específica, sus respectivas maneras de afrontar el caos. Según Deleuze y Guattari:

“El caos se define no tanto por su desorden como por la velocidad infinita con la que se desvanece toda forma que en él toma forma. Es un vacío que no es una nada sino virtual, que contiene todas las partículas posibles y extrae todas las formas posibles, que surgen para desaparecer inmediatamente, sin consistencia ni referencia, sin consecuencias. El caos es una velocidad infinita de nacimiento y desaparición”.

Para Plotnitsky (2006) esta idea de caos o, según él, de virtualidad, en los autores franceses parece provenir, en parte, de la teoría cuántica de campos, pero en un sentido diferente que le permitió vincular la idea del caos como lo virtual con la idea del caos como lo incomprensible.

La vinculación con la teoría cuántica de campos le permitió al autor a partir de los autores franceses considerar un concepto de caos como desorden, definido por el rol que juega el azar en su funcionamiento o en sus efectos debido a que le permitió a su vez introducir el concepto de caos como lo virtual como ocurrió con la teoría cuántica de campos que tomó de la mecánica cuántica las concepciones de caos como lo incomprensible y de caos como azar y desorden. De igual forma, si se considera que el científico estadounidense Frank Wilczek expresó que "el objetivo principal de la física fundamental es descubrir conceptos [físicos] profundos que iluminan nuestra comprensión de la naturaleza”[11] y que Deleuze y Guattari (1991[2005]) le dan al concepto en sí, un tratamiento filosófico se puede pensar, según Plotnitsky (2006), los conceptos de la teoría cuántica de campos desde una perspectiva filosófica.

Desde la primera perspectiva la mecánica cuántica es esencialmente estadística puesto que implica un azar irreductible a cualquier causalidad subyacente como lo desarrolló Werner Heisenberg en sus relaciones de incertidumbre y ello es lo que le permitió a Deleuze y Guattari, según Plotnitsky (2006), expresar que como regla general el observador no es ni inadecuado ni subjetivo, aún en la física cuántica porque la probabilidad mide, en realidad, un estado de acontecimientos objetivo y, por tanto, introdujo un elemento de desorden y caos como probabilidad y desorden, incluso en lo concerniente a los acontecimientos elementales o individuales. Lo que hace que esta probabilidad o desorden sea irreductible es la incompresibilidad del caos, que vincula ambas concepciones del caos en la mecánica cuántica. El sentido del caos como virtualidad en Deleuze y Guattari es aplicable, según Plotnitsky (2006), debido a que

“la mecánica cuántica predice exactamente, las probabilidades del resultado de los experimentos relevantes, sin decirnos nada sobre lo que ocurre en el medio o cómo es que tales resultados suceden. En otras palabras, el caos como virtualidad sólo atañe al pensamiento científico, mientras que el caos como lo incomprensible y el caos como probabilidad también conciernen al orden (caósmico) de la mecánica cuántica. Así, estas tres formas de caos –desorden, lo incomprensible y (sólo al nivel del pensamiento) caos como virtualidad – se encuentran y están conectadas en la mecánica cuántica”.

La virtualidad en la mecánica cuántica se expresa por el hecho de que se usan diagramas, como los de Feymann, que nos ayudan a observar heurísticamente una situación o, como expresaron Deleuze y Guattari, permiten desacelerar el caos fenomenológico de la situación, para retener en la mente las formas diagramáticas así creadas, y de esta manera ayudarnos a realizar cálculos[12]. La arquitectura física y matemáticas de la teoría cuántica de campos, desde este ángulo de análisis es lo que le permite considerar el caos como virtualidad. Por ello, Plotnitsky (2006) creyó que el concepto proveniente de la teoría cuántica de campos de lo virtual como caos ‘contornea’ la obra de los autores franceses ¿Qué es filosofía?

Por otra parte, el concepto, desde la perspectiva deleuzoguattariana, es una manera de abordar el caos, a lo infinito, dando consistencia a lo virtual y por ello Plotnitsky (2006) afirmó que

El concepto de tamiz filosófico es, por tanto, en sí mismo teórico del campo cuántico: los conceptos emergen en un plano de inmanencia de manera similar a la forma en que las partículas virtuales o reales se forman y emergen del falso vacío, un campo de energía virtual. El caos como lo virtual es en sí mismo un concepto filosófico.

Por ello, el concepto de caos en Deleuze y Guattari puede ser observado como lo incomprensible, como azar y desorden, y como lo virtual que obliga al pensamiento a enfrentarlo tanto como arte, ciencia o filosofía. Estas tres maneras de enfrentar el caos pueden generar problemas de interferencia que son ilocalizables porque acaecen en un mismo cerebro e indican la posibilidad de un futuro diferente como ya lo estamos viviendo y explica porque Omnès nos habló de un sentido común tendencialmente matemático que puede unir, de suyo, el arte, la ciencia y la filosofía o pueden hacer que estas desaparezcan.

Desde la física Timothy Eastman, por su parte, desarrolló una metodología que denominó Marco Relacional Lógoi (MRL) donde trató de sintetizar lo natural, lo existencial y lo espiritual congregando el pensamiento procesual, la aplicación de una lógica triádica que considera el contexto y la consideración de una realidad relacional que incluye la espiritualidad como contexto último para la solución de problemas filosóficos y físicos entre otros. De forma más específica, el MRL es, para Eastman, una síntesis, del estado del arte en la filosofía y en la ciencia. Estos se expresan en: (1) física cuántica, (2) filosofía de procesos, (3) semiótica y biosemiótica, y (4) modelado y estudios de sistemas complejos. Los dos primeros tienden a tener un enfoque diacrónico que entiende como clave para comprender la causalidad como proceso fundamental desde una perspectiva ontológica y los dos últimos tienden a tener un enfoque sincrónico que son fundamentales para comprender la emergencia, es decir, la creatividad y la generación.

Teniendo presente lo antes indicado, Eastman articuló su propuesta explicando la red de relaciones existente en el mundo real, los elementos que constituyen el MRL, cómo opera la relación de los órdenes causales, la potencialidad y actualidad y, los procesos cuánticos fundamentales y la estrategia del MRL como propuesta axiomática. Vamos a examinar sucintamente estos aspectos que consideramos esenciales para comprender su propuesta metafísica y metalógica.

a.- La red de relaciones existente en el mundo real.

Según Eastman, desde una perspectiva óntica, las interacciones que acaecen en el mundo real implican siempre secuencias de tríadas (entrada-salida-contexto), por ello sugirió la consideración de las siguientes nociones fundamentales: (1) proceso-sucesión, (2) lógica tanto de actualidad como de potencialidad, y (3) relación, donde se incluyen las relaciones locales-globales y todas aquellas asociadas con el concepto de proceso (Ibid.:22).

Desde esta perspectiva, el MRL caracteriza estas redes a través de lo que se conoce como metaxología, es decir, el logos del entre porque cree que en este ‘entre’ se expresa la potencialidad. El ‘entre’ podemos entenderlo aquí como el espacio de ‘ajuste’ donde esencialmente lo uno se enmaraña o encaja en lo otro, es decir, dónde se produce la articulación o ensamble.

La red de relaciones entendidas desde la articulación que produce el MRL de los elementos de la experiencia son considerados por el autor tan fundamentales que pueden representar casos de puro sentido común, es decir, conceptos que se presuponen en la práctica del proceso de ensamble (Ibid.:22). El sentido común es lo que le permitió a Omnès pensar que el sentido común puede hacerse científico y finalmente matemático en un cierto grado[13]. Este es el punto de coincidencia entre Omnès y Eastman, el punto de disidencia estriba en que el primero se basa en el avance de la racionalidad y el estadounidense en una espiritualidad que tiene un carácter óntico.

b.- Los elementos del Marco Relacional Lógoi.

Para pensar en los elementos del MRL que producen el proceso de ajuste o de ensamble debemos tener presente, según Eastman, dos cosas: en primer lugar, que el contexto general para pensar unas secuencias de sucesos, en términos procesuales, depende de dos tipos de lógica: una lógica estándar (booleana) basada en actualizaciones y una lógica de potencialidades, que es, según el autor, una lógica no booleana (Op. Cit.:22-23)[14]. Ambas lógicas que consideran lo real y lo posible, según nuestro autor, permiten observar efectivamente lo ‘real’ y, en segundo lugar, que el orden considerado por Eastman para relacionar esas dos lógicas está basado en la relación universalmente mediadora del tiempo que vincula lo actual con lo posible en una superposición de jerarquías de acaecimientos que siguen una estricta sucesión de entradas y salidas dentro de un contexto de restricciones y potencialidades que de alguna u otra manera permiten que las funciones que siguen caminos diferentes sumen sus amplitudes. Dicho proceso de vinculación es tanto local como contextual, es decir, un todo de múltiples capas que lo sintetiza bajo la conexión "local-global".

De forma sintética, el argumento general de Eastman es que la axiomática del MRL correlaciona de forma intuitiva tres roles de la potencialidad o potentiae, es decir:

·         Las relaciones potenciales, junto con la actualidad, son componentes esenciales de lo “real”; y expresan, por una parte, múltiples formas de emergencia creativa (surgimiento y poiesis) en concordancia con lo indicado en el parágrafo primero y, por la otra, efectividad de acuerdo a los desarrollos recientes de la física cuántica;

·         La lógica anticipatoria, asociada con tales potencialidades, permite la obtención de nuevos conocimientos que pueden ser usados para el análisis de la causalidad, las relaciones físicas, los sistemas anticipatorios y la experiencia humana;

·         Las correlaciones de potencialidad podrían evidenciar también la coherencia de las relaciones físicas observadas a gran escala (siguiendo, al efecto, el “principio de universalidad”) entre los sistemas humanos (Ibid.:27-28).

El MRL considera por tanto los principios fundamentales de relación como los conceptos que relacionan tanto lo contingente, como las dimensiones potenciales del ser y el devenir. La dimensión contingente expresa, siguiendo a Whitehead, que las cosas actuales pueden actuar y, la dimensión potencial no-contingente sólo puede actuar a través de su materialización en una o más cosas actuales.

c.- La relación de los órdenes causales, forma y hechos resultantes y la potencialidad y actualidad, los procesos cuánticos fundamentales y la relación local-global.

El modelo de Realidad Relacional, según el autor, articula cuatro etapas de los procesos cuánticos fundamentales desde un enfoque ontológico que concuerda con la triáda entrada-salida-contexto. Estos son los siguientes:

(1) estado inicial real/potenciales globales no contextualizados;

(2) estados potenciales/contextualizados localmente;

(3) estados probables / valoración de probabilidades / condicionalización de potencialidades / restricción de lo local por lo global / relevancia local de lo global / decoherencia;

(4) estado de resultado real / actualización de potencialidades / extensión de lo local a lo global / relevancia global de lo local.

Esta interacción local-global, según nuestro autor, por una parte, proporciona un fundamento al MRL a través de los dos órdenes lógicos antes indicados, correlacionada con hechos/actualizaciones y posibilidades respectivamente, junto con un carácter bidireccional y mutuamente implicativo de las relaciones y, por la otra, proporciona una base para considerar todas las relaciones de entrada-salida dentro de un contexto dado. En este proceso de interacción espaciotemporalmente nos movemos, según él, de la simetría a su ruptura y posterior asimetría y sigue la singladura de la actualización hasta pensar en una nueva forma de asimetría o armonía (Ibid.:68).

Teniendo presente lo antes descrito, en el modelo de Realidad Relacional, Eastman trató de afirmar un realismo crítico que tiende a ser intuitivo y tiende a mantener un sentido común fundamental porque cree que permite con ello establecer una base consistente para la ética (Ibid.:84). Con esta afirmación el autor hizo una distinción entre humanos y máquinas al afirmar que la vida en evolución no es una máquina porque, siguiendo a Whitehead, somos miembros de un mundo vivo de creatividad indecible en su devenir (Ibid.:97). Partiendo de esta premisa expresó que los procesos en un nivel multiescala son tan complejos que un robot posee severas limitaciones y por tanto sólo son capaces, de una manera determinista, de cumplir funciones relacionadas con la imitación de una vinculación simple o la inferencia deductiva, de entradas dadas, restricciones y condiciones de contorno a salidas bien definidas (Ibid.:97). En esta consideración incluyó también a los sistemas de inteligencia artificial (IA).

d.-), La estrategia del MRL

El horizonte del MRL es funcionar armónicamente en el mundo dentro de un contexto de espiritualidad, por tanto, para examinar la estrategia que propuso Eastman para desatar el nudo gordiano de problemas filosóficos clásicos nos enfocaremos, en primer lugar, en el problema de la emergencia y, en segundo lugar, la relación mente-cuerpo y el proceso de la conciencia.

La emergencia, para Eastman, es la sumatoria de tres componentes: potencialidad (potentiae), proceso y relaciones locales-globales puesto que desde la perspectiva cuántica el proceso fundamental implica una transición de las relaciones potenciales (potentiae) a la realidad con un abanico de posibles resultados. En este contexto, el modelo de Realidad Relacional considerado en el MRL incorpora la creatividad de la posibilidad óntica (potentiae) que permite espaciotemporalmente una emergencia óntica autóctona en el contexto de historias locales y globales de eventos lógicamente condicionados en un continuo extenso (Ibid.:79).

En relación al problema mente-cuerpo y los procesos que posibilitan la conciencia, Eastman expresó que la conciencia es una capacidad emergente de la mente que tiene la virtud de contrastar reflexivamente "lo que es" de "lo que podría ser" permitiéndole así tomar decisiones entre posibilidades alternativas que se expresan en salidas no booleanas (Ibid.:79). La autoconsciencia y los sentimientos, en este sentido, como surgen de la retroalimentación no lineal entre posibilidades alternativas pueden generar diferentes niveles de capacidad (Ibid.:228).

La conciencia, como se puede observar, es el centro de gravedad de la propuesta de Eastman porque, como ha dicho, ahí se ubica la característica intuitiva intrínseca del actuar del universo. Para Eastman, los aspectos internos y externos de la conciencia tienen elementos tanto físicos como relacionales en múltiples niveles. En tales relaciones multinivel se posibilita la anticipación y la capacidad de respuesta de nivel superior a los entornos que se puede activar y acrecentarse gradual y sucesivamente como sigue: (1) emergencia de primer orden vista como acontecimiento, seguido de (2) emergencia/superveniencia de segundo orden; (3) los sistemas de emergencia/autoorganización de tercer orden; (4) la emergencia de cuarto orden (evolución); y (5) emergencia/conciencia de quinto orden (Ibid.:155) que podríamos entender como conciencia unificada. En este sentido creemos, por una parte, que anticipar es creativamente armonizar, es decir, actualizar una asimetría para lograr el equilibrio y, por la otra, que la conciencia de quinto orden nos remite a la conciencia unificada.

Esta lectura le permitió a Eastman pensar la conciencia como observación y experiencia básica para todos aquellos que poseen un grado de despertar cósmico (Ibid.:225).

La idea de aplicar la teoría relacional dentro de esta estrategia, según Eastman, fue describir la naturaleza en términos de sistemas físicos que se representan (modelan) entre sí y que son en sí mismos expresiones de tales modelos con la finalidad de poder explicar la existencia y el comportamiento complejo (Ibid.:166). La singladura de la no-linealidad que permite romper el nudo gordiano en una organización dinámica consiste, para él, en:

·         Información que opera como un proceso a nivel cuántico y niveles de complejidad subsiguientes siguiendo relaciones fundamentales de entrada-salida-contexto.

·         Semiótica que se ubica en el origen de la semiosis orgánica y considera la relación signo-significado-código, así como los sistemas complejos dentro del dominio de la biosemiótica.

·         Episteme que se ubica en el origen de la semiosis interpretativa y considera la hermenéutica envolviendo la relación materia-referente-interpretación.

·         Cultura que considera el origen de la semiosis lingüística (Ibid.:170).

Teniendo presente lo antes indicado, Eastman consideró, por una parte, que el MRL es limitado, a pesar de su exhaustividad y, por la otra, apeló a la lógica de las posibilidades como un recurso “especially open to creativity in the world” para posibilitar la transformación siguiendo el camino del espíritu (Ibid.:251).

5.- Escolio

Se ha querido mostrar a través de esta singladura cómo una de las orientaciones de la filosofía analítica, a pesar de mantener algunos rasgos originales como el estudio del lenguaje y el análisis lógico de los conceptos, su tradición empirista y su fundamento en la física moderna, y el avance alcanzado en esta última en lo concerniente al mundo cuántico, ha desplazado su paradigma epistemológico de una manera tal que su escepticismo en relación con la metafísica se ha debilitado, así como su contraposición con respecto a otras tradiciones filosóficas.

6.- Bibliografía Consultada.

Agamben, Giorgio (2008). Signatura Rerum. Sobre el Método. Buenos Aires. (T.F. Costa y M. Ruvituso). Editora Adriana Hidalgo. 162 p.

Ayer, Alfredo (Compilador). Positivismo Lógico. Fondo de Cultura Económica. México. 1965/81. 412 p.

Baceta, Jesús. Cátedra de Introducción a la Epistemología. Caracas. UCV. 2002.

Cortes, Jordi y Martínez, Antoni. Diccionario de Filosofía. Barcelona. 1996-99. Empresa Editorial Herder S.A., CD-ROM

Damiani, L. (1997). Epistemología y Ciencia en la modernidad. Caracas. UCV.

Deleuze, G. y Guattari, F. (1991[2005]). Qu’est-ce que la Philosophie? París. Editorial Minuit. 206 p. Edición portuguesa (2009). O que é a Filosofia? São Paulo. (T. B. Prado y A. Alonso). Editora 34. 279 p

Diez, José y Moulines, Ulises. (1999). Fundamentos de Filosofía de la Ciencia. 2ª Edición. Barcelona. Editorial Ariel. 501 p.

Eastman, T (2020). Untying the Gordian Knot Process Reality and Context. Maryland. Editorial Lexington Books.

Foucault, Michael (1968). Las palabras y las cosas. Una arqueología de las ciencias humanas. Buenos Aires. (T. E. Frost). Editorial Siglo XXI. 381 p

Heidegger, Martín (1938). La Época de la imagen del Mundo, Trad. H. Cortés y A. Leyte, Madrid, Alianza Editorial, Caminos de bosque, 1996. disponible en: http://www.fadu.edu.uy/estetica-diseno-i/files/2015/08/heidegger_epoca_imagen_mundo.pdf

Heidegger, Martin. (1943-44). Heráclito, Cursos de Fribugo del semestre de verano de 1943 y del semestre de verano I944. Buenos Aires. (T. C. Másmela), editorial el Hilo de Ariadna, 460 p

Kuhn, Thomas (2004). La estructura de las revoluciones científicas. 2° ed. México. (T. C. Solís). Fondo de Cultura Económica. 318 p

Ladyman, J. (2019). “Introduction: Structuralists of the world unite”. Studies in History and Philosophy of Science Part A, 74, 1-3. https://doi.org/10.1016/j.shpsa.2018.12.004

Muguerza, Javier. (1975). La teoría de las Revoluciones Científicas (Una Revolución en la Teoría Contemporánea de la Ciencia). En Introducción a la Crítica y el Desarrollo del Conocimiento de I. Lakatos y A Musgrave. Ediciones Grijalbo. Barcelona. 522 p.

Omnès, Roland (1995). Filosofia da Ciência Contemporânea. São Paulo. (T. R. Leal), UNESP. 315 p.

Pitter, Williams y Rincón, Elita. El Circulo de Viena y el Positivismo Lógico. Universidad del Zulia. Facultad de Humanidades y Educación 2002. 17 p.

Plotnitsky, Arkady (2006): «Chaosmologies: Quantum Field Theory, Chaos and Thought in Deleuze and Guattari’s ‘What is Philosophy?'», Revista Paragraph, Vol. 29. pp. 40-56. Document en línea. Disponible: https://mumbletheoryhome.files.wordpress.com/2021/03/arkady-plotnistky-chaosmologies.pdf

Rivadulla Rodríguez, Andrés. Filosofía Actual de la Ciencia. Madrid Editorial Tecnos 1986. 328 p.

Rosales, A. (1971). Dynamis y Energeia en Aristóteles. Caracas. UCV. Obra inédita. Trabajo de ascenso. 121 p

Vera, L. y Blanco, E. (2023a). “Intuición y prospección: la realidad y su impacto en la toma de decisiones”. Caracas. Observador del Conocimiento, 6(3), 63–89. Recuperado a partir de https://revistaoc.oncti.gob.ve/index.php/odc/article/view/51

Vera, L y Blanco, E. (2023b). “Creatividad, diseño, innovación y Ciencia de Dirección”. Caracas. Festina Lente B.G. [Documento en Línea]. Disponible: https://edgareblancocarrero.blogspot.com/2023/04/creatividad-diseno-innovacion-y-ciencia.html

 



[1] La filosofía analítica tiende a tratar la filosofía en términos de problemas discretos, capaces de ser analizados independientemente de sus orígenes históricos, mientras que la filosofía continental sugiere que "el argumento filosófico no puede divorciarse de las condiciones textuales y contextuales de su surgimiento histórico". Eastman, por otra parte, ha destacado del confucionismo para fundamentar su tesis acerca de la contextualidad.

[2] B. Russell afirmó:  "llamo atomismo lógico a mi doctrina porque los átomos, a los que deseo llegar como elemento último del análisis, son átomos lógicos y no átomos físicos".

[3] Mucho después de la misma escuela inglesa surgió otro autor: Alan Turing, quien hizo importantes aportes al positivismo lógico. Este matemático dio una respuesta a la cuestión de si existe un algoritmo capaz de determinar si un enunciado es decidible -computable- en un sistema dado. Esta fue la tesis Church-Turing y al procedimiento ideal construido para demostrarla se le denominó, máquina de Turing.

[4] En la actualidad, Markus Gabriel retomó los conceptos fregeanos de sentido y referencia para introducir su concepto de campos de sentido. Ver al respecto:  Gabriel, Markus. (2017). Sentido y existencia. Una ontología realista. (Sinn und Existenz - Eine realistische Ontologie). Barcelona (T. R. Gabás). Editorial Herder.  515 p

[5] Teorema de la Incompletud: 1º de los teoremas de Gödel, que afirma que todo sistema de axiomas que sea consistente y capaz de incluir la teoría formal de la aritmética es necesariamente incompleto; dicho sistema de axiomas contiene algún teorema que, a pesar de ser verdadero, no puede deducirse del sistema. El 2º teorema es complementario del 1º y establece que no es posible probar la consistencia de un sistema formal de la aritmética con los solos medios que dicho sistema proporciona; no siendo la consistencia un teorema del sistema, ha de probarse desde fuera del sistema.

[6] La verdad es vacua epistémicamente. La verdad es un mecanismo que ancla el discurso al mundo pero que no aporta nada al discurso cognoscitivo, lo único que asegura es que tiene una referencia objetiva.

[7] Contexto de descubrimiento: Todo cuanto se refiere a la invención de una hipótesis. Es irrelevante, para la investigación científica, la manera como se halla o descubre una hipótesis: proceso creativo, observación de hechos, inducción, etc., porque, en definitiva, no se considera que esta tarea sea propiamente obra de la razón, sino de la imaginación: se trata de una cuestión psicológica, sociológica o histórica, no propiamente epistemológica. Contexto de justificación: Todo cuanto se refiere a las razones por las que, en ciencia, debe aceptarse una hipótesis. La justificación de una hipótesis -la demostración de que es racional considerarla verdadera- es obra propiamente de la razón y es lo que permite hablar propiamente de una lógica de la ciencia

[8] Fue desde esta perspectiva que consideramos las historias coherentes como un aspecto a tener presente desde una perspectiva intuitiva junto con la consistencia de un concepto cualquiera en el sentido que debe ser validado todo el tiempo (Vera y Blanco, 2023a y b). Aquí entra en juego la fecundidad, según Omnès, la creatividad, la productividad y la innovación como caminos a recorrer siguiendo un propósito para lograr un resultado esperado a partir de los datos obtenidos de la experiencia directa o a través de un aparato de medida.

[9] El concepto aristotélico de abducción fue reintroducido a finales del siglo XIX por el filósofo estadounidense Charles Sanders Peirce, quien lo consideró el primer paso del método científico ya que genera nuevas ideas (hipótesis explicativa) que luego se someten a prueba mediante la deducción y la inducción. La abducción también se aplica al campo de la historia, ya que permite formular hipótesis sobre el pasado a partir de las evidencias disponibles. La abducción permite al historiador proponer explicaciones plausibles o probables de los hechos históricos, teniendo en cuenta el contexto, las fuentes y las interpretaciones previas. La abducción también implica un proceso creativo, ya que introduce nuevas ideas o perspectivas que pueden enriquecer el conocimiento histórico. Para Aristóteles en Tópica A 12, 105, la abducción (epagogé) es la vía de acceso a lo universal a partir de los entes individuales. Epagogé se deriva del verbo epagein, que significa principalmente llevar y conducir algo hacia algo. La epagogé de que aquí se trata es un conducirse uno mismo hacia y ante lo universal y por ello un camino o marcha hacia él. Su punto de partida son los entes individuales, es decir, la patencia del eidos en ellos (Rosales, 1971).

[10] La teoría cuántica de campos (TQC) es una teoría que aplica las reglas de la mecánica cuánticas a los campos continuos de la física, como acaece en el campo electromagnético, así como a las interacciones entre estos y el resto de la materia permitiendo así calcular observables (secciones eficaces, vidas medias, momentos magnéticos) con elevada precisión.

[11] Ver al respecto: Vera y Blanco (2023b).

[12] Diagramas semejantes lo podemos observar en Deleuze y Guattari en relación al concepto Cogito de Descartes o en el retrato filosófico de Kant.

[13] Ver al respecto: Vera y Blanco (2023).

[14]En la consideración de estas dos lógicas, Eastman se apoyó en la lógica de C. S. Peirce debido a que el carácter no-binario se basa en la consideración del contexto donde acaece un evento determinado.