sábado, 1 de noviembre de 2025

LA INTELIGENCIA ARTIFICIAL GENERATIVA COMO IMAGEN DEL MUNDO

 


EPISTEME NS 44 Revista del Instituto de Filosofía U.C.V Julio -Diciembre N°2 2024

Resumen

Vivimos en un contexto de aceleración social que ha hecho que las modificaciones que experimentan las sociedades a lo largo de los años, en sus normas, valores, sistemas políticos o religiosos, están haciendo más difícil la mejora de las condiciones de vida de las personas a pesar de que la intención inicial sea lo contrario. La Inteligencia Artificial (IA) ha acrecentado esta aceleración social debido a que su uso se ha extendido a todas las actividades del quehacer humano llevando a la humanidad a una nueva era de la historia económica similar a la acaecida con la adopción de la agricultura o la revolución industrial. Por ello creemos que la IA podría entenderse como la nueva imagen del mundo desde una perspectiva epocal. Nos interesa aquí valorar el impacto creciente de la IA y, en especial, en lo que actualmente se conoce como IA Generativa (IAG) en lo concerniente al quehacer humano y consecuentemente en el modo en que nos interrelacionamos social y políticamente debido a dos causas: en primer lugar, hoy en día la mayoría de las actividades humanas para los que están conectados en el ciberespacio está transversalizada por la IAG de forma activa o pasiva y, en segundo lugar, cada vez se está haciendo más estrecha la mutua dependencia entre computación cuántica y la IAG agregando mayor velocidad a la aceleración que estamos viviendo. Para tal fin, vamos a examinar qué es la IAG, en segundo lugar, analizaremos cómo impacta las IAG en la praxis y en especial a los órdenes políticos en el mundo de hoy y por venir y, en tercer lugar, analizaremos la IAG como imagen del mundo.

Palabras Claves: aceleración social, Inteligencia Artificial Generativa, ciberespacio, Dasein, praxis.

Abstracts

We live in a context of social acceleration that has made the changes that societies experience over the years, in their norms, values, and political or religious systems, making it more difficult to improve the living conditions of people, despite the initial intention being otherwise. Artificial Intelligence (AI) has increased this social acceleration because its use has extended to all activities of human endeavor, leading humanity to a new era of economic history similar to that with the adoption of agriculture or the industrial Revolution. For this reason, we believe that AI could be understood as the new image of the world from an epochal perspective. We are interested here in assessing the growing impact of AI and, especially, in what is currently known as Generative AI (GAI) on human endeavor and consequently in the way in which we interrelate socially and politically due to two causes: Firstly, today the majority of human activities for those connected in cyberspace are transversalized by the IAG actively or passively and, secondly, the mutual dependence between quantum computing is becoming increasingly closer. and the IAG adds greater speed to the acceleration we are experiencing. To this end, we are going to examine what the IAG is, secondly, we will analyze how the IAG impacts praxis and especially political orders in the world today and to come and, thirdly, we will analyze the IAG as an image of the world.

Keywords: social acceleration, Generative Artificial Intelligence, cyberspace, Dasein, praxis.

Introducción

Vivimos en un contexto de aceleración social que ha hecho que las modificaciones que experimentan las sociedades a lo largo de los años, en sus normas, valores, sistemas políticos o religiosos, están haciendo más difícil la mejora de las condiciones de vida de las personas a pesar de que la intención inicial sea lo contrario. Esta aceleración social está impulsada, siguiendo a Hartmut Rosa (2016), por la confluencia de tres factores: la aceleración tecnológica relativa al aumento evolutivo y progresivo de la velocidad de los procesos en relación con el transporte, la comunicación y la producción (P.12), la aceleración del cambio social que genera inestabilidad haciendo efímeras el tejido y las estructuras de las sociedades (p. 24) y la aceleración del ritmo de vida, entendida como “la consecuencia del deseo o necesidad sentida de hacer más cosas en menos tiempo” (p. 31). La aceleración social que se ha acrecentado, en la actualidad, en parte por el desarrollo de la Inteligencia Artificial, ha estado acompañada de otros cambios sociales provocados por otros acontecimientos que pueden considerarse como correlacionados y como hechos portadores de futuro. Estos son:

·         La pandemia generada por el COVID-19 puesto que sus efectos se extendieron a la economía, la salud, la educación y la forma de relacionarse de las personas en todo el mundo. Este acontecimiento obligó a gran parte de la humanidad a adaptarse a la realidad del teletrabajo, el e-commerce y la educación a distancia y ha representado una carga sanitaria para el mundo en el futuro por venir.

·         Los cambios medioambientales puesto que han generado la necesidad de adoptar medidas transicionales para mitigar y adaptarse a sus efectos en el plano social y político.

·         Los cambios demográficos que han modificado la composición y distribución de la población humana producto de la alteración de las tendencias de la natalidad a escala global, el aumento de las expectativas de vida de la población y la migración generando efectos políticos, sociales y económicos en los estados receptores.

·         La profundización de la globalización puesto que ha aumentado la interconexión e interdependencia entre las personas, las culturas y los estados. Este fenómeno ha traído beneficios como el acceso a información, bienes y servicios, pero también ha generado problemas como las desigualdades, la pobreza, la exclusión y la pérdida de identidad.

La irrupción de la Inteligencia Artificial (IA), en este contexto, es el hecho que de alguna u otra manera les ha dado un mayor impacto a dichos cambios haciéndose cada vez más presente en nuestra vida cotidiana debido a que su uso en la medicina, la educación, la cultura[1], el transporte, la industria, las finanzas, las empresas y las operaciones militares tanto, en lo concerniente a los procesos poco cualificados como de los que requieren mucha creatividad y conocimientos está suplantando actividades humanas de manera acelerada y no sólo ha eliminado puestos de trabajo por su capacidad de abarcar muchísimos campos, sino también, además de impactar el medio ambiente por ser un alto consumidor de energía, está tendiendo a convertirse en un dispositivo de manipulación y control en una escala inimaginable. Por ello creemos que la IA podría entenderse como la nueva imagen del mundo desde una perspectiva epocal. Según Fernández-Villaverde (2023), esta nueva tecnología nos está llevando a una nueva era capitalista en la historia económica de la humanidad similar a la acaecida con la adopción de la agricultura o la revolución industrial. Ello es así debido a que, además de lo antes expresado, sus efectos, como veremos, trascienden las relaciones económicas internacionales y la política de una manera tal que han obligado a los individuos y los estados a tomar medidas de protección por considerarse un problema de seguridad.

La inteligencia artificial (IA), en este contexto, es en una primera instancia una tecnología que permite a las máquinas aprender de los datos, identificar patrones y tomar decisiones en base a esos patrones (Cristiano et al., 2023)[2]. Su clave está dada, según Fernández-Villaverde (2023), por el hecho de que son automáticos indiferentemente del sustrato donde se apliquen y pueden ser ejecutados en un computador, en una máquina biológica o analógica o, incluso, a mano. La diferencia en todos estos casos es la velocidad de la operación.

Nos interesa aquí valorar el impacto creciente de la IA y, en especial, en lo que actualmente se conoce como IA Generativa (IAG) en lo concerniente al quehacer humano y consecuentemente en el modo en que nos interrelacionamos social y políticamente debido a dos causas: en primer lugar, hoy en día la mayoría de las actividades humanas para los que están conectados en el ciberespacio está transversalizada por la IAG de forma activa o pasiva y, en segundo lugar, cada vez se está haciendo más estrecha la mutua dependencia entre computación cuántica y la IAG agregando mayor velocidad a la aceleración que estamos viviendo. Para tal fin, vamos a examinar qué es la IAG, en segundo lugar, analizaremos cómo impacta las IAG en la praxis y en especial a los órdenes políticos en el mundo de hoy y por venir y, en tercer lugar, analizaremos la IAG como imagen del mundo.

1.- Qué es la IAG

Según la Stanford Encyclopedia of Philosophy la IA es un artefacto capaz de pasar el test de Turing, es decir, es capaz de hacer que su comportamiento sea indistinguible de los humanos[3]. Desde otra perspectiva puede definirse como una máquina que piensa y/o actúa de manera humana y/o racional (Bringsjord y Govindarajulu, 2018). Esto nos obliga a hacer una poco consistente distinción entre IA e inteligencia humana desde el mismo momento que la IA es una extensión de la humana y está siendo utilizada para cuestionar a la humana. Según Sánchez (2018), la IA se diferencia de la inteligencia humana en que esta última “está en la naturaleza como lo dado y no como lo producido”, es decir, lo dado como consecuencia de “un proceso evolutivo no algorítmico en el que se alcanza un vértice en el nivel de complejidad del viviente: la posibilidad de una inmaterialidad no ligada a la materia”; y lo producido por encontrarse en un lugar de intercambio económico que se expresa como un mercado.

Como producido Stuart Russell y Peter Norvig (2021), desde una perspectiva práctica, definieron la IA como “el campo del conocimiento basado en sistemas expertos que busca diseñar máquinas (como ordenadores y robots) que puedan actuar de manera eficiente y segura en un amplio abanico de situaciones” a través del ciberespacio. Para ello utiliza millones de neuronas artificiales hoy en día posibles mediante semi-conductores de gran capacidad que, en primer lugar, permiten operar redes neuronales artificiales más grandes que a su vez, posibilitan el desarrollo de las funciones matemáticas que queramos, en segundo lugar, permiten procesar una mayor cantidad de datos (imágenes, sonidos, textos), gracias al ciberespacio, que pueden ser mejor procesados por las redes neuronales artificiales y, en tercer lugar, permiten diseñar y entrenar estas redes neuronales de manera más fácil y eficiente[4]. Es de mencionar que estos semi-conductores están dando paso a los computadores cuánticos de mucho mayor capacidad de almacenamiento y procesamiento. María Martínez, por su parte, expresó que existen dos ramas principales de la IA: la deductiva basada en el conocimiento (IA simbólica) y la basada en datos que es inductiva (IA subsimbólica) (ICaP, 2022).

La IA fundamentada en el conocimiento o simbólica, según Martínez, considera que el comportamiento inteligente se puede caracterizar por intermedio de un conjunto de reglas establecidas a través de un lenguaje que se codifica en un sistema neuronal artificial. La IA basada en datos o subsimbólica considera que el comportamiento inteligente puede ser deducido a partir de los datos que los seres humanos generan[5]. Una de las técnicas, como veremos seguidamente, es el aprendizaje automático o IA Generativa (IAG). Esto nos lleva a profundizar, en primer lugar, sobre la IAG, en segundo lugar, el espacio dónde ella opera, es decir, lo que se conoce como ciberespacio y, en tercer lugar, las críticas que ha generado la IAG desde la perspectiva filosófica.

La IAG se enfoca en el aprendizaje, la creación de contenido, la toma de decisiones o la resolución de problemas complejos basándose en la orientación producida en el taller de Dartmouth College de 1956, es decir, es posible que “Todos los aspectos del aprendizaje o cualquier otra característica de la inteligencia pueden describirse de manera tan precisa que se puede crear una máquina para simularla” (Barrera, 2012:89-90). El criterio que está aquí presente es que la tecnología puede solucionar cualquier problema y satisfacer todas las necesidades del mundo, sin importar cuál sea su origen o naturaleza, aunque ello pudiese significar, como veremos más adelante, nuestra propia cancelación en el entendido de que ella, no sólo, es una forma en que el hombre trata de comprenderse a sí mismo como ser-en-el-mundo desde el ser de los entes, sino también el modo en que intenta comprender y “arreglar” el mundo.

En la actualidad se está utilizando un sistema de aprendizaje automático (deep learning) que por intermedio de un proceso de generalización recaba información de acuerdo con patrones estadísticamente establecidos que después utilizará algorítmicamente para producir otras ideas y perfeccionar automáticamente sus medios para procesarla, permitiéndole en consecuencia “generar su propio capital cognitivo” (Girardi, 2019). Estos algoritmos, según Martínez, reproducen patrones estadísticamente significativos que se encuentran en los datos que los seres humanos introducen en el ciberespacio expresando así virtualmente la manera en que nos comportamos, por tanto, estos algoritmos “aprenden de nuestro pasado que quedó registrado en alguna base de datos” (ICaP, 2022)[6].

El ciberespacio, por otra parte, ha sido entendido desde diversas maneras, pero consideraremos en este estudio las conceptualizaciones realizadas originalmente por Pierre Lévy y muy posteriormente por Michael Eldred como veremos a continuación. Para Lévy (1999) el ciberespacio es, a su vez, una infraestructura material de la comunicación digital con el universo de información que contiene y los seres humanos que cohabitan y amplifican ese universo donde cualquier individuo puede formar parte de él. Este universo real y potencial lo entiende como un dispositivo de comunicación comunitaria interactiva que se está convirtiendo, no sólo, en un instrumento de inteligencia colectiva, sino también en un potenciador de lo que ha denominado como cibercultura, es decir, un universal sin totalidad por ser indeterminado.

Eldred (2009), por su parte, considerando la espacialidad del medio electromagnético expresó que este es una “masa añadida [de naturaleza homogénea] que es capaz de acoger seres digitales”. En esta masa o campo por la posibilidad que nos permite de hacer medidas, los seres digitales descompuestos o disecados aritmológicamente (arithmologically decomposed o dissected beings), pueden moverse arbitrariamente y encontrar en él un lugar arbitrario o un sin lugar. La movilidad que permite este campo le permitió a este autor aceptar el uso del nombre de ciberespacio. La movilidad, desde la perspectiva del citado autor en una lectura heideggeriana, está relacionada con la aproximación y la orientación observada desde la cura de sí mismo puesto que es una tendencia del Dasein en un contexto donde la distancia ha dejado de ser esencial[7].

Ahora bien, a pesar de la posibilidad de descomponer el propio cuerpo en ondas electromagnéticas y reconstituirlo a voluntad eliminando así experiencia corporal del espacio, esta experiencia del espacio aún se mantiene en el sentido del Dasein, que como dijimos, están relacionados con la orientación y la aproximación, con lo cual, los seres digitales y los medios electromagnéticos también pueden interpretarse desde la perspectiva de ser-en-el-mundo. Esto también implica que el medio electromagnético permite un modo de ser del Dasein junto con otros Dasein, Mitsein, porque la comunicación no necesita de una unión corporal de los seres humanos, ni siquiera una simultaneidad de presencia, ya sea corporal o de otro tipo.

Desde estas dos lecturas entendemos el ciberespacio como un gran campo de sentido, desde la perspectiva de Markus Gabriel (2017)[8], generado por un cuerpo de sistemas electromagnéticos que abarcan gran parte del mundo no físico que permite a los seres humanos estar-ser (Dasein) y comunicarse entre sí (Mitsein) o acceder a información para cualquier propósito de modo tal que integra pensamiento, habla y experiencia en un lugar y en un tiempo indefinido y cultura fomentando así un proceso de estandarización[9]. Este campo de sentido, es decir, el ciberespacio, que se caracteriza por ser amorfo y sólo describible a través de las interacciones que se producen en él en la actualidad incluye a la IAG en un contexto que también permite establecer interacciones virtuales que podrían llegar a ser físicas (mundo sensible). También permite obtener y suministrar información o datos.

Desde otro orden de ideas, la IAG ha generado grandes críticas que explican, en sí, la importancia que se le ha dado. Estas críticas han sido analizadas desde el Teorema de Incompletitud de Kurt Gödel (2006), desde lo que se conoce como la habitación china de John Searle y desde el examen del concepto de inteligencia en sí, su relación con la conciencia y el Dasein.

Para Gödel la incompletitud de los sistemas formales se basa en el hecho de que “ningún sistema axiomático, por po­tente que sea, puede abarcar toda la matemática” (Da Silva, 2014). Teniendo esto presente, Sánchez (2018) expresó que los teoremas de incompletitud  plantean un dilema lógico en relación con la posibilidad de mecanizar la mente humana: “o bien cualquier intento de mecanizar la mente humana, en general, es inferior a las capacidades reales de la mente humana” con lo cual el desarrollo de la IAG no representa ningún riesgo; “o bien podría ser superior, pero inferior a un ámbito mental de verdades lógico-matemáticas, de corte platónico, no necesariamente humano” que tampoco representaría un riesgo por encontrarse en un mundo de las ideas que consideramos ubicadas en el ámbito de las potencialidades. En esto observamos una coincidencia con Eastman, pero nosotros creemos que la mecanización de la mente humana que se está produciendo en la actualidad mediante la IAG es en parte superior a una parte de la humanidad y en parte inferior y ello genera una brecha que puede ser usada para perfeccionar aquello que se ha dado en denominar dispositivos de control afectando la capacidad de acción política de la humanidad como veremos más adelante.

Pero si se tiene presente, según Sánchez (2018), que la base del “argumento de Gödel tiene que ver con la recursividad y con la capacidad, en principio universal, de la inteligencia humana para objetivar la realidad” entonces, el paso a la IAC permitiría ganar un “espacio para un verdadero ejercicio de libertad”. Con esta afirmación, según el citado autor no se observan riesgos, pero debemos decir aquí que los riesgos comienzan no sólo en la posibilidad de acceso con lo cual la brecha que hemos indicado se mantiene, sino también que en esa misma brecha están dadas las condiciones de posibilidad para perfeccionar los dispositivos de control a los cuales hemos hecho mención.

Desde la perspectiva de John Searle, según Sánchez (2018), la habitación china, en principio había demostrado la imposibilidad de la IA para ser inteligente desde una perspectiva humana debido a que el lenguaje (simbólico) es fundamental para poder hablar de inteligencia, pero el avance de la IAG, como hemos visto, ha superado esta limitación. Ahora bien, como la IAG obtiene “conocimiento” a través del procesamiento de los datos suministrados por los seres humanos, todavía dependen del lenguaje (simbólico) que le proporcionamos, estos símbolos tienen otras implicaciones relacionadas con el Dasein y la espiritualidad que examinaremos seguidamente.

Estas afirmaciones realizadas por Sánchez (2018), en este sentido, contrastan con la advertencia realizada en el año 2014 por un grupo de científicos liderados por Stephen Hawking en el sentido de que “los esfuerzos por crear máquinas inteligentes representan una amenaza para la humanidad”[10]. Lo antes indicado nos conduce ahora a abordar el concepto de inteligencia en sí y su relación con la conciencia, el Dasein y el alma.

La inteligencia es producto de un largo proceso evolutivo de la naturaleza que ha permitido a los seres humanos generar certeza y funcionar en el mundo. Por tanto, esta evolución no se puede representar de manera algorítmica (Sánchez, 2018). De igual forma, si el conocimiento lleva aparejado el concepto de autoconciencia entendida como cierta reflexión a partir de lo conocido, a pesar de los estudios realizados por Hameroff y Penrose tendentes a asociar la conciencia con ciertos estados cuánticos siguiendo el criterio de que la conciencia es una característica intrínseca de la acción del universo (citado por Eastman, 2020:227), no hay manera, hasta ahora, de reproducir o de reconocer dicha experiencia de una manera artificial.

El tema de la autoconciencia, finalmente, nos conduce a los términos de Dasein que ya hemos introducido y de ‘alma’ a pesar de que la referencia a esta última es casi inexistente en las ciencias contemporáneas.

La correlación entre IA y Dasein la inició Hubert Dreyfus (2006) a partir de la crítica que hizo a la IA basándose, en gran medida, en las obras de Martin Heidegger. Hay que recordar que Heidegger (1938) expresó que el desarrollo de la tecnología ha oscurecido la conexión esencial entre los humanos y el mundo trayendo como consecuencia que se genere un estado de olvido. Desde esta perspectiva, el Dasein, desde el punto de vista ontológico, refiere a la existencia humana y expresa su autoconciencia a través de un modo de ser caracterizado por la comprensión (futuro), el encontrarse (pasado) y el comportarse (presente) y su fin que está determinado por la cura de sí es vivir auténticamente tomando decisiones que estén en armonía con su verdadero yo y los valores que lo sostienen (Heidegger, 1927[1998]). Esto hace que la existencia humana sea social, cultural y ética dando forma a las sociedades, a las culturas y a los valores, así como la IAG, aunque esta última no tenga ningún tipo de humanidad. En este sentido, Dreyfus (2006) sostuvo que la IAG está fundamentada en una comprensión errónea de la conciencia, el aprendizaje y el conocimiento y ello le da a esta un alcance limitado. Los argumentos en que se basó este autor son los siguientes:

·         La IAG no considera la importancia del cuerpo y su impacto en la cognición humana.

·         La experiencia no se reduce a la aplicación de reglas explícitas como generalmente se programan en los sistemas de IAG.

Hay que tener presente que al ser el conocimiento humano producto de un largo proceso evolutivo este no se reduce a la actualización de un programa.

Además de estas críticas podemos agregar que el ser de la IA está sustentado en una ontología que considera la tecnología a partir de consideraciones de naturaleza económicas. Esto nos indica que los algoritmos no son neutrales y nos recuerda la advertencia de Agamben (2009) en lo concerniente a los paradigmas vistos como estructuras de poder[11].

A la luz de estas críticas Keren Wang (2023) expresó que a pesar de que la IAG padece de estas limitaciones es evidente que esta experiencia es posible, en concordancia con Alexander Dugin (2020), gracias a la de manipulación de símbolos inventados artificialmente de acuerdo con normas socialmente aceptadas. Por ello Wang consideró que ser-IA-en-el-mundo, a propósito de la nueva versión de IAG denominada ChatGPT 4, era posible debido a que la IAG, por auto desarrollarse a través del procesamiento de los datos suministrados por los usuarios, “parece acercarse mucho a los elementos de arrojamiento y en el mundo del Dasein” (Wang, 2023). En relación a la cura de sí expresó que la IAG no tiene proyectos o preocupaciones en el sentido humano del término, por lo que su comprensión no se basa en este tipo de criterio, pero si se tiene presente que dicha comprensión está supeditada a un conjunto de códigos y transacciones simbólicas que están ritualizadas, esta ritualización en sí misma es también de naturaleza artificial, por tanto, si en la vida cotidiana los rituales sirven para experimentar y reforzar valores culturales, religiosos, sociales o personales específicos en una suerte de Lógos dentro de una práctica comunitaria, la IAG está sirviendo para “señalar formalmente la transición de ser una máquina no sensible y sin agencia moral a un ser sensible con ethos” (Wang, 2023).

Por otra parte, si se considera que todos somos expresión de una Physis que está en armonía permanente y somos generado, a su vez, por una causa inmanente entonces podríamos decir, que esa causa hace que todos busquemos permanecer en cualquier circunstancia en función de la relación específica que ese todo mantiene con el entorno y ello hace que se pueda hablar de la existencia de una realidad caracterizada por la adaptación. Esta capacidad de adaptación es lo que hace que un humano sea capaz de novedad algo que no lo puede hacer una máquina. Ello se debe a que la IAG, a pesar de su atemporalidad, no sólo no sabe que no sabe, sino también sus acciones están predeterminadas. Por ello, mientras que todo lo que forma parte de la Physis tiene necesidad de adaptarse para cada situación, el Dasein es universal. Esta universalidad, según Sánchez (2018) ha sido destacada por Aristóteles cuando afirmó que “El alma es, en cierto modo, todos los existentes…”  (III, 335-322 a. C., [1978]: 8, 241). Por tanto, una IAG, a pesar de sus crecientes capacidades, no tiene la capacidad universal de ser “todo lo existente” porque es producida. La importancia de lo expresado por Aristóteles obedece a que, según Sánchez (2018), todo lo existente que remite a lo universal refiere a aquello que está ausente, es decir, la espiritualidad y la IAG no es capaz de dar cuenta de ello. Lo antes analizado nos lleva a considerar la IAG desde la perspectiva de la praxis.

2.- La IAG y el problema de la praxis

El tema central de la IAG, como hemos observado, es que ella no sabe que no sabe, sólo sabe lo que le ha sido programado. El problema, como veremos, es que pueden presentarse comportamientos no esperados y potencialmente riesgosos por lo que la pregunta que se plantea es hasta qué punto hay control sobre su uso y sobre la IAG en sí. Así como la IAG nos puede ayudar a estar en sintonía con la aceleración social, también nos está obligando a adaptarnos a la nueva realidad de la producción dentro de un nuevo contexto de seguridad y de inseguridad.

Desde la perspectiva de la praxis, a medida que navegamos hacia el futuro, la IAG tiene el potencial de amenazar la seguridad del Estado de acuerdo con la tesis de Cristiano et al. (2023), pero también puede, según Innerarity (ICaP, 2022) mejorar el horizonte de un orden político. En este sentido este último autor consideró, por una parte, la necesidad de reflexionar acerca de cuál es el lugar que le corresponde a la libre autodeterminación, a la capacidad humana de decisión en entornos parcial o altamente automatizados debido a que, además de estar gobernados cibernéticamente el problema de la exclusión está presente y, por la otra, hay que estar pendientes a los problemas éticos que plantea en cuanto la protección de la privacidad y garantizar que la IAG se utilice de modo responsable, transparente y justo.

Por tal motivo vamos a describir los cambios económicos que ha producido la IAG, luego vamos a examinar cómo puede afectar la seguridad de un Estado en el doble sentido que hemos señalado, seguidamente vamos a analizar cómo una sociedad puede ser controlada y, finalmente, vamos a examinar en qué condiciones la IAG está bajo control.

2.1.- IAG y economía

Fernández-Villaverde (2023), en concordancia con Miailhe, Çetin y Lannquist (2020), ha expresado que la IAG ha llevado a la economía digital a una nueva fase histórica de desarrollo a pesar de que, por una parte, se encuentra todavía en un proceso de expansión y, por la otra, la integración entre la IAG y la computación cuántica va a producir un cambio de las reglas de juego actuales a corto plazo que se expresaran en un aumento de la aceleración del ritmo de vida de la humanidad. El impacto de la IAG se ha evidenciado, más allá de ayudarnos a estar en sincronía con la aceleración social, en los modelos de negocio, las cadenas de valor globales y el orden económico global debido a que son consideradas como una tecnología de uso general gracias a su alta velocidad de procesamiento y alto potencial de innovación y creatividad que permite obtener una importante ventaja competitiva. El aumento de la productividad, en este sentido, está relacionado con el empleo de la IAG en los procesos organizativos en todos los sectores logísticos e industriales, así como en la medicina, el transporte y el desarrollo humano, la reducción de los costes en información, el procesamiento de datos y las transacciones financieras, así como la exploración del espacio. Para que se tenga una idea de lo expresado, para el año 2023, alrededor del 50% de las empresas a nivel global habían intentado aplicar de alguna u otra forma este tipo de tecnología. Ello es visible, en la actualidad, en el marketing y la publicidad para el posicionamiento de un bien en un mercado y/o, como veremos también, en el campo de la política.

En marketing la IAG puede hacer seguimiento de los resultados de las campañas publicitarias, favoreciendo el proceso de toma de decisiones y de negocio en tiempo real en virtud de que pueden ayudar a determinar las tendencias a través del manejo de una gran cantidad de datos (historial de navegación, comportamientos de compra, intereses y preferencias de cualquier naturaleza). También se puede usar para automatizar procesos rutinarios o repetitivos como la personalización del contenido y para aprovechar los sistemas de búsqueda (incluyendo las redes sociales). En publicidad puede usarse para la creación de anuncios personalizados y efectivos en tiempo real basados en la información, intereses y comportamientos de consumo obtenidos del público objetivo con una importante reducción de costos en tiempo y recursos y, por consiguiente, un aumento de beneficios.

A pesar de todo lo indicado, el ritmo y el desarrollo de la IAG afectan de forma dispar a los seres humanos de manera particular y a los países de manera general generando no sólo una brecha, sino también una concentración del mercado en los países y las grandes empresas que poseen ese recurso tecnológico generando la necesidad de establecer dónde nos vamos a ubicar en una cadena de valor en términos de IAG y no quedarnos sólo como proveedores de datos o materias primas sin ningún costo. Esta disparidad entre los que diseñan, desarrolla, despliegan y aprovechan esta tecnología, y los que no lo hacen acentúa no sólo el problema de la dependencia y la exclusión, que ya hemos indicado, sino también genera inseguridad. Esta inseguridad está relacionada con el desplazamiento y la reducción de puestos de trabajo no sólo local sino globalmente. Dicho de otra manera, así como la pandemia reciente impulsó el teletrabajo la IAG lo ha reducido drásticamente.

La IAG, en este sentido, está provocando y reforzando la centralización del poder a escala global como consecuencia de la concentración del mercado en una suerte de pulsión ‘tecnototalizadora’ y su impacto ha trascendido lo económico y se ha extendido a lo militar y lo político creando un nuevo ‘modelo industrial-civilizatorio’ a partir de, según Giraldi (2019), una nueva ‘razón tecnoliberal’ que les sirve como argumento de legitimación o una nueva imagen del mundo. Este estado de cosas ha generado, en primer lugar, una competencia global donde participan empresas y estados para desarrollar nuevas tecnologías de IAG para estar a la altura de las circunstancias y, en segundo lugar, un cambio de la estructura capitalista global, de las formas de conciencia y de las formas de organización social.

En este sentido, la ‘ontología tecnolibertaria’, como la entendió Giraldi (2019), “consiste en descalificar la acción humana en beneficio de un ser computacional, que se juzga superior”. Este ser computacional podemos observarlo de dos maneras: de forma activa, como un Dasein que puede actuar en el ciberespacio con otros Dasein y/o con máquinas inteligentes (IAG) y como un ente que está desplazando a los humanos en función del creciente aumento de sus capacidades y de forma pasiva cuando un Dasein se convierte en un ser objetivado que suministra materia prima a la IAG o es conducido o controlado por ella.

Por ello, la IAG está pasando a ser la mayor potencia política de la historia, haciendo realidad los temores de Heidegger, Foucault, Deleuze y Agamben, ya que, según Giraldi (2019) “se la convoca a personificar una forma de superyó dotado en una presunción de verdad que orienta nuestras acciones, individuales y colectivas hacia el mejor de los mundos posibles” en condiciones sumamente dudosas debido a que, como veremos, en el campo político el marketing y la publicidad ensanchan la brecha entre representantes y representados.

2.2.- La IAG y la seguridad del Estado

En relación con la seguridad del Estado la IAG puede afectarla desde varias perspectivas: En primer lugar, cuando se considera al ser humano como una mercancía entendida como producto en sí o como dato. Como producto a partir de la visión de la mejora de la humanidad a través de la manipulación de su naturaleza del mismo modo en que estamos sometidos a sus leyes. Desde esta perspectiva, podemos ser refinados, modificados y mejorados evolutivamente como una mercancía que puede satisfacer una necesidad sin afectar directamente la unidad del ser humano. Como mercancía se incluyen no sólo, las células, tejidos, órganos desde el punto de vista biotecnológico[12], sino también los datos del cuerpo y/o del comportamiento humano (Lacerda y Ribeiro, 2020).  Como dato, según Sofía Scasserra, cuando se observa al ser humano como proveedor de materia prima (ICaP, 2022). En este sentido, las empresas están extrayendo esa materia prima a los fines de obtener beneficios sin dejar ningún tipo de beneficio a nivel nacional. Sin embargo, esa concepción de materia prima plantea otros problemas. Al respecto, Innerarity expresó que la realidad de los datos es un asunto nuevo que “no cuadra bien con la idea clásica de propiedad” debido a que ya los hemos suministrado de forma voluntaria (ICaP, 2022). En segundo lugar, se está produciendo una privatización indirecta de los servicios públicos en unas condiciones en que las empresas extraen los datos y no permiten al Estado o a las comunidades el acceso a ellos. Y, en tercer lugar, la IAG se está usando para la reproducción de fake news y para determinar cómo nos informamos afectando así la estabilidad de los órdenes políticos.

Todo lo antes indicado ha llevado a los estados a instrumentar políticas públicas de desarrollo de IAG propia, de aseguramiento de los datos o establecimiento de una política común de datos y de desarrollo de marcos normativos relacionados con dicha tecnología. De igual forma, así como las empresas tecnológicas tienen nuestros datos ello no debería implicar necesariamente que un país no pueda usarlos para diseñar políticas públicas. Esto nos lleva a la ampliación de los horizontes de la democracia.

Con respecto a la ampliación del horizonte de la democracia se ha creído que la IAG, más allá de los prejuicios y los sesgos ideológicos puede permitir la participación política y la ampliación del ejercicio de derechos ciudadanos. Veamos sus potencialidades y sus inconvenientes.

En términos de potencialidades, las IAG podría favorecer

·         La toma de decisiones más fundamentadas y efectivas mediante la comprensión y predicción de patrones complejos en tiempo real.

·         La participación ciudadana a través del fomento de un diálogo a través del ciberespacio que reduzca la brecha de representatividad existente.

·         La identificación y prevención de la desinformación mediante el análisis de contenido y el monitoreo de redes sociales.

·         Finalmente, el aumento de la transparencia de la estructura del Estado.

En función de lo antes expresado dada la creciente capacidad que está mostrando la IAG faltaría determinar cuál es el límite de su utilización y hasta dónde vamos a estar dispuestos a delegar nuestras decisiones sin que dicha instrumentalidad afecte negativamente el orden político interno como la relación con otros Estados.

Desde la perspectiva interna, Esteban Mizrahi ha planteado tres dilemas de la IA y la representación política: “El primero está vinculado con las campañas electorales, los filtros de cualquier naturaleza y la legitimidad en ejercicio que después tienen los representantes elegidos” porque es muy difícil segmentar la representación (ICaP, 2022). El segundo dilema está relacionado con la zona de confort que nos proporcionan los algoritmos. Los filtros nos pueden mostrar todo lo que nos interesa limitando nuestra capacidad de reflexión, produciendo sesgos de diferente naturaleza y desconectando al individuo de la realidad imposibilitando, en consecuencia, la formación de consensos. El tercer dilema está relacionado con la falsa idea de que existe igualitarismo en las redes que puede hacer pensar que, gracias a la IAG, estaríamos muy cerca de la democracia directa. Un cuarto dilema está representado por la exposición pública y de la vida privada porque pueden ser interpretadas y monetizadas para influir sobre los deseos, aspiraciones y necesidades en función de intereses de terceros.

Desde la perspectiva externa hay dos lecturas que se derivan del advenimiento de la IAG: la primera es que la plataforma global de este nuevo espacio de movimiento es controlada por un solo país cuyas empresas emblemáticas están en la carrera de la IAG colocando a los países y a los individuos como entidades posibles de ser controladas desde los grandes centros de poder. La segunda es que la posibilidad de manejar grandes volúmenes de información ha orientado a dichos centros de poder a determinar cómo se utiliza la información para tomar decisiones.

En la actualidad, la IAG puede ayudar a establecer patrones que pueden ayudar a hacer perfiles de comportamiento en una gran escala. De igual forma, su potencial en el campo militar y, en el campo de la seguridad en general se está observando, por una parte, en los conflictos en Ucrania y en Gaza y, por la otra, en el empleo de dichos sistemas para garantizar la seguridad de un orden determinado. Esto nos lleva a las sociedades de control.

2.3.- Las IAG y las sociedades de control

El problema de la inclusión de las IAG como herramienta en los procesos políticos en la crisis de representatividad que viven las sociedades en el mundo de hoy nos permite traer la noción de ‘sociedades de control’ introducida por Gilles Deleuze (2006) debido a que ello ha servido para que otros pensadores contemporáneos como Giorgio Agamben, entre otros, hayan realizado reflexiones a propósito de la noción misma de control, de la configuración de los dispositivos de poder contemporáneos y de las posibilidades de resistencia que estos potencian. Por ello vamos a analizar cómo se expresan las sociedades de control y cómo ello es posible.

Gilles Deleuze introdujo la expresión "sociedades de control" para identificar las formas que estaba adquiriendo el mantenimiento y aseguramiento del orden social a través de empresas y/o estados gracias a las tecnologías de información y comunicación. Este control se produce gracias al manejo de tendencias estadísticas y de flujos de información que permiten regular las conductas de los individuos y limitarlas cuando sea necesario. A través del ciberespacio se pueden condicionar las posibilidades de la comunicación, así como de la transmisión, producción y almacenamiento de datos. Desde esta perspectiva control es poder. El control, según Camilo Ríos Rozo, puede definirse:

“… como un mecanismo basado en regular la diferencia, con el objetivo de capturar el potencial de lo múltiple y ponerlo al servicio del orden vigente, es decir, gestionarla y mantenerla domesticada, redirigir así sus saberes productivos... con lo cual, el control en su forma más pura… invita al libre movimiento, desplazamiento y circulación de las palabras, las cosas y las personas debido a que el control se ejerce sobre las mentes y su vara de medida está en los resultados” (DaTPC, 2015:328).

Deleuze (2006) expresó que el paso a las sociedades de control obedeció a la crisis generalizada que vive el mundo o al menos Occidente en cuanto a la familia, la sociedad y el Estado dentro de un contexto de implantación de un nuevo ordenamiento. Esta implantación se observa a través de tres ejes de acción que nosotros podemos correlacionarlos con la IAG que expresan en sí la naturaleza del nuevo ordenamiento: (1) la creciente implantación de dispositivos de control; (2) la creciente instrumentación de nuevos procesos de extracción de datos y; (3) una nueva organización mundial del trabajo (DaTPC, 2015). Los tres ejes antes indicados se corresponden con las tendencias que hemos indicado en la introducción relacionadas con la aceleración social y con los acontecimientos que ha vivido la humanidad en los últimos años. Así pues, el control que se expresa bajo la forma de enajenación y de modulación se apoya en la productividad para encontrar nuevos contenidos para su aparato codificador. La enajenación bajo la forma de adicción al consumo usa el marketing como un mecanismo de control y la modulación bajo la dinámica del flujo de información constante donde el control social se produce en el ‘entre’ donde se produce el cambio convirtiendo la cura de sí en un emprendimiento (DaTPC, 2015:377-380)[13].

El control en el ‘entre’ donde se produce el cambio expresa la existencia de una estructura que Foucault denominó dispositivo. Según Agamben (2011), siguiendo una estela dejada por Foucault y Deleuze un dispositivo es “una red que tiene la capacidad de capturar, orientar, determinar, interceptar, modelar, controlar y asegurar los gestos, las conductas, las opiniones y los discursos de los seres vivos”. Ello hoy en día es posible de una manera más efectiva a través de la IAG. El Estado en estas circunstancias sería una especie de leviatán virtual que sería omnipresente e incluso omniabarcante en la medida en que estemos conectados[14]. Desde la perspectiva de un orden determinado el dispositivo es, en sí, una máquina de gobierno que produce subjetivaciones a través de una estructura que se comporta de una forma religioso-económica cuya manera de combatirla, según el pensador italiano, es la profanación. ‘Profano’, es decir, darle un uso no sagrado a algo considerado como sagrado. Dicho de otra manera, es hacer un uso indigno de estos dispositivos.

El objeto de la profanación es crear las condiciones de posibilidad de una nueva individuación. Pero, además de la profanación, nosotros podemos agregar nuestra ocultación frente a la acción de dichos dispositivos. Hay dos maneras de lograrla: de forma parcial, mediante la intermitencia, es decir, establecer periodos de desconexión y de forma permanente que implicaría la desconexión total mas no el desconocimiento de los dispositivos. Según Agamben el espacio de ingobernabilidad que allí se puede presentar puede renovar la política, pero ello sería posible si hay individuos conectados a algún tipo de dispositivo. Esta renovación se podría producir mediante la conformación de un nuevo sentido común a partir de la existencia de estos desarrollos tecnológicos. El desafío que se presenta es determinar cómo se puede encriptar un ser y/o profanar una IAG en desarrollo creciente con poco o ningún control.

2.4.- La IAG fuera de control

A pesar de los controles que se están introduciendo, el peligro de las IAG es que la competencia en el mercado hace que este control sea difícil haciéndose más patente cada día que va a ser más difícil confiar en lo que se presente ante nuestros ojos. Al respecto, Timothy Eastman expresó que los procesos entendidos en un nivel multiescala son tan complejos que un robot y la IA poseen severas limitaciones y por tanto sólo son capaces, de una manera determinista, de cumplir funciones relacionadas con la imitación de una vinculación simple o de inferencia deductiva, de entradas dadas, restricciones y condiciones de contorno a salidas bien definidas (2020:97). En la misma línea de pensamiento María Martínez expresó que la IA “está condenada, de alguna manera, a replicarse: o replicar lo que exista en los datos”, o replicar lo que nos da un programador (ICaP, 2022). Pero la IAG está generando un cambio de circunstancias que ha obligado a ejercer una mayor supervisión en los procesos de producción, pero no se sabe si esta supervisión va a ser posible con las IA cuántica (IAC). Así pues, va a existir un mayor riesgo de que ocurran hechos no previstos en el proceso de programación. Solo basta tener presente que hoy en día existen sistemas de armas basados en IAG que, a pesar de haber sido desarrolladas con todas las limitaciones de programación, han decidido sobre cuestiones de vida o muerte fuera de control.

Entre las medidas que han estado en el ambiente se destacan el establecimiento de una pausa en el entrenamiento de los sistemas de IAG por los riesgos que comporta. Sin embargo, si se considera que en la medida en que se hagan más preguntas la IAG va adquiriendo conocimiento de patrones personales que redundan en su autoaprendizaje, más allá de la protección de la privacidad y el cambio de la configuración y controles de datos es un imperativo la producción de sí mismo. La producción de sí mismo va a marcar la diferencia que asegurará nuestra condición humana.

3.- La IAG como imagen del mundo

En la introducción indicamos que vivimos en una época de aceleración social. En este contexto y como también afirmamos la IAG podrían permitir estar al ritmo de la aceleración, pero falta preguntarse aceleración en qué sentido y en qué manera se presenta la IAG considerando la naturaleza económica y política de los procesos que están en curso. En el parágrafo primero usamos la expresión campo de sentido de Markus Gabriel para definir el ciberespacio como un modo de ser del Dasein, es decir, ser-en-el-ciberespacio. Igualmente indicamos en el parágrafo segundo cómo se puede expresar esta forma de Dasein cuando en el ciberespacio actúan programas inteligentes (IAG) que han pasado el test de Turing y afirmamos que este actuar era:

·         una forma de co-existir desde una perspectiva óntico-ontológica considerando al ser como alguien auténtico que produce y utiliza la IAG como medio transaccional que permite interactuar con otro Dasein. El problema que se nos presenta aquí es cómo saber si percibimos a otro Dasein y no una máquina,

·         una forma de suplantar a los seres humanos en las cadenas productivas,

·         una forma de extracción de datos humanos convirtiéndolos en una especie de materia prima.,

·         una forma que sirve para controlar a los seres humanos.

Todos estos casos se presentan debido a que se está haciendo difícil determinar hasta dónde llega el humano y dónde comienza la máquina y viceversa[15]. El otro aspecto a tener en consideración es que al representarnos la IAG mediante formas humanoides se está produciendo una minimización del ser generado frente al ente producido a partir del uso de la palabra ‘inteligencia’ que como vimos en el parágrafo primero de acuerdo con Dreyfus (2006) resulta problemático a pesar de que aparentemente no existen diferencias en el tratamiento de las dos realidades porque en ambas se establece el mismo régimen de signos que están disponibles para su uso (Lacerda y Ribeiro, 2020). Si bien es cierto que la tecnología es una forma de Ser y actuar en la que las cosas aparecen como objetos que nos pueden ayudar a realizar otras actividades, se observa que se está produciendo un acelerado proceso de cosificación de la humanidad.

Pero ya hemos indicado que la inteligencia humana es producto de una evolución y lo que se conoce como IAG es producido. El punto que se ha establecido como común y ya hemos indicado es que la IAG es capaz de manipular símbolos por lo que se está tomando un aspecto de la inteligencia humana como la inteligencia en sí misma, es decir, se está tomando la inteligencia humana como una cosa, un programa, a partir de dos premisas falsas: la primera es que las propiedades computacionales de la IAG son en sí mismas suficientes para explicar la inteligencia humana a pesar de que Dasein, desde una perspectiva heideggeriana, es la conciencia total que se encuentra a través de una “apertura permanente” en la experiencia humana de vivir e interactuar con el mundo que nos rodea. La segunda es que esta explicación de la inteligencia humana es posible porque puede ser objeto de medida. Esta analogía entre la IAG y la inteligencia humana es muy empobrecedora porque reduce la existencia humana al mero funcionamiento de una máquina. Esto es un problema que traemos desde la modernidad.

Los orígenes de la modernidad estuvieron marcados por los insaciables esfuerzos del hombre por tomar el control de su propia historia. La insaciabilidad en sí misma es lo que ha generado la aceleración social. Para ello se han utilizado muchos artefactos que han servido para dirigir el destino de la humanidad y, para ello, la racionalidad y la ciencia han sido las fuentes que hicieron posible este derrotero hacia la evolución intelectual y el desarrollo social que hemos indicado y se ha materializado en grandes logros de la humanidad. Desde esta perspectiva fue en la época en que se produjo la unión entre el pensamiento y la máquina conocida como modernidad que se hizo posible el estado de cosas e ideas que estamos viviendo hoy en día.

Si se considera que el carácter distintivo de la ciencia en la modernidad ha sido la investigación gracias a la desdivinización, la exactitud, la reproducción de la naturaleza y la predicción, la humanidad, al menos desde la revolución industrial (finales del siglo XVIII y siglo XIX) ha vivido en un constante proceso de adaptación a la aceleración. Esta adaptación ha vivido diferentes fases: estandarización dentro de un contexto en que la naturaleza (los seres humanos) crea un mundo a imagen y semejanza de ella misma, la transformación del intelecto ha posibilitado que todo sea convertible en razón gracias, por una parte, a las tecnologías de información y comunicación y, por la otra, a la robótica. Así pues, si la esencia de la ciencia es la investigación en las épocas de grandes avances científicos es que esta aceleración se hace patente.

Heidegger (1938), en este sentido, expresó que la ciencia sólo llega a ser investigación desde el momento en que se busca al ser de lo ente. Esta búsqueda del ser de lo ente (y su encuentro) se produce en la representatividad de lo ente y ello ha comportado una notable diferencia entre el mundo griego y la modernidad en tanto y en cuanto en el primero el ente estaba referido al ser y en el segundo la representación estaba referida al ente de forma voluntaria facilitando con ello la objetivación del ser. La objetivación del ser, en este sentido, se produce porque se ha convertido en un espacio de medida cuyo último correlato se encuentra en la utilización de las neuronas artificiales para reproducir las neuronas naturales y, por consiguiente, al ser humano como hemos indicado. En este sentido, Alberto Rosales expresó que Heidegger canceló el proyecto iniciado en la obra Ser y Tiempo realizando un giro filosófico de su pensamiento al darse cuenta que “esa obra corría el peligro de objetivar al Ser mismo…” (2008:68). Por ello, Heidegger trató de mostrar al Ser como “atemático e inobjetivo”, es decir, no como hechura del comprender sino como un Ser “autoestante” que permite la relación circular entre Ser y Dasein en la medida en que exista una posibilitación entre ambos (2008:69). Es bajo esta figura que Rosales entiende el concepto de ereignis (acontecimiento o transapropiación) (2008:71).

El camino que siguió Heidegger (1958 [1988]) para llega al concepto de ereignis se produjo a partir de la consideración del mundo como imagen a través de los lentes de la ciencia. El mundo como imagen permite pensar en una nueva visión del mundo. XXX Gabriel, en este sentido creyó, al igual que Heidegger, que la época de la imagen del mundo podría estar llegando a su fin debido a que, como observamos, Heidegger le dio al concepto de mundo un carácter epocal y contingente, es decir, es un estilo de auto representarse como conjunto en un trasfondo ante el cual puede comparecer el ente en general (2017:200). Nosotros creemos que esa época terminó con la pandemia que se declaró en el año 2020 porque, dentro del proceso de desaceleración que produjo, permitió que gran parte de la humanidad se adaptara a los recursos tecnológicos disponibles. Es en ese marco donde irrumpió la IAG.

Nosotros creemos también que la visión del mundo que está emergiendo en la actualidad es la del mundo como IAG representado por maquinas en forma humanoide que expresan en sí misma interacción, suplantación, control y, en general, objetivación del ser humano, es decir, del Dasein. Pero hay que entender aquí el mundo desde la perspectiva del ser debido a que, si se pudiese hablar de una visión del mundo en la IAG, esta sería la de su creador, el ser humano, por lo que en este caso se está llevando a la ciencia a algo que veremos más adelante como una nueva forma de religión.

A este punto es conveniente tener presente que mientras Heidegger buscó la inversión de la forma técnica de ser como una verdad última y la apertura a otras formas de ser, en la actualidad, gran parte de la humanidad acepta que su destino es aceptarse en esa forma técnica abrazando la tecnología como una forma de religión y como una imagen científica del mundo que acata un supuesto principio universal sin que importe que esta representación sea humanoide (Gabriel, 2016:100-102).

Ahora bien, si recordamos que lo natural es generado y lo artificial es producido, Gabriel siguiendo a Heidegger señaló que lo existente en su totalidad se está tomando ahora, a través de lo que es colocado por el hombre imaginativo-productor, como algo, el mundo, a partir de lo cual podemos hacernos una imagen (2016:87). Esta imagen basada en algo artificial que es producido y que es capaz de producir de una manera más efectiva es lo que explica la ontología señalada por Giraldi (2019) que a través de la descalificación de la acción humana promueve su suplantación por un ser producido que es considerado superior. Pero, si se considera a la IAG como una imagen científica del mundo capaz de ser omniabarcante, dominante y ordenadora de todo o como señaló Giraldi (2019) ‘tecnototalizadora’, esta imagen puede considerarse entonces como una forma de religión debido a que es otro intento por mantener el sentido que se ha pretendido dar a toda la historia: deus ex machina. La IAG como imagen del mundo, a partir de esta pretensión, es incompleta y potencialmente riesgosa debido al desplazamiento del paradigma epistemológico de las ciencias humanas hacia una gramática generativa que tiene como anclaje ontológico “el sistema neuronal y el código genético del homo sapiens” (Agamben, 2009:151-152).

La IAG al haberse constituido en la imagen epocal del mundo al que nos estamos adentrando representada como un ser humanoide no constituye una forma de auto representación, sino más bien una forma radical de objetivación que tiene implicaciones relacionadas con la ética, la estética, la mente, la conciencia, la inteligencia, el libre albedrio, la praxis, etc., debido a su impacto social, económico y político que hemos analizado. Esto nos lleva a pensar en términos de futuro. Esta imagen del mundo, en estas condiciones, podría ser vista como una espada de Damocles porque promueve la implantación de dispositivos de control dentro de un contexto signado por el ensanchamiento de la brecha económica entre individuos y comunidades políticas.

Las IAG a pesar de su precisión y de su capacidad de predicción opera, como ya hemos expresado, en función de datos ya registrados que se extrapolan linealmente en función de patrones determinados, por lo que, de acuerdo con esta lógica el futuro debe ser muy parecido al pasado, pero los seres humanos tenemos la capacidad de hacer cosas nuevas, de generar novedad como nos lo dijo Hannah Arendt en la Vida del Espíritu. Ese carácter imprevisible de nuestra condición humana es una ventaja. Según Innerarity (ICaP, 2022), lo que hace de la historia humana un espacio abierto a la novedad, al cambio, permite una mayor integración entre lo humano y la IAG considerando que estas necesitan de los datos requeridos por un programa para llegar a realizar una acción, en cambio los humanos somos capaces de tomar decisiones efectivas con pocos datos. Dicho de otra manera, mientras el ser humano puede actuar frente a la incertidumbre y el azar, la IAG no puede, con lo cual, como indicamos, la humanidad debe aprender a determinar cuáles datos deben ser expuestos y cuáles no de modo que se pueda establecer una nueva línea de separación entre lo público y lo privado. Pero falta saber hacia dónde navega la IAG.

Como ya indicamos, las tendencias actuales apuntan a la integración de las IAG con la mecánica cuántica para dar paso a la IAC por las limitaciones que hemos indicado a lo largo del presente estudio. Esta última abarca áreas como la computación, la comunicación, los sensores y la criptografía por lo que se puede observar la más estrecha interdependencia que existirá entre ambas en el futuro inmediato evidenciando de suyo la necesidad de encriptar también el espacio privado. La encriptación, en este sentido, está en estrecha relación con la ritualización y la profanación de acuerdo con lo indicado por Wang y Agamben porque a través de la reconstrucción de lo privado es que se podría reconstruir el espacio público de acuerdo con esta nueva imagen del mundo materializada por la IAG. Debemos tener presente que cuando Heidegger escribió en 1938 la época de la imagen del mundo se encontraba en un proceso de reconstrucción de su pensamiento filosófico como nos lo indicó Rosales dentro de un contexto signado por los vientos de guerra en Europa que indicaban un cambio de circunstancias como las que vivimos hoy en día.

Así pues, la importancia de este proceso de integración en este estudio se debe a que Roland Omnes (1999) expresó que se debe extender el concepto de sentido común del mundo cuántico a las sociedades en esta era tecnológica con la finalidad de reconstruir un espacio común y un mundo más armónico. Nosotros creemos que en este mundo cuántico se va a ensanchar la brecha en cuanto al acceso al conocimiento y en cuanto al papel del ser humano en el mundo, sin embargo, debemos aclarar que todavía esta capacidad de autoaprendizaje automático de la IAG o IAC aún no es conceptual, por tanto, aun no es capaz de reconocer el contexto ni la perspectiva histórica otorgándonos un espacio de maniobra para evitar cualquier deriva que no contribuya a la armonía, es decir, el espacio de maniobra es el que generará la tensión como la del arco o de la lira que permite que se genere armonía y resurja el espacio de lo político.

4.- Corolario

Luego de esta extensa singladura podemos afirmar que la IAG o IAC hoy en día se está utilizando de forma creciente en todos los campos del quehacer humano como motor, como herramienta y como medio de creación para ayudar, suplantar, objetivar y controlar. Nuestra mejor opción, en este sentido, es aprender a trabajar junto a esas máquinas, no en contra de ellas considerando que realmente será soberano de sí mismo quien sea capaz de ser productivo, es decir, que sea capaz de producir sus propias formas de vida desde la perspectiva material e inmaterial a través del uso de esa tecnología de modo que el hombre mismo sea capaz de interferir el ciclo técnico que él mismo se ha impuesto. En la capacidad de producir es que se encuentra nuestra posibilidad de encriptar nuestra manera de ser-en-el-mundo y en nuestra capacidad de profanar se encuentra nuestra capacidad de abrir espacios de maniobra en el ciberespacio. Pero para ello el ser humano debe ser-ahí en el ciberespacio. La tecnología, en este sentido, no es buena ni mala en sí misma es solo la imagen o reflejo de lo mejor y lo peor de la sociedad. Esto significa que no se puede ver la IAG como un medio de intromisión solamente.

Esto nos plantea la necesidad de alfabetizar a la sociedad en el campo de la IAG en lo que se conoce como ciencia de datos y en la nueva disciplina que se está gestando, es decir, la ingeniería cuántica de modo que, el nuevo ciclo histórico en que nos estamos sumergiendo, produzca una ruptura que permita la armonía.

Referencias Consultada

Agamben, Giorgio (2011). “¿Qué es un dispositivo?”. México. (T. R. Fuentes). Revista Sociológica, año 26, número 73, pp. 249-264. Documento en línea. Disponible: https://www.scielo.org.mx/pdf/soc/v26n73/v26n73a10.pdf

Agamben, Giorgio (2009). Signatura rerum. Sobre el método. Barcelona. (T. F. Costa y M. Rovituso). Editorial Anagrama. 161 p

Aristóteles (335-322 a. C. [1978]).  Acerca del Alma. Madrid. (T.T. Calvo). Editorial Gredos. 262 p.

Barrera, Luis (2012). “Fundamentos históricos y filosóficos de la Inteligencia Artificial”. Chiclayo. UCV-HACER. Revista de Investigación y Cultura, vol. 1, núm. 1, pp 87-92. Documento en línea. Disponible: https://www.redalyc.org/pdf/5217/521752338014.pdf

Bringsjord, Selmer y Govindarajulu, Naveen (2018). “Artificial Intelligence.” The Stanford Encyclopedia of Philosophy. Edward N. Zalta. https://plato.stanford.edu/archives/fall2018/entries/artificial-intelligence/.

Cristiano, F., Broeders, D., Delerue, F., Douzet, F. y Géry, A, (2023). Artificial intelligence and international conflict in cyberspace. Exploring three sets of issues. New York. Editorial Routledge. 278 p

Da Silva, R. (2014). “Los teoremas de incompletitud de Gödel, teoría de conjuntos y el programa de David Hilbert”. Caracas. Revista EPISTEME vol.34 no.1. documento en línea. Disponible: https://ve.scielo.org/scielo.php?script=sci_arttext&pid=S0798-43242014000100002

Deleuze, Gilles (2006). “Post-scriptum sobre las sociedades de control”. Polis Revista Latinoamericana N° 13. Documento en línea. Disponible: https://journals.openedition.org/polis/5509

Dreyfus, Hubert L. y Mark, Wrathall (ed.) (2006). A Companion to Phenomenology and Existentialism. Oxford, UK: Blackwell Publishing Ltd. 620 p. document en línea. Disponible: https://polanco.jesuits-africa.education/jspui/bitstream/123456789/17/1/A%20Companion%20to%20Phenomenology%20and%20Existentialism%20%28Blackwell%20Companions%20to%20Philosophy%29.pdf

Dugin, Alexander (2020). “La Inteligencia Artificial es la Humanidad sin Dasein”. (T. J. Caro Rivera). Documento en línea. Disponible: https://www.geopolitika.ru/es/article/la-inteligencia-artificial-es-la-humanidad-sin-dasein

Eastman, T (2020). Untying the Gordian Knot Process Reality and Context. Maryland. Editorial Lexington Books.

Eldred, M. (2009). The Digital Cast of Being. Metaphysics, Mathematics, Cartesianism, Cybernetics, Capitalism, Communication. Frankfurt. Editorial De Gruyter. 137 p. Documento en línea. Disponible: https://www.arte-fact.org/dgtlon_e.html#4.4

Esteves, R., Saidel, M. Ríos, C., Sacchi, E. y Velázquez, A, (Coord.). (2015). Actas de las VI Jornadas. Debates Actuales de la Teoría Política Contemporánea (DaTPC). Buenos Aires. Facultad de Ciencias Sociales, Universidad de Buenos Aires. 682 p

Fernández-Villaverde, J. (2023).  La economía de la inteligencia artificial: unas ideas básicas. El confidencial. Documento en línea. Disponible: https://blogs.elconfidencial.com/economia/la-mano-visible/2023-05-01/economia-de-la-inteligencia-artificial-ideas-basicas_3620152/

Gabriel, Markus (2017). Sentido y existencia. Una ontología realista. (Sinn und Existenz - Eine realistische Ontologie). Barcelona (T. R. Gabás). Editorial Herder.  515 p

Gabriel, Markus (2016). Por qué no existe el mundo. México. Editorial Océano. (T. Enrique G.). 247 p.

Garvey, M. (S/F) “A Philosophical Examination on the Definition of Cyberspace”. Documento en línea. Disponible: https://www.worldscientific.com/doi/pdf/10.1142/9789811233128_0001 

Giraldi, Enzo (2019).Digitalización, política e inteligencia artificial ¿Qué futuro podemos esperar?”. Buenos Aires. Revista NUSO Nº 283. Documento en línea. Disponible: https://nuso.org/articulo/digitalizacion-politica-e-inteligencia-artificial/

Gödel, Kurt (2006). Obras Completas. Madrid. (T. J. Mosterín) Alianza editorial. 470 p

Heidegger, M y Fink, E. (2017). Heráclito. México. Fondo de Cultura Económica. (T. R. Torres). 216 p.

Heidegger, M. (1958 [1988]). Identidad y diferencia. Texto bilingüe. Barcelona. (T. A. Leyte y H. Cortés). Editorial Anthropos.

Heidegger, Martín (1938). La Época de la imagen del Mundo, Trad. H. Cortés y A. Leyte, Madrid, Alianza Editorial, Caminos de bosque, 1996. disponible en: http://www.fadu.edu.uy/estetica-diseno-i/files/2015/08/heidegger_epoca_imagen_mundo.pdf

Heidegger, Martin (1927[1998]). El Ser y el Tiempo. 2ª ed. Santa Fe de Bogotá (T.J. Gaos), Fondo de Cultura Económica.

Instituto de Capacitación Parlamentaria (ICaP). (2022). Inteligencia artificial y política. Los desafíos de una tecnología acelerada en las instituciones contemporáneas. Buenos Aires. Documento en línea. Disponible: https://www.teseopress.com/inteligenciaartificialypolitica/

Lacerda, Ingrid y Ribeiro de Mattos, Thamires, (2020) “Be Right Back: Humans, Artificial Intelligence and Dasein in Black Mirror”, Communication, technologies et développement. URL: http://journals.openedition.org/ctd/3353

Lévy, P. (1999). Cyberculture. São Paulo. (T. C. Irineu da Costa). Editorial 34. 264 p.

Makhachashvili, R. y Semenist, I. (2021). “Linguistic Philosophy of Cyberspace”. Revista Systemics, Cybernetics and Informatics Vol. 19 - # 4. Pp 191-207. Documento en línea. Disponible: https://www.iiisci.org/journal/PDV/sci/pdfs/IP138LL21.pdf

Omnès, R. (1999). Quantum Philosophy, Understanding and Interpreting Contemporary Science, Princeton, Princeton University Press.

Pasquinelli, M. (2011). “Capitalismo macchinico e plusvalore di rete: note sull’economia politica della macchina di Turing”. Link: http://www.uninomade.org/capitalismo-macchinico/

Rosa, Hartmut (2016). Alienación y aceleración. Hacia una teoría crítica de la temporalidad en la modernidad tardía. Madrid.  (T. Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades de la Universidad Nacional Autónoma de México). Katz editores. 190 p

Rosales, Alberto (2008). “Heidegger y la pregunta por el ser”. Mérida. ULA. Revista de Filosofía N° 19 (19). Pp 43-79 Documento en línea. Disponible: http://erevistas.saber.ula.ve/index.php/filosofia/article/view/3699

Reyes Lozada, Antonio (2023). “El futuro de la Inteligencia Artificial en la política”. México. Documento en línea. Disponible: https://comunicacionsocial.diputados.gob.mx/revista/index.php/pluralidad/el-futuro-de-la-inteligencia-artificial-en-la-politica

Russell, Stuart y Norvig, Peter. (2021). Artificial Intelligence: A Modern Approach. 4° Ed. Pearson Prentice Hall. 1152 p.

Sánchez, J. (2018). “La Inteligencia Artificial vista desde la filosofía y la teología”. Cantabria. Universidad Pontificia de Comillas. Documento en línea. Disponible: https://blogs.comillas.edu/FronterasCTR/?p=3570

Tam, Adrian (2023). “What are Large Language Models”. Guiding Tech Media. Documento en línea. Disponible: https://machinelearningmastery.com/what-are-large-language-models/#:~:text=A%20large%20language%20model%20is,models%20and%20how%20it%20works

Wang, Keren. (2023). “Dasein, ChatGPT, and the Ritology of AI”. Shanghai. East China University of Political Science and Law. Documento en línea. Disponible: https://www.linkedin.com/pulse/dasein-chatgpt-ritology-ai-special-lecture-east-china-keren-wang-z47yc



[1] La IA ha impactado la industria cultural y creativa, y en la percepción de las audiencias. En términos de creatividad la IA se aprovecha de lo producido por el ser humano y hoy en día es capaz de producir obras de arte de altísima calidad e incluso códigos de programación que podrían incluso hacer que terminemos importando objetos de nuestra propia cultura (Kulesz en ICaP, 2022).

[2] La génesis de la inteligencia artificial data del año 1943 cuando Warren McCulloch y Walter Pitts expresaron que “las neuronas en el sistema nervioso humano podían representarse por medio de una estructura matemática trivial, es decir, encendidas (un 1) o apagadas (un 0), con un cambio de encendida a apagada (o viceversa) inducido como respuesta a una señal”. A partir de esta representación estos autores “demostraron que cualquier función matemática computable podía ser representada por un conjunto suficientemente grande de estas neuronas artificiales” (Fernández-Villaverde, 2023).

[3] El test de Turing es un montaje experimental que consiste en un proceso simple de preguntas y respuestas. Esta prueba comprende, por un lado, a un interrogador humano y, por el otro, a una máquina y a otro humano anónimo que deben responder al interrogador. Como no pueden observarse, el interrogador y los interrogados se comunican solo a través de un dispositivo de entrada y de salida. Si, a partir las respuestas, el interrogador no puede determinar cuál de los interrogados es la máquina, la inteligencia de la máquina puede considerarse como semejante a la humana. Ver al respecto: Enciclopedia Herder. Documento en línea. Disponible: https://encyclopaedia.herdereditorial.com/wiki/Test_de_Turing

[4] Ambos autores al respecto hicieron una distinción entre IA y automatización debido a que la automatización comprende el uso de la tecnología para eliminar la intervención humana, independientemente de si este proceso incluye o no la IA (Russell y Norvig, 2021).

[5] Ambas tecnologías pueden combinarse pudiendo generar comportamientos nuevos y potencialmente riesgosos para los cuales los sistemas no fueron ni programados ni tuvieron, en principio, información previa de esa eventual situación.

[6] Martínez destacó dos aspectos a tener en consideración: por una parte, estas herramientas tienen un fundamento teórico estadístico pero pensado sólo para una actividad específica. La estadística, en este sentido, “asume que los datos siguen una distribución particular que cubren el fenómeno o la población de una determinada manera, y eso permite que se puedan extrapolar patrones de una muestra de datos a una población en general”. Por la otra, la citada herramienta posee sesgos culturales y sociales que están relacionados con la manera en que se programa para recolectar datos y “pueden llegar a replicarse y reproducirse de manera masiva a través de estos sistemas” (ICaP, 2022).

[7] Ver al respecto: Heidegger (1927[1998]).

[8] Según Gabriel un campo pone “a disposición estructuras que hacen aparecer objetos, con independencia de las condiciones bajo las cuales tenemos en cuenta o proyectamos criterios epistémicos de identidad”. Y como «sentido» designa “la manera como los campos hacen aparecer objetos (las reglas que establecen el campo de sentido del que se trata)” (2017:28). Así pues, para él, realidad y existencia “consiste en aparecer en un campo de sentido” (2017:178 y 224).

[10] Ver al respecto: BBC (2014). “Stephen Hawking: La inteligencia artificial augura el fin de la raza humana". Documento en línea. Disponible: https://www.bbc.com/mundo/ultimas_noticias/2014/12/141202_ultnot_hawking_inteligencia_artificial_riesgo_humanidad_egn

[11] Ver también: María Martínez y Sofía Scasserra (ICaP, 2022).

[12] Ver al respecto: Heidegger y Fink (2017).

[13] Ver también: Pasquinelli (2011: 25).

[14] Ver al respecto: Dugin (2020).

[15] Como amalgama entre humanos y máquinas vamos a definir qué se entiende por transhumanismo y posthumanismo. El primero se refiere a la mejora de los humanos mediante la adopción de medios tecnológicos como prótesis, cirugía plástica y, más importante aún, un uso intensivo del ciberespacio. Aquí se incluye, además, una visión cosmopolita del mundo, la androginia, la reproducción mediada, la ausencia de creencias religiosas y el rechazo de los valores familiares tradicionales. El poshumanismo, por su parte, es el estado objetivo en el que uno se excedería a sí mismo o trascendería a la humanidad, alcanzando un estado que debería seguir a la humanidad en su evolución histórica. En ambos conceptos la pregunta que se ha planteado apunta a tratar de establecer dónde termina el ser humano y dónde comienza la máquina (Lacerda y Ribeiro, 2020).