Javier Blanco, Cibernética y política. Repensando las configuraciones humano-algoritmo

Entrevista con Javier Blanco por Renzo Fillinich

Comenzar
3138 visitas

Javier Blanco es Doctor en Ciencias de la Computación, militante político, secretario general del sindicato de docentes e investigadores de la Universidad Nacional de Córdoba y director de la Maestría en Tecnología, Políticas y Cultura de la misma Universidad, Argentina. Nos interesa entablar un diálogo con él sobre su visión sobre algoritmos y los nuevos diseños políticos derivados de este fenómeno social, la entropía generada en las nuevas tecnologías de la información y la educación digital. Nos adelantó sobre un nuevo texto donde aborda ciertas tensiones y la urgencia de pensar sobre una nueva cibernética planteada a mediados del siglo pasado para ser llevada a cabo en el contexto actual. 


Renzo Fillinich: Tomando tus actuales acercamientos hacia una nueva forma de modelar y pensar una epistemología cibernética hoy en día, y considerando las referencias sobre el Físico e informático Valentín Turchin1The Phenomenon of Science: A Cybernetic Approach to Human Evolution que plantea una transición de Metasistema para llevar a cabo un modelo de cibernética en la ex Unión Soviética, ¿Cómo observas tú, pudo haberse dado a nivel organológico, tomando este concepto a nivel psicológico-socio-tecnológico y biológico, el proyecto Cybersyn en Chile durante el gobierno de Allende?

Javier Blanco: Me parece que esta es una experiencia que se debe analizar en profundidad en términos conceptuales, dentro de un país socialista como lo fue Chile en aquel momento, una de las cosas interesantes es observar su estado intelectual en aquella época. Por un lado, tenías a Maturana y Varela hablando sobre sus planteamientos en sistemas autopoiéticos, Maturana ya había estado inserto en su trabajo con Von Foester, por lo que no es casual que se haya llamado a Stafford Beer en aquel entonces. De igual modo, debemos observar que esta cibernética traída a Latinoamérica no estaba tan alejada en los marcos conceptuales de aquella gestada en los años 40s en los Estados Unidos, y que no tiene nada que ver con lo que conocemos como el Silicon Valley norteamericano, que está más cercano al enfoque de Von Neumann como proyecto hipercapitalista casi bélico, en el sentido de una disputa por la tecnología que se daba en el contexto de la guerra fría de aquel entonces y sobre todo de supremacía por parte de los Estados Unidos en términos de su producción informática. Estado bélico que se refleja hoy también, en lo dicho por Putin “quien controla la tecnología en inteligencia artificial controla el mundo”. Del lado de Rusia, China, Estados Unidos y de alguna manera en la Unión Europea, están compitiendo por hegemonizar el desarrollo de la inteligencia artificial, y este es otro punto para pensar con cuidado. Este es un proyecto evolutivo en el enclave sociopolítico y la nueva inteligencia artificial tiene muchos vínculos comunicantes con la cibernética original y con el devenir de ese pensamiento.

RF: Y en esta clave de trabajo reflexivo, como director de una Maestría en Tecnología, Políticas y Cultura ¿cómo observas actualmente estos ejes a nivel sistémico?

JB: La pandemia pone en manifiesto un estado de cosas que ya se venía dando pero que se manifiesta con toda crudeza como problema: no tenemos condiciones de inteligibilidad del presente, el presente no está siendo inteligible. Por ejemplo, hoy en el diario The Guardian hablan de un estudio del 2015 en Estados Unidos, donde el 4% de la población cree en una teoría donde una raza reptiliana de lagartos transdimensionales gobierna el mundo, al estilo de una serie de los años 90s, son 12 millones de personas que creen en esta teoría conspirativa. Más allá de las diferencias sociales que tiene ese país, su problema no es precisamente falta de acceso a la información. A mi entender es otro el problema…Hoy en día, hay mucha gente creyendo en teorías de conspiración por ejemplo una que une a los demócratas, judíos, Bill Gates, George Soros y los pedófilos, y gran parte de la elección está centrada en ese oscurantismo que favorece a Trump entre otras muchas cosas. El oscurantismo asociado a un estadio de desinformación y desconocimiento es algo que vuelve muy peligroso este presente y no estamos entendiendo cómo funciona realmente. Se le acusa a la inteligencia artificial o al mundo informacional, como que está generando mundos paralelos, donde cada quien crea su propio mundo. A partir de esta mirada, yo suscribo las ideas de Stiegler sobre su propuesta organológica, que debe ser aún desarrollada. Esta teoría plantea pensar la individuación en los tres ejes mencionados (tecnología, políticas y cultura). Es decir, podemos considerar el sistema nervioso central o las mentes a través de las tecnologías digitales, y estas a partir de la tecnología ubicua y la organización social y política. Estas tres dimensiones se co-constituyen conjuntamente, y además la organización social y política, por supuesto, hoy más que nunca está mediada por tecnologías digitales. Esas mediaciones y esos intercambios hacen que solo se pueda pensar la condición humana actual en los tres ejes a la vez. Sin embargo, no se está pensando esto a nivel político y debo remarcar que tampoco hay una disciplina que lo piense de ese modo. A mi entender esto es importante, por lo que vengo elaborando un pequeño compendio de conceptos de tecnologías digitales necesarios para hacer teoría política.

RF: Tomando este último punto sobre el compendio, en un seminario desarrollado el año pasado en Argentina, a la luz de reflexionar sobre inteligencia artificial y sociedad, recuerdo planteaste la siguiente pregunta: “¿qué debería saber o conocer un ciudadano común hoy en día para desenvolverse en el terreno en el que hoy vivimos?” Pensando en voz alta sobre esta pregunta, el panorama actual de igual modo nos lleva a un punto inalcanzable frente a la aceleración tecnológica, y el tratar de integrarla en nuestros propios modos de conocimiento y frente a nuestros propios tiempos vivos/humanos.

JB: Esa es una gran pregunta que no tiene respuesta clara. Por un lado, como decía, está ese hiato entre cultura y técnica, un hiato histórico decimonónico que, sobre todo en Alemania, se instaló como dos dimensiones antagónicas y que Simondon retoma a mediados del siglo XX, diciendo, “esto es un problema o un peligro”; porque no se resolvió, y que hoy en día ese hiato se incrementó, cambiando la tecnología mucho más. Hoy justo pensaba en una frase de Edward O. Wilson, un biólogo estadounidense que dice algo como, “el problema de la humanidad es que tenemos emociones paleolíticas, instituciones medievales y una tecnología cuasi divina”. Fíjate que es una perspectiva organológica mucho antes que existiera lo organológico mismo como perspectiva. Es decir, la emocionalidad y la constitución de nuestro cerebro es paleolítica, no cambió demasiado desde el pleistoceno, unas instituciones políticas y culturales medievales, la universidad, por ejemplo, y lo tecnológico que efectivamente nos rebasa y está fuera de nuestro entendimiento.  Lo que surge aquí es un ritmo de evolución de cada una de esas tres partes muy diferente; y corremos hoy el albur de que la tecnología digital vaya más rápido que cualquier capacidad de comprensión humana, dejándonos en un momento de crisis de aceleración, que tal vez no es bueno ni malo, es solo que ya no tenemos esta capacidad de comprensión sobre ella. Otro filósofo cognitivo que trato de integrar a este pensamiento es Daniel Dennett, quien afirma que existen dos dimensiones de nuestro proceso evolutivo del pensamiento, uno es el top down, es decir, el diseño, pero también considera otro en dirección opuesta: “la competencia sin comprensión”, el desarrollo de competencias que no implica comprensión en sí misma, una mirada que ha sido rechazada en la alta cultura y la filosofía en general, al punto que era la denuncia que le hacían a Darwin como evolución, alegando que no es posible evolucionar, llegar a  diseños complejos que son creados sin comprenderlos, dando la idea de un diseñador inteligente. Dennett va ubicar en esta misma línea el trabajo de Turing, diciendo que Turing consigue construir máquinas que piensan y que no necesariamente comprenden, no a priori, no desde el principio. Por supuesto no podemos decir que Turing elabora la idea de una comprensión en otro nivel, pero eso no invalida que el aprendizaje de esas máquinas o su evolución, no sea una evolución de arriba hacia abajo sino de abajo hacia arriba, planteando en uno de sus últimos libros2From bacteria to bach and back (2017); que nuestras mentes, más allá del cerebro mismo, como ya bien sabemos, no solo están en gran parte exteriorizadas, usan andamiajes externos para su propia constitución; sino además están infectadas de memes, en términos culturales, porque la cultura es también un andamiaje externo que permite que nuestras mentes existan, y por lo tanto hay una discusión sobre esa identidad tan cara a lo fenomenológico sobre nuestra experiencia, ya que esta continuamente infectada por entidades culturales, tecnológicas, etc.

RF: Me surge una pregunta en clave stigleriana, ya que tomas el punto de los andamiajes externos en nuestra constitución como individuos, observando este fenómeno de entropía informacional a toda escala en la que estamos inmersos y de la que no contamos con un balance o filtro para modular toda esta sobreproducción que nos constituye en este andamiaje ¿Cómo observas un diseño político desde un diseño cibernético en el que se modele una arquitectura que colabore en esta estabilidad o negentropía?

JB: Es una pregunta compleja de responder. Para partir hay que tener una mejor teoría para comprender ese fenómeno, siendo ese uno de los caminos para repensar lo político. Este aspecto es complejo porque los conceptos políticos en el siglo XIX y luego el XX, en particular las nociones de Foucault o Deleuze, son pertinentes para pensar el presente, pero creo faltan nuevas nociones hoy en día, por esta integración irreductible entre tecnología, subjetividad, cerebro, sociedad, procesos de subjetivación. Precisamente estuve escribiendo con una colega sobre la noción de “subjetivación cyborg”; porque ya devenimos cyborgs pero ¿cómo subjetivo a un cyborg? Más allá de que la subjetivación y la subjetividad como emergente, en clave de Foucault, que a mi parecer es una noción a preservar, cambiaron mucho las instituciones y las maneras de subjetivaciones para poder pensarla en esta novedad que se transforma en subjetividad cyborg. Pero además, y aquí el tema del tiempo se vuelve algo muy oscuro porque justamente los tiempos de las distintas dimensiones de esta subjetividad son muy diferentes, extremadamente diferentes, entonces poder entender eso es otra de las dificultades para saber qué significa negentropía hoy en día. Uno de los problemas, y que Stiegler mencionaba de manera taxativa: es que justamente este capitalismo actual financiero es profundamente entrópico, genera desorden, desperdicia todo, la entropía en términos de energía malgastada o energía inaprovechable por el desorden que eso implica.

Ahora bien, ¿qué creo hace falta pensar teóricamente? Stiegler en alguna conferencia menciona que la entropía depende de la manera en que uno piense el contexto, que lo que puede ser entrópico en un nivel es distinto en otro, por ejemplo, un gas está en un máximo estado de entropía, pero si el gas lo uso dentro de un jarro y lo ocupo para potenciar una fábrica, no es entrópico respecto de la fábrica, sino que entrópico en su propia interioridad de ese jarro. Por otro lado, podría ocurrir que la entropía/negentropía dependa del receptor, así como para Simondon información depende del estado metaestable del receptor, es posible que algo sea entrópico dependiendo de quién sea el que tome esa información. 

RF: En ese sentido, ¿qué rol cumpliría el Estado en este proceso de nivelaciones entropía/negentropía?

JB: Es una posibilidad importante, el rol regulatorio o modulador del Estado. En términos de regulación y de intentos en control de entropía y producir circuitos neguentrópicos y reordenar las cosas, yo lo asociaría a la idea del cuidado de la vida en todos sus niveles y el cuidado de la verdad, pero poco de esto existe hoy en día. Esa neguentropía donde el Estado debe ser o puede ser por lo menos un productor de ese tipo de circuitos positivos, hoy no ocurre, en particular porque nuevamente, retomando lo anterior, nuestro Estado son instituciones y organizaciones que no están preparadas, así como no lo están los sujetos. Por ejemplo, en Estados Unidos hubo un par de interpelaciones del congreso a sujetos que producen tecnologías como Zuckerberg, intentando controlar algunas cosas, siendo evidente que están en registros diferentes observando las intervenciones de los legisladores, ya que no están entendiendo lo que sucede en ese nivel, lo que suma un problema más. Los Estados que son capaces de dar cuenta de la situación en que estamos y que por lo tanto intenten generar nuevos circuitos valiosos. Aunque sea difícil, es posible generar neguentropía, al pensar nuevos y mejores acoplamientos de sistemas cognitivos humanos y no humanos, lo que implica mejores diseños de sistemas cognitivos no humanos y mejores comprensiones de parte de los humanos de esos sistemas. Es decir, algo que no se entiende y que es una tarea a mostrar, es tener la comprensión de que el mundo algorítmico es infinito, hay infinitos algoritmos posibles con infinitos comportamientos algorítmicos, las limitaciones que aún tenemos es que la tecnología algorítmica está en un proceso de infancia, hay mucho que se ha descubierto y muchas ideas, pero no existen aún programas sofisticados para hacer cosas, los programas de machine learning son programas aún toscos, poco sofisticados, aprenden a partir de reforzamiento de fuerza bruta de datos, más o menos como aprendemos los humanos pero más rápido que los humanos en su procesamiento, sin embargo, aún no existe una articulación “lógica” o una producción interesante de conocimiento. Reconocen patrones y son por supuesto herramientas valiosas y dan lugar a una nueva mirada de fenómenos del mundo y posibilidades de correlaciones de cosas impensables, incluso puede producir nuevas categorías de cosas. Es una propiedad que solo se puede generar a partir de esa gran masividad de procesamiento de datos. Eso podría tener, objetivos o procesos, o dar lugar a procesos neguentrópicos, pero aún no está ocurriendo porque ahora están al servicio de un desarrollo e intelectualidad que van en dirección de favorecer todo lo contrario desde lo político, prediciendo el mercado, por ejemplo. Están en un lugar en el que refuerzan el propio sistema de producción, y de igual modo en el campo intelectual, investigando ciertos términos, como escuché en algunas entrevistas nadie es inmune a ella, ni siquiera quienes la hicieron o comprenden mejor que nadie, porque estas herramientas consiguen operar a un nivel subpersonal, de alguna manera, con circuitos previos a la conciencia humana, más primitivos; podemos, ahora sí, referirnos al “cerebro reptiliano”…

RF: Justamente frente a este acoplamiento que mencionas y de correlaciones humano/algorítmicas, pienso en el siguiente problema: desde el siglo XX las ciencias sociales y humanas han estado enfocadas en cómo las personas se relacionan entre sí y lo que piensan y creen de sí mismas. Pero en el siglo XXI, y sobre todo hoy en día, las principales preguntas consisten en saber cómo nos relacionamos con la inteligencia artificial/ robots / agentes, y también cómo estas se relacionan entre sí. (La Teoría del Actor-Red fue así la primera teoría social del siglo XXI). Entonces, tendremos antropología humano-máquina, sociología humano-máquina, psicología humano-máquina, etc. Parte de esta investigación ya se ha estado desarrollando, pero por lo que se puede ver, por ahora, las ciencias sociales todavía se ocupan principalmente o exclusivamente de las relaciones entre humanos, en sus distintas variantes. Pero pronto, nuestras relaciones con máquinas «inteligentes» (o de apariencia inteligente) pueden convertirse en el centro de los problemas de las ciencias sociales. Y es de esperar que esto pueda conducir a ideas realmente nuevas sobre nuestros modos de existencia. ¿Ves la urgencia o necesidad que las ciencias sociales se ocupen de estas nuevas relaciones?

JB: Sí muy de acuerdo, creo que es una de las ausencias que están latentes hoy en día, o muy incipientes. Cada vez que hablo con científicos sociales sobre esto, ven que hay algo que vale la pena, pero la propia práctica académica vuelve difícil esto todavía, aún hay muchas fronteras que atravesar para volver a encontrar aquello. Paradójicamente, la cibernética como historia de pensamiento estuvo estrechamente relacionada con las ciencias sociales. Eso ha sido quizá uno de los problemas que ha generado cierta mala prensa. Se ha asociado a la cibernética con un pensamiento sociológico funcionalista, como el de Parsons o con la teoría sistémica de Luhmann, y es cierto que Luhmann es un pensador sistémico, quien tomó mucho de la cibernética, y por algún motivo se le asocia como pensador de derecha, sin dejar de ser un pensador innovador. En las ciencias sociales Europeas, sobre todo en Francia, fueron muy pocos los alcances y apropiación de ese pensamiento, con la excepción del caso de Simondon, y ha sido un problema porque ha habido una pérdida importante ahí, y hoy se hace indispensable.  Por eso hay pocas herramientas para pensar cómo se hace frente a la situación de neo-oscurantismo y violencia tribales, mediadas por sistemas técnicos hipercomplejos donde nadie entiende qué pasa. Hay que ser sinceros en esto, no es que haya un genio maligno detrás de todo esto, por supuesto Trump, que no es un genio, pero es maligno, usó todo lo que estuvo a su alcance con tecnologías digitales para conseguir sus votos y logró hacerlo, pero es de vuelta ensayo y error, una experimentación cruda que no es realmente una teoría, o condiciones que den cuenta para saber qué está pasando hoy y que son indispensables para este presente. Hay mucha gente pensándolo, pero aun ese espacio de pensamiento podría ser llamado cibernético, porque réplica en un sentido lo que fue en los años 50 esa convergencia de ideas y preguntas, solo que hoy ese tipo de preguntas no son ya de un futuro, sino de un presente que se está volviendo muy entrópico, y hay que pensarlo con herramientas más efectivas.

RF: Claramente esto va asociado y afecta directamente a los encuentros que se han venido realizando por instituciones y organizaciones supragubernamentales, como la Flacso, Unesco y últimamente por los Estados, evaluando políticas y lineamientos sobre los usos de la inteligencia artificial, pero desde un enfoque desarrollista y pensada como una “herramienta”, para facilitar tareas en varios niveles. ¿Cómo ves este intercambio entre datos y operaciones a este nivel? Pienso en el proceso que conocemos como gramatización o pharmakon, para ocupar este término stigleriano…

JB: Yo creo en estos procesos que Stiegler llamó de gramatización del mundo. Hay y existe una gramatizacion o discretización del mundo muy novedosa que se ha desarrollado por formas que no necesariamente se circunscriben al lenguaje humano, hay otros lenguajes y otras formas de operación allí y el lenguaje humano mismo se ha vuelto otra cosa, en particular porque el lenguaje mismo tiene una agencia propia a través de los motores de búsqueda, es decir, la interacción entre lenguaje y mecanismos es para mí otro de los enclaves fuertes a pensar; tienen su historia, muchas veces eran descripciones de mecanismos, después los programas de computadora formaron parte de los mecanismos, luego los lenguajes; hoy eso se imbrica de manera mucho más estrecha y ese vínculo entre mecanismo y lenguaje me parece es una de las dificultades a pensar, y como decías, al parecer falta una nueva ética de lenguaje algorítmico. Aquí puedo ejemplificar con un caso anecdótico, en mi militancia política recuerdo compañeros que decían “yo quiero hacer un troll de Cristina”, algo inconcebible y absurdo, ya  que no es eso lo que se debería hacer, pero querían eso porque vieron que los troll operan en las redes generando desinformación y estados de ánimos porque atacan a otros, y veían que eran efectivos, y eso muestra como el nivel ideológico se ha permeado de una nueva ideología muy torpe, que no está contribuyendo a mejorar la calidad política. A mi parecer, lo que está en juego es mucho más grande, es la misma posibilidad de lo político como existencia no intersubjetiva sino “interobjetiva”, es decir, donde el vínculo no es sólo entre sujetos humanos sino entre distintas mediaciones, algunas humanas otras no, y en ese mundo más sistémico es que nos movemos para poder constituirnos como sujetos y desarrollar procesos políticos; la pandemia lo puso en manifiesto y ahora no nos queda de otra. Me parece un interesante momento para desarrollar las herramientas conceptuales para entender esto.

RF: Dentro de esta “interobjetividad” que mencionas, ¿cómo observas el paradigma de la predicción al interior de esta nueva constitución cognitiva? y ¿qué nos asegura que el paradigma de predicción pueda ser domesticado por restricciones éticas y morales cuando se trata de la automatización de la conducta y las emociones humanas?

JB: Son muy curiosas las distopías. Una que me encanta, que más que distopía es una idea, es la serie Westworld, que me parece maravillosa en muchos sentidos. Hay muchas ideas novedosas para pensar, por ejemplo, me divierte mucho un momento en que Dolores, la protagonista IA, se pregunta “¿por qué merecemos existir?” y se responde, “porque nosotros sí tenemos capacidad para transformarnos”, contradiciendo correctamente el prejuicio de que las máquinas solo se repiten y que los humanos sí tendrían capacidad de transformarse, cuando es totalmente al revés. Entonces, de vuelta, ¿cuál es la mejor posibilidad de la humanidad de transformarse?, integrarse con estos sistemas que si tienen la capacidad de transformarse. Esa inversión es, para mi, un giro interesante de esa obra.  El otro momento curioso de esa misma serie es con la IA de la tercera temporada llamada “el Rehoboam”, esa gran inteligencia artificial predictiva que no solo predice, también reordena cuando encuentra divergencias sobre algún plan maestro respecto a la humanidad. Otro ejemplo es el documental “The social dilemma”, donde se toma la estética del Rehoboam, controlando a las personas, el tipo de panel de control es similar y de alguna manera esa distopía está muy cercana, hay una instrumentación y mecanismos digitales que permiten transformar conductas humanas, sin que los humanos se den cuenta de esto, eso es un hecho. Esa distopía humana está a la orden del día. Entonces, poder pensar futuros no va alcanzar, no alcanza, con las cuestiones éticas, en parte porque no hay forma de asegurar que ocurra, no hay mecanismos que lo aseguren por otro lado, se trata, a mi parecer, de tratar de convivir con eso. Las predicciones a los humanos y las influencias en los humanos para hacer ciertas cosas determinadas, nos muestran, más que un problema, un síntoma que hay que entender, son una condición para pensarnos, considerando que somos altamente predecibles y altamente influenciables con estos métodos. Por lo tanto se hace necesario contar con instituciones, prácticas y comprensiones que nos permitan vivir con eso; si algo cae con todo esto, y muchos no se dan cuenta aún, es el mito del sujeto cartesiano donde se piensa que hay un espacio de libertad absoluta en algún lado, por supuesto que hay formas de libertad y responsabilidad, ahora hay que repensar que no es ese reino o sustancia propia que tiene sus propias reglas, y es esta la novedad que nos muestran estas tecnologías. Retomando lo que dice Heiddeger citando a Hölderlin “donde crece el peligro, crece lo que salva también”; solo a través de esas tecnologías, como Westworld ilustra en su ficción, es que uno puede realmente abrir el mundo a un vínculo más creativo y más sano, a mi parecer. La creación como ejemplo y forma del devenir humano es algo que cada vez está más integrado a los procesos maquínicos, entonces buscar esa integración, y buscar cómo se potencian las mejores partes de lo que la humanidad ha creado, donde se descubren nuevos ámbitos de existencia, es uno de los desafíos más interesantes. Las regulaciones y la ética van a venir, pero son insuficientes, mucho más que antes, sobre todo porque no son aplicables, ni por los Estados ni por nadie. Hoy Google tiene más poder que el Estado, incluso que Estados Unidos, ¿por qué ese poder?, porque descubren que lo pueden usar con las personas pasivamente, hay realimentaciones que eran impensables 30 años atrás, hoy hay que dimensionar y buscar cómo convivir con ese nuevo poder de una forma emancipatoria.

RF: ¿Desde qué lugar podríamos observar el modo en que se desarrolla este nuevo poder?

JB: Desde el lugar en el que uno puede transformar, de manera muy rápida y muy efectiva, la noosfera. Esta idea de una esfera del conocimiento, es transformada hoy en su estructura misma, pero también en su devenir que es continuamente transformado por estas disponibilidades de ciertas herramientas; esta transformación afecta la propia constitución de las subjetividades pensantes, siendo un poder desatado que existe como tal y es usado en muchos momentos, entonces hay que poder lidiar con eso…

RF: ¿Crees que un camino para conseguir lidiar con ello, sea lo que Hui denomina una tecnodiversidad?

JB: Yo creo que sí, es uno de los caminos, solo que Hui lo plantea como una posibilidad e idea, que aún la veo desarrollada de una manera incipiente. Si uno lo ve desde una tecnología local y una cosmovisión particular de una determinada cultura o sociedad, hay que ver quién encarna eso, hay preguntas como mencionaste antes, preguntas antropológicas y sociológicas, que no están bien resueltas, me parece bien la idea, pero quizás no sea eso, hay que explorarlo…

RF: Es complejo plantearse una tecnodiversidad centrada en una cosmovisión local, cuando nuestras cosmopolíticas latinoamericanas no están bien delineadas…

JB: Exactamente. Me preguntaba eso a raíz de un curso que debo dar en España: ¿que sería una tecnopolítica, una tecnodiversidad o una cosmotécnica latinoamericana –ocupando el término de Hui–, existirá aquello? Él lo intenta hacer con China, según una cosmología basada en el Chi y el Tao, centrada en el camino y la fuerza que permiten comprenderlo desde una visión determinada del mundo, lo que lleva a una compresión cosmotécnica que es inconmensurable con la cosmovisión occidental europea. ¿Habrá algo así acá? Es una exploración que vale la pena hacer. Para mi, en Latinoamérica, es más híbrida la cosa, nosotros asentamos nuestra cosmología en un conflicto: la conquista como depredación y aniquilación.  El proyecto Cybersyn es un ejemplo de una tecnodiversidad propia. Chile es un país que nace de un fuerte conflicto, es uno de los últimos países donde los españoles consiguen sólo tardíamente dominar a los pueblos originarios, y de alguna manera, esa conflictividad chilena se manifiesta también en un proyecto como Cybersyn, que es un  proyecto de urgencia, destinado a sostener una utopía comunista democrática, una mezcla de novedades asociadas al conflicto y que muere como nace. Pienso que ahí hay algo interesante que nos signa como territorio, como espacio y cosmología. No me parece una mala idea pensar nuestra propia cosmotécnica y creo está ocurriendo, y es esperanzador que esté ocurriendo donde libremente tomamos autores europeos y libremente pensamos entre nosotros, eso es algo que signa quienes somos y quizás por ahí surja eso, quizá no sea la cosmotécnica en términos de tecnodiversidad, quizá sea como decía  Manolo (Pablo Rodriguez): la tercera cibernética, o alguna cosa que nos permita, desde nuestras realidades y nuestra historia –pero también, desde nuestra línea intelectual que es diferente y ha sido siempre una red intelectual híbrida–, donde surjan las ideas nuevas que hacen falta, porque es claro que el mundo central está sin ideas para lidiar con esto, entonces quizá surjan de otros lados.

RF: Precisamente, tomando este punto de la hibridación latinoamericana, algo que surge en nuestra mirada cosmotécnica frente a los objetos técnicos originarios, es que reproducimos un enfoque occidentalizado del mismo, ya que perdimos esa información respecto a este sistema en todo este proceso de barbarie que mencionas, por dar un ejemplo, el quipu, hoy en día se le clasifica como un ordenador y se le otorga cualidades que hace un ordenador, cuando su arquitectura, diseño y materialidad es totalmente diferente a la de una computadora, porque de igual modo no sabemos a ciencia cierta sus procesos lógicos o de información que contiene. 

JB: Sí, hay diálogos que deben ocurrir en este tema, muchos más, y ver qué apropiaciones y qué desarrollo propio hay con esto. Tomando tu pregunta de hace un momento atrás: ¿qué hay que saber como ciudadano común en términos tecnológicos? Simondon se quejaba en los 60s, que dentro del mundo occidental se requerían ciertos conocimientos científicos para vivir, por ejemplo, que la tierra es esférica o semiesférica, que las bacterias son combatidas por antibióticos y no los virus; algunos conocimientos para vivir en sociedad, sin embargo, en tecnología nadie necesitaba saber nada, uno podía ignorar los sistemas más elementales técnicos, en cómo funciona una máquina de vapor, por ejemplo, y vivir de lo más bien. Simondon decía que en realidad no se podían ignorar esos sistemas, porque el problema es que se genera una alienación que trae muchas consecuencias, y bueno, uno podría decir que curiosamente en el siglo XXI no hace falta saber cosas elementales de ciencia, por ejemplo, mucha gente parece poder vivir presuponiendo que los virus no existen, que si toma vacunas puede morir, que la tierra es plana, que los lagartos gobiernan el mundo…Es curioso, por un lado, y por otro, no es independiente que esas “creencias” circulen, en parte por la enorme incomprensión de las tecnologías digitales. En este punto, no sé si entender las tecnologías digitales ayudaría a la gente a liberarse de esas mitologías, pero efectivamente hace falta, por lo menos, y eso volviendo a lo dicho anteriormente, saber suficiente de tecnología digital para poder entablar diálogos sobre esto, entender suficiente para poder hablar de ellas en todos los circuitos sociales y no solo en los especializados, que haya un diálogo ahí y estemos informados sobre dónde estamos y cuáles son los desafíos y los peligros del presente, algo que está lejos de ser explícito.

RF: ¿Cómo ves la adaptación digital en la educación finlandesa frente a estos desafíos?

JB: No creo necesario que toda la agencia sea a través de las computadoras, sin embargo, Finlandia tiene algo que considero más valioso, el aprendizaje de programación en todos los niveles de la educación. Es una competencia que tiene que ser aprendida, yo creo que eso libera bastante porque ayuda a entender in situ los vínculos entre lenguaje y mecanismo, y ver que ese vínculo, no está dado de una vez para siempre, que no es un destino, que no es fatalista, que hay un juego ahí para hacer. Esto último es otro de los peligros menores que nos obtura mucho el pensamiento. En política se escucha mucho este pensamiento: “las tecnologías son de ellos, nosotros nos dedicamos a ir hablar con la gente”. Digo no, ni una ni la otra, si vamos hablar con la gente hagamos política como sabemos, pero si no hacemos políticas a través de las tecnologías vamos a perder de nuevo. No obstante, va más allá de eso, está este mito de que hoy la tecnología digital es la propiedad de 4 o 5 corporaciones que son las que deciden todo, eso es falso; hay muchísima producción tecnológica por fuera, el movimiento de software libre es, por ejemplo, un lugar de gran producción tecnológica, producen con otras reglas, con otros objetivos, con otras herramientas, y eso impacta en el ecosistema de la tecnología digital actual y va seguir haciéndolo. En ese sentido, me parece mucho más interesante ese mundo que la imagen de las corporaciones todopoderosas que pueden hacer lo que quieren. Socialmente, tienen un poder real concreto sobre muchas poblaciones, ahora eso no significa que sean el monopolio de ese poder ni mucho menos.  Lo que se debe promover es tener nuestros propios horizontes, planes y desarrollo, y los hay, no es que haya que partir de cero, es simplemente integrar y dialogar mucho. Lo he visto últimamente con el tema de la pandemia, herramientas de seguimientos, en Córdoba creamos nuevas herramientas de seguimiento de casos y así la producción de software orientado a fines sociales es enorme, y solo con mejores diálogos y comprensiones está al orden del día construir un proyecto común psico-socio-tecno-lógico.

RF: Finalmente, retomando lo dicho por Stiegler sobre los largos circuitos y cortocircuitos en la educación, y tomando este ejemplo finlandés, aquí en Chile, por ejemplo, se discute sobre las nuevas políticas frente a la inteligencia artificial ¿De qué manera estos tres niveles (psico-socio-tecnológico), podrían ser pensados al interior de los procesos educativos?

JB: Me parece que son áreas bastante heterogéneas. Aquí, por ejemplo, durante el macrismo hubo un plan de inteligencia artificial básicamente corporativo, y de vuelta “cajanegrizado” en el desarrollo, lo cual, considero, es todo lo contrario a lo que hay que hacer, han mitologizado lo que significa la inteligencia artificial. La noción de Inteligencia Artificial, un sintagma que hace 30 años estaba desprestigiado, luego toma otro sentido con el machine learning, pero también se va a desprestigiar porque no es una inteligencia, es más como una herramienta inteligente, pero ese sintagma mismo es confuso y da lugar a apropiaciones en proyectos de políticas públicas que suelen ser bastante pobres, que ponen tantas expectativas en cosas que no están, y descuidan los problemas sociales que sí tienen;, dicho eso, a mi me parece que, como dice Stiegler, “hay que trabajar en construir circuitos más largos de individuación y transindividualidad”, o sea hay que romper los cortocircuitos que producen la aplicación en tecnologías y una forma es un vínculo con la tecnología mucho más creativo, la programación es el vínculo privilegiado para crear estos vínculos con la tecnología digital. El otro tema que toma Stiegler tiene que ver con los problemas en la atención, que realmente es una de las consecuencias directas y apreciables del pensamiento organológico, y tiene que dar cuenta hoy porque la atención es una de las cosas que si se ha puesto como objetivo de muchos de los megadesarrollos de la inteligencia artificial,  capturar la atención y por lo tanto en gran parte están destruyendo otras formas de atención a niveles masivos y acelerados, todo eso da lugar a algo muy peligroso. Stiegler, en su libro Estados de shock, va decir que el rol de la educación superior hoy es recuperar la forma de atención profunda necesaria para el logos, para pensar y tener discursos, o como mencioné, condiciones de inteligibilidad del mundo; esa misma atención está actualmente disputando con una industria masiva y prolífica de dispositivos atencionales, o sea los peligros están en todos lados, no es que no hay peligros, lo que digo es que hay caminos donde se tiene que sortear estos peligros y que posiblemente no podamos; hay que asumir como posibilidad concreta que estemos ante la extinción de lo humano como lo creíamos, y no para dar lugar a una mejor cosa, sino para dar lugar a un espacio tribal oscurantista y violento, y la gente ya no tenga la capacidad ni siquiera de pensar. Hace un tiempo un filósofo colombiano/inglés Adrian Cussins dio una charla en Córdoba que se llamaba Historia de la extinción de la humanidad y él decía que el problema está justamente en ese equilibrio de competencias entre coordinación y comprensión del trabajo humano. Lo que permite grandes proyectos, desde las pirámides egipcias hasta la estación espacial internacional, es coordinación de horas de trabajo puesta en un objetivo, pero hasta ahora esa coordinación estaba puesta en objetivos comprensibles, hoy no, porque los programas de computadoras están haciendo algo que nadie comprende ya. Por ejemplo, nadie comprende cómo funciona la bolsa de valores, y sin embargo, esos programas que manejan la bolsa de valores favorecen enteramente la especulación por sobre la inversión, que claramente maximiza el valor especulativo, luego están destruyendo la propia economía capitalista, haciendo una burbuja, pero ya nadie entiende por qué pasa eso, porque son programas de teoría de juegos asociados a reconocimiento de patrones, programas evolutivos que han desarrollado durante años. Son realmente grandes Juggernaut (villano de Marvel) que ya casi no tienen ninguna teleología

RF: ¿Podríamos entonces decir que la coordinación se viene transformando en una delegación?

JB: Bueno eso es lo que dirían algunos, en parte sí ocurren delegaciones y eso es un problema de decisiones de sistemas en algunos casos, yo no creo que esa delegación sea el único camino que debemos tener, yo creo el mejor camino es la integración, el mismo Dennett decía que hay dos tipos de herramientas cognitivas, usando el ejemplo del bulldozer que aumenta la fuerza y que un sujeto sin fuerza puede usarla, pero que el cuerpo humano sigue siendo igual, o las máquinas que lo ayudan a desarrollar más fuerza  a nosotros mismos. Esto mismo sucede con las herramientas cognitivas: hay herramientas que se integran a un desarrollo cognitivo propio y otros que se delegan, muchas de las herramientas cognitivas son del estilo de la bulldozer, entonces el asunto será buscar y desarrollar herramientas que sean más como el gimnasio, que desarrolle nuestras mejores capacidades conjuntas cognitivas y de comprensión, junto con esas nuevas capacidades y coordinaciones, que a su vez, de manera inevitable,  habrá que desarrollarlas  mediando con esas grandes y novedosas entidades cognitivas que hemos podido construir.


Imagen:

Juan Grifone, Estudo morfológico dos corpos cibernéticos 02 Painting