Alfredo Vallejo, máster FCST 2024-2025: “La formalización en la cognición sólo está limitada por nuestro estado de conocimiento”. Parte 2

Entrevista a Alfredo Vallejo en la defensa de su Trabajo Fin de Máster (TFM) “Esbozo de un modelo formal para la cognición: Perspectivas desde Deleuze” el día 29 de septiembre de 2025. Alicia Benaiges, Alberto García, Gaizka Valencia, Miguel Vivanco y Oier Romillo.

Tu propuesta acerca de los procesos cognitivos parece que trata de distanciarse, en cierto modo, de la tradición aristotélica (sensibilidad, aprehensión, abstracción…), ¿hasta qué punto crees que se logra esto? ¿Qué lugar ocupan los universales (humanidad, lo sólido o lo rojo) en el modelo de cognición que propones y cómo la situarías en la tradición de este problema?

Pues, en ese sentido, he de reconocer que ni siquiera me había planteado su relación con la tradición aristotélica. Lo que tengo claro es que nunca he intentado activamente marcar esa distancia y, de hecho, considero que mi propuesta se puede releer aristotélicamente y tampoco hay un distanciamiento o refutación total. Hay una dimensión de la sensibilidad como flujo perceptivo, una dimensión de aprehensión como temporalización durativa de la percepción, y una dimensión de la abstracción. En este modelo los sentidos se procesan de forma independiente en las cortezas sensoriales primarias y secundarias donde se pasa de información muy rica y ruidosa a la extracción de múltiples estructuras y patrones, una reducción de la dimensionalidad de la información que permite un flujo granular, como el descrito por Aristóteles, mientras que la corteza asociativa se encarga de operar como ese sentido común en el que se integran el resto de modalidades sensoriales. No solamente las aristotélicas, sino también la propiocepción y la interocepción, es decir, la sensación de posicionalidad de nuestro cuerpo, en la que en todo momento sabemos dónde están nuestras extremidades aunque no las veamos, y el flujo de sensaciones viscerales y de los procesos de nuestro cuerpo. Finalmente, la abstracción sería la del córtex prefrontal, que es donde se lleva a cabo el procesamiento masivo del flujo ya abstraído y estructurado de la corteza de asociación.

La diferencia es que, como este modelo es anti-representacionalista, la imaginación ya no opera con imágenes, al contrario, el modelo introduce explícitamente una retroalimentación continua en la que el flujo actual se integra y hace coherente con las restricciones impuestas por el proceso acumulado. Pero crucialmente aquí no se estaría modelando la imaginación desde la imagen, sino desde la estructura genética a partir de la cual emerge la imagen misma. Y como esto ahorra el problema de la temporalización de las imágenes, la cuestión es que el proceso está estructurado de forma distinta. No hay un flujo unidireccional de lo concreto a lo abstracto, en tanto que la atención del agente modula el flujo de abstracción permitiendo una retroalimentación continua del mismo, ni la extracción de universales ocurre al final del proceso. Al contrario, la abstracción ocurre en múltiples capas y niveles, extrayendo invariantes del proceso. Aquí está la diferencia crucial con Aristóteles: para él, el intelecto agente y paciente operan solamente en el último nivel. El primero selecciona estructuras relevantes e informativas, la «luz» que ilumina un campo de potenciales, y lo determina bajo cierto modo concreto; mientras que el segundo es el potencial puro para diferenciarse o actualizarse bajo cualquier situación. Pero el error de Aristóteles reside en haber limitado esta estructura al último nivel. El universal es el límite de abstracción en el que un individuo pierde toda concreción y se extraen de él sus invariantes esenciales. Pero haciéndolo así, luego se plantea el problema de cómo los universales se pueden encontrar en las cosas, en tanto que son el límite de una idealización. El universal “árbol” es una estructura que captura una forma esencial, una serie de propiedades universales a las que converge todo proceso de actualización “árbol”, pero lo más interesante del problema se pierde y nos quedamos con la abstracción de la forma y con sus propiedades universales y eternas. Los universales, por tanto, han de ser invariantes procesuales y su estructura, granular multinivel, que nos permite atar la relación entre lo universal y lo singular, como decía Deleuze, donde lo más universal es la singularidad preindividual que estructura los potenciales de actualización de cualquier resultado concreto. Por otra parte, al no limitar estas estructuras de la abstracción al último nivel, se da una descripción mucho más granular en la que podemos tomar universales de cada uno de los procesos intermedios. No hay diferencia de naturaleza en la lógica del proceso de abstracción, sino diferencia de grado en la integración y el grado de abstracción de la información con la que se trabaja. Además, no es que haya un intelecto agente y otro paciente por nivel, sino al contrario, por cada nivel de abstracción tenemos distintos núcleos autónomos procesando distintos flujos perceptivos y compartiendo sus resultados sobre los invariantes extraídos. La posible estructura coherente resultante es un mecanismo de votación y consenso colectivo en el que la información que se procesa por una columna se distribuye lateralmente al resto como restricciones sobre las invariantes identificadas. El conjunto de invariantes colectivas que se corresponden con esas restricciones (por ejemplo, a nivel visual, la estructura de bordes y formas e intensidades que luego llamamos colores y cualidades particulares en cierto momento inicial puede ser coherente con muchas percepciones globales coherentes a medida que se procesa el flujo continuo y se acumulan las restricciones, cada vez hay menos posibles candidatos coherentes hasta que al final se converge a una invariante unificada que integra la estructura de invariantes identificadas como restricciones del nivel inferior). Más importante aún la dimensión activa de estos micro-intelectos agentes se traduce en que pueden modular su atención, refinar y ser más sensibles a ciertas diferencias, como esa luz aristotélica, que permite la selección y la iluminación de ese potencial indeterminado en una actualización concreta. Resumiendo, mi principal diferencia reside en que la lógica de la abstracción no es monológica, sino multiescala, distribuida, deliberativa y colaborativa. Al mismo tiempo, se evita la disputa en torno a los universales al anclarlos en la estructura continua de abstracciones y cómo estos procesos de abstracción son inmanentes a flujos materiales multinivel que también están estructurados por sus propios invariantes y tendencias de flujos.

¿Cómo has articulado dichas concepciones filosóficas, con el enactivismo y su enfoque en la adaptación al entorno mediante el flujo sensomotor?

Para mí, un enfoque anti-representacionalista como el Deleuziano encuentra su mejor aliado en el enactivismo. Hay estructuras como las 3 síntesis temporales, la síntesis del hábito, de la memoria y del futuro que se pueden traducir a la propuesta de los horizontes temporales de Varela e incluso permite expandirla. Para Varela la conciencia temporal emerge de un proceso recursivo de acople de interacciones neuronales en distintas escalas temporales. La unificación de características perceptivas locales, que determina la textura del instante, es el nivel micro resultado de la actividad neuronal de pequeñas poblaciones reducida que se corresponde con las ondas gamma (de 100 a 30 Hz). La actividad de estas poblaciones locales se integra en un nivel meso, las ondas alfa y beta (de 30 a 8 Hz), que crean el horizonte del presente vivido en el que siempre se produce una retención del pasado y una anticipación del futuro. Finalmente, esta actividad se integra en la experiencia narrativa y episódica que se corresponde con las ondas theta y delta (menores de 8 Hz). Deleuze en el fondo solamente pide añadir un nivel adicional, que es la estructura misma del cambio de esa conciencia en ese nivel narrativo, donde se añaden momentos que cambian radicalmente la estructura cognitiva.

Pero creo que la cuestión fundamental es el papel de la acción en la individuación de nuestras estructuras cognitivas. Pensémoslo por un momento, qué gana un modelo que introduce la dimensión activa en sus capacidades cognitivas frente a uno que simplemente representa. La representación en el fondo es la extracción de cierta correlación, mientras que la acción permite añadir una fuente de retroalimentación continua, ancla la correlación, al dotar al proceso de una capacidad de perturbar su flujo de entrada y de anticipar de forma coherente como ciertas acciones se traducen en la transformación de cierto flujo perceptivo. Por ejemplo: ahora mismo sé que si giro la cabeza hacia la derecha, mi campo perceptivo va a cambiar de un modo predecible. No es solamente que sepa que es lo que hay en mi entorno, sino cómo modificar mí estructura para que mi percepción del entorno cambie de forma coherente.

Finalmente, he de confesar que mi modelo traiciona un poco el espíritu del enactivismo en dos puntos. El primero es que solamente me estoy centrando en el flujo de información que se da sobre la estructura neuronal, dejando fuera su estructura material corporal y afectiva. Pero esto ha sido un mal necesario para reducir la complejidad del problema inicial y mi intención es añadir esas dimensiones en el futuro ya que solo así se puede capturar la cognición en toda su complejidad y potencialidad. La segunda se puede considerar más problemática para algunos y es que en mi propuesta tenemos micro-agentes enactivos, las micro-columnas corticales, que son columnas de entre una 80 y 110 neuronas distribuidas en distintas capas que en su conjunto tienen un flujo en el que reciben información sensorial, la procesan y asocian extrayendo invariantes, utilizan esta información para decidir qué acciones realizar y cómo modificar su flujo de entrada junto con una entrada continua de contexto de otras regiones que contribuye a enmarcar lo que percibe y qué acciones realizar. Esto se presenta como problemático para algunas personas porque hablar de información y su procesamiento suena sospechosamente parecido a lo que proponen computacionalistas y el representacionalismo en general. Pero creo que se explicita que todos y cada uno de ese micro-agente no solamente están acoplados a un flujo perceptivo, sino que también tienen la capacidad para activamente perturbarlo de una forma predecible y consistente. Eso es lo que los hace realmente enactivos. La única diferencia reside en que es un propuesta distribuida y no pretende tratar la cognición como una estructura monolítica, sino distribuirla en distintos niveles y subagentes, que es en el fondo algo bastante similar aunque con limitaciones a la estructura de las máquinas deseantes, y el flujo continuo de exigencias, necesidades y deseos que percibimos como inconsistente. El flujo sensomotor describe perfectamente la estructura de feedbacks y flujos distribuida y multinivel que considero que se encuentra en la base de la cognición. En realidad es la estructura

Yendo directamente a la formalización de la cognición. Hay filósofos que han utilizado las matemáticas para la ontología (Badiou, Priest o Meillasoux), ¿crees que tu modelo comparte la misma estrategia?

Creo que primero sería importante explicitar los distintos modos en que estos filósofos han utilizado las matemáticas, porque me parece que hay diferencias sustanciales. Me gustaría distinguir entre una motivación interior a las matemáticas, es decir, reformular la ontología en ciertos términos para solucionar problemas matemáticos y filosóficos, de los fundamentos de las matemáticas como es el intento del dialetheismo de Priest. La motivación de Badiou y Meillassoux es exterior al campo de las matemáticas y responde más tanto a criterios ideológicos, como a estándares de formalidad y rigor. Tampoco considero que no haya valor en lo que proponen, solamente rechazo la discusión agonística de cuál de todas sus propuestas es la verdadera y fundamental. Porque eso es una consecuencia del ideal monológico y la aspiración a tener el sistema único y total que tenga la última palabra sobre todo. Yo en ese sentido no comparto su estrategia y, sobre todo, lo que me parece más crucial distinguir, no comparto ni las herramientas ni las asunciones ontológicas. Lo que comparten todos ellos es el uso de la teoría de conjuntos: Priest reformula la teoría de conjuntos estándar con nuevos axiomas que permitan aceptar contradicciones como verdaderas al rechazar también tercio excluso, mientras que Badiou y Melillasoux las reinterpretan filosóficamente para capturar distintos presupuestos ontológicos. En primer lugar, me parece que la propuesta de Priest está más alineada con mi proyecto, en tanto que en su planteamiento el dialetheismo es un intento de capturar la estructura de la indeterminación, aunque él lo hace de una forma rígida y estática a consecuencia de su adscripción a una versión modificada de ZFC paraconsistente, para poder admitir contradicciones sin destruir la estructura. Esto en el fondo ha de verse como una herencia de la escuela de Meinong en la que incluso los objetos imposibles o contradictorios tienen cierto grado de existencia, como por ejemplo el conjunto de todos los conjuntos que no se pertenecen a sí mismos.

Badiou reinterpreta la teoría de conjuntos para capturar el ser en tanto que ser y la estructura evolutiva de la verdad en el modo en que se presenta a un sujeto bajo la toma de posición frente a un acontecimiento que reabre el orden de la verdad y permite construirla y extenderla como la hipótesis subjetiva de un sujeto. En cierto sentido me interesa la cuestión de la evolución de la verdad, pero como él separa el orden del ser del orden de la verdad, en tanto que el sujeto es precisamente un acontecimiento, un proceso de emergencia de verdad que toma necesariamente partido siempre por cierta posición, eso es lo que le permite describir un orden pleno y total del ser como múltiple genérico y al mismo tiempo capturar la evolución de la verdad de modo extrínseco como un forcing que fuerza una extensión sobre ese espacio total sin tener que alterar el orden del ser. Pero considero que es más interesante estudiar cómo la verdad emerge inmanentemente como resultado constructivo de las restricciones emergentes del proceso y su acumulación histórica, ya que ese modo de plantear la ontología y la verdad responde más a exigencias políticas e ideológicas para hacerlo coherente con su maoísmo y su interpretación del sujeto lacaniano. Lo más triste de su situación es que Badiou se enroca en la teoría de conjuntos y gran parte de todos estos problemas surgen ahí. Hay proyectos más modernos de refundación de las matemáticas como la teoría de categorías o los tipos de homotopia que utilizo yo, en la que sí se puede dar cuenta al menos de la emergencia inmanente de la verdad a partir de la realidad misma.

 Por otra parte, Melillasoux también está intentando plantear una lógica de la determinación no subordinada al principio de razón suficiente y, en el fondo, lo que hace es desechar la noción de Infinito absoluto de Cantor, que es la cota superior total de la jerarquía de infinitos como el punto de máxima plenitud, que él identificaba con Dios. Meillassoux rechaza esta al negar el principio de razón suficiente en su versión precrítica, al plantear su argumento del conjunto potencia, como podemos continuar la lista de conjuntos transfinitos aplicando recursivamente está operación de potenciación para crear otro nuevo conjunto inconmensurable jerárquicamente. El problema de su propuesta reside, en mi opinión, en que él aplica la razón especulativa de forma acrítica a todo su argumento de la necesidad de la contingencia a partir del que se funda el hipercaos. Me explico, para poder distinguir, en primer lugar, entre necesidad y contingencia del modo en que él lo hace, hay una presuposición estructural del principio de tercio excluso y de la lógica clásica para concluir especulativamente que lo único que es absolutamente necesario es lo contingente. Hay una presuposición de que el único modo de operar de forma consistente con estos conceptos es asignarles valores de verdad bivalentes y explícitos: o es contingente o necesario. Esto se traduce en que en el universo de Melillasoux se afirma la absoluta contingencia de todo, todo puede cambiar en cualquier momento, pero esto nos priva de plantear la pregunta ontológica de la lógica de este devenir. Rechazar el principio de razón suficiente implica esto. Esto no es accidental, en tanto que lo que está describiendo es la indeterminación ontológica del instante tal y como se le presenta a un sujeto. Si partimos de este instante y negamos la razón suficiente lo único que nos queda es una multiplicidad inconsistente de la que se deriva cualquier cosa, pero no podemos capturar la lógica dinámica del devenir.

Considero que si operas en un universo de discurso que presupone la lógica clásica, especialmente en el caso de la teoría de conjuntos, todo lo que demuestres solamente se mantiene para aquellos sistemas que operan con esos presupuestos. Pretender ir más allá y elevarse a legislar sobre la totalidad es una presuposición monológica y, especialmente Badiou y Melillasoux, lo hacen intentando llevar sus teorías más allá de su universo de discurso local y coherente en el que sus propuestas tienen sentido. De hecho, la polémica de Badiou con Deleuze en el fondo no responde más que a las pretensiones monológicas de Badiou a la hora de refutar cualquier otra propuesta sobre las multiplicidades que no sea la suya: un universo con un ser puro y pleno sobre el que nosotros irrumpimos localmente para hacer emerger la verdad de forma parcial sin reconocer que Deleuze opera con una lógica completamente distinta y especialmente sin asumir un ser total, omnicomprensivo y estático.

Mientras tanto las herramientas que yo he utilizado son distintas intentamos modelar el cambio con la teoría de conjuntos, sino, como señalamos antes, con la teoría de tipos de Homotopia que es inherentemente dinámica, diferencial y constructiva; lo cual evita el problema de la determinación que tienen cualquiera de las otras tres propuestas. Para Badiou la determinación es un proceso local que no afecta al ser, sino solamente al conocer (y mejor dejamos de lado cómo al centrarse en el sujeto de esa manera no se puede plantear la Génesis material del sujeto mismo y de la realidad en torno a la que se está posicionando). Melillasoux, como bien señala Harman, es un ocasionalista sin Dios. Solamente existe la indeterminación ontológica absoluta del hipercaos. Mientras que para Priest no hay determinación porque operamos con un espacio lógico omnicomprensivo y omnímodamente determinado, como es uno en el que hasta lo contradictorio tiene un grado de realidad aunque no de existencia como en el dialetheismo, porque determinamos hasta lo indeterminado como tal, o no podemos siquiera plantearlo porque para que haya una determinación hace falta una razón suficiente. En mi modelo lo indeterminado tiene realidad. Como potencial objetivo para la determinación bajo una actualización. Ni se aplica el tercio excluso ni tampoco la razón suficiente en el sentido de una estructura última que dicta externamente la lógica de la evolución, en tanto que ésta es inmanente y relativa a sus procesos de autoproducción. Esto es lo que Deleuze llamaba el Principio de Razón Suficiente de la diferencia. Un modelo de la cognición que no capture y ponga en el centro su génesis productiva y su evolución en toda su radicalidad no dejará de ser una idealización todavía más basta y deformante que la que propongo yo.

¿Pretende tu propuesta matematizar la ontología o, al menos, los procesos cognitivos?

Se podría decir que sí pero, una vez más, creo que con lo que he planteado hasta la fecha se puede apreciar que para mí una matematización no tiene la misma carga ni normatividad ontológica que la que tiene habitualmente. Generalmente cuando la gente habla de algo matematizado se refiere a sentar cátedra sobre un tema partiendo de los fundamentos indubitables. Pero la matemática, a pesar de ser increíblemente general, opera dentro de asunciones metamatemáticas tanto normativas como ontológicas; la estructura o características que tienen que tener las matemáticas y el compromiso ontológico con una serie de modos privilegiados de modelar dicha realidad matemática, especialmente la noción de punto estático y un ideal de determinación en la que todo está plenamente determinado. Yo no hago eso, por una parte porque creo que es posible todavía una fundamentación de las matemáticas en términos procesuales, aunque sería monumentalmente más complicado; y, por otro, porque rechazo el ideal monológico que discutíamos antes. Tampoco creo que matematizar la cognición supondría dar su descripción más pura y fundamental capaz de callar todos los debates de una vez y para siempre, así como negar la validez de otro discurso o teoría sobre la misma que no sea matemática y formal.

En caso de ser así, ¿cómo crees que afectan las críticas que se han hecho a estos autores (principalmente a Badiou) por uso de las matemáticas en ontología?

Creo que con lo que hemos discutido, esta pregunta queda bastante clara, aunque me gustaría explicitar que yo no tengo problema con que se matematice la ontología o se intenten importar conceptos de otros campos. Para mí lo importante es no caer en el monologismo y en ser honesto y crítico con nuestro uso de ellas, para que no deforme la estructura original y se convierta en una suerte de caja negra. Pero considero que tampoco están importando nada en sus interpretaciones ontológicas que no esté ya presupuesto por la ontología de esos marcos matemáticos; es decir, que yo no veo metáforas sino interpretaciones coherentes con la estructura formal subyacente. Y considero que mi propuesta es inmune a esas críticas, por todo lo que he dicho hasta la fecha. Yo ni pretendo erigir una teoría última, ni considero que sea superior. Y, más importante aún, mi formalización es interior al campo de las ciencias cognitivas, es la especificación de una estructura de procesos biofísicos sobremapeada sobre una serie de estructuras formales que permiten expresar rigurosamente los conceptos y propiedades que ha de tener la cognición para que sea dinámica y genética.

¿Crees que la realidad puede ser matematizable?

Creo que sí, pero sin pretender que la realidad sea matemática, que son dos cuestiones distintas. La matemática es una práctica humana, que históricamente ha estado ligada a la trascendencia de la descripción última de la realidad en términos formales y abstractos, o una dimensión místico religiosa como la de los pitagóricos, Platón o algunas filosofías indias primitivas. Pero realmente, son una forma de tecnología humana extremadamente útil, porque intenta llegar a los límites de la abstracción operando en un espacio de problemas ideales, por medio de símbolos, operaciones y procesos constructivos, así como el establecimiento de estándares altísimos para la demostración. Los propios símbolos y la notación son cruciales y su evolución puede facilitar modelar y comprender mejor la estructura subyacente con la que se está operando. Eso es lo que le da esa suerte de existencia autónoma, eterna e independiente de nosotros. Una vez que demostramos que 2 + 2 = 4, éste pasa a ser cierto atemporalmente. Podemos proyectar esa nueva verdad con fecha de producción histórica, sobre todo su pasado y su porvenir.

Pero no es magia, es la consecuencia de un proceso de abstracción, que nos permite tomar una situación corriente, y purificarla de todo lo accidental e irrelevante para esa cuestión y trabajar solamente con esas estructuras tan fina y precisamente definida que se le pueden asignar símbolos y operaciones perfectamente definidas y consistentes, que si sigues siempre permiten llevar a una garantía total de certeza y verdad en los resultados. Ese fue el estándar de oro que la filosofía clásica, la moderna, y en parte también la analítica toma de las matemáticas en su forma de proceder, en su ideal de corrección y demostrabilidad. Una vez que se comprende esto, las matemáticas no pueden convertirse en una plataforma especulativa para llegar al todo, ni menos aún importar sus estándares o sus estructuras para alcanzar el todo. Desde mi punto de vista, la realidad sí es matematizable, pero esa matematización de la misma también cambiará y evolucionará a medida que continuemos este proceso de purificación de situaciones ideales y concretización. Porque las matemáticas existen en la realidad, tienen sus propios espacios de estructuras y conceptos que hemos ido construyendo y desarrollando, e incluso nos permite interpretar gran parte de la realidad en virtud de su abstracción y formalidad. Pero esa estructura no ha existido desde siempre, sino que ha evolucionado a partir de los problemas y situaciones recurrentes que se nos han presentado y que hemos abstraído hasta formalizar. Es un lenguaje universal, pero no hay que confundir los términos y decir que la realidad habla ese lenguaje, está escrita en ese lenguaje o es reducible a él.

Y, considerando que la formalización de la cognición es un tema en disputa: ¿cuál ha sido el alcance de la formalización que te has propuesto?

La verdad es que ha sido bastante modesto, en el momento actual al menos. Como lo que he intentado ha sido construir una máquina con piezas de todas partes, trayendo tanto filosofías como herramientas y modelos que rara vez se encuentran conjuntados, mi objetivo actual fue producir una reinterpretación coherente de la metafísica de procesos y las propuestas de la cognición de Bergson y Deleuze. Esto es en sí mismo una demo de concepto, porque el trabajo principal se centró en comprender dichas estructuras matemáticas, asegurarse de que tenían las propiedades que me interesaban. Es decir, ser lo suficientemente potentes como para modelar los conceptos que yo quería discutir de un modo fidedigno. Y, especialmente, asegurarme de que se podían solapar entre ellas de forma coherente sin producir inconsistencias ni conflictos entre las distintas lógicas de esas estructuras. Es por ese motivo que en su estado actual la propuesta es bastante modesta en sus resultados, que han de entenderse más como una validación filosófica conceptual de una interpretación de ciertas estructuras matemáticas aplicadas a la estructura neuronal. Pero me parece que su auténtico éxito, más allá de esta formalización tentativa, es mostrar que distintas ramas de las matemáticas pueden integrarse para describir el flujo cognitivo de un modo tan granular y complejo. Es decir, el éxito no es solamente decir, “eh mira, estas estructuras permiten traducir a Deleuze”, sino “eh mira, estas estructuras matemáticas, desconectadas entre sí, pueden conectarse de forma rigurosa para modelar esta estructura de procesos”.

En tu opinión, ¿qué partes de la cognición crees que pueden ser modeladas con más éxito en el futuro próximo?

Creo que el horizonte actual al que estamos tendiendo es a formalizar los qualias. Por ejemplo, los trabajos de Tononi sobre los espacios de qualias y su aplicación a su teoría de la información integrada es uno de los pioneros. Con el avance de las técnicas de IA y de modelado y escaneo cerebral, cada vez tenemos más fácil comprender cómo los distintos procesos neurobiológicos se correlacionan, acoplan e integran para producir una estructura unificada así como la integración de todas las cualidades. Mientras que, por otra parte, creo que lo que más costará traducir es la parte más primaria, la dimensión afectiva y emotiva, así como todo su anclaje biológico, porque es un sistema del que dependen muchísimos procesos adicionales a distintas escalas: el flujo interoceptivo, flujos hormonales, su retroalimentación corporal, etc. Ese es el núcleo duro que considero requerirá un esfuerzo de comprensión interdisciplinar mucho más extenso y focalizado para poder atacarlo de forma exitosa.

Y, por acabar con este tema: ¿cuáles serían los límites de la formalización en la cognición?

Mi respuesta es bastante pragmática y deflacionaria: no creo que tenga más límites que nuestro estado de conocimiento. El desarrollo de los distintos campos y prácticas científicas que trabajan sobre la cognición nos aporta un flujo continuo de nuevos descubrimientos y modelos concretos de fenómenos y procesos que enriquecen nuestra visión de la cognición. Ese es el sustrato empírico del que se nutren las formalizaciones, así como también los desarrollos matemático-formales de otras ramas, así como los fenómenos biofísicos que participan de ella. Pero una vez más, quiero destacar que esto no se traduce en que algún día llegará el momento en que tengamos la teoría total y absoluta formalizada de un modo exquisito, al contrario, creo que siempre habrá margen para seguir iterando o incluso fragmentando la propuesta con distintas formalizaciones que capturen distintos aspectos, como es la ecología de marcos y modelos teóricos y conceptuales que encontramos a día de hoy en cualquier rama del conocimiento.

Para ir cerrando la entrevista, ¿de qué manera te ha ayudado el máster y sus contenidos en la elaboración del TFM?

Creo que este máster me ha dado principalmente herramientas para atacar la complejidad de un proyecto de investigación. En mi paso por la UNED era todo mucho más libre, se presuponía que si hacías un máster como ese ya sabías enfrentar un proyecto de investigación. Yo lo máximo que había hecho antes eran proyectos de aficionado, y las herramientas de gestión de proyectos que tenían eran para proyectos de ingeniería, que se alejan bastante de las particularidades de la labor investigadora. En contenidos he de decir que me ha servido para expandir y concretar muchas cosas que ya sabía y descubrir campos enteros como la filosofía de la medicina que me parecen fascinantes.

¿Cuáles son los próximos pasos en tu desarrollo académico y/o profesional?

Ahora mismo me encuentro en un momento de impasse, los próximos meses hasta año nuevo los dedicaré a intentar publicar algunos resultados del TFM e intentar refinar la propuesta. Pero cuando termine, a no ser que cambie mucho la cosa, lo más seguro es que busque un trabajo en inteligencia artificial que es un campo con el que me he reencontrado a raíz de mi investigación del TFM. Mi intención es seguir trabajando en el modelo y otras cuestiones filosóficas en mis ratos libres, pero ya más como un hobby. Porque me ha pasado que a raíz de intentar ganarme la vida con la filosofía entré en un bucle muy negativo en el que todo momento de tiempo libre es un momento para trabajar y optimizar con algo más, porque se supone que te gusta y encima es bueno para el business. Y creo que hacer filosofía desde el otro lado de la verja de la academia es un modo de poder dedicar mi tiempo a lo que realmente me importa y no a investigar un tema super nicho y específico, porque cuanto más ambicioso seas menos probabilidades tienes de obtener financiación. No se me entienda mal, respeto a todas las personas que hacen eso y no estoy diciendo que sus investigaciones no sean relevantes, es más una cuestión de divergencia de intereses y aspiraciones.

¿Qué harías diferente si volvieses a hacerlo? ¿Qué consejos darías a los nuevos alumnos de cara a afrontar el TFM?

Yo daría un consejo que es contrario a todo lo que van a decir y recomendar. Considero que un TFM es un momento bastante temprano de la carrera e incluso puede que para algunas personas el fin de su recorrido académico, así que por qué no irse con una traca final de despedida. Creo que es un buen momento para arriesgar, para ser ambicioso, para apuntar alto y pegar por encima de tu categoría. Obviamente es un trabajo muy reducido, pero al mismo tiempo es una oportunidad de valor incalculable para pensar en cuáles serían las bases de un gran proyecto y cómo ese tema en cuestión que vas a investigar es un paso necesario para ese horizonte por alcanzar.

Por otra parte, os recomendaría utilizar la IA de forma estratégica. No es solamente un gran asistente de investigación que permite aterrizar muy rápidamente en un campo obteniendo mucha información relevante que antes se tardarían horas o días en obtener, sino que es una gran herramienta para refinar y desarrollar ideas. La IA en ese sentido puede ser “un compañero” de investigación incansable, que siempre estará dispuesto a discutir vuestras ideas y a criticarlas. El problema del uso de la IA reside en tomar por buena cualquier cosa que diga, pero si se utiliza de forma crítica, utilizándolo como una forma para analizar nuestras ideas, criticarlas y revisarlas, lo que salga de ahí puede ser órdenes de magnitud mejor. Y sobre todo hay que investigar lo que nos dice pidiendo fuentes y comprobándolas, porque solamente así tenemos la certeza de que no está alucinando.

Creo que no haría nada distinto, no porque no haya cosas que mejorar y hacer mucho mejor, sino porque creo que de aplicar todo lo que he aprendido durante este trabajo a nivel de organización e investigación, saldría una cosa completamente distinta. En origen este trabajo iba a haber sido algo mucho más modesto sobre la aplicación de las redes Hopfield y la noción de virtualidad. Pero por el camino me puse a investigar otras cuestiones como parte de un proyecto paralelo sobre matemáticas y al final me acabé dando cuenta de que muchas de las estructuras y procesos que estaba estudiando se podían aprovechar para modelar la cognición y eso fue lo que me animó a tomar esta nueva dirección. Irónicamente, creo que en caso de haber hecho una investigación mucho más estructurada y centrada desde el principio, no se habrían dado las condiciones de posibilidad para entrar en contacto con estas otras ideas, y menos aún para integrarlas.

Muchas gracias.


Publicado

en

por

Etiquetas:

Comentarios

Deja un comentario

Descubre más desde Filosofia: Ciencia, Sociedad, Tecnología

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo