domingo, 12 de febrero de 2017

Del buen vivir (1 de 2)

   Por mucho que se los señale como padres de nuestra cultura, lo cierto es que los griegos tenían un modo de entender las cosas bastante alejado del nuestro. Uno no puede evitar cierta sonrisa amarga cuando lee que para Platón, para Sócrates, para sus contemporáneos, ética y política eran idénticas. Ser bueno y ser buen ciudadano constituían elementos inseparables. Platón argumentaba impecablemente que quien no sabe gobernarse a sí mismo, difícilmente sabrá gobernar la ciudad. Por tanto, quien aspire a gobernar deberá demostrar previamente la virtud que adorna todos sus actos. Esto, que resulta aplicable al gobernante, vale en realidad para cualquiera. El egoísta, el que busca el beneficio propio del modo más rápido posible, sólo puede hacerle daño a la sociedad, pues si no piensa en sus allegados inmediatos, en aquellos con los que comparte su vida diaria, difícilmente pensará en quienes sólo le rodean accidentalmente y a los que no le une vínculo afectivo alguno. A diferencia de Mandeville, a diferencia de Smith, a diferencia de todos los liberales de diferente cuño que en el mundo han sido, Sócrates, Platón, sólo creían en lo que podían ver, en lo que pudiera observarse y no en “manos ocultas”, cualidades invisibles ni milagrosos equilibrios jamás alcanzados. Únicamente lo demostrable, lo tangible, aquello que cualquiera pudiese observar e, incluso, cuantificar, merecía ser pesado en la balanza de quien pretendiera aspirar al título de benefactor de la comunidad.
   La época de Sócrates y Platón llegó a su fin con la conquista macedonia de toda Grecia. La concepción de que ética y política configuran una unidad comenzó a agrietarse tras la constitución del imperio. El Estado emergió como algo extraño, ajeno, lejano y decididamente supraindividual. Los ciudadanos aceptaron que debían cumplir una función en él y obedecer sus reglas, pero que su hogar, el lugar que habitaban, lo que originalmente designó el término ethos, había pasado a formar parte de su exclusiva competencia. La ética aparece en Aristóteles como una disciplina distinta de la política y cuyo objetivo ahora no consiste en crear buenos ciudadanos, sino en alcanzar la felicidad. A esta felicidad la llama también Aristóteles el “sumo bien” y es identificada con “vivir bien”, pues, dice Aristóteles, obrar virtuosamente y vivir bien son lo mismo. Una ética conformada por principios generales en contra de los intereses y deseos del sujeto le hubiese parecido a Aristóteles un disparate. 
   Pero Aristóteles no deja de ser discípulo de Platón y aunque ética y política se constituyen en él como disciplinas separadas, afirma que el fin del Estado consiste en buscar la felicidad para todos sus miembros o, por decirlo utilizando términos sinónimos, el Estado debe procurar que todos sus ciudadanos vivan bien. Un Estado que pretenda únicamente “vivir”, está viciado desde sus orígenes y sólo en la medida en que pueda proporcionar a sus ciudadanos un buen vivir puede decirse legitimado en su existencia. Este buen vivir tiene un doble componente, por una parte, una vida regida por la facultad más elevada que poseen los seres humanos y que los distingue de las bestias, es decir, la razón. Por otra, para que se pueda obrar racionalmente sus necesidades básicas deben estar cubiertas en lo que se refiere a alimentación, vivienda, ropa y demás. Aristóteles considera imposible que todos pueden alcanzar semejante meta. De hecho, sus planteamientos suponen una base de esclavos más o menos amplia pues casi al inicio de la Política nos aclara que hay dos tipos de esclavitud, la permanente y la temporal, también llamada “trabajo asalariado” (si bien este pasaje es controvertido en lo que se refiere a su traducción exacta). En la cantidad de esclavos que necesite un Estado se juzga, precisamente, su bondad. El mejor Estado, dice Aristóteles, no es el que tiene tal o cual régimen político, es el que tiene una clase media más extensa, es decir, el que engloba a una población capaz alcanzar el buen vivir más amplia. 
   No debe extrañarnos que las éticas que aparecen tras Aristóteles, renuncien a la dimensión política para centrarse en el individuo. Se barre bajo la alfombra el hecho de que pocos podrán aspirar a la felicidad, es decir, al buen vivir, quedando éste restringido a la pequeña comunidad o al individuo singular, caso del escepticismo. El escéptico niega la posibilidad del conocimiento, niega la existencia de la verdad, niega, incluso, la necesidad de aceptar que existan otros, para quedarse en la epojé, en la suspensión de juicio que permite una buena vida, rodeado de las mínimas condiciones materiales exigidas por Aritóteles. Que para disfrutar del tabaco de una pipa haya que dejar sin agua los huertos de medio país y eso origine hambrunas, es algo que al escéptico no le afecta pues él suspende su juicio acerca de la existencia de negritos hambrientos. Por mucho que se haya presentado como principio epistemológico más o menos saludable, el escepticismo ha debido su popularidad a esa capacidad para engendrar la buena vida que disfruta todo aquel que decide ignorar las condiciones materiales de su existencia o las consecuencias últimas de sus decisiones.
   Suele decirse que para los estoicos la virtud consiste en vivir de acuerdo con la naturaleza, pero se obvia que ellos definían ese vivir de acuerdo con las leyes que rigen el cosmos, una vez más, como el buen vivir. “Vivir noblemente”, “vivir según la naturaleza” y “vivir bien”, eran para los estoicos términos intercambiables. Si predicaban la liberación de las pasiones se debe a que ninguna vida puede ser buena durante mucho tiempo dejándose arrastrar por ellas. Las pasiones se hallan sometidas a una continua fluctuación, a un perpetuo cambio, que nos empujan hacia situaciones contrarias a los designios naturales y que, por tanto, sólo pueden conducir al desastre. Obrar de un modo racional o lo que es lo mismo, obrar de acuerdo con la ley universal, dado que el universo está regido por una ley racional, constituyen la base de la virtud y el secreto para vivir bien.
   Aunque partiendo de principios diferentes, no otra cosa vamos a encontrar en la ética hedonista. Epicuro critica a quienes aconsejan “vivir bien al joven y morir bien al viejo”, por varios motivos. En primer lugar, porque el buen vivir no depende de la edad y en todas las épocas de la vida pueden encontrarse cosas agradables de las que disfrutar. En segundo lugar, porque vivir bien y morir bien son dos aspectos de lo mismo. No porque morir bien implique haber vivido bien o porque vivir bien implique saber morir, sino porque los consejos que nos da Epicuro para vivir bien incluyen eliminar el miedo a la muerte, así que si hemos aprendido a vivir bien, nada habrá en  la muerte que nos pueda parecer “malo”. El mismo principio conduce a Epicuro a rechazar el miedo a los dioses y a prescribirnos la búsqueda del placer, pues todo ello contribuye a la buena vida. Aún más, entendida de esta manera, una buena vida es aquella en la que se ha evitado tanto como ha sido posible el dolor. Buscar el placer y evitar el dolor se convierte, por tanto, en la máxima capital de todo el planteamiento epicúreo.

domingo, 5 de febrero de 2017

Que yo fuera o fuese interlocutado (2 de 2)

   Hubo una vez unos hombres, entre los primeros que llegaron a Europa, que, paseando por una bonita playa, "tuvieron la necesidad" de ponerle un nombre, así que sacaron del limbo de las palabras una cualquiera y llamaron a aquel sitio Cádiz o alguna cosa parecida. Del mismo modo, cierto explorador de territorios más septentrionales, por ejemplo, de la Rioja, decidió ponerle al pico más alto de la Sierra de la Demanda el nombre de su cuñado, Lorenzo o alguna cosa parecida. Desde entonces se usan Cádiz y San Lorenzo para designar esos dos puntos geográficos. Ciertamente, San Lorenzo se usa aquí para esto y en “San Lorenzo fue martirizado el 10 de agosto de 258", se usa para otra cosa. Resulta lógico pues no existe un significado común a juegos del lenguaje distintos. Esto conduce a un pequeño problema porque cuando Felipe II ordenó realizar una encuesta en la que se incluía aclarar a qué se debía el nombre de cada pueblo, un tercio de los encuestados (de hecho, los únicos que parecían saber por qué la localidad donde vivían se llamaba así), hacían alusión a que en el pueblo había  “peras” o “una alameda”. A los habitantes de Siles parece que la pregunta les tocó su vena etimológica y adujeron que el pueblo debía su nombre a que el verbo latino "sileo" significa callar y el pueblo siempre se encuentra callado. Pero mi respuesta favorita, sin duda, corresponde a los cordobeses de El Guijo, quienes afirmaron que el pueblo se llama de esa manera porque se halla rodeado de piedras pequeñas (“guijos”), lo cual no deja de resultar sorprendente porque el terreno sobre el que se asienta el pueblo, en realidad, tiene un origen volcánico y el flujo de agua más cercano, el Arroyo de la Matanza, ni siquiera pasa por la localidad. Todavía mejor, si nos hallásemos ante la respuesta correcta, ¿cuántos pueblos de España deberían llamarse “Guijo”?
   En 1998, Alberto Porlan publicó un libro fascinante, Los nombres de Europa. En sus casi 700 páginas se dedica a recoger una sucesión de topónimos obstinadamente repetidos a lo largo y ancho del viejo continente. Aceptemos que "Lorenzo" puede significar una cosa u otra, dependiendo del juego lingüístico en el que nos encontremos, quiero decir, de su uso,  pero ¿por qué la utilización de S. Lorenzo como topónimo va acompañada en un entorno de seis kilómetros por un topónimo Valvanera? Eso ocurre en La Rioja, en Salamanca, en Girona y, con ciertas variantes, en Orense y Lleida. Claro que también ocurre con St. Lawrence y Welwyn en Inglaterra, con St. Laurentius y Werfenau en Alemania, con S. Lorenzo y Valfenera en Italia, con Saint Laurent sur Sèvre y la Barbiniere, St. Laurent-en-Beaumont y Valbonais y St.-Laurent du Ver y Valbone, todas ellas en Francia. Cierto, en Francia hay muchos topónimos "Saint Laurent", pero ¿cuántas "Cádiz" hay en Europa? También muchas. Tenemos la Cádiz situada frente a Rota, la Kadijk holandesa situada frente a Rotterdam, la Gaditz alemana muy cerca de Rotta, la también alemana Kaditzsch, algo más alejada de Rötha, el villorrio británico de Catcliffe, cercano a Rotherham... 
   Supongamos que el azar y no la necesidad se hallase en el origen de las palabras. De hecho, no vamos a dejar el término “azar” sin definición. “Azar” no implica ausencia de causas, significa que no hay relación entre las características de esa palabra y la necesidad que viene a suplir. Supongamos que en las palabras, como en los genes, se producen “mutaciones”, que en lugar de sustituir una timina por una guanina, se sustituyese una “o” por una “a” y que de “interlocutor” surgiese “interlocutar”, o bien que se produzcan auténticas recombinaciones como en "escanear" o "jonrón". Supongamos que las palabras se hallan en una lucha por la existencia y que únicamente sobreviven las más aptas. Si Darwin definía “más apto” como aquel organismo que dejaba más descendencia nosotros definiremos como “palabra más apta” aquella que forma parte del repertorio de un conjunto más amplio de hablantes de una lengua. Ahora podemos entender la lucha entre las palabras como lucha por posiciones en las mentes de esos hablantes. Por tanto, lo que llamamos “significado” de una palabra no consiste en un objeto real o imaginario, no consiste en el uso que se hace de esa palabra, ante todo designa la posición que ocupa esa palabra en la mente de quienes comparten una lengua. Semejante posición determina el uso que se haga de ella. ¿Acaso no tenemos un modelo más simple y respetuoso con los hechos?
   Si el significado de una palabra se hallase en su posición, podríamos entender lo descubierto por Porlan, a saber, que los nombres forman estructuras posicionales que, como una rejilla, se aplican al territorio para ordenarlo y queda claro que “territorio” no hace referencia únicamente a la orografía. El posicionamiento de marcas que descubrieron Ries y Trout, el propio naming, al cual ya hemos hecho alusión en este blog, se seguirían ahora de un modo natural a partir de esta concepción del lenguaje, pues cualquier nombre se halla en nuestra mente porque ocupa una posición y eso incluye el nombre “Dios”, como muy bien supieron ver Nietzsche y Feuerbach. Aquí radica, pues, el poder de las palabras en su posición, no en su uso.

domingo, 29 de enero de 2017

Que yo fuera o fuese interlocutado (1 de 2)

   El pasado viernes 13 de enero, la versión impresa de El País informaba que los propietarios de la torre Agbar de Barcelona habían decidido renunciar a sus pretensiones de convertir el citado edificio en hotel, debido al desgaste de varios años de tramitación “y a las dificultades para interlocutar con el gobierno de la ciudad”. El palabro tenía tal magnitud que cuando esa tarde intenté encontrarlo en la edición digital, había desaparecido. No obstante, me quedó la inquietud de quien ha tenido un encuentro en la tercera fase, así que me puse a buscar por Internet y, en efecto, allí encontré testimonios de otros avistamientos. En los foros de la Real Academia de la Lengua, quedaba constancia de su existencia al menos desde 2011. Se especulaba con que vio la luz en Chile, en Honduras o en la propia España y se afirmaba que, si bien aún no se halla recogida en el diccionario de la RAE, consta ya en el Diccionario de americanismos. Dada la práctica habitual de la academia de dar por bueno todo lo que se pronuncie, queda poco para la  canonización de semejante término. Dudo mucho, en cualquier caso, que tan feliz invento haya tenido su origen aquí. Los madrepatrios acostumbramos a maltratar el idioma por vía de la tergiversación gramatical o semántica más que por la vía inventiva, algo que me parece mucho más habitual allende los mares. En cualquier caso deben entenderme, aunque lo parezca, no me opongo a la innovación lingüística, bien al contrario, me fascina.
   La ingenua teoría de que el significado de una palabra viene dado por su uso, teoría que Wittgenstein se limitó a proponer para “la mayoría de los casos” y que sus epígonos han convertido en dogma de fe, nos deja en la absoluta inopia cuando se trata de explicar cómo surgen las palabras. Al parecer, una conjunción de letras se halla en el limbo de las palabras esperando que alguien la descubra y carente por completo de existencia mundanal, quiero decir, de significado. De repente, los hablantes comienzan a usarla, con lo que adquiere un significado ex nihilo. Dicho de otro modo el significado no existe y, súbitamente, comienza a existir, sin causa, razón ni motivo. Además, como Wittgenstein insistía en que no podía haber juegos del lenguaje privados, tenemos que no se trata de que alguien, de buenas a primeras, asigne un significado a lo que antes no constituía una palabra. Tiene que tratarse de un conjunto de hablantes, al menos dos, que comienzan a utilizar una palabra de la misma manera, quiero decir, asignan el mismo significado a una palabra a la vez. Dado que no han podido ponerse de acuerdo en ello, pues entonces habrían usado la palabra antes de que ésta tuviese significado, la única explicación consiste en que, por una telepatía extralingüística, han llegado a algún tipo de acuerdo. Si esto parece un poco raro, hay cosas mejores, por ejemplo, siguiendo semejante “explicación”, a los pañuelos de papel se los podría haber comenzado a llamar Kleenex antes de que tal empresa hubiese existido y “formica” designaría un tipo de plástico antes de que se hubiese fabricado por primera vez. En realidad, la teoría del significado como uso y la existencia de una comunidad de hablantes constituyen términos excluyentes porque no hay nada que garantice que yo uso un término exactamente de la misma manera que lo hacen los demás.
   El modo de evitar estas incongruencias pasa por anteponer un elemento al uso del término: la necesidad. Aparece una necesidad y, como consecuencia, algo, un artefacto, un producto, un partido político o una palabra, viene a satisfacerla. El propio Lamarck señalaba ya que la necesidad crea la función y Lázaro Carreter parece inclinarse por el bonito criterio de que no se deben admitir nuevas palabras en el idioma a menos que se necesiten, criterio que, de seguirse a rajatabla, nos tendría aún confinados en el latín. No obstante, a mi esta teoría siempre me han encantado, porque una versión de la misma aparece en Astérix en Bretaña. Allí se nos cuenta cómo los habitantes de las islas británicas bebían agua hervida, a veces “con una nube de leche”, hasta que Panorámix satisfizo su necesidad llevándoles unas hierbas de la India llamadas “té”. De modo semejante me imagino que durante siglos los europeos anduvieron dándose de cabezazos unos con otros debido al enorme mono de nicotina que tenían antes de que hubiese nacido Colón. Debió haber una especie de cuenta atrás que llegó al día en que, por fin, alguien trajo el tabaco al viejo continente, acabando con la inmensa necesidad que de él había. Y, todavía mejor, dado que las necesidades “están ahí” mientras no venga alguien a satisfacerlas, no se entiende por qué no hubo necesidad de productos para limpiar la vitrocerámica antes de que existieran las vitrocerámicas. Así llegamos a la cuestión que queríamos plantear: ¿qué necesidad había de crear un palabro como “interlocular”? Y si no había necesidad, ¿por qué hay quien ha comenzado a usarla, quiero decir, la ha dotado de significado?

domingo, 22 de enero de 2017

Un siglo desafortunado (y 3)

   Pensamos, con frecuencia, que la historia de la verdad no puede consistir más que en un desarrollo lineal, que la ciencia progresa unidireccionalmente y que la filosofía evoluciona con ella hacia formas más acertadas de plantear los problemas. No hay puntos de retorno, no hay vueltas atrás, no hay nada en ese camino que pueda asimilarse a un círculo o a un laberinto. Pero la verdad, como los árboles, nace con tronco endeble, y hay que apuntalarla hasta que eche sólidas raíces.
   El modo que tenemos los seres humanos de entendernos, la concepción que podemos alcanzar a formarnos de nosotros mismos, parecía seguir una línea muy clara desde 1857 hasta principios del siglo XX. Se sabía que las neuronas no constituyen el único tipo de células encargadas de procesar información, de reconocer estímulos externos ni de formar nuestra identidad. Se sabía, igualmente, que las neuronas no constituyen redes sólo en nuestro cerebro. Se sabía, por tanto, que atribuir a lo encerrado en nuestro cráneo la producción de todos los fenómenos considerados “mentales”, constituía un juicio arriesgado. Una concepción del ser humano rica, holística y basada en hechos, parecía hallarse al alcance de la mano. 
   Todo se torció con el cambio de siglo. Se impuso una visión del ser humano mutilada, simplista, basada en metáforas y ficciones. Se ignoraron los hallazgos de Metal’nikov porque no cuadraban con semejante imagen. A Langley no se lo podía ignorar, de modo que se optó por citarlo sin leerlo, pues de lo contrario se habría hallado en sus libros cosas que no podían existir. Las complejidades de la biología, sus abstrusos azares, ese maldito saber que nos obliga a entendernos como animales simbióticos, se dejó de lado. Si los escolásticos en sus oscuros tiempos buscaron en el mundo pistas para entender la mente de Dios, el siglo XX optó por escudriñar cuidadosamente un producto del cerebro, una máquina, para entender nuestra mente: el ordenador. Se obtenía, así, una guía mucho más simple, mecánica y determinista, mucho más conveniente pues, aunque sólo aportara extravíos y confusión. Ahora podía robársele el cuerpo al cerebro, aislar la conciencia de la realidad, arrojarnos a un mundo que forzosamente habría de caracterizarse como hostil. Esa caricatura, ese amago de hombre, constituyó el eje de las reflexiones del siglo XX. A todos les vino bien. Los científicos obtuvieron fácilmente dinero para sus investigaciones a cambio de algo que el siglo XX comenzó a apreciar más que el oro: imágenes. La industria halló argumentos sobrados para medicar cada aspecto de nuestra vida, incluyendo los males a los que en otra época se calificó de “espirituales”. La población, en general, fue adoctrinada en la idea de que, por mucho que se resistieran, en el fondo, ni sus destinos, ni sus vidas y ni siquiera sus pensamientos, se hallaban bajo su control. 
   ¿Y los filósofos? Los filósofos, se convirtieron en febriles lectores de novelas (cuando no en productores de las mismas), en obsesos consumidores de filmografías (cuando no en productores de las mismas), en roedores de contenidos televisivos (cuando no en contertulios de los mismos). En definitiva, los filósofos dejaron de hablar de la realidad para hablar acerca de la ficción, algo, sin duda, mucho más conveniente y mucho mejor visto por la sociedad. Embaucados por el mundo de la ficción, apenas si dudaron a la hora de subirse a un carro plagado de ellas. 
   Resulta difícil no ver en todo esto meros epifenómenos de un giro mucho más amplio, cuyo estudio habrán de afrontar generaciones futuras pues muchos de los que formamos las que actualmente viven apenas si hemos sido capaces de percibirlo. 
   Desde los años 70 del siglo XX, el esfuerzo por no ver los hechos comenzó a resultar insoportable. Se replicaron los experimentos de Metal’nikov, se recuperó el texto de Langley, gente como Michael D. Gershon, Michal Schwartz, Jonathan Kipnis, Fred Gage, se empeñaron en trabajar lejos de la corriente principal de su disciplina, recuperando, en algunos casos, un saber que nunca debió perderse. Poco a poco, lo que fueron encontrando resultó demasiado llamativo como para no verlo. Hoy día la neuroinmunología, la neurogastroenterología, la neurocardiología, van desplazando los límites del conocimiento hacia horizontes insospechados y todo el mundo espera de ellas enormes aportaciones. Falta mucho aún para que sus hallazgos pasen a formar parte del acervo popular. Mientras tanto queda la cuestión de cuándo se enterarán los filósofos de lo que viene pasando.

domingo, 15 de enero de 2017

Un siglo desafortunado (2)

   En 1974 llegan al mercado los primeros modelos de tomógrafos. Estos aparatos permitían la formación de imágenes a partir de la radiación de protones de algunas sustancias y, por tanto, el estudio de diferentes procesos en organismos vivos. Muy pronto fueron utilizados para obtener imágenes de cerebros durante la realización de tareas. Se inicia, pues, la identificación de las áreas celebrales encargadas de desempeñar diferentes cometidos.
   En 1977, H. Besedovsky y su equipo mostraron que el sistema nervioso podía responder a señales emitidas por el sistema inmunitario. La razón la encontraron Williams y Felten con sus respectivos equipos en 1981 y 1987: existen fibras nerviosas localizadas directamente en los órganos linfoides (timo, bazo, ganglios, etc.) Particular afinidad parecían tener por las células T y los macrófagos, algo un poco extraño porque las células que tienen receptores para los neurotransmisores en su membrana (entre otros, serotonina, acetilcolina, endorfinas, etc.) son los linfocitos B. Tradicionalmente se suelen definir las citoquinas como moléculas encargadas de transmitir señales entre las células del sistema inmunitario, pero, en realidad, diferentes células del cerebro presentan receptores para las citoquinas, particularmente en el hipocampo. Igualmente el cerebro posee la capacidad de fabricar citoquinas y, en reciprocidad, también el sistema inmunitario puede fabricar neurotransmisores. A estos datos hace falta añadirles dos matices. Primero que el 95% de la serotonina de nuestro organismo la genera el intestino. No se trata de un caso único cuando hablamos de neurotransmisores. Segundo que las relaciones entre sistema nervioso y sistema inmunitario se habrían visto claras mucho antes de haber prestado atención al sistema nervioso entérico pues el intestino constituye el órgano en torno al cual se mueve la mayor parte de las células implicadas en la reacción inmune.
   El mismo año en que Besedovsky muestra la indudable interacción entre sistema nervioso e inmunitario, I. Tiscornia publica “The Neural Control of Exocrine and Endocrine Pancreas”, artículo en el que pone de manifiesto que las secreciones pancreáticas se hallan bajo el control del sistema nervioso entérico.  
   En 1981, el filósofo Hilary Putnam publica “Brains in a vat”, en el que presenta la imagen un cerebro metido en una cubeta al que un científico loco mantiene con vida, presentándole estímulos que le llevan a recrear una realidad exactamente como la nuestra. A partir de este momento los filósofos se dedican a discutir si semejante argumento refuta el escepticismo o el realismo, pero lo que verdaderamente puede considerarse el logro de Putnam consiste en haber convencido a todo el mundo de que cuanto constituye nuestra realidad resulta un producto, exclusivamente, de nuestro cerebro, en el cual y únicamente en el cual, se desarrollan los procesos que podemos llamar “mentales”.
   Michael D. Gershon no olvidará ese año de 1981. Dedicado durante décadas al estudio del sistema nervioso entérico, se había acostumbrado a que lo trataran como la mascota de la Sociedad de Neurociencia norteamericana. En noviembre de 1981, durante la convención de Cinncinati, sin embargo, algunos de sus más fieles opositores mostraron datos que le daban la razón, la comunidad científica volvía a admitir que existen neuronas en el tracto digestivo, alrededor de cien millones. Muchos de los que ignoran la longeva historia del sistema nervioso entérico consideran a Gershon desde entonces el padre de la neurogastroenterología. 
   En 1991, Daniel Dennett publica La conciencia explicada. Aunque ya en las primeras páginas deja claro que no pretende explicar la conciencia y aunque se trataba de un libro para especialistas de diferentes procedencias, este escrito se convirtió en un bestseller, siendo leído habitualmente en un sentido fisicalista y reduccionista radical. Desde 1991, los debates en filosofía giran en torno a cómo habérselas con el hecho de que los contenidos mentales son, en última instancia, procesos químicos de nuestro cerebro, sin que nadie haya conseguido explicar qué otro verbo podría utilizarse en sustitución del verbo ser en la frase anterior.
   Ese mismo año aparecen los primeros estudios que elaboraban imágenes usando el contraste en el nivel de dependencia del oxígeno en sangre, la base de la técnica de fMRI, que proporciona localizaciones de hasta 1mm de exactitud en el desarrollo de actividades del cerebro.
   En 2004 el equipo de Jonathan Kipnis, demostró experimentalmente que la pérdida de linfocitos T en ratones provoca pérdida de habilidades cognitivas, habilidades cognitivas, por lo demás, que se recuperan en cuanto se les vuelven a inyectar sus correspondientes linfocitos. Numerosos experimentos, entre ellos algunos realizados con humanos, han confirmado posteriormente estos hallazgos.
   Desde 2012, diferentes equipos reportaron que las supuestas localizaciones cerebrales utilizando la técnica de fMRI se quedaban en nada cuando se utilizaban muestras de sujetos por encima del medio millar. Cuatro años después, Anders Eklund, Thomas E. Nichols and Hans Knutsson, publicaron “Cluster failure: Why fMRI inferences for spatial extent have inflated false-positive rates”, en el cual mostraban que un número indeterminado de imágenes obtenidas por la técnica de fMRI y que virtualmente podría incluirlas a todas, contenían errores de diversa magnitud.

domingo, 8 de enero de 2017

Un siglo desafortunado (1)

   En 1857 el anatomista y fisiólogo Georg Meissner publica "Über die Nerven der Darmwand", primera descripción de los ganglios nerviosos contenidos en las paredes del sistema digestivo. Aunque la fama le vino a Meissner por el descubrimiento de las terminaciones nerviosas responsables del tacto, su artículo atrajo la atención de otros fisiólogos, en particular de Leopold Auerbach, notable anatomista y neuropatólogo que en 1862 descubrió que tales ganglios componían toda una red encargada de controlar la motilidad intestinal. Semejante red recibe el nombre de plexo de Auerbach o plexo mientérico, de acuerdo con la denominación de Jacob Henle en su Handbuch der Nervenlehre des Menschen de 1871, escrito de tal calado que aún hoy puede comprarse en las librerías. 
   24 años después, en 1895, Jan von Dogiel, una vez más, anatomista y fisiólogo, en este caso ruso, describió los componentes de esa red y esos ganglios como neuronas, a las cuales clasificó en diferentes tipos en función de sus axones y dendritas. La clasificación de Dogiel generó rápidamente una polémica, entre otros, con Don Santiago Ramón y Cajal y, aunque todo el mundo le reconoce su carácter pionero, no ha dejado de causar disputas desde entonces. En cualquier caso, Dogiel asentó la idea de que los mamíferos y, por supuesto, el hombre, poseen neuronas más allá de su cráneo y su médula espinal, en concreto, a lo largo de todo el tubo que nos conforma y los órganos que a él afluyen.
   En 1913, Edmund Husserl publica sus Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie, escrito en el que aparece por primera vez una tematización explícita de la epojé. La conciencia, dice Husserl, debe estudiarse procediendo a una serie de “reducciones”, entendidas como una sucesión de desconexiones que van separando los fenómenos mentales de los procesos físicos, biológicos o de referencia a una realidad exterior a la propia conciencia.
   1921 debió ser el año en que el sistema neuronal de nuestro aparato digestivo entraba por la puerta grande en la medicina. Ese año Sir Johannes Newport Langley, razonó que si de la columna vertebral apenas si salen un centenar de nervios hacia el aparato digestivo y si en éste había varios millones de neuronas (hoy se calcula que unos cien millones), entonces éstas debían constituir un sistema nervioso por sí mismo. Le dio, por tanto, el nombre con el que se lo conoce hasta hoy, sistema nervioso entérico y, en la que se convertiría en obra de referencia, The Autonomic Nervous System, le reconocía el carácter de tercer sistema nervioso, junto con el sistema central (encéfalo) y el periférico (médula espinal). Paradójicamente, sin embargo, 1921 marca el año en que el sistema nervioso entérico desapareció de la medicina. Por razones que no resultan fáciles de explicar, el libro de Langley, como digo, todo un clásico, se convirtió en uno de esos libros más citados que leídos, hasta el punto de que todo el mundo lo recuerda como el primer escrito en el que se canonizaba la existencia de dos sistemas nerviosos en el cuerpo humano, el central y el periférico. El sistema nervioso entérico, simplemente, cayó en el olvido.
   Ese mismo año de 1921, el zoólogo ruso Segei Metal’nikov asentado en el Institut Pasteur de París publica "L’immunité naturelle et acquise chez la chenille de Galleria melonella", artículo en el que demuestra que las larvas de Galleria melonella no frenan la producción de anticuerpos a menos que se inactiven sus ganglios nerviosos. Metal’nikov sospecha ya del vínculo entre sistema inmunitario y sistema nervioso, algo que acabará probando en "Rôle des reflexes conditionnels dans l’immunité", artículo cinco años posterior publicado junto a Victor Chorine. En él reflejaban sus experimentos con cerdos de guinea a los que les inyectaban tapioca o bacilos de antrax inactivos a la vez que les aplicaban calor o un arañazo en una pequeña área de la piel. La sola presencia del estímulo condicionado provocaba una producción de leucocitos semejante a la inyección del antígeno. Aunque metodológicamente criticables, los experimentos de Metal’nikov y Chorine pudieron replicarse sin problemas en los años 70 con criterios más rigurosos. En esencia puede decirse que a principios del siglo XX se había demostrado que el sistema inmunitario puede aprender.
    Probablemente, en septiembre de 1948, en el simposio de la Fundación Hixon sobre mecanismos cerebrales en el comportamiento, celebrado en el Instituto Tecnológico de California, John von Neumann, matemático de origen húngaro, enunció por primera vez la metáfora del ordenador. No me detendré en exponerla minuciosamente pues todos la tenemos dentro de nuestras cabezas como si no hubiese otro modo de pensarnos: el cerebro es como un ordenador. Sí merece la pena señalarse, primero, que en esta metáfora se obvian como irrelevantes las diferencias físicas entre un cerebro y un ordenador; segundo, que las semejanzas funcionales quedan convertidas en una identidad categorial, pues ambos, cerebro y ordenador, son el mismo tipo de máquina. Cualquier discusión posterior sobre la naturaleza de los seres humanos partirá, pues, del supuesto de que sólo tenemos una unidad de procesamiento de la información y que ésta no resulta modificada o alterada en su estructura o funcionamiento por ningún otro de los elementos que nos componen.

domingo, 1 de enero de 2017

Vientos del sur.

   Si no recuerdo mal en Lo que sueñan los lobos, de Yasmina Khadra (es decir, de Mohammed Moulessehoul), aparece como personaje incidental el chófer de un alto cargo del ejecutivo argelino. Tiene un trabajo que le sirve para alimentar a su familia, pero le ha obligado a ver muchas cosas que preferiría no haber contemplado. Aunque carece de inquietudes religiosas, acaba  diciendo algo así como que si para limpiar el país era necesaria la llegada de los islamistas al poder, bienvenidos fueran. El Frente Islámico de Salvación, ganó las municipales de 1990 y la primera vuelta de las generales de 1991, enarbolando la bandera de la honestidad frente al régimen del Frente de Liberación Nacional, que había gobernado desde la independencia de Argelia en 1962, hundiéndose cada vez más en el fango de una corrupción rampante. Esa pregunta que los occidentales se hacen con tanta frecuencia, cómo alguien puede votar a un partido que propone una involución a siglos pretéritos, tiene una respuesta extremadamente fácil, porque ellos, como nosotros, están hartos de pseudodemocracias en las que la elocuencia de las grandes palabras encubre los grandes negocios de unos cuantos amigotes. Se votó al FIS en Argelia con la misma mentalidad que ha llevado al Partido de la Justicia y el Desarrollo al gobierno de Marruecos, que ha estado a punto de llevar a la ultraderecha al poder en Austria y que ha puesto en la Casa Blanca a Donald Trump. 
   Mientras Argelia ardía en la barbarie de la guerra civil en la que desembocó el golpe de Estado del 91, Marruecos se mantuvo al margen de esta y otras olas de radicalización. En esencia contaba con dos muros de contención contra ellas. El primero es que el soberano marroquí, además de jefe del Estado, es considerado descendiente directo de Mahoma, por lo que ostenta el cargo de “líder religioso de los fieles”. En la práctica eso significa que cualquier movimiento islamista tiene que empezar por explicar cómo y por qué el Islam oficial no es el verdadero, asunto que el laicismo del régimen argelino convertía en superfluo. El segundo muro pasa por un Parlamento cuyas atribuciones han ido en aumento desde los años 80, hasta el punto de que hoy día Marruecos es una democracia tan aparente como cualquier otra de Europa. La diferencia con lo que sucede en el norte no reside en el juego político. La diferencia está en que en un país como España, las cuestiones de calado son decididas por una nebulosa de políticos y empresarios que pisan poco la Zarzuela y mucho la Moncloa, el cortijo del correspondiente presidente autonómico o la mansión del alcalde de turno. En Marruecos poco o nada se mueve sin la aquiescencia del Majzen, quedándole al Parlamento la potestad de hacer política pero no negocios. El resultado es que, desde Abdelsam Yasin, el islamismo marroquí se ha caracterizado por su predisposición a aceptar las reglas del juego político y la autoridad del monarca, sin por ello renunciar a islamizar la sociedad por vías pacíficas tales como la enseñanza y la persuasión. Los líderes del Partido de la Justicia y el Desarrollo, en el gobierno desde las últimas elecciones, exhiben, en efecto, formas suaves, tono moderado y nudos Windsor en sus corbatas. Han aguantado recuentos electorales que, una y otra vez, no mostraban el soporte popular que realmente tenían sin levantar jamás la voz, han condenado todos y cada uno de los atentados y han hecho lo posible por no ser vistos en compañías sospechosas. Sus discursos mantienen una línea de moderación y de acatamiento al régimen establecido por más que, de vez en cuando, en alguna entrevista, alguno de sus dirigentes saque los pies del tiesto.
   Muchas voces laicas de Marruecos vienen clamando que su moderación apenas es una pose, que el tono real del partido no es la voz de sus líderes, sino el que se vive durante las numerosas campañas contra los biquinis en las playas y que el PJD y el wahabismo importado por el Majzen han sido el caldo de cultivo para todos esos marroquíes que se dedican a apiolar infieles en buena parte del mundo musulmán. La verdad es que tales denuncias chirriaban con las reformas religiosas introducidas por Mohamed VI, la propia constitución de 2011 que consagra la libertad de culto y la imagen cotidiana del PJD. Sin embargo, este otoño, numerosas familias se han encontrado con que el colegio en el que estudiaban sus hijos ha cerrado sus puertas sin mayores explicaciones. A toda prisa han tenido que escolarizarlos en colegios alejados de su residencia y masificados o en uno de los múltiples colegios privados que han ido apareciendo sin mucho orden ni control y, sobre todo, sin que nadie sepa muy bien quién está en última instancia tras ellos. El gobierno se ampara en la necesaria reestructuración y modernización de los centros públicos, pero en un reciente artículo, Karim Boukhari daba cuenta de que, en un país en el que, insisto, nada ocurre sin que lo sepa el Majzen, los niños de cinco y seis años llegan a casa relatando los castigos que esperan a los impíos en la otra vida o cómo se debe lavar el cadáver de un buen musulmán. Por tanto, si algo debemos esperar del sur en los próximos años, no será que nos aporte vientos suaves.